JP2012186535A - Electronic device and grouping method - Google Patents

Electronic device and grouping method Download PDF

Info

Publication number
JP2012186535A
JP2012186535A JP2011046396A JP2011046396A JP2012186535A JP 2012186535 A JP2012186535 A JP 2012186535A JP 2011046396 A JP2011046396 A JP 2011046396A JP 2011046396 A JP2011046396 A JP 2011046396A JP 2012186535 A JP2012186535 A JP 2012186535A
Authority
JP
Japan
Prior art keywords
electronic device
rhythm information
unit
similarity
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011046396A
Other languages
Japanese (ja)
Inventor
Mikiya Tanaka
幹也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011046396A priority Critical patent/JP2012186535A/en
Priority to EP12753041.8A priority patent/EP2683152A4/en
Priority to PCT/JP2012/055188 priority patent/WO2012118138A1/en
Publication of JP2012186535A publication Critical patent/JP2012186535A/en
Priority to US14/016,719 priority patent/US20140003730A1/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily group a plurality of electronic devices.SOLUTION: An electronic device 1 comprises: an acquisition unit 10 for acquiring rhythm information representing a temporal or spatial change pattern of an object in a captured image; a calculation unit 20 for calculating the degree of similarity between pieces of rhythm information of respective objects acquired by the acquisition unit 10 from respective captured images captured by different electronic devices; and a grouping unit 30 for generating grouping information for grouping the electronic devices which have captured the respective captured images on the basis of the degree of similarity between the pieces of rhythm information of the respective objects calculated by the calculation unit 20.

Description

本発明は、電子機器及びグループ化方法に関するものである。   The present invention relates to an electronic device and a grouping method.

従来、入力画像間の類似性を評価することによって入力画像をグループ化する撮像装置が開示されている(例えば、特許文献1参照)。   Conventionally, an imaging apparatus that groups input images by evaluating the similarity between the input images has been disclosed (see, for example, Patent Document 1).

特開2011−010275号公報JP 2011-010275 A

しかしながら、特許文献1に開示された撮像装置の如く画像をグループ化する電子機器は、電子機器をグループ化しない。即ち、グループ化を行う電子機器といえども、グループ化の対象物は画像であって、電子機器自体をグループ化の対象とはしていない。従って、電子機器自体をグループ化した場合に実現され得る種々の応用処理(例えば、同一グループにグループ化された複数の電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように設定)を実現することができないという問題がある。
本発明は、上記問題に鑑みてなされたものであり、複数の電子機器を簡便にグループ化する技術を提供する。
However, an electronic device that groups images, such as the imaging device disclosed in Patent Document 1, does not group electronic devices. That is, even in the electronic device that performs grouping, the grouping target is an image, and the electronic device itself is not a grouping target. Accordingly, various application processes that can be realized when the electronic devices themselves are grouped (for example, a plurality of electronic devices grouped in the same group output sound in the same manner, emit light in the same manner, or vibrate in the same manner). There is a problem that it is not possible to realize the setting).
The present invention has been made in view of the above problems, and provides a technique for easily grouping a plurality of electronic devices.

上記問題を解決するために、本発明の一態様である電子機器は、撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する取得部と、異なる電子機器によって撮像された夫々の撮像画像から前記取得部によって取得された各オブジェクトの前記リズム情報の類似度を算出する算出部と、前記算出部によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記夫々の撮像画像を撮像した電子機器をグループ化するグループ化情報を生成するグループ化部とを備えることを特徴とする。   In order to solve the above problem, an electronic device according to one embodiment of the present invention captures an image using an acquisition unit that acquires rhythm information representing a temporal or spatial change pattern of an object in a captured image and a different electronic device. Based on the similarity of the rhythm information of each object calculated by the calculation unit, a calculation unit that calculates the similarity of the rhythm information of each object acquired by the acquisition unit from each captured image, And a grouping unit that generates grouping information for grouping electronic devices that have captured the respective captured images.

上記電子機器において、前記取得部は、他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部を有し、前記算出部は、前記受信部によって受信された第1の他の電子機器によって撮像された第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された第2の他の電子機器によって撮像された第2の他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、前記グループ化部は、前記算出部によって算出された前記第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記第2の他の撮像画像内のオブジェクトの前記リズム情報との類似度が所定の閾値以上である場合に、前記第1の他の電子機器と前記第2の他の電子機器を同一グループにグループ化するようにしてもよい。   In the electronic device, the acquisition unit includes a reception unit that receives the rhythm information of an object in a captured image captured by another electronic device, and the calculation unit receives the first received by the reception unit. The rhythm information of the object in the first other captured image captured by another electronic device and the second other captured image captured by the second other electronic device received by the receiving unit The degree of similarity of the object in the rhythm information is calculated, and the grouping unit calculates the rhythm information of the object in the first other captured image calculated by the calculator and the second other The first other electronic device and the second other electronic device are grouped into the same group when the similarity of the object in the captured image with the rhythm information is equal to or greater than a predetermined threshold value. It may be.

上記電子機器において、前記取得部は、撮像部と、他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部とを有し、前記算出部は、前記撮像部によって撮像された自撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された他の電子機器によって撮像された他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、前記グループ化部は、前記算出部によって算出された前記自撮像画像内のオブジェクトの前記リズム情報と、前記他の撮像画像内のオブジェクトの前記リズム情報との類似度が所定の閾値以上である場合に、当該電子機器と前記他の電子機器を同一グループにグループ化するようにしてもよい。   In the electronic device, the acquisition unit includes an imaging unit and a reception unit that receives the rhythm information of an object in a captured image captured by another electronic device, and the calculation unit is configured by the imaging unit. Calculating the degree of similarity between the rhythm information of the object in the captured self-captured image and the rhythm information of the object in another captured image captured by another electronic device received by the receiving unit; The grouping unit is configured when the similarity between the rhythm information of the object in the self-captured image calculated by the calculation unit and the rhythm information of the object in the other captured image is equal to or greater than a predetermined threshold. The electronic device and the other electronic device may be grouped into the same group.

上記電子機器は、前記グループ化部によって同一グループにグループ化された他の電子機器と通信するための接続情報を表示する表示部を更に備えるようにしてもよい。   The electronic device may further include a display unit that displays connection information for communicating with other electronic devices grouped into the same group by the grouping unit.

上記電子機器は、前記グループ化部によって同一グループにグループ化された複数の電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器に動作制御情報を送信する送信部を更に備えるようにしてもよい。   The electronic device controls the operation of another electronic device so that a plurality of electronic devices grouped in the same group by the grouping unit outputs sound in the same manner, emits light in the same manner, or vibrates in the same manner. You may make it further provide the transmission part which transmits information.

上記問題を解決するために、本発明の他の態様であるグループ化方法は、電子機器をグループ化する電子機器におけるグループ化方法であって、前記電子機器の取得手段が、撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得し、前記電子機器の算出手段が、異なる電子機器によって撮像された夫々の撮像画像から前記取得手段によって取得された各オブジェクトの前記リズム情報の類似度を算出し、前記電子機器のグループ化手段が、前記算出手段によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記夫々の撮像画像を撮像した電子機器をグループ化するグループ化情報を生成することを特徴とする。   In order to solve the above problem, a grouping method according to another aspect of the present invention is a grouping method in an electronic device for grouping electronic devices, in which the acquisition unit of the electronic device is an object in a captured image. The rhythm information representing the temporal or spatial change pattern of the object is acquired, and the calculation means of the electronic device acquires the rhythm of each object acquired by the acquisition means from the respective captured images captured by different electronic devices. The similarity of information is calculated, and the electronic device grouping unit groups the electronic devices that captured the respective captured images based on the similarity of the rhythm information of each object calculated by the calculation unit. The grouping information to be generated is generated.

本発明によれば、複数の電子機器を簡便にグループ化することできる。   According to the present invention, it is possible to easily group a plurality of electronic devices.

本発明の一実施形態による電子機器1の処理の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline | summary of the process of the electronic device 1 by one Embodiment of this invention. 電子機器1の一例を示す構成図である。1 is a configuration diagram illustrating an example of an electronic device 1. 電子機器1が取得又は記憶する情報の一例である。It is an example of the information which the electronic device 1 acquires or memorize | stores. 他の電子機器100の一例を示す構成図である。FIG. 11 is a configuration diagram illustrating an example of another electronic device 100. オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the temporal change pattern of an object, the production | generation of the said rhythm information, and the calculation of the similarity in the said rhythm information. オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the temporal change pattern of an object, the production | generation of the said rhythm information, and the calculation of the similarity in the said rhythm information. オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the temporal change pattern of an object, the production | generation of the said rhythm information, and the calculation of the similarity in the said rhythm information. オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the spatial change of an object, the production | generation of the said rhythm information, and calculation of the similarity in the said rhythm information. オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the spatial change of an object, the production | generation of the said rhythm information, and calculation of the similarity in the said rhythm information. オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the spatial change of an object, the production | generation of the said rhythm information, and calculation of the similarity in the said rhythm information. オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the spatial change of an object, the production | generation of the said rhythm information, and calculation of the similarity in the said rhythm information. 電子機器1の動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation of the electronic device 1. 電子機器1によるグループ化の結果を説明するための模式図である。It is a schematic diagram for demonstrating the result of grouping by the electronic device.

以下、図面を参照しながら本発明の一実施形態について説明する。図1は、本発明の一実施形態による電子機器1の処理の概要を説明するための模式図である。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram for explaining an outline of processing of the electronic apparatus 1 according to an embodiment of the present invention.

電子機器1(例えば、携帯型電子機器)は、複数の電子機器(例えば、携帯型電子機器)をグループ化する。
例えば、電子機器1は、図1(a)に示すように、自電子機器1の周辺に存在する複数の他の電子機器100をグループ化する。即ち、電子機器1は、破線に図示する様に、自電子機器1を除く、複数の電子機器100をグループ化の対象とする。
また例えば、電子機器1は、図1(b)に示すように、自電子機器1、及び、自電子機器1の周辺に存在する複数の他の電子機器100をグループ化する。即ち、電子機器1は、破線に図示する様に、自電子機器1を含む、複数の電子機器(電子機器1及び電子機器100)をグループ化の対象とする。
The electronic device 1 (for example, portable electronic device) groups a plurality of electronic devices (for example, portable electronic devices).
For example, the electronic device 1 groups a plurality of other electronic devices 100 existing around the electronic device 1 as shown in FIG. That is, the electronic device 1 sets a plurality of electronic devices 100 excluding its own electronic device 1 as a grouping target as illustrated by a broken line.
Further, for example, the electronic device 1 groups the electronic device 1 and a plurality of other electronic devices 100 existing around the electronic device 1 as shown in FIG. In other words, the electronic device 1 targets a plurality of electronic devices (the electronic device 1 and the electronic device 100) including the own electronic device 1 as shown in the broken line.

なお、電子機器1及び複数の他の電子機器100の夫々は、例えば、所定の距離内に接近したときに、通信によって、互いの接続情報(後述)を自動的に交換するものとする。   Note that each of the electronic device 1 and the plurality of other electronic devices 100 automatically exchange mutual connection information (described later) by communication when approaching within a predetermined distance, for example.

以下、図1(a)に示す態様(自電子機器1を除く、複数の電子機器100をグループ化の対象とする態様)について説明する。なお、図1(b)に示す態様(自電子機器1を含む、複数の電子機器(電子機器1及び電子機器100)をグループ化の対象とする態様)については後述する。   In the following, the mode shown in FIG. 1A (a mode in which a plurality of electronic devices 100 excluding the electronic device 1 are targets of grouping) will be described. The mode shown in FIG. 1B (a mode in which a plurality of electronic devices (the electronic device 1 and the electronic device 100) including the own electronic device 1 are grouped) will be described later.

図2は、電子機器1の一例を示す構成図である。図3は、電子機器1が取得又は記憶する情報の一例である。電子機器1は、図2(a)に示すように、取得部10、算出部20、グループ化部30、表示部40、送信部50、動作制御部60、リズム情報記憶部90、接続情報記憶部92、グループ化情報記憶部94、及び、動作制御情報記憶部96を備える。   FIG. 2 is a configuration diagram illustrating an example of the electronic apparatus 1. FIG. 3 is an example of information acquired or stored by the electronic device 1. As shown in FIG. 2A, the electronic device 1 includes an acquisition unit 10, a calculation unit 20, a grouping unit 30, a display unit 40, a transmission unit 50, an operation control unit 60, a rhythm information storage unit 90, and a connection information storage. Unit 92, grouping information storage unit 94, and operation control information storage unit 96.

取得部10は、図2(b)に示すように、受信部12を有する。なお、取得部10は、図2(c)に示すように、受信部12に加えリズム情報生成部16を有してもよい。また、取得部10は、図2(d)に示すように、受信部12に加え撮像部14及びリズム情報生成部16を有してもよい。但し、図1(a)に示す態様の場合、撮像部14及びリズム情報生成部16は必須でないため、撮像部14及びリズム情報生成部16を有しないものとして説明する。   The acquisition unit 10 includes a reception unit 12 as illustrated in FIG. The acquisition unit 10 may include a rhythm information generation unit 16 in addition to the reception unit 12 as illustrated in FIG. Further, as illustrated in FIG. 2D, the acquisition unit 10 may include an imaging unit 14 and a rhythm information generation unit 16 in addition to the reception unit 12. However, in the case of the mode shown in FIG. 1A, the imaging unit 14 and the rhythm information generation unit 16 are not essential, and thus the description will be made assuming that the imaging unit 14 and the rhythm information generation unit 16 are not provided.

取得部10は、他の電子機器100によって撮像された撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する。具体的には、取得部10内の受信部12が、他の電子機器100の夫々から、図3(a)に示すように、当該他の電子機器100の機器ID及び接続情報とともに、当該他の電子機器100によって撮像された撮像画像内のオブジェクトのリズム情報を受信する。機器IDは、電子機器100の夫々を識別するための識別情報である。接続情報は、電子機器100の夫々と通信するための情報であって、例えば、プロトコルに係る情報、アドレス情報などである。なお、リズム情報については、図5乃至図11を用いて詳細に説明する。   The acquisition unit 10 acquires rhythm information representing a temporal or spatial change pattern of an object in a captured image captured by another electronic device 100. Specifically, as shown in FIG. 3A, the receiving unit 12 in the acquisition unit 10 receives the other electronic device 100 together with the device ID and connection information of the other electronic device 100, as shown in FIG. The rhythm information of the object in the captured image captured by the electronic device 100 is received. The device ID is identification information for identifying each electronic device 100. The connection information is information for communicating with each of the electronic devices 100, and is, for example, information related to a protocol, address information, or the like. The rhythm information will be described in detail with reference to FIGS.

なお、一の他の電子機器100が電子機器1に対し、リズム情報と一緒に接続情報を送信しない場合(例えば、当該リズム情報の送信前に、既に、機器IDとともに当該他の電子機器100の接続情報を電子機器1に送信(交換)していた場合)には、受信部12は、当該他の電子機器100の機器IDとともに、当該他の電子機器100のリズム情報を受信する。即ち、上述のような場合には、受信部12は、リズム情報と一緒に接続情報を受信しない。   In the case where one other electronic device 100 does not transmit connection information together with the rhythm information to the electronic device 1 (for example, before the transmission of the rhythm information, the other electronic device 100 has already been transmitted together with the device ID). When the connection information is transmitted (exchanged) to the electronic device 1), the receiving unit 12 receives the rhythm information of the other electronic device 100 together with the device ID of the other electronic device 100. That is, in the above case, the receiving unit 12 does not receive connection information together with rhythm information.

リズム情報を取得した取得部10(受信部12)は、取得(受信)したリズム情報をリズム情報記憶部90に記憶する。例えば、取得部10は、図3(b)に示すように、機器IDに対応付けてリズム情報を記憶する。   The acquisition unit 10 (reception unit 12) that acquired the rhythm information stores the acquired (received) rhythm information in the rhythm information storage unit 90. For example, as illustrated in FIG. 3B, the acquisition unit 10 stores rhythm information in association with the device ID.

また、リズム情報を取得した取得部10は、リズム情報とともに取得した接続情報を接続情報記憶部92に記憶する。例えば、取得部10は、図3(c)に示すように、機器IDに対応付けて接続情報を記憶する。なお、取得部10は、一の他の電子機器100からリズム情報を取得する前に、既に、機器IDとともに当該他の電子機器100の接続情報を取得(交換)していた場合には、当該取得(交換)時に、機器IDに対応付けて接続情報を記憶する。   The acquisition unit 10 that acquired the rhythm information stores the connection information acquired together with the rhythm information in the connection information storage unit 92. For example, as illustrated in FIG. 3C, the acquisition unit 10 stores connection information in association with the device ID. In addition, before acquiring the rhythm information from one other electronic device 100, the acquisition unit 10 has already acquired (exchanged) the connection information of the other electronic device 100 together with the device ID. At the time of acquisition (exchange), connection information is stored in association with the device ID.

算出部20は、リズム情報記憶部90に記憶されている複数のリズム情報の類似度を算出する。即ち、算出部20は、受信部12によって受信された第1の他の電子機器100によって撮像された第1の他の撮像画像内のオブジェクトのリズム情報と、受信部12によって受信された第2の他の電子機器100によって撮像された第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する。なお、類似度の算出については、図5乃至図11を用いて詳細に説明する。   The calculation unit 20 calculates the similarity of a plurality of rhythm information stored in the rhythm information storage unit 90. That is, the calculation unit 20 includes the rhythm information of the object in the first other captured image captured by the first other electronic device 100 received by the reception unit 12 and the second rhythm information received by the reception unit 12. The similarity with the rhythm information of the object in the second other captured image captured by the other electronic device 100 is calculated. The calculation of the similarity will be described in detail with reference to FIGS.

なお、算出部20が類似度の算出を開始するタイミングは特に限定しないが、例えば、算出部20は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、類似度を算出してもよい。   The timing at which the calculation unit 20 starts calculating the similarity is not particularly limited. For example, the calculation unit 20 calculates the similarity when an operation reception unit (not shown) receives a predetermined user operation. May be.

上述の如く、類似度を算出した算出部20は、類似度の算出結果をグループ化部30に出力する。   As described above, the calculation unit 20 that has calculated the similarity outputs the calculation result of the similarity to the grouping unit 30.

グループ化部30は、算出部20によって算出されたリズム情報の類似度(類似度の算出結果)に基づいて、他の電子機器100をグループ化する(即ち、グループ化の結果であるグループ化情報(後述)を生成する)。より詳細には、グループ化部30は、算出部20によって算出された第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上である場合に、第1の他の電子機器100と第2の他の電子機器100を同一グループにグループ化する。   The grouping unit 30 groups other electronic devices 100 based on the rhythm information similarity (similarity calculation result) calculated by the calculation unit 20 (that is, grouping information that is a grouping result). (Described below)). More specifically, the grouping unit 30 calculates the similarity between the rhythm information of the object in the first other captured image calculated by the calculation unit 20 and the rhythm information of the object in the second other captured image. Is equal to or greater than a predetermined threshold, the first other electronic device 100 and the second other electronic device 100 are grouped into the same group.

例えば、グループ化部30は、電子機器A、B、Cについて、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上である場合に、電子機器A、B、Cを同一グループにグループ化する。
つまり、グループ化部30は、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であっても、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上でない場合には、電子機器A、B、Cを同一グループにグループ化しない。
For example, for the electronic devices A, B, and C, the grouping unit 30 includes the rhythm information of the objects in the captured image captured by the electronic device A and the rhythm information of the objects in the captured image captured by the electronic device B. The similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device C is greater than or equal to a predetermined threshold. Is equal to or greater than a predetermined threshold, and the degree of similarity between the rhythm information of the object in the captured image captured by the electronic device B and the rhythm information of the object in the captured image captured by the electronic device C is predetermined. When it is equal to or greater than the threshold, the electronic devices A, B, and C are grouped into the same group.
That is, the grouping unit 30 has a similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device B is equal to or greater than a predetermined threshold. And the degree of similarity between the rhythm information of the object in the captured image captured by the electronic device B and the rhythm information of the object in the captured image captured by the electronic device C is equal to or greater than a predetermined threshold. If the degree of similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device C is not greater than or equal to a predetermined threshold, the electronic device A , B and C are not grouped into the same group.

なお、グループ化部30は、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上でない場合には、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度とを比較し、電子機器Aか電子機器Cの何れの一方と、電子機器Bとを同一グループにグループ化してもよい。   Note that the grouping unit 30 has a similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device B being equal to or greater than a predetermined threshold. And the similarity between the rhythm information of the object in the captured image captured by the electronic device B and the rhythm information of the object in the captured image captured by the electronic device C is equal to or greater than a predetermined threshold, If the degree of similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device C is not equal to or greater than a predetermined threshold, the electronic device Rhythm information of the object in the captured image captured by A and the object in the captured image captured by the electronic device B The similarity between the rhythm information of the object and the rhythm information of the object in the captured image captured by the electronic device B and the similarity of the rhythm information of the object within the captured image captured by the electronic device C; Either one of the electronic device A or the electronic device C and the electronic device B may be grouped into the same group.

即ち、グループ化部30は、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度よりも高い場合には、電子機器A、Bを同一グループにグループ化し、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度よりも高い場合には、電子機器B、Cを同一グループにグループ化してもよい。   That is, the grouping unit 30 uses the electronic device B to determine the similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device B. If the rhythm information of the object in the captured image is higher than the similarity between the rhythm information of the object in the captured image captured by the electronic device C, the electronic devices A and B are grouped into the same group. The similarity between the rhythm information of the object in the captured image captured by the electronic device B and the rhythm information of the object in the captured image captured by the electronic device C is the same as that in the captured image captured by the electronic device A. Similarity between the rhythm information of the object and the rhythm information of the object in the captured image captured by the electronic device B Remote is higher, the electronic device B, may be grouped into the same group of C.

なお、グループ化部30が複数の他の電子機器100のグループ化を開始するタイミングは特に限定しないが、例えば、グループ化部30は、算出部20から類似度の算出結果を取得したときに、グループ化をしてもよい。   Note that the timing at which the grouping unit 30 starts grouping the plurality of other electronic devices 100 is not particularly limited. For example, when the grouping unit 30 acquires the similarity calculation result from the calculation unit 20, You may group.

上述の如く、複数の他の電子機器100をグループ化したグループ化部30は、グループ化情報をグループ化情報記憶部94に記憶する。例えば、グループ化部30は、図3(d)に示すように、グループ化情報として、グループIDと所属機器情報とを対応付けてグループ化情報記憶部94に記憶する。グループIDは、グループの夫々を識別するための識別情報である。所属機器情報は、当該グループに所属する電子機器100(即ち、当該グループにグループ化された電子機器100)を識別する機器IDを含む情報である。   As described above, the grouping unit 30 that groups a plurality of other electronic devices 100 stores the grouping information in the grouping information storage unit 94. For example, as illustrated in FIG. 3D, the grouping unit 30 stores the group ID and the belonging device information in association with each other as grouping information in the grouping information storage unit 94. The group ID is identification information for identifying each group. The belonging device information is information including a device ID for identifying the electronic devices 100 belonging to the group (that is, the electronic devices 100 grouped in the group).

表示部40は、種々の情報を表示する。例えば、表示部40は、グループ化部30によって同一グループにグループ化された他の電子機器100と通信するための接続情報を表示する。具体的には、表示部40は、接続情報記憶部92とグループ化情報記憶部94とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の機器IDと、当該他の電子機器100と通信するための接続情報とを表示する。なお、表示部40は、接続情報を表示せずに、グループ別に、機器IDのみを表示してもよい。   The display unit 40 displays various information. For example, the display unit 40 displays connection information for communicating with other electronic devices 100 grouped into the same group by the grouping unit 30. Specifically, the display unit 40 refers to the connection information storage unit 92 and the grouping information storage unit 94, and, for each group, the device ID of the other electronic device 100 grouped in the group and the other Connection information for communicating with the electronic device 100 is displayed. The display unit 40 may display only the device ID for each group without displaying the connection information.

なお、表示部40が上述の表示を開始するタイミングは特に限定しないが、例えば、表示部40は、グループ化情報がグループ化情報記憶部94に記憶されたときに表示してもよい。また、表示部40は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに表示してもよい。   The timing at which the display unit 40 starts the above-described display is not particularly limited. For example, the display unit 40 may display when the grouping information is stored in the grouping information storage unit 94. The display unit 40 may display when an operation receiving unit (not shown) receives a predetermined user operation.

また、表示部40は、動作制御情報記憶部96に記憶されている動作制御情報を表示する。図3(e)は、動作制御情報記憶部96に記憶されている動作制御情報の一例である。   Further, the display unit 40 displays the operation control information stored in the operation control information storage unit 96. FIG. 3E is an example of operation control information stored in the operation control information storage unit 96.

動作制御情報は、電子機器1、100の動作を制御するための制御情報であって、例えば、図3(e)に示すように、音声出力を制御するための音声出力制御情報、発光を制御する発光制御情報、振動を制御するための振動制御情報の何れか1以上の制御情報を含む。また、各制御情報(音声出力制御情報、発光制御情報、振動制御情報)は夫々、複数の設定可能値(若しくは、設定可能範囲)を有する。なお、図3(e)に示す動作制御情報は、一例であって、電子機器1、100の他の動作を制御するため他の制御情報を含むものであってもよい。   The operation control information is control information for controlling the operations of the electronic devices 1 and 100. For example, as shown in FIG. 3E, the audio output control information for controlling the audio output and the light emission are controlled. One or more control information of the light emission control information to perform and the vibration control information for controlling a vibration are included. Each control information (audio output control information, light emission control information, vibration control information) has a plurality of settable values (or settable ranges). Note that the operation control information illustrated in FIG. 3E is an example, and may include other control information for controlling other operations of the electronic devices 1 and 100.

なお、表示部40が動作制御情報の表示を開始するタイミングは特に限定しないが、例えば、表示部40は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を表示してもよい。例えば、送信部50が動作制御情報を送信する前に、表示部40は、送信する値(設定値)を確認するためのボタン(操作受付部に相当)を表示し、当該ボタンの押下により、送信前に、送信する値を表示してもよい。   The timing at which the display unit 40 starts displaying the operation control information is not particularly limited. For example, the display unit 40 displays the operation control information when an operation receiving unit (not shown) receives a predetermined user operation. It may be displayed. For example, before the transmission unit 50 transmits the operation control information, the display unit 40 displays a button (corresponding to the operation reception unit) for confirming a value (setting value) to be transmitted, and by pressing the button, You may display the value to transmit before transmission.

送信部50は、種々の情報を送信する。例えば、送信部50は、グループ化情報を他の電子機器100に送信する。具体的には、送信部50は、グループ化情報記憶部94を参照し、グループ別に、当該グループにグループ化された他の電子機器100の夫々に対し、当該グループに属する他の電子機器100の機器IDを送信する。   The transmission unit 50 transmits various information. For example, the transmission unit 50 transmits the grouping information to the other electronic device 100. Specifically, the transmission unit 50 refers to the grouping information storage unit 94 and, for each group of other electronic devices 100 grouped in the group, the other electronic devices 100 belonging to the group. The device ID is transmitted.

また、送信部50は、グループ化部30によって同一グループにグループ化された複数の電子機器100が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器100に動作制御情報を送信する。具体的には、送信部50は、接続情報記憶部92とグループ化情報記憶部94と動作制御情報記憶部96とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の夫々が、同様に音声出力し、同様に発光し、又は、同様に振動するように、各グループにグループ化された夫々の他の電子機器100に動作制御情報を送信する。   In addition, the transmission unit 50 may be configured so that the plurality of electronic devices 100 grouped into the same group by the grouping unit 30 outputs sound in the same manner, emits light in the same manner, or vibrates in the same manner. The operation control information is transmitted to 100. Specifically, the transmission unit 50 refers to the connection information storage unit 92, the grouping information storage unit 94, and the operation control information storage unit 96, and the other electronic devices 100 grouped into the group are grouped by group. The operation control information is transmitted to each of the other electronic devices 100 grouped in each group so that each outputs sound similarly, similarly emits light, or similarly vibrates.

例えば、送信部50は、グループGにグループ化された複数の電子機器100の夫々に対し、同一の設定値(例えば、設定値a)の音声出力制御情報を送信し、グループGにグループ化された複数の電子機器100の夫々に対し、同一の設定値(例えば、設定値b)の音声出力制御情報を送信する。これにより、グループGにグループ化された電子機器100の夫々は、設定値aによる制御に従って音声を出力し、グループGにグループ化された電子機器100の夫々は、設定値bによる制御に従って音声を出力するようになる。発光制御情報、又は、振動制御情報を送信する場合も同様である。 Groups For example, the transmitting unit 50 to each of the plurality of electronic devices 100 that are grouped into groups G 1, the same set value (e.g., set value a) transmits the audio output control information, the group G 2 The audio output control information having the same setting value (for example, setting value b) is transmitted to each of the plurality of electronic devices 100 that have been converted into the same. Thus, the grouped respective electronic device 100 to the group G 1, and outputs sound in accordance with control by the set value a, grouped respective electronic device 100 to the group G 2, under the control of the set value b Sound will be output. The same applies when transmitting light emission control information or vibration control information.

なお、送信部50が動作制御情報の送信を開始するタイミングは特に限定しないが、例えば、送信部50は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を送信してもよい。   The timing at which the transmission unit 50 starts transmitting the operation control information is not particularly limited. For example, the transmission unit 50 receives the operation control information when an operation reception unit (not shown) receives a predetermined user operation. You may send it.

動作制御部60は、動作制御情報記憶部96に記憶されている動作制御情報に基づいて、種々の動作を制御する。例えば、音声出力制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って音声を出力するように制御し、発光制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って発光するように制御し、振動制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って振動するように制御する。   The operation control unit 60 controls various operations based on the operation control information stored in the operation control information storage unit 96. For example, control is performed so that sound is output according to the setting value set by the setting unit (not shown) among the settable values of the audio output control information, and the setting unit (not shown) among the settable values of the light emission control information. Control is performed so that light is emitted according to the set value, and vibration is controlled according to the set value set by a setting unit (not shown) among the settable values of the vibration control information.

なお、設定部(非図示)は、操作受付部(非図示)が設定値を指定するユーザ操作を受け付けたときに、当該設定値を動作制御情報記憶部96に記憶する。   The setting unit (not shown) stores the setting value in the operation control information storage unit 96 when the operation receiving unit (not shown) receives a user operation for specifying a setting value.

続いて、電子機器1によるグループ化の対象である他の電子機器100について説明する。図4は、他の電子機器100の一例を示す構成図である。他の電子機器100は、図4(a)に示すように、撮像部114、リズム情報生成部116、表示部140、送受信部150、動作制御部160、及び、動作制御情報記憶部196を備える。なお、図4(b)は、電子機器100の他の構成である(後述)。   Next, another electronic device 100 that is a target of grouping by the electronic device 1 will be described. FIG. 4 is a configuration diagram illustrating an example of another electronic device 100. As shown in FIG. 4A, the other electronic device 100 includes an imaging unit 114, a rhythm information generation unit 116, a display unit 140, a transmission / reception unit 150, an operation control unit 160, and an operation control information storage unit 196. . FIG. 4B shows another configuration of the electronic device 100 (described later).

撮像部114は、静止画像及び動画像を撮像する。リズム情報生成部116は、撮像部114によって撮像された動画像からオブジェクトを抽出し、動画像から抽出したオブジェクトのリズム情報を生成する。リズム情報を生成したリズム情報生成部116は、生成したリズム情報を送受信部150に出力する。なお、リズム情報生成部116(リズム情報生成部16(後述)も同様)によるリズム情報の生成については、図5乃至図11を用いて詳細に説明する。   The imaging unit 114 captures still images and moving images. The rhythm information generation unit 116 extracts an object from the moving image captured by the imaging unit 114, and generates rhythm information of the object extracted from the moving image. The rhythm information generation unit 116 that has generated the rhythm information outputs the generated rhythm information to the transmission / reception unit 150. The generation of rhythm information by the rhythm information generation unit 116 (the same applies to the rhythm information generation unit 16 (described later)) will be described in detail with reference to FIGS.

送受信部150は、他の電子機器(電子機器1、他の電子機器100)との間で種々の情報を送受信する。例えば、送受信部150は、当該電子機器100の機器ID及び接続情報とともに、リズム情報生成部116から取得したリズム情報を電子機器1に送信する。   The transmission / reception unit 150 transmits / receives various information to / from other electronic devices (electronic device 1, other electronic device 100). For example, the transmission / reception unit 150 transmits the rhythm information acquired from the rhythm information generation unit 116 together with the device ID and connection information of the electronic device 100 to the electronic device 1.

なお、送受信部150は、電子機器1にリズム情報を送信する前に、既に、機器IDとともに接続情報を電子機器1に送信(交換)していた場合には、リズム情報と一緒に接続情報を送信しなくてもよい。   Note that if the transmission / reception unit 150 has already transmitted (exchanged) the connection information together with the device ID to the electronic device 1 before transmitting the rhythm information to the electronic device 1, the transmission / reception unit 150 transmits the connection information together with the rhythm information. You do not have to send it.

また、例えば、送受信部150は、グループ化情報を電子機器1から受信する。送受信部150は、グループ化情報を受信した場合に、受信したグループ化情報を表示部140に出力する。   For example, the transmission / reception unit 150 receives the grouping information from the electronic device 1. When receiving the grouping information, the transmission / reception unit 150 outputs the received grouping information to the display unit 140.

また例えば、送受信部150は、設定値を含む動作制御情報を電子機器1から受信する。送受信部150は、動作制御情報を受信した場合、設定部(非図示)を介して、当該動作制御情報の設定値を、動作制御情報記憶部196に記憶(更新)する。なお、動作制御情報記憶部196の構成は、電子機器1の動作制御情報記憶部96と同様である(図3(e)参照)。   For example, the transmission / reception unit 150 receives operation control information including a setting value from the electronic device 1. When receiving the operation control information, the transmission / reception unit 150 stores (updates) the setting value of the operation control information in the operation control information storage unit 196 via a setting unit (not shown). The configuration of the operation control information storage unit 196 is the same as that of the operation control information storage unit 96 of the electronic device 1 (see FIG. 3E).

表示部140は、種々の情報を表示する。例えば、電子機器1から受信したグループ化情報、動作制御情報を表示する。   The display unit 140 displays various information. For example, grouping information and operation control information received from the electronic device 1 are displayed.

動作制御部160は、動作制御情報記憶部196に記憶されている動作制御情報に基づいて、種々の動作を制御する。例えば、音声出力制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って音声を出力するように制御し、発光制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って発光するように制御し、振動制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って振動するように制御する。   The operation control unit 160 controls various operations based on the operation control information stored in the operation control information storage unit 196. For example, control is performed so that sound is output according to the setting value set by the setting unit (not shown) among the settable values of the audio output control information, and the setting unit (not shown) among the settable values of the light emission control information. Control is performed so that light is emitted according to the set value, and vibration is controlled according to the set value set by a setting unit (not shown) among the settable values of the vibration control information.

つまり、電子機器1から送信された動作制御情報(設定値)を受信した他の電子機器100は、当該動作制御情報(設定値)に従って動作する。従って、同一グループにグループ化された複数の電子機器100に、同一の設定値の音声出力制御情報を送信すれば、当該複数の電子機器は同様に音声を出力し、同一の設定値の発光制御情報を送信すれば、当該複数の電子機器は同様に発光し、同一の設定値の振動制御情報を送信すれば、当該複数の電子機器は同様に振動する。   That is, the other electronic device 100 that has received the operation control information (setting value) transmitted from the electronic device 1 operates according to the operation control information (setting value). Therefore, if audio output control information having the same setting value is transmitted to a plurality of electronic devices 100 grouped in the same group, the plurality of electronic devices output sound in the same manner, and light emission control having the same setting value is performed. If the information is transmitted, the plurality of electronic devices similarly emit light, and if the vibration control information having the same set value is transmitted, the plurality of electronic devices vibrate in the same manner.

なお、電子機器1の取得部10がリズム情報生成部16を有する場合(図2(c)又は図2(d)の構成の場合)、リズム情報の生成は電子機器1にて可能であるため、他の電子機器100は、図4(b)に示すように、リズム情報生成部116を備えていなくてもよい。   When the acquisition unit 10 of the electronic device 1 includes the rhythm information generation unit 16 (in the case of the configuration shown in FIG. 2C or FIG. 2D), the rhythm information can be generated by the electronic device 1. The other electronic device 100 may not include the rhythm information generation unit 116 as illustrated in FIG.

つまり、電子機器1の取得部10がリズム情報生成部16を有し、他の電子機器100がリズム情報生成部116を有する場合、他の電子機器100の送受信部150は、当該電子機器100の機器ID及び接続情報とともに、撮像部114によって撮像された動画像を電子機器1に送信する。電子機器1において、受信部12は、他の電子機器100から動画像を受信し、リズム情報生成部16は、受信部12が受信した動画像からオブジェクトを抽出し、抽出したオブジェクトのリズム情報を生成し、機器IDに対応付けてリズム情報記憶部90に記憶する。   That is, when the acquisition unit 10 of the electronic device 1 has the rhythm information generation unit 16 and the other electronic device 100 has the rhythm information generation unit 116, the transmission / reception unit 150 of the other electronic device 100 A moving image captured by the imaging unit 114 is transmitted to the electronic device 1 together with the device ID and connection information. In the electronic device 1, the receiving unit 12 receives a moving image from the other electronic device 100, and the rhythm information generating unit 16 extracts an object from the moving image received by the receiving unit 12, and uses the extracted rhythm information of the object. Generated and stored in the rhythm information storage unit 90 in association with the device ID.

以下、図5乃至図11を用いて、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報の生成、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明する。具体的には、まず、図5乃至図7を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報、オブジェクトの時間的な変化のパターンを表すリズム情報の生成、オブジェクトの時間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明し、続いて、図8乃至図11を用いて、オブジェクトの空間的な変化のパターンを表すリズム情報、オブジェクトの空間的な変化のパターンを表すリズム情報の生成、オブジェクトの空間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明する。   Hereinafter, with reference to FIG. 5 to FIG. 11, rhythm information that represents a temporal or spatial change pattern of an object, generation of rhythm information that represents a temporal or spatial change pattern of an object, The calculation of the similarity in the rhythm information representing the spatial change pattern will be described in detail. Specifically, first, using FIG. 5 to FIG. 7, rhythm information that represents a temporal change pattern of an object, generation of rhythm information that represents a temporal change pattern of the object, and temporal change of the object The calculation of the similarity in the rhythm information representing the pattern of the object will be described in detail, and then the rhythm information representing the pattern of the spatial change of the object and the pattern of the spatial change of the object will be described with reference to FIGS. The generation of the rhythm information representing the rhythm information and the calculation of the similarity in the rhythm information representing the spatial change pattern of the object will be described in detail.

図5乃至図7は、オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。   5 to 7 are explanatory diagrams for explaining rhythm information representing a temporal change pattern of an object, generation of the rhythm information, and calculation of similarity in the rhythm information.

他の電子機器100のリズム情報生成部116(電子機器1のリズム情報生成部16も同様)は、動画像からオブジェクトを抽出し、抽出したオブジェクトに外接する外接図形の面積の変化量、長辺又は短辺の長さの変化量、縦横比の変化量、面積の変化の周期、長さの変化の周期、又は、縦横比の変化の周期を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報を生成する。   The rhythm information generation unit 116 of the other electronic device 100 (the same applies to the rhythm information generation unit 16 of the electronic device 1) extracts the object from the moving image, the amount of change in the area of the circumscribed figure circumscribing the extracted object, and the long side Or use the amount of change in the length of the short side, the amount of change in the aspect ratio, the period of change in area, the period of change in length, or the period of change in aspect ratio to change the pattern of temporal change of the object. Generate rhythm information to represent.

例えば、リズム情報生成部116は、以下に例示するパラメータ1〜12(以下、prm1〜prm12と表記)のうち1以上のパラメータの値を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報を生成する。なお、prm1〜prm12における所定時間は、例えば、外接矩形の変化の周期を基準とする時間(例えば1周期)である。また、prm7−1〜prm9−2における長辺及び短辺は、ある基準時刻(例えば、1周期の最初)の長さに基づいて決定する。また、単に、便宜上、Y軸方向(若しくはX軸方向)を長辺として決めておいてもよい。
(リズム情報を構成するパラメータ)
prm1:所定時間内における外接矩形の最大面積と最小面積の差
prm2:所定時間内における外接矩形の最大面積と最小面積の面積比
prm3−1:所定時間内における外接矩形の平均面積と最大面積の差
prm3−2:所定時間内における外接矩形の平均面積と最小面積の差
prm4−1:所定時間内における外接矩形の平均面積と最大面積の面積比
prm4−2:所定時間内における外接矩形の平均面積と最小面積の面積比
prm5:所定時間内における外接矩形の面積の分布状況(例:標準偏差)
prm6:所定時間内における外接矩形の面積の変化の周期
prm7−1:所定時間内における外接矩形の長辺の最大変化量
prm7−2:所定時間内における外接矩形の短辺の最大変化量
prm8−1:所定時間内における外接矩形の長辺の分布状況(例:標準偏差)
prm8−2:所定時間内における外接矩形の短辺の分布状況(例:標準偏差)
prm9−1:所定時間内における外接矩形の長辺の変化の周期
prm9−2:所定時間内における外接矩形の短辺の変化の周期
prm10:所定時間内における外接矩形の縦横比の最大変化量
prm11:所定時間内における外接矩形の縦横比の分布状況(例:標準偏差)
prm12:所定時間内における外接矩形の縦横比の変化の周期
For example, the rhythm information generation unit 116 uses one or more parameter values of parameters 1 to 12 (hereinafter referred to as prm1 to prm12) exemplified below to represent rhythm information representing a temporal change pattern of the object. Is generated. In addition, the predetermined time in prm1 to prm12 is, for example, a time (for example, one period) based on the period of change of the circumscribed rectangle. In addition, the long side and the short side in prm7-1 to prm9-2 are determined based on the length of a certain reference time (for example, the beginning of one cycle). For convenience, the Y-axis direction (or X-axis direction) may be determined as the long side.
(Parameters that make up rhythm information)
prm1: difference between the maximum area and the minimum area of the circumscribed rectangle within a predetermined time prm2: area ratio between the maximum area and the minimum area of the circumscribed rectangle within a predetermined time prm3-1: the average area and the maximum area of the circumscribed rectangle within a predetermined time Difference prm3-2: Difference between average area and minimum area of circumscribed rectangle within a predetermined time prm4-1: Area ratio between average area and maximum area of circumscribed rectangle within a predetermined time prm4-2: Average of circumscribed rectangle within a predetermined time Area ratio of area to minimum area prm5: Distribution of circumscribed rectangle area within a predetermined time (example: standard deviation)
prm6: Period of change in area of circumscribed rectangle within a predetermined time prm7-1: Maximum change amount of long side of circumscribed rectangle within a predetermined time prm7-2: Maximum change amount of short side of circumscribed rectangle within a predetermined time prm8− 1: Longitudinal distribution of circumscribed rectangles within a specified time (example: standard deviation)
prm8-2: Distribution of short sides of circumscribed rectangle within a predetermined time (example: standard deviation)
prm9-1: period of change of the long side of the circumscribed rectangle within a predetermined time prm9-2: period of change of the short side of the circumscribed rectangle within a predetermined time prm10: maximum change amount prm11 of the aspect ratio of the circumscribed rectangle within the predetermined time : Circumference rectangle aspect ratio distribution within a specified time (eg, standard deviation)
prm12: Period of change in aspect ratio of circumscribed rectangle within a predetermined time

以下、具体例を用いてリズム情報生成部116によるリズム情報の生成について説明する。図5(a)に示すPは、動画像を構成する1コマであって、人物(オブジェクトO)が両手両足を非常に振っている瞬間に撮像されたものである。図5(c)に示すPは、動画像を構成する1コマであって、人物(オブジェクトO)が両手両足を振り下ろしている瞬間に撮像されたものである。図5(b)に示すPは、PとPの間の1コマである。 Hereinafter, generation of rhythm information by the rhythm information generation unit 116 will be described using a specific example. P 1 shown in FIG. 5A is one frame constituting a moving image, and is captured at the moment when a person (object O 1 ) shakes both hands and feet. P 3 shown in FIG. 5C is one frame constituting a moving image, and is captured at the moment when a person (object O 1 ) swings down both hands and feet. P 2 shown in FIG. 5B is one frame between P 1 and P 3 .

図6(a)に示すEは、図5(a)に示すP内のオブジェクトOに外接する外接矩形である。図6(b)に示すEは、図5(b)に示すP内のオブジェクトOに外接する外接矩形である。図6(c)に示すEは、図5(c)に示すP内のオブジェクトOに外接する外接矩形である。なお、図6(d)は、外接矩形E、E、Eの各サイズを比較したものである。図6(d)に示すように、オブジェクトの動きに応じて当該オブジェクトに外接する外接矩形の形状は変化する。 Figure 6 E 1 shown in (a) is a circumscribed rectangle circumscribing the object O 1 in the P 1 shown in Figure 5 (a). E 2 shown in FIG. 6B is a circumscribed rectangle circumscribing the object O 1 in P 2 shown in FIG. 5B. E 3 shown in FIG. 6C is a circumscribed rectangle circumscribing the object O 1 in P 3 shown in FIG. 5C. Incidentally, FIG. 6 (d) is obtained by comparing the size of the circumscribed rectangle E 1, E 2, E 3 . As shown in FIG. 6D, the shape of the circumscribed rectangle that circumscribes the object changes according to the movement of the object.

算出部20は、動画像(P、P、P、…)から、オブジェクトOを逐次抽出し、図7(a)に示すように、オブジェクトOに外接する外接図形を逐次抽出し、図7(b)に示すように、逐次抽出する外接矩形のサイズを算出する。なお、図7(a)に示す「周期」は、外接矩形の形状の変化の周期を示している。つまり、時刻t〜時刻t(時刻t〜時刻t、時刻t〜時刻t13、…)が1周期である。 The calculating unit 20 sequentially extracts the object O 1 from the moving images (P 1 , P 2 , P 3 ,...), And sequentially extracts the circumscribed figure circumscribing the object O 1 as shown in FIG. Then, as shown in FIG. 7B, the size of the circumscribed rectangle to be sequentially extracted is calculated. Note that the “period” shown in FIG. 7A indicates the period of change in the shape of the circumscribed rectangle. That is, time t 1 to time t 4 (time t 5 to time t 8 , time t 9 to time t 13 ,...) Is one cycle.

リズム情報生成部116は、外接矩形のサイズを用いて、所定の1以上のパラメータを算出し、算出した各パラメータの値を要素とする数値群を、オブジェクトOの時間的な変化のパターンを表すリズム情報とする。例えば、リズム情報生成部116は、図7(c)に示すように、オブジェクトOの外接矩形の最大面積と最小面積の面積比(prm2)、面積の変化の周期(prm6)、長辺の最大変化量(prm7−1)、短辺の最大変化量(prm7−1)、縦横比の最大変化量(prm10)の値を要素とする数値群を、オブジェクトOの時間的な変化のパターンを表すリズム情報R(prm2、prm6、prm7−1、prm7−2、prm10)とする。 The rhythm information generation unit 116 calculates a predetermined one or more parameters using the size of the circumscribed rectangle, and sets a numerical value group including the calculated parameter values as elements as a temporal change pattern of the object O 1. Rhythm information to represent. For example, the rhythm information generating unit 116, as shown in FIG. 7 (c), the area ratio of the maximum area and the minimum area of circumscribed rectangle of the object O 1 (Prm2), the period of change in area (PRM6), the long sides of A pattern of temporal changes of the object O 1 is represented by a numerical group having values of the maximum change amount (prm7-1), the short side maximum change amount (prm7-1), and the aspect ratio maximum change amount (prm10). Is represented as rhythm information R 1 (prm2, prm6, prm7-1, prm7-2, prm10).

なお、リズム情報は、後に、比較をし易いように、各パラメータの値を適宜丸めたものであってもよいし、各パラメータの値を他の値に置き換えたものであってもよい(スコア化してもよい)。   The rhythm information may be obtained by appropriately rounding the value of each parameter for easy comparison later, or by replacing the value of each parameter with another value (score May be used).

リズム情報生成部116が、上述の如く、各パラメータの値を要素とする数値群から構成されるリズム情報を生成した場合、電子機器1の算出部20は、第1の他の電子機器100によって撮像された第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の電子機器100によって撮像された第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する。具体的には、算出部20は、リズム情報を構成する同一のパラメータ同士の類似度を算出し、複数の、同一のパラメータ同士の類似度に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する。   As described above, when the rhythm information generation unit 116 generates rhythm information including a numerical value group having the values of the parameters as elements, the calculation unit 20 of the electronic device 1 uses the first other electronic device 100. The degree of similarity between the rhythm information of the object in the first other captured image captured and the rhythm information of the object in the second other captured image captured by the second other electronic device 100 is calculated. . Specifically, the calculation unit 20 calculates the similarity between the same parameters constituting the rhythm information, and based on the similarity between the plurality of the same parameters, the objects in the first other captured image The degree of similarity between the rhythm information and the rhythm information of the object in the second other captured image is calculated.

例えば、リズム情報が、prm2、prm6、prm7−1、prm7−2、prm10から構成されている場合、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値と第2の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値とを比較してprm2の値同士の類似度を算出する。同様に、算出部20は、prm6の値同士の類似度、prm7−1の値同士の類似度、prm7−2の値同士の類似度、prm10の値同士の類似度を算出する。   For example, when the rhythm information is composed of prm2, prm6, prm7-1, prm7-2, and prm10, the calculation unit 20 determines the value of prm2 constituting the rhythm information of the object in the first other captured image. And the value of prm2 constituting the rhythm information of the object in the second other captured image are compared, and the similarity between the values of prm2 is calculated. Similarly, the calculation unit 20 calculates the similarity between the values of prm6, the similarity between the values of prm7-1, the similarity between the values of prm7-2, and the similarity between the values of prm10.

prm2(prm6、prm7−1、prm7−2、prm10も同様)の値同士の類似度の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値と、第1の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値とを比較し、値の小さい一方を大きい他方で除した値をprm2の値同士の類似度としてもよい。当該算出手法の場合、パラメータの値同士の類似度は0〜1の範囲となり、類似している程、1に近い値となる。   Various calculation methods are conceivable as a method for calculating the degree of similarity between the values of prm2 (also for prm6, prm7-1, prm7-2, and prm10). As an example, the calculation unit 20 may include the first other imaging. A value obtained by comparing the value of prm2 constituting the rhythm information of the object in the image with the value of prm2 constituting the rhythm information of the object in the first other captured image, and dividing one of the smaller values by the other larger May be the degree of similarity between the values of prm2. In the case of the calculation method, the similarity between the parameter values is in the range of 0 to 1, and the closer the value is, the closer the value is to 1.

また、各パラメータの値同士の類似度に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する算出手法としては、種々の算出手法が考えられるが、一例として、算出部20は、各パラメータ同士の類似度の平均値を第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。即ち、上記の例では、算出部20は、prm2の値同士の類似度、prm6の値同士の類似度、prm7−1の値同士の類似度、prm7−2の値同士の類似度、prm10の値同士の類似度の平均値を、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。当該算出手法の場合、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度は0〜1の範囲となり、類似している程、1に近い値となる。   Also, a calculation for calculating the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image based on the similarity between the values of the parameters. Although various calculation methods can be considered as the method, for example, the calculation unit 20 calculates the average value of the similarity between the parameters, the rhythm information of the object in the first other captured image, and the second other It is good also as similarity with the rhythm information of the object in the picked-up image. That is, in the above example, the calculation unit 20 calculates the similarity between the values of prm2, the similarity between the values of prm6, the similarity between the values of prm7-1, the similarity between the values of prm7-2, The average value of similarities between values may be the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image. In the case of the calculation method, the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image is in the range of 0 to 1 and is similar. The value is closer to 1.

なお、上述の平均値の算出時において、所定のパラメータ同士の類似度に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、パラメータ同士の類似度の中央値、パラメータ同士の類似度の最大値、パラメータ同士の類似度の最小値を、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。   When calculating the above average value, the average value may be calculated after weighting the degree of similarity between predetermined parameters. The average value is not limited to an arithmetic average, and a geometric average may be used. Also, instead of the average value, the median value of the similarity between parameters, the maximum value of the similarity between parameters, and the minimum value of the similarity between parameters are used as the rhythm information of the object in the first other captured image. The similarity with the rhythm information of the object in the second other captured image may be used.

以上、リズム情報が、オブジェクトの時間的な変化のパターンを表すものである場合について説明したが、続いて、リズム情報が、オブジェクトの空間的な変化のパターンを表すものである場合について説明する。図8乃至図11は、オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。   The case where the rhythm information represents the temporal change pattern of the object has been described above. Next, the case where the rhythm information represents the spatial change pattern of the object will be described. 8 to 11 are explanatory diagrams for explaining rhythm information representing a spatial change pattern of an object, generation of the rhythm information, and calculation of similarity in the rhythm information.

図8は、動画像(P11、P12、P13)から抽出された信号機のオブジェクト(O)を模式的に表したものである。図8(a)は信号機が青であるときのオブジェクトO、図8(b)は信号機が黄であるときのオブジェクトO、図8(c)は信号機が赤であるときのオブジェクトOを示している。図8(a)〜図8(c)において、r1は信号機本体の撮像領域、r2は信号機本体を支持する支持部の撮像領域である。r1−1はr1内の領域であって青ランプを保持する保持部の撮像領域、r1−2はr1内の領域であって黄ランプを保持する保持部の撮像領域、r1−3はr1内の領域であって赤ランプを保持する保持部の撮像領域である。r1−1−1はr1−1内の領域であって青ランプの撮像領域、r1−2−1はr1−2内の領域であって黄ランプの撮像領域、r1−3−1はr1−3内の領域であって赤ランプの領域である。 FIG. 8 schematically shows a traffic light object (O 2 ) extracted from moving images (P 11 , P 12 , P 13 ). 8 (a) is the object O 2 when traffic is blue, FIG. 8 (b) object O 2 when traffic is yellow, the object O 2 when FIG. 8 (c) traffic light is red Is shown. 8A to 8C, r1 is an imaging area of the traffic signal body, and r2 is an imaging area of a support portion that supports the traffic signal body. r1-1 is an area within r1, which is an imaging area of a holding section that holds a blue lamp, r1-2 is an area within r1, and is an imaging area of a holding section that holds a yellow lamp, and r1-3 is within r1 This is an imaging region of a holding unit that holds a red lamp. r1-1-1 is an area within r1-1 and is an imaging area of a blue lamp, r1-2-1 is an area within r1-2 and is an imaging area of a yellow lamp, and r1-3-1 is r1- 3 is a red lamp area.

なお、説明の便宜上、信号機が青の場合、点灯中の青ランプの色は青緑色、消灯中の黄ランプ及び赤ランプの色は黒色であるものとする。即ち、図8(a)における、青ランプの領域r1−1−1の色は青緑色、黄ランプの領域r1−2−1の色は黒色、赤ランプの領域r1−3−1の色は黒色であるものとする。信号機が黄の場合、点灯中の黄ランプの色は黄色、消灯中の青ランプ及び赤ランプの色は黒色であるものとする。即ち、図8(b)における、青ランプの領域r1−1−1の色は黒色、黄ランプの領域r1−2−1の色は黄色、赤ランプの領域r1−3−1の色は黒色であるものとする。信号機が赤の場合、点灯中の赤ランプの色は赤色、消灯中の青ランプ及び黄ランプの色は黒色であるものとする。即ち、図8(c)における、青ランプの領域r1−1−1の色は黒色、黄ランプの領域r1−2−1の色は黒色、赤ランプの領域r1−3−1の色は赤色であるものとする。
また、信号機が青、黄、赤の何れの場合において、ランプ以外の領域は全て灰色であるものとする。
For convenience of explanation, it is assumed that when the traffic light is blue, the color of the blue lamp being turned on is blue-green, and the colors of the yellow lamp and red lamp being turned off are black. That is, in FIG. 8A, the color of the blue lamp region r1-1-1 is blue-green, the color of the yellow lamp region r1-2-1 is black, and the color of the red lamp region r1-3-1 is It shall be black. When the traffic light is yellow, the color of the yellow lamp that is lit is yellow, and the color of the blue and red lamps that are not lit is black. That is, in FIG. 8B, the color of the blue lamp region r1-1-1 is black, the color of the yellow lamp region r1-2-1 is yellow, and the color of the red lamp region r1-3-1 is black. Suppose that When the traffic light is red, the color of the red lamp being turned on is red, and the color of the blue lamp and the yellow lamp being turned off is black. That is, in FIG. 8C, the color of the blue lamp region r1-1-1 is black, the color of the yellow lamp region r1-2-1 is black, and the color of the red lamp region r1-3-1 is red. Suppose that
In addition, when the traffic light is any of blue, yellow, and red, all the areas other than the lamp are gray.

図9(a)は、オブジェクトOを構成する画素グループ(単位領域)を模式的に表したものである。画素グループは、所定数の隣接画素から構成される。 9 (a) it is intended to the pixel group (unit area) that constitute the object O 2 schematically illustrates. A pixel group is composed of a predetermined number of adjacent pixels.

図9(b)は、図9(a)に示すように、オブジェクトOを複数の画素グループに分割した場合における、オブジェクトOの空間的な変化のパターンを表すリズム情報である。図9(b)に示す画素グループID(a−4、a−5、…)は、オブジェクトOを構成する画素グループ(即ち、図9(a)に示す画素グループ)を識別する識別情報である。例えば、図9(b)に示す画素グループID「a−4」は、図9(a)に示す符号Gの画素グループ(横方向のインデックス「4」及び縦方向のインデックス「a」によって規定される画素グループ)を示している。 FIG. 9 (b), as shown in FIG. 9 (a), in the case of dividing the object O 2 into a plurality of pixel groups, a rhythm information representing the pattern of the spatial variation of the object O 2. Pixel group IDs (a-4, a-5,...) Shown in FIG. 9B are identification information for identifying pixel groups constituting the object O 2 (that is, the pixel groups shown in FIG. 9A). is there. For example, the pixel group ID “a-4” shown in FIG. 9B is defined by the pixel group of the symbol G shown in FIG. 9A (the horizontal index “4” and the vertical index “a”). Pixel group).

図9(b)に示す各時刻(t1、t2、…)は、図8に示す信号機の撮像タイミングである。t1〜t3は、図8(a)に示すように信号が青のときの撮像タイミングである。t4は、図8(b)に示すように信号が黄のときの撮像タイミングである。t5〜t7は、図8(c)に示すように信号が赤のときの撮像タイミングである。即ち、t1〜t7は、オブジェクトOの色の変化の1周期である。なお、図9(b)に示す時刻は、説明の便宜上の時刻である(実際の信号機の場合、通常、黄の時間に対する青(及び赤)の時間は長い。 Each time (t1, t2,...) Shown in FIG. 9B is the imaging timing of the traffic light shown in FIG. t1 to t3 are imaging timings when the signal is blue as shown in FIG. t4 is the imaging timing when the signal is yellow as shown in FIG. t5 to t7 are imaging timings when the signal is red as shown in FIG. That, t1 to t7 is one period of the change in the color of the object O 2. Note that the time shown in FIG. 9B is a time for convenience of explanation (in the case of an actual traffic light, the blue (and red) time is usually longer than the yellow time.

図9(b)に示す各値(D1〜D7)は、リズム情報を構成する値であって、各撮像タイミング(t1、t2、…)における、オブジェクトOを構成する各画素グループの平均画素値である。なお、D1は灰色を示す画素値、D2は青緑色を示す画素値、D3は黒色を示す画素値、D4は黒色を示す画素値、D5は黄色を示す画素値、D6は黒色を示す画素値、D7は赤色を表す画素値である。 Each value (D1 to D7) shown in FIG. 9B is a value constituting rhythm information, and is an average pixel of each pixel group constituting the object O 2 at each imaging timing (t1, t2,...). Value. D1 is a pixel value indicating gray, D2 is a pixel value indicating blue-green, D3 is a pixel value indicating black, D4 is a pixel value indicating black, D5 is a pixel value indicating yellow, and D6 is a pixel value indicating black , D7 are pixel values representing red.

つまり、図9(b)に示すリズム情報は、オブジェクトOを構成する画素グループ毎の色の変化のパターンであって、例えば、以下の特徴1〜特徴10を示している。 That is, the rhythm information shown in FIG. 9B is a color change pattern for each pixel group constituting the object O 2 , and shows, for example, the following features 1 to 10.

特徴1:オブジェクトOの主要部の領域(図8に示す領域r1)のうち、中央の領域(図8に示す領域r1−2−1)の左側に位置する領域(図8に示す領域r1−1−1)は、色が、青緑色(D2)と黒色(D3)とに周期的に変化する。
特徴2:オブジェクトOの主要部の領域のうち、中央の領域は、色が、黒色(D4)と黄色(D5)とに周期的に変化する。
特徴3:オブジェクトOの主要部の領域のうち、中央の領域の右側に位置する領域(図8に示す領域r1−3−1)は、色が、黒色(D6)と赤色(D7)とに周期的に変化する。
特徴4:オブジェクトOの主要部の領域のうち、中央の領域、中央の領域の左側に位置する領域、中央の領域の右側に位置する領域を除いた領域(図8に示す領域r1から領域r1−1−1、領域r1−2−1及び領域r1−3−1を除いた領域)は、常に、灰色(D1)であって色の変化がない。
特徴5:オブジェクトOの主要部以外の領域(図8に示す領域r2)は、常に、灰色(D1)であって色の変化がない。
特徴6:中央の領域の左側に位置する領域(領域r1−1−1)が青緑色(D2)から黒色(D3)に変化した後に、中央の領域(領域r1−2−1)が黒色(D4)から黄色(D5)に変化する。
特徴7:中央の領域(領域r1−2−1)が黄色(D5)から黒色(D4)に変化した後に、中央の領域の右側に位置する領域(領域r1−3−1)が黒色(D6)から赤色(D7)に変化する。
特徴8:中央の領域の右側に位置する領域(領域r1−3−1)が赤色(D7)から黒色(D6)に変化した後に、中央の領域の左側に位置する領域(領域r1−1−1)が黒色(D3)から青緑色(D2)に変化する。
特徴9:青緑色(D2)に変化する中央の領域の左側に位置する領域(領域r1−1−1)と、黄色(D5)に変化する中央の領域(領域r1−2−1)と、赤色(D7)に変化する中央の領域の右側に位置する領域(領域r1−3−1)とは、略同じ大きさである。
特徴10:中央の領域の左側に位置する領域(領域r1−1−1)が青緑色(D2)である時間と、中央の領域の右側に位置する領域(領域r1−3−1)が赤色(D7)である時間は等しく、中央(領域r1−2−1)の領域が黄色(D5)である時間の略3倍である。
Feature 1: Of the main part of the object O 2 (region r1 shown in FIG. 8), the region (region r1 shown in FIG. 8) located on the left side of the central region (region r1-2-1 shown in FIG. 8). -1-1), the color periodically changes between blue-green (D2) and black (D3).
Feature 2: The color of the central region of the main portion of the object O 2 periodically changes between black (D4) and yellow (D5).
Feature 3: Of the main part of the object O 2 , the region located on the right side of the central region (region r1-3-1 shown in FIG. 8) is black (D6) and red (D7). Changes periodically.
Feature 4: Out of the main area of the object O 2 , an area excluding the central area, the area located on the left side of the central area, and the area located on the right side of the central area (from the area r1 shown in FIG. 8 to the area) The area excluding r1-1-1, the area r1-2-1, and the area r1-3-1) is always gray (D1) and has no color change.
Feature 5: An area other than the main part of the object O 2 (area r2 shown in FIG. 8) is always gray (D1) and has no color change.
Feature 6: After the region located on the left side of the central region (region r1-1-1) changes from blue-green (D2) to black (D3), the central region (region r1-2-1) is black ( The color changes from D4) to yellow (D5).
Feature 7: After the central region (region r1-2-1) has changed from yellow (D5) to black (D4), the region (region r1-3-1) located on the right side of the central region is black (D6 ) To red (D7).
Feature 8: After the area located on the right side of the central area (area r1-3-1) changes from red (D7) to black (D6), the area located on the left side of the central area (area r1-1-) 1) changes from black (D3) to blue-green (D2).
Feature 9: a region (region r1-1-1) located on the left side of the central region that changes to blue-green (D2), a central region (region r1-2-1) that changes to yellow (D5), The region (region r1-3-1) located on the right side of the central region that changes to red (D7) has substantially the same size.
Feature 10: The time when the region (region r1-1-1) located on the left side of the central region is blue-green (D2), and the region located on the right side of the central region (region r1-3-1) is red The time for (D7) is equal and is approximately three times the time for the center (region r1-2-1) region to be yellow (D5).

他の電子機器100のリズム情報生成部116(電子機器1のリズム情報生成部16も同様)は、動画像からオブジェクトを抽出し、当該オブジェクトの空間的な変化のパターンを表すリズム情報を生成する。例えば、リズム情報生成部116は、オブジェクトOを抽出した場合、図9(b)に示すように、オブジェクトOを構成する画素グループ毎の色の変化の示す各値を要素とする数値値から構成されるリズム情報を生成する。 The rhythm information generation unit 116 of the other electronic device 100 (the same applies to the rhythm information generation unit 16 of the electronic device 1) extracts an object from the moving image, and generates rhythm information representing a pattern of spatial change of the object. . For example, when the rhythm information generation unit 116 extracts the object O 2 , as shown in FIG. 9B, the numerical value having each value indicated by the color change for each pixel group constituting the object O 2 as an element. Rhythm information composed of

リズム情報生成部116が、上述の如く、夫々のオブジェクトのリズム情報を生成した場合、電子機器1の算出部20は、第1の他の電子機器100によって撮像された第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の電子機器100によって撮像された第2の他の撮像画像内のオブジェクトのリズム情報との類似度を、上述する1以上の特徴に関係する類似度に基づいて算出する。   When the rhythm information generation unit 116 generates rhythm information of each object as described above, the calculation unit 20 of the electronic device 1 uses the first other captured image captured by the first other electronic device 100. The similarity between the rhythm information of the object and the rhythm information of the object in the second other captured image captured by the second other electronic device 100 is related to the one or more features described above. Calculate based on

例えば、上述の特徴2に関係する類似度を用いて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。当該場合、算出部20は、例えば、第1の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部の中央領域の色の周期的な変化と、第2の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部の中央領域の色の周期的な変化との類似度を算出し、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。   For example, the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image is calculated using the similarity related to the feature 2 described above. May be. In this case, the calculation unit 20 may, for example, periodically change the color of the central region of the main part of the object indicated by the rhythm information of the object in the first other captured image, and in the second other captured image. The similarity with the periodic change of the color of the central region of the main part of the object indicated by the rhythm information of the object is calculated, the rhythm information of the object in the first other captured image, and the second other It is good also as similarity with the rhythm information of the object in a captured image.

「主要部の中央領域の色の周期的な変化の類似度」の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」とに基づいて「主要部の中央領域の色の周期的な変化の類似度」を算出してもよい。なお、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」と、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」とを比較し、短い方の周期を長い方の周期で除した値を「主要部の中央領域の色の変化の周期の類似度」としてもよい。   Various calculation methods are conceivable as the calculation method of “similarity of periodic change in color of the central region of the main part”. As an example, the calculation unit 20 may be configured to “change the color change of the central region of the main part. Based on the “similarity of the period” and the “similarity of the color appearing in the central area of the main part”, the “similarity of the periodic change in the color of the central area of the main part” may be calculated. Note that the calculation unit 20 uses the “rhythm change period of the color of the central region of the main part” based on the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image. Compared with “the color change period of the central area of the main part”, the value obtained by dividing the shorter period by the longer period is also used as the “similarity of the color change period of the central area of the main part” Good.

例えば、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」が4秒、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」が3秒である場合、周期「3(秒)」を周期「4(秒)」で除した値「0.75」を「主要部の中央領域の色の変化の周期の類似度」とする。当該算出手法の場合、「主要部の中央領域の色の変化の周期の類似度」は0〜1の範囲となり、類似している程、1に近い値となる。   For example, “the color change period of the central region of the main part” according to the rhythm information of the object in the first other captured image is 4 seconds, and “the main part according to the rhythm information of the object in the second other captured image” When the period of the color change in the central area of 3 seconds is 3 seconds, the value “0.75” obtained by dividing the period “3 (seconds) by the period“ 4 (seconds) ”is set as“ the color of the central area of the main part ”. The similarity of the period of the change. In the case of the calculation method, the “similarity of the period of color change in the central region of the main part” is in the range of 0 to 1, and the closer to the value, the closer to 1.

また、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色(比較のため階調数を削減した色、他も同様)」と、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色」とを比較し、現れる数の多い方の色数を何れかによって現れる色の色数で除した値を「主要部の中央領域に現れる色の類似度」としてもよい。   Further, the calculation unit 20 uses the rhythm information of the object in the first other captured image, “color appearing in the central region of the main part (color with a reduced number of gradations for comparison, and so on)”, The value obtained by comparing the “number of colors appearing in the central area of the main part” with the rhythm information of the object in the other two captured images and dividing the larger number of colors by the number of colors appearing by either It is good also as "the similarity of the color which appears in the center area | region of a main part."

例えば、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色」が3色、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色」が5色である場合、色数「5(色)」を色数「8(色)」で除した値「0.625」を「主要部の中央領域に現れる色の類似度」とする。当該算出手法の場合、「主要部の中央領域に現れる色の類似度」は0〜1の範囲となり、類似している程、1に近い値となる。   For example, the “color appearing in the central area of the main part” based on the rhythm information of the object in the first other captured image has three colors, and the “central area of the main part” based on the rhythm information of the object in the second other captured image When the number of colors appearing in “5” is five colors, the value “0.625” obtained by dividing the number of colors “5 (color)” by the number of colors “8 (color)” is “similarity of colors appearing in the central region of the main part” " In the case of this calculation method, the “similarity of the color appearing in the central region of the main part” is in the range of 0 to 1, and becomes closer to 1 as the similarity is increased.

また、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」とに基づいて「主要部の中央領域の色の周期的な変化の類似度」を算出する算出手法としては、種々の算出手法が考えられるが、一例として、算出部20は、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」の平均値を「主要部の中央領域の色の周期的な変化の類似度」としてもよい。   In addition, based on “similarity of period of color change in the central area of the main part” and “similarity of color appearing in the central area of the main part”, As a calculation method for calculating the “similarity”, various calculation methods are conceivable. As an example, the calculation unit 20 may calculate the “similarity of the period of color change in the central region of the main part” and “the center of the main part”. The average value of “similarity of colors appearing in the area” may be set as “similarity of periodic change in color of the central area of the main part”.

例えば、「主要部の中央領域の色の変化の周期の類似度」が0.75、「主要部の中央領域に現れる色の類似度」が0.625である場合、平均値「0.6875」を「主要部の中央領域の色の周期的な変化の類似度」とする。当該算出手法の場合、「主要部の中央領域の色の周期的な変化の類似度」は0〜1の範囲となり、類似している程、1に近い値となる。   For example, when “similarity of the color change period in the central region of the main part” is 0.75 and “similarity of the color appearing in the central region of the main part” is 0.625, the average value “0.6875 "Is the similarity of the periodic change in the color of the central region of the main part". In the case of this calculation method, the “similarity of the periodic change in the color of the central region of the main part” is in the range of 0 to 1, and the closer to the value, the closer to 1.

なお、上述の平均値の算出時において、「主要部の中央領域の色の変化の周期の類似度」又は「主要部の中央領域に現れる色の類似度」に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、中央値、最大値、又は、最小値を、「主要部の中央領域の色の周期的な変化の類似度」としてもよい。   At the time of calculating the above average value, the average value is calculated after weighting the “similarity of the color change period in the central area of the main part” or the “similarity of the color appearing in the central area of the main part”. May be. The average value is not limited to an arithmetic average, and a geometric average may be used. Further, instead of the average value, the median value, the maximum value, or the minimum value may be used as the “similarity of the periodic change in the color of the central region of the main part”.

また例えば、上述の特徴5に関係する類似度を用いて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。当該場合、算出部20は、例えば、第1の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部以外の領域の変化しない色と、第2の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部以外の領域の変化しない色との類似度を算出し、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。   Further, for example, using the similarity related to the above-described feature 5, the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image is calculated. May be. In this case, the calculation unit 20, for example, does not change the color of the region other than the main part of the object indicated by the rhythm information of the object in the first other captured image, and the object in the second other captured image. The similarity with the color which does not change in the area other than the main part of the object indicated by the rhythm information is calculated, and the rhythm information of the object in the first other captured image and the object in the second other captured image are calculated. It is good also as similarity with rhythm information.

「主要部以外の領域の変化しない色の類似度」の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、予め、一の色と他の色との色の類似度を示す類似色情報(0から1の範囲をとり、色同士が類似している程、1に近い値をとる情報)を保持し、当該類似色情報に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色と、第2の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色の類似度を算出し、算出した値を「主要部以外の領域の変化しない色の類似度」としてもよい。但し、第1の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色が周期的に変化する場合、又は、第2の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色が周期的に変化した場合の何れかに該当する場合には、「主要部以外の領域の変化しない色の類似度」を0とする。   Various calculation methods can be considered as a calculation method of “similarity of colors that do not change in regions other than the main part”. As an example, the calculation unit 20 preliminarily compares the similarity between one color and another color. Similar color information indicating the degree (information that takes a range from 0 to 1 and takes a value closer to 1 as the colors are similar to each other), and based on the similar color information, the first other imaging The similarity between the color of the area other than the main part based on the rhythm information of the object in the image and the color of the area other than the main part based on the rhythm information of the object in the second other captured image is calculated. It is good also as "the similarity of the color which does not change the area | regions other than a main part". However, when the color of the region other than the main part based on the rhythm information of the object in the first other captured image changes periodically, or other than the main part based on the rhythm information of the object in the second other captured image In the case where the color of the region of the color corresponds to any of the cases where the color changes periodically, the “similarity of the color not changing in the region other than the main part” is set to 0.

また、算出部20が、2以上の特徴に関係する類似度を用いて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する場合には、各特徴に関係する類似度に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。例えば、上述の特徴2及び特徴5に関係する類似度を用いる場合、特徴2に関係する類似度と、特徴5に関係する類似度とを夫々算出し、特徴2に関係する類似度と特徴5に関係する類似度の平均値を、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。   In addition, the calculation unit 20 uses the similarity related to two or more features to calculate the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image. When calculating the similarity, the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image are based on the similarity related to each feature. The degree of similarity may be calculated. For example, when using the degree of similarity related to the above-described feature 2 and feature 5, the degree of similarity related to feature 2 and the degree of similarity related to feature 5 are calculated, respectively, and the degree of similarity related to feature 2 and feature 5 are calculated. The average value of the similarities related to the above may be the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image.

例えば、「特徴2に関係する類似度(例えば、上記の中央領域の色の周期的な変化の類似度)」が0.875、「特徴5に関係する類似度(例えば、上記の主要部以外の領域の変化しない色の類似度)」が0.825である場合、平均値「0.85」を第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。   For example, “similarity related to feature 2 (for example, similarity of periodic change in color of the central region)” is 0.875, “similarity related to feature 5 (for example, other than the main part described above) In the case where the similarity of the color of the non-changing area) is 0.825, the average value “0.85” is set to the rhythm information of the object in the first other captured image and the second other captured image. It is good also as similarity with the rhythm information of the object.

なお、上述の平均値の算出時において、「特徴2に関係する類似度」又は「特徴5に関係する類似度」に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、中央値、最大値、又は、最小値を、「第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度」としてもよい。   When calculating the average value, the average value may be calculated after weighting the “similarity related to feature 2” or “similarity related to feature 5”. The average value is not limited to an arithmetic average, and a geometric average may be used. Further, instead of the average value, the median value, the maximum value, or the minimum value is expressed as “the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image”. It is good also as "similarity of".

なお、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を、特徴2、特徴5に関係する類似度に基づいて算出する例を説明したが、他の夫々の特徴に応じた夫々の算出手法を適用して、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。   Note that the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image is calculated based on the similarity related to feature 2 and feature 5. However, the rhythm information of the object in the first other captured image and the object in the second other captured image are applied by applying the respective calculation methods according to the other characteristics. The similarity with the rhythm information may be calculated.

なお、図9(b)に示す各値(D1〜D7)として、画素グループ毎の平均画素値を用いる例を説明したが、平均画素値に代えて、例えば、最大画素値(画素グループ内の複数の画素の画素値の最大値)、最小画素値(画素グループ内の複数の画素の画素値の最小値)、中央値(画素グループ内の複数の画素の画素値の中央値)を用いてもよい。   In addition, although the example which uses the average pixel value for every pixel group as each value (D1-D7) shown in FIG.9 (b) was demonstrated, it replaced with an average pixel value, for example, the largest pixel value (inside a pixel group) Using the maximum pixel value of a plurality of pixels), minimum pixel value (minimum value of pixel values of a plurality of pixels in a pixel group), and median value (median value of pixel values of a plurality of pixels in a pixel group) Also good.

また、所定数の隣接画素を画素グループとし、リズム情報を構成する各値(図9(b)に示す各値(D1〜D7))を算出する例を説明したが、画素値の差が所定値以下である隣接画素を画素グループとし、リズム情報を構成する各値を算出してもよい。   Further, an example has been described in which a predetermined number of adjacent pixels are used as a pixel group, and each value (each value (D1 to D7) illustrated in FIG. 9B) that calculates rhythm information is calculated. Each value constituting the rhythm information may be calculated by setting adjacent pixels equal to or less than the value as a pixel group.

図10(a)は、図8に示した信号機のオブジェクトOを構成する画素において、画素値の差が所定数以下である隣接画像を画素グループとして模式的に表したものである。図10(a)において、Ga1〜Ga4は、各撮像タイミング(t1〜t7)の何れにおいても画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Ga1は青ランプの領域r1−1−1、Ga2は黄ランプの領域r1−2−1、Ga3は赤ランプの領域r1−3−1、Ga4はランプ以外の領域を表している(図8参照)。 FIG. 10A schematically shows adjacent images having a pixel value difference equal to or less than a predetermined number as a pixel group in the pixels constituting the traffic light object O 2 shown in FIG. In FIG. 10A, Ga1 to Ga4 are pixel groups that are adjacent images in which the difference in pixel value is equal to or less than a predetermined number at any of the imaging timings (t1 to t7) (see FIG. 9B). Specifically, Ga1 represents a blue lamp region r1-1-1, Ga2 represents a yellow lamp region r1-2-1, Ga3 represents a red lamp region r1-3-1, and Ga4 represents a region other than the lamp. (See FIG. 8).

図10(b)は、オブジェクトOを図10(a)の如く複数の画素グループに分割した場合における、オブジェクトOの空間的な変化のパターンを表すリズム情報である。図10(b)に示す各値(D1〜D7)は、リズム情報を構成する値であって、各撮像タイミング(t1、t2、…)における、オブジェクトOを構成する各画素グループの平均画素値である。但し、上述した様に、平均値に代えて、最大画素値、最小画素値、中央値を用いてもよい。 FIG. 10 (b), in case of dividing the object O 2 into a plurality of pixel groups as in FIG. 10 (a), a rhythm information representing the pattern of the spatial variation of the object O 2. Each value (D1 to D7) shown in FIG. 10B is a value constituting rhythm information, and is an average pixel of each pixel group constituting the object O 2 at each imaging timing (t1, t2,...). Value. However, as described above, the maximum pixel value, the minimum pixel value, and the median value may be used instead of the average value.

図11(a)は、図8に示した信号機のオブジェクトOを構成する画素において、画素値の差が所定数以下である隣接画像を画素グループとして模式的に表したものである。図11(a)において、Gb1及びGb4は、信号が青のときの撮像タイミング(t1〜t3)において画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Gb1は青色の領域、Gb4は黒色及び灰色の領域を表している(図8参照)。即ち、消灯中の黄ランプ及び赤ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。 FIG. 11A schematically shows adjacent images having a pixel value difference equal to or less than a predetermined number in the pixels constituting the traffic light object O 2 shown in FIG. 8 as a pixel group. In FIG. 11A, Gb1 and Gb4 are pixel groups that are adjacent images whose pixel value difference is equal to or less than a predetermined number at the imaging timing (t1 to t3) when the signal is blue (see FIG. 9B). ). Specifically, Gb1 represents a blue region, and Gb4 represents a black and gray region (see FIG. 8). That is, it is assumed that the difference between the pixel values (values indicating black) in the areas of the yellow lamp and the red lamp being turned off (values indicating black) and the pixel values (values indicating gray) in the areas other than the lamps is equal to or less than a predetermined value.

図11(b)において、Gb2及びGb4は、信号が黄のときの撮像タイミング(t4)において画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Gb2は黄色の領域、Gb4は黒色及び灰色の領域を表している(図8参照)。即ち、消灯中の青ランプ及び赤ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。   In FIG. 11B, Gb2 and Gb4 are pixel groups of adjacent images whose pixel value difference is equal to or smaller than a predetermined number at the imaging timing (t4) when the signal is yellow (see FIG. 9B). Specifically, Gb2 represents a yellow region and Gb4 represents a black and gray region (see FIG. 8). That is, it is assumed that the difference between the pixel values (values indicating black) in the areas of the blue lamp and the red lamp being turned off and the pixel values (values indicating gray) in the areas other than the lamps is equal to or less than a predetermined value.

図11(c)において、Gb3及びGb4は、信号が赤のときの撮像タイミング(t5〜t7)において画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Gb3は赤色の領域、Gb4は黒色及び灰色の領域を表している(図8参照)。即ち、消灯中の青ランプ及び黄ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。   In FIG. 11C, Gb3 and Gb4 are pixel groups of adjacent images whose pixel value difference is equal to or less than a predetermined number at the imaging timing (t5 to t7) when the signal is red (see FIG. 9B). ). Specifically, Gb3 represents a red region, and Gb4 represents a black and gray region (see FIG. 8). That is, the difference between the pixel values (values indicating black) in the areas of the blue lamp and the yellow lamp being turned off and the pixel values (values indicating gray) in the areas other than the lamps is not more than a predetermined value.

図11(d)は、オブジェクトOを図11(a)〜(c)の如く複数の画素グループに分割した場合における、オブジェクトOの空間的な変化のパターンを表すリズム情報である。図11(d)に示す各値(S1〜S7)は、リズム情報を構成する値であって、各撮像タイミングにおける各画素グループの分布(領域の形状)である。具体的には、S1は青ランプの領域r1−1−1、S2は黄ランプの領域r1−2−1、S3は赤ランプの領域r1−3−1、S4は青ランプ以外の領域、S5は黄ランプ以外の領域、S6は赤ランプ以外の領域の分布を表している。 FIG. 11 (d) in case of dividing the object O 2 into a plurality of pixel groups as shown in FIG. 11 (a) ~ (c) , a rhythm information representing the pattern of the spatial variation of the object O 2. Each value (S1 to S7) shown in FIG. 11D is a value constituting rhythm information and is a distribution (region shape) of each pixel group at each imaging timing. Specifically, S1 is a blue lamp area r1-1-1, S2 is a yellow lamp area r1-2-1, S3 is a red lamp area r1-3-1, S4 is a non-blue lamp area, S5. Represents a region other than the yellow lamp, and S6 represents a distribution of regions other than the red lamp.

即ち、図9(b)に示すように所定数の隣接画素を画素グループとしリズム情報を表現するのではなく、図10(b)又は図11(d)に示すように画素値の差が所定値以下である隣接画素を画素グループとしリズム情報を表現してもよく、図10(b)又は図11(d)に示すように画素値の差が所定値以下である隣接画素を画素グループとしリズム情報を表現した場合には、図9(b)に示すように所定数の隣接画素を画素グループとしリズム情報を表現した場合と同様に、リズム情報の類似度を算出する。   That is, the rhythm information is not expressed by using a predetermined number of adjacent pixels as a pixel group as shown in FIG. 9B, but the difference in pixel values is predetermined as shown in FIG. 10B or FIG. Rhythm information may be expressed by using adjacent pixels that are less than or equal to a pixel group as a pixel group, and adjacent pixels that have a pixel value difference that is less than or equal to a predetermined value as shown in FIG. When the rhythm information is expressed, the similarity of the rhythm information is calculated as in the case where the rhythm information is expressed with a predetermined number of adjacent pixels as a pixel group as shown in FIG.

以上、図5乃至図11を用いて、リズム情報を、オブジェクトの時間的な変化のパターンとして表現し、類似度を算出する場合(図5乃至図7)と、オブジェクトの空間的な変化のパターンとして表現し、類似度を算出する場合(図8乃至図11)とを個々に説明したが、リズム情報を、時間的な変化のパターン及び空間的な変化のパターンとして表現し、類似度を算出してもよい。即ち、類似度を算出する対象のリズム情報の形式が同一であれば、リズム情報同士の類似度の算出が可能であるため、オブジェクトの時間的な変化のパターンをリズム情報としても、オブジェクトの空間的な変化のパターンをリズム情報としても、両方のパターンをリズム情報としてもよい。   As described above, the rhythm information is expressed as the temporal change pattern of the object and the similarity is calculated using FIGS. 5 to 11 and the spatial change pattern of the object. The case where the similarity is calculated individually (FIGS. 8 to 11) has been described individually, but the rhythm information is expressed as a temporal change pattern and a spatial change pattern, and the similarity is calculated. May be. That is, if the format of the rhythm information for which the similarity is calculated is the same, the similarity between the rhythm information can be calculated. Therefore, even if the temporal change pattern of the object is used as the rhythm information, the space of the object A pattern of a typical change may be used as rhythm information, and both patterns may be used as rhythm information.

図12は、電子機器1の動作の一例を示すフローチャートである。図12に示すフローチャートの開始時において、リズム情報記憶部90には複数の他の電子機器100のリズム情報が記憶され、接続情報記憶部92には当該複数の他の電子機器100の接続情報が記憶されているものとする。   FIG. 12 is a flowchart illustrating an example of the operation of the electronic device 1. At the start of the flowchart shown in FIG. 12, the rhythm information storage unit 90 stores rhythm information of a plurality of other electronic devices 100, and the connection information storage unit 92 stores connection information of the plurality of other electronic devices 100. It shall be remembered.

図12において、算出部20は、リズム情報記憶部90に記憶されている複数の他の電子機器100のリズム情報の類似度を算出する(ステップS10)。算出部20は、類似度の算出結果をグループ化部30に出力する。   In FIG. 12, the calculation unit 20 calculates the similarity of rhythm information of a plurality of other electronic devices 100 stored in the rhythm information storage unit 90 (step S10). The calculation unit 20 outputs the similarity calculation result to the grouping unit 30.

グループ化部30は、算出部20による類似度の算出結果に基づいて、当該複数の他の電子機器100をグループ化し、グループ化情報を生成する(ステップS12)。グループ化部30は、グループ化情報をグループ化情報記憶部94に記憶する。グループ化部30は、グループ化情報をグループ化情報記憶部94に記憶した旨を表示部40に通知する。   The grouping unit 30 groups the plurality of other electronic devices 100 based on the similarity calculation result by the calculation unit 20, and generates grouping information (step S12). The grouping unit 30 stores the grouping information in the grouping information storage unit 94. The grouping unit 30 notifies the display unit 40 that the grouping information has been stored in the grouping information storage unit 94.

表示部40は、グループ化情報及び接続情報を表示する(ステップS14)。具体的には、表示部40は、接続情報記憶部92とグループ化情報記憶部94とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の機器IDと、当該他の電子機器100と通信するための接続情報とを表示する。   The display unit 40 displays grouping information and connection information (step S14). Specifically, the display unit 40 refers to the connection information storage unit 92 and the grouping information storage unit 94, and, for each group, the device ID of the other electronic device 100 grouped in the group and the other Connection information for communicating with the electronic device 100 is displayed.

送信部50は、接続情報記憶部92とグループ化情報記憶部94と動作制御情報記憶部96とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の夫々が、同様に音声出力し、同様に発光し、又は、同様に振動するように、各グループにグループ化された夫々の他の電子機器100に動作制御情報を送信する(ステップS16)。そして、本フローチャートは終了する。なお、送信部50は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を送信してもよい。   The transmission unit 50 refers to the connection information storage unit 92, the grouping information storage unit 94, and the operation control information storage unit 96, and each of the other electronic devices 100 grouped in the group is grouped in the same manner. The operation control information is transmitted to each of the other electronic devices 100 grouped in each group so as to output sound and emit light or vibrate similarly (step S16). Then, this flowchart ends. The transmission unit 50 may transmit the operation control information when an operation reception unit (not shown) receives a predetermined user operation.

続いて、図1(b)に示す態様(自電子機器1を含む、複数の電子機器(電子機器1及び電子機器100)をグループ化の対象とする態様)について説明する。   Next, the mode illustrated in FIG. 1B (a mode in which a plurality of electronic devices (the electronic device 1 and the electronic device 100) including the own electronic device 1 are grouped) will be described.

図1(b)に示す態様の電子機器1の構成が、上述の図1(a)に示す態様の電子機器1の構成と異なる部分は、図2(d)に示すように、撮像部14を有する点のみである。以下、差異部分(撮像部14)を中心に説明する。   As shown in FIG. 2D, the imaging unit 14 is different from the configuration of the electronic device 1 in the aspect shown in FIG. 1A described above in the configuration of the electronic apparatus 1 in the aspect shown in FIG. It is only the point which has. Hereinafter, a description will be given focusing on the difference (imaging unit 14).

電子機器1の取得部10は、他の電子機器100によって撮像された撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報、及び、自電子機器1によって撮像された撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する。具体的には、受信部12が、他の電子機器100の夫々から、図3(a)に示すように、当該他の電子機器100の機器ID及び接続情報とともに、当該他の電子機器100のリズム情報を受信し、撮像部14が、自電子機器1が撮像画像を取得し、リズム情報生成部16が、撮像部14によって撮像された動画像からオブジェクトを抽出し、動画像から抽出したオブジェクトのリズム情報を生成する。なお、リズム情報生成部16は、他の電子機器100が備えるリズム情報生成部116と同様に、リズム情報を生成する。   The acquisition unit 10 of the electronic device 1 includes rhythm information representing a temporal or spatial change pattern of an object in a captured image captured by another electronic device 100 and a captured image captured by the electronic device 1. Rhythm information representing a temporal or spatial change pattern of the object inside is acquired. Specifically, as shown in FIG. 3A, the receiving unit 12 receives each of the other electronic devices 100 together with the device ID and connection information of the other electronic devices 100 from the other electronic devices 100. The rhythm information is received, the imaging unit 14 acquires the captured image by the electronic device 1, the rhythm information generation unit 16 extracts the object from the moving image captured by the imaging unit 14, and the object extracted from the moving image Generate rhythm information. Note that the rhythm information generation unit 16 generates rhythm information in the same manner as the rhythm information generation unit 116 included in the other electronic device 100.

リズム情報を取得した取得部10(受信部12、撮像部14、リズム情報生成部16)は、取得したリズム情報をリズム情報記憶部90に記憶する。   The acquisition unit 10 (reception unit 12, imaging unit 14, rhythm information generation unit 16) that acquired the rhythm information stores the acquired rhythm information in the rhythm information storage unit 90.

算出部20は、取得部10によって取得された複数の電子機器(自電子機器1、他の電子機器100)のリズム情報の類似度を算出する。つまり、算出部20は、リズム情報生成部16によって生成された当該電子機器1によって撮像された撮像画像内のオブジェクトのリズム情報と、受信部12によって受信された他の電子機器100によって撮像された撮像画像内のオブジェクトのリズム情報との類似度を算出する。なお、算出部20は、受信部12によって受信された他の電子機器100間のリズム情報の類似度を算出してもよい。   The calculation unit 20 calculates the similarity of rhythm information of a plurality of electronic devices (the own electronic device 1 and other electronic devices 100) acquired by the acquisition unit 10. That is, the calculation unit 20 is captured by the rhythm information of the object in the captured image captured by the electronic device 1 generated by the rhythm information generation unit 16 and the other electronic device 100 received by the reception unit 12. The similarity with the rhythm information of the object in the captured image is calculated. Note that the calculation unit 20 may calculate the rhythm information similarity between the other electronic devices 100 received by the reception unit 12.

グループ化部30は、算出部20によって算出された当該電子機器1のリズム情報と他の電子機器100のリズム情報との類似度が所定の閾値以上である場合に、当該電子機器1と他の電子機器100を同一グループにグループ化する。また、グループ化部30は、他の電子機器100同士のリズム情報の類似度が所定の閾値以上である場合にも、当該他の電子機器100同士を同一グループにグループ化してもよい。   When the similarity between the rhythm information of the electronic device 1 calculated by the calculation unit 20 and the rhythm information of the other electronic device 100 is equal to or greater than a predetermined threshold, the grouping unit 30 and the electronic device 1 Electronic devices 100 are grouped into the same group. The grouping unit 30 may group the other electronic devices 100 into the same group even when the similarity of the rhythm information between the other electronic devices 100 is equal to or greater than a predetermined threshold.

グループ化部30によって何れかのグループに自電子機器1がグループ化された場合には、当該グループにグループ化された自電子機器1と1以上の他の電子機器100とが、同様に音声出力し、同様に発光し、又は、同様に振動するように処理をする。例えば、送信部50が、動作制御情報記憶部96に記憶されている設定値(自電子機器1の設定値)と同一の値を他の電子機器100に送信してもよいし、設定部(非図示)が、送信部50によって他の電子機器100に送信する値(他の電子機器100に対する設定値)を、自電子機器1の設定値として動作制御情報記憶部96に記憶してもよい。   When the own electronic device 1 is grouped into any group by the grouping unit 30, the own electronic device 1 grouped into the group and one or more other electronic devices 100 similarly output sound. Then, it is processed so that it emits light similarly or vibrates in the same way. For example, the transmission unit 50 may transmit the same value as the setting value (the setting value of the electronic device 1) stored in the operation control information storage unit 96 to another electronic device 100, or the setting unit ( A value (not shown) transmitted by the transmission unit 50 to the other electronic device 100 (a setting value for the other electronic device 100) may be stored in the operation control information storage unit 96 as a setting value of the own electronic device 1. .

図13は、電子機器1によるグループ化の結果を説明するための模式図である。
図13(a)は、図1(a)に示した態様におけるグループ化の結果であって、電子機器1が、5台の他の電子機器100(電子機器A〜E)のうち、3台の電子機器100(電子機器A、C、D)をグループGとし、2台の電子機器(電子機器B、E)をグループGとし、更に、Gにグループ化された電子機器(電子機器A、C、D)に同様に音声を出力させ、Gにグループ化された電子機器(電子機器B、E)に同様に音声を出力させている様子を表している。
FIG. 13 is a schematic diagram for explaining the result of grouping by the electronic device 1.
FIG. 13A shows the result of grouping in the mode shown in FIG. 1A, and the electronic device 1 includes three of the five other electronic devices 100 (electronic devices A to E). the electronic device 100 (electronic device a, C, D) and the group G 1, the two electronic devices (electronic devices B, E) as a group G 2, further electronic device (electronic grouped into G 1 equipment a, C, D) in the same manner as to output sound, grouped electronic equipment (electronic device B to G 2, and represents a state in which similarly to output audio to E).

つまり、電子機器1によれば、複数の他の電子機器100を簡便にグループ化し、同一グループ内の複数の他の電子機器100に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。従って、例えば、観衆が自身の電子機器100を用いて同一の被写体(例えば、遊園地におけるパレード、コンサートのアーティスト、サーカスの実演者)を撮像するような場面において、同一の被写体を撮像している2以上の他の電子機器100の挙動を同じ様に制御することができる(挙動をシンクロさせることができる)。   That is, according to the electronic device 1, a plurality of other electronic devices 100 are simply grouped, and a plurality of other electronic devices 100 in the same group are similarly output with sound, similarly emitted, or similarly It becomes possible to vibrate. Therefore, for example, in the scene where the audience uses the electronic device 100 to capture the same subject (for example, a parade at an amusement park, a concert artist, a circus performer), the same subject is imaged. The behavior of two or more other electronic devices 100 can be controlled in the same manner (behavior can be synchronized).

図13(b)は、図1(b)に示した態様におけるグループ化の結果であって、電子機器1が、自電子機器1及び5台の電子機器(電子機器A〜E)のうち、4台の電子機器(自電子機器1、電子機器A、C、D)をグループGとし、更に、Gにグループ化された電子機器(自電子機器1、電子機器A、C、D)に同様に音声を出力させている様子を表している。 FIG.13 (b) is the result of the grouping in the aspect shown in FIG.1 (b), Comprising: The electronic device 1 is the own electronic device 1 and five electronic devices (electronic device AE), four electronic devices and (the primary electronic device 1, the electronic device a, C, D) and the group G 3, further grouped electronics G 3 (the primary electronic device 1, the electronic device a, C, D) Similarly, a state in which sound is output is shown.

つまり、電子機器1によれば、自電子機器1と同一グループとなる複数の他の電子機器100について簡便にグループ化し、グループ内の複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。従って、自電子機器1と同一の被写体を撮像している1以上の電子機器100の挙動を同じ様に制御することができる。   That is, according to the electronic device 1, a plurality of other electronic devices 100 that are in the same group as the electronic device 1 are simply grouped, and a plurality of electronic devices in the group are similarly output with sound and similarly emitted. Alternatively, it can be vibrated in the same manner. Therefore, the behavior of one or more electronic devices 100 that are imaging the same subject as the electronic device 1 can be controlled in the same way.

図13(c)は、図1(b)に示した態様におけるグループ化の結果であって、電子機器1が、自電子機器1及び5台の電子機器(電子機器A〜E)のうち、4台の電子機器(自電子機器1、電子機器A、C、D)をグループGとし、2台の電子機器(電子機器B、E)をグループGとし、更に、Gにグループ化された電子機器(自電子機器1、電子機器A、C、D)に同様に音声を出力させ、Gにグループ化された電子機器(電子機器B、E)に同様に音声を出力させている様子を表している。 FIG.13 (c) is the result of the grouping in the aspect shown in FIG.1 (b), Comprising: The electronic device 1 is the self-electronic device 1 and five electronic devices (electronic device AE), four electronic equipment (the primary electronic device 1, the electronic device a, C, D) and the group G 3, the two electronic devices (electronic devices B, E) as a group G 2, further grouped into G 3 electronic devices that are (the primary electronic device 1, the electronic device a, C, D) to output the audio similarly, likewise to output audio to grouped electronic equipment (electronic device B, E) to G 2 It shows how it is.

つまり、電子機器1によれば、自電子機器1と同一グループとなる複数の他の電子機器100、及び、自電子機器1と同一グループとならない複数の他の電子機器100について簡便にグループ化し、同一グループ内の複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。従って、同一の被写体を撮像している2以上の他の電子機器100の挙動を同じ様に制御し、かつ、同一の被写体を撮像している2以上の電子機器100の挙動を同じ様に制御することができる。   That is, according to the electronic device 1, a plurality of other electronic devices 100 that are in the same group as the own electronic device 1 and a plurality of other electronic devices 100 that are not in the same group as the own electronic device 1 are simply grouped. A plurality of electronic devices in the same group can be similarly output as audio, similarly emitted, or similarly vibrated. Therefore, the behaviors of two or more other electronic devices 100 that capture the same subject are controlled in the same manner, and the behaviors of two or more electronic devices 100 that capture the same subject are controlled in the same manner. can do.

以上、電子機器1によれば、複数の電子機器を簡便にグループ化することできる。また、電子機器1によれば、同一グループにグループ化した複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。   As described above, according to the electronic device 1, a plurality of electronic devices can be easily grouped. Moreover, according to the electronic device 1, it becomes possible to make a plurality of electronic devices grouped in the same group output sound in the same manner, similarly emit light, or vibrate similarly.

なお、本発明の一実施形態による電子機器1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、電子機器1の各処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Note that a program for executing each process of the electronic apparatus 1 according to an embodiment of the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Thus, each process of the electronic device 1 may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1…電子機器、10…取得部、12…受信部、14…撮像部、16…リズム情報生成部、20…算出部、30…グループ化部、40…表示部、50…送信部、60…動作制御部、90…リズム情報記憶部、92…接続情報記憶部、94…グループ化情報記憶部、96…動作制御情報記憶部、100…電子機器(他の電子機器)、114…撮像部、116…リズム情報生成部、140…表示部、150…送受信部、160…動作制御部、196…動作制御情報記憶部 DESCRIPTION OF SYMBOLS 1 ... Electronic device, 10 ... Acquisition part, 12 ... Reception part, 14 ... Imaging part, 16 ... Rhythm information generation part, 20 ... Calculation part, 30 ... Grouping part, 40 ... Display part, 50 ... Transmission part, 60 ... Operation control unit, 90 ... Rhythm information storage unit, 92 ... Connection information storage unit, 94 ... Grouping information storage unit, 96 ... Operation control information storage unit, 100 ... Electronic device (other electronic devices), 114 ... Imaging unit, 116: Rhythm information generation unit, 140: Display unit, 150: Transmission / reception unit, 160: Operation control unit, 196: Operation control information storage unit

Claims (6)

撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する取得部と、
異なる電子機器によって撮像された夫々の撮像画像から前記取得部によって取得された各オブジェクトの前記リズム情報の類似度を算出する算出部と、
前記算出部によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記夫々の撮像画像を撮像した電子機器をグループ化するグループ化情報を生成するグループ化部と
を備えることを特徴とする電子機器。
An acquisition unit for acquiring rhythm information representing a temporal or spatial change pattern of an object in the captured image;
A calculation unit for calculating the similarity of the rhythm information of each object acquired by the acquisition unit from respective captured images captured by different electronic devices;
A grouping unit that generates grouping information for grouping electronic devices that have captured the respective captured images based on the similarity of the rhythm information of each object calculated by the calculation unit. Electronic equipment.
請求項1に記載の電子機器において、
前記取得部は、
他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部
を有し、
前記算出部は、
前記受信部によって受信された第1の他の電子機器によって撮像された第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された第2の他の電子機器によって撮像された第2の他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、
前記グループ化部は、
前記算出部によって算出された前記第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記第2の他の撮像画像内のオブジェクトの前記リズム情報との類似度が所定の閾値以上である場合に、前記第1の他の電子機器と前記第2の他の電子機器を同一グループにグループ化することを特徴とする電子機器。
The electronic device according to claim 1,
The acquisition unit
A receiver that receives the rhythm information of an object in a captured image captured by another electronic device;
The calculation unit includes:
Imaged by the second other electronic device received by the receiver and the rhythm information of the object in the first other captured image captured by the first other electronic device received by the receiver Calculating the similarity with the rhythm information of the object in the second other captured image,
The grouping unit
The similarity between the rhythm information of the object in the first other captured image calculated by the calculation unit and the rhythm information of the object in the second other captured image is greater than or equal to a predetermined threshold. In this case, the first other electronic device and the second other electronic device are grouped into the same group.
請求項1に記載の電子機器において、
前記取得部は、
撮像部と、
他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部と
を有し、
前記算出部は、
前記撮像部によって撮像された自撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された他の電子機器によって撮像された他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、
前記グループ化部は、
前記算出部によって算出された前記自撮像画像内のオブジェクトの前記リズム情報と、前記他の撮像画像内のオブジェクトの前記リズム情報との類似度が所定の閾値以上である場合に、当該電子機器と前記他の電子機器を同一グループにグループ化することを特徴とする電子機器。
The electronic device according to claim 1,
The acquisition unit
An imaging unit;
A receiving unit that receives the rhythm information of an object in a captured image captured by another electronic device;
The calculation unit includes:
The similarity between the rhythm information of the object in the self-captured image captured by the imaging unit and the rhythm information of the object in another captured image captured by another electronic device received by the reception unit Calculate
The grouping unit
When the degree of similarity between the rhythm information of the object in the self-captured image calculated by the calculation unit and the rhythm information of the object in the other captured image is equal to or greater than a predetermined threshold, An electronic apparatus characterized in that the other electronic apparatuses are grouped into the same group.
請求項1から請求項3の何れか1項に記載の電子機器は、
前記グループ化部によって同一グループにグループ化された他の電子機器と通信するための接続情報を表示する表示部を更に備えることを特徴とする電子機器。
The electronic device according to any one of claims 1 to 3,
An electronic device further comprising: a display unit that displays connection information for communicating with other electronic devices grouped into the same group by the grouping unit.
請求項1から請求項4の何れか1項に記載の電子機器は、
前記グループ化部によって同一グループにグループ化された複数の電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器に動作制御情報を送信する送信部を更に備えることを特徴とする電子機器。
The electronic device according to any one of claims 1 to 4,
Transmission for transmitting operation control information to other electronic devices so that a plurality of electronic devices grouped in the same group by the grouping unit similarly outputs sound, emits light in the same manner, or vibrates in the same manner An electronic device, further comprising a unit.
電子機器をグループ化する電子機器におけるグループ化方法であって、
前記電子機器の取得手段が、撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得し、
前記電子機器の算出手段が、異なる電子機器によって撮像された夫々の撮像画像から前記取得手段によって取得された各オブジェクトの前記リズム情報の類似度を算出し、
前記電子機器のグループ化手段が、前記算出手段によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記夫々の撮像画像を撮像した電子機器をグループ化するグループ化情報を生成する
ことを特徴とするグループ化方法。
An electronic device grouping method for grouping electronic devices,
The acquisition unit of the electronic device acquires rhythm information representing a temporal or spatial change pattern of an object in a captured image,
The electronic device calculation means calculates the similarity of the rhythm information of each object acquired by the acquisition means from each captured image captured by different electronic devices,
The electronic device grouping unit generates grouping information for grouping the electronic devices that captured the respective captured images based on the similarity of the rhythm information of each object calculated by the calculation unit. A grouping method characterized by
JP2011046396A 2011-03-03 2011-03-03 Electronic device and grouping method Pending JP2012186535A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011046396A JP2012186535A (en) 2011-03-03 2011-03-03 Electronic device and grouping method
EP12753041.8A EP2683152A4 (en) 2011-03-03 2012-03-01 Electronic device and grouping method
PCT/JP2012/055188 WO2012118138A1 (en) 2011-03-03 2012-03-01 Electronic device and grouping method
US14/016,719 US20140003730A1 (en) 2011-03-03 2013-09-03 Electronic device and grouping method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011046396A JP2012186535A (en) 2011-03-03 2011-03-03 Electronic device and grouping method

Publications (1)

Publication Number Publication Date
JP2012186535A true JP2012186535A (en) 2012-09-27

Family

ID=47016239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011046396A Pending JP2012186535A (en) 2011-03-03 2011-03-03 Electronic device and grouping method

Country Status (1)

Country Link
JP (1) JP2012186535A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247888A (en) * 2011-05-26 2012-12-13 Sony Corp Information processing apparatus, information processing method, program, and information processing system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277603A (en) * 2004-03-23 2005-10-06 Fuji Photo Film Co Ltd System, apparatus, method, and program for imaging
JP2006101186A (en) * 2004-09-29 2006-04-13 Nikon Corp Camera
JP2007114885A (en) * 2005-10-18 2007-05-10 National Institute Of Information & Communication Technology Classification method and device by similarity of image
JP2008236646A (en) * 2007-03-23 2008-10-02 Canon Inc Network photographing system, management method, and computer program
JP2009094574A (en) * 2007-10-03 2009-04-30 Sony Corp Imaging apparatus, exchange method of image data, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277603A (en) * 2004-03-23 2005-10-06 Fuji Photo Film Co Ltd System, apparatus, method, and program for imaging
JP2006101186A (en) * 2004-09-29 2006-04-13 Nikon Corp Camera
JP2007114885A (en) * 2005-10-18 2007-05-10 National Institute Of Information & Communication Technology Classification method and device by similarity of image
JP2008236646A (en) * 2007-03-23 2008-10-02 Canon Inc Network photographing system, management method, and computer program
JP2009094574A (en) * 2007-10-03 2009-04-30 Sony Corp Imaging apparatus, exchange method of image data, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247888A (en) * 2011-05-26 2012-12-13 Sony Corp Information processing apparatus, information processing method, program, and information processing system

Similar Documents

Publication Publication Date Title
CN107079565B (en) Lighting device
CN105637529B (en) Image capture input and projection output
JP6081440B2 (en) Method and apparatus for prompting based on smart glasses
US20160342202A1 (en) Virtual reality apparatus, feedback apparatus, and system and method for providing realistic service
EP3567866A1 (en) Video distribution system, video distribution method, and storage medium storing video distribution program for distributing video containing animation of character object generated based on motion of actor
JP6056853B2 (en) Electronics
CN104492082A (en) Method and device for dynamic display of player images
US9301268B2 (en) Device synchronization
JP2024045292A (en) Pulse signal-based display method and apparatus, electronic device, and medium
JP2012186535A (en) Electronic device and grouping method
JP2012242793A (en) Display system and electronic apparatus
WO2012118138A1 (en) Electronic device and grouping method
US10924721B2 (en) Volumetric video color assignment
TW202329638A (en) Analog signal line interference mitigation
CN113014960A (en) Method, device and storage medium for online video production
US20220011861A1 (en) Inputs to virtual reality devices from touch surface devices
JP2012186536A (en) Electronic device and grouping method
JP2021057799A (en) Information processing system, information processing method, and information processing program
CN109729399B (en) Video playing system, wearable device and control method of physical linkage assembly
US20150205980A1 (en) Information acquisition apparatus, information acquisition method, and non-transitory recording medium
JP2021057798A (en) Information processing system, information processing method, and information processing program
TWI543595B (en) Signal plug-in module, photo sensing module, and interactive device and system using the same
US20150241550A1 (en) Method of controlling a plurality of mobile transceivers scattered throughout a transceiver field, and system
CN109471541A (en) Air mouse method for tracing, system and storage medium based on virtual screen
CN217011047U (en) Sound-picture synchronous checking reference equipment and detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150310