JP2012186535A - Electronic device and grouping method - Google Patents
Electronic device and grouping method Download PDFInfo
- Publication number
- JP2012186535A JP2012186535A JP2011046396A JP2011046396A JP2012186535A JP 2012186535 A JP2012186535 A JP 2012186535A JP 2011046396 A JP2011046396 A JP 2011046396A JP 2011046396 A JP2011046396 A JP 2011046396A JP 2012186535 A JP2012186535 A JP 2012186535A
- Authority
- JP
- Japan
- Prior art keywords
- electronic device
- rhythm information
- unit
- similarity
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、電子機器及びグループ化方法に関するものである。 The present invention relates to an electronic device and a grouping method.
従来、入力画像間の類似性を評価することによって入力画像をグループ化する撮像装置が開示されている(例えば、特許文献1参照)。 Conventionally, an imaging apparatus that groups input images by evaluating the similarity between the input images has been disclosed (see, for example, Patent Document 1).
しかしながら、特許文献1に開示された撮像装置の如く画像をグループ化する電子機器は、電子機器をグループ化しない。即ち、グループ化を行う電子機器といえども、グループ化の対象物は画像であって、電子機器自体をグループ化の対象とはしていない。従って、電子機器自体をグループ化した場合に実現され得る種々の応用処理(例えば、同一グループにグループ化された複数の電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように設定)を実現することができないという問題がある。
本発明は、上記問題に鑑みてなされたものであり、複数の電子機器を簡便にグループ化する技術を提供する。
However, an electronic device that groups images, such as the imaging device disclosed in
The present invention has been made in view of the above problems, and provides a technique for easily grouping a plurality of electronic devices.
上記問題を解決するために、本発明の一態様である電子機器は、撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する取得部と、異なる電子機器によって撮像された夫々の撮像画像から前記取得部によって取得された各オブジェクトの前記リズム情報の類似度を算出する算出部と、前記算出部によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記夫々の撮像画像を撮像した電子機器をグループ化するグループ化情報を生成するグループ化部とを備えることを特徴とする。 In order to solve the above problem, an electronic device according to one embodiment of the present invention captures an image using an acquisition unit that acquires rhythm information representing a temporal or spatial change pattern of an object in a captured image and a different electronic device. Based on the similarity of the rhythm information of each object calculated by the calculation unit, a calculation unit that calculates the similarity of the rhythm information of each object acquired by the acquisition unit from each captured image, And a grouping unit that generates grouping information for grouping electronic devices that have captured the respective captured images.
上記電子機器において、前記取得部は、他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部を有し、前記算出部は、前記受信部によって受信された第1の他の電子機器によって撮像された第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された第2の他の電子機器によって撮像された第2の他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、前記グループ化部は、前記算出部によって算出された前記第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記第2の他の撮像画像内のオブジェクトの前記リズム情報との類似度が所定の閾値以上である場合に、前記第1の他の電子機器と前記第2の他の電子機器を同一グループにグループ化するようにしてもよい。 In the electronic device, the acquisition unit includes a reception unit that receives the rhythm information of an object in a captured image captured by another electronic device, and the calculation unit receives the first received by the reception unit. The rhythm information of the object in the first other captured image captured by another electronic device and the second other captured image captured by the second other electronic device received by the receiving unit The degree of similarity of the object in the rhythm information is calculated, and the grouping unit calculates the rhythm information of the object in the first other captured image calculated by the calculator and the second other The first other electronic device and the second other electronic device are grouped into the same group when the similarity of the object in the captured image with the rhythm information is equal to or greater than a predetermined threshold value. It may be.
上記電子機器において、前記取得部は、撮像部と、他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部とを有し、前記算出部は、前記撮像部によって撮像された自撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された他の電子機器によって撮像された他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、前記グループ化部は、前記算出部によって算出された前記自撮像画像内のオブジェクトの前記リズム情報と、前記他の撮像画像内のオブジェクトの前記リズム情報との類似度が所定の閾値以上である場合に、当該電子機器と前記他の電子機器を同一グループにグループ化するようにしてもよい。 In the electronic device, the acquisition unit includes an imaging unit and a reception unit that receives the rhythm information of an object in a captured image captured by another electronic device, and the calculation unit is configured by the imaging unit. Calculating the degree of similarity between the rhythm information of the object in the captured self-captured image and the rhythm information of the object in another captured image captured by another electronic device received by the receiving unit; The grouping unit is configured when the similarity between the rhythm information of the object in the self-captured image calculated by the calculation unit and the rhythm information of the object in the other captured image is equal to or greater than a predetermined threshold. The electronic device and the other electronic device may be grouped into the same group.
上記電子機器は、前記グループ化部によって同一グループにグループ化された他の電子機器と通信するための接続情報を表示する表示部を更に備えるようにしてもよい。 The electronic device may further include a display unit that displays connection information for communicating with other electronic devices grouped into the same group by the grouping unit.
上記電子機器は、前記グループ化部によって同一グループにグループ化された複数の電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器に動作制御情報を送信する送信部を更に備えるようにしてもよい。 The electronic device controls the operation of another electronic device so that a plurality of electronic devices grouped in the same group by the grouping unit outputs sound in the same manner, emits light in the same manner, or vibrates in the same manner. You may make it further provide the transmission part which transmits information.
上記問題を解決するために、本発明の他の態様であるグループ化方法は、電子機器をグループ化する電子機器におけるグループ化方法であって、前記電子機器の取得手段が、撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得し、前記電子機器の算出手段が、異なる電子機器によって撮像された夫々の撮像画像から前記取得手段によって取得された各オブジェクトの前記リズム情報の類似度を算出し、前記電子機器のグループ化手段が、前記算出手段によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記夫々の撮像画像を撮像した電子機器をグループ化するグループ化情報を生成することを特徴とする。 In order to solve the above problem, a grouping method according to another aspect of the present invention is a grouping method in an electronic device for grouping electronic devices, in which the acquisition unit of the electronic device is an object in a captured image. The rhythm information representing the temporal or spatial change pattern of the object is acquired, and the calculation means of the electronic device acquires the rhythm of each object acquired by the acquisition means from the respective captured images captured by different electronic devices. The similarity of information is calculated, and the electronic device grouping unit groups the electronic devices that captured the respective captured images based on the similarity of the rhythm information of each object calculated by the calculation unit. The grouping information to be generated is generated.
本発明によれば、複数の電子機器を簡便にグループ化することできる。 According to the present invention, it is possible to easily group a plurality of electronic devices.
以下、図面を参照しながら本発明の一実施形態について説明する。図1は、本発明の一実施形態による電子機器1の処理の概要を説明するための模式図である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram for explaining an outline of processing of the
電子機器1(例えば、携帯型電子機器)は、複数の電子機器(例えば、携帯型電子機器)をグループ化する。
例えば、電子機器1は、図1(a)に示すように、自電子機器1の周辺に存在する複数の他の電子機器100をグループ化する。即ち、電子機器1は、破線に図示する様に、自電子機器1を除く、複数の電子機器100をグループ化の対象とする。
また例えば、電子機器1は、図1(b)に示すように、自電子機器1、及び、自電子機器1の周辺に存在する複数の他の電子機器100をグループ化する。即ち、電子機器1は、破線に図示する様に、自電子機器1を含む、複数の電子機器(電子機器1及び電子機器100)をグループ化の対象とする。
The electronic device 1 (for example, portable electronic device) groups a plurality of electronic devices (for example, portable electronic devices).
For example, the
Further, for example, the
なお、電子機器1及び複数の他の電子機器100の夫々は、例えば、所定の距離内に接近したときに、通信によって、互いの接続情報(後述)を自動的に交換するものとする。
Note that each of the
以下、図1(a)に示す態様(自電子機器1を除く、複数の電子機器100をグループ化の対象とする態様)について説明する。なお、図1(b)に示す態様(自電子機器1を含む、複数の電子機器(電子機器1及び電子機器100)をグループ化の対象とする態様)については後述する。
In the following, the mode shown in FIG. 1A (a mode in which a plurality of
図2は、電子機器1の一例を示す構成図である。図3は、電子機器1が取得又は記憶する情報の一例である。電子機器1は、図2(a)に示すように、取得部10、算出部20、グループ化部30、表示部40、送信部50、動作制御部60、リズム情報記憶部90、接続情報記憶部92、グループ化情報記憶部94、及び、動作制御情報記憶部96を備える。
FIG. 2 is a configuration diagram illustrating an example of the
取得部10は、図2(b)に示すように、受信部12を有する。なお、取得部10は、図2(c)に示すように、受信部12に加えリズム情報生成部16を有してもよい。また、取得部10は、図2(d)に示すように、受信部12に加え撮像部14及びリズム情報生成部16を有してもよい。但し、図1(a)に示す態様の場合、撮像部14及びリズム情報生成部16は必須でないため、撮像部14及びリズム情報生成部16を有しないものとして説明する。
The
取得部10は、他の電子機器100によって撮像された撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する。具体的には、取得部10内の受信部12が、他の電子機器100の夫々から、図3(a)に示すように、当該他の電子機器100の機器ID及び接続情報とともに、当該他の電子機器100によって撮像された撮像画像内のオブジェクトのリズム情報を受信する。機器IDは、電子機器100の夫々を識別するための識別情報である。接続情報は、電子機器100の夫々と通信するための情報であって、例えば、プロトコルに係る情報、アドレス情報などである。なお、リズム情報については、図5乃至図11を用いて詳細に説明する。
The
なお、一の他の電子機器100が電子機器1に対し、リズム情報と一緒に接続情報を送信しない場合(例えば、当該リズム情報の送信前に、既に、機器IDとともに当該他の電子機器100の接続情報を電子機器1に送信(交換)していた場合)には、受信部12は、当該他の電子機器100の機器IDとともに、当該他の電子機器100のリズム情報を受信する。即ち、上述のような場合には、受信部12は、リズム情報と一緒に接続情報を受信しない。
In the case where one other
リズム情報を取得した取得部10(受信部12)は、取得(受信)したリズム情報をリズム情報記憶部90に記憶する。例えば、取得部10は、図3(b)に示すように、機器IDに対応付けてリズム情報を記憶する。
The acquisition unit 10 (reception unit 12) that acquired the rhythm information stores the acquired (received) rhythm information in the rhythm
また、リズム情報を取得した取得部10は、リズム情報とともに取得した接続情報を接続情報記憶部92に記憶する。例えば、取得部10は、図3(c)に示すように、機器IDに対応付けて接続情報を記憶する。なお、取得部10は、一の他の電子機器100からリズム情報を取得する前に、既に、機器IDとともに当該他の電子機器100の接続情報を取得(交換)していた場合には、当該取得(交換)時に、機器IDに対応付けて接続情報を記憶する。
The
算出部20は、リズム情報記憶部90に記憶されている複数のリズム情報の類似度を算出する。即ち、算出部20は、受信部12によって受信された第1の他の電子機器100によって撮像された第1の他の撮像画像内のオブジェクトのリズム情報と、受信部12によって受信された第2の他の電子機器100によって撮像された第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する。なお、類似度の算出については、図5乃至図11を用いて詳細に説明する。
The
なお、算出部20が類似度の算出を開始するタイミングは特に限定しないが、例えば、算出部20は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、類似度を算出してもよい。
The timing at which the
上述の如く、類似度を算出した算出部20は、類似度の算出結果をグループ化部30に出力する。
As described above, the
グループ化部30は、算出部20によって算出されたリズム情報の類似度(類似度の算出結果)に基づいて、他の電子機器100をグループ化する(即ち、グループ化の結果であるグループ化情報(後述)を生成する)。より詳細には、グループ化部30は、算出部20によって算出された第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上である場合に、第1の他の電子機器100と第2の他の電子機器100を同一グループにグループ化する。
The
例えば、グループ化部30は、電子機器A、B、Cについて、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上である場合に、電子機器A、B、Cを同一グループにグループ化する。
つまり、グループ化部30は、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であっても、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上でない場合には、電子機器A、B、Cを同一グループにグループ化しない。
For example, for the electronic devices A, B, and C, the
That is, the
なお、グループ化部30は、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上でない場合には、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度とを比較し、電子機器Aか電子機器Cの何れの一方と、電子機器Bとを同一グループにグループ化してもよい。
Note that the
即ち、グループ化部30は、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度よりも高い場合には、電子機器A、Bを同一グループにグループ化し、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度よりも高い場合には、電子機器B、Cを同一グループにグループ化してもよい。
That is, the
なお、グループ化部30が複数の他の電子機器100のグループ化を開始するタイミングは特に限定しないが、例えば、グループ化部30は、算出部20から類似度の算出結果を取得したときに、グループ化をしてもよい。
Note that the timing at which the
上述の如く、複数の他の電子機器100をグループ化したグループ化部30は、グループ化情報をグループ化情報記憶部94に記憶する。例えば、グループ化部30は、図3(d)に示すように、グループ化情報として、グループIDと所属機器情報とを対応付けてグループ化情報記憶部94に記憶する。グループIDは、グループの夫々を識別するための識別情報である。所属機器情報は、当該グループに所属する電子機器100(即ち、当該グループにグループ化された電子機器100)を識別する機器IDを含む情報である。
As described above, the
表示部40は、種々の情報を表示する。例えば、表示部40は、グループ化部30によって同一グループにグループ化された他の電子機器100と通信するための接続情報を表示する。具体的には、表示部40は、接続情報記憶部92とグループ化情報記憶部94とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の機器IDと、当該他の電子機器100と通信するための接続情報とを表示する。なお、表示部40は、接続情報を表示せずに、グループ別に、機器IDのみを表示してもよい。
The
なお、表示部40が上述の表示を開始するタイミングは特に限定しないが、例えば、表示部40は、グループ化情報がグループ化情報記憶部94に記憶されたときに表示してもよい。また、表示部40は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに表示してもよい。
The timing at which the
また、表示部40は、動作制御情報記憶部96に記憶されている動作制御情報を表示する。図3(e)は、動作制御情報記憶部96に記憶されている動作制御情報の一例である。
Further, the
動作制御情報は、電子機器1、100の動作を制御するための制御情報であって、例えば、図3(e)に示すように、音声出力を制御するための音声出力制御情報、発光を制御する発光制御情報、振動を制御するための振動制御情報の何れか1以上の制御情報を含む。また、各制御情報(音声出力制御情報、発光制御情報、振動制御情報)は夫々、複数の設定可能値(若しくは、設定可能範囲)を有する。なお、図3(e)に示す動作制御情報は、一例であって、電子機器1、100の他の動作を制御するため他の制御情報を含むものであってもよい。
The operation control information is control information for controlling the operations of the
なお、表示部40が動作制御情報の表示を開始するタイミングは特に限定しないが、例えば、表示部40は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を表示してもよい。例えば、送信部50が動作制御情報を送信する前に、表示部40は、送信する値(設定値)を確認するためのボタン(操作受付部に相当)を表示し、当該ボタンの押下により、送信前に、送信する値を表示してもよい。
The timing at which the
送信部50は、種々の情報を送信する。例えば、送信部50は、グループ化情報を他の電子機器100に送信する。具体的には、送信部50は、グループ化情報記憶部94を参照し、グループ別に、当該グループにグループ化された他の電子機器100の夫々に対し、当該グループに属する他の電子機器100の機器IDを送信する。
The
また、送信部50は、グループ化部30によって同一グループにグループ化された複数の電子機器100が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器100に動作制御情報を送信する。具体的には、送信部50は、接続情報記憶部92とグループ化情報記憶部94と動作制御情報記憶部96とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の夫々が、同様に音声出力し、同様に発光し、又は、同様に振動するように、各グループにグループ化された夫々の他の電子機器100に動作制御情報を送信する。
In addition, the
例えば、送信部50は、グループG1にグループ化された複数の電子機器100の夫々に対し、同一の設定値(例えば、設定値a)の音声出力制御情報を送信し、グループG2にグループ化された複数の電子機器100の夫々に対し、同一の設定値(例えば、設定値b)の音声出力制御情報を送信する。これにより、グループG1にグループ化された電子機器100の夫々は、設定値aによる制御に従って音声を出力し、グループG2にグループ化された電子機器100の夫々は、設定値bによる制御に従って音声を出力するようになる。発光制御情報、又は、振動制御情報を送信する場合も同様である。
Groups For example, the transmitting
なお、送信部50が動作制御情報の送信を開始するタイミングは特に限定しないが、例えば、送信部50は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を送信してもよい。
The timing at which the
動作制御部60は、動作制御情報記憶部96に記憶されている動作制御情報に基づいて、種々の動作を制御する。例えば、音声出力制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って音声を出力するように制御し、発光制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って発光するように制御し、振動制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って振動するように制御する。
The
なお、設定部(非図示)は、操作受付部(非図示)が設定値を指定するユーザ操作を受け付けたときに、当該設定値を動作制御情報記憶部96に記憶する。
The setting unit (not shown) stores the setting value in the operation control
続いて、電子機器1によるグループ化の対象である他の電子機器100について説明する。図4は、他の電子機器100の一例を示す構成図である。他の電子機器100は、図4(a)に示すように、撮像部114、リズム情報生成部116、表示部140、送受信部150、動作制御部160、及び、動作制御情報記憶部196を備える。なお、図4(b)は、電子機器100の他の構成である(後述)。
Next, another
撮像部114は、静止画像及び動画像を撮像する。リズム情報生成部116は、撮像部114によって撮像された動画像からオブジェクトを抽出し、動画像から抽出したオブジェクトのリズム情報を生成する。リズム情報を生成したリズム情報生成部116は、生成したリズム情報を送受信部150に出力する。なお、リズム情報生成部116(リズム情報生成部16(後述)も同様)によるリズム情報の生成については、図5乃至図11を用いて詳細に説明する。
The
送受信部150は、他の電子機器(電子機器1、他の電子機器100)との間で種々の情報を送受信する。例えば、送受信部150は、当該電子機器100の機器ID及び接続情報とともに、リズム情報生成部116から取得したリズム情報を電子機器1に送信する。
The transmission /
なお、送受信部150は、電子機器1にリズム情報を送信する前に、既に、機器IDとともに接続情報を電子機器1に送信(交換)していた場合には、リズム情報と一緒に接続情報を送信しなくてもよい。
Note that if the transmission /
また、例えば、送受信部150は、グループ化情報を電子機器1から受信する。送受信部150は、グループ化情報を受信した場合に、受信したグループ化情報を表示部140に出力する。
For example, the transmission /
また例えば、送受信部150は、設定値を含む動作制御情報を電子機器1から受信する。送受信部150は、動作制御情報を受信した場合、設定部(非図示)を介して、当該動作制御情報の設定値を、動作制御情報記憶部196に記憶(更新)する。なお、動作制御情報記憶部196の構成は、電子機器1の動作制御情報記憶部96と同様である(図3(e)参照)。
For example, the transmission /
表示部140は、種々の情報を表示する。例えば、電子機器1から受信したグループ化情報、動作制御情報を表示する。
The
動作制御部160は、動作制御情報記憶部196に記憶されている動作制御情報に基づいて、種々の動作を制御する。例えば、音声出力制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って音声を出力するように制御し、発光制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って発光するように制御し、振動制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って振動するように制御する。
The
つまり、電子機器1から送信された動作制御情報(設定値)を受信した他の電子機器100は、当該動作制御情報(設定値)に従って動作する。従って、同一グループにグループ化された複数の電子機器100に、同一の設定値の音声出力制御情報を送信すれば、当該複数の電子機器は同様に音声を出力し、同一の設定値の発光制御情報を送信すれば、当該複数の電子機器は同様に発光し、同一の設定値の振動制御情報を送信すれば、当該複数の電子機器は同様に振動する。
That is, the other
なお、電子機器1の取得部10がリズム情報生成部16を有する場合(図2(c)又は図2(d)の構成の場合)、リズム情報の生成は電子機器1にて可能であるため、他の電子機器100は、図4(b)に示すように、リズム情報生成部116を備えていなくてもよい。
When the
つまり、電子機器1の取得部10がリズム情報生成部16を有し、他の電子機器100がリズム情報生成部116を有する場合、他の電子機器100の送受信部150は、当該電子機器100の機器ID及び接続情報とともに、撮像部114によって撮像された動画像を電子機器1に送信する。電子機器1において、受信部12は、他の電子機器100から動画像を受信し、リズム情報生成部16は、受信部12が受信した動画像からオブジェクトを抽出し、抽出したオブジェクトのリズム情報を生成し、機器IDに対応付けてリズム情報記憶部90に記憶する。
That is, when the
以下、図5乃至図11を用いて、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報の生成、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明する。具体的には、まず、図5乃至図7を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報、オブジェクトの時間的な変化のパターンを表すリズム情報の生成、オブジェクトの時間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明し、続いて、図8乃至図11を用いて、オブジェクトの空間的な変化のパターンを表すリズム情報、オブジェクトの空間的な変化のパターンを表すリズム情報の生成、オブジェクトの空間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明する。 Hereinafter, with reference to FIG. 5 to FIG. 11, rhythm information that represents a temporal or spatial change pattern of an object, generation of rhythm information that represents a temporal or spatial change pattern of an object, The calculation of the similarity in the rhythm information representing the spatial change pattern will be described in detail. Specifically, first, using FIG. 5 to FIG. 7, rhythm information that represents a temporal change pattern of an object, generation of rhythm information that represents a temporal change pattern of the object, and temporal change of the object The calculation of the similarity in the rhythm information representing the pattern of the object will be described in detail, and then the rhythm information representing the pattern of the spatial change of the object and the pattern of the spatial change of the object will be described with reference to FIGS. The generation of the rhythm information representing the rhythm information and the calculation of the similarity in the rhythm information representing the spatial change pattern of the object will be described in detail.
図5乃至図7は、オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 5 to 7 are explanatory diagrams for explaining rhythm information representing a temporal change pattern of an object, generation of the rhythm information, and calculation of similarity in the rhythm information.
他の電子機器100のリズム情報生成部116(電子機器1のリズム情報生成部16も同様)は、動画像からオブジェクトを抽出し、抽出したオブジェクトに外接する外接図形の面積の変化量、長辺又は短辺の長さの変化量、縦横比の変化量、面積の変化の周期、長さの変化の周期、又は、縦横比の変化の周期を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報を生成する。
The rhythm
例えば、リズム情報生成部116は、以下に例示するパラメータ1〜12(以下、prm1〜prm12と表記)のうち1以上のパラメータの値を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報を生成する。なお、prm1〜prm12における所定時間は、例えば、外接矩形の変化の周期を基準とする時間(例えば1周期)である。また、prm7−1〜prm9−2における長辺及び短辺は、ある基準時刻(例えば、1周期の最初)の長さに基づいて決定する。また、単に、便宜上、Y軸方向(若しくはX軸方向)を長辺として決めておいてもよい。
(リズム情報を構成するパラメータ)
prm1:所定時間内における外接矩形の最大面積と最小面積の差
prm2:所定時間内における外接矩形の最大面積と最小面積の面積比
prm3−1:所定時間内における外接矩形の平均面積と最大面積の差
prm3−2:所定時間内における外接矩形の平均面積と最小面積の差
prm4−1:所定時間内における外接矩形の平均面積と最大面積の面積比
prm4−2:所定時間内における外接矩形の平均面積と最小面積の面積比
prm5:所定時間内における外接矩形の面積の分布状況(例:標準偏差)
prm6:所定時間内における外接矩形の面積の変化の周期
prm7−1:所定時間内における外接矩形の長辺の最大変化量
prm7−2:所定時間内における外接矩形の短辺の最大変化量
prm8−1:所定時間内における外接矩形の長辺の分布状況(例:標準偏差)
prm8−2:所定時間内における外接矩形の短辺の分布状況(例:標準偏差)
prm9−1:所定時間内における外接矩形の長辺の変化の周期
prm9−2:所定時間内における外接矩形の短辺の変化の周期
prm10:所定時間内における外接矩形の縦横比の最大変化量
prm11:所定時間内における外接矩形の縦横比の分布状況(例:標準偏差)
prm12:所定時間内における外接矩形の縦横比の変化の周期
For example, the rhythm
(Parameters that make up rhythm information)
prm1: difference between the maximum area and the minimum area of the circumscribed rectangle within a predetermined time prm2: area ratio between the maximum area and the minimum area of the circumscribed rectangle within a predetermined time prm3-1: the average area and the maximum area of the circumscribed rectangle within a predetermined time Difference prm3-2: Difference between average area and minimum area of circumscribed rectangle within a predetermined time prm4-1: Area ratio between average area and maximum area of circumscribed rectangle within a predetermined time prm4-2: Average of circumscribed rectangle within a predetermined time Area ratio of area to minimum area prm5: Distribution of circumscribed rectangle area within a predetermined time (example: standard deviation)
prm6: Period of change in area of circumscribed rectangle within a predetermined time prm7-1: Maximum change amount of long side of circumscribed rectangle within a predetermined time prm7-2: Maximum change amount of short side of circumscribed rectangle within a predetermined time prm8− 1: Longitudinal distribution of circumscribed rectangles within a specified time (example: standard deviation)
prm8-2: Distribution of short sides of circumscribed rectangle within a predetermined time (example: standard deviation)
prm9-1: period of change of the long side of the circumscribed rectangle within a predetermined time prm9-2: period of change of the short side of the circumscribed rectangle within a predetermined time prm10: maximum change amount prm11 of the aspect ratio of the circumscribed rectangle within the predetermined time : Circumference rectangle aspect ratio distribution within a specified time (eg, standard deviation)
prm12: Period of change in aspect ratio of circumscribed rectangle within a predetermined time
以下、具体例を用いてリズム情報生成部116によるリズム情報の生成について説明する。図5(a)に示すP1は、動画像を構成する1コマであって、人物(オブジェクトO1)が両手両足を非常に振っている瞬間に撮像されたものである。図5(c)に示すP3は、動画像を構成する1コマであって、人物(オブジェクトO1)が両手両足を振り下ろしている瞬間に撮像されたものである。図5(b)に示すP2は、P1とP3の間の1コマである。
Hereinafter, generation of rhythm information by the rhythm
図6(a)に示すE1は、図5(a)に示すP1内のオブジェクトO1に外接する外接矩形である。図6(b)に示すE2は、図5(b)に示すP2内のオブジェクトO1に外接する外接矩形である。図6(c)に示すE3は、図5(c)に示すP3内のオブジェクトO1に外接する外接矩形である。なお、図6(d)は、外接矩形E1、E2、E3の各サイズを比較したものである。図6(d)に示すように、オブジェクトの動きに応じて当該オブジェクトに外接する外接矩形の形状は変化する。 Figure 6 E 1 shown in (a) is a circumscribed rectangle circumscribing the object O 1 in the P 1 shown in Figure 5 (a). E 2 shown in FIG. 6B is a circumscribed rectangle circumscribing the object O 1 in P 2 shown in FIG. 5B. E 3 shown in FIG. 6C is a circumscribed rectangle circumscribing the object O 1 in P 3 shown in FIG. 5C. Incidentally, FIG. 6 (d) is obtained by comparing the size of the circumscribed rectangle E 1, E 2, E 3 . As shown in FIG. 6D, the shape of the circumscribed rectangle that circumscribes the object changes according to the movement of the object.
算出部20は、動画像(P1、P2、P3、…)から、オブジェクトO1を逐次抽出し、図7(a)に示すように、オブジェクトO1に外接する外接図形を逐次抽出し、図7(b)に示すように、逐次抽出する外接矩形のサイズを算出する。なお、図7(a)に示す「周期」は、外接矩形の形状の変化の周期を示している。つまり、時刻t1〜時刻t4(時刻t5〜時刻t8、時刻t9〜時刻t13、…)が1周期である。
The calculating
リズム情報生成部116は、外接矩形のサイズを用いて、所定の1以上のパラメータを算出し、算出した各パラメータの値を要素とする数値群を、オブジェクトO1の時間的な変化のパターンを表すリズム情報とする。例えば、リズム情報生成部116は、図7(c)に示すように、オブジェクトO1の外接矩形の最大面積と最小面積の面積比(prm2)、面積の変化の周期(prm6)、長辺の最大変化量(prm7−1)、短辺の最大変化量(prm7−1)、縦横比の最大変化量(prm10)の値を要素とする数値群を、オブジェクトO1の時間的な変化のパターンを表すリズム情報R1(prm2、prm6、prm7−1、prm7−2、prm10)とする。
The rhythm
なお、リズム情報は、後に、比較をし易いように、各パラメータの値を適宜丸めたものであってもよいし、各パラメータの値を他の値に置き換えたものであってもよい(スコア化してもよい)。 The rhythm information may be obtained by appropriately rounding the value of each parameter for easy comparison later, or by replacing the value of each parameter with another value (score May be used).
リズム情報生成部116が、上述の如く、各パラメータの値を要素とする数値群から構成されるリズム情報を生成した場合、電子機器1の算出部20は、第1の他の電子機器100によって撮像された第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の電子機器100によって撮像された第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する。具体的には、算出部20は、リズム情報を構成する同一のパラメータ同士の類似度を算出し、複数の、同一のパラメータ同士の類似度に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する。
As described above, when the rhythm
例えば、リズム情報が、prm2、prm6、prm7−1、prm7−2、prm10から構成されている場合、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値と第2の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値とを比較してprm2の値同士の類似度を算出する。同様に、算出部20は、prm6の値同士の類似度、prm7−1の値同士の類似度、prm7−2の値同士の類似度、prm10の値同士の類似度を算出する。
For example, when the rhythm information is composed of prm2, prm6, prm7-1, prm7-2, and prm10, the
prm2(prm6、prm7−1、prm7−2、prm10も同様)の値同士の類似度の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値と、第1の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値とを比較し、値の小さい一方を大きい他方で除した値をprm2の値同士の類似度としてもよい。当該算出手法の場合、パラメータの値同士の類似度は0〜1の範囲となり、類似している程、1に近い値となる。
Various calculation methods are conceivable as a method for calculating the degree of similarity between the values of prm2 (also for prm6, prm7-1, prm7-2, and prm10). As an example, the
また、各パラメータの値同士の類似度に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する算出手法としては、種々の算出手法が考えられるが、一例として、算出部20は、各パラメータ同士の類似度の平均値を第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。即ち、上記の例では、算出部20は、prm2の値同士の類似度、prm6の値同士の類似度、prm7−1の値同士の類似度、prm7−2の値同士の類似度、prm10の値同士の類似度の平均値を、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。当該算出手法の場合、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度は0〜1の範囲となり、類似している程、1に近い値となる。
Also, a calculation for calculating the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image based on the similarity between the values of the parameters. Although various calculation methods can be considered as the method, for example, the
なお、上述の平均値の算出時において、所定のパラメータ同士の類似度に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、パラメータ同士の類似度の中央値、パラメータ同士の類似度の最大値、パラメータ同士の類似度の最小値を、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。 When calculating the above average value, the average value may be calculated after weighting the degree of similarity between predetermined parameters. The average value is not limited to an arithmetic average, and a geometric average may be used. Also, instead of the average value, the median value of the similarity between parameters, the maximum value of the similarity between parameters, and the minimum value of the similarity between parameters are used as the rhythm information of the object in the first other captured image. The similarity with the rhythm information of the object in the second other captured image may be used.
以上、リズム情報が、オブジェクトの時間的な変化のパターンを表すものである場合について説明したが、続いて、リズム情報が、オブジェクトの空間的な変化のパターンを表すものである場合について説明する。図8乃至図11は、オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 The case where the rhythm information represents the temporal change pattern of the object has been described above. Next, the case where the rhythm information represents the spatial change pattern of the object will be described. 8 to 11 are explanatory diagrams for explaining rhythm information representing a spatial change pattern of an object, generation of the rhythm information, and calculation of similarity in the rhythm information.
図8は、動画像(P11、P12、P13)から抽出された信号機のオブジェクト(O2)を模式的に表したものである。図8(a)は信号機が青であるときのオブジェクトO2、図8(b)は信号機が黄であるときのオブジェクトO2、図8(c)は信号機が赤であるときのオブジェクトO2を示している。図8(a)〜図8(c)において、r1は信号機本体の撮像領域、r2は信号機本体を支持する支持部の撮像領域である。r1−1はr1内の領域であって青ランプを保持する保持部の撮像領域、r1−2はr1内の領域であって黄ランプを保持する保持部の撮像領域、r1−3はr1内の領域であって赤ランプを保持する保持部の撮像領域である。r1−1−1はr1−1内の領域であって青ランプの撮像領域、r1−2−1はr1−2内の領域であって黄ランプの撮像領域、r1−3−1はr1−3内の領域であって赤ランプの領域である。 FIG. 8 schematically shows a traffic light object (O 2 ) extracted from moving images (P 11 , P 12 , P 13 ). 8 (a) is the object O 2 when traffic is blue, FIG. 8 (b) object O 2 when traffic is yellow, the object O 2 when FIG. 8 (c) traffic light is red Is shown. 8A to 8C, r1 is an imaging area of the traffic signal body, and r2 is an imaging area of a support portion that supports the traffic signal body. r1-1 is an area within r1, which is an imaging area of a holding section that holds a blue lamp, r1-2 is an area within r1, and is an imaging area of a holding section that holds a yellow lamp, and r1-3 is within r1 This is an imaging region of a holding unit that holds a red lamp. r1-1-1 is an area within r1-1 and is an imaging area of a blue lamp, r1-2-1 is an area within r1-2 and is an imaging area of a yellow lamp, and r1-3-1 is r1- 3 is a red lamp area.
なお、説明の便宜上、信号機が青の場合、点灯中の青ランプの色は青緑色、消灯中の黄ランプ及び赤ランプの色は黒色であるものとする。即ち、図8(a)における、青ランプの領域r1−1−1の色は青緑色、黄ランプの領域r1−2−1の色は黒色、赤ランプの領域r1−3−1の色は黒色であるものとする。信号機が黄の場合、点灯中の黄ランプの色は黄色、消灯中の青ランプ及び赤ランプの色は黒色であるものとする。即ち、図8(b)における、青ランプの領域r1−1−1の色は黒色、黄ランプの領域r1−2−1の色は黄色、赤ランプの領域r1−3−1の色は黒色であるものとする。信号機が赤の場合、点灯中の赤ランプの色は赤色、消灯中の青ランプ及び黄ランプの色は黒色であるものとする。即ち、図8(c)における、青ランプの領域r1−1−1の色は黒色、黄ランプの領域r1−2−1の色は黒色、赤ランプの領域r1−3−1の色は赤色であるものとする。
また、信号機が青、黄、赤の何れの場合において、ランプ以外の領域は全て灰色であるものとする。
For convenience of explanation, it is assumed that when the traffic light is blue, the color of the blue lamp being turned on is blue-green, and the colors of the yellow lamp and red lamp being turned off are black. That is, in FIG. 8A, the color of the blue lamp region r1-1-1 is blue-green, the color of the yellow lamp region r1-2-1 is black, and the color of the red lamp region r1-3-1 is It shall be black. When the traffic light is yellow, the color of the yellow lamp that is lit is yellow, and the color of the blue and red lamps that are not lit is black. That is, in FIG. 8B, the color of the blue lamp region r1-1-1 is black, the color of the yellow lamp region r1-2-1 is yellow, and the color of the red lamp region r1-3-1 is black. Suppose that When the traffic light is red, the color of the red lamp being turned on is red, and the color of the blue lamp and the yellow lamp being turned off is black. That is, in FIG. 8C, the color of the blue lamp region r1-1-1 is black, the color of the yellow lamp region r1-2-1 is black, and the color of the red lamp region r1-3-1 is red. Suppose that
In addition, when the traffic light is any of blue, yellow, and red, all the areas other than the lamp are gray.
図9(a)は、オブジェクトO2を構成する画素グループ(単位領域)を模式的に表したものである。画素グループは、所定数の隣接画素から構成される。 9 (a) it is intended to the pixel group (unit area) that constitute the object O 2 schematically illustrates. A pixel group is composed of a predetermined number of adjacent pixels.
図9(b)は、図9(a)に示すように、オブジェクトO2を複数の画素グループに分割した場合における、オブジェクトO2の空間的な変化のパターンを表すリズム情報である。図9(b)に示す画素グループID(a−4、a−5、…)は、オブジェクトO2を構成する画素グループ(即ち、図9(a)に示す画素グループ)を識別する識別情報である。例えば、図9(b)に示す画素グループID「a−4」は、図9(a)に示す符号Gの画素グループ(横方向のインデックス「4」及び縦方向のインデックス「a」によって規定される画素グループ)を示している。 FIG. 9 (b), as shown in FIG. 9 (a), in the case of dividing the object O 2 into a plurality of pixel groups, a rhythm information representing the pattern of the spatial variation of the object O 2. Pixel group IDs (a-4, a-5,...) Shown in FIG. 9B are identification information for identifying pixel groups constituting the object O 2 (that is, the pixel groups shown in FIG. 9A). is there. For example, the pixel group ID “a-4” shown in FIG. 9B is defined by the pixel group of the symbol G shown in FIG. 9A (the horizontal index “4” and the vertical index “a”). Pixel group).
図9(b)に示す各時刻(t1、t2、…)は、図8に示す信号機の撮像タイミングである。t1〜t3は、図8(a)に示すように信号が青のときの撮像タイミングである。t4は、図8(b)に示すように信号が黄のときの撮像タイミングである。t5〜t7は、図8(c)に示すように信号が赤のときの撮像タイミングである。即ち、t1〜t7は、オブジェクトO2の色の変化の1周期である。なお、図9(b)に示す時刻は、説明の便宜上の時刻である(実際の信号機の場合、通常、黄の時間に対する青(及び赤)の時間は長い。 Each time (t1, t2,...) Shown in FIG. 9B is the imaging timing of the traffic light shown in FIG. t1 to t3 are imaging timings when the signal is blue as shown in FIG. t4 is the imaging timing when the signal is yellow as shown in FIG. t5 to t7 are imaging timings when the signal is red as shown in FIG. That, t1 to t7 is one period of the change in the color of the object O 2. Note that the time shown in FIG. 9B is a time for convenience of explanation (in the case of an actual traffic light, the blue (and red) time is usually longer than the yellow time.
図9(b)に示す各値(D1〜D7)は、リズム情報を構成する値であって、各撮像タイミング(t1、t2、…)における、オブジェクトO2を構成する各画素グループの平均画素値である。なお、D1は灰色を示す画素値、D2は青緑色を示す画素値、D3は黒色を示す画素値、D4は黒色を示す画素値、D5は黄色を示す画素値、D6は黒色を示す画素値、D7は赤色を表す画素値である。 Each value (D1 to D7) shown in FIG. 9B is a value constituting rhythm information, and is an average pixel of each pixel group constituting the object O 2 at each imaging timing (t1, t2,...). Value. D1 is a pixel value indicating gray, D2 is a pixel value indicating blue-green, D3 is a pixel value indicating black, D4 is a pixel value indicating black, D5 is a pixel value indicating yellow, and D6 is a pixel value indicating black , D7 are pixel values representing red.
つまり、図9(b)に示すリズム情報は、オブジェクトO2を構成する画素グループ毎の色の変化のパターンであって、例えば、以下の特徴1〜特徴10を示している。
That is, the rhythm information shown in FIG. 9B is a color change pattern for each pixel group constituting the object O 2 , and shows, for example, the following
特徴1:オブジェクトO2の主要部の領域(図8に示す領域r1)のうち、中央の領域(図8に示す領域r1−2−1)の左側に位置する領域(図8に示す領域r1−1−1)は、色が、青緑色(D2)と黒色(D3)とに周期的に変化する。
特徴2:オブジェクトO2の主要部の領域のうち、中央の領域は、色が、黒色(D4)と黄色(D5)とに周期的に変化する。
特徴3:オブジェクトO2の主要部の領域のうち、中央の領域の右側に位置する領域(図8に示す領域r1−3−1)は、色が、黒色(D6)と赤色(D7)とに周期的に変化する。
特徴4:オブジェクトO2の主要部の領域のうち、中央の領域、中央の領域の左側に位置する領域、中央の領域の右側に位置する領域を除いた領域(図8に示す領域r1から領域r1−1−1、領域r1−2−1及び領域r1−3−1を除いた領域)は、常に、灰色(D1)であって色の変化がない。
特徴5:オブジェクトO2の主要部以外の領域(図8に示す領域r2)は、常に、灰色(D1)であって色の変化がない。
特徴6:中央の領域の左側に位置する領域(領域r1−1−1)が青緑色(D2)から黒色(D3)に変化した後に、中央の領域(領域r1−2−1)が黒色(D4)から黄色(D5)に変化する。
特徴7:中央の領域(領域r1−2−1)が黄色(D5)から黒色(D4)に変化した後に、中央の領域の右側に位置する領域(領域r1−3−1)が黒色(D6)から赤色(D7)に変化する。
特徴8:中央の領域の右側に位置する領域(領域r1−3−1)が赤色(D7)から黒色(D6)に変化した後に、中央の領域の左側に位置する領域(領域r1−1−1)が黒色(D3)から青緑色(D2)に変化する。
特徴9:青緑色(D2)に変化する中央の領域の左側に位置する領域(領域r1−1−1)と、黄色(D5)に変化する中央の領域(領域r1−2−1)と、赤色(D7)に変化する中央の領域の右側に位置する領域(領域r1−3−1)とは、略同じ大きさである。
特徴10:中央の領域の左側に位置する領域(領域r1−1−1)が青緑色(D2)である時間と、中央の領域の右側に位置する領域(領域r1−3−1)が赤色(D7)である時間は等しく、中央(領域r1−2−1)の領域が黄色(D5)である時間の略3倍である。
Feature 1: Of the main part of the object O 2 (region r1 shown in FIG. 8), the region (region r1 shown in FIG. 8) located on the left side of the central region (region r1-2-1 shown in FIG. 8). -1-1), the color periodically changes between blue-green (D2) and black (D3).
Feature 2: The color of the central region of the main portion of the object O 2 periodically changes between black (D4) and yellow (D5).
Feature 3: Of the main part of the object O 2 , the region located on the right side of the central region (region r1-3-1 shown in FIG. 8) is black (D6) and red (D7). Changes periodically.
Feature 4: Out of the main area of the object O 2 , an area excluding the central area, the area located on the left side of the central area, and the area located on the right side of the central area (from the area r1 shown in FIG. 8 to the area) The area excluding r1-1-1, the area r1-2-1, and the area r1-3-1) is always gray (D1) and has no color change.
Feature 5: An area other than the main part of the object O 2 (area r2 shown in FIG. 8) is always gray (D1) and has no color change.
Feature 6: After the region located on the left side of the central region (region r1-1-1) changes from blue-green (D2) to black (D3), the central region (region r1-2-1) is black ( The color changes from D4) to yellow (D5).
Feature 7: After the central region (region r1-2-1) has changed from yellow (D5) to black (D4), the region (region r1-3-1) located on the right side of the central region is black (D6 ) To red (D7).
Feature 8: After the area located on the right side of the central area (area r1-3-1) changes from red (D7) to black (D6), the area located on the left side of the central area (area r1-1-) 1) changes from black (D3) to blue-green (D2).
Feature 9: a region (region r1-1-1) located on the left side of the central region that changes to blue-green (D2), a central region (region r1-2-1) that changes to yellow (D5), The region (region r1-3-1) located on the right side of the central region that changes to red (D7) has substantially the same size.
Feature 10: The time when the region (region r1-1-1) located on the left side of the central region is blue-green (D2), and the region located on the right side of the central region (region r1-3-1) is red The time for (D7) is equal and is approximately three times the time for the center (region r1-2-1) region to be yellow (D5).
他の電子機器100のリズム情報生成部116(電子機器1のリズム情報生成部16も同様)は、動画像からオブジェクトを抽出し、当該オブジェクトの空間的な変化のパターンを表すリズム情報を生成する。例えば、リズム情報生成部116は、オブジェクトO2を抽出した場合、図9(b)に示すように、オブジェクトO2を構成する画素グループ毎の色の変化の示す各値を要素とする数値値から構成されるリズム情報を生成する。
The rhythm
リズム情報生成部116が、上述の如く、夫々のオブジェクトのリズム情報を生成した場合、電子機器1の算出部20は、第1の他の電子機器100によって撮像された第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の電子機器100によって撮像された第2の他の撮像画像内のオブジェクトのリズム情報との類似度を、上述する1以上の特徴に関係する類似度に基づいて算出する。
When the rhythm
例えば、上述の特徴2に関係する類似度を用いて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。当該場合、算出部20は、例えば、第1の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部の中央領域の色の周期的な変化と、第2の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部の中央領域の色の周期的な変化との類似度を算出し、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。
For example, the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image is calculated using the similarity related to the
「主要部の中央領域の色の周期的な変化の類似度」の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」とに基づいて「主要部の中央領域の色の周期的な変化の類似度」を算出してもよい。なお、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」と、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」とを比較し、短い方の周期を長い方の周期で除した値を「主要部の中央領域の色の変化の周期の類似度」としてもよい。
Various calculation methods are conceivable as the calculation method of “similarity of periodic change in color of the central region of the main part”. As an example, the
例えば、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」が4秒、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」が3秒である場合、周期「3(秒)」を周期「4(秒)」で除した値「0.75」を「主要部の中央領域の色の変化の周期の類似度」とする。当該算出手法の場合、「主要部の中央領域の色の変化の周期の類似度」は0〜1の範囲となり、類似している程、1に近い値となる。 For example, “the color change period of the central region of the main part” according to the rhythm information of the object in the first other captured image is 4 seconds, and “the main part according to the rhythm information of the object in the second other captured image” When the period of the color change in the central area of 3 seconds is 3 seconds, the value “0.75” obtained by dividing the period “3 (seconds) by the period“ 4 (seconds) ”is set as“ the color of the central area of the main part ”. The similarity of the period of the change. In the case of the calculation method, the “similarity of the period of color change in the central region of the main part” is in the range of 0 to 1, and the closer to the value, the closer to 1.
また、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色(比較のため階調数を削減した色、他も同様)」と、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色」とを比較し、現れる数の多い方の色数を何れかによって現れる色の色数で除した値を「主要部の中央領域に現れる色の類似度」としてもよい。
Further, the
例えば、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色」が3色、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色」が5色である場合、色数「5(色)」を色数「8(色)」で除した値「0.625」を「主要部の中央領域に現れる色の類似度」とする。当該算出手法の場合、「主要部の中央領域に現れる色の類似度」は0〜1の範囲となり、類似している程、1に近い値となる。 For example, the “color appearing in the central area of the main part” based on the rhythm information of the object in the first other captured image has three colors, and the “central area of the main part” based on the rhythm information of the object in the second other captured image When the number of colors appearing in “5” is five colors, the value “0.625” obtained by dividing the number of colors “5 (color)” by the number of colors “8 (color)” is “similarity of colors appearing in the central region of the main part” " In the case of this calculation method, the “similarity of the color appearing in the central region of the main part” is in the range of 0 to 1, and becomes closer to 1 as the similarity is increased.
また、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」とに基づいて「主要部の中央領域の色の周期的な変化の類似度」を算出する算出手法としては、種々の算出手法が考えられるが、一例として、算出部20は、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」の平均値を「主要部の中央領域の色の周期的な変化の類似度」としてもよい。
In addition, based on “similarity of period of color change in the central area of the main part” and “similarity of color appearing in the central area of the main part”, As a calculation method for calculating the “similarity”, various calculation methods are conceivable. As an example, the
例えば、「主要部の中央領域の色の変化の周期の類似度」が0.75、「主要部の中央領域に現れる色の類似度」が0.625である場合、平均値「0.6875」を「主要部の中央領域の色の周期的な変化の類似度」とする。当該算出手法の場合、「主要部の中央領域の色の周期的な変化の類似度」は0〜1の範囲となり、類似している程、1に近い値となる。 For example, when “similarity of the color change period in the central region of the main part” is 0.75 and “similarity of the color appearing in the central region of the main part” is 0.625, the average value “0.6875 "Is the similarity of the periodic change in the color of the central region of the main part". In the case of this calculation method, the “similarity of the periodic change in the color of the central region of the main part” is in the range of 0 to 1, and the closer to the value, the closer to 1.
なお、上述の平均値の算出時において、「主要部の中央領域の色の変化の周期の類似度」又は「主要部の中央領域に現れる色の類似度」に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、中央値、最大値、又は、最小値を、「主要部の中央領域の色の周期的な変化の類似度」としてもよい。 At the time of calculating the above average value, the average value is calculated after weighting the “similarity of the color change period in the central area of the main part” or the “similarity of the color appearing in the central area of the main part”. May be. The average value is not limited to an arithmetic average, and a geometric average may be used. Further, instead of the average value, the median value, the maximum value, or the minimum value may be used as the “similarity of the periodic change in the color of the central region of the main part”.
また例えば、上述の特徴5に関係する類似度を用いて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。当該場合、算出部20は、例えば、第1の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部以外の領域の変化しない色と、第2の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部以外の領域の変化しない色との類似度を算出し、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。
Further, for example, using the similarity related to the above-described
「主要部以外の領域の変化しない色の類似度」の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、予め、一の色と他の色との色の類似度を示す類似色情報(0から1の範囲をとり、色同士が類似している程、1に近い値をとる情報)を保持し、当該類似色情報に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色と、第2の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色の類似度を算出し、算出した値を「主要部以外の領域の変化しない色の類似度」としてもよい。但し、第1の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色が周期的に変化する場合、又は、第2の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色が周期的に変化した場合の何れかに該当する場合には、「主要部以外の領域の変化しない色の類似度」を0とする。
Various calculation methods can be considered as a calculation method of “similarity of colors that do not change in regions other than the main part”. As an example, the
また、算出部20が、2以上の特徴に関係する類似度を用いて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する場合には、各特徴に関係する類似度に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。例えば、上述の特徴2及び特徴5に関係する類似度を用いる場合、特徴2に関係する類似度と、特徴5に関係する類似度とを夫々算出し、特徴2に関係する類似度と特徴5に関係する類似度の平均値を、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。
In addition, the
例えば、「特徴2に関係する類似度(例えば、上記の中央領域の色の周期的な変化の類似度)」が0.875、「特徴5に関係する類似度(例えば、上記の主要部以外の領域の変化しない色の類似度)」が0.825である場合、平均値「0.85」を第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。 For example, “similarity related to feature 2 (for example, similarity of periodic change in color of the central region)” is 0.875, “similarity related to feature 5 (for example, other than the main part described above) In the case where the similarity of the color of the non-changing area) is 0.825, the average value “0.85” is set to the rhythm information of the object in the first other captured image and the second other captured image. It is good also as similarity with the rhythm information of the object.
なお、上述の平均値の算出時において、「特徴2に関係する類似度」又は「特徴5に関係する類似度」に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、中央値、最大値、又は、最小値を、「第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度」としてもよい。
When calculating the average value, the average value may be calculated after weighting the “similarity related to
なお、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を、特徴2、特徴5に関係する類似度に基づいて算出する例を説明したが、他の夫々の特徴に応じた夫々の算出手法を適用して、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。
Note that the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image is calculated based on the similarity related to
なお、図9(b)に示す各値(D1〜D7)として、画素グループ毎の平均画素値を用いる例を説明したが、平均画素値に代えて、例えば、最大画素値(画素グループ内の複数の画素の画素値の最大値)、最小画素値(画素グループ内の複数の画素の画素値の最小値)、中央値(画素グループ内の複数の画素の画素値の中央値)を用いてもよい。 In addition, although the example which uses the average pixel value for every pixel group as each value (D1-D7) shown in FIG.9 (b) was demonstrated, it replaced with an average pixel value, for example, the largest pixel value (inside a pixel group) Using the maximum pixel value of a plurality of pixels), minimum pixel value (minimum value of pixel values of a plurality of pixels in a pixel group), and median value (median value of pixel values of a plurality of pixels in a pixel group) Also good.
また、所定数の隣接画素を画素グループとし、リズム情報を構成する各値(図9(b)に示す各値(D1〜D7))を算出する例を説明したが、画素値の差が所定値以下である隣接画素を画素グループとし、リズム情報を構成する各値を算出してもよい。 Further, an example has been described in which a predetermined number of adjacent pixels are used as a pixel group, and each value (each value (D1 to D7) illustrated in FIG. 9B) that calculates rhythm information is calculated. Each value constituting the rhythm information may be calculated by setting adjacent pixels equal to or less than the value as a pixel group.
図10(a)は、図8に示した信号機のオブジェクトO2を構成する画素において、画素値の差が所定数以下である隣接画像を画素グループとして模式的に表したものである。図10(a)において、Ga1〜Ga4は、各撮像タイミング(t1〜t7)の何れにおいても画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Ga1は青ランプの領域r1−1−1、Ga2は黄ランプの領域r1−2−1、Ga3は赤ランプの領域r1−3−1、Ga4はランプ以外の領域を表している(図8参照)。 FIG. 10A schematically shows adjacent images having a pixel value difference equal to or less than a predetermined number as a pixel group in the pixels constituting the traffic light object O 2 shown in FIG. In FIG. 10A, Ga1 to Ga4 are pixel groups that are adjacent images in which the difference in pixel value is equal to or less than a predetermined number at any of the imaging timings (t1 to t7) (see FIG. 9B). Specifically, Ga1 represents a blue lamp region r1-1-1, Ga2 represents a yellow lamp region r1-2-1, Ga3 represents a red lamp region r1-3-1, and Ga4 represents a region other than the lamp. (See FIG. 8).
図10(b)は、オブジェクトO2を図10(a)の如く複数の画素グループに分割した場合における、オブジェクトO2の空間的な変化のパターンを表すリズム情報である。図10(b)に示す各値(D1〜D7)は、リズム情報を構成する値であって、各撮像タイミング(t1、t2、…)における、オブジェクトO2を構成する各画素グループの平均画素値である。但し、上述した様に、平均値に代えて、最大画素値、最小画素値、中央値を用いてもよい。 FIG. 10 (b), in case of dividing the object O 2 into a plurality of pixel groups as in FIG. 10 (a), a rhythm information representing the pattern of the spatial variation of the object O 2. Each value (D1 to D7) shown in FIG. 10B is a value constituting rhythm information, and is an average pixel of each pixel group constituting the object O 2 at each imaging timing (t1, t2,...). Value. However, as described above, the maximum pixel value, the minimum pixel value, and the median value may be used instead of the average value.
図11(a)は、図8に示した信号機のオブジェクトO2を構成する画素において、画素値の差が所定数以下である隣接画像を画素グループとして模式的に表したものである。図11(a)において、Gb1及びGb4は、信号が青のときの撮像タイミング(t1〜t3)において画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Gb1は青色の領域、Gb4は黒色及び灰色の領域を表している(図8参照)。即ち、消灯中の黄ランプ及び赤ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。 FIG. 11A schematically shows adjacent images having a pixel value difference equal to or less than a predetermined number in the pixels constituting the traffic light object O 2 shown in FIG. 8 as a pixel group. In FIG. 11A, Gb1 and Gb4 are pixel groups that are adjacent images whose pixel value difference is equal to or less than a predetermined number at the imaging timing (t1 to t3) when the signal is blue (see FIG. 9B). ). Specifically, Gb1 represents a blue region, and Gb4 represents a black and gray region (see FIG. 8). That is, it is assumed that the difference between the pixel values (values indicating black) in the areas of the yellow lamp and the red lamp being turned off (values indicating black) and the pixel values (values indicating gray) in the areas other than the lamps is equal to or less than a predetermined value.
図11(b)において、Gb2及びGb4は、信号が黄のときの撮像タイミング(t4)において画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Gb2は黄色の領域、Gb4は黒色及び灰色の領域を表している(図8参照)。即ち、消灯中の青ランプ及び赤ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。 In FIG. 11B, Gb2 and Gb4 are pixel groups of adjacent images whose pixel value difference is equal to or smaller than a predetermined number at the imaging timing (t4) when the signal is yellow (see FIG. 9B). Specifically, Gb2 represents a yellow region and Gb4 represents a black and gray region (see FIG. 8). That is, it is assumed that the difference between the pixel values (values indicating black) in the areas of the blue lamp and the red lamp being turned off and the pixel values (values indicating gray) in the areas other than the lamps is equal to or less than a predetermined value.
図11(c)において、Gb3及びGb4は、信号が赤のときの撮像タイミング(t5〜t7)において画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Gb3は赤色の領域、Gb4は黒色及び灰色の領域を表している(図8参照)。即ち、消灯中の青ランプ及び黄ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。 In FIG. 11C, Gb3 and Gb4 are pixel groups of adjacent images whose pixel value difference is equal to or less than a predetermined number at the imaging timing (t5 to t7) when the signal is red (see FIG. 9B). ). Specifically, Gb3 represents a red region, and Gb4 represents a black and gray region (see FIG. 8). That is, the difference between the pixel values (values indicating black) in the areas of the blue lamp and the yellow lamp being turned off and the pixel values (values indicating gray) in the areas other than the lamps is not more than a predetermined value.
図11(d)は、オブジェクトO2を図11(a)〜(c)の如く複数の画素グループに分割した場合における、オブジェクトO2の空間的な変化のパターンを表すリズム情報である。図11(d)に示す各値(S1〜S7)は、リズム情報を構成する値であって、各撮像タイミングにおける各画素グループの分布(領域の形状)である。具体的には、S1は青ランプの領域r1−1−1、S2は黄ランプの領域r1−2−1、S3は赤ランプの領域r1−3−1、S4は青ランプ以外の領域、S5は黄ランプ以外の領域、S6は赤ランプ以外の領域の分布を表している。 FIG. 11 (d) in case of dividing the object O 2 into a plurality of pixel groups as shown in FIG. 11 (a) ~ (c) , a rhythm information representing the pattern of the spatial variation of the object O 2. Each value (S1 to S7) shown in FIG. 11D is a value constituting rhythm information and is a distribution (region shape) of each pixel group at each imaging timing. Specifically, S1 is a blue lamp area r1-1-1, S2 is a yellow lamp area r1-2-1, S3 is a red lamp area r1-3-1, S4 is a non-blue lamp area, S5. Represents a region other than the yellow lamp, and S6 represents a distribution of regions other than the red lamp.
即ち、図9(b)に示すように所定数の隣接画素を画素グループとしリズム情報を表現するのではなく、図10(b)又は図11(d)に示すように画素値の差が所定値以下である隣接画素を画素グループとしリズム情報を表現してもよく、図10(b)又は図11(d)に示すように画素値の差が所定値以下である隣接画素を画素グループとしリズム情報を表現した場合には、図9(b)に示すように所定数の隣接画素を画素グループとしリズム情報を表現した場合と同様に、リズム情報の類似度を算出する。 That is, the rhythm information is not expressed by using a predetermined number of adjacent pixels as a pixel group as shown in FIG. 9B, but the difference in pixel values is predetermined as shown in FIG. 10B or FIG. Rhythm information may be expressed by using adjacent pixels that are less than or equal to a pixel group as a pixel group, and adjacent pixels that have a pixel value difference that is less than or equal to a predetermined value as shown in FIG. When the rhythm information is expressed, the similarity of the rhythm information is calculated as in the case where the rhythm information is expressed with a predetermined number of adjacent pixels as a pixel group as shown in FIG.
以上、図5乃至図11を用いて、リズム情報を、オブジェクトの時間的な変化のパターンとして表現し、類似度を算出する場合(図5乃至図7)と、オブジェクトの空間的な変化のパターンとして表現し、類似度を算出する場合(図8乃至図11)とを個々に説明したが、リズム情報を、時間的な変化のパターン及び空間的な変化のパターンとして表現し、類似度を算出してもよい。即ち、類似度を算出する対象のリズム情報の形式が同一であれば、リズム情報同士の類似度の算出が可能であるため、オブジェクトの時間的な変化のパターンをリズム情報としても、オブジェクトの空間的な変化のパターンをリズム情報としても、両方のパターンをリズム情報としてもよい。 As described above, the rhythm information is expressed as the temporal change pattern of the object and the similarity is calculated using FIGS. 5 to 11 and the spatial change pattern of the object. The case where the similarity is calculated individually (FIGS. 8 to 11) has been described individually, but the rhythm information is expressed as a temporal change pattern and a spatial change pattern, and the similarity is calculated. May be. That is, if the format of the rhythm information for which the similarity is calculated is the same, the similarity between the rhythm information can be calculated. Therefore, even if the temporal change pattern of the object is used as the rhythm information, the space of the object A pattern of a typical change may be used as rhythm information, and both patterns may be used as rhythm information.
図12は、電子機器1の動作の一例を示すフローチャートである。図12に示すフローチャートの開始時において、リズム情報記憶部90には複数の他の電子機器100のリズム情報が記憶され、接続情報記憶部92には当該複数の他の電子機器100の接続情報が記憶されているものとする。
FIG. 12 is a flowchart illustrating an example of the operation of the
図12において、算出部20は、リズム情報記憶部90に記憶されている複数の他の電子機器100のリズム情報の類似度を算出する(ステップS10)。算出部20は、類似度の算出結果をグループ化部30に出力する。
In FIG. 12, the
グループ化部30は、算出部20による類似度の算出結果に基づいて、当該複数の他の電子機器100をグループ化し、グループ化情報を生成する(ステップS12)。グループ化部30は、グループ化情報をグループ化情報記憶部94に記憶する。グループ化部30は、グループ化情報をグループ化情報記憶部94に記憶した旨を表示部40に通知する。
The
表示部40は、グループ化情報及び接続情報を表示する(ステップS14)。具体的には、表示部40は、接続情報記憶部92とグループ化情報記憶部94とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の機器IDと、当該他の電子機器100と通信するための接続情報とを表示する。
The
送信部50は、接続情報記憶部92とグループ化情報記憶部94と動作制御情報記憶部96とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の夫々が、同様に音声出力し、同様に発光し、又は、同様に振動するように、各グループにグループ化された夫々の他の電子機器100に動作制御情報を送信する(ステップS16)。そして、本フローチャートは終了する。なお、送信部50は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を送信してもよい。
The
続いて、図1(b)に示す態様(自電子機器1を含む、複数の電子機器(電子機器1及び電子機器100)をグループ化の対象とする態様)について説明する。
Next, the mode illustrated in FIG. 1B (a mode in which a plurality of electronic devices (the
図1(b)に示す態様の電子機器1の構成が、上述の図1(a)に示す態様の電子機器1の構成と異なる部分は、図2(d)に示すように、撮像部14を有する点のみである。以下、差異部分(撮像部14)を中心に説明する。
As shown in FIG. 2D, the
電子機器1の取得部10は、他の電子機器100によって撮像された撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報、及び、自電子機器1によって撮像された撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する。具体的には、受信部12が、他の電子機器100の夫々から、図3(a)に示すように、当該他の電子機器100の機器ID及び接続情報とともに、当該他の電子機器100のリズム情報を受信し、撮像部14が、自電子機器1が撮像画像を取得し、リズム情報生成部16が、撮像部14によって撮像された動画像からオブジェクトを抽出し、動画像から抽出したオブジェクトのリズム情報を生成する。なお、リズム情報生成部16は、他の電子機器100が備えるリズム情報生成部116と同様に、リズム情報を生成する。
The
リズム情報を取得した取得部10(受信部12、撮像部14、リズム情報生成部16)は、取得したリズム情報をリズム情報記憶部90に記憶する。
The acquisition unit 10 (
算出部20は、取得部10によって取得された複数の電子機器(自電子機器1、他の電子機器100)のリズム情報の類似度を算出する。つまり、算出部20は、リズム情報生成部16によって生成された当該電子機器1によって撮像された撮像画像内のオブジェクトのリズム情報と、受信部12によって受信された他の電子機器100によって撮像された撮像画像内のオブジェクトのリズム情報との類似度を算出する。なお、算出部20は、受信部12によって受信された他の電子機器100間のリズム情報の類似度を算出してもよい。
The
グループ化部30は、算出部20によって算出された当該電子機器1のリズム情報と他の電子機器100のリズム情報との類似度が所定の閾値以上である場合に、当該電子機器1と他の電子機器100を同一グループにグループ化する。また、グループ化部30は、他の電子機器100同士のリズム情報の類似度が所定の閾値以上である場合にも、当該他の電子機器100同士を同一グループにグループ化してもよい。
When the similarity between the rhythm information of the
グループ化部30によって何れかのグループに自電子機器1がグループ化された場合には、当該グループにグループ化された自電子機器1と1以上の他の電子機器100とが、同様に音声出力し、同様に発光し、又は、同様に振動するように処理をする。例えば、送信部50が、動作制御情報記憶部96に記憶されている設定値(自電子機器1の設定値)と同一の値を他の電子機器100に送信してもよいし、設定部(非図示)が、送信部50によって他の電子機器100に送信する値(他の電子機器100に対する設定値)を、自電子機器1の設定値として動作制御情報記憶部96に記憶してもよい。
When the own
図13は、電子機器1によるグループ化の結果を説明するための模式図である。
図13(a)は、図1(a)に示した態様におけるグループ化の結果であって、電子機器1が、5台の他の電子機器100(電子機器A〜E)のうち、3台の電子機器100(電子機器A、C、D)をグループG1とし、2台の電子機器(電子機器B、E)をグループG2とし、更に、G1にグループ化された電子機器(電子機器A、C、D)に同様に音声を出力させ、G2にグループ化された電子機器(電子機器B、E)に同様に音声を出力させている様子を表している。
FIG. 13 is a schematic diagram for explaining the result of grouping by the
FIG. 13A shows the result of grouping in the mode shown in FIG. 1A, and the
つまり、電子機器1によれば、複数の他の電子機器100を簡便にグループ化し、同一グループ内の複数の他の電子機器100に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。従って、例えば、観衆が自身の電子機器100を用いて同一の被写体(例えば、遊園地におけるパレード、コンサートのアーティスト、サーカスの実演者)を撮像するような場面において、同一の被写体を撮像している2以上の他の電子機器100の挙動を同じ様に制御することができる(挙動をシンクロさせることができる)。
That is, according to the
図13(b)は、図1(b)に示した態様におけるグループ化の結果であって、電子機器1が、自電子機器1及び5台の電子機器(電子機器A〜E)のうち、4台の電子機器(自電子機器1、電子機器A、C、D)をグループG3とし、更に、G3にグループ化された電子機器(自電子機器1、電子機器A、C、D)に同様に音声を出力させている様子を表している。
FIG.13 (b) is the result of the grouping in the aspect shown in FIG.1 (b), Comprising: The
つまり、電子機器1によれば、自電子機器1と同一グループとなる複数の他の電子機器100について簡便にグループ化し、グループ内の複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。従って、自電子機器1と同一の被写体を撮像している1以上の電子機器100の挙動を同じ様に制御することができる。
That is, according to the
図13(c)は、図1(b)に示した態様におけるグループ化の結果であって、電子機器1が、自電子機器1及び5台の電子機器(電子機器A〜E)のうち、4台の電子機器(自電子機器1、電子機器A、C、D)をグループG3とし、2台の電子機器(電子機器B、E)をグループG2とし、更に、G3にグループ化された電子機器(自電子機器1、電子機器A、C、D)に同様に音声を出力させ、G2にグループ化された電子機器(電子機器B、E)に同様に音声を出力させている様子を表している。
FIG.13 (c) is the result of the grouping in the aspect shown in FIG.1 (b), Comprising: The
つまり、電子機器1によれば、自電子機器1と同一グループとなる複数の他の電子機器100、及び、自電子機器1と同一グループとならない複数の他の電子機器100について簡便にグループ化し、同一グループ内の複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。従って、同一の被写体を撮像している2以上の他の電子機器100の挙動を同じ様に制御し、かつ、同一の被写体を撮像している2以上の電子機器100の挙動を同じ様に制御することができる。
That is, according to the
以上、電子機器1によれば、複数の電子機器を簡便にグループ化することできる。また、電子機器1によれば、同一グループにグループ化した複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。
As described above, according to the
なお、本発明の一実施形態による電子機器1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、電子機器1の各処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Note that a program for executing each process of the
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
1…電子機器、10…取得部、12…受信部、14…撮像部、16…リズム情報生成部、20…算出部、30…グループ化部、40…表示部、50…送信部、60…動作制御部、90…リズム情報記憶部、92…接続情報記憶部、94…グループ化情報記憶部、96…動作制御情報記憶部、100…電子機器(他の電子機器)、114…撮像部、116…リズム情報生成部、140…表示部、150…送受信部、160…動作制御部、196…動作制御情報記憶部
DESCRIPTION OF
Claims (6)
異なる電子機器によって撮像された夫々の撮像画像から前記取得部によって取得された各オブジェクトの前記リズム情報の類似度を算出する算出部と、
前記算出部によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記夫々の撮像画像を撮像した電子機器をグループ化するグループ化情報を生成するグループ化部と
を備えることを特徴とする電子機器。 An acquisition unit for acquiring rhythm information representing a temporal or spatial change pattern of an object in the captured image;
A calculation unit for calculating the similarity of the rhythm information of each object acquired by the acquisition unit from respective captured images captured by different electronic devices;
A grouping unit that generates grouping information for grouping electronic devices that have captured the respective captured images based on the similarity of the rhythm information of each object calculated by the calculation unit. Electronic equipment.
前記取得部は、
他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部
を有し、
前記算出部は、
前記受信部によって受信された第1の他の電子機器によって撮像された第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された第2の他の電子機器によって撮像された第2の他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、
前記グループ化部は、
前記算出部によって算出された前記第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記第2の他の撮像画像内のオブジェクトの前記リズム情報との類似度が所定の閾値以上である場合に、前記第1の他の電子機器と前記第2の他の電子機器を同一グループにグループ化することを特徴とする電子機器。 The electronic device according to claim 1,
The acquisition unit
A receiver that receives the rhythm information of an object in a captured image captured by another electronic device;
The calculation unit includes:
Imaged by the second other electronic device received by the receiver and the rhythm information of the object in the first other captured image captured by the first other electronic device received by the receiver Calculating the similarity with the rhythm information of the object in the second other captured image,
The grouping unit
The similarity between the rhythm information of the object in the first other captured image calculated by the calculation unit and the rhythm information of the object in the second other captured image is greater than or equal to a predetermined threshold. In this case, the first other electronic device and the second other electronic device are grouped into the same group.
前記取得部は、
撮像部と、
他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部と
を有し、
前記算出部は、
前記撮像部によって撮像された自撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された他の電子機器によって撮像された他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、
前記グループ化部は、
前記算出部によって算出された前記自撮像画像内のオブジェクトの前記リズム情報と、前記他の撮像画像内のオブジェクトの前記リズム情報との類似度が所定の閾値以上である場合に、当該電子機器と前記他の電子機器を同一グループにグループ化することを特徴とする電子機器。 The electronic device according to claim 1,
The acquisition unit
An imaging unit;
A receiving unit that receives the rhythm information of an object in a captured image captured by another electronic device;
The calculation unit includes:
The similarity between the rhythm information of the object in the self-captured image captured by the imaging unit and the rhythm information of the object in another captured image captured by another electronic device received by the reception unit Calculate
The grouping unit
When the degree of similarity between the rhythm information of the object in the self-captured image calculated by the calculation unit and the rhythm information of the object in the other captured image is equal to or greater than a predetermined threshold, An electronic apparatus characterized in that the other electronic apparatuses are grouped into the same group.
前記グループ化部によって同一グループにグループ化された他の電子機器と通信するための接続情報を表示する表示部を更に備えることを特徴とする電子機器。 The electronic device according to any one of claims 1 to 3,
An electronic device further comprising: a display unit that displays connection information for communicating with other electronic devices grouped into the same group by the grouping unit.
前記グループ化部によって同一グループにグループ化された複数の電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器に動作制御情報を送信する送信部を更に備えることを特徴とする電子機器。 The electronic device according to any one of claims 1 to 4,
Transmission for transmitting operation control information to other electronic devices so that a plurality of electronic devices grouped in the same group by the grouping unit similarly outputs sound, emits light in the same manner, or vibrates in the same manner An electronic device, further comprising a unit.
前記電子機器の取得手段が、撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得し、
前記電子機器の算出手段が、異なる電子機器によって撮像された夫々の撮像画像から前記取得手段によって取得された各オブジェクトの前記リズム情報の類似度を算出し、
前記電子機器のグループ化手段が、前記算出手段によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記夫々の撮像画像を撮像した電子機器をグループ化するグループ化情報を生成する
ことを特徴とするグループ化方法。 An electronic device grouping method for grouping electronic devices,
The acquisition unit of the electronic device acquires rhythm information representing a temporal or spatial change pattern of an object in a captured image,
The electronic device calculation means calculates the similarity of the rhythm information of each object acquired by the acquisition means from each captured image captured by different electronic devices,
The electronic device grouping unit generates grouping information for grouping the electronic devices that captured the respective captured images based on the similarity of the rhythm information of each object calculated by the calculation unit. A grouping method characterized by
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011046396A JP2012186535A (en) | 2011-03-03 | 2011-03-03 | Electronic device and grouping method |
EP12753041.8A EP2683152A4 (en) | 2011-03-03 | 2012-03-01 | Electronic device and grouping method |
PCT/JP2012/055188 WO2012118138A1 (en) | 2011-03-03 | 2012-03-01 | Electronic device and grouping method |
US14/016,719 US20140003730A1 (en) | 2011-03-03 | 2013-09-03 | Electronic device and grouping method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011046396A JP2012186535A (en) | 2011-03-03 | 2011-03-03 | Electronic device and grouping method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012186535A true JP2012186535A (en) | 2012-09-27 |
Family
ID=47016239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011046396A Pending JP2012186535A (en) | 2011-03-03 | 2011-03-03 | Electronic device and grouping method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012186535A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012247888A (en) * | 2011-05-26 | 2012-12-13 | Sony Corp | Information processing apparatus, information processing method, program, and information processing system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005277603A (en) * | 2004-03-23 | 2005-10-06 | Fuji Photo Film Co Ltd | System, apparatus, method, and program for imaging |
JP2006101186A (en) * | 2004-09-29 | 2006-04-13 | Nikon Corp | Camera |
JP2007114885A (en) * | 2005-10-18 | 2007-05-10 | National Institute Of Information & Communication Technology | Classification method and device by similarity of image |
JP2008236646A (en) * | 2007-03-23 | 2008-10-02 | Canon Inc | Network photographing system, management method, and computer program |
JP2009094574A (en) * | 2007-10-03 | 2009-04-30 | Sony Corp | Imaging apparatus, exchange method of image data, and program |
-
2011
- 2011-03-03 JP JP2011046396A patent/JP2012186535A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005277603A (en) * | 2004-03-23 | 2005-10-06 | Fuji Photo Film Co Ltd | System, apparatus, method, and program for imaging |
JP2006101186A (en) * | 2004-09-29 | 2006-04-13 | Nikon Corp | Camera |
JP2007114885A (en) * | 2005-10-18 | 2007-05-10 | National Institute Of Information & Communication Technology | Classification method and device by similarity of image |
JP2008236646A (en) * | 2007-03-23 | 2008-10-02 | Canon Inc | Network photographing system, management method, and computer program |
JP2009094574A (en) * | 2007-10-03 | 2009-04-30 | Sony Corp | Imaging apparatus, exchange method of image data, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012247888A (en) * | 2011-05-26 | 2012-12-13 | Sony Corp | Information processing apparatus, information processing method, program, and information processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107079565B (en) | Lighting device | |
CN105637529B (en) | Image capture input and projection output | |
JP6081440B2 (en) | Method and apparatus for prompting based on smart glasses | |
US20160342202A1 (en) | Virtual reality apparatus, feedback apparatus, and system and method for providing realistic service | |
EP3567866A1 (en) | Video distribution system, video distribution method, and storage medium storing video distribution program for distributing video containing animation of character object generated based on motion of actor | |
JP6056853B2 (en) | Electronics | |
CN104492082A (en) | Method and device for dynamic display of player images | |
US9301268B2 (en) | Device synchronization | |
JP2024045292A (en) | Pulse signal-based display method and apparatus, electronic device, and medium | |
JP2012186535A (en) | Electronic device and grouping method | |
JP2012242793A (en) | Display system and electronic apparatus | |
WO2012118138A1 (en) | Electronic device and grouping method | |
US10924721B2 (en) | Volumetric video color assignment | |
TW202329638A (en) | Analog signal line interference mitigation | |
CN113014960A (en) | Method, device and storage medium for online video production | |
US20220011861A1 (en) | Inputs to virtual reality devices from touch surface devices | |
JP2012186536A (en) | Electronic device and grouping method | |
JP2021057799A (en) | Information processing system, information processing method, and information processing program | |
CN109729399B (en) | Video playing system, wearable device and control method of physical linkage assembly | |
US20150205980A1 (en) | Information acquisition apparatus, information acquisition method, and non-transitory recording medium | |
JP2021057798A (en) | Information processing system, information processing method, and information processing program | |
TWI543595B (en) | Signal plug-in module, photo sensing module, and interactive device and system using the same | |
US20150241550A1 (en) | Method of controlling a plurality of mobile transceivers scattered throughout a transceiver field, and system | |
CN109471541A (en) | Air mouse method for tracing, system and storage medium based on virtual screen | |
CN217011047U (en) | Sound-picture synchronous checking reference equipment and detection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141021 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150310 |