JP2012186536A - Electronic device and grouping method - Google Patents

Electronic device and grouping method Download PDF

Info

Publication number
JP2012186536A
JP2012186536A JP2011046397A JP2011046397A JP2012186536A JP 2012186536 A JP2012186536 A JP 2012186536A JP 2011046397 A JP2011046397 A JP 2011046397A JP 2011046397 A JP2011046397 A JP 2011046397A JP 2012186536 A JP2012186536 A JP 2012186536A
Authority
JP
Japan
Prior art keywords
unit
electronic device
rhythm information
information
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011046397A
Other languages
Japanese (ja)
Inventor
Mikiya Tanaka
幹也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011046397A priority Critical patent/JP2012186536A/en
Publication of JP2012186536A publication Critical patent/JP2012186536A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily group objects.SOLUTION: An electronic device 1 comprises: an acquisition unit 10 for acquiring rhythm information representing a temporal or spatial change pattern of an object in a captured image; a calculation unit 20 for calculating the degree of similarity between pieces of rhythm information of respective objects acquired by the acquisition unit 10; and a grouping unit 30 for generating grouping information for grouping the respective objects on the basis of the degree of similarity between the pieces of rhythm information of the respective objects calculated by the calculation unit 20.

Description

本発明は、電子機器及びグループ化方法に関するものである。   The present invention relates to an electronic device and a grouping method.

従来、入力画像間の類似性を評価することによって入力画像をグループ化する撮像装置が開示されている(例えば、特許文献1参照)。   Conventionally, an imaging apparatus that groups input images by evaluating the similarity between the input images has been disclosed (see, for example, Patent Document 1).

特開2011−010275号公報JP 2011-010275 A

しかしながら、特許文献1に開示された撮像装置は、撮像画像内のオブジェクトをグループ化できないという問題がある。従って、例えば、オブジェクトをグループ化した場合に実現され得る種々の応用処理(例えば、人物のオブジェクトをグループ化の対象とし、同一グループにグループ化された人物が使用する電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように設定)を実現することができないという問題がある。
本発明は、上記問題に鑑みてなされたものであり、オブジェクト(例えば、ユーザ)を簡便にグループ化する技術を提供する。
However, the imaging device disclosed in Patent Document 1 has a problem that the objects in the captured image cannot be grouped. Therefore, for example, various application processes that can be realized when objects are grouped (for example, electronic devices used by persons grouped in the same group with human objects as grouping targets are also sound output in the same way. However, there is a problem that it is not possible to realize light emission or setting to vibrate similarly.
The present invention has been made in view of the above problems, and provides a technique for easily grouping objects (for example, users).

上記問題を解決するために、本発明の一態様である電子機器は、撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する取得部と、前記取得部によって取得された各オブジェクトの前記リズム情報の類似度を算出する算出部と、 前記算出部によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記各オブジェクトをグループ化するグループ化情報を生成するグループ化部とを備えることを特徴とする。   In order to solve the above-described problem, an electronic device according to one embodiment of the present invention acquires a rhythm information representing a temporal or spatial change pattern of an object in a captured image, and the acquisition unit acquires the rhythm information. A calculation unit that calculates the similarity of the rhythm information of each object, and generates grouping information for grouping the objects based on the similarity of the rhythm information of each object calculated by the calculation unit And a grouping unit.

上記電子機器において、前記取得部は、撮像部と、前記撮像部によって撮像された撮像画像内のオブジェクトの前記リズム情報を抽出する抽出部とを有し、前記算出部は、前記抽出部によって抽出された第1の他の人物の前記リズム情報と第2の他の人物の前記リズム情報との類似度を算出し、前記グループ化部は、前記算出部によって算出された前記第1の他の人物の前記リズム情報と前記第2の他の人物の前記リズム情報との類似度が所定の閾値以上である場合に、前記第1の他の人物と前記第2の他の人物を同一グループにグループ化するようにしてもよい。   In the electronic apparatus, the acquisition unit includes an imaging unit and an extraction unit that extracts the rhythm information of an object in a captured image captured by the imaging unit, and the calculation unit is extracted by the extraction unit. And calculating the similarity between the rhythm information of the first other person and the rhythm information of the second other person, and the grouping unit calculates the first other person calculated by the calculation unit. When the similarity between the rhythm information of a person and the rhythm information of the second other person is greater than or equal to a predetermined threshold, the first other person and the second other person are grouped together. You may make it group.

上記電子機器において、前記取得部は、当該電子機器の筐体の動きを検出する検出部と、撮像部と、前記撮像部によって撮像された撮像画像内のオブジェクトの前記リズム情報を抽出する抽出部とを有し、前記算出部は、前記検出部によって検出された当該電子機器の筐体の動きを示す動き情報を当該電子機器のユーザの前記リズム情報とし、当該電子機器のユーザの前記リズム情報と前記抽出部によって抽出された他の人物の前記リズム情報との類似度を算出し、前記グループ化部は、前記算出部によって算出された当該電子機器のユーザの前記リズム情報と前記他の人物の前記リズム情報との類似度が所定の閾値以上である場合に、当該電子機器のユーザと前記他の人物を同一グループにグループ化するようにしてもよい。   In the electronic device, the acquisition unit includes a detection unit that detects a movement of a casing of the electronic device, an imaging unit, and an extraction unit that extracts the rhythm information of an object in a captured image captured by the imaging unit. And the calculation unit uses the movement information indicating the movement of the casing of the electronic device detected by the detection unit as the rhythm information of the user of the electronic device, and the rhythm information of the user of the electronic device. And the rhythm information of the other person extracted by the extraction unit is calculated, and the grouping unit calculates the rhythm information of the user of the electronic device calculated by the calculation unit and the other person. When the similarity to the rhythm information is equal to or greater than a predetermined threshold, the user of the electronic device and the other person may be grouped into the same group.

上記電子機器は、前記グループ化部によって同一グループにグループ化された他の人物と通信するための接続情報を表示する表示部を更に備えるようにしてもよい。   The electronic apparatus may further include a display unit that displays connection information for communicating with other persons grouped in the same group by the grouping unit.

上記電子機器は、前記グループ化部によって同一グループにグループ化された人物の携帯する電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器に動作制御情報を送信する送信部を更に備えるようにしてもよい。   The electronic device is connected to another electronic device so that the electronic devices carried by the persons grouped in the same group by the grouping unit similarly output sound, emit light similarly, or vibrate similarly. You may make it further provide the transmission part which transmits operation | movement control information.

上記問題を解決するために、本発明の他の態様であるグループ化方法は、撮像画像内のオブジェクトをグループ化する電子機器におけるグループ化方法であって、前記電子機器の取得手段が、撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得し、前記電子機器の算出手段が、前記取得手段によって取得された各オブジェクトの前記リズム情報の類似度を算出し、前記電子機器のグループ化手段が、前記算出手段によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記各オブジェクトをグループ化するグループ化情報を生成することを特徴とする。   In order to solve the above problem, a grouping method according to another aspect of the present invention is a grouping method in an electronic device that groups objects in a captured image, and the acquisition unit of the electronic device includes a captured image. Acquiring rhythm information representing a temporal or spatial change pattern of an object in the electronic device, the calculation means of the electronic device calculates the similarity of the rhythm information of each object acquired by the acquisition means, The grouping means of the electronic device generates grouping information for grouping the objects based on the similarity of the rhythm information of the objects calculated by the calculation means.

本発明によれば、オブジェクトを簡便にグループ化することができる。   According to the present invention, objects can be easily grouped.

本発明の一実施形態による電子機器1の処理の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline | summary of the process of the electronic device 1 by one Embodiment of this invention. 電子機器1の一例を示す構成図である。1 is a configuration diagram illustrating an example of an electronic device 1. 電子機器1が取得又は記憶する情報の一例である。It is an example of the information which the electronic device 1 acquires or memorize | stores. 他の電子機器100の一例を示す構成図である。FIG. 11 is a configuration diagram illustrating an example of another electronic device 100. オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の抽出、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the temporal change of an object, extraction of the said rhythm information, and calculation of the similarity in the said rhythm information. オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の抽出、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the temporal change of an object, extraction of the said rhythm information, and calculation of the similarity in the said rhythm information. オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の抽出、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the temporal change of an object, extraction of the said rhythm information, and calculation of the similarity in the said rhythm information. オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の抽出、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the spatial change of an object, extraction of the said rhythm information, and calculation of the similarity in the said rhythm information. オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の抽出、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the spatial change of an object, extraction of the said rhythm information, and calculation of the similarity in the said rhythm information. オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の抽出、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the spatial change of an object, extraction of the said rhythm information, and calculation of the similarity in the said rhythm information. オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の抽出、当該リズム情報における類似度の算出について説明するための説明図である。It is explanatory drawing for demonstrating the rhythm information showing the pattern of the spatial change of an object, extraction of the said rhythm information, and calculation of the similarity in the said rhythm information. 電子機器1の動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation of the electronic device 1. 電子機器1によるグループ化の結果を説明するための模式図である。It is a schematic diagram for demonstrating the result of grouping by the electronic device.

以下、図面を参照しながら本発明の一実施形態について説明する。図1は、本発明の一実施形態による電子機器1の処理の概要を説明するための模式図である。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram for explaining an outline of processing of the electronic apparatus 1 according to an embodiment of the present invention.

電子機器1(例えば、携帯型電子機器)は、電子機器(例えば、携帯型電子機器)を使用するユーザをグループ化する。
例えば、電子機器1は、図1(a)に示すように、自電子機器1の周辺に存在する複数の他の電子機器100のユーザをグループ化する(なお、図1においてユーザは非図示、図13も同様)。
即ち、電子機器1は、破線に図示する様に、自電子機器1のユーザを除く、複数の電子機器100のユーザをグループ化の対象とする。
また例えば、電子機器1は、図1(b)に示すように、自電子機器1のユーザ、及び、自電子機器1の周辺に存在する複数の他の電子機器100のユーザをグループ化する。即ち、電子機器1は、破線に図示する様に、自電子機器1のユーザを含む、複数の電子機器(電子機器1及び電子機器100)のユーザをグループ化の対象とする。
The electronic device 1 (for example, portable electronic device) groups users who use the electronic device (for example, portable electronic device).
For example, as shown in FIG. 1A, the electronic device 1 groups users of a plurality of other electronic devices 100 existing around the electronic device 1 (note that the user is not shown in FIG. The same applies to FIG. 13).
In other words, the electronic device 1 targets users of a plurality of electronic devices 100 except for the user of the electronic device 1 as a grouping target, as illustrated by a broken line.
Further, for example, as shown in FIG. 1B, the electronic device 1 groups the user of the electronic device 1 and the users of a plurality of other electronic devices 100 existing around the electronic device 1. In other words, the electronic device 1 targets users of a plurality of electronic devices (the electronic device 1 and the electronic device 100) including the user of the own electronic device 1 as shown in the broken line.

なお、電子機器1及び複数の他の電子機器100の夫々は、例えば、所定の距離内に接近したときに、通信によって、互いの接続情報(後述)を自動的に交換するものとする。   Note that each of the electronic device 1 and the plurality of other electronic devices 100 automatically exchange mutual connection information (described later) by communication when approaching within a predetermined distance, for example.

以下、図1(a)に示す態様(自電子機器1のユーザを除く、複数の電子機器100のユーザをグループ化の対象とする態様)について説明する。なお、図1(b)に示す態様(自電子機器1のユーザを含む、複数の電子機器(電子機器1及び電子機器100)のユーザをグループ化の対象とする態様)については後述する。   In the following, the mode shown in FIG. 1A (a mode in which users of a plurality of electronic devices 100 excluding the user of the electronic device 1 are grouped) will be described. The mode shown in FIG. 1B (a mode in which users of a plurality of electronic devices (electronic device 1 and electronic device 100) including the user of own electronic device 1 are grouped) will be described later.

図2は、電子機器1の一例を示す構成図である。図3は、電子機器1が取得又は記憶する情報の一例である。電子機器1は、図2(a)に示すように、取得部10、算出部20、グループ化部30、表示部40、送信部50、動作制御部60、リズム情報記憶部90、接続情報記憶部92、グループ化情報記憶部94、及び、動作制御情報記憶部96を備える。   FIG. 2 is a configuration diagram illustrating an example of the electronic apparatus 1. FIG. 3 is an example of information acquired or stored by the electronic device 1. As shown in FIG. 2A, the electronic device 1 includes an acquisition unit 10, a calculation unit 20, a grouping unit 30, a display unit 40, a transmission unit 50, an operation control unit 60, a rhythm information storage unit 90, and a connection information storage. Unit 92, grouping information storage unit 94, and operation control information storage unit 96.

取得部10は、図2(b)に示すように、撮像部14及び抽出部16を有する。なお、取得部10は、図2(c)に示すように、撮像部14及び抽出部16に加え検出部12を有してもよい。但し、図1(a)に示す態様の場合、撮像部14及び検出部12は必須でないため、検出部12を有しないものとして説明する。   The acquisition unit 10 includes an imaging unit 14 and an extraction unit 16 as illustrated in FIG. The acquisition unit 10 may include a detection unit 12 in addition to the imaging unit 14 and the extraction unit 16 as illustrated in FIG. However, in the case of the mode shown in FIG. 1A, the imaging unit 14 and the detection unit 12 are not essential, and will be described as not having the detection unit 12.

取得部10は、撮像画像内のオブジェクトのリズム情報を取得する。具体的には、取得部10の抽出部16が、取得部10の撮像部14によって撮像された撮像画像内のオブジェクトのリズム情報を抽出(生成)する。なお、リズム情報を抽出する元となるオブジェクトは特に限定するものではないが、原則(図8乃至図11における説明を除き)、人物に係るオブジェクトのリズム情報を抽出するものとする。また、当該人物は、他の電子機器100を携帯しているものとする。なお、リズム情報、及び、リズム情報の抽出については、図5乃至図11を用いて詳細に説明する。  The acquisition unit 10 acquires rhythm information of an object in the captured image. Specifically, the extraction unit 16 of the acquisition unit 10 extracts (generates) rhythm information of the object in the captured image captured by the imaging unit 14 of the acquisition unit 10. The object from which the rhythm information is extracted is not particularly limited, but in principle (except for the explanation in FIGS. 8 to 11), the rhythm information of the object related to the person is extracted. In addition, it is assumed that the person carries another electronic device 100. The rhythm information and the extraction of the rhythm information will be described in detail with reference to FIGS.

また、取得部10は、非図示の受信部を有し、撮像画像内のオブジェクトである人物が携帯している他の電子機器100の機器ID及び接続情報を取得(受信)する。機器IDは、電子機器100の夫々を識別するための識別情報である。接続情報は、電子機器100の夫々と通信するための情報であって、例えば、プロトコルに係る情報、アドレス情報などである。例えば、撮像画像中のオブジェクトである人物の位置(及び大きさ)から、当該人物の存在する方向(及び距離)を算出し、当該人物が携帯している他の電子機器100から機器ID及び接続情報を取得する。   The acquisition unit 10 includes a reception unit (not illustrated), and acquires (receives) the device ID and connection information of another electronic device 100 carried by a person who is an object in the captured image. The device ID is identification information for identifying each electronic device 100. The connection information is information for communicating with each of the electronic devices 100, and is, for example, information related to a protocol, address information, or the like. For example, the direction (and distance) in which the person is present is calculated from the position (and size) of the person who is the object in the captured image, and the device ID and connection from the other electronic device 100 carried by the person Get information.

オブジェクト(人物)のリズム情報を取得した取得部10は、当該リズム情報をリズム情報記憶部90に記憶する。具体的には、取得部10は、図3(a)に示すように、オブジェクト(人物)のリズム情報を、当該オブジェクトである人物が携帯している他の電子機器10の機器IDに対応付けて記憶する。   The acquisition unit 10 that acquired the rhythm information of the object (person) stores the rhythm information in the rhythm information storage unit 90. Specifically, as illustrated in FIG. 3A, the acquisition unit 10 associates the rhythm information of the object (person) with the device ID of another electronic device 10 carried by the person who is the object. Remember.

また、リズム情報を取得した取得部10は、図3(b)に示すように、機器IDに対応付けて接続情報を接続情報記憶部92に記憶する。なお、取得部10は、オブジェクト(人物)のリズム情報を取得する前に、既に、当該人物が携帯している他の電子機器100の機器ID及び接続情報を取得(交換)していた場合には、当該取得(交換)時に、機器IDに対応付けて接続情報を記憶してもよい。   Moreover, the acquisition part 10 which acquired rhythm information memorize | stores connection information in the connection information storage part 92 in association with apparatus ID, as shown in FIG.3 (b). Note that the acquisition unit 10 has already acquired (exchanged) the device ID and connection information of another electronic device 100 carried by the person before acquiring the rhythm information of the object (person). May store the connection information in association with the device ID at the time of acquisition (exchange).

算出部20は、リズム情報記憶部90に記憶されている複数のリズム情報の類似度を算出する。即ち、算出部20は、取得部10(抽出部16)によって抽出された第1のオブジェクト(第1の他の人物)のリズム情報と、第2のオブジェクト(第2の他の人物)のリズム情報との類似度を算出する。なお、類似度の算出については、図5乃至図11を用いて詳細に説明する。   The calculation unit 20 calculates the similarity of a plurality of rhythm information stored in the rhythm information storage unit 90. That is, the calculation unit 20 includes the rhythm information of the first object (first other person) extracted by the acquisition unit 10 (extraction unit 16) and the rhythm of the second object (second other person). The similarity with the information is calculated. The calculation of the similarity will be described in detail with reference to FIGS.

なお、算出部20が類似度の算出を開始するタイミングは特に限定しないが、例えば、算出部20は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、類似度を算出してもよい。   The timing at which the calculation unit 20 starts calculating the similarity is not particularly limited. For example, the calculation unit 20 calculates the similarity when an operation reception unit (not shown) receives a predetermined user operation. May be.

上述の如く、類似度を算出した算出部20は、類似度の算出結果をグループ化部30に出力する。   As described above, the calculation unit 20 that has calculated the similarity outputs the calculation result of the similarity to the grouping unit 30.

グループ化部30は、算出部20によって算出されたリズム情報(即ち、撮像画像内に撮像されている人物に係るオブジェクトのリズム情報)の類似度に基づいて、オブジェクトである人物をグループ化する。換言すれば、グループ化部30は、算出部20によって算出された類似度の算出結果に基づいて、他の電子機器100のユーザをグループ化し、グループ化の結果であるグループ化情報(後述)を生成する。より詳細には、グループ化部30は、算出部20によって算出された第1の他の撮像装置100のユーザ(第1の他の人物)のリズム情報と、第2の他の撮像装置100のユーザ(第2の他の人物)のリズム情報が所定の閾値以上である場合に、第1の他の人物と第2の他の人物を同一グループにグループ化する。   The grouping unit 30 groups the persons who are objects based on the similarity of the rhythm information calculated by the calculation unit 20 (that is, the rhythm information of the object related to the person imaged in the captured image). In other words, the grouping unit 30 groups users of other electronic devices 100 based on the calculation result of the similarity calculated by the calculation unit 20, and sets grouping information (described later) as a grouping result. Generate. More specifically, the grouping unit 30 calculates the rhythm information of the user (first other person) of the first other imaging device 100 calculated by the calculating unit 20 and the second other imaging device 100. When the rhythm information of the user (second other person) is equal to or greater than a predetermined threshold, the first other person and the second other person are grouped into the same group.

例えば、グループ化部30は、電子機器Aのユーザのリズム情報と電子機器Bのユーザのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Aのユーザのリズム情報と電子機器Cのユーザのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bのユーザのリズム情報と電子機器Cのユーザのリズム情報との類似度が所定の閾値以上である場合に、電子機器A、B、Cのユーザを同一グループにグループ化する。つまり、グループ化部30は、電子機器Aのユーザのリズム情報と電子機器Bのユーザのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bのユーザのリズム情報と電子機器Cのユーザのリズム情報との類似度が所定の閾値以上であっても、電子機器Aのユーザのリズム情報と電子機器Cのユーザのリズム情報との類似度が所定の閾値以上でない場合には、電子機器A、B、Cのユーザを同一グループにグループ化しない。   For example, the grouping unit 30 has a similarity between the rhythm information of the user of the electronic device A and the rhythm information of the user of the electronic device B that is equal to or greater than a predetermined threshold, and the rhythm information of the user of the electronic device A and the electronic Similarity between the rhythm information of the user of the device C and the rhythm information of the user of the electronic device B is equal to or greater than the predetermined threshold value. In this case, the users of the electronic devices A, B, and C are grouped into the same group. That is, the grouping unit 30 has a similarity between the rhythm information of the user of the electronic device A and the rhythm information of the user of the electronic device B that is equal to or greater than a predetermined threshold, and the rhythm information of the user of the electronic device B and the electronic Even if the similarity between the rhythm information of the user of the device C and the rhythm information of the user of the electronic device A is equal to or greater than a predetermined threshold, the similarity between the rhythm information of the user of the electronic device A and the rhythm information of the user of the electronic device C is not greater than or equal to the predetermined threshold. Does not group users of electronic devices A, B, and C into the same group.

なお、グループ化部30は、電子機器Aのユーザのリズム情報と電子機器Bのユーザのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bのユーザのリズム情報と電子機器Cのユーザのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Aのユーザのリズム情報と電子機器Cのユーザのリズム情報との類似度が所定の閾値以上でない場合には、電子機器Aのユーザのリズム情報と電子機器Bのユーザのリズム情報との類似度と、電子機器Bのユーザのリズム情報と電子機器Cのユーザのリズム情報との類似度とを比較し、電子機器Aか電子機器Cの何れの一方と、電子機器Bとを同一グループにグループ化してもよい。   The grouping unit 30 has a similarity between the rhythm information of the user of the electronic device A and the rhythm information of the user of the electronic device B that is equal to or greater than a predetermined threshold, and the rhythm information of the user of the electronic device B and the electronic When the similarity between the rhythm information of the user of the device C is equal to or greater than a predetermined threshold value, and the similarity between the rhythm information of the user of the electronic device A and the rhythm information of the user of the electronic device C is not equal to or greater than the predetermined threshold value The comparison between the rhythm information of the user of the electronic device A and the rhythm information of the user of the electronic device B and the similarity of the rhythm information of the user of the electronic device B and the rhythm information of the user of the electronic device C are compared. However, either the electronic device A or the electronic device C and the electronic device B may be grouped into the same group.

即ち、グループ化部30は、電子機器Aのユーザのリズム情報と電子機器Bのユーザのリズム情報との類似度が、電子機器Bのユーザのリズム情報と電子機器Cのユーザのリズム情報との類似度よりも高い場合には、電子機器A、Bのユーザを同一グループにグループ化し、電子機器Bのユーザのリズム情報と電子機器Cのユーザのリズム情報との類似度が、電子機器Aのユーザのリズム情報と電子機器Bのユーザのリズム情報との類似度よりも高い場合には、電子機器B、Cのユーザを同一グループにグループ化してもよい。   That is, the grouping unit 30 determines that the similarity between the rhythm information of the user of the electronic device A and the rhythm information of the user of the electronic device B is the difference between the rhythm information of the user of the electronic device B and the rhythm information of the user of the electronic device C. When the degree of similarity is higher, the users of the electronic devices A and B are grouped into the same group, and the degree of similarity between the rhythm information of the user of the electronic device B and the rhythm information of the user of the electronic device C is When the degree of similarity between the rhythm information of the user and the rhythm information of the user of the electronic device B is higher, the users of the electronic devices B and C may be grouped into the same group.

なお、グループ化部30がグループ化を開始するタイミングは特に限定しないが、例えば、グループ化部30は、算出部20から類似度の算出結果を取得したときに、グループ化をしてもよい。   Although the timing at which the grouping unit 30 starts grouping is not particularly limited, for example, the grouping unit 30 may perform grouping when obtaining the similarity calculation result from the calculation unit 20.

上述の如く、複数の他の電子機器100のユーザをグループ化したグループ化部30は、グループ化情報をグループ化情報記憶部94に記憶する。例えば、グループ化部30は、図3(c)に示すように、グループ化情報として、グループIDと所属機器情報とを対応付けてグループ化情報記憶部94に記憶する。グループIDは、グループの夫々を識別するための識別情報である。所属機器情報は、当該グループに所属するユーザの電子機器100(即ち、当該グループにグループ化されたユーザが携帯している電子機器100)を識別する機器IDを含む情報である。   As described above, the grouping unit 30 that groups users of a plurality of other electronic devices 100 stores the grouping information in the grouping information storage unit 94. For example, as illustrated in FIG. 3C, the grouping unit 30 stores the group ID and the belonging device information in association with each other as grouping information in the grouping information storage unit 94. The group ID is identification information for identifying each group. The belonging device information is information including a device ID that identifies the electronic devices 100 of the users belonging to the group (that is, the electronic devices 100 carried by the users grouped in the group).

なお、図3(c)に示す例は、グループIDと所属機器情報とを対応付けて記憶する態様であるが、機器IDを取得する際に機器IDに代えて又は加えてユーザIDを取得しておくことにより、グループIDとユーザIDとを対応付けて記憶してもよい。   The example shown in FIG. 3C is a mode in which the group ID and the belonging device information are stored in association with each other, but when acquiring the device ID, a user ID is acquired instead of or in addition to the device ID. Thus, the group ID and the user ID may be stored in association with each other.

表示部40は、種々の情報を表示する。例えば、表示部40は、グループ化部30によって同一グループにグループ化されたユーザが携帯している他の電子機器100と通信するための接続情報を表示する。具体的には、表示部40は、接続情報記憶部92とグループ化情報記憶部94とを参照し、グループ別に、当該グループにグループ化されたユーザが携帯している他の電子機器100の機器IDと、当該他の電子機器100と通信するための接続情報とを表示する。なお、表示部40は、接続情報を表示せずに、グループ別に、機器IDのみを表示してもよい。   The display unit 40 displays various information. For example, the display unit 40 displays connection information for communicating with another electronic device 100 carried by a user grouped in the same group by the grouping unit 30. Specifically, the display unit 40 refers to the connection information storage unit 92 and the grouping information storage unit 94, and the devices of the other electronic devices 100 carried by the users grouped into the group by group. The ID and connection information for communicating with the other electronic device 100 are displayed. The display unit 40 may display only the device ID for each group without displaying the connection information.

なお、表示部40が上述の表示を開始するタイミングは特に限定しないが、例えば、表示部40は、グループ化情報がグループ化情報記憶部94に記憶されたときに表示してもよい。また、表示部40は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに表示してもよい。   The timing at which the display unit 40 starts the above-described display is not particularly limited. For example, the display unit 40 may display when the grouping information is stored in the grouping information storage unit 94. The display unit 40 may display when an operation receiving unit (not shown) receives a predetermined user operation.

また、表示部40は、動作制御情報記憶部96に記憶されている動作制御情報を表示する。図3(d)は、動作制御情報記憶部96に記憶されている動作制御情報の一例である。   Further, the display unit 40 displays the operation control information stored in the operation control information storage unit 96. FIG. 3D is an example of operation control information stored in the operation control information storage unit 96.

動作制御情報は、電子機器1、100の動作を制御するための制御情報であって、例えば、図3(d)に示すように、音声出力を制御するための音声出力制御情報、発光を制御する発光制御情報、振動を制御するための振動制御情報の何れか1以上の制御情報を含む。また、各制御情報(音声出力制御情報、発光制御情報、振動制御情報)は夫々、複数の設定可能値(若しくは、設定可能範囲)を有する。なお、図3(d)に示す動作制御情報は、一例であって、電子機器1、100の他の動作を制御するため他の制御情報を含むものであってもよい。   The operation control information is control information for controlling the operations of the electronic devices 1 and 100. For example, as shown in FIG. 3D, the audio output control information for controlling the audio output and the light emission are controlled. One or more control information of the light emission control information to perform and the vibration control information for controlling a vibration are included. Each control information (audio output control information, light emission control information, vibration control information) has a plurality of settable values (or settable ranges). The operation control information shown in FIG. 3D is an example, and may include other control information for controlling other operations of the electronic devices 1 and 100.

なお、表示部40が動作制御情報の表示を開始するタイミングは特に限定しないが、例えば、表示部40は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を表示してもよい。例えば、送信部50が動作制御情報を送信する前に、表示部40は、送信する値(設定値)を確認するためのボタン(操作受付部に相当)を表示し、当該ボタンの押下により、送信前に、送信する値を表示してもよい。   The timing at which the display unit 40 starts displaying the operation control information is not particularly limited. For example, the display unit 40 displays the operation control information when an operation receiving unit (not shown) receives a predetermined user operation. It may be displayed. For example, before the transmission unit 50 transmits the operation control information, the display unit 40 displays a button (corresponding to the operation reception unit) for confirming a value (setting value) to be transmitted, and by pressing the button, You may display the value to transmit before transmission.

送信部50は、種々の情報を送信する。例えば、送信部50は、グループ化情報を他の電子機器100に送信する。具体的には、送信部50は、グループ化情報記憶部94を参照し、グループ別に、当該グループにグループ化されたユーザが携帯している他の電子機器100の夫々に対し、当該グループに属するユーザが携帯している他の電子機器100の機器IDを送信する。   The transmission unit 50 transmits various information. For example, the transmission unit 50 transmits the grouping information to the other electronic device 100. Specifically, the transmission unit 50 refers to the grouping information storage unit 94 and belongs to the group for each of the other electronic devices 100 carried by the users grouped in the group by group. The device ID of the other electronic device 100 carried by the user is transmitted.

また、送信部50は、グループ化部30によって同一グループにグループ化されたユーザが携帯している複数の電子機器100が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器100に動作制御情報を送信する。具体的には、送信部50は、接続情報記憶部92とグループ化情報記憶部94と動作制御情報記憶部96とを参照し、グループ別に、当該グループにグループ化されたユーザが携帯している他の電子機器100の夫々が、同様に音声出力し、同様に発光し、又は、同様に振動するように、各グループにグループ化された夫々の他の電子機器100に動作制御情報を送信する。   Further, the transmission unit 50 causes the plurality of electronic devices 100 carried by the users grouped in the same group by the grouping unit 30 to output sound in the same manner, emit light in the same manner, or vibrate in the same manner. In addition, the operation control information is transmitted to the other electronic device 100. Specifically, the transmission unit 50 refers to the connection information storage unit 92, the grouping information storage unit 94, and the operation control information storage unit 96, and is carried by users grouped into the group for each group. The operation control information is transmitted to each of the other electronic devices 100 grouped in each group so that each of the other electronic devices 100 outputs sound in the same manner, similarly emits light, or vibrates in the same manner. .

例えば、送信部50は、グループGにグループ化されたユーザが携帯している複数の電子機器100の夫々に対し、同一の設定値(例えば、設定値a)の音声出力制御情報を送信し、グループGにグループ化されたユーザが携帯している複数の電子機器100の夫々に対し、同一の設定値(例えば、設定値b)の音声出力制御情報を送信する。これにより、グループGにグループ化されたユーザが携帯している電子機器100の夫々は、設定値aによる制御に従って音声を出力し、グループGにグループ化されたユーザが携帯している電子機器100の夫々は、設定値bによる制御に従って音声を出力するようになる。発光制御情報、又は、振動制御情報を送信する場合も同様である。 For example, the transmission unit 50 is grouped users to each of the plurality of electronic devices 100 that are portable to the group G 1, the same set value (e.g., set value a) transmits the audio output control information , grouped users in the group G 2 is to each of the plurality of electronic devices 100 that are portable, the same set value (e.g., set value b) transmitting the audio output control information. Thus, the electronic device 100 each are of grouped users in the group G 1 is being portable, electrons output audio under the control of set value a, is grouped users in the group G 2 are mobile Each of the devices 100 outputs sound according to control by the set value b. The same applies when transmitting light emission control information or vibration control information.

なお、送信部50が動作制御情報の送信を開始するタイミングは特に限定しないが、例えば、送信部50は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を送信してもよい。   The timing at which the transmission unit 50 starts transmitting the operation control information is not particularly limited. For example, the transmission unit 50 receives the operation control information when an operation reception unit (not shown) receives a predetermined user operation. You may send it.

動作制御部60は、動作制御情報記憶部96に記憶されている動作制御情報に基づいて、種々の動作を制御する。例えば、音声出力制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って音声を出力するように制御し、発光制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って発光するように制御し、振動制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って振動するように制御する。   The operation control unit 60 controls various operations based on the operation control information stored in the operation control information storage unit 96. For example, control is performed so that sound is output according to the setting value set by the setting unit (not shown) among the settable values of the audio output control information, and the setting unit (not shown) among the settable values of the light emission control information. Control is performed so that light is emitted according to the set value, and vibration is controlled according to the set value set by a setting unit (not shown) among the settable values of the vibration control information.

なお、設定部(非図示)は、操作受付部(非図示)が設定値を指定するユーザ操作を受け付けたときに、当該設定値を動作制御情報記憶部96に記憶する。   The setting unit (not shown) stores the setting value in the operation control information storage unit 96 when the operation receiving unit (not shown) receives a user operation for specifying a setting value.

続いて、電子機器1によるグループ化の対象である他のユーザが携帯している他の電子機器100について説明する。図4は、他の電子機器100の一例を示す構成図である。他の電子機器100は、図4に示すように、表示部140、送受信部150、動作制御部160、及び、動作制御情報記憶部196を備える。また、他の電子機器100は、上記に加え、静止画像及び動画像を撮像する撮像部(非図示)を備えていてもよい。なお、図4は、電子機器100の他の構成である(後述)。   Next, another electronic device 100 carried by another user who is a target of grouping by the electronic device 1 will be described. FIG. 4 is a configuration diagram illustrating an example of another electronic device 100. As shown in FIG. 4, the other electronic device 100 includes a display unit 140, a transmission / reception unit 150, an operation control unit 160, and an operation control information storage unit 196. In addition to the above, the other electronic device 100 may include an imaging unit (not shown) that captures still images and moving images. FIG. 4 shows another configuration of the electronic device 100 (described later).

送受信部150は、他の電子機器(電子機器1、他の電子機器100)との間で種々の情報を送受信する。例えば、送受信部150は、当該電子機器100の機器ID及び接続情報を他の電子機器(電子機器1、電子機器100)に送信する。   The transmission / reception unit 150 transmits / receives various information to / from other electronic devices (electronic device 1, other electronic device 100). For example, the transmission / reception unit 150 transmits the device ID and connection information of the electronic device 100 to another electronic device (electronic device 1, electronic device 100).

また例えば、送受信部150は、グループ化情報を電子機器1から受信する。送受信部150は、グループ化情報を受信した場合に、受信したグループ化情報を表示部140に出力する。   For example, the transmission / reception unit 150 receives grouping information from the electronic device 1. When receiving the grouping information, the transmission / reception unit 150 outputs the received grouping information to the display unit 140.

また例えば、送受信部150は、設定値を含む動作制御情報を電子機器1から受信する。送受信部150は、動作制御情報を受信した場合、設定部(非図示)を介して、当該動作制御情報の設定値を、動作制御情報記憶部196に記憶(更新)する。なお、動作制御情報記憶部196の構成は、電子機器1の動作制御情報記憶部96と同様である(図3(d)参照)。   For example, the transmission / reception unit 150 receives operation control information including a setting value from the electronic device 1. When receiving the operation control information, the transmission / reception unit 150 stores (updates) the setting value of the operation control information in the operation control information storage unit 196 via a setting unit (not shown). The configuration of the operation control information storage unit 196 is the same as that of the operation control information storage unit 96 of the electronic device 1 (see FIG. 3D).

表示部140は、種々の情報を表示する。例えば、電子機器1から受信したグループ化情報、動作制御情報を表示する。   The display unit 140 displays various information. For example, grouping information and operation control information received from the electronic device 1 are displayed.

動作制御部160は、動作制御情報記憶部196に記憶されている動作制御情報に基づいて、種々の動作を制御する。例えば、音声出力制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って音声を出力するように制御し、発光制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って発光するように制御し、振動制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って振動するように制御する。   The operation control unit 160 controls various operations based on the operation control information stored in the operation control information storage unit 196. For example, control is performed so that sound is output according to the setting value set by the setting unit (not shown) among the settable values of the audio output control information, and the setting unit (not shown) among the settable values of the light emission control information. Control is performed so that light is emitted according to the set value, and vibration is controlled according to the set value set by a setting unit (not shown) among the settable values of the vibration control information.

つまり、電子機器1から送信された動作制御情報(設定値)を受信した他の電子機器100は、当該動作制御情報(設定値)に従って動作する。従って、同一グループにグループ化されたユーザが携帯している夫々の電子機器100に、同一の設定値の音声出力制御情報を送信すれば、これらの電子機器は同様に音声を出力し、同一の設定値の発光制御情報を送信すれば、これらの電子機器は同様に発光し、同一の設定値の振動制御情報を送信すれば、これらの電子機器は同様に振動する。   That is, the other electronic device 100 that has received the operation control information (setting value) transmitted from the electronic device 1 operates according to the operation control information (setting value). Therefore, if audio output control information having the same set value is transmitted to each electronic device 100 carried by a user grouped in the same group, these electronic devices output audio in the same manner, and the same If the light emission control information of the set value is transmitted, these electronic devices emit light similarly, and if the vibration control information of the same set value is transmitted, these electronic devices vibrate similarly.

以下、図5乃至図11を用いて、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報の抽出、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明する。具体的には、まず、図5乃至図7を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報、オブジェクトの時間的な変化のパターンを表すリズム情報の抽出、オブジェクトの時間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明し、続いて、図8乃至図11を用いて、オブジェクトの空間的な変化のパターンを表すリズム情報、オブジェクトの空間的な変化のパターンを表すリズム情報の抽出、オブジェクトの空間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明する。   Hereinafter, with reference to FIG. 5 to FIG. 11, extraction of rhythm information representing a temporal or spatial change pattern of an object, extraction of rhythm information representing a temporal or spatial change pattern of an object, The calculation of the similarity in the rhythm information representing the spatial change pattern will be described in detail. Specifically, first, using FIG. 5 to FIG. 7, extraction of rhythm information indicating a temporal change pattern of an object, extraction of rhythm information indicating a temporal change pattern of the object, and temporal change of the object The calculation of the similarity in the rhythm information representing the pattern of the object will be described in detail, and then the rhythm information representing the pattern of the spatial change of the object and the pattern of the spatial change of the object will be described with reference to FIGS. The extraction of the rhythm information representing the rhythm information and the calculation of the similarity in the rhythm information representing the spatial change pattern of the object will be described in detail.

図5乃至図7は、オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の抽出、当該リズム情報における類似度の算出について説明するための説明図である。   5 to 7 are explanatory diagrams for explaining rhythm information representing a temporal change pattern of an object, extraction of the rhythm information, and calculation of similarity in the rhythm information.

電子機器1の抽出部16は、撮像部14によって撮像された動画像から人物に係るオブジェクトを抽出し、抽出した人物に係るオブジェクトに外接する外接図形の面積の変化量、長辺又は短辺の長さの変化量、縦横比の変化量、面積の変化の周期、長さの変化の周期、又は、縦横比の変化の周期を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報を抽出(生成)する。   The extraction unit 16 of the electronic device 1 extracts an object related to a person from the moving image captured by the imaging unit 14, and the amount of change in the area of a circumscribed figure circumscribing the extracted object related to the person, long side or short side Rhythm information that represents the temporal change pattern of an object using the length change, aspect ratio change, area change period, length change period, or aspect ratio change period. Extract (generate).

例えば、抽出部16は、以下に例示するパラメータ1〜12(以下、prm1〜prm12と表記)のうち1以上のパラメータの値を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報を抽出する。なお、prm1〜prm12における所定時間は、例えば、外接矩形の変化の周期を基準とする時間(例えば1周期)である。また、prm7−1〜prm9−2における長辺及び短辺は、ある基準時刻(例えば、1周期の最初)の長さに基づいて決定する。また、単に、便宜上、Y軸方向(若しくはX軸方向)を長辺として決めておいてもよい。
(リズム情報を構成するパラメータ)
prm1:所定時間内における外接矩形の最大面積と最小面積の差
prm2:所定時間内における外接矩形の最大面積と最小面積の面積比
prm3−1:所定時間内における外接矩形の平均面積と最大面積の差
prm3−2:所定時間内における外接矩形の平均面積と最小面積の差
prm4−1:所定時間内における外接矩形の平均面積と最大面積の面積比
prm4−2:所定時間内における外接矩形の平均面積と最小面積の面積比
prm5:所定時間内における外接矩形の面積の分布状況(例:標準偏差)
prm6:所定時間内における外接矩形の面積の変化の周期
prm7−1:所定時間内における外接矩形の長辺の最大変化量
prm7−2:所定時間内における外接矩形の短辺の最大変化量
prm8−1:所定時間内における外接矩形の長辺の分布状況(例:標準偏差)
prm8−2:所定時間内における外接矩形の短辺の分布状況(例:標準偏差)
prm9−1:所定時間内における外接矩形の長辺の変化の周期
prm9−2:所定時間内における外接矩形の短辺の変化の周期
prm10:所定時間内における外接矩形の縦横比の最大変化量
prm11:所定時間内における外接矩形の縦横比の分布状況(例:標準偏差)
prm12:所定時間内における外接矩形の縦横比の変化の周期
For example, the extraction unit 16 extracts rhythm information representing a temporal change pattern of an object by using the value of one or more parameters among parameters 1 to 12 (hereinafter referred to as prm1 to prm12) exemplified below. To do. In addition, the predetermined time in prm1 to prm12 is, for example, a time (for example, one period) based on the period of change of the circumscribed rectangle. In addition, the long side and the short side in prm7-1 to prm9-2 are determined based on the length of a certain reference time (for example, the beginning of one cycle). For convenience, the Y-axis direction (or X-axis direction) may be determined as the long side.
(Parameters that make up rhythm information)
prm1: difference between the maximum area and the minimum area of the circumscribed rectangle within a predetermined time prm2: area ratio between the maximum area and the minimum area of the circumscribed rectangle within a predetermined time prm3-1: the average area and the maximum area of the circumscribed rectangle within a predetermined time Difference prm3-2: Difference between average area and minimum area of circumscribed rectangle within a predetermined time prm4-1: Area ratio between average area and maximum area of circumscribed rectangle within a predetermined time prm4-2: Average of circumscribed rectangle within a predetermined time Area ratio of area to minimum area prm5: Distribution of circumscribed rectangle area within a predetermined time (example: standard deviation)
prm6: Period of change in area of circumscribed rectangle within a predetermined time prm7-1: Maximum change amount of long side of circumscribed rectangle within a predetermined time prm7-2: Maximum change amount of short side of circumscribed rectangle within a predetermined time prm8− 1: Longitudinal distribution of circumscribed rectangles within a specified time (example: standard deviation)
prm8-2: Distribution of short sides of circumscribed rectangle within a predetermined time (example: standard deviation)
prm9-1: period of change of the long side of the circumscribed rectangle within a predetermined time prm9-2: period of change of the short side of the circumscribed rectangle within a predetermined time prm10: maximum change amount prm11 of the aspect ratio of the circumscribed rectangle within the predetermined time : Circumference rectangle aspect ratio distribution within a specified time (eg, standard deviation)
prm12: Period of change in aspect ratio of circumscribed rectangle within a predetermined time

以下、具体例を用いて抽出部16によるリズム情報の抽出について説明する。図5(a)に示すPは、動画像を構成する1コマであって、人物(オブジェクトO)が上体を左右に揺らしているときに一方側に最も上体を傾けている瞬間に撮像されたものである。図5(c)に示すPは、動画像を構成する1コマであって、人物(オブジェクトO)が上体を左右に揺らしているときに他方側に上体を最も傾けている瞬間に撮像されたものである。図5(b)に示すPは、PとPの間の1コマである。 Hereinafter, extraction of rhythm information by the extraction unit 16 will be described using a specific example. P 1 shown in FIG. 5A is one frame constituting a moving image, and the moment when the person (object O 1 ) is tilting the upper body most to one side when the upper body is swinging left and right. The images were taken. P 3 shown in FIG. 5C is one frame constituting a moving image, and the moment when the person (object O 1 ) swings the upper body to the left and right and tilts the upper body most to the other side. The images were taken. P 2 shown in FIG. 5B is one frame between P 1 and P 3 .

図6(a)に示すEは、図5(a)に示すP内のオブジェクトOに外接する外接矩形である。図6(b)に示すEは、図5(b)に示すP内のオブジェクトOに外接する外接矩形である。図6(c)に示すEは、図5(c)に示すP内のオブジェクトOに外接する外接矩形である。図6(d)は、外接矩形E、E、Eの各サイズを比較したものである。図6(d)における、E1.5は、図5(a)の瞬間から図5(b)の瞬間の間の一の瞬間におけるオブジェクトOに外接する外接矩形、E2.5は、図5(c)の瞬間から図5(b)の瞬間の間の一の瞬間におけるオブジェクトOに外接する外接矩形である。図6(d)に示すように、オブジェクトの動きに応じて当該オブジェクトに外接する外接矩形の形状は変化する。 Figure 6 E 1 shown in (a) is a circumscribed rectangle circumscribing the object O 1 in the P 1 shown in Figure 5 (a). E 2 shown in FIG. 6B is a circumscribed rectangle circumscribing the object O 1 in P 2 shown in FIG. 5B. E 3 shown in FIG. 6C is a circumscribed rectangle circumscribing the object O 1 in P 3 shown in FIG. 5C. FIG. 6D compares the sizes of the circumscribed rectangles E 1 , E 2 , and E 3 . In FIG. 6D, E 1.5 is a circumscribed rectangle circumscribing the object O 1 at one instant between the instant of FIG. 5A and the instant of FIG. 5B, and E 2.5 is It is a circumscribed rectangle circumscribing the object O 1 at one moment between the moment of FIG. 5C and the moment of FIG. 5B. As shown in FIG. 6D, the shape of the circumscribed rectangle that circumscribes the object changes according to the movement of the object.

抽出部16は、動画像(P、P、P、…)から、オブジェクトOを逐次抽出し、図7(a)に示すように、オブジェクトOに外接する外接図形を逐次抽出し、図7(b)に示すように、逐次抽出する外接矩形のサイズを算出する。なお、図7(a)に示す「周期」は、外接矩形の形状の変化の周期を示している。つまり、時刻t〜時刻t(時刻t〜時刻t、時刻t〜時刻t13、…)が1周期である。 The extraction unit 16 sequentially extracts the object O 1 from the moving images (P 1 , P 2 , P 3 ,...), And sequentially extracts circumscribed figures circumscribing the object O 1 as shown in FIG. Then, as shown in FIG. 7B, the size of the circumscribed rectangle to be sequentially extracted is calculated. Note that the “period” shown in FIG. 7A indicates the period of change in the shape of the circumscribed rectangle. That is, time t 1 to time t 4 (time t 5 to time t 8 , time t 9 to time t 13 ,...) Is one cycle.

抽出部16は、外接矩形のサイズを用いて、所定の1以上のパラメータを算出し、算出した各パラメータの値を要素とする数値群を、オブジェクトOの時間的な変化のパターンを表すリズム情報とする。例えば、抽出部16は、図7(c)に示すように、オブジェクトOの外接矩形の最大面積と最小面積の面積比(prm2)、面積の変化の周期(prm6)、長辺の最大変化量(prm7−1)、短辺の最大変化量(prm7−1)、縦横比の最大変化量(prm10)の値を要素とする数値群を、オブジェクトOの時間的な変化のパターンを表すリズム情報R(prm2、prm6、prm7−1、prm7−2、prm10)とする。 The extraction unit 16 calculates a predetermined one or more parameters using the size of the circumscribed rectangle, and sets a numerical value group having the calculated parameter values as elements as a rhythm representing a temporal change pattern of the object O 1. Information. For example, the extraction unit 16, as shown in FIG. 7 (c), the area ratio of the maximum area and the minimum area of circumscribed rectangle of the object O 1 (Prm2), the period of change in area (PRM6), the maximum change in the long side the amount (prm7-1), maximum change in the short side (prm7-1), the numerical value group whose value is the element of the maximum change in the aspect ratio (PRM10), represents the pattern of the temporal change of the object O 1 The rhythm information is R 1 (prm2, prm6, prm7-1, prm7-2, prm10).

なお、リズム情報は、後に、比較をし易いように、各パラメータの値を適宜丸めたものであってもよいし、各パラメータの値を他の値に置き換えたものであってもよい(スコア化してもよい)。   The rhythm information may be obtained by appropriately rounding the value of each parameter for easy comparison later, or by replacing the value of each parameter with another value (score May be used).

抽出部16が、上述の如く、各パラメータの値を要素とする数値群から構成されるリズム情報を抽出した場合、算出部20は、抽出部16によって抽出された第1の他の人物(オブジェクト)のリズム情報と第2の他の人物(オブジェクト)のリズム情報との類似度を算出する。具体的には、算出部20は、リズム情報を構成する同一のパラメータ同士の類似度を算出し、複数の、同一のパラメータ同士の類似度に基づいて、第1の他の人物のリズム情報と、第2の他の人物のリズム情報との類似度を算出する。   As described above, when the extraction unit 16 extracts rhythm information including a group of numerical values each having the value of each parameter as an element, the calculation unit 20 uses the first other person (object) extracted by the extraction unit 16. ) And the rhythm information of the second other person (object). Specifically, the calculation unit 20 calculates the similarity between the same parameters constituting the rhythm information, and the rhythm information of the first other person based on the similarity between the plurality of the same parameters. The similarity with the rhythm information of the second other person is calculated.

例えば、リズム情報が、prm2、prm6、prm7−1、prm7−2、prm10から構成されている場合、算出部20は、第1の他の人物のリズム情報を構成するprm2の値と第2の他の人物のリズム情報を構成するprm2の値とを比較してprm2の値同士の類似度を算出する。同様に、算出部20は、prm6の値同士の類似度、prm7−1の値同士の類似度、prm7−2の値同士の類似度、prm10の値同士の類似度を算出する。   For example, when the rhythm information is composed of prm2, prm6, prm7-1, prm7-2, and prm10, the calculation unit 20 calculates the value of prm2 constituting the rhythm information of the first other person and the second The degree of similarity between the values of prm2 is calculated by comparing the values of prm2 constituting the rhythm information of other persons. Similarly, the calculation unit 20 calculates the similarity between the values of prm6, the similarity between the values of prm7-1, the similarity between the values of prm7-2, and the similarity between the values of prm10.

prm2(prm6、prm7−1、prm7−2、prm10も同様)の値同士の類似度の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、第1の他の人物のリズム情報を構成するprm2の値と、第1の他の人物のリズム情報を構成するprm2の値とを比較し、値の小さい一方を大きい他方で除した値をprm2の値同士の類似度としてもよい。当該算出手法の場合、パラメータの値同士の類似度は0〜1の範囲となり、類似している程、1に近い値となる。   Although various calculation methods can be considered as a calculation method of the degree of similarity between the values of prm2 (same as prm6, prm7-1, prm7-2, and prm10), as an example, the calculation unit 20 includes the first other person. The value of prm2 composing the rhythm information of the first person and the value of prm2 composing the rhythm information of the first other person are compared, and the value obtained by dividing one of the smaller values by the other larger is the similarity between the values of prm2 It is good. In the case of the calculation method, the similarity between the parameter values is in the range of 0 to 1, and the closer the value is, the closer the value is to 1.

また、各パラメータの値同士の類似度に基づいて、第1の他の人物のリズム情報と、第2の他の人物のリズム情報との類似度を算出する算出手法としては、種々の算出手法が考えられるが、一例として、算出部20は、各パラメータ同士の類似度の平均値を第1の他の人物のリズム情報と、第2の他の人物のリズム情報との類似度としてもよい。即ち、上記の例では、算出部20は、prm2の値同士の類似度、prm6の値同士の類似度、prm7−1の値同士の類似度、prm7−2の値同士の類似度、prm10の値同士の類似度の平均値を、第1の他の人物のリズム情報と、第2の他の人物のリズム情報との類似度としてもよい。当該算出手法の場合、第1の他の人物のオブジェクトのリズム情報と、第2の他の人物のオブジェクトのリズム情報との類似度は0〜1の範囲となり、類似している程、1に近い値となる。   Various calculation methods may be used as calculation methods for calculating the similarity between the rhythm information of the first other person and the rhythm information of the second other person based on the similarity between the values of the parameters. However, as an example, the calculation unit 20 may use the average value of the similarity between the parameters as the similarity between the rhythm information of the first other person and the rhythm information of the second other person. . That is, in the above example, the calculation unit 20 calculates the similarity between the values of prm2, the similarity between the values of prm6, the similarity between the values of prm7-1, the similarity between the values of prm7-2, The average value of the similarities between the values may be the similarity between the rhythm information of the first other person and the rhythm information of the second other person. In the case of this calculation method, the similarity between the rhythm information of the object of the first other person and the rhythm information of the object of the second other person is in the range of 0 to 1. A close value.

なお、上述の平均値の算出時において、所定のパラメータ同士の類似度に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、パラメータ同士の類似度の中央値、パラメータ同士の類似度の最大値、パラメータ同士の類似度の最小値を、第1の他の人物のリズム情報と、第2の人物のリズム情報との類似度としてもよい。   When calculating the above average value, the average value may be calculated after weighting the degree of similarity between predetermined parameters. The average value is not limited to an arithmetic average, and a geometric average may be used. Also, instead of the average value, the median value of the similarity between the parameters, the maximum value of the similarity between the parameters, and the minimum value of the similarity between the parameters, the rhythm information of the first other person, and the second It is good also as similarity with a person's rhythm information.

以上、リズム情報が、オブジェクトの時間的な変化のパターンを表すものである場合について説明したが、続いて、リズム情報が、オブジェクトの空間的な変化のパターンを表すものである場合について説明する。図8乃至図11は、オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の抽出、当該リズム情報における類似度の算出について説明するための説明図である。なお、図8乃至図11においては、説明の便宜上、上述したように、人物以外のオブジェクトを抽出するものとする。   The case where the rhythm information represents the temporal change pattern of the object has been described above. Next, the case where the rhythm information represents the spatial change pattern of the object will be described. FIG. 8 to FIG. 11 are explanatory diagrams for explaining rhythm information representing a spatial change pattern of an object, extraction of the rhythm information, and calculation of similarity in the rhythm information. 8 to 11, for convenience of explanation, as described above, objects other than a person are extracted.

図8は、動画像(P11、P12、P13)から抽出された信号機のオブジェクト(O)を模式的に表したものである。図8(a)は信号機が青であるときのオブジェクトO、図8(b)は信号機が黄であるときのオブジェクトO、図8(c)は信号機が赤であるときのオブジェクトOを示している。図8(a)〜図8(c)において、r1は信号機本体の撮像領域、r2は信号機本体を支持する支持部の撮像領域である。r1−1はr1内の領域であって青ランプを保持する保持部の撮像領域、r1−2はr1内の領域であって黄ランプを保持する保持部の撮像領域、r1−3はr1内の領域であって赤ランプを保持する保持部の撮像領域である。r1−1−1はr1−1内の領域であって青ランプの撮像領域、r1−2−1はr1−2内の領域であって黄ランプの撮像領域、r1−3−1はr1−3内の領域であって赤ランプの領域である。 FIG. 8 schematically shows a traffic light object (O 2 ) extracted from moving images (P 11 , P 12 , P 13 ). 8 (a) is the object O 2 when traffic is blue, FIG. 8 (b) object O 2 when traffic is yellow, the object O 2 when FIG. 8 (c) traffic light is red Is shown. 8A to 8C, r1 is an imaging area of the traffic signal body, and r2 is an imaging area of a support portion that supports the traffic signal body. r1-1 is an area within r1, which is an imaging area of a holding section that holds a blue lamp, r1-2 is an area within r1, and is an imaging area of a holding section that holds a yellow lamp, and r1-3 is within r1 This is an imaging region of a holding unit that holds a red lamp. r1-1-1 is an area within r1-1 and is an imaging area of a blue lamp, r1-2-1 is an area within r1-2 and is an imaging area of a yellow lamp, and r1-3-1 is r1- 3 is a red lamp area.

なお、説明の便宜上、信号機が青の場合、点灯中の青ランプの色は青緑色、消灯中の黄ランプ及び赤ランプの色は黒色であるものとする。即ち、図8(a)における、青ランプの領域r1−1−1の色は青緑色、黄ランプの領域r1−2−1の色は黒色、赤ランプの領域r1−3−1の色は黒色であるものとする。信号機が黄の場合、点灯中の黄ランプの色は黄色、消灯中の青ランプ及び赤ランプの色は黒色であるものとする。即ち、図8(b)における、青ランプの領域r1−1−1の色は黒色、黄ランプの領域r1−2−1の色は黄色、赤ランプの領域r1−3−1の色は黒色であるものとする。信号機が赤の場合、点灯中の赤ランプの色は赤色、消灯中の青ランプ及び黄ランプの色は黒色であるものとする。即ち、図8(c)における、青ランプの領域r1−1−1の色は黒色、黄ランプの領域r1−2−1の色は黒色、赤ランプの領域r1−3−1の色は赤色であるものとする。
また、信号機が青、黄、赤の何れの場合において、ランプ以外の領域は全て灰色であるものとする。
For convenience of explanation, it is assumed that when the traffic light is blue, the color of the blue lamp being turned on is blue-green, and the colors of the yellow lamp and red lamp being turned off are black. That is, in FIG. 8A, the color of the blue lamp region r1-1-1 is blue-green, the color of the yellow lamp region r1-2-1 is black, and the color of the red lamp region r1-3-1 is It shall be black. When the traffic light is yellow, the color of the yellow lamp that is lit is yellow, and the color of the blue and red lamps that are not lit is black. That is, in FIG. 8B, the color of the blue lamp region r1-1-1 is black, the color of the yellow lamp region r1-2-1 is yellow, and the color of the red lamp region r1-3-1 is black. Suppose that When the traffic light is red, the color of the red lamp being turned on is red, and the color of the blue lamp and the yellow lamp being turned off is black. That is, in FIG. 8C, the color of the blue lamp region r1-1-1 is black, the color of the yellow lamp region r1-2-1 is black, and the color of the red lamp region r1-3-1 is red. Suppose that
In addition, when the traffic light is any of blue, yellow, and red, all the areas other than the lamp are gray.

図9(a)は、オブジェクトOを構成する画素グループ(単位領域)を模式的に表したものである。画素グループは、所定数の隣接画素から構成される。 9 (a) it is intended to the pixel group (unit area) that constitute the object O 2 schematically illustrates. A pixel group is composed of a predetermined number of adjacent pixels.

図9(b)は、図9(a)に示すように、オブジェクトOを複数の画素グループに分割した場合における、オブジェクトOの空間的な変化のパターンを表すリズム情報である。図9(b)に示す画素グループID(a−4、a−5、…)は、オブジェクトOを構成する画素グループ(即ち、図9(a)に示す画素グループ)を識別する識別情報である。例えば、図9(b)に示す画素グループID「a−4」は、図9(a)に示す符号Gの画素グループ(横方向のインデックス「4」及び縦方向のインデックス「a」によって規定される画素グループ)を示している。 FIG. 9 (b), as shown in FIG. 9 (a), in the case of dividing the object O 2 into a plurality of pixel groups, a rhythm information representing the pattern of the spatial variation of the object O 2. Pixel group IDs (a-4, a-5,...) Shown in FIG. 9B are identification information for identifying pixel groups constituting the object O 2 (that is, the pixel groups shown in FIG. 9A). is there. For example, the pixel group ID “a-4” shown in FIG. 9B is defined by the pixel group of the symbol G shown in FIG. 9A (the horizontal index “4” and the vertical index “a”). Pixel group).

図9(b)に示す各時刻(t1、t2、…)は、図8に示す信号機の撮像タイミングである。t1〜t3は、図8(a)に示すように信号が青のときの撮像タイミングである。t4は、図8(b)に示すように信号が黄のときの撮像タイミングである。t5〜t7は、図8(c)に示すように信号が赤のときの撮像タイミングである。即ち、t1〜t7は、オブジェクトOの色の変化の1周期である。なお、図9(b)に示す時刻は、説明の便宜上の時刻である(実際の信号機の場合、通常、黄の時間に対する青(及び赤)の時間は長い。 Each time (t1, t2,...) Shown in FIG. 9B is the imaging timing of the traffic light shown in FIG. t1 to t3 are imaging timings when the signal is blue as shown in FIG. t4 is the imaging timing when the signal is yellow as shown in FIG. t5 to t7 are imaging timings when the signal is red as shown in FIG. That, t1 to t7 is one period of the change in the color of the object O 2. Note that the time shown in FIG. 9B is a time for convenience of explanation (in the case of an actual traffic light, the blue (and red) time is usually longer than the yellow time.

図9(b)に示す各値(D1〜D7)は、リズム情報を構成する値であって、各撮像タイミング(t1、t2、…)における、オブジェクトOを構成する各画素グループの平均画素値である。なお、D1は灰色を示す画素値、D2は青緑色を示す画素値、D3は黒色を示す画素値、D4は黒色を示す画素値、D5は黄色を示す画素値、D6は黒色を示す画素値、D7は赤色を表す画素値である。 Each value (D1 to D7) shown in FIG. 9B is a value constituting rhythm information, and is an average pixel of each pixel group constituting the object O 2 at each imaging timing (t1, t2,...). Value. D1 is a pixel value indicating gray, D2 is a pixel value indicating blue-green, D3 is a pixel value indicating black, D4 is a pixel value indicating black, D5 is a pixel value indicating yellow, and D6 is a pixel value indicating black , D7 are pixel values representing red.

つまり、図9(b)に示すリズム情報は、オブジェクトOを構成する画素グループ毎の色の変化のパターンであって、例えば、以下の特徴1〜特徴10を示している。 That is, the rhythm information shown in FIG. 9B is a color change pattern for each pixel group constituting the object O 2 , and shows, for example, the following features 1 to 10.

特徴1:オブジェクトOの主要部の領域(図8に示す領域r1)のうち、中央の領域(図8に示す領域r1−2−1)の左側に位置する領域(図8に示す領域r1−1−1)は、色が、青緑色(D2)と黒色(D3)とに周期的に変化する。
特徴2:オブジェクトOの主要部の領域のうち、中央の領域は、色が、黒色(D4)と黄色(D5)とに周期的に変化する。
特徴3:オブジェクトOの主要部の領域のうち、中央の領域の右側に位置する領域(図8に示す領域r1−3−1)は、色が、黒色(D6)と赤色(D7)とに周期的に変化する。
特徴4:オブジェクトOの主要部の領域のうち、中央の領域、中央の領域の左側に位置する領域、中央の領域の右側に位置する領域を除いた領域(図8に示す領域r1から領域r1−1−1、領域r1−2−1及び領域r1−3−1を除いた領域)は、常に、灰色(D1)であって色の変化がない。
特徴5:オブジェクトOの主要部以外の領域(図8に示す領域r2)は、常に、灰色(D1)であって色の変化がない。
特徴6:中央の領域の左側に位置する領域(領域r1−1−1)が青緑色(D2)から黒色(D3)に変化した後に、中央の領域(領域r1−2−1)が黒色(D4)から黄色(D5)に変化する。
特徴7:中央の領域(領域r1−2−1)が黄色(D5)から黒色(D4)に変化した後に、中央の領域の右側に位置する領域(領域r1−3−1)が黒色(D6)から赤色(D7)に変化する。
特徴8:中央の領域の右側に位置する領域(領域r1−3−1)が赤色(D7)から黒色(D6)に変化した後に、中央の領域の左側に位置する領域(領域r1−1−1)が黒色(D3)から青緑色(D2)に変化する。
特徴9:青緑色(D2)に変化する中央の領域の左側に位置する領域(領域r1−1−1)と、黄色(D5)に変化する中央の領域(領域r1−2−1)と、赤色(D7)に変化する中央の領域の右側に位置する領域(領域r1−3−1)とは、略同じ大きさである。
特徴10:中央の領域の左側に位置する領域(領域r1−1−1)が青緑色(D2)である時間と、中央の領域の右側に位置する領域(領域r1−3−1)が赤色(D7)である時間は等しく、中央(領域r1−2−1)の領域が黄色(D5)である時間の略3倍である。
Feature 1: Of the main part of the object O 2 (region r1 shown in FIG. 8), the region (region r1 shown in FIG. 8) located on the left side of the central region (region r1-2-1 shown in FIG. 8). -1-1), the color periodically changes between blue-green (D2) and black (D3).
Feature 2: The color of the central region of the main portion of the object O 2 periodically changes between black (D4) and yellow (D5).
Feature 3: Of the main part of the object O 2 , the region located on the right side of the central region (region r1-3-1 shown in FIG. 8) is black (D6) and red (D7). Changes periodically.
Feature 4: Out of the main area of the object O 2 , an area excluding the central area, the area located on the left side of the central area, and the area located on the right side of the central area (from the area r1 shown in FIG. 8 to the area) The area excluding r1-1-1, the area r1-2-1, and the area r1-3-1) is always gray (D1) and has no color change.
Feature 5: An area other than the main part of the object O 2 (area r2 shown in FIG. 8) is always gray (D1) and has no color change.
Feature 6: After the region located on the left side of the central region (region r1-1-1) changes from blue-green (D2) to black (D3), the central region (region r1-2-1) is black ( The color changes from D4) to yellow (D5).
Feature 7: After the central region (region r1-2-1) has changed from yellow (D5) to black (D4), the region (region r1-3-1) located on the right side of the central region is black (D6 ) To red (D7).
Feature 8: After the area located on the right side of the central area (area r1-3-1) changes from red (D7) to black (D6), the area located on the left side of the central area (area r1-1-) 1) changes from black (D3) to blue-green (D2).
Feature 9: a region (region r1-1-1) located on the left side of the central region that changes to blue-green (D2), a central region (region r1-2-1) that changes to yellow (D5), The region (region r1-3-1) located on the right side of the central region that changes to red (D7) has substantially the same size.
Feature 10: The time when the region (region r1-1-1) located on the left side of the central region is blue-green (D2), and the region located on the right side of the central region (region r1-3-1) is red The time for (D7) is equal and is approximately three times the time for the center (region r1-2-1) region to be yellow (D5).

抽出部16は、撮像部14によって撮像された撮像画像からオブジェクトを抽出し、当該オブジェクトの空間的な変化のパターンを表すリズム情報を抽出する。例えば、抽出部16は、オブジェクトOを抽出した場合、図9(b)に示すように、オブジェクトOを構成する画素グループ毎の色の変化の示す各値を要素とする数値値から構成されるリズム情報を抽出する。 The extraction unit 16 extracts an object from the captured image captured by the imaging unit 14 and extracts rhythm information representing a pattern of spatial change of the object. For example, when the extraction unit 16 extracts the object O 2 , the extraction unit 16 is configured from numerical values whose elements are the values indicated by the color change for each pixel group constituting the object O 2 , as shown in FIG. 9B. Rhythm information to be extracted.

抽出部16が、上述の如く、夫々のオブジェクトのリズム情報を抽出した場合、算出部20は、第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度を、上述する1以上の特徴に関係する類似度に基づいて算出する。   When the extraction unit 16 extracts the rhythm information of each object as described above, the calculation unit 20 calculates the similarity between the rhythm information of the first other object and the rhythm information of the second other object. , Based on the similarity related to one or more features described above.

例えば、上述の特徴2に関係する類似度を用いて、第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度を算出してもよい。当該場合、算出部20は、例えば、第1の他のオブジェクトのリズム情報によって示されるオブジェクトの主要部の中央領域の色の周期的な変化と、第2の他のオブジェクトのリズム情報によって示されるオブジェクトの主要部の中央領域の色の周期的な変化との類似度を算出し、第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度としてもよい。   For example, the similarity between the rhythm information of the first other object and the rhythm information of the second other object may be calculated using the similarity related to the feature 2 described above. In this case, the calculation unit 20 is indicated by, for example, a periodic change in the color of the central region of the main part of the object indicated by the rhythm information of the first other object and the rhythm information of the second other object. The similarity with the periodic change of the color of the central region of the main part of the object may be calculated and used as the similarity between the rhythm information of the first other object and the rhythm information of the second other object.

「主要部の中央領域の色の周期的な変化の類似度」の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」とに基づいて「主要部の中央領域の色の周期的な変化の類似度」を算出してもよい。なお、算出部20は、第1の他のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」と、第2の他のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」とを比較し、短い方の周期を長い方の周期で除した値を「主要部の中央領域の色の変化の周期の類似度」としてもよい。   Various calculation methods are conceivable as the calculation method of “similarity of periodic change in color of the central region of the main part”. As an example, the calculation unit 20 may be configured to “change the color change of the central region of the main part. Based on the “similarity of the period” and the “similarity of the color appearing in the central area of the main part”, the “similarity of the periodic change in the color of the central area of the main part” may be calculated. Note that the calculation unit 20 calculates the “color change period of the central region of the main part” based on the rhythm information of the first other object and the “color of the central region of the main part” based on the rhythm information of the second other object. The value obtained by dividing the shorter period by the longer period may be used as the “similarity of the period of color change in the central region of the main part”.

例えば、第1の他のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」が4秒、第2の他のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」が3秒である場合、周期「3(秒)」を周期「4(秒)」で除した値「0.75」を「主要部の中央領域の色の変化の周期の類似度」とする。当該算出手法の場合、「主要部の中央領域の色の変化の周期の類似度」は0〜1の範囲となり、類似している程、1に近い値となる。   For example, “the color change period of the central region of the main part” based on the rhythm information of the first other object is 4 seconds, and “the color change of the central region of the main part is based on the rhythm information of the second other object. When the period is 3 seconds, a value “0.75” obtained by dividing the period “3 (seconds) by the period“ 4 (seconds) ”is“ similarity of the period of color change in the central region of the main part ”. And In the case of the calculation method, the “similarity of the period of color change in the central region of the main part” is in the range of 0 to 1, and the closer to the value, the closer to 1.

また、算出部20は、第1の他のオブジェクトのリズム情報による「主要部の中央領域に現れる色(比較のため階調数を削減した色、他も同様)」と、第2の他のオブジェクトのリズム情報による「主要部の中央領域に現れる色」とを比較し、現れる数の多い方の色数を何れかによって現れる色の色数で除した値を「主要部の中央領域に現れる色の類似度」としてもよい。   In addition, the calculation unit 20 uses the rhythm information of the first other object “color appearing in the central region of the main part (color with a reduced number of gradations for comparison, and so on)” and the second other object. Compared with the “color appearing in the central area of the main part” based on the rhythm information of the object, the value obtained by dividing the number of colors that appear larger by the number of colors of the color appearing by either “appears in the central area of the main part” The color similarity may be used.

例えば、第1の他のオブジェクトのリズム情報による「主要部の中央領域に現れる色」が3色、第2の他のオブジェクトのリズム情報による「主要部の中央領域に現れる色」が5色である場合、色数「5(色)」を色数「8(色)」で除した値「0.625」を「主要部の中央領域に現れる色の類似度」とする。当該算出手法の場合、「主要部の中央領域に現れる色の類似度」は0〜1の範囲となり、類似している程、1に近い値となる。   For example, the “color appearing in the central area of the main part” according to the rhythm information of the first other object is three colors, and the “color appearing in the central area of the main part” according to the rhythm information of the second other object is five colors. In some cases, a value “0.625” obtained by dividing the number of colors “5 (color)” by the number of colors “8 (color)” is set as “similarity of colors appearing in the central region of the main part”. In the case of this calculation method, the “similarity of the color appearing in the central region of the main part” is in the range of 0 to 1, and becomes closer to 1 as the similarity is increased.

また、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」とに基づいて「主要部の中央領域の色の周期的な変化の類似度」を算出する算出手法としては、種々の算出手法が考えられるが、一例として、算出部20は、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」の平均値を「主要部の中央領域の色の周期的な変化の類似度」としてもよい。   In addition, based on “similarity of period of color change in the central area of the main part” and “similarity of color appearing in the central area of the main part”, As a calculation method for calculating the “similarity”, various calculation methods are conceivable. As an example, the calculation unit 20 may calculate the “similarity of the period of color change in the central region of the main part” and “the center of the main part”. The average value of “similarity of colors appearing in the area” may be set as “similarity of periodic change in color of the central area of the main part”.

例えば、「主要部の中央領域の色の変化の周期の類似度」が0.75、「主要部の中央領域に現れる色の類似度」が0.625である場合、平均値「0.6875」を「主要部の中央領域の色の周期的な変化の類似度」とする。当該算出手法の場合、「主要部の中央領域の色の周期的な変化の類似度」は0〜1の範囲となり、類似している程、1に近い値となる。   For example, when “similarity of the color change period in the central region of the main part” is 0.75 and “similarity of the color appearing in the central region of the main part” is 0.625, the average value “0.6875 "Is the similarity of the periodic change in the color of the central region of the main part". In the case of this calculation method, the “similarity of the periodic change in the color of the central region of the main part” is in the range of 0 to 1, and the closer to the value, the closer to 1.

なお、上述の平均値の算出時において、「主要部の中央領域の色の変化の周期の類似度」又は「主要部の中央領域に現れる色の類似度」に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、中央値、最大値、又は、最小値を、「主要部の中央領域の色の周期的な変化の類似度」としてもよい。   At the time of calculating the above average value, the average value is calculated after weighting the “similarity of the color change period in the central area of the main part” or the “similarity of the color appearing in the central area of the main part”. May be. The average value is not limited to an arithmetic average, and a geometric average may be used. Further, instead of the average value, the median value, the maximum value, or the minimum value may be used as the “similarity of the periodic change in the color of the central region of the main part”.

また例えば、上述の特徴5に関係する類似度を用いて、第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度を算出してもよい。当該場合、算出部20は、例えば、第1の他のオブジェクトのリズム情報によって示されるオブジェクトの主要部以外の領域の変化しない色と、第2の他のオブジェクトのリズム情報によって示されるオブジェクトの主要部以外の領域の変化しない色との類似度を算出し、第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度としてもよい。   Further, for example, the similarity between the rhythm information of the first other object and the rhythm information of the second other object may be calculated using the similarity related to the feature 5 described above. In this case, the calculation unit 20 may, for example, change the color of the region other than the main part of the object indicated by the rhythm information of the first other object and the main part of the object indicated by the rhythm information of the second other object. It is also possible to calculate the degree of similarity with a color that does not change in a region other than the part, and to obtain the degree of similarity between the rhythm information of the first other object and the rhythm information of the second other object.

「主要部以外の領域の変化しない色の類似度」の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、予め、一の色と他の色との色の類似度を示す類似色情報(0から1の範囲をとり、色同士が類似している程、1に近い値をとる情報)を保持し、当該類似色情報に基づいて、第1の他のオブジェクトのリズム情報による主要部以外の領域の色と、第2の他のオブジェクトのリズム情報による主要部以外の領域の色の類似度を算出し、算出した値を「主要部以外の領域の変化しない色の類似度」としてもよい。但し、第1の他のオブジェクトのリズム情報による主要部以外の領域の色が周期的に変化する場合、又は、第2の他のオブジェクトのリズム情報による主要部以外の領域の色が周期的に変化した場合の何れかに該当する場合には、「主要部以外の領域の変化しない色の類似度」を0とする。   Various calculation methods can be considered as a calculation method of “similarity of colors that do not change in regions other than the main part”. As an example, the calculation unit 20 preliminarily compares the similarity between one color and another color. Similar color information indicating the degree (information that takes a range from 0 to 1 and takes a value closer to 1 as the colors are similar), and based on the similar color information, the first other object The similarity between the color of the area other than the main part based on the rhythm information of the second color and the color of the area other than the main part based on the rhythm information of the second other object is calculated. The color similarity may be used. However, when the color of the area other than the main part according to the rhythm information of the first other object changes periodically, or the color of the area other than the main part according to the rhythm information of the second other object changes periodically. In the case of any of the cases where the color has changed, the “similarity of the color not changing in the area other than the main part” is set to 0.

また、算出部20が、2以上の特徴に関係する類似度を用いて、第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度を算出する場合には、各特徴に関係する類似度に基づいて、第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度を算出してもよい。例えば、上述の特徴2及び特徴5に関係する類似度を用いる場合、特徴2に関係する類似度と、特徴5に関係する類似度とを夫々算出し、特徴2に関係する類似度と特徴5に関係する類似度の平均値を、第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度としてもよい。   Further, when the calculation unit 20 calculates the similarity between the rhythm information of the first other object and the rhythm information of the second other object, using the similarity related to two or more features. The similarity between the rhythm information of the first other object and the rhythm information of the second other object may be calculated based on the similarity related to each feature. For example, when using the degree of similarity related to the above-described feature 2 and feature 5, the degree of similarity related to feature 2 and the degree of similarity related to feature 5 are calculated, respectively, and the degree of similarity related to feature 2 and feature 5 are calculated. The average value of the similarities related to the above may be the similarity between the rhythm information of the first other object and the rhythm information of the second other object.

例えば、「特徴2に関係する類似度(例えば、上記の中央領域の色の周期的な変化の類似度)」が0.875、「特徴5に関係する類似度(例えば、上記の主要部以外の領域の変化しない色の類似度)」が0.825である場合、平均値「0.85」を第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度としてもよい。   For example, “similarity related to feature 2 (for example, similarity of periodic change in color of the central region)” is 0.875, “similarity related to feature 5 (for example, other than the main part described above) In the case where the similarity of the color of the non-changeable area) is 0.825, the average value “0.85” is the similarity between the rhythm information of the first other object and the rhythm information of the second other object. It may be a degree.

なお、上述の平均値の算出時において、「特徴2に関係する類似度」又は「特徴5に関係する類似度」に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、中央値、最大値、又は、最小値を、「第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度」としてもよい。   When calculating the average value, the average value may be calculated after weighting the “similarity related to feature 2” or “similarity related to feature 5”. The average value is not limited to an arithmetic average, and a geometric average may be used. Instead of the average value, the median value, the maximum value, or the minimum value may be set as “similarity between the rhythm information of the first other object and the rhythm information of the second other object”.

なお、第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度を、特徴2、特徴5に関係する類似度に基づいて算出する例を説明したが、他の夫々の特徴に応じた夫々の算出手法を適用して、第1の他のオブジェクトのリズム情報と、第2の他のオブジェクトのリズム情報との類似度を算出してもよい。   Although the example in which the similarity between the rhythm information of the first other object and the rhythm information of the second other object is calculated based on the similarity related to the features 2 and 5 has been described, The degree of similarity between the rhythm information of the first other object and the rhythm information of the second other object may be calculated by applying the respective calculation methods according to the respective characteristics.

なお、図9(b)に示す各値(D1〜D7)として、画素グループ毎の平均画素値を用いる例を説明したが、平均画素値に代えて、例えば、最大画素値(画素グループ内の複数の画素の画素値の最大値)、最小画素値(画素グループ内の複数の画素の画素値の最小値)、中央値(画素グループ内の複数の画素の画素値の中央値)を用いてもよい。   In addition, although the example which uses the average pixel value for every pixel group as each value (D1-D7) shown in FIG.9 (b) was demonstrated, it replaced with an average pixel value, for example, the largest pixel value (inside a pixel group) Using the maximum pixel value of a plurality of pixels), minimum pixel value (minimum value of pixel values of a plurality of pixels in a pixel group), and median value (median value of pixel values of a plurality of pixels in a pixel group) Also good.

また、所定数の隣接画素を画素グループとし、リズム情報を構成する各値(図9(b)に示す各値(D1〜D7))を算出する例を説明したが、画素値の差が所定値以下である隣接画素を画素グループとし、リズム情報を構成する各値を算出してもよい。   Further, an example has been described in which a predetermined number of adjacent pixels are used as a pixel group, and each value (each value (D1 to D7) illustrated in FIG. 9B) that calculates rhythm information is calculated. Each value constituting the rhythm information may be calculated by setting adjacent pixels equal to or less than the value as a pixel group.

図10(a)は、図8に示した信号機のオブジェクトOを構成する画素において、画素値の差が所定数以下である隣接画像を画素グループとして模式的に表したものである。図10(a)において、Ga1〜Ga4は、各撮像タイミング(t1〜t7)の何れにおいても画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Ga1は青ランプの領域r1−1−1、Ga2は黄ランプの領域r1−2−1、Ga3は赤ランプの領域r1−3−1、Ga4はランプ以外の領域を表している(図8参照)。 FIG. 10A schematically shows adjacent images having a pixel value difference equal to or less than a predetermined number as a pixel group in the pixels constituting the traffic light object O 2 shown in FIG. In FIG. 10A, Ga1 to Ga4 are pixel groups that are adjacent images in which the difference in pixel value is equal to or less than a predetermined number at any of the imaging timings (t1 to t7) (see FIG. 9B). Specifically, Ga1 represents a blue lamp region r1-1-1, Ga2 represents a yellow lamp region r1-2-1, Ga3 represents a red lamp region r1-3-1, and Ga4 represents a region other than the lamp. (See FIG. 8).

図10(b)は、オブジェクトOを図10(a)の如く複数の画素グループに分割した場合における、オブジェクトOの空間的な変化のパターンを表すリズム情報である。図10(b)に示す各値(D1〜D7)は、リズム情報を構成する値であって、各撮像タイミング(t1、t2、…)における、オブジェクトOを構成する各画素グループの平均画素値である。但し、上述した様に、平均値に代えて、最大画素値、最小画素値、中央値を用いてもよい。 FIG. 10 (b), in case of dividing the object O 2 into a plurality of pixel groups as in FIG. 10 (a), a rhythm information representing the pattern of the spatial variation of the object O 2. Each value (D1 to D7) shown in FIG. 10B is a value constituting rhythm information, and is an average pixel of each pixel group constituting the object O 2 at each imaging timing (t1, t2,...). Value. However, as described above, the maximum pixel value, the minimum pixel value, and the median value may be used instead of the average value.

図11(a)は、図8に示した信号機のオブジェクトOを構成する画素において、画素値の差が所定数以下である隣接画像を画素グループとして模式的に表したものである。図11(a)において、Gb1及びGb4は、信号が青のときの撮像タイミング(t1〜t3)において画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Gb1は青色の領域、Gb4は黒色及び灰色の領域を表している(図8参照)。即ち、消灯中の黄ランプ及び赤ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。 FIG. 11A schematically shows adjacent images having a pixel value difference equal to or less than a predetermined number in the pixels constituting the traffic light object O 2 shown in FIG. 8 as a pixel group. In FIG. 11A, Gb1 and Gb4 are pixel groups that are adjacent images whose pixel value difference is equal to or less than a predetermined number at the imaging timing (t1 to t3) when the signal is blue (see FIG. 9B). ). Specifically, Gb1 represents a blue region, and Gb4 represents a black and gray region (see FIG. 8). That is, it is assumed that the difference between the pixel values (values indicating black) in the areas of the yellow lamp and the red lamp being turned off (values indicating black) and the pixel values (values indicating gray) in the areas other than the lamps is equal to or less than a predetermined value.

図11(b)において、Gb2及びGb4は、信号が黄のときの撮像タイミング(t4)において画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Gb2は黄色の領域、Gb4は黒色及び灰色の領域を表している(図8参照)。即ち、消灯中の青ランプ及び赤ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。   In FIG. 11B, Gb2 and Gb4 are pixel groups of adjacent images whose pixel value difference is equal to or smaller than a predetermined number at the imaging timing (t4) when the signal is yellow (see FIG. 9B). Specifically, Gb2 represents a yellow region and Gb4 represents a black and gray region (see FIG. 8). That is, it is assumed that the difference between the pixel values (values indicating black) in the areas of the blue lamp and the red lamp being turned off and the pixel values (values indicating gray) in the areas other than the lamps is equal to or less than a predetermined value.

図11(c)において、Gb3及びGb4は、信号が赤のときの撮像タイミング(t5〜t7)において画素値の差が所定数以下である隣接画像を画素グループである(図9(b)参照)。具体的には、Gb3は赤色の領域、Gb4は黒色及び灰色の領域を表している(図8参照)。即ち、消灯中の青ランプ及び黄ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。   In FIG. 11C, Gb3 and Gb4 are pixel groups of adjacent images whose pixel value difference is equal to or less than a predetermined number at the imaging timing (t5 to t7) when the signal is red (see FIG. 9B). ). Specifically, Gb3 represents a red region, and Gb4 represents a black and gray region (see FIG. 8). That is, the difference between the pixel values (values indicating black) in the areas of the blue lamp and the yellow lamp being turned off and the pixel values (values indicating gray) in the areas other than the lamps is not more than a predetermined value.

図11(d)は、オブジェクトOを図11(a)〜(c)の如く複数の画素グループに分割した場合における、オブジェクトOの空間的な変化のパターンを表すリズム情報である。図11(d)に示す各値(S1〜S7)は、リズム情報を構成する値であって、各撮像タイミングにおける各画素グループの分布(領域の形状)である。具体的には、S1は青ランプの領域r1−1−1、S2は黄ランプの領域r1−2−1、S3は赤ランプの領域r1−3−1、S4は青ランプ以外の領域、S5は黄ランプ以外の領域、S6は赤ランプ以外の領域の分布を表している。 FIG. 11 (d) in case of dividing the object O 2 into a plurality of pixel groups as shown in FIG. 11 (a) ~ (c) , a rhythm information representing the pattern of the spatial variation of the object O 2. Each value (S1 to S7) shown in FIG. 11D is a value constituting rhythm information and is a distribution (region shape) of each pixel group at each imaging timing. Specifically, S1 is a blue lamp area r1-1-1, S2 is a yellow lamp area r1-2-1, S3 is a red lamp area r1-3-1, S4 is a non-blue lamp area, S5. Represents a region other than the yellow lamp, and S6 represents a distribution of regions other than the red lamp.

即ち、図9(b)に示すように所定数の隣接画素を画素グループとしリズム情報を表現するのではなく、図10(b)又は図11(d)に示すように画素値の差が所定値以下である隣接画素を画素グループとしリズム情報を表現してもよく、図10(b)又は図11(d)に示すように画素値の差が所定値以下である隣接画素を画素グループとしリズム情報を表現した場合には、図9(b)に示すように所定数の隣接画素を画素グループとしリズム情報を表現した場合と同様に、リズム情報の類似度を算出する。   That is, the rhythm information is not expressed by using a predetermined number of adjacent pixels as a pixel group as shown in FIG. 9B, but the difference in pixel values is predetermined as shown in FIG. 10B or FIG. Rhythm information may be expressed by using adjacent pixels that are less than or equal to a pixel group as a pixel group, and adjacent pixels that have a pixel value difference that is less than or equal to a predetermined value as shown in FIG. When the rhythm information is expressed, the similarity of the rhythm information is calculated as in the case where the rhythm information is expressed with a predetermined number of adjacent pixels as a pixel group as shown in FIG.

以上、図5乃至図11を用いて、リズム情報を、オブジェクトの時間的な変化のパターンとして表現し、類似度を算出する場合(図5乃至図7)と、オブジェクトの空間的な変化のパターンとして表現し、類似度を算出する場合(図8乃至図11)とを個々に説明したが、リズム情報を、時間的な変化のパターン及び空間的な変化のパターンとして表現し、類似度を算出してもよい。即ち、類似度を算出する対象のリズム情報の形式が同一であれば、リズム情報同士の類似度の算出が可能であるため、オブジェクトの時間的な変化のパターンをリズム情報としても、オブジェクトの空間的な変化のパターンをリズム情報としても、両方のパターンをリズム情報としてもよい。なお、オブジェクトの空間的な変化のパターンとして、図8乃至図11においては、説明の便宜上、人物以外(信号機)をオブジェクトとする例を示したが、人物がオブジェクトとなる場合の一例は、色又は模様が前面と後面とで異なる服を着て人物が動作する場合など、その人物の動きに応じて色が変化する場合などである。   As described above, the rhythm information is expressed as the temporal change pattern of the object and the similarity is calculated using FIGS. 5 to 11 and the spatial change pattern of the object. The case where the similarity is calculated individually (FIGS. 8 to 11) has been described individually, but the rhythm information is expressed as a temporal change pattern and a spatial change pattern, and the similarity is calculated. May be. That is, if the format of the rhythm information for which the similarity is calculated is the same, the similarity between the rhythm information can be calculated. Therefore, even if the temporal change pattern of the object is used as the rhythm information, the space of the object A pattern of a typical change may be used as rhythm information, and both patterns may be used as rhythm information. 8 to 11 show examples of objects other than a person (traffic light) as an object for convenience of explanation as an example of a spatial change pattern of an object. Or when the person moves with different clothes on the front and back, or when the color changes according to the movement of the person.

図12は、電子機器1の動作の一例を示すフローチャートである。図12に示すフローチャートの開始時において、リズム情報記憶部90には複数のオブジェクト(人物)のリズム情報が記憶され、接続情報記憶部92には当該複数の他の電子機器100の接続情報が記憶されているものとする。   FIG. 12 is a flowchart illustrating an example of the operation of the electronic device 1. At the start of the flowchart shown in FIG. 12, the rhythm information storage unit 90 stores rhythm information of a plurality of objects (persons), and the connection information storage unit 92 stores connection information of the plurality of other electronic devices 100. It is assumed that

図12において、算出部20は、リズム情報記憶部90に記憶されている複数のオブジェクト(人物)のリズム情報の類似度を算出する(ステップS10)。算出部20は、類似度の算出結果をグループ化部30に出力する。   In FIG. 12, the calculation unit 20 calculates the similarity of rhythm information of a plurality of objects (persons) stored in the rhythm information storage unit 90 (step S10). The calculation unit 20 outputs the similarity calculation result to the grouping unit 30.

グループ化部30は、算出部20による類似度の算出結果に基づいて、当該複数のオブジェクト(人物)をグループ化し、グループ化情報を生成する(ステップS12)。グループ化部30は、グループ化情報をグループ化情報記憶部94に記憶する。グループ化部30は、グループ化情報をグループ化情報記憶部94に記憶した旨を表示部40に通知する。   The grouping unit 30 groups the plurality of objects (persons) based on the similarity calculation result by the calculation unit 20, and generates grouping information (step S12). The grouping unit 30 stores the grouping information in the grouping information storage unit 94. The grouping unit 30 notifies the display unit 40 that the grouping information has been stored in the grouping information storage unit 94.

表示部40は、グループ化情報及び接続情報を表示する(ステップS14)。具体的には、表示部40は、接続情報記憶部92とグループ化情報記憶部94とを参照し、グループ別に、当該グループにグループ化されたオブジェクト(人物)が携帯している夫々の電子機器100の機器IDと、当該電子機器100と通信するための接続情報とを表示する。   The display unit 40 displays grouping information and connection information (step S14). Specifically, the display unit 40 refers to the connection information storage unit 92 and the grouping information storage unit 94, and each electronic device carried by an object (person) grouped into the group for each group. 100 device IDs and connection information for communicating with the electronic device 100 are displayed.

送信部50は、接続情報記憶部92とグループ化情報記憶部94と動作制御情報記憶部96とを参照し、グループ別に、当該グループにグループ化されたオブジェクト(人物)が携帯している夫々の電子機器100が、同様に音声出力し、同様に発光し、又は、同様に振動するように、当該夫々の電子機器100に動作制御情報を送信する(ステップS16)。そして、本フローチャートは終了する。なお、送信部50は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を送信してもよい。   The transmission unit 50 refers to the connection information storage unit 92, the grouping information storage unit 94, and the operation control information storage unit 96, and each of the objects (persons) grouped in the group is carried by group. The operation control information is transmitted to each electronic device 100 so that the electronic device 100 outputs sound in the same manner, similarly emits light, or similarly vibrates (step S16). Then, this flowchart ends. The transmission unit 50 may transmit the operation control information when an operation reception unit (not shown) receives a predetermined user operation.

続いて、図1(b)に示す態様(自電子機器1を含む、複数の電子機器(電子機器1及び電子機器100)をグループ化の対象とする態様)について説明する。   Next, the mode illustrated in FIG. 1B (a mode in which a plurality of electronic devices (the electronic device 1 and the electronic device 100) including the own electronic device 1 are grouped) will be described.

図1(b)に示す態様の電子機器1の構成が、上述の図1(a)に示す態様の電子機器1の構成と異なる部分は、図2(c)に示すように、検出部12を有する点のみである。以下、差異部分(検出部12)を中心に説明する。   As shown in FIG. 2 (c), the detection unit 12 differs from the configuration of the electronic device 1 in the aspect shown in FIG. 1 (a) in the configuration of the electronic device 1 in the aspect shown in FIG. 1 (b). It is only the point which has. Hereinafter, the difference part (detection unit 12) will be mainly described.

電子機器1の検出部12は、自電子機器1の筐体の動きを検出する。検出部12によって検出された自電子機器1の筐体の動きは、当該電子機器1を携帯している人物(当該電子機器1のユーザ)のリズム情報としてリズム情報記憶部90に記憶する。つまり、図2(c)の態様の場合には、リズム情報記憶部90には、抽出部16によって撮像画像から抽出されたオブジェクト(例えば、他の電子機器100のユーザ)のリズム情報と、当該電子機器1のユーザのリズム情報とが記憶される。   The detection unit 12 of the electronic device 1 detects the movement of the housing of the electronic device 1. The movement of the housing of the electronic device 1 detected by the detection unit 12 is stored in the rhythm information storage unit 90 as rhythm information of the person carrying the electronic device 1 (the user of the electronic device 1). That is, in the case of the mode of FIG. 2C, the rhythm information storage unit 90 stores the rhythm information of the object (for example, the user of the other electronic device 100) extracted from the captured image by the extraction unit 16, and The rhythm information of the user of the electronic device 1 is stored.

算出部20は、取得部10によって取得されたオブジェクトのリズム情報の類似度を算出する。具体的には、算出部20は、検出部12によって検出された当該電子機器1の筐体の動きを示す動き情報(当該電子機器1のユーザのリズム情報)と、抽出部16によって抽出された他の人物のリズム情報との類似度を算出する。また、算出部20は、抽出部16によって抽出された他の人物同士のリズム情報の類似度を算出してもよい。   The calculation unit 20 calculates the similarity of the rhythm information of the object acquired by the acquisition unit 10. Specifically, the calculation unit 20 is extracted by the extraction unit 16 and movement information (the rhythm information of the user of the electronic device 1) indicating the movement of the casing of the electronic device 1 detected by the detection unit 12. The similarity with the rhythm information of another person is calculated. Further, the calculation unit 20 may calculate the degree of similarity of rhythm information between other persons extracted by the extraction unit 16.

グループ化部30は、算出部20によって算出された当該電子機器1のユーザのリズム情報と、他の電子機器100のユーザのリズム情報との類似度が所定の閾値以上である場合に、当該電子機器1のユーザと、他の携帯端末100のユーザを同一グループにグループ化する。また、グループ化部30は、他の電子機器100のユーザ同士の類似度が所定の閾値以上である場合にも、当該他のユーザ同士を同一グループにグループ化してもよい。   When the similarity between the rhythm information of the user of the electronic device 1 calculated by the calculation unit 20 and the rhythm information of the user of the other electronic device 100 is greater than or equal to a predetermined threshold, the grouping unit 30 The user of the device 1 and the user of the other portable terminal 100 are grouped into the same group. Further, the grouping unit 30 may group the other users into the same group even when the similarity between the users of the other electronic devices 100 is equal to or greater than a predetermined threshold.

グループ化部30によって何れかのグループに自電子機器1のユーザが、1以上の他の電子機器100のユーザとグループ化された場合には、自電子機器1と当該1以上の他の電子機器100とが、同様に音声出力し、同様に発光し、又は、同様に振動するように処理をする。例えば、送信部50が、動作制御情報記憶部96に記憶されている設定値(自電子機器1の設定値)と同一の値を他の電子機器100に送信してもよいし、設定部(非図示)が、送信部50によって他の電子機器100に送信する値(他の電子機器100に対する設定値)を、自電子機器1の設定値として動作制御情報記憶部96に記憶してもよい。   When the user of the electronic device 1 is grouped with a user of one or more other electronic devices 100 in any group by the grouping unit 30, the electronic device 1 and the one or more other electronic devices 100 performs processing so as to output sound in the same manner, emit light in the same manner, or vibrate in the same manner. For example, the transmission unit 50 may transmit the same value as the setting value (the setting value of the electronic device 1) stored in the operation control information storage unit 96 to another electronic device 100, or the setting unit ( A value (not shown) transmitted by the transmission unit 50 to the other electronic device 100 (a setting value for the other electronic device 100) may be stored in the operation control information storage unit 96 as a setting value of the own electronic device 1. .

図13は、電子機器1によるグループ化の結果を説明するための模式図である。
図13(a)は、図1(a)に示した態様におけるグループ化の結果であって、電子機器1が、5台の他の電子機器100(電子機器A〜E)のユーザのうち、3台の電子機器(電子機器A、C、D)のユーザをグループGとし、2台の電子機器(電子機器B、E)のユーザをグループGとし、更に、Gにグループ化されたユーザの電子機器(電子機器A、C、D)に同様に音声を出力させ、Gにグループ化されたユーザの電子機器(電子機器B、E)に同様に音声を出力させている様子を表している。
FIG. 13 is a schematic diagram for explaining the result of grouping by the electronic device 1.
FIG. 13A is a result of grouping in the mode illustrated in FIG. 1A, and the electronic device 1 is a user of five other electronic devices 100 (electronic devices A to E). three electronic devices (electronic devices a, C, D) a user of the group G 1, the two electronic devices (electronic devices B, E) the user of the group G 2, further grouped into G 1 how the electronic device of the user (the electronic equipment a, C, D) to output the audio similarly, are likewise to output audio to the grouped users of the electronic device (electronic equipment B, E) to G 2 was Represents.

つまり、電子機器1によれば、自分を除く複数の人物を簡便にグループ化することができる。また、同一のグループ化された人物が夫々に電子機器100を携帯している場合には、夫々が携帯している電子機器100に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。   That is, according to the electronic device 1, a plurality of persons other than oneself can be easily grouped. In addition, when the same grouped person carries the electronic device 100 respectively, the electronic device 100 carried by each person similarly outputs a sound, similarly emits light, or similarly It becomes possible to vibrate.

図13(b)は、図1(b)に示した態様におけるグループ化の結果であって、電子機器1が、自電子機器1のユーザ、及び、5台の電子機器(電子機器A〜E)のユーザのうち、4台の電子機器(自電子機器1、電子機器A、C、D)のユーザをグループGとし、更に、Gにグループ化されたユーザの電子機器(自電子機器1、電子機器A、C、D)に同様に音声を出力させている様子を表している。 FIG. 13B is a result of grouping in the mode shown in FIG. 1B, and the electronic device 1 is a user of the electronic device 1 and five electronic devices (electronic devices A to E). of user), four electronic equipment (the primary electronic device 1, the electronic device a, C, and group G 3 the user D), further, the electronic device (the primary electronic device users that are grouped into G 3 1, the electronic devices A, C, and D) are similarly outputting audio.

つまり、電子機器1によれば、自分を含む複数の人物を簡便にグループ化することができる。また、自分と同一のグループ化された人物が夫々に電子機器100を携帯している場合には、夫々が携帯している電子機器(電子機器1、電子機器100)に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。   That is, according to the electronic device 1, a plurality of persons including oneself can be easily grouped. In addition, when the same grouped person as the individual carries the electronic device 100, the same sound is output to the electronic devices (electronic device 1, electronic device 100) carried by each person. It is possible to emit light or vibrate in the same manner.

図13(c)は、図1(b)に示した態様におけるグループ化の結果であって、電子機器1が、自電子機器1のユーザ、及び、5台の電子機器(電子機器A〜E)のユーザのうち、4台の電子機器(自電子機器1、電子機器A、C、D)のユーザをグループGとし、2台の電子機器(電子機器B、E)のユーザをグループGとし、更に、Gにグループ化されたユーザの電子機器(自電子機器1、電子機器A、C、D)に同様に音声を出力させ、Gにグループ化された電子機器(電子機器B、E)に同様に音声を出力させている様子を表している。 FIG. 13C shows a result of grouping in the mode shown in FIG. 1B, in which the electronic device 1 is a user of the electronic device 1 and five electronic devices (electronic devices A to E). of user), four electronic equipment (the primary electronic device 1, the electronic device a, C, and group G 3 the user D), a group of users of the two electronic devices (electronic devices B, E) G 2, and further, the electronic device of the user that are grouped into G 3 (the primary electronic device 1, the electronic device a, C, D) in the same manner as to output sound, electronic devices (electronic devices that are grouped into G 2 B, E) shows a state in which sound is output in the same manner.

つまり、電子機器1によれば、自分を含む複数の人物を簡便にグループ化し、また、自分を含まない複数の人物を簡便にグループ化することができる。また、同一のグループ化された人物が夫々に電子機器(電子機器100)を携帯している場合には、夫々が携帯している電子機器(電子機器1、電子機器100)に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。   That is, according to the electronic device 1, a plurality of persons including himself can be easily grouped, and a plurality of persons not including himself can be easily grouped. In addition, when the same grouped person carries an electronic device (electronic device 100), the same sound is sent to the electronic device (electronic device 1, electronic device 100) carried by each person. It is possible to output and similarly emit light or vibrate similarly.

以上、電子機器1によれば、オブジェクトを簡便にグループ化する。また、電子機器1によれば、同一グループにグループ化したオブジェクトである人物が携帯している複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。   As described above, according to the electronic apparatus 1, objects are easily grouped. Further, according to the electronic device 1, it is possible to similarly output sound, emit light in the same manner, or vibrate similarly to a plurality of electronic devices carried by persons who are objects grouped in the same group. become.

なお、本発明の一実施形態による電子機器1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、電子機器1の各処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Note that a program for executing each process of the electronic apparatus 1 according to an embodiment of the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Thus, each process of the electronic device 1 may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1…電子機器、10…取得部、12…検出部、14…撮像部、16…抽出部、20…算出部、30…グループ化部、40…表示部、50…送信部、60…動作制御部、90…リズム情報記憶部、92…接続情報記憶部、94…グループ化情報記憶部、96…動作制御情報記憶部、100…電子機器(他の電子機器)、140…表示部、150…送受信部、160…動作制御部、196…動作制御情報記憶部 DESCRIPTION OF SYMBOLS 1 ... Electronic device, 10 ... Acquisition part, 12 ... Detection part, 14 ... Imaging part, 16 ... Extraction part, 20 ... Calculation part, 30 ... Grouping part, 40 ... Display part, 50 ... Transmission part, 60 ... Operation control 90 ... rhythm information storage unit, 92 ... connection information storage unit, 94 ... grouping information storage unit, 96 ... operation control information storage unit, 100 ... electronic device (other electronic device), 140 ... display unit, 150 ... Transmission / reception unit, 160 ... operation control unit, 196 ... operation control information storage unit

Claims (6)

撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する取得部と、
前記取得部によって取得された各オブジェクトの前記リズム情報の類似度を算出する算出部と、
前記算出部によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記各オブジェクトをグループ化するグループ化情報を生成するグループ化部と
を備えることを特徴とする電子機器。
An acquisition unit for acquiring rhythm information representing a temporal or spatial change pattern of an object in the captured image;
A calculation unit that calculates the similarity of the rhythm information of each object acquired by the acquisition unit;
An electronic apparatus comprising: a grouping unit that generates grouping information for grouping the objects based on the similarity of the rhythm information of the objects calculated by the calculation unit.
請求項1に記載の電子機器において、
前記取得部は、
撮像部と、
前記撮像部によって撮像された撮像画像内のオブジェクトの前記リズム情報を抽出する抽出部と
を有し、
前記算出部は、
前記抽出部によって抽出された第1の他の人物の前記リズム情報と第2の他の人物の前記リズム情報との類似度を算出し、
前記グループ化部は、
前記算出部によって算出された前記第1の他の人物の前記リズム情報と前記第2の他の人物の前記リズム情報との類似度が所定の閾値以上である場合に、前記第1の他の人物と前記第2の他の人物を同一グループにグループ化することを特徴とする電子機器。
The electronic device according to claim 1,
The acquisition unit
An imaging unit;
An extraction unit that extracts the rhythm information of the object in the captured image captured by the imaging unit;
The calculation unit includes:
Calculating the similarity between the rhythm information of the first other person extracted by the extraction unit and the rhythm information of the second other person;
The grouping unit
When the similarity between the rhythm information of the first other person calculated by the calculation unit and the rhythm information of the second other person is greater than or equal to a predetermined threshold, the first other person An electronic apparatus, wherein a person and the second other person are grouped into the same group.
請求項1に記載の電子機器において、
前記取得部は、
当該電子機器の筐体の動きを検出する検出部と、
撮像部と、
前記撮像部によって撮像された撮像画像内のオブジェクトの前記リズム情報を抽出する抽出部と
を有し、
前記算出部は、
前記検出部によって検出された当該電子機器の筐体の動きを示す動き情報を当該電子機器のユーザの前記リズム情報とし、当該電子機器のユーザの前記リズム情報と前記抽出部によって抽出された他の人物の前記リズム情報との類似度を算出し、
前記グループ化部は、
前記算出部によって算出された当該電子機器のユーザの前記リズム情報と前記他の人物の前記リズム情報との類似度が所定の閾値以上である場合に、当該電子機器のユーザと前記他の人物を同一グループにグループ化することを特徴とする電子機器。
The electronic device according to claim 1,
The acquisition unit
A detection unit for detecting the movement of the casing of the electronic device;
An imaging unit;
An extraction unit that extracts the rhythm information of the object in the captured image captured by the imaging unit;
The calculation unit includes:
The movement information indicating the movement of the casing of the electronic device detected by the detection unit is used as the rhythm information of the user of the electronic device, and the rhythm information of the user of the electronic device and the other extracted by the extraction unit Calculate the similarity of the person with the rhythm information,
The grouping unit
When the similarity between the rhythm information of the user of the electronic device calculated by the calculation unit and the rhythm information of the other person is equal to or greater than a predetermined threshold, the user of the electronic device and the other person are Electronic devices that are grouped into the same group.
請求項2又は請求項3に記載の電子機器は、
前記グループ化部によって同一グループにグループ化された他の人物と通信するための接続情報を表示する表示部を更に備えることを特徴とする電子機器。
The electronic device according to claim 2 or claim 3,
An electronic apparatus, further comprising: a display unit that displays connection information for communicating with another person grouped in the same group by the grouping unit.
請求項2から請求項4の何れか1項に記載の電子機器は、
前記グループ化部によって同一グループにグループ化された人物の携帯する電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器に動作制御情報を送信する送信部を更に備えることを特徴とする電子機器。
The electronic device according to any one of claims 2 to 4,
Sending operation control information to other electronic devices so that electronic devices carried by persons grouped in the same group by the grouping unit similarly output sound, emit light in the same manner, or vibrate similarly. An electronic apparatus, further comprising:
撮像画像内のオブジェクトをグループ化する電子機器におけるグループ化方法であって、
前記電子機器の取得手段が、撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得し、
前記電子機器の算出手段が、前記取得手段によって取得された各オブジェクトの前記リズム情報の類似度を算出し、
前記電子機器のグループ化手段が、前記算出手段によって算出された各オブジェクトの前記リズム情報の類似度に基づいて、前記各オブジェクトをグループ化するグループ化情報を生成する
ことを特徴とするグループ化方法。
A grouping method in an electronic device for grouping objects in a captured image,
The acquisition unit of the electronic device acquires rhythm information representing a temporal or spatial change pattern of an object in a captured image,
The electronic device calculation means calculates the similarity of the rhythm information of each object acquired by the acquisition means,
The grouping unit of the electronic device generates grouping information for grouping the objects based on the similarity of the rhythm information of the objects calculated by the calculating unit. .
JP2011046397A 2011-03-03 2011-03-03 Electronic device and grouping method Pending JP2012186536A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011046397A JP2012186536A (en) 2011-03-03 2011-03-03 Electronic device and grouping method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011046397A JP2012186536A (en) 2011-03-03 2011-03-03 Electronic device and grouping method

Publications (1)

Publication Number Publication Date
JP2012186536A true JP2012186536A (en) 2012-09-27

Family

ID=47016240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011046397A Pending JP2012186536A (en) 2011-03-03 2011-03-03 Electronic device and grouping method

Country Status (1)

Country Link
JP (1) JP2012186536A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352291A (en) * 2000-06-08 2001-12-21 Sony Corp Monitor and information providing unit
JP2006166408A (en) * 2004-11-09 2006-06-22 Canon Inc Imaging apparatus and control method thereof
JP2006338273A (en) * 2005-06-01 2006-12-14 Nissan Motor Co Ltd On-vehicle object detector, and object detection method
JP2007114885A (en) * 2005-10-18 2007-05-10 National Institute Of Information & Communication Technology Classification method and device by similarity of image
JP2009042941A (en) * 2007-08-07 2009-02-26 Honda Motor Co Ltd Object type decision device, vehicle, object type decision method, and program for object type decision
JP2010244194A (en) * 2009-04-02 2010-10-28 Toyota Motor Corp Object identification device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352291A (en) * 2000-06-08 2001-12-21 Sony Corp Monitor and information providing unit
JP2006166408A (en) * 2004-11-09 2006-06-22 Canon Inc Imaging apparatus and control method thereof
JP2006338273A (en) * 2005-06-01 2006-12-14 Nissan Motor Co Ltd On-vehicle object detector, and object detection method
JP2007114885A (en) * 2005-10-18 2007-05-10 National Institute Of Information & Communication Technology Classification method and device by similarity of image
JP2009042941A (en) * 2007-08-07 2009-02-26 Honda Motor Co Ltd Object type decision device, vehicle, object type decision method, and program for object type decision
JP2010244194A (en) * 2009-04-02 2010-10-28 Toyota Motor Corp Object identification device

Similar Documents

Publication Publication Date Title
CN106383587B (en) Augmented reality scene generation method, device and equipment
CN109427083B (en) Method, device, terminal and storage medium for displaying three-dimensional virtual image
CN108259990B (en) Video editing method and device
US10776618B2 (en) Mobile terminal and control method therefor
CN105637529B (en) Image capture input and projection output
CN109923500A (en) Augmented reality display device with deep learning sensor
JP2020096269A (en) Video distribution system, video distribution method, and video distribution program
US9888090B2 (en) Magic wand methods, apparatuses and systems
CN106062862A (en) System and method for immersive and interactive multimedia generation
US20160342202A1 (en) Virtual reality apparatus, feedback apparatus, and system and method for providing realistic service
CN108572728B (en) Information processing apparatus, information processing method, and program
US9301268B2 (en) Device synchronization
US20170038912A1 (en) Information providing device
US10242253B2 (en) Detection apparatus, detection method, and computer program product
CN108492154A (en) A kind of intelligent projection mapping method and its system based on the storage of block chain
CN109272473A (en) A kind of image processing method and mobile terminal
KR101690656B1 (en) Method and apparatus for generating media signal
CN113014960B (en) Method, device and storage medium for online video production
US11455035B2 (en) Inputs to virtual reality devices from touch surface devices
JP2015114946A (en) Image processor, program, and image processing method
JP2012186536A (en) Electronic device and grouping method
JP2012186535A (en) Electronic device and grouping method
WO2012118138A1 (en) Electronic device and grouping method
JP6885402B2 (en) Information processing equipment, information processing methods, and programs
CN109471541A (en) Air mouse method for tracing, system and storage medium based on virtual screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150317