WO2012118138A1 - 電子機器及びグループ化方法 - Google Patents

電子機器及びグループ化方法 Download PDF

Info

Publication number
WO2012118138A1
WO2012118138A1 PCT/JP2012/055188 JP2012055188W WO2012118138A1 WO 2012118138 A1 WO2012118138 A1 WO 2012118138A1 JP 2012055188 W JP2012055188 W JP 2012055188W WO 2012118138 A1 WO2012118138 A1 WO 2012118138A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
information
unit
rhythm information
similarity
Prior art date
Application number
PCT/JP2012/055188
Other languages
English (en)
French (fr)
Inventor
幹也 田中
雅也 前田
山口 明
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011046396A external-priority patent/JP2012186535A/ja
Priority claimed from JP2012040004A external-priority patent/JP6003084B2/ja
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to EP12753041.8A priority Critical patent/EP2683152A4/en
Publication of WO2012118138A1 publication Critical patent/WO2012118138A1/ja
Priority to US14/016,719 priority patent/US20140003730A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present invention relates to an electronic device and a grouping method.
  • This application includes Japanese Patent Application No. 2011-046396 filed on March 3, 2011, Japanese Patent Application No. 2011-051536 filed on March 9, 2011, and Japanese Patent Application No. 2011-051536 filed on February 27, 2012. Claim priority based on application 2012-40004, the contents of which are incorporated herein.
  • Patent Document 1 Conventionally, an imaging apparatus that groups input images by evaluating similarity between input images has been disclosed (see, for example, Patent Document 1).
  • an electronic device that groups images such as the imaging device disclosed in Patent Document 1
  • the grouping target is an image
  • the electronic device itself is not a grouping target.
  • various application processes that can be realized when the electronic devices themselves are grouped for example, a plurality of electronic devices grouped in the same group output sound in the same manner, emit light in the same manner, or vibrate in the same manner.
  • the aspect which concerns on this invention aims at providing the technique which groups a some electronic device easily.
  • An electronic device includes an acquisition unit that acquires a plurality of rhythm information representing movements of a housing of each of a plurality of electronic devices, and the plurality of electronic devices acquired by the acquisition unit.
  • a calculation unit that calculates the similarity of rhythm information, and grouping information that groups the plurality of electronic devices based on the similarity of the plurality of rhythm information of the plurality of electronic devices calculated by the calculation unit And a grouping unit for generating.
  • the acquisition unit includes a reception unit that receives the rhythm information of a casing of another electronic device
  • the calculation unit includes the first other electronic device received by the reception unit.
  • the similarity between the rhythm information and the rhythm information of the second other electronic device received by the receiving unit is calculated, and the grouping unit calculates the first other electronic calculated by the calculating unit.
  • the similarity between the rhythm information of the device and the rhythm information of the second other electronic device is greater than or equal to a predetermined threshold, the first other electronic device and the second other electronic device May be grouped into the same group.
  • the acquisition unit includes a detection unit that detects the movement of the housing of the electronic device, and a reception unit that receives the rhythm information of the housing of another electronic device
  • the calculation unit includes: Calculating the similarity between the rhythm information representing the movement of the housing of the electronic device detected by the detection unit and the rhythm information of the other electronic device received by the receiving unit; And when the similarity between the rhythm information of the electronic device calculated by the calculating unit and the rhythm information of the other electronic device is equal to or greater than a predetermined threshold,
  • the electronic devices may be grouped into the same group.
  • An electronic apparatus includes a plurality of rhythms representing how a user grips the casing based on a detection result by a detection unit that detects a contact position on each side of each casing of the plurality of electronic apparatuses.
  • An acquisition unit that acquires information; a calculation unit that calculates a degree of similarity of the plurality of rhythm information of the plurality of electronic devices acquired by the acquisition unit; and the plurality of electronic devices calculated by the calculation unit
  • a grouping unit that generates grouping information for grouping the plurality of electronic devices based on the similarity of the plurality of rhythm information.
  • An electronic device acquires a plurality of rhythm information representing a temporal or spatial change pattern of an object in a captured image in each of a plurality of electronic devices, and the acquisition unit acquires the rhythm information.
  • a plurality of electronic devices based on the similarity of the plurality of rhythm information of the objects calculated by the calculation unit; And a grouping unit for generating grouping information for grouping.
  • the acquisition unit includes a reception unit that receives the rhythm information of an object in a captured image captured by another electronic device, and the calculation unit receives the first received by the reception unit.
  • the rhythm information of the object in the first other captured image captured by the other electronic device and the second other captured image captured by the second other electronic device received by the receiving unit The similarity of the object to the rhythm information is calculated, and the grouping unit calculates the rhythm information of the object in the first other captured image calculated by the calculator and the second other
  • the first other electronic device and the second other electronic device are grouped into the same group. It may be turned into.
  • the acquisition unit includes an imaging unit and a reception unit that receives the rhythm information of an object in a captured image captured by another electronic device, and the calculation unit captures an image by the imaging unit. Calculating the similarity between the rhythm information of the object in the captured self-captured image and the rhythm information of the object in another captured image captured by the other electronic device received by the receiving unit, When the similarity between the rhythm information of the object in the self-captured image calculated by the calculation unit and the rhythm information of the object in the other captured image is greater than or equal to a predetermined threshold
  • the electronic device and the other electronic device may be grouped into the same group.
  • the display device may further include a display unit that displays connection information for communicating with other electronic devices grouped into the same group by the grouping unit.
  • the operation control information is transmitted to the other electronic devices so that the plurality of electronic devices grouped into the same group by the grouping unit similarly outputs sound, emits light in the same manner, or vibrates in the same manner. You may further provide the transmission part which transmits.
  • One aspect according to the present invention is a method for grouping a plurality of electronic devices, wherein a plurality of pieces of rhythm information representing movements of a case of each of the plurality of electronic devices are acquired; Grouping to group the plurality of electronic devices based on the similarity of the plurality of rhythm information of the plurality of electronic devices calculated based on the similarity of the plurality of rhythm information of the plurality of electronic devices calculated Generating information.
  • One aspect according to the present invention is a method for grouping a plurality of electronic devices, wherein a plurality of rhythm information representing a temporal or spatial change pattern of an object in a captured image in each of the plurality of electronic devices is represented. Obtaining the similarity of the plurality of rhythm information of the acquired objects, and calculating the similarity of the plurality of rhythm information of the objects. Generating grouping information for grouping devices.
  • a plurality of electronic devices can be easily grouped.
  • generation of the said rhythm information, and the calculation of the similarity in the said rhythm information It is explanatory drawing for demonstrating the rhythm information showing the temporal change pattern of an object, the production
  • generation of the said rhythm information, and the calculation of the similarity in the said rhythm information It is explanatory drawing for demonstrating the rhythm information showing the temporal change pattern of an object, the production
  • generation of the said rhythm information, and the calculation of the similarity in the said rhythm information It is explanatory drawing for demonstrating the rhythm information showing the temporal change pattern of an object, the production
  • rhythm information showing the pattern of the spatial change of an object, the production
  • rhythm information showing the pattern of the spatial change of an object, the production
  • FIG. 1A and 1B are schematic views for explaining an outline of processing of the electronic apparatus 1 according to the first embodiment of the present invention.
  • the electronic device 1 groups a plurality of electronic devices (for example, portable electronic devices). For example, as illustrated in FIG. 1A, the electronic device 1 groups a plurality of other electronic devices 100 existing around the electronic device 1. That is, the electronic device 1 sets a plurality of electronic devices 100 excluding its own electronic device 1 as a grouping target as illustrated by a broken line. Further, for example, as shown in FIG. 1B, the electronic device 1 groups the electronic device 1 and a plurality of other electronic devices 100 existing around the electronic device 1. In other words, the electronic device 1 targets a plurality of electronic devices (the electronic device 1 and the electronic device 100) including the own electronic device 1 as shown in the broken line.
  • the electronic device 1 targets a plurality of electronic devices (the electronic device 1 and the electronic device 100) including the own electronic device 1 as shown in the broken line.
  • each of the electronic device 1 and the plurality of other electronic devices 100 automatically exchange mutual connection information (described later) by communication when approaching within a predetermined distance, for example.
  • FIG. 1A a mode in which a plurality of electronic devices 100 excluding the own electronic device 1 are grouped
  • FIG. 1B a mode in which a plurality of electronic devices (the electronic device 1 and the electronic device 100) including the own electronic device 1 are targets of grouping) will be described later.
  • FIG. 2A to 2C are configuration diagrams illustrating an example of the electronic device 1.
  • FIG. 3A to 3E are examples of information that the electronic device 1 acquires or stores.
  • the electronic device 1 includes an acquisition unit 10, a calculation unit 20, a grouping unit 30, a display unit 40, a transmission unit 50, an operation control unit 60, a rhythm information storage unit 90, a connection information storage unit 92, A grouping information storage unit 94 and an operation control information storage unit 96 are provided.
  • the acquisition unit 10 includes a reception unit 12 as illustrated in FIG. 2B.
  • the acquisition unit 10 may include a detection unit 14 in addition to the reception unit 12 as illustrated in FIG. 2C.
  • the detection unit 14 is not essential, so that it will be described as not having the detection unit 14.
  • the acquisition unit 10 acquires rhythm information representing the movement of the casing of the other electronic device 100. Specifically, as shown in FIG. 3A, the receiving unit 12 in the acquiring unit 10 receives the other electronic device 100 together with the device ID and connection information of the other electronic device 100 from each other electronic device 100. 100 rhythm information is received.
  • the device ID is identification information for identifying each electronic device 100.
  • the connection information is information for communicating with each of the electronic devices 100, and is, for example, information related to a protocol, address information, or the like.
  • one other electronic device 100 does not transmit connection information together with the rhythm information to the electronic device 1 (for example, before the transmission of the rhythm information, the other electronic device 100 has already been transmitted together with the device ID).
  • the receiving unit 12 receives the rhythm information of the other electronic device 100 together with the device ID of the other electronic device 100. That is, in the above case, the receiving unit 12 does not receive connection information together with rhythm information.
  • the rhythm information received by the receiving unit 12 includes movement information (for example, period, amplitude) in the height direction of the casing (ie, the longitudinal direction of the casing), and the width direction of the casing. It includes one or more pieces of movement information, that is, movement information in the direction of the short side of the casing and movement information in the thickness direction of the casing. Note that the rhythm information shown in FIG.
  • rhythm information received by the receiving unit 12 is motion information about the height direction of the housing (for example, instead of or in addition to the motion information above) (for example, , Rotation angle around the axis, period), movement information about the width direction of the casing, movement information about the thickness direction of the casing, movement information to the north-south direction, movement to the east-west direction It may include one or more of information, movement information in the vertical direction, movement information in the north-south direction, movement information in the east-west direction, and movement information in the vertical direction.
  • each piece of motion information constituting the rhythm information is a detected value detected by another electronic device 100 or an index (level) corresponding to the detected value.
  • the index corresponding to the detected value may be, for example, a three-stage level of a fast movement, a normal movement, and a slow movement with respect to the period, and a large movement, a normal movement, and a small with respect to the amplitude. There may be three levels of movement.
  • the acquisition unit 10 (reception unit 12) that acquired the rhythm information stores the acquired (received) rhythm information in the rhythm information storage unit 90.
  • the acquisition unit 10 stores rhythm information in association with the device ID.
  • the acquisition unit 10 that acquired the rhythm information stores the connection information acquired together with the rhythm information in the connection information storage unit 92.
  • the acquisition unit 10 stores connection information in association with the device ID.
  • the acquisition unit 10 has already acquired (exchanged) the connection information of the other electronic device 100 together with the device ID.
  • connection information is stored in association with the device ID.
  • the calculation unit 20 calculates the similarity of the rhythm information of the plurality of other electronic devices 100 acquired by the acquisition unit 10. That is, the calculation unit 20 calculates the similarity of the rhythm information between the electronic devices 100 stored in the rhythm information storage unit 90. That is, the calculation unit 20 includes the rhythm information of the first other electronic device 100 (one electronic device 100) and the rhythm of the second other electronic device 100 (the electronic device 100 other than the one electronic device 100). The similarity with the information is calculated.
  • the calculating unit 20 calculates the similarity between the same type of motion information constituting the rhythm information, and based on the similarity between the plurality of the same type of motion information, the first other The similarity between the rhythm information of the electronic device 100 and the rhythm information of the second other electronic device is calculated.
  • the rhythm information is obtained from three pieces of movement information: movement information in the height direction of the casing, movement information in the width direction of the casing, and movement information in the thickness direction of the casing.
  • the calculation unit 20 includes movement information in the height direction of the housing of the first other electronic device 100 and movement information in the height direction of the housing of the second other electronic device 100.
  • the similarity between the movement information in the width direction of the housing of the first other electronic device 100 and the movement information in the width direction of the housing of the second other electronic device 100 is calculated. Calculating the degree of similarity, and calculating the similarity between the movement information in the thickness direction of the casing of the first other electronic device 100 and the movement information in the thickness direction of the casing of the second other electronic device 100, Based on these three similarities, the similarity between the rhythm information of the first other electronic device 100 and the rhythm information of the second other electronic device Calculated to.
  • the calculation unit 20 includes a value of motion information (for example, a period) in the height direction of the casing of the first other electronic device 100 and a height of the casing of the second other electronic device 100.
  • a value obtained by comparing the value of motion information (for example, a period) in the vertical direction and dividing one of the smaller values by the other of the larger values may be used as the similarity between the motion information in the height direction of the housing.
  • the similarity between the pieces of motion information in the height direction of the casing is in the range of 0 to 1, and the closer the similarity is, the closer the value is to 1.
  • the similarity between the rhythm information of the first other electronic device 100 and the rhythm information of the second other electronic device is calculated based on the similarity between the motion information of the same type constituting the rhythm information.
  • the calculation unit 20 calculates the average value of the similarity between the pieces of motion information, the rhythm information of the first other electronic device 100, and the second other It is good also as similarity with the rhythm information of other electronic devices. That is, in the above example, the calculation unit 20 calculates the similarity between the movement information in the height direction of the casing, the similarity between the movement information in the width direction of the casing, and the movement in the thickness direction of the casing.
  • the average value of the similarity between the information may be the similarity between the rhythm information of the first other electronic device 100 and the rhythm information of the second other electronic device.
  • the similarity between the rhythm information of the first other electronic device 100 and the rhythm information of the second other electronic device is in the range of 0 to 1, and the closer the similarity is, the closer it is to 1. Value.
  • the average value may be calculated after weighting the similarity between predetermined pieces of motion information.
  • the average value is not limited to an arithmetic average, and a geometric average may be used.
  • the median value of the similarity between the motion information, the maximum value of the similarity between the motion information, and the minimum value of the similarity between the motion information are set as the first other electronic devices.
  • the degree of similarity between the 100 rhythm information and the rhythm information of the second other electronic device may be used.
  • the timing at which the calculation unit 20 starts calculating the similarity is not particularly limited.
  • the calculation unit 20 calculates the similarity when an operation reception unit (not shown) receives a predetermined user operation. May be.
  • the calculation unit 20 that has calculated the similarity of the rhythm information of a plurality of other electronic devices 100 outputs the calculation result of the similarity to the grouping unit 30.
  • the grouping unit 30 groups the plurality of other electronic devices 100 based on the rhythm information similarity (similarity calculation result) of the plurality of other electronic devices 100 calculated by the calculation unit 20 ( That is, grouping information (described later) that is a result of grouping is generated). More specifically, the grouping unit 30 has a similarity between the rhythm information of the first other electronic device 100 calculated by the calculation unit 20 and the rhythm information of the second other electronic device equal to or greater than a predetermined threshold. In some cases, the first other electronic device 100 and the second other electronic device 100 are grouped into the same group.
  • the grouping unit 30 has a similarity of the rhythm information of the electronic devices A and B that is equal to or greater than a predetermined threshold and the similarity of the rhythm information of the electronic devices A and C.
  • a predetermined threshold is equal to or greater than a predetermined threshold
  • the rhythm information similarity of the electronic devices B and C is equal to or greater than the predetermined threshold
  • the electronic devices A, B, and C are grouped into the same group.
  • the grouping unit 30 supposes that the electronic device A, the similarity of the rhythm information of the electronic devices A and B and the similarity of the rhythm information of the electronic devices B and C are both equal to or greater than a predetermined threshold.
  • the similarity of the rhythm information of C is not equal to or greater than a predetermined threshold, the electronic devices A, B, and C are not grouped into the same group.
  • the grouping unit 30 has both the similarity of the rhythm information of the electronic devices A and B and the similarity of the rhythm information of the electronic devices B and C are equal to or greater than a predetermined threshold, and the electronic devices A and C If the similarity of the rhythm information of the electronic devices A and B is not equal to or greater than a predetermined threshold, the similarity of the rhythm information of the electronic devices A and B is compared with the similarity of the rhythm information of the electronic devices B and C. Any one of the devices C and the electronic device B may be grouped into the same group. That is, when the similarity of the rhythm information of the electronic devices A and B is higher than the similarity of the rhythm information of the electronic devices B and C, the electronic devices A and B are grouped into the same group. When the similarity of the rhythm information is higher than the similarity of the rhythm information of the electronic devices A and B, the electronic devices B and C may be grouped into the same group.
  • timing at which the grouping unit 30 starts grouping the plurality of other electronic devices 100 is not particularly limited. For example, when the grouping unit 30 acquires the similarity calculation result from the calculation unit 20, You may group.
  • the grouping unit 30 that groups a plurality of other electronic devices 100 stores the grouping information in the grouping information storage unit 94.
  • the grouping unit 30 stores the group ID and the belonging device information in association with each other as grouping information in the grouping information storage unit 94.
  • the group ID is identification information for identifying each group.
  • the belonging device information is information including a device ID for identifying the electronic devices 100 belonging to the group (that is, the electronic devices 100 grouped in the group).
  • the display unit 40 displays various information. For example, the display unit 40 displays connection information for communicating with other electronic devices 100 grouped into the same group by the grouping unit 30. Specifically, the display unit 40 refers to the connection information storage unit 92 and the grouping information storage unit 94, and, for each group, the device ID of the other electronic device 100 grouped in the group and the other Connection information for communicating with the electronic device 100 is displayed. The display unit 40 may display only the device ID for each group without displaying the connection information.
  • the timing at which the display unit 40 starts displaying the grouping information and connection information is not particularly limited.
  • the display unit 40 may perform grouping when the grouping information is stored in the grouping information storage unit 94.
  • Information and connection information may be displayed.
  • the display unit 40 may display grouping information and connection information when an operation receiving unit (not shown) receives a predetermined user operation.
  • the display unit 40 displays the operation control information stored in the operation control information storage unit 96.
  • FIG. 3E is an example of the operation control information stored in the operation control information storage unit 96.
  • the operation control information is control information for controlling the operation of the electronic devices 1 and 100.
  • One or more control information of information and vibration control information for controlling vibration is included.
  • Each control information (audio output control information, light emission control information, vibration control information) has a plurality of settable values (or settable ranges).
  • the operation control information illustrated in FIG. 3E is an example, and may include other control information for controlling other operations of the electronic devices 1 and 100.
  • the timing at which the display unit 40 starts displaying the operation control information is not particularly limited.
  • the display unit 40 displays the operation control information when an operation receiving unit (not shown) receives a predetermined user operation. It may be displayed.
  • the display unit 40 displays a button (corresponding to the operation reception unit) for confirming a value (setting value) to be transmitted, and by pressing the button, You may display the value to transmit before transmission.
  • the transmission unit 50 transmits various information.
  • the transmission unit 50 transmits the grouping information to the other electronic device 100.
  • the transmission unit 50 refers to the grouping information storage unit 94 and, for each group of other electronic devices 100 grouped in the group, the other electronic devices 100 belonging to the group.
  • the device ID is transmitted.
  • the transmission unit 50 may be configured so that the plurality of electronic devices 100 grouped into the same group by the grouping unit 30 outputs sound in the same manner, emits light in the same manner, or vibrates in the same manner.
  • the operation control information is transmitted to 100.
  • the transmission unit 50 refers to the connection information storage unit 92, the grouping information storage unit 94, and the operation control information storage unit 96, and the other electronic devices 100 grouped into the group are grouped by group.
  • the operation control information is transmitted to each of the other electronic devices 100 grouped in each group so that each outputs sound similarly, similarly emits light, or similarly vibrates.
  • the audio output control information having the same setting value (for example, setting value b) is transmitted to each of the plurality of electronic devices 100 that have been converted into the same.
  • the grouped respective electronic device 100 to the group G 1 and outputs sound in accordance with control by the set value a, grouped respective electronic device 100 to the group G 2, under the control of the set value b Sound will be output.
  • the timing at which the transmission unit 50 starts transmitting the operation control information is not particularly limited.
  • the transmission unit 50 receives the operation control information when an operation reception unit (not shown) receives a predetermined user operation. You may send it.
  • the operation control unit 60 controls various operations based on the operation control information stored in the operation control information storage unit 96. For example, control is performed so that sound is output according to the setting value set by the setting unit (not shown) among the settable values of the audio output control information, and the setting unit (not shown) among the settable values of the light emission control information. Control is performed so that light is emitted according to the set value, and vibration is controlled according to the set value set by a setting unit (not shown) among the settable values of the vibration control information.
  • the setting unit (not shown) stores the setting value in the operation control information storage unit 96 when the operation receiving unit (not shown) receives a user operation for specifying the setting value.
  • FIG. 4 is a configuration diagram illustrating an example of another electronic device 100.
  • the other electronic device 100 includes a detection unit 114, a display unit 140, a transmission / reception unit 150, an operation control unit 160, and an operation control information storage unit 196.
  • the detection unit 114 detects the movement of the casing of the electronic device 100. That is, the detection unit 114 acquires motion information.
  • the detection unit 114 includes movement information in the height direction of the casing, movement information in the width direction of the casing, movement information in the thickness direction of the casing, and movement about the height direction of the casing. Information, movement information about the width direction of the casing, movement information about the thickness direction of the casing, movement information to the north-south direction, movement information to the east-west direction, movement information to the top and bottom direction, north-south direction
  • One or more pieces of movement information are acquired from movement information about the axis, movement information about the east-west direction, and movement information about the vertical direction.
  • the detection unit 114 that has acquired the motion information outputs the detection value of the acquired motion information to the transmission / reception unit 150 as rhythm information.
  • the detection unit 114 may calculate an index corresponding to the detection value described above, and output the index to the transmission / reception unit 150 as rhythm information.
  • the transmission / reception unit 150 transmits / receives various information to / from other electronic devices (electronic device 1, other electronic device 100). For example, the transmission / reception unit 150 transmits the rhythm information acquired from the detection unit 114 together with the device ID and connection information of the electronic device 100 to the electronic device 1.
  • the transmission / reception unit 150 transmits the connection information together with the rhythm information. You do not have to send it.
  • the transmission / reception unit 150 receives grouping information from the electronic device 1.
  • the transmission / reception unit 150 outputs the received grouping information to the display unit 140.
  • the transmission / reception unit 150 receives operation control information including a set value from the electronic device 1.
  • the transmission / reception unit 150 stores (updates) the setting value of the operation control information in the operation control information storage unit 196 via a setting unit (not shown).
  • the configuration of the operation control information storage unit 196 is the same as that of the operation control information storage unit 96 of the electronic device 1 (see FIG. 3E).
  • Display unit 140 displays various information. For example, grouping information and operation control information received from the electronic device 1 are displayed.
  • the operation control unit 160 controls various operations based on the operation control information stored in the operation control information storage unit 196. For example, control is performed so that sound is output according to the setting value set by the setting unit (not shown) among the settable values of the audio output control information, and the setting unit (not shown) among the settable values of the light emission control information. Control is performed so that light is emitted according to the set value, and vibration is controlled according to the set value set by a setting unit (not shown) among the settable values of the vibration control information.
  • the other electronic device 100 that has received the operation control information (setting value) transmitted from the electronic device 1 operates according to the operation control information (setting value). Therefore, if audio output control information having the same setting value is transmitted to a plurality of electronic devices 100 grouped in the same group, the plurality of electronic devices output sound in the same manner, and light emission control having the same setting value is performed. If the information is transmitted, the plurality of electronic devices similarly emit light, and if the vibration control information having the same set value is transmitted, the plurality of electronic devices vibrate in the same manner.
  • FIG. 5 is a flowchart showing an example of the operation of the electronic device 1.
  • the rhythm information storage unit 90 stores rhythm information of a plurality of other electronic devices 100
  • the connection information storage unit 92 stores connection information of the plurality of other electronic devices 100. It shall be remembered.
  • the calculation unit 20 calculates the similarity of rhythm information of a plurality of other electronic devices 100 stored in the rhythm information storage unit 90 (step S10).
  • the calculation unit 20 outputs the similarity calculation result to the grouping unit 30.
  • the grouping unit 30 groups the plurality of other electronic devices 100 based on the similarity calculation result by the calculation unit 20, and generates grouping information (step S12).
  • the grouping unit 30 stores the grouping information in the grouping information storage unit 94.
  • the grouping unit 30 notifies the display unit 40 that the grouping information has been stored in the grouping information storage unit 94.
  • Display unit 40 displays grouping information and connection information (step S14). Specifically, the display unit 40 refers to the connection information storage unit 92 and the grouping information storage unit 94, and, for each group, the device ID of the other electronic device 100 grouped in the group and the other Connection information for communicating with the electronic device 100 is displayed.
  • the transmission unit 50 refers to the connection information storage unit 92, the grouping information storage unit 94, and the operation control information storage unit 96, and each of the other electronic devices 100 grouped in the group is grouped in the same manner.
  • the operation control information is transmitted to each of the other electronic devices 100 grouped in each group so as to output sound and emit light or vibrate similarly (step S16). Then, this flowchart ends.
  • the transmission unit 50 may transmit the operation control information when an operation reception unit (not shown) receives a predetermined user operation.
  • FIG. 1B a mode in which a plurality of electronic devices (the electronic device 1 and the electronic device 100) including the electronic device 1 are targets of grouping) will be described.
  • the acquisition unit 10 acquires rhythm information representing the movement of the housing of the other electronic device 100 and rhythm information representing the movement of the housing of the electronic device 1. Specifically, as illustrated in FIG. 3A, the reception unit 12 receives the rhythm information of the other electronic device 100 together with the device ID and connection information of the other electronic device 100 from each of the other electronic devices 100.
  • the detection unit 14 receives the rhythm information representing the movement of the housing of the electronic device 1. Note that the detection unit 14 detects the movement of the housing of the electronic device 1 in the same manner as the detection unit 114 included in the other electronic device 100.
  • the acquisition unit 10 (reception unit 12, detection unit 14) that acquired the rhythm information stores the acquired (reception, detection) rhythm information in the rhythm information storage unit 90.
  • the calculation unit 20 calculates the similarity of the rhythm information of the plurality of electronic devices (the own electronic device 1 and the other electronic device 100) acquired by the acquisition unit 10. That is, the calculation unit 20 calculates the similarity between the rhythm information of the electronic device 1 detected by the detection unit 14 and the rhythm information of the other electronic device 100 received by the reception unit 12. Note that the calculation unit 20 may calculate the rhythm information similarity between the other electronic devices 100 received by the reception unit 12.
  • the grouping unit 30 and the electronic device 1 Electronic devices 100 are grouped into the same group.
  • the grouping unit 30 may group the other electronic devices 100 into the same group when the similarity of the rhythm information between the other electronic devices 100 is equal to or greater than a predetermined threshold.
  • the transmission unit 50 may transmit the same value as the setting value (the setting value of the electronic device 1) stored in the operation control information storage unit 96 to another electronic device 100, or the setting unit ( A value (not shown) transmitted by the transmission unit 50 to the other electronic device 100 (a setting value for the other electronic device 100) may be stored in the operation control information storage unit 96 as a setting value of the own electronic device 1. .
  • FIG. 6A to 6C are schematic diagrams for explaining the result of grouping by the electronic device 1.
  • FIG. FIG. 6A shows the result of grouping in the mode shown in FIG. 1A, in which the electronic device 1 includes three electronic devices 100 (electronic devices) among five other electronic devices 100 (electronic devices A to E). equipment a, C, D) and the group G 1, the two electronic devices (electronic devices B, and E) as a group G 2, further grouped electronics G 1 (electronic device a, C, D ) in the same manner as to output sound, grouped electronic equipment (electronic device B to G 2, and represents a state in which similarly to output audio to E). That is, according to the electronic device 1, a plurality of other electronic devices 100 are simply grouped, and a plurality of other electronic devices 100 in the same group are similarly output with sound, similarly emitted, or similarly It becomes possible to vibrate.
  • FIG. 6C shows a result of grouping in the mode shown in FIG. 1B, in which the electronic device 1 has four electronic devices (the electronic devices 1 to 5) among the electronic device 1 and five electronic devices (electronic devices A to E).
  • the primary electronic device 1, the electronic device a, C, D) and the group G 3 the two electronic devices (electronic devices B, E) as a group G 2, further grouped electronics G 3 (self The electronic device 1 and the electronic devices A, C, and D) output sound in the same manner, and the electronic devices grouped in G 2 (electronic devices B and E) output sound in the same manner.
  • a plurality of other electronic devices 100 that are in the same group as the own electronic device 1 and a plurality of other electronic devices 100 that are not in the same group as the own electronic device 1 are simply grouped.
  • a plurality of electronic devices in the same group can be similarly output as audio, similarly emitted, or similarly vibrated.
  • FIG. 7A and 7B are schematic views for explaining an outline of processing of the electronic device 2 according to the second embodiment of the present invention. Note that the same or equivalent constituent elements as those in the above embodiment are given the same or equivalent reference numerals, and the description thereof will be simplified or omitted as appropriate.
  • each of the electronic device 2 and the plurality of other electronic devices 200 automatically exchanges connection information (described later) by communication when approaching within a predetermined distance, for example.
  • FIG. 7A a mode in which a plurality of electronic devices 200 excluding the electronic device 2 is a grouping target
  • FIG. 7B a mode in which a plurality of electronic devices (the electronic device 2 and the electronic device 200) including the own electronic device 2 are grouped) will be described later.
  • FIG. 8A to 8D are configuration diagrams showing an example of the electronic device 2.
  • FIG. 9A to 9E are examples of information that the electronic device 2 acquires or stores.
  • the electronic device 2 includes an acquisition unit 10, a calculation unit 20, a grouping unit 30, a display unit 40, a transmission unit 50, an operation control unit 60, a rhythm information storage unit 290, a connection information storage unit 292, A grouping information storage unit 294 and an operation control information storage unit 296 are provided.
  • the acquisition unit 10 includes a reception unit 12 as illustrated in FIG. 8B.
  • the acquisition unit 10 may include a rhythm information generation unit 16 in addition to the reception unit 12 as illustrated in FIG. 8C.
  • the acquisition unit 10 may include an imaging unit 18 and a rhythm information generation unit 16 in addition to the reception unit 12.
  • the imaging unit 18 and the rhythm information generation unit 16 are not essential, and thus the description will be made assuming that the imaging unit 18 and the rhythm information generation unit 16 are not provided.
  • the acquisition unit 10 acquires rhythm information representing a temporal or spatial change pattern of an object in a captured image captured by another electronic device 200. Specifically, as illustrated in FIG. 9A, the reception unit 12 in the acquisition unit 10 receives the other electronic device 200 together with the device ID and connection information of the other electronic device 200 from each other electronic device 200. Rhythm information of the object in the captured image captured by 200 is received.
  • the device ID is identification information for identifying each electronic device 200.
  • the connection information is information for communicating with each of the electronic devices 200, and is information related to a protocol, address information, and the like, for example. The rhythm information will be described in detail with reference to FIGS. 11A to 17D.
  • one other electronic device 200 does not transmit connection information together with the rhythm information to the electronic device 2 (for example, before the transmission of the rhythm information, the other electronic device 200 has already been transmitted together with the device ID).
  • the receiving unit 12 receives the rhythm information of the other electronic device 200 together with the device ID of the other electronic device 200. That is, in the above case, the receiving unit 12 does not receive connection information together with rhythm information.
  • the acquisition unit 10 (reception unit 12) that acquired the rhythm information stores the acquired (received) rhythm information in the rhythm information storage unit 290.
  • the acquisition unit 10 stores rhythm information in association with the device ID.
  • the acquisition unit 10 that acquired the rhythm information stores the connection information acquired together with the rhythm information in the connection information storage unit 292.
  • the acquisition unit 10 stores connection information in association with the device ID.
  • the acquisition unit 10 has already acquired (exchanged) the connection information of the other electronic device 200 together with the device ID.
  • connection information is stored in association with the device ID.
  • the calculation unit 20 calculates the similarity of a plurality of rhythm information stored in the rhythm information storage unit 290. That is, the calculation unit 20 receives the rhythm information of the object in the first other captured image captured by the first other electronic device 200 received by the reception unit 12 and the second rhythm information received by the reception unit 12. The similarity with the rhythm information of the object in the second other captured image captured by the other electronic device 200 is calculated. The calculation of the similarity will be described in detail with reference to FIGS. 11A to 17D.
  • the timing at which the calculation unit 20 starts calculating the similarity is not particularly limited.
  • the calculation unit 20 calculates the similarity when an operation reception unit (not shown) receives a predetermined user operation. May be.
  • the calculation unit 20 that has calculated the similarity outputs the calculation result of the similarity to the grouping unit 30.
  • the grouping unit 30 groups other electronic devices 200 based on the similarity of rhythm information (similarity calculation result) calculated by the calculation unit 20 (that is, grouping information that is a result of grouping). (Described below)). More specifically, the grouping unit 30 calculates the similarity between the rhythm information of the object in the first other captured image calculated by the calculation unit 20 and the rhythm information of the object in the second other captured image. Is equal to or greater than a predetermined threshold, the first other electronic device 200 and the second other electronic device 200 are grouped into the same group.
  • the grouping unit 30 includes the rhythm information of the objects in the captured image captured by the electronic device A and the rhythm information of the objects in the captured image captured by the electronic device B.
  • the similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device C is greater than or equal to a predetermined threshold. Is equal to or greater than a predetermined threshold, and the degree of similarity between the rhythm information of the object in the captured image captured by the electronic device B and the rhythm information of the object in the captured image captured by the electronic device C is predetermined.
  • the electronic devices A, B, and C are grouped into the same group.
  • the grouping unit 30 has a similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device B is equal to or greater than a predetermined threshold. And the degree of similarity between the rhythm information of the object in the captured image captured by the electronic device B and the rhythm information of the object in the captured image captured by the electronic device C is equal to or greater than a predetermined threshold. If the degree of similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device C is not greater than or equal to a predetermined threshold, the electronic device A , B and C are not grouped into the same group.
  • the grouping unit 30 has a similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device B being equal to or greater than a predetermined threshold. And the similarity between the rhythm information of the object in the captured image captured by the electronic device B and the rhythm information of the object in the captured image captured by the electronic device C is equal to or greater than a predetermined threshold, If the degree of similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device C is not equal to or greater than a predetermined threshold, the electronic device Rhythm information of the object in the captured image captured by A and the object in the captured image captured by the electronic device B And the similarity between the rhythm information of the object in the captured image captured by the electronic device B and the rhythm information of the object in the captured image captured by the electronic device C are compared. Any one of the electronic device A and the electronic device C and the electronic device B may be grouped into the
  • the grouping unit 30 uses the electronic device B to determine the similarity between the rhythm information of the object in the captured image captured by the electronic device A and the rhythm information of the object in the captured image captured by the electronic device B. If the rhythm information of the object in the captured image is higher than the similarity between the rhythm information of the object in the captured image captured by the electronic device C, the electronic devices A and B are grouped into the same group. The similarity between the rhythm information of the object in the captured image captured by the electronic device B and the rhythm information of the object in the captured image captured by the electronic device C is the same as that in the captured image captured by the electronic device A. Similarity between the rhythm information of the object and the rhythm information of the object in the captured image captured by the electronic device B If higher than the electronic device B, it may be grouped into the same group of C.
  • the timing at which the grouping unit 30 starts grouping the plurality of other electronic devices 200 is not particularly limited. For example, when the grouping unit 30 acquires the similarity calculation result from the calculation unit 20, You may group.
  • the grouping unit 30 that groups a plurality of other electronic devices 200 stores the grouping information in the grouping information storage unit 294.
  • the grouping unit 30 stores the group ID and the belonging device information in association with each other in the grouping information storage unit 294 as grouping information.
  • the group ID is identification information for identifying each group.
  • the belonging device information is information including a device ID that identifies the electronic devices 200 belonging to the group (that is, the electronic devices 200 grouped into the group).
  • the display unit 40 displays various information. For example, the display unit 40 displays connection information for communicating with other electronic devices 200 grouped into the same group by the grouping unit 30. Specifically, the display unit 40 refers to the connection information storage unit 292 and the grouping information storage unit 294, and, for each group, the device ID of the other electronic device 200 grouped in the group and the other Connection information for communicating with the electronic device 200 is displayed. The display unit 40 may display only the device ID for each group without displaying the connection information.
  • the timing at which the display unit 40 starts the above display is not particularly limited.
  • the display unit 40 may display the grouping information when the grouping information storage unit 294 is stored.
  • the display unit 40 may display when an operation receiving unit (not shown) receives a predetermined user operation.
  • the display unit 40 displays the operation control information stored in the operation control information storage unit 296.
  • FIG. 9E is an example of operation control information stored in the operation control information storage unit 296.
  • the operation control information is control information for controlling the operations of the electronic devices 2 and 100.
  • the sound output control information for controlling sound output the light emission control for controlling light emission.
  • One or more control information of information and vibration control information for controlling vibration is included.
  • Each control information (audio output control information, light emission control information, vibration control information) has a plurality of settable values (or settable ranges).
  • the operation control information illustrated in FIG. 9E is an example, and may include other control information for controlling other operations of the electronic devices 2 and 100.
  • the timing at which the display unit 40 starts displaying the operation control information is not particularly limited.
  • the display unit 40 displays the operation control information when an operation receiving unit (not shown) receives a predetermined user operation. It may be displayed.
  • the display unit 40 displays a button (corresponding to the operation reception unit) for confirming a value (setting value) to be transmitted, and by pressing the button, You may display the value to transmit before transmission.
  • the transmission unit 50 transmits various information.
  • the transmission unit 50 transmits the grouping information to the other electronic device 200.
  • the transmission unit 50 refers to the grouping information storage unit 294 and, for each group of other electronic devices 200 grouped in the group, the other electronic devices 200 belonging to the group.
  • the device ID is transmitted.
  • the transmission unit 50 is configured so that the plurality of electronic devices 200 grouped into the same group by the grouping unit 30 outputs sound in the same manner, emits light in the same manner, or vibrates in the same manner.
  • the operation control information is transmitted to 200.
  • the transmission unit 50 refers to the connection information storage unit 292, the grouping information storage unit 294, and the operation control information storage unit 296, and the other electronic devices 200 grouped into the group are grouped by group.
  • the operation control information is transmitted to each of the other electronic devices 200 grouped in each group so that each outputs sound similarly, similarly emits light, or similarly vibrates.
  • the audio output control information having the same setting value (for example, setting value b) is transmitted to each of the plurality of electronic devices 200 that have been converted into the electronic devices.
  • the grouped respective electronic device 200 to the group G 1 and outputs sound in accordance with control by the set value a, grouped respective electronic device 200 to the group G 2, under the control of the set value b Sound will be output.
  • the timing at which the transmission unit 50 starts transmitting the operation control information is not particularly limited.
  • the transmission unit 50 receives the operation control information when an operation reception unit (not shown) receives a predetermined user operation. You may send it.
  • the operation control unit 60 controls various operations based on the operation control information stored in the operation control information storage unit 296. For example, control is performed so that sound is output according to the setting value set by the setting unit (not shown) among the settable values of the audio output control information, and the setting unit (not shown) among the settable values of the light emission control information. Control is performed so that light is emitted according to the set value, and vibration is controlled according to the set value set by a setting unit (not shown) among the settable values of the vibration control information.
  • the setting unit (not shown) stores the set value in the operation control information storage unit 296 when the operation receiving unit (not shown) receives a user operation for specifying the set value.
  • FIG. 10A and 10B are configuration diagrams illustrating an example of another electronic device 200.
  • the other electronic device 200 includes an imaging unit 118, a rhythm information generation unit 116, a display unit 140, a transmission / reception unit 150, an operation control unit 160, and an operation control information storage unit 196.
  • FIG. 10B shows another configuration of the electronic device 200 (described later).
  • the imaging unit 118 captures still images and moving images.
  • the rhythm information generation unit 116 extracts an object from the moving image captured by the imaging unit 118, and generates rhythm information of the object extracted from the moving image.
  • the rhythm information generation unit 116 that has generated the rhythm information outputs the generated rhythm information to the transmission / reception unit 150.
  • the generation of rhythm information by the rhythm information generation unit 116 (the same applies to the rhythm information generation unit 16 (described later)) will be described in detail with reference to FIGS. 11A to 17D.
  • the transmission / reception unit 150 transmits / receives various information to / from other electronic devices (electronic device 2, other electronic device 200). For example, the transmission / reception unit 150 transmits the rhythm information acquired from the rhythm information generation unit 116 together with the device ID and connection information of the electronic device 200 to the electronic device 2.
  • the transmission / reception unit 150 transmits the connection information together with the rhythm information. You do not have to send it.
  • the transmission / reception unit 150 receives grouping information from the electronic device 2.
  • the transmission / reception unit 150 outputs the received grouping information to the display unit 140.
  • the transmission / reception unit 150 receives operation control information including a set value from the electronic device 2.
  • the transmission / reception unit 150 stores (updates) the setting value of the operation control information in the operation control information storage unit 196 via a setting unit (not shown).
  • the configuration of the operation control information storage unit 196 is the same as that of the operation control information storage unit 296 of the electronic device 2 (see FIG. 9E).
  • Display unit 140 displays various information. For example, grouping information and operation control information received from the electronic device 2 are displayed.
  • the operation control unit 160 controls various operations based on the operation control information stored in the operation control information storage unit 196. For example, control is performed so that sound is output according to the setting value set by the setting unit (not shown) among the settable values of the audio output control information, and the setting unit (not shown) among the settable values of the light emission control information. Control is performed so that light is emitted according to the set value, and vibration is controlled according to the set value set by a setting unit (not shown) among the settable values of the vibration control information.
  • the other electronic device 200 that has received the operation control information (setting value) transmitted from the electronic device 2 operates according to the operation control information (setting value). Therefore, if audio output control information having the same setting value is transmitted to a plurality of electronic devices 200 grouped in the same group, the plurality of electronic devices output sound in the same manner, and light emission control having the same setting value is performed. If the information is transmitted, the plurality of electronic devices similarly emit light, and if the vibration control information having the same set value is transmitted, the plurality of electronic devices vibrate in the same manner.
  • the rhythm information generation unit 16 in the case of the configuration of FIG. 8C or FIG. 8D
  • the rhythm information can be generated by the electronic device 2, and thus the other electronic device 200 As shown in FIG. 10B, the rhythm information generation unit 116 may not be provided.
  • the acquisition unit 10 of the electronic device 2 includes the rhythm information generation unit 16 and the other electronic device 200 includes the rhythm information generation unit 116
  • the transmission / reception unit 150 of the other electronic device 200 Along with the device ID and connection information, the moving image captured by the image capturing unit 118 is transmitted to the electronic device 2.
  • the receiving unit 12 receives a moving image from the other electronic device 200
  • the rhythm information generating unit 16 extracts an object from the moving image received by the receiving unit 12, and uses the extracted rhythm information of the object. Generated and stored in the rhythm information storage unit 290 in association with the device ID.
  • rhythm information representing a temporal or spatial change pattern of an object generation of rhythm information representing a temporal or spatial change pattern of an object
  • the calculation of the similarity in the rhythm information representing the spatial change pattern will be described in detail.
  • FIGS. 14A to 17D The generation of the rhythm information representing the rhythm information and the calculation of the similarity in the rhythm information representing the spatial change pattern of the object will be described in detail.
  • FIG. 11A to FIG. 13C are explanatory diagrams for explaining rhythm information representing a temporal change pattern of an object, generation of the rhythm information, and calculation of similarity in the rhythm information.
  • the rhythm information generation unit 116 of the other electronic device 200 extracts the object from the moving image, the amount of change in the area of the circumscribed figure circumscribing the extracted object, and the long side Or use the amount of change in the length of the short side, the amount of change in the aspect ratio, the period of change in area, the period of change in length, or the period of change in aspect ratio to change the pattern of temporal change of the object. Generate rhythm information to represent.
  • the rhythm information generation unit 116 uses one or more parameter values of parameters 1 to 12 (hereinafter referred to as prm1 to prm12) exemplified below to represent rhythm information representing a temporal change pattern of the object. Is generated.
  • the predetermined time in prm1 to prm12 is, for example, a time (for example, one period) based on the period of change of the circumscribed rectangle.
  • the long side and the short side in prm7-1 to prm9-2 are determined based on the length of a certain reference time (for example, the beginning of one cycle).
  • the Y-axis direction (or X-axis direction) may be determined as the long side.
  • prm1 The difference between the maximum area and the minimum area of the circumscribed rectangle within a predetermined time prm2: The area ratio between the maximum area and the minimum area of the circumscribed rectangle within the predetermined time prm3-1: The average area and the maximum area of the circumscribed rectangle within the predetermined time Difference prm3-2: Difference between average area and minimum area of circumscribed rectangle within a predetermined time prm4-1: Area ratio between average area and maximum area of circumscribed rectangle within a predetermined time prm4-2: Average of circumscribed rectangle within a predetermined time Area ratio of area to minimum area prm5: Distribution of circumscribed rectangle area within a predetermined time (example: standard deviation) prm6: Period of change in the area of the circumscribed rectangle within a predetermined time prm7-1: Maximum amount of change of the long side of the circumscribed rectangle within a predetermined time prm7-2: Maximum amount of change of the short side of the circumscribed rectangle within a predetermined time prm8 ⁇ 1: Longitudinal
  • P 1 shown in FIG. 11A is one frame constituting a moving image, and is captured at the moment when a person (object O 1 ) is shaking both hands and feet.
  • P 3 shown in FIG. 11C is a one frame constituting a moving picture, in which is captured at the moment the person (object O 1) is swung down hands feet.
  • P 2 shown in FIG. 11B is one frame between the P 1 and P 3.
  • E 1 shown in FIG. 12A is a circumscribed rectangle circumscribing the object O 1 in the P 1 shown in FIG. 11A.
  • E 2 shown in FIG. 12B is a circumscribed rectangle circumscribing the object O 1 in the P 2 shown in FIG. 11B.
  • E 3 shown in FIG. 12C is a circumscribed rectangle circumscribing the object O 1 in P 3 shown in FIG. 11C.
  • FIG. 12D compares the sizes of the circumscribed rectangles E 1 , E 2 , and E 3 . As shown in FIG. 12D, the shape of the circumscribed rectangle that circumscribes the object changes according to the movement of the object.
  • the calculating unit 20 sequentially extracts the object O 1 from the moving images (P 1 , P 2 , P 3 ,...), Sequentially extracts the circumscribed figure circumscribing the object O 1 as shown in FIG. As shown in 13B, the size of the circumscribed rectangle to be sequentially extracted is calculated.
  • the “period” shown in FIG. 13A indicates the period of change in the shape of the circumscribed rectangle. That is, time t 1 to time t 4 (time t 5 to time t 8 , time t 9 to time t 13 ,...) Is one cycle.
  • the rhythm information generation unit 116 calculates a predetermined one or more parameters using the size of the circumscribed rectangle, and sets a numerical value group including the calculated parameter values as elements as a temporal change pattern of the object O 1.
  • Rhythm information to represent For example, the rhythm information generating unit 116, as shown in FIG.
  • the rhythm information may be obtained by appropriately rounding the value of each parameter for easy comparison later, or by replacing the value of each parameter with another value (score May be used).
  • the calculation unit 20 of the electronic device 2 uses the first other electronic device 200.
  • the degree of similarity between the rhythm information of the object in the first other captured image captured and the rhythm information of the object in the second other captured image captured by the second other electronic device 200 is calculated.
  • the calculation unit 20 calculates the similarity between the same parameters constituting the rhythm information, and based on the similarity between the plurality of the same parameters, the objects in the first other captured image
  • the degree of similarity between the rhythm information and the rhythm information of the object in the second other captured image is calculated.
  • the calculation unit 20 determines the value of prm2 that constitutes the rhythm information of the object in the first other captured image. And the value of prm2 constituting the rhythm information of the object in the second other captured image are compared, and the similarity between the values of prm2 is calculated. Similarly, the calculation unit 20 calculates the similarity between the prm6 values, the similarity between the prm7-1 values, the similarity between the prm7-2 values, and the similarity between the prm10 values.
  • the calculation unit 20 includes the first other imaging A value obtained by comparing the value of prm2 constituting the rhythm information of the object in the image with the value of prm2 constituting the rhythm information of the object in the first other captured image, and dividing one of the smaller values by the other larger May be the degree of similarity between the values of prm2.
  • the degree of similarity between parameter values is in the range of 0 to 1, and the closer to similarity, the closer to 1.
  • a calculation for calculating the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image based on the similarity between the values of the parameters can be considered as the method, for example, the calculation unit 20 calculates the average value of the similarity between the parameters, the rhythm information of the object in the first other captured image, and the second other It is good also as similarity with the rhythm information of the object in the picked-up image.
  • the calculation unit 20 calculates the similarity between the values of prm2, the similarity between the values of prm6, the similarity between the values of prm7-1, the similarity between the values of prm7-2,
  • the average value of similarities between values may be the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image.
  • the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image is in the range of 0 to 1, and is similar. The value is closer to 1.
  • the average value may be calculated after weighting the degree of similarity between predetermined parameters.
  • the average value is not limited to an arithmetic average, and a geometric average may be used.
  • the median value of the similarity between parameters, the maximum value of the similarity between parameters, and the minimum value of the similarity between parameters are used as the rhythm information of the object in the first other captured image.
  • the similarity with the rhythm information of the object in the second other captured image may be used.
  • rhythm information represents the temporal change pattern of the object
  • rhythm information represents the spatial change pattern of the object
  • 14A to 17D are explanatory diagrams for explaining rhythm information representing a pattern of spatial change of an object, generation of the rhythm information, and calculation of similarity in the rhythm information.
  • FIGS. 14A to 14C schematically show traffic light objects (O 2 ) extracted from moving images (P 11 , P 12 , P 13 ).
  • Figure 14A is an object O 2 when traffic is blue, the object O 2 when Figure 14B traffic is yellow,
  • FIG 14C shows an object O 2 when traffic is red.
  • r1 is an imaging region of the traffic signal body
  • r2 is an imaging region of a support portion that supports the traffic signal body.
  • r1-1 is an area in r1, which is an imaging area of a holding unit that holds a blue lamp
  • r1-2 is an area in r1, and is an imaging area of a holding unit that holds a yellow lamp
  • r1-3 is in r1 This is an imaging region of a holding unit that holds a red lamp.
  • r1-1-1 is an area within r1-1 and is an imaging area of a blue lamp
  • r1-2-1 is an area within r1-2 and is an imaging area of a yellow lamp
  • r1-3-1 is an r1- 3 is a red lamp area.
  • the color of the blue lamp being turned on is blue-green
  • the colors of the yellow lamp and red lamp being turned off are black.
  • the color of the blue lamp region r1-1-1 is blue-green
  • the color of the yellow lamp region r1-2-1 is black
  • the color of the red lamp region r1-3-1 is black.
  • the traffic light is yellow
  • the color of the yellow lamp that is lit is yellow
  • the color of the blue and red lamps that are not lit is black. That is, in FIG.
  • the color of the blue lamp area r1-1-1 is black, the color of the yellow lamp area r1-2-1 is yellow, and the color of the red lamp area r1-3-1 is black.
  • the traffic light is red
  • the color of the red lamp being turned on is red
  • the color of the blue lamp and the yellow lamp being turned off is black. That is, in FIG. 14C, the color of the blue lamp area r1-1-1 is black, the color of the yellow lamp area r1-2-1 is black, and the color of the red lamp area r1-3-1 is red.
  • the traffic light is any of blue, yellow, and red, all the areas other than the lamp are gray.
  • FIG. 15A schematically shows a pixel group (unit region) constituting the object O 2 .
  • a pixel group is composed of a predetermined number of adjacent pixels.
  • FIG. 15B in the case of dividing the object O 2 into a plurality of pixel groups, a rhythm information representing the pattern of the spatial variation of the object O 2.
  • Pixel group ID (a-4, a- 5, ...) shown in FIG. 15B a pixel group (i.e., a pixel group illustrated in FIG. 15A) that constitute the object O 2 is identification information for identifying the.
  • the pixel group ID “a-4” illustrated in FIG. 15B indicates the pixel group denoted by reference symbol G illustrated in FIG. 15A (the pixel group defined by the horizontal index “4” and the vertical index “a”). ing.
  • FIG. 15B Shown in FIG. 15B is the imaging timing of the traffic light shown in FIG. t1 to t3 are imaging timings when the signal is blue as shown in FIG. 14A.
  • t4 is the imaging timing when the signal is yellow as shown in FIG. 14B.
  • t5 to t7 are imaging timings when the signal is red as shown in FIG. 14C. That, t1 ⁇ t7 is one period of the change in the color of the object O 2.
  • the time shown in FIG. 15B is a time for convenience of explanation (in the case of an actual traffic light, the blue (and red) time is usually longer than the yellow time).
  • Each value (D1 to D7) shown in FIG. 15B is a value constituting the rhythm information, and is an average pixel value of each pixel group constituting the object O 2 at each imaging timing (t1, t2,).
  • D1 is a pixel value indicating gray
  • D2 is a pixel value indicating blue-green
  • D3 is a pixel value indicating black
  • D4 is a pixel value indicating black
  • D5 is a pixel value indicating yellow
  • D6 is a pixel value indicating black
  • D7 are pixel values representing red.
  • rhythm information shown in FIG. 15B is a color change pattern for each pixel group constituting the object O 2 , and shows, for example, the following features 1 to 10.
  • Feature 1 Of the main part region of the object O 2 (region r1 shown in FIGS. 14A to 14C), the region (FIG. 14A) located to the left of the central region (region r1-2-1 shown in FIGS. 14A to 14C) In the region r1-1-1) shown in ⁇ 14C, the color periodically changes between blue-green (D2) and black (D3).
  • Feature 2 The color of the central region of the main portion of the object O 2 periodically changes between black (D4) and yellow (D5).
  • Feature 3 Of the main part region of the object O 2 , the region located on the right side of the central region (region r1-3-1 shown in FIGS. 14A to 14C) is black (D6) and red (D7). ) And change periodically.
  • Feature 4 Of the main part of the object O 2 , the central region, the region located on the left side of the central region, and the region excluding the region located on the right side of the central region (region r1 shown in FIGS. 14A to 14C) The region excluding the region r1-1-1, the region r1-2-1, and the region r1-3-1) is always gray (D1) and has no color change.
  • Feature 5 The area other than the main part of the object O 2 (area r2 shown in FIGS. 14A to 14C) is always gray (D1) and has no color change.
  • Feature 6 After the region located on the left side of the central region (region r1-1-1) has changed from blue-green (D2) to black (D3), the central region (region r1-2-1) is black ( The color changes from D4) to yellow (D5).
  • Feature 7 After the central region (region r1-2-1) has changed from yellow (D5) to black (D4), the region located on the right side of the central region (region r1-3-1) is black (D6 ) To red (D7).
  • Feature 8 After the region located on the right side of the central region (region r1-3-1) changes from red (D7) to black (D6), the region located on the left side of the central region (region r1-1- 1) changes from black (D3) to blue-green (D2).
  • Feature 9 a region (region r1-1-1) located on the left side of a central region that changes to blue-green (D2), a central region (region r1-2-1) that changes to yellow (D5), The region located on the right side of the central region that changes to red (D7) (region r1-3-1) has substantially the same size.
  • Feature 10 Time when the region located on the left side of the central region (region r1-1-1) is blue-green (D2), and the region located on the right side of the central region (region r1-3-1) is red The time for (D7) is equal, and is approximately three times the time for the center (region r1-2-1) region to be yellow (D5).
  • the rhythm information generation unit 116 of the other electronic device 200 extracts an object from the moving image, and generates rhythm information representing a pattern of spatial change of the object.
  • the rhythm information generation unit 116 is configured from numerical values whose elements are the values indicated by the color change for each pixel group constituting the object O 2 as illustrated in FIG. 15B. Rhythm information is generated.
  • the calculation unit 20 of the electronic device 2 performs the first other captured image captured by the first other electronic device 200. Similarity between the rhythm information of the object in the image and the rhythm information of the object in the second other captured image captured by the second other electronic device 200 is related to one or more features described above. Calculate based on
  • the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image is calculated using the similarity related to the feature 2 described above. May be.
  • the calculation unit 20 may, for example, periodically change the color of the central region of the main part of the object indicated by the rhythm information of the object in the first other captured image, and in the second other captured image.
  • the similarity with the periodic change of the color of the central region of the main part of the object indicated by the rhythm information of the object is calculated, the rhythm information of the object in the first other captured image, and the second other It is good also as similarity with the rhythm information of the object in a captured image.
  • the calculation unit 20 may be configured to “change the color change of the central region of the main part. Based on the “similarity of the period” and the “similarity of the color appearing in the central area of the main part”, the “similarity of the periodic change in the color of the central area of the main part” may be calculated. Note that the calculation unit 20 uses the “rhythm change period of the color of the central region of the main part” based on the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image. Compared with “the color change period of the central area of the main part”, the value obtained by dividing the shorter period by the longer period is also used as the “similarity of the color change period of the central area of the main part” Good.
  • the color change period of the central region of the main part is 4 seconds
  • the main part according to the rhythm information of the object in the second other captured image When the period of the color change in the central area of 3 seconds is 3 seconds, the value “0.75” obtained by dividing the period “3 (seconds) by the period“ 4 (seconds) ”is set as“ the color of the central area of the main part ”.
  • the similarity of the period of the change In the case of this calculation method, the “similarity of the period of color change in the central region of the main part” is in the range of 0 to 1, and the closer to the value, the closer to 1.
  • the calculation unit 20 uses the rhythm information of the object in the first other captured image, “color appearing in the central region of the main part (color with a reduced number of gradations for comparison, and so on)”, The value obtained by comparing the “number of colors appearing in the central area of the main part” with the rhythm information of the object in the other two captured images and dividing the larger number of colors by the number of colors appearing by either It is good also as "the similarity of the color which appears in the center area
  • the “color appearing in the central area of the main part” based on the rhythm information of the object in the first other captured image has three colors
  • the “central area of the main part” based on the rhythm information of the object in the second other captured image When the number of colors appearing in “5” is five colors, the value “0.625” obtained by dividing the number of colors “5 (color)” by the number of colors “8 (color)” is “similarity of colors appearing in the central region of the main part” " In the case of this calculation method, the “similarity of the color appearing in the central region of the main part” is in the range of 0 to 1, and becomes closer to 1 as the similarity is increased.
  • the calculation unit 20 may calculate the “similarity of the period of color change in the central region of the main part” and “the center of the main part”.
  • the average value of “similarity of colors appearing in the area” may be set as “similarity of periodic change in color of the central area of the main part”.
  • the average value “0.6875” is the similarity of the periodic change in the color of the central region of the main part".
  • the “similarity of the periodic change in the color of the central region of the main part” is in the range of 0 to 1, and the closer the similarity, the closer to 1.
  • the average value is calculated after weighting the “similarity of the color change period in the central area of the main part” or the “similarity of the color appearing in the central area of the main part”. May be.
  • the average value is not limited to an arithmetic average, and a geometric average may be used. Further, instead of the average value, the median value, the maximum value, or the minimum value may be used as the “similarity of the periodic change in the color of the central region of the main part”.
  • the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image is calculated. May be.
  • the calculation unit 20 does not change the color of the region other than the main part of the object indicated by the rhythm information of the object in the first other captured image, and the object in the second other captured image.
  • the similarity with the color which does not change in the area other than the main part of the object indicated by the rhythm information is calculated, and the rhythm information of the object in the first other captured image and the object in the second other captured image are calculated. It is good also as similarity with rhythm information.
  • the calculation unit 20 preliminarily compares the similarity between one color and another color. Similar color information indicating the degree (information that takes a range from 0 to 1 and takes a value closer to 1 as the colors are similar to each other), and based on the similar color information, the first other imaging The similarity between the color of the area other than the main part based on the rhythm information of the object in the image and the color of the area other than the main part based on the rhythm information of the object in the second other captured image is calculated. It is good also as "the similarity of the color which does not change the area
  • the “similarity of the color not changing in the region other than the main part” is set to 0.
  • the calculation unit 20 uses the similarity related to two or more features to calculate the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image.
  • the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image are based on the similarity related to each feature.
  • the degree of similarity may be calculated. For example, when using the degree of similarity related to the above-described feature 2 and feature 5, the degree of similarity related to feature 2 and the degree of similarity related to feature 5 are calculated, respectively, and the degree of similarity related to feature 2 and feature 5 are calculated.
  • the average value of the similarities related to the above may be the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image.
  • similarity related to feature 2 for example, similarity of periodic change in color of the central region
  • similarity related to feature 5 for example, other than the main part described above
  • the average value “0.85” is set to the rhythm information of the object in the first other captured image and the second other captured image. It is good also as similarity with the rhythm information of the object.
  • the average value may be calculated after weighting the “similarity related to feature 2” or “similarity related to feature 5”.
  • the average value is not limited to an arithmetic average, and a geometric average may be used.
  • the median value, the maximum value, or the minimum value is expressed as “the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image”. It is good also as "similarity of”.
  • the similarity between the rhythm information of the object in the first other captured image and the rhythm information of the object in the second other captured image is calculated based on the similarity related to feature 2 and feature 5.
  • the rhythm information of the object in the first other captured image and the object in the second other captured image are applied by applying the respective calculation methods according to the other characteristics.
  • the similarity with the rhythm information may be calculated.
  • the average pixel value for each pixel group is used as each value (D1 to D7) illustrated in FIG. 15B
  • the maximum pixel value a plurality of pixels in the pixel group
  • the maximum pixel value the minimum pixel value (minimum value of pixel values of a plurality of pixels in a pixel group)
  • the median value median value of pixel values of a plurality of pixels in the pixel group
  • each value (each value (D1 to D7) shown in FIG. 15B) is calculated, but the difference in pixel values is less than or equal to the predetermined value.
  • a certain adjacent pixel may be a pixel group, and each value constituting the rhythm information may be calculated.
  • FIG. 16A schematically shows adjacent images having a pixel value difference equal to or less than a predetermined number as a pixel group in the pixels constituting the traffic light object O 2 shown in FIGS. 14A to 14C.
  • Ga1 to Ga4 are pixel groups that are adjacent images whose pixel value difference is equal to or less than a predetermined number at any of the imaging timings (t1 to t7) (see FIG. 15B).
  • Ga1 represents a blue lamp region r1-1-1
  • Ga2 represents a yellow lamp region r1-2-1
  • Ga3 represents a red lamp region r1-3-1
  • Ga4 represents a region other than the lamp. (See FIGS. 14A to 14C).
  • FIG. 16B is in case of dividing the object O 2 into a plurality of pixel groups as shown in FIG. 16A, a rhythm information representing the pattern of the spatial variation of the object O 2.
  • Each value (D1 to D7) shown in FIG. 16B is a value constituting the rhythm information, and is an average pixel value of each pixel group constituting the object O 2 at each imaging timing (t1, t2,).
  • the maximum pixel value, the minimum pixel value, and the median value may be used instead of the average value.
  • FIG. 17A schematically shows adjacent images having a pixel value difference equal to or less than a predetermined number as a pixel group in the pixels constituting the traffic light object O 2 shown in FIGS. 14A to 14C.
  • Gb1 and Gb4 are pixel groups of adjacent images whose pixel value difference is equal to or less than a predetermined number at the imaging timing (t1 to t3) when the signal is blue (see FIG. 15B).
  • Gb1 represents a blue region
  • Gb4 represents a black and gray region (see FIGS. 14A to 14C).
  • Gb2 and Gb4 are pixel groups of adjacent images whose pixel value difference is equal to or less than a predetermined number at the imaging timing (t4) when the signal is yellow (see FIG. 15B).
  • Gb2 represents a yellow region
  • Gb4 represents a black and gray region (see FIGS. 14A to 14C). That is, it is assumed that the difference between the pixel values (values indicating black) in the areas of the blue lamp and the red lamp being turned off and the pixel values (values indicating gray) in the areas other than the lamps is equal to or less than a predetermined value.
  • Gb3 and Gb4 are pixel groups of adjacent images whose pixel value difference is equal to or less than a predetermined number at the imaging timing (t5 to t7) when the signal is red (see FIG. 15B).
  • Gb3 represents a red region
  • Gb4 represents a black and gray region (see FIGS. 14A to 14C). That is, the difference between the pixel values (values indicating black) in the areas of the blue lamp and the yellow lamp being turned off and the pixel values (values indicating gray) in the areas other than the lamps is not more than a predetermined value.
  • FIG. 17D in case of dividing the object O 2 into a plurality of pixel groups as shown in FIG. 17A ⁇ C, a rhythm information representing the pattern of the spatial variation of the object O 2.
  • Each value (S1 to S7) shown in FIG. 17D is a value that constitutes rhythm information, and is a distribution (region shape) of each pixel group at each imaging timing.
  • S1 is a blue lamp region r1-1-1
  • S2 is a yellow lamp region r1-2-1
  • S3 is a red lamp region r1-3-1
  • S4 is a region other than the blue lamp
  • S5 Represents a region other than the yellow lamp
  • S6 represents a distribution of regions other than the red lamp.
  • rhythm information instead of expressing a rhythm information with a predetermined number of adjacent pixels as a pixel group as shown in FIG. 15B, an adjacent pixel whose pixel value difference is equal to or smaller than a predetermined value as shown in FIG. 16B or FIG.
  • the rhythm information may be expressed as shown in FIG. 16B or FIG. 17D, in the case where the rhythm information is expressed by using the adjacent pixels whose pixel value difference is equal to or smaller than the predetermined value as the pixel group, as shown in FIG. Similar to the case where rhythm information is expressed by using a predetermined number of adjacent pixels as a pixel group, the rhythm information similarity is calculated.
  • the rhythm information is expressed as a temporal change pattern of the object and the similarity is calculated (FIGS. 11A to 13C), and the spatial change pattern of the object.
  • the similarity is calculated individually (FIGS. 14A to 17D) has been described individually
  • the rhythm information is expressed as a temporal change pattern and a spatial change pattern, and the similarity is calculated. May be. That is, if the format of the rhythm information for which the similarity is calculated is the same, the similarity between the rhythm information can be calculated. Therefore, even if the temporal change pattern of the object is used as the rhythm information, the space of the object A pattern of a typical change may be used as rhythm information, and both patterns may be used as rhythm information.
  • FIG. 18 is a flowchart showing an example of the operation of the electronic device 2.
  • the rhythm information storage unit 290 stores rhythm information of a plurality of other electronic devices 200
  • the connection information storage unit 292 stores connection information of the plurality of other electronic devices 200. It shall be remembered.
  • the calculation unit 20 calculates the similarity of rhythm information of a plurality of other electronic devices 200 stored in the rhythm information storage unit 290 (step S20).
  • the calculation unit 20 outputs the similarity calculation result to the grouping unit 30.
  • the grouping unit 30 groups the plurality of other electronic devices 200 based on the similarity calculation result by the calculation unit 20, and generates grouping information (step S22).
  • the grouping unit 30 stores the grouping information in the grouping information storage unit 294.
  • the grouping unit 30 notifies the display unit 40 that the grouping information has been stored in the grouping information storage unit 294.
  • Display unit 40 displays grouping information and connection information (step S24). Specifically, the display unit 40 refers to the connection information storage unit 292 and the grouping information storage unit 294, and, for each group, the device ID of the other electronic device 200 grouped in the group and the other Connection information for communicating with the electronic device 200 is displayed.
  • the transmission unit 50 refers to the connection information storage unit 292, the grouping information storage unit 294, and the operation control information storage unit 296. For each group, the other electronic devices 200 grouped in the group are similarly The operation control information is transmitted to each of the other electronic devices 200 grouped in each group so as to output sound and emit light or vibrate similarly (step S26). Then, this flowchart ends.
  • the transmission unit 50 may transmit the operation control information when an operation reception unit (not shown) receives a predetermined user operation.
  • FIG. 7B a mode in which a plurality of electronic devices (the electronic device 2 and the electronic device 200) including the own electronic device 2 are grouped) will be described.
  • the only difference between the configuration of the electronic device 2 in the mode shown in FIG. 7B and the configuration of the electronic device 2 in the mode shown in FIG. 7A is that it has an imaging unit 18 as shown in FIG. 8D.
  • imaging unit 18 imaging unit
  • the acquisition unit 10 of the electronic device 2 includes rhythm information representing a temporal or spatial change pattern of an object in a captured image captured by another electronic device 200 and a captured image captured by the electronic device 2.
  • Rhythm information representing a temporal or spatial change pattern of the object inside is acquired.
  • the reception unit 12 receives the rhythm information of the other electronic device 200 together with the device ID and connection information of the other electronic device 200 from each of the other electronic devices 200.
  • the imaging unit 18 receives the captured image by the electronic device 2, the rhythm information generation unit 16 extracts the object from the moving image captured by the imaging unit 18, and the rhythm information of the object extracted from the moving image Is generated. Note that the rhythm information generation unit 16 generates rhythm information in the same manner as the rhythm information generation unit 116 included in the other electronic device 200.
  • the acquisition unit 10 (reception unit 12, imaging unit 18, rhythm information generation unit 16) that acquired the rhythm information stores the acquired rhythm information in the rhythm information storage unit 290.
  • the calculation unit 20 calculates the rhythm information similarity of the plurality of electronic devices (the own electronic device 2 and the other electronic device 200) acquired by the acquisition unit 10. That is, the calculation unit 20 is captured by the rhythm information of the object in the captured image captured by the electronic device 2 generated by the rhythm information generation unit 16 and the other electronic device 200 received by the reception unit 12. The similarity with the rhythm information of the object in the captured image is calculated. Note that the calculation unit 20 may calculate the rhythm information similarity between the other electronic devices 200 received by the reception unit 12.
  • the grouping unit 30 and the electronic device 2 Electronic devices 200 are grouped into the same group.
  • the grouping unit 30 may group the other electronic devices 200 into the same group even when the similarity of the rhythm information between the other electronic devices 200 is equal to or greater than a predetermined threshold.
  • the transmission unit 50 may transmit the same value as the setting value (the setting value of the electronic device 2) stored in the operation control information storage unit 296 to another electronic device 200, or the setting unit ( A value (not shown) transmitted by the transmission unit 50 to the other electronic device 200 (a setting value for the other electronic device 200) may be stored in the operation control information storage unit 296 as a setting value of the own electronic device 2. .
  • FIG. 19A to 19C are schematic diagrams for explaining the results of grouping by the electronic device 2.
  • FIG. 19A shows the result of grouping in the mode shown in FIG. 7A, in which the electronic device 2 includes three electronic devices 200 (electronic devices) among five other electronic devices 200 (electronic devices A to E). equipment a, C, D) and the group G 1, the two electronic devices (electronic devices B, and E) as a group G 2, further grouped electronics G 1 (electronic device a, C, D ) in the same manner as to output sound, grouped electronic equipment (electronic device B to G 2, and represents a state in which similarly to output audio to E).
  • a plurality of other electronic devices 200 are simply grouped, and a plurality of other electronic devices 200 in the same group are similarly output with sound, similarly emitted, or similarly It becomes possible to vibrate. Therefore, for example, in the scene where the audience uses the electronic device 200 to capture the same subject (for example, a parade at an amusement park, a concert artist, a circus performer), the same subject is imaged.
  • the behavior of two or more other electronic devices 200 can be controlled in the same manner (behavior can be synchronized).
  • FIG. 19B shows a result of grouping in the mode shown in FIG. 7B, in which the electronic device 2 has four electronic devices (the electronic devices A to E) among the electronic device 2 and the five electronic devices (electronic devices A to E).
  • a plurality of other electronic devices 200 that are in the same group as the electronic device 1 are simply grouped, and a plurality of electronic devices in the group are similarly output with sound and similarly emitted. Alternatively, it can be vibrated in the same manner. Therefore, the behavior of one or more electronic devices 200 that are imaging the same subject as the electronic device 2 can be controlled in the same way.
  • FIG. 19C shows a result of grouping in the mode shown in FIG. 7B, in which the electronic device 2 has four electronic devices (the electronic devices A to E) among the electronic device 2 and the five electronic devices (electronic devices A to E).
  • the primary electronic device 2, the electronic device a, C, D) and the group G 3 the two electronic devices (electronic devices B, E) as a group G 2, further grouped electronics G 3 (self The electronic device 2 and the electronic devices A, C, and D) output the sound in the same manner, and the electronic devices grouped in G 2 (the electronic devices B and E) output the sound in the same manner.
  • a plurality of other electronic devices 200 that are in the same group as the own electronic device 1 and a plurality of other electronic devices 200 that are not in the same group as the own electronic device 1 are simply grouped.
  • a plurality of electronic devices in the same group can be similarly output as audio, similarly emitted, or similarly vibrated. Therefore, the behaviors of two or more other electronic devices 200 that capture the same subject are controlled in the same manner, and the behaviors of two or more electronic devices 200 that capture the same subject are controlled in the same manner. can do.
  • a plurality of electronic devices can be easily grouped. Further, according to the electronic devices 1 and 2, it is possible to similarly output a sound to a plurality of electronic devices grouped in the same group, to similarly emit light, or to vibrate similarly.
  • a program for executing each process of the electronic devices 1 and 2 according to the embodiment of the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. By doing so, you may perform each process of the electronic devices 1 and 2.
  • the “computer system” may include an OS and hardware such as peripheral devices.
  • the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
  • the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement
  • FIG. 20 is a perspective view showing an external configuration of the electronic device 1 and the electronic device 100 in this case.
  • the housing of the electronic device 1 (or 100) holds the display unit 40 and the detection unit 22.
  • the display unit 40 is provided on the plate surface of the housing.
  • a surface on which the display unit 40 is provided in the housing is hereinafter referred to as a display surface.
  • the detection unit 22 is provided on four side surfaces Fa to Fd corresponding to the four sides surrounding the display surface of the housing.
  • the detection unit 22A is provided on the side surface Fa
  • the detection unit 22B is provided on the side surface Fb
  • the detection unit 22C is provided on the side surface Fc
  • the detection unit 22D is provided on the side surface Fd.
  • the detection units 22A to 22D detect the presence / absence of contact from the outside (for example, the user) and the contact position (region) on each of the side surfaces Fa to Fd.
  • the symbols A to D are omitted, and are simply referred to as “detection unit 22” or “each detection unit 22”.
  • each detection unit 22 detects the position (contact position) of the user's finger that is in contact with each side surface.
  • the detection unit 14 acquires information on the contact position detected by each detection unit 22 as rhythm information. Specifically, the detection unit 14 (or 114) detects the gravitational direction by an acceleration sensor (not shown), determines the vertical direction with the gravitational direction as a downward direction, and a direction orthogonal to the vertical direction (the display unit 40). Is defined as the left-right direction. And the detection part 14 (or 114) makes the information of the contact position in each side of upper, lower, left, and right rhythm information.
  • the calculation unit 20 calculates the similarity of the contact position on each of the upper, lower, left, and right sides as the similarity of the rhythm information. For example, the calculation unit 20 calculates the distance between the contact position of the first electronic device 100 and the contact position of the second electronic device 100 on each of the upper, lower, left, and right side surfaces, and the similarity is higher as the calculated distances are closer. However, the similarity is lowered as the distance increases.
  • FIG. 21A and FIG. 21B are image diagrams showing an example of each pattern of how to grasp which is an index of the contact position. Pattern 1 shown in FIG. 21A is a way of gripping the left and right side surfaces. Moreover, the pattern 2 shown to FIG. 21B is how to grasp the upper and lower side surfaces.
  • the detection unit 14 (or 114) determines a grip pattern based on the contact position detected by each detection unit 22, and acquires the determined pattern as rhythm information.
  • the detection unit 14 sets the grip pattern as pattern 1 when the left and right side surfaces have contact positions, and sets the grip method pattern as pattern 2 when the upper and lower side surfaces have contact positions.
  • the calculation unit 20 increases the similarity of the electronic device 1 (or 100) having the same pattern and decreases the similarity of the electronic device 1 (or 100) having a different pattern. That is, the grouping unit 30 sets the electronic devices 1 (or 100) having the same pattern as the same group. As described above, when the detection unit 14 (or 114) acquires the grip pattern, the calculation processing amount of the similarity in the calculation unit 20 is reduced.
  • Operation control unit 196 Operation control information storage unit 2 Electronic device 18 Imaging unit 16 Rhythm information generation unit 290 Rhythm information storage unit 292 Connection information Storage unit, 294 ... Grouping information storage unit, 296 ... Operation control information storage unit, 200 ... Electronic device (other electronic device), 118 ... Imaging unit, 116 ... Rhythm information generation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 電子機器は、複数の電子機器それぞれの筐体の動きを表す複数のリズム情報を取得する取得部と、前記取得部によって取得された前記複数の電子機器の前記複数のリズム情報の類似度を算出する算出部と、前記算出部によって算出された前記複数の電子機器の前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成するグループ化部とを備える。

Description

電子機器及びグループ化方法
 本発明は、電子機器及びグループ化方法に関する。
 本願は、2011年3月3日に出願された特願2011-046396号、2011年3月9日に出願された特願2011-051536号、及び、2012年2月27日に出願された特願2012-40004号に基づき優先権を主張し、その内容をここに援用する。
 従来、入力画像間の類似性を評価することによって入力画像をグループ化する撮像装置が開示されている(例えば、特許文献1参照)。
特開2011-010275号公報
 しかしながら、特許文献1に開示された撮像装置の如く画像をグループ化する電子機器は、電子機器をグループ化しない。即ち、グループ化を行う電子機器といえども、グループ化の対象物は画像であって、電子機器自体をグループ化の対象とはしていない。従って、電子機器自体をグループ化した場合に実現され得る種々の応用処理(例えば、同一グループにグループ化された複数の電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように設定)を実現することができないという問題がある。
 本発明に係る態様は、複数の電子機器を簡便にグループ化する技術を提供することを目的とする。
 本発明に係る一態様の電子機器は、複数の電子機器それぞれの筐体の動きを表す複数のリズム情報を取得する取得部と、前記取得部によって取得された前記複数の電子機器の前記複数のリズム情報の類似度を算出する算出部と、前記算出部によって算出された前記複数の電子機器の前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成するグループ化部とを備える。
 上記態様において、前記取得部は、他の電子機器の筐体の前記リズム情報を受信する受信部を有し、前記算出部は、前記受信部によって受信された第1の他の電子機器の前記リズム情報と、前記受信部によって受信された第2の他の電子機器の前記リズム情報との類似度を算出し、前記グループ化部は、前記算出部によって算出された前記第1の他の電子機器の前記リズム情報と前記第2の他の電子機器の前記リズム情報との前記類似度が所定の閾値以上である場合に、前記第1の他の電子機器と前記第2の他の電子機器を同一グループにグループ化してもよい。
 上記態様において、前記取得部は、自電子機器の筐体の動きを検出する検出部と、他の電子機器の筐体の前記リズム情報を受信する受信部とを有し、前記算出部は、前記検出部によって検出された前記自電子機器の筐体の動きを表す前記リズム情報と、前記受信部によって受信された前記他の電子機器の前記リズム情報との類似度を算出し、前記グループ化部は、前記算出部によって算出された前記自電子機器の前記リズム情報と前記他の電子機器の前記リズム情報との前記類似度が所定の閾値以上である場合に、前記自電子機器と前記他の電子機器を同一グループにグループ化してもよい。
 本発明に係る一態様の電子機器は、複数の電子機器それぞれの筐体の各側面における接触位置を検知する検知部による検知結果に基づいて、ユーザによる前記筐体の握り方を表す複数のリズム情報を取得する取得部と、前記取得部によって取得された前記複数の電子機器の前記複数のリズム情報の類似度を算出する算出部と、前記算出部によって算出された前記複数の電子機器の前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成するグループ化部とを備える。
 本発明に係る一態様の電子機器は、複数の電子機器それぞれにおける撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表す複数のリズム情報を取得する取得部と、前記取得部によって取得された前記各オブジェクトの前記複数のリズム情報の類似度を算出する算出部と、前記算出部によって算出された前記各オブジェクトの前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成するグループ化部とを備える。
 上記態様において、前記取得部は、他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部を有し、前記算出部は、前記受信部によって受信された第1の他の電子機器によって撮像された第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された第2の他の電子機器によって撮像された第2の他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、前記グループ化部は、前記算出部によって算出された前記第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記第2の他の撮像画像内のオブジェクトの前記リズム情報との前記類似度が所定の閾値以上である場合に、前記第1の他の電子機器と前記第2の他の電子機器を同一グループにグループ化してもよい。
 上記態様において、前記取得部は、撮像部と、他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部とを有し、前記算出部は、前記撮像部によって撮像された自撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された前記他の電子機器によって撮像された他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、前記グループ化部は、前記算出部によって算出された前記自撮像画像内のオブジェクトの前記リズム情報と、前記他の撮像画像内のオブジェクトの前記リズム情報との前記類似度が所定の閾値以上である場合に、前記自電子機器と前記他の電子機器を同一グループにグループ化してもよい。
 上記態様において、前記グループ化部によって同一グループにグループ化された他の電子機器と通信するための接続情報を表示する表示部を更に備えてもよい。
 上記態様において、前記グループ化部によって同一グループにグループ化された複数の電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器に動作制御情報を送信する送信部を更に備えてもよい。
 本発明に係る一態様は、複数の電子機器をグループ化する方法であって、前記複数の電子機器それぞれの筐体の動きを表す複数のリズム情報を取得することと、取得された前記複数の電子機器の前記複数のリズム情報の類似度を算出することと、算出された前記複数の電子機器の前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成することと、を含む。
 本発明に係る一態様は、複数の電子機器をグループ化する方法であって、前記複数の電子機器それぞれにおける撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表す複数のリズム情報を取得することと、取得された前記各オブジェクトの前記複数のリズム情報の類似度を算出することと、算出された前記各オブジェクトの前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成することと、を含む。
 本発明に係る態様によれば、複数の電子機器を簡便にグループ化することできる。
本発明の第1実施形態による電子機器の処理の概要を説明するための模式図である。 本発明の第1実施形態による電子機器の処理の概要を説明するための模式図である。 電子機器の一例を示す構成図である。 電子機器の一部を示す構成図である。 電子機器の一部を示す構成図である。 電子機器が取得又は記憶する情報の一例である。 電子機器が取得又は記憶する情報の一例である。 電子機器が取得又は記憶する情報の一例である。 電子機器が取得又は記憶する情報の一例である。 電子機器が取得又は記憶する情報の一例である。 他の電子機器の一例を示す構成図である。 電子機器の動作の一例を示すフローチャートである。 電子機器によるグループ化の結果を説明するための模式図である。 電子機器によるグループ化の結果を説明するための模式図である。 電子機器によるグループ化の結果を説明するための模式図である。 本発明の第2実施形態による電子機器の処理の概要を説明するための模式図である。 本発明の第2実施形態による電子機器の処理の概要を説明するための模式図である。 電子機器の一例を示す構成図である。 電子機器の一部を示す構成図である。 電子機器の一部を示す構成図である。 電子機器の一部を示す構成図である。 電子機器が取得又は記憶する情報の一例である。 電子機器が取得又は記憶する情報の一例である。 電子機器が取得又は記憶する情報の一例である。 電子機器が取得又は記憶する情報の一例である。 電子機器が取得又は記憶する情報の一例である。 他の電子機器の一例を示す構成図である。 他の電子機器の一例を示す構成図である。 オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。 電子機器の動作の一例を示すフローチャートである。 電子機器によるグループ化の結果を説明するための模式図である。 電子機器によるグループ化の結果を説明するための模式図である。 電子機器によるグループ化の結果を説明するための模式図である。 電子機器1及び電子機器100の外観構成を示す斜視図である。 握り方のパターンの一例を示すイメージ図である。 握り方のパターンの一例を示すイメージ図である。
[第1実施形態]
 以下、図面を参照しながら本発明の実施形態について説明する。図1A及び1Bは、本発明の第1実施形態による電子機器1の処理の概要を説明するための模式図である。
 電子機器1(例えば、携帯型電子機器)は、複数の電子機器(例えば、携帯型電子機器)をグループ化する。
 例えば、電子機器1は、図1Aに示すように、自電子機器1の周辺に存在する複数の他の電子機器100をグループ化する。即ち、電子機器1は、破線に図示する様に、自電子機器1を除く、複数の電子機器100をグループ化の対象とする。
 また例えば、電子機器1は、図1Bに示すように、自電子機器1、及び、自電子機器1の周辺に存在する複数の他の電子機器100をグループ化する。即ち、電子機器1は、破線に図示する様に、自電子機器1を含む、複数の電子機器(電子機器1及び電子機器100)をグループ化の対象とする。
 なお、電子機器1及び複数の他の電子機器100の夫々は、例えば、所定の距離内に接近したときに、通信によって、互いの接続情報(後述)を自動的に交換するものとする。
 以下、図1Aに示す態様(自電子機器1を除く、複数の電子機器100をグループ化の対象とする態様)について説明する。なお、図1Bに示す態様(自電子機器1を含む、複数の電子機器(電子機器1及び電子機器100)をグループ化の対象とする態様)については後述する。
 図2A~2Cは、電子機器1の一例を示す構成図である。図3A~3Eは、電子機器1が取得又は記憶する情報の一例である。電子機器1は、図2Aに示すように、取得部10、算出部20、グループ化部30、表示部40、送信部50、動作制御部60、リズム情報記憶部90、接続情報記憶部92、グループ化情報記憶部94、及び、動作制御情報記憶部96を備える。
 取得部10は、図2Bに示すように、受信部12を有する。なお、取得部10は、図2Cに示すように、受信部12に加え検出部14を有してもよい。但し、図1Aに示す態様の場合、検出部14は必須でないため、検出部14を有しないものとして説明する。
 取得部10は、他の電子機器100の筐体の動きを表すリズム情報を取得する。具体的には、取得部10内の受信部12が、他の電子機器100の夫々から、図3Aに示すように、当該他の電子機器100の機器ID及び接続情報とともに、当該他の電子機器100のリズム情報を受信する。機器IDは、電子機器100の夫々を識別するための識別情報である。接続情報は、電子機器100の夫々と通信するための情報であって、例えば、プロトコルに係る情報、アドレス情報などである。
 なお、一の他の電子機器100が電子機器1に対し、リズム情報と一緒に接続情報を送信しない場合(例えば、当該リズム情報の送信前に、既に、機器IDとともに当該他の電子機器100の接続情報を電子機器1に送信(交換)していた場合)には、受信部12は、当該他の電子機器100の機器IDとともに、当該他の電子機器100のリズム情報を受信する。即ち、上述のような場合には、受信部12は、リズム情報と一緒に接続情報を受信しない。
 受信部12が受信するリズム情報は、図3Aに示すように、筐体の高さ方向(即ち、筐体の長手方向)への動き情報(例えば、周期、振幅)、筐体の幅さ方向(即ち、筐体の短手方向)への動き情報、筐体の厚み方向への動き情報の何れか1以上の動き情報を含む。なお、図3Aに示すリズム情報は、一例であって、受信部12が受信するリズム情報は、上記各動き情報に代えて又は加えて、筐体の高さ方向を軸とする動き情報(例えば、当該軸を中心とする回転角、周期)、筐体の幅さ方向を軸とする動き情報、筐体の厚み方向を軸とする動き情報、南北方向への動き情報、東西方向への動き情報、天地方向への動き情報、南北方向を軸とする動き情報、東西方向を軸とする動き情報、天地方向を軸とする動き情報の何れか1以上の情報を含むものであってもよい。
 また、リズム情報を構成する夫々の動き情報は、他の電子機器100において検出された検出値、又は、検出値に応じた指標(レベル)である。なお、検出値に応じた指標とは、例えば、周期については、早い動き、普通の動き、遅い動きの3段階のレベルであってもよいし、振幅については、大きな動き、普通の動き、小さな動きの3段階のレベルであってもよい。検出値に応じた指標を用いる場合、検出値を用いる場合に比べ、送受信するリズム情報のデータ量、類似度の算出の処理量が削減する。
 リズム情報を取得した取得部10(受信部12)は、取得(受信)したリズム情報をリズム情報記憶部90に記憶する。例えば、取得部10は、図3Bに示すように、機器IDに対応付けてリズム情報を記憶する。
 また、リズム情報を取得した取得部10は、リズム情報とともに取得した接続情報を接続情報記憶部92に記憶する。例えば、取得部10は、図3Cに示すように、機器IDに対応付けて接続情報を記憶する。なお、取得部10は、一の他の電子機器100からリズム情報を取得する前に、既に、機器IDとともに当該他の電子機器100の接続情報を取得(交換)していた場合には、当該取得(交換)時に、機器IDに対応付けて接続情報を記憶する。
 算出部20は、取得部10によって取得された複数の他の電子機器100のリズム情報の類似度を算出する。即ち、算出部20は、リズム情報記憶部90に記憶されている、夫々の電子機器100同士のリズム情報の類似度を算出する。つまり、算出部20は、第1の他の電子機器100(一の電子機器100)のリズム情報と、第2の他の電子機器100(当該一の電子機器100以外の電子機器100)のリズム情報との類似度を算出する。
 具体的には、例えば、算出部20は、リズム情報を構成する同一種類の動き情報同士の類似度を算出し、複数の、同一種類の動き情報同士の類似度に基づいて、第1の他の電子機器100のリズム情報と、第2の他の電子機器のリズム情報との類似度を算出する。例えば、リズム情報が、図3Aに示すように、筐体の高さ方向への動き情報、筐体の幅さ方向への動き情報、筐体の厚み方向への動き情報の3つの動き情報から構成されている場合、算出部20は、第1の他の電子機器100の筐体の高さ方向への動き情報と第2の他の電子機器100の筐体の高さ方向への動き情報との類似度を算出し、第1の他の電子機器100の筐体の幅さ方向への動き情報と第2の他の電子機器100の筐体の幅さ方向への動き情報との類似度を算出し、第1の他の電子機器100の筐体の厚み方向への動き情報と第2の他の電子機器100の筐体の厚み方向への動き情報との類似度を算出し、これら3つの類似度に基づいて、第1の他の電子機器100のリズム情報と、第2の他の電子機器のリズム情報との類似度を算出する。
 筐体の高さ方向への動き情報(筐体の幅さ方向への動き情報、筐体の厚み方向への動き情報も同様)同士の類似度の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、第1の他の電子機器100の筐体の高さ方向への動き情報(例えば周期)の値と、第2の他の電子機器100の筐体の高さ方向への動き情報(例えば周期)の値とを比較し、値の小さい一方を大きい他方で除した値を筐体の高さ方向への動き情報同士の類似度としてもよい。当該算出手法の場合、筐体の高さ方向への動き情報同士の類似度は0~1の範囲となり、類似している程、1に近い値となる。
 また、リズム情報を構成する同一種類の動き情報同士の類似度に基づいて、第1の他の電子機器100のリズム情報と、第2の他の電子機器のリズム情報との類似度を算出する算出手法としては、種々の算出手法が考えられるが、一例として、算出部20は、各動き情報同士の類似度の平均値を第1の他の電子機器100のリズム情報と、第2の他の電子機器のリズム情報との類似度としてもよい。即ち、上記の例では、算出部20は、筐体の高さ方向への動き情報同士の類似度、筐体の幅さ方向への動き情報同士の類似度、筐体の厚み方向への動き情報同士の類似度の平均値を、第1の他の電子機器100のリズム情報と、第2の他の電子機器のリズム情報との類似度としてもよい。当該算出手法の場合、第1の他の電子機器100のリズム情報と、第2の他の電子機器のリズム情報との類似度は0~1の範囲となり、類似している程、1に近い値となる。
 なお、上述の平均値の算出時において、所定の動き情報同士の類似度に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、動き情報同士の類似度の中央値、動き情報同士の類似度の最大値、動き情報同士の類似度同士の類似度の最小値を、第1の他の電子機器100のリズム情報と、第2の他の電子機器のリズム情報との類似度としてもよい。
 なお、算出部20が類似度の算出を開始するタイミングは特に限定しないが、例えば、算出部20は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、類似度を算出してもよい。
 上述の如く、複数の他の電子機器100のリズム情報の類似度を算出した算出部20は、類似度の算出結果をグループ化部30に出力する。
 グループ化部30は、算出部20によって算出された複数の他の電子機器100のリズム情報の類似度(類似度の算出結果)に基づいて、当該複数の他の電子機器100をグループ化する(即ち、グループ化の結果であるグループ化情報(後述)を生成する)。より詳細には、グループ化部30は、算出部20によって算出された第1の他の電子機器100のリズム情報と第2の他の電子機器のリズム情報との類似度が所定の閾値以上である場合に、第1の他の電子機器100と第2の他の電子機器100を同一グループにグループ化する。
 例えば、グループ化部30は、電子機器A、B、Cについて、電子機器A、Bのリズム情報の類似度が所定の閾値以上であって、かつ、電子機器A、Cのリズム情報の類似度が所定の閾値以上であって、かつ、電子機器B、Cのリズム情報の類似度が所定の閾値以上である場合に、電子機器A、B、Cを同一グループにグループ化する。つまり、グループ化部30は、仮に、電子機器A、Bのリズム情報の類似度と、電子機器B、Cのリズム情報の類似度が何れも所定の閾値以上であっても、電子機器A、Cのリズム情報の類似度が所定の閾値以上でない場合には、電子機器A、B、Cを同一グループにグループ化しない。
 なお、グループ化部30は、電子機器A、Bのリズム情報の類似度と、電子機器B、Cのリズム情報の類似度が何れも所定の閾値以上であって、かつ、電子機器A、Cのリズム情報の類似度が所定の閾値以上でない場合には、電子機器A、Bのリズム情報の類似度と、電子機器B、Cのリズム情報の類似度とを比較し、電子機器Aか電子機器Cの何れの一方と、電子機器Bとを同一グループにグループ化してもよい。即ち、電子機器A、Bのリズム情報の類似度が電子機器B、Cのリズム情報の類似度よりも高い場合には、電子機器A、Bを同一グループにグループ化し、電子機器B、Cのリズム情報の類似度が電子機器A、Bのリズム情報の類似度よりも高い場合には、電子機器B、Cを同一グループにグループ化してもよい。
 なお、グループ化部30が複数の他の電子機器100のグループ化を開始するタイミングは特に限定しないが、例えば、グループ化部30は、算出部20から類似度の算出結果を取得したときに、グループ化をしてもよい。
 上述の如く、複数の他の電子機器100をグループ化したグループ化部30は、グループ化情報をグループ化情報記憶部94に記憶する。例えば、グループ化部30は、図3Dに示すように、グループ化情報として、グループIDと所属機器情報とを対応付けてグループ化情報記憶部94に記憶する。グループIDは、グループの夫々を識別するための識別情報である。所属機器情報は、当該グループに所属する電子機器100(即ち、当該グループにグループ化された電子機器100)を識別する機器IDを含む情報である。
 表示部40は、種々の情報を表示する。例えば、表示部40は、グループ化部30によって同一グループにグループ化された他の電子機器100と通信するための接続情報を表示する。具体的には、表示部40は、接続情報記憶部92とグループ化情報記憶部94とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の機器IDと、当該他の電子機器100と通信するための接続情報とを表示する。なお、表示部40は、接続情報を表示せずに、グループ別に、機器IDのみを表示してもよい。
 なお、表示部40がグループ化情報、接続情報の表示を開始するタイミングは特に限定しないが、例えば、表示部40は、グループ化情報がグループ化情報記憶部94に記憶されたときに、グループ化情報、接続情報を表示してもよい。また、表示部40は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、グループ化情報、接続情報を表示してもよい。
 また、表示部40は、動作制御情報記憶部96に記憶されている動作制御情報を表示する。図3Eは、動作制御情報記憶部96に記憶されている動作制御情報の一例である。
 動作制御情報は、電子機器1、100の動作を制御するための制御情報であって、例えば、図3Eに示すように、音声出力を制御するための音声出力制御情報、発光を制御する発光制御情報、振動を制御するための振動制御情報の何れか1以上の制御情報を含む。また、各制御情報(音声出力制御情報、発光制御情報、振動制御情報)は夫々、複数の設定可能値(若しくは、設定可能範囲)を有する。なお、図3Eに示す動作制御情報は、一例であって、電子機器1、100の他の動作を制御するため他の制御情報を含むものであってもよい。
 なお、表示部40が動作制御情報の表示を開始するタイミングは特に限定しないが、例えば、表示部40は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を表示してもよい。例えば、送信部50が動作制御情報を送信する前に、表示部40は、送信する値(設定値)を確認するためのボタン(操作受付部に相当)を表示し、当該ボタンの押下により、送信前に、送信する値を表示してもよい。
 送信部50は、種々の情報を送信する。例えば、送信部50は、グループ化情報を他の電子機器100に送信する。具体的には、送信部50は、グループ化情報記憶部94を参照し、グループ別に、当該グループにグループ化された他の電子機器100の夫々に対し、当該グループに属する他の電子機器100の機器IDを送信する。
 また、送信部50は、グループ化部30によって同一グループにグループ化された複数の電子機器100が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器100に動作制御情報を送信する。具体的には、送信部50は、接続情報記憶部92とグループ化情報記憶部94と動作制御情報記憶部96とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の夫々が、同様に音声出力し、同様に発光し、又は、同様に振動するように、各グループにグループ化された夫々の他の電子機器100に動作制御情報を送信する。
 例えば、送信部50は、グループGにグループ化された複数の電子機器100の夫々に対し、同一の設定値(例えば、設定値a)の音声出力制御情報を送信し、グループGにグループ化された複数の電子機器100の夫々に対し、同一の設定値(例えば、設定値b)の音声出力制御情報を送信する。これにより、グループGにグループ化された電子機器100の夫々は、設定値aによる制御に従って音声を出力し、グループGにグループ化された電子機器100の夫々は、設定値bによる制御に従って音声を出力するようになる。発光制御情報、又は、振動制御情報を送信する場合も同様である。
 なお、送信部50が動作制御情報の送信を開始するタイミングは特に限定しないが、例えば、送信部50は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を送信してもよい。
 動作制御部60は、動作制御情報記憶部96に記憶されている動作制御情報に基づいて、種々の動作を制御する。例えば、音声出力制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って音声を出力するように制御し、発光制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って発光するように制御し、振動制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って振動するように制御する。
 なお、設定部(非図示)は、操作受付部(非図示)が設定値を指定するユーザ操作を受け付けたときに、当該設定値を動作制御情報記憶部96に記憶する。
 続いて、電子機器1によるグループ化の対象である他の電子機器100について説明する。図4は、他の電子機器100の一例を示す構成図である。他の電子機器100は、図4に示すように、検出部114、表示部140、送受信部150、動作制御部160、及び、動作制御情報記憶部196を備える。
 検出部114は、電子機器100の筐体の動きを検出する。即ち、検出部114は、動き情報を取得する。例えば、検出部114は、筐体の高さ方向への動き情報、筐体の幅さ方向への動き情報、筐体の厚み方向への動き情報、筐体の高さ方向を軸とする動き情報、筐体の幅さ方向を軸とする動き情報、筐体の厚み方向を軸とする動き情報、南北方向への動き情報、東西方向への動き情報、天地方向への動き情報、南北方向を軸とする動き情報、東西方向を軸とする動き情報、天地向を軸とする動き情報の何れか1以上の動き情報を取得する。
 動き情報を取得した検出部114は、取得した動き情報の検出値をリズム情報として送受信部150に出力する。なお、検出部114は、上述の検出値に応じた指標を算出し、当該指標をリズム情報として送受信部150に出力してもよい。
 送受信部150は、他の電子機器(電子機器1、他の電子機器100)との間で種々の情報を送受信する。例えば、送受信部150は、当該電子機器100の機器ID及び接続情報とともに、検出部114から取得したリズム情報を電子機器1に送信する。
 なお、送受信部150は、電子機器1にリズム情報を送信する前に、既に、機器IDとともに接続情報を電子機器1に送信(交換)していた場合には、リズム情報と一緒に接続情報を送信しなくてもよい。
 また、例えば、送受信部150は、グループ化情報を電子機器1から受信する。送受信部150は、グループ化情報を受信した場合に、受信したグループ化情報を表示部140に出力する。
 また例えば、送受信部150は、設定値を含む動作制御情報を電子機器1から受信する。送受信部150は、動作制御情報を受信した場合、設定部(非図示)を介して、当該動作制御情報の設定値を、動作制御情報記憶部196に記憶(更新)する。なお、動作制御情報記憶部196の構成は、電子機器1の動作制御情報記憶部96と同様である(図3E参照)。
 表示部140は、種々の情報を表示する。例えば、電子機器1から受信したグループ化情報、動作制御情報を表示する。
 動作制御部160は、動作制御情報記憶部196に記憶されている動作制御情報に基づいて、種々の動作を制御する。例えば、音声出力制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って音声を出力するように制御し、発光制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って発光するように制御し、振動制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って振動するように制御する。
 つまり、電子機器1から送信された動作制御情報(設定値)を受信した他の電子機器100は、当該動作制御情報(設定値)に従って動作する。従って、同一グループにグループ化された複数の電子機器100に、同一の設定値の音声出力制御情報を送信すれば、当該複数の電子機器は同様に音声を出力し、同一の設定値の発光制御情報を送信すれば、当該複数の電子機器は同様に発光し、同一の設定値の振動制御情報を送信すれば、当該複数の電子機器は同様に振動する。
 図5は、電子機器1の動作の一例を示すフローチャートである。図5に示すフローチャートの開始時において、リズム情報記憶部90には複数の他の電子機器100のリズム情報が記憶され、接続情報記憶部92には当該複数の他の電子機器100の接続情報が記憶されているものとする。
 図5において、算出部20は、リズム情報記憶部90に記憶されている複数の他の電子機器100のリズム情報の類似度を算出する(ステップS10)。算出部20は、類似度の算出結果をグループ化部30に出力する。
 グループ化部30は、算出部20による類似度の算出結果に基づいて、当該複数の他の電子機器100をグループ化し、グループ化情報を生成する(ステップS12)。グループ化部30は、グループ化情報をグループ化情報記憶部94に記憶する。グループ化部30は、グループ化情報をグループ化情報記憶部94に記憶した旨を表示部40に通知する。
 表示部40は、グループ化情報及び接続情報を表示する(ステップS14)。具体的には、表示部40は、接続情報記憶部92とグループ化情報記憶部94とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の機器IDと、当該他の電子機器100と通信するための接続情報とを表示する。
 送信部50は、接続情報記憶部92とグループ化情報記憶部94と動作制御情報記憶部96とを参照し、グループ別に、当該グループにグループ化された他の電子機器100の夫々が、同様に音声出力し、同様に発光し、又は、同様に振動するように、各グループにグループ化された夫々の他の電子機器100に動作制御情報を送信する(ステップS16)。そして、本フローチャートは終了する。なお、送信部50は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を送信してもよい。
 続いて、図1Bに示す態様(自電子機器1を含む、複数の電子機器(電子機器1及び電子機器100)をグループ化の対象とする態様)について説明する。
 図1Bに示す態様の電子機器1の構成が、上述の図1Aに示す態様の電子機器1の構成と異なる部分は、図2Cに示すように、受信部12に加え検出部14を有する点のみである。以下、差異部分(検出部14)を中心に説明する。
 取得部10は、他の電子機器100の筐体の動きを表すリズム情報、及び、自電子機器1の筐体の動きを表すリズム情報を取得する。具体的には、受信部12が、他の電子機器100の夫々から、図3Aに示すように、当該他の電子機器100の機器ID及び接続情報とともに、当該他の電子機器100のリズム情報を受信し、検出部14が、自電子機器1の筐体の動きを表すリズム情報を取得する。なお、検出部14は、他の電子機器100が備える検出部114と同様に、自電子機器1の筐体の動きを検出する。
 リズム情報を取得した取得部10(受信部12、検出部14)は、取得(受信、検出)したリズム情報をリズム情報記憶部90に記憶する。
 算出部20は、取得部10によって取得された複数の電子機器(自電子機器1、他の電子機器100)のリズム情報の類似度を算出する。つまり、算出部20は、検出部14によって検出された当該電子機器1のリズム情報と、受信部12によって受信された他の電子機器100のリズム情報との類似度を算出する。なお、算出部20は、受信部12によって受信された他の電子機器100間のリズム情報の類似度を算出してもよい。
 グループ化部30は、算出部20によって算出された当該電子機器1のリズム情報と他の電子機器100のリズム情報との類似度が所定の閾値以上である場合に、当該電子機器1と他の電子機器100を同一グループにグループ化する。なお、グループ化部30は、他の電子機器100間のリズム情報の類似度が所定の閾値以上である場合に、当該他の電子機器100間を同一グループにグループ化してもよい。
 グループ化部30によって何れかのグループに自電子機器1がグループ化された場合には、当該グループにグループ化された自電子機器1と1以上の他の電子機器100とが、同様に音声出力し、同様に発光し、又は、同様に振動するように処理をする。例えば、送信部50が、動作制御情報記憶部96に記憶されている設定値(自電子機器1の設定値)と同一の値を他の電子機器100に送信してもよいし、設定部(非図示)が、送信部50によって他の電子機器100に送信する値(他の電子機器100に対する設定値)を、自電子機器1の設定値として動作制御情報記憶部96に記憶してもよい。
 図6A~6Cは、電子機器1によるグループ化の結果を説明するための模式図である。
 図6Aは、図1Aに示した態様におけるグループ化の結果であって、電子機器1が、5台の他の電子機器100(電子機器A~E)のうち、3台の電子機器100(電子機器A、C、D)をグループGとし、2台の電子機器(電子機器B、E)をグループGとし、更に、Gにグループ化された電子機器(電子機器A、C、D)に同様に音声を出力させ、Gにグループ化された電子機器(電子機器B、E)に同様に音声を出力させている様子を表している。つまり、電子機器1によれば、複数の他の電子機器100を簡便にグループ化し、同一グループ内の複数の他の電子機器100に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。
 図6Bは、図1Bに示した態様におけるグループ化の結果であって、電子機器1が、自電子機器1及び5台の電子機器(電子機器A~E)のうち、4台の電子機器(自電子機器1、電子機器A、C、D)をグループGとし、更に、Gにグループ化された電子機器(自電子機器1、電子機器A、C、D)に同様に音声を出力させている様子を表している。つまり、電子機器1によれば、自電子機器1と同一グループとなる複数の他の電子機器100について簡便にグループ化し、グループ内の複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。
 図6Cは、図1Bに示した態様におけるグループ化の結果であって、電子機器1が、自電子機器1及び5台の電子機器(電子機器A~E)のうち、4台の電子機器(自電子機器1、電子機器A、C、D)をグループGとし、2台の電子機器(電子機器B、E)をグループGとし、更に、Gにグループ化された電子機器(自電子機器1、電子機器A、C、D)に同様に音声を出力させ、Gにグループ化された電子機器(電子機器B、E)に同様に音声を出力させている様子を表している。つまり、電子機器1によれば、自電子機器1と同一グループとなる複数の他の電子機器100、及び、自電子機器1と同一グループとならない複数の他の電子機器100について簡便にグループ化し、同一グループ内の複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。
[第2実施形態]
 以下、図面を参照しながら本発明の実施形態について説明する。図7A及び7Bは、本発明の第2実施形態による電子機器2の処理の概要を説明するための模式図である。なお、上記実施形態と同一または同等の構成要素には、同一または同等の符号を付し、その説明を適宜に簡略若しくは省略する。
 電子機器2(例えば、携帯型電子機器)は、複数の電子機器(例えば、携帯型電子機器)をグループ化する。
 例えば、電子機器2は、図7Aに示すように、自電子機器2の周辺に存在する複数の他の電子機器200をグループ化する。即ち、電子機器2は、破線に図示する様に、自電子機器2を除く、複数の電子機器200をグループ化の対象とする。
 また例えば、電子機器2は、図7Bに示すように、自電子機器2、及び、自電子機器2の周辺に存在する複数の他の電子機器200をグループ化する。即ち、電子機器2は、破線に図示する様に、自電子機器2を含む、複数の電子機器(電子機器2及び電子機器200)をグループ化の対象とする。
 なお、電子機器2及び複数の他の電子機器200の夫々は、例えば、所定の距離内に接近したときに、通信によって、互いの接続情報(後述)を自動的に交換するものとする。
 以下、図7Aに示す態様(自電子機器2を除く、複数の電子機器200をグループ化の対象とする態様)について説明する。なお、図7Bに示す態様(自電子機器2を含む、複数の電子機器(電子機器2及び電子機器200)をグループ化の対象とする態様)については後述する。
 図8A~8Dは、電子機器2の一例を示す構成図である。図9A~9Eは、電子機器2が取得又は記憶する情報の一例である。電子機器2は、図8Aに示すように、取得部10、算出部20、グループ化部30、表示部40、送信部50、動作制御部60、リズム情報記憶部290、接続情報記憶部292、グループ化情報記憶部294、及び、動作制御情報記憶部296を備える。
 取得部10は、図8Bに示すように、受信部12を有する。なお、取得部10は、図8Cに示すように、受信部12に加えリズム情報生成部16を有してもよい。また、取得部10は、図8Dに示すように、受信部12に加え撮像部18及びリズム情報生成部16を有してもよい。但し、図7Aに示す態様の場合、撮像部18及びリズム情報生成部16は必須でないため、撮像部18及びリズム情報生成部16を有しないものとして説明する。
 取得部10は、他の電子機器200によって撮像された撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する。具体的には、取得部10内の受信部12が、他の電子機器200の夫々から、図9Aに示すように、当該他の電子機器200の機器ID及び接続情報とともに、当該他の電子機器200によって撮像された撮像画像内のオブジェクトのリズム情報を受信する。機器IDは、電子機器200の夫々を識別するための識別情報である。接続情報は、電子機器200の夫々と通信するための情報であって、例えば、プロトコルに係る情報、アドレス情報などである。なお、リズム情報については、図11A乃至図17Dを用いて詳細に説明する。
 なお、一の他の電子機器200が電子機器2に対し、リズム情報と一緒に接続情報を送信しない場合(例えば、当該リズム情報の送信前に、既に、機器IDとともに当該他の電子機器200の接続情報を電子機器2に送信(交換)していた場合)には、受信部12は、当該他の電子機器200の機器IDとともに、当該他の電子機器200のリズム情報を受信する。即ち、上述のような場合には、受信部12は、リズム情報と一緒に接続情報を受信しない。
 リズム情報を取得した取得部10(受信部12)は、取得(受信)したリズム情報をリズム情報記憶部290に記憶する。例えば、取得部10は、図9Bに示すように、機器IDに対応付けてリズム情報を記憶する。
 また、リズム情報を取得した取得部10は、リズム情報とともに取得した接続情報を接続情報記憶部292に記憶する。例えば、取得部10は、図9Cに示すように、機器IDに対応付けて接続情報を記憶する。なお、取得部10は、一の他の電子機器200からリズム情報を取得する前に、既に、機器IDとともに当該他の電子機器200の接続情報を取得(交換)していた場合には、当該取得(交換)時に、機器IDに対応付けて接続情報を記憶する。
 算出部20は、リズム情報記憶部290に記憶されている複数のリズム情報の類似度を算出する。即ち、算出部20は、受信部12によって受信された第1の他の電子機器200によって撮像された第1の他の撮像画像内のオブジェクトのリズム情報と、受信部12によって受信された第2の他の電子機器200によって撮像された第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する。なお、類似度の算出については、図11A乃至図17Dを用いて詳細に説明する。
 なお、算出部20が類似度の算出を開始するタイミングは特に限定しないが、例えば、算出部20は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、類似度を算出してもよい。
 上述の如く、類似度を算出した算出部20は、類似度の算出結果をグループ化部30に出力する。
 グループ化部30は、算出部20によって算出されたリズム情報の類似度(類似度の算出結果)に基づいて、他の電子機器200をグループ化する(即ち、グループ化の結果であるグループ化情報(後述)を生成する)。より詳細には、グループ化部30は、算出部20によって算出された第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上である場合に、第1の他の電子機器200と第2の他の電子機器200を同一グループにグループ化する。
 例えば、グループ化部30は、電子機器A、B、Cについて、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上である場合に、電子機器A、B、Cを同一グループにグループ化する。
 つまり、グループ化部30は、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であっても、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上でない場合には、電子機器A、B、Cを同一グループにグループ化しない。
 なお、グループ化部30は、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上であって、かつ、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が所定の閾値以上でない場合には、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度とを比較し、電子機器Aか電子機器Cの何れの一方と、電子機器Bとを同一グループにグループ化してもよい。
 即ち、グループ化部30は、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度よりも高い場合には、電子機器A、Bを同一グループにグループ化し、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Cによって撮像された撮像画像内のオブジェクトのリズム情報との類似度が、電子機器Aによって撮像された撮像画像内のオブジェクトのリズム情報と、電子機器Bによって撮像された撮像画像内のオブジェクトのリズム情報との類似度よりも高い場合には、電子機器B、Cを同一グループにグループ化してもよい。
 なお、グループ化部30が複数の他の電子機器200のグループ化を開始するタイミングは特に限定しないが、例えば、グループ化部30は、算出部20から類似度の算出結果を取得したときに、グループ化をしてもよい。
 上述の如く、複数の他の電子機器200をグループ化したグループ化部30は、グループ化情報をグループ化情報記憶部294に記憶する。例えば、グループ化部30は、図9Dに示すように、グループ化情報として、グループIDと所属機器情報とを対応付けてグループ化情報記憶部294に記憶する。グループIDは、グループの夫々を識別するための識別情報である。所属機器情報は、当該グループに所属する電子機器200(即ち、当該グループにグループ化された電子機器200)を識別する機器IDを含む情報である。
 表示部40は、種々の情報を表示する。例えば、表示部40は、グループ化部30によって同一グループにグループ化された他の電子機器200と通信するための接続情報を表示する。具体的には、表示部40は、接続情報記憶部292とグループ化情報記憶部294とを参照し、グループ別に、当該グループにグループ化された他の電子機器200の機器IDと、当該他の電子機器200と通信するための接続情報とを表示する。なお、表示部40は、接続情報を表示せずに、グループ別に、機器IDのみを表示してもよい。
 なお、表示部40が上述の表示を開始するタイミングは特に限定しないが、例えば、表示部40は、グループ化情報がグループ化情報記憶部294に記憶されたときに表示してもよい。また、表示部40は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに表示してもよい。
 また、表示部40は、動作制御情報記憶部296に記憶されている動作制御情報を表示する。図9Eは、動作制御情報記憶部296に記憶されている動作制御情報の一例である。
 動作制御情報は、電子機器2、100の動作を制御するための制御情報であって、例えば、図9Eに示すように、音声出力を制御するための音声出力制御情報、発光を制御する発光制御情報、振動を制御するための振動制御情報の何れか1以上の制御情報を含む。また、各制御情報(音声出力制御情報、発光制御情報、振動制御情報)は夫々、複数の設定可能値(若しくは、設定可能範囲)を有する。なお、図9Eに示す動作制御情報は、一例であって、電子機器2、100の他の動作を制御するため他の制御情報を含むものであってもよい。
 なお、表示部40が動作制御情報の表示を開始するタイミングは特に限定しないが、例えば、表示部40は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を表示してもよい。例えば、送信部50が動作制御情報を送信する前に、表示部40は、送信する値(設定値)を確認するためのボタン(操作受付部に相当)を表示し、当該ボタンの押下により、送信前に、送信する値を表示してもよい。
 送信部50は、種々の情報を送信する。例えば、送信部50は、グループ化情報を他の電子機器200に送信する。具体的には、送信部50は、グループ化情報記憶部294を参照し、グループ別に、当該グループにグループ化された他の電子機器200の夫々に対し、当該グループに属する他の電子機器200の機器IDを送信する。
 また、送信部50は、グループ化部30によって同一グループにグループ化された複数の電子機器200が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器200に動作制御情報を送信する。具体的には、送信部50は、接続情報記憶部292とグループ化情報記憶部294と動作制御情報記憶部296とを参照し、グループ別に、当該グループにグループ化された他の電子機器200の夫々が、同様に音声出力し、同様に発光し、又は、同様に振動するように、各グループにグループ化された夫々の他の電子機器200に動作制御情報を送信する。
 例えば、送信部50は、グループGにグループ化された複数の電子機器200の夫々に対し、同一の設定値(例えば、設定値a)の音声出力制御情報を送信し、グループGにグループ化された複数の電子機器200の夫々に対し、同一の設定値(例えば、設定値b)の音声出力制御情報を送信する。これにより、グループGにグループ化された電子機器200の夫々は、設定値aによる制御に従って音声を出力し、グループGにグループ化された電子機器200の夫々は、設定値bによる制御に従って音声を出力するようになる。発光制御情報、又は、振動制御情報を送信する場合も同様である。
 なお、送信部50が動作制御情報の送信を開始するタイミングは特に限定しないが、例えば、送信部50は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を送信してもよい。
 動作制御部60は、動作制御情報記憶部296に記憶されている動作制御情報に基づいて、種々の動作を制御する。例えば、音声出力制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って音声を出力するように制御し、発光制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って発光するように制御し、振動制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って振動するように制御する。
 なお、設定部(非図示)は、操作受付部(非図示)が設定値を指定するユーザ操作を受け付けたときに、当該設定値を動作制御情報記憶部296に記憶する。
 続いて、電子機器2によるグループ化の対象である他の電子機器200について説明する。図10A及び10Bは、他の電子機器200の一例を示す構成図である。他の電子機器200は、図10Aに示すように、撮像部118、リズム情報生成部116、表示部140、送受信部150、動作制御部160、及び、動作制御情報記憶部196を備える。なお、図10Bは、電子機器200の他の構成である(後述)。
 撮像部118は、静止画像及び動画像を撮像する。リズム情報生成部116は、撮像部118によって撮像された動画像からオブジェクトを抽出し、動画像から抽出したオブジェクトのリズム情報を生成する。リズム情報を生成したリズム情報生成部116は、生成したリズム情報を送受信部150に出力する。なお、リズム情報生成部116(リズム情報生成部16(後述)も同様)によるリズム情報の生成については、図11A乃至図17Dを用いて詳細に説明する。
 送受信部150は、他の電子機器(電子機器2、他の電子機器200)との間で種々の情報を送受信する。例えば、送受信部150は、当該電子機器200の機器ID及び接続情報とともに、リズム情報生成部116から取得したリズム情報を電子機器2に送信する。
 なお、送受信部150は、電子機器2にリズム情報を送信する前に、既に、機器IDとともに接続情報を電子機器2に送信(交換)していた場合には、リズム情報と一緒に接続情報を送信しなくてもよい。
 また、例えば、送受信部150は、グループ化情報を電子機器2から受信する。送受信部150は、グループ化情報を受信した場合に、受信したグループ化情報を表示部140に出力する。
 また例えば、送受信部150は、設定値を含む動作制御情報を電子機器2から受信する。送受信部150は、動作制御情報を受信した場合、設定部(非図示)を介して、当該動作制御情報の設定値を、動作制御情報記憶部196に記憶(更新)する。なお、動作制御情報記憶部196の構成は、電子機器2の動作制御情報記憶部296と同様である(図9E参照)。
 表示部140は、種々の情報を表示する。例えば、電子機器2から受信したグループ化情報、動作制御情報を表示する。
 動作制御部160は、動作制御情報記憶部196に記憶されている動作制御情報に基づいて、種々の動作を制御する。例えば、音声出力制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って音声を出力するように制御し、発光制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って発光するように制御し、振動制御情報の設定可能値のうち設定部(非図示)によって設定された設定値に従って振動するように制御する。
 つまり、電子機器2から送信された動作制御情報(設定値)を受信した他の電子機器200は、当該動作制御情報(設定値)に従って動作する。従って、同一グループにグループ化された複数の電子機器200に、同一の設定値の音声出力制御情報を送信すれば、当該複数の電子機器は同様に音声を出力し、同一の設定値の発光制御情報を送信すれば、当該複数の電子機器は同様に発光し、同一の設定値の振動制御情報を送信すれば、当該複数の電子機器は同様に振動する。
 なお、電子機器2の取得部10がリズム情報生成部16を有する場合(図8C又は図8Dの構成の場合)、リズム情報の生成は電子機器2にて可能であるため、他の電子機器200は、図10Bに示すように、リズム情報生成部116を備えていなくてもよい。
 つまり、電子機器2の取得部10がリズム情報生成部16を有し、他の電子機器200がリズム情報生成部116を有する場合、他の電子機器200の送受信部150は、当該電子機器200の機器ID及び接続情報とともに、撮像部118によって撮像された動画像を電子機器2に送信する。電子機器2において、受信部12は、他の電子機器200から動画像を受信し、リズム情報生成部16は、受信部12が受信した動画像からオブジェクトを抽出し、抽出したオブジェクトのリズム情報を生成し、機器IDに対応付けてリズム情報記憶部290に記憶する。
 以下、図11A乃至図17Dを用いて、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報の生成、オブジェクトの時間的又は空間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明する。具体的には、まず、図11A乃至図13Cを用いて、オブジェクトの時間的な変化のパターンを表すリズム情報、オブジェクトの時間的な変化のパターンを表すリズム情報の生成、オブジェクトの時間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明し、続いて、図14A乃至図17Dを用いて、オブジェクトの空間的な変化のパターンを表すリズム情報、オブジェクトの空間的な変化のパターンを表すリズム情報の生成、オブジェクトの空間的な変化のパターンを表すリズム情報における類似度の算出について詳細に説明する。
 図11A乃至図13Cは、オブジェクトの時間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。
 他の電子機器200のリズム情報生成部116(電子機器2のリズム情報生成部16も同様)は、動画像からオブジェクトを抽出し、抽出したオブジェクトに外接する外接図形の面積の変化量、長辺又は短辺の長さの変化量、縦横比の変化量、面積の変化の周期、長さの変化の周期、又は、縦横比の変化の周期を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報を生成する。
 例えば、リズム情報生成部116は、以下に例示するパラメータ1~12(以下、prm1~prm12と表記)のうち1以上のパラメータの値を用いて、オブジェクトの時間的な変化のパターンを表すリズム情報を生成する。なお、prm1~prm12における所定時間は、例えば、外接矩形の変化の周期を基準とする時間(例えば1周期)である。
また、prm7-1~prm9-2における長辺及び短辺は、ある基準時刻(例えば、1周期の最初)の長さに基づいて決定する。また、単に、便宜上、Y軸方向(若しくはX軸方向)を長辺として決めておいてもよい。
(リズム情報を構成するパラメータ)
prm1:所定時間内における外接矩形の最大面積と最小面積の差
prm2:所定時間内における外接矩形の最大面積と最小面積の面積比
prm3-1:所定時間内における外接矩形の平均面積と最大面積の差
prm3-2:所定時間内における外接矩形の平均面積と最小面積の差
prm4-1:所定時間内における外接矩形の平均面積と最大面積の面積比
prm4-2:所定時間内における外接矩形の平均面積と最小面積の面積比
prm5:所定時間内における外接矩形の面積の分布状況(例:標準偏差)
prm6:所定時間内における外接矩形の面積の変化の周期
prm7-1:所定時間内における外接矩形の長辺の最大変化量
prm7-2:所定時間内における外接矩形の短辺の最大変化量
prm8-1:所定時間内における外接矩形の長辺の分布状況(例:標準偏差)
prm8-2:所定時間内における外接矩形の短辺の分布状況(例:標準偏差)
prm9-1:所定時間内における外接矩形の長辺の変化の周期
prm9-2:所定時間内における外接矩形の短辺の変化の周期
prm10:所定時間内における外接矩形の縦横比の最大変化量
prm11:所定時間内における外接矩形の縦横比の分布状況(例:標準偏差)
prm12:所定時間内における外接矩形の縦横比の変化の周期
 以下、具体例を用いてリズム情報生成部116によるリズム情報の生成について説明する。図11Aに示すPは、動画像を構成する1コマであって、人物(オブジェクトO)が両手両足を非常に振っている瞬間に撮像されたものである。図11Cに示すPは、動画像を構成する1コマであって、人物(オブジェクトO)が両手両足を振り下ろしている瞬間に撮像されたものである。図11Bに示すPは、PとPの間の1コマである。
 図12Aに示すEは、図11Aに示すP内のオブジェクトOに外接する外接矩形である。図12Bに示すEは、図11Bに示すP内のオブジェクトOに外接する外接矩形である。図12Cに示すEは、図11Cに示すP内のオブジェクトOに外接する外接矩形である。なお、図12Dは、外接矩形E、E、Eの各サイズを比較したものである。図12Dに示すように、オブジェクトの動きに応じて当該オブジェクトに外接する外接矩形の形状は変化する。
 算出部20は、動画像(P、P、P、…)から、オブジェクトOを逐次抽出し、図13Aに示すように、オブジェクトOに外接する外接図形を逐次抽出し、図13Bに示すように、逐次抽出する外接矩形のサイズを算出する。なお、図13Aに示す「周期」は、外接矩形の形状の変化の周期を示している。つまり、時刻t~時刻t(時刻t~時刻t、時刻t~時刻t13、…)が1周期である。
 リズム情報生成部116は、外接矩形のサイズを用いて、所定の1以上のパラメータを算出し、算出した各パラメータの値を要素とする数値群を、オブジェクトOの時間的な変化のパターンを表すリズム情報とする。例えば、リズム情報生成部116は、図13Cに示すように、オブジェクトOの外接矩形の最大面積と最小面積の面積比(prm2)、面積の変化の周期(prm6)、長辺の最大変化量(prm7-1)、短辺の最大変化量(prm7-1)、縦横比の最大変化量(prm10)の値を要素とする数値群を、オブジェクトOの時間的な変化のパターンを表すリズム情報R(prm2、prm6、prm7-1、prm7-2、prm10)とする。
 なお、リズム情報は、後に、比較をし易いように、各パラメータの値を適宜丸めたものであってもよいし、各パラメータの値を他の値に置き換えたものであってもよい(スコア化してもよい)。
 リズム情報生成部116が、上述の如く、各パラメータの値を要素とする数値群から構成されるリズム情報を生成した場合、電子機器2の算出部20は、第1の他の電子機器200によって撮像された第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の電子機器200によって撮像された第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する。具体的には、算出部20は、リズム情報を構成する同一のパラメータ同士の類似度を算出し、複数の、同一のパラメータ同士の類似度に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する。
 例えば、リズム情報が、prm2、prm6、prm7-1、prm7-2、prm10から構成されている場合、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値と第2の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値とを比較してprm2の値同士の類似度を算出する。同様に、算出部20は、prm6の値同士の類似度、prm7-1の値同士の類似度、prm7-2の値同士の類似度、prm10の値同士の類似度を算出する。
 prm2(prm6、prm7-1、prm7-2、prm10も同様)の値同士の類似度の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値と、第1の他の撮像画像内のオブジェクトのリズム情報を構成するprm2の値とを比較し、値の小さい一方を大きい他方で除した値をprm2の値同士の類似度としてもよい。当該算出手法の場合、パラメータの値同士の類似度は0~1の範囲となり、類似している程、1に近い値となる。
 また、各パラメータの値同士の類似度に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する算出手法としては、種々の算出手法が考えられるが、一例として、算出部20は、各パラメータ同士の類似度の平均値を第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。即ち、上記の例では、算出部20は、prm2の値同士の類似度、prm6の値同士の類似度、prm7-1の値同士の類似度、prm7-2の値同士の類似度、prm10の値同士の類似度の平均値を、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。当該算出手法の場合、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度は0~1の範囲となり、類似している程、1に近い値となる。
 なお、上述の平均値の算出時において、所定のパラメータ同士の類似度に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、パラメータ同士の類似度の中央値、パラメータ同士の類似度の最大値、パラメータ同士の類似度の最小値を、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。
 以上、リズム情報が、オブジェクトの時間的な変化のパターンを表すものである場合について説明したが、続いて、リズム情報が、オブジェクトの空間的な変化のパターンを表すものである場合について説明する。図14A乃至図17Dは、オブジェクトの空間的な変化のパターンを表すリズム情報、当該リズム情報の生成、当該リズム情報における類似度の算出について説明するための説明図である。
 図14A~14Cは、動画像(P11、P12、P13)から抽出された信号機のオブジェクト(O)を模式的に表したものである。図14Aは信号機が青であるときのオブジェクトO、図14Bは信号機が黄であるときのオブジェクトO、図14Cは信号機が赤であるときのオブジェクトOを示している。図14A~図14Cにおいて、r1は信号機本体の撮像領域、r2は信号機本体を支持する支持部の撮像領域である。r1-1はr1内の領域であって青ランプを保持する保持部の撮像領域、r1-2はr1内の領域であって黄ランプを保持する保持部の撮像領域、r1-3はr1内の領域であって赤ランプを保持する保持部の撮像領域である。r1-1-1はr1-1内の領域であって青ランプの撮像領域、r1-2-1はr1-2内の領域であって黄ランプの撮像領域、r1-3-1はr1-3内の領域であって赤ランプの領域である。
 なお、説明の便宜上、信号機が青の場合、点灯中の青ランプの色は青緑色、消灯中の黄ランプ及び赤ランプの色は黒色であるものとする。即ち、図14Aにおける、青ランプの領域r1-1-1の色は青緑色、黄ランプの領域r1-2-1の色は黒色、赤ランプの領域r1-3-1の色は黒色であるものとする。信号機が黄の場合、点灯中の黄ランプの色は黄色、消灯中の青ランプ及び赤ランプの色は黒色であるものとする。即ち、図14Bにおける、青ランプの領域r1-1-1の色は黒色、黄ランプの領域r1-2-1の色は黄色、赤ランプの領域r1-3-1の色は黒色であるものとする。信号機が赤の場合、点灯中の赤ランプの色は赤色、消灯中の青ランプ及び黄ランプの色は黒色であるものとする。即ち、図14Cにおける、青ランプの領域r1-1-1の色は黒色、黄ランプの領域r1-2-1の色は黒色、赤ランプの領域r1-3-1の色は赤色であるものとする。
 また、信号機が青、黄、赤の何れの場合において、ランプ以外の領域は全て灰色であるものとする。
 図15Aは、オブジェクトOを構成する画素グループ(単位領域)を模式的に表したものである。画素グループは、所定数の隣接画素から構成される。
 図15Bは、図15Aに示すように、オブジェクトOを複数の画素グループに分割した場合における、オブジェクトOの空間的な変化のパターンを表すリズム情報である。図15Bに示す画素グループID(a-4、a-5、…)は、オブジェクトOを構成する画素グループ(即ち、図15Aに示す画素グループ)を識別する識別情報である。例えば、図15Bに示す画素グループID「a-4」は、図15Aに示す符号Gの画素グループ(横方向のインデックス「4」及び縦方向のインデックス「a」によって規定される画素グループ)を示している。
 図15Bに示す各時刻(t1、t2、…)は、図14に示す信号機の撮像タイミングである。t1~t3は、図14Aに示すように信号が青のときの撮像タイミングである。
t4は、図14Bに示すように信号が黄のときの撮像タイミングである。t5~t7は、図14Cに示すように信号が赤のときの撮像タイミングである。即ち、t1~t7は、オブジェクトOの色の変化の1周期である。なお、図15Bに示す時刻は、説明の便宜上の時刻である(実際の信号機の場合、通常、黄の時間に対する青(及び赤)の時間は長い。)。
 図15Bに示す各値(D1~D7)は、リズム情報を構成する値であって、各撮像タイミング(t1、t2、…)における、オブジェクトOを構成する各画素グループの平均画素値である。なお、D1は灰色を示す画素値、D2は青緑色を示す画素値、D3は黒色を示す画素値、D4は黒色を示す画素値、D5は黄色を示す画素値、D6は黒色を示す画素値、D7は赤色を表す画素値である。
 つまり、図15Bに示すリズム情報は、オブジェクトOを構成する画素グループ毎の色の変化のパターンであって、例えば、以下の特徴1~特徴10を示している。
特徴1:オブジェクトOの主要部の領域(図14A~14Cに示す領域r1)のうち、中央の領域(図14A~14Cに示す領域r1-2-1)の左側に位置する領域(図14A~14Cに示す領域r1-1-1)は、色が、青緑色(D2)と黒色(D3)とに周期的に変化する。
特徴2:オブジェクトOの主要部の領域のうち、中央の領域は、色が、黒色(D4)と黄色(D5)とに周期的に変化する。
特徴3:オブジェクトOの主要部の領域のうち、中央の領域の右側に位置する領域(図14A~14Cに示す領域r1-3-1)は、色が、黒色(D6)と赤色(D7)とに周期的に変化する。
特徴4:オブジェクトOの主要部の領域のうち、中央の領域、中央の領域の左側に位置する領域、中央の領域の右側に位置する領域を除いた領域(図14A~14Cに示す領域r1から領域r1-1-1、領域r1-2-1及び領域r1-3-1を除いた領域)は、常に、灰色(D1)であって色の変化がない。
特徴5:オブジェクトOの主要部以外の領域(図14A~14Cに示す領域r2)は、常に、灰色(D1)であって色の変化がない。
特徴6:中央の領域の左側に位置する領域(領域r1-1-1)が青緑色(D2)から黒色(D3)に変化した後に、中央の領域(領域r1-2-1)が黒色(D4)から黄色(D5)に変化する。
特徴7:中央の領域(領域r1-2-1)が黄色(D5)から黒色(D4)に変化した後に、中央の領域の右側に位置する領域(領域r1-3-1)が黒色(D6)から赤色(D7)に変化する。
特徴8:中央の領域の右側に位置する領域(領域r1-3-1)が赤色(D7)から黒色(D6)に変化した後に、中央の領域の左側に位置する領域(領域r1-1-1)が黒色(D3)から青緑色(D2)に変化する。
特徴9:青緑色(D2)に変化する中央の領域の左側に位置する領域(領域r1-1-1)と、黄色(D5)に変化する中央の領域(領域r1-2-1)と、赤色(D7)に変化する中央の領域の右側に位置する領域(領域r1-3-1)とは、略同じ大きさである。
特徴10:中央の領域の左側に位置する領域(領域r1-1-1)が青緑色(D2)である時間と、中央の領域の右側に位置する領域(領域r1-3-1)が赤色(D7)である時間は等しく、中央(領域r1-2-1)の領域が黄色(D5)である時間の略3倍である。
 他の電子機器200のリズム情報生成部116(電子機器2のリズム情報生成部16も同様)は、動画像からオブジェクトを抽出し、当該オブジェクトの空間的な変化のパターンを表すリズム情報を生成する。例えば、リズム情報生成部116は、オブジェクトOを抽出した場合、図15Bに示すように、オブジェクトOを構成する画素グループ毎の色の変化の示す各値を要素とする数値値から構成されるリズム情報を生成する。
 リズム情報生成部116が、上述の如く、夫々のオブジェクトのリズム情報を生成した場合、電子機器2の算出部20は、第1の他の電子機器200によって撮像された第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の電子機器200によって撮像された第2の他の撮像画像内のオブジェクトのリズム情報との類似度を、上述する1以上の特徴に関係する類似度に基づいて算出する。
 例えば、上述の特徴2に関係する類似度を用いて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。当該場合、算出部20は、例えば、第1の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部の中央領域の色の周期的な変化と、第2の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部の中央領域の色の周期的な変化との類似度を算出し、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。
 「主要部の中央領域の色の周期的な変化の類似度」の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」とに基づいて「主要部の中央領域の色の周期的な変化の類似度」を算出してもよい。なお、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」と、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」とを比較し、短い方の周期を長い方の周期で除した値を「主要部の中央領域の色の変化の周期の類似度」としてもよい。
 例えば、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」が4秒、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域の色の変化の周期」が3秒である場合、周期「3(秒)」を周期「4(秒)」で除した値「0.75」を「主要部の中央領域の色の変化の周期の類似度」とする。当該算出手法の場合、「主要部の中央領域の色の変化の周期の類似度」は0~1の範囲となり、類似している程、1に近い値となる。
 また、算出部20は、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色(比較のため階調数を削減した色、他も同様)」と、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色」とを比較し、現れる数の多い方の色数を何れかによって現れる色の色数で除した値を「主要部の中央領域に現れる色の類似度」としてもよい。
 例えば、第1の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色」が3色、第2の他の撮像画像内のオブジェクトのリズム情報による「主要部の中央領域に現れる色」が5色である場合、色数「5(色)」を色数「8(色)」で除した値「0.625」を「主要部の中央領域に現れる色の類似度」とする。当該算出手法の場合、「主要部の中央領域に現れる色の類似度」は0~1の範囲となり、類似している程、1に近い値となる。
 また、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」とに基づいて「主要部の中央領域の色の周期的な変化の類似度」を算出する算出手法としては、種々の算出手法が考えられるが、一例として、算出部20は、「主要部の中央領域の色の変化の周期の類似度」と「主要部の中央領域に現れる色の類似度」の平均値を「主要部の中央領域の色の周期的な変化の類似度」としてもよい。
 例えば、「主要部の中央領域の色の変化の周期の類似度」が0.75、「主要部の中央領域に現れる色の類似度」が0.625である場合、平均値「0.6875」を「主要部の中央領域の色の周期的な変化の類似度」とする。当該算出手法の場合、「主要部の中央領域の色の周期的な変化の類似度」は0~1の範囲となり、類似している程、1に近い値となる。
 なお、上述の平均値の算出時において、「主要部の中央領域の色の変化の周期の類似度」又は「主要部の中央領域に現れる色の類似度」に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、中央値、最大値、又は、最小値を、「主要部の中央領域の色の周期的な変化の類似度」としてもよい。
 また例えば、上述の特徴5に関係する類似度を用いて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。当該場合、算出部20は、例えば、第1の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部以外の領域の変化しない色と、第2の他の撮像画像内のオブジェクトのリズム情報によって示されるオブジェクトの主要部以外の領域の変化しない色との類似度を算出し、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。
 「主要部以外の領域の変化しない色の類似度」の算出手法としては種々の算出手法が考えられるが、一例として、算出部20は、予め、一の色と他の色との色の類似度を示す類似色情報(0から1の範囲をとり、色同士が類似している程、1に近い値をとる情報)を保持し、当該類似色情報に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色と、第2の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色の類似度を算出し、算出した値を「主要部以外の領域の変化しない色の類似度」としてもよい。但し、第1の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色が周期的に変化する場合、又は、第2の他の撮像画像内のオブジェクトのリズム情報による主要部以外の領域の色が周期的に変化した場合の何れかに該当する場合には、「主要部以外の領域の変化しない色の類似度」を0とする。
 また、算出部20が、2以上の特徴に関係する類似度を用いて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出する場合には、各特徴に関係する類似度に基づいて、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。例えば、上述の特徴2及び特徴5に関係する類似度を用いる場合、特徴2に関係する類似度と、特徴5に関係する類似度とを夫々算出し、特徴2に関係する類似度と特徴5に関係する類似度の平均値を、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。
 例えば、「特徴2に関係する類似度(例えば、上記の中央領域の色の周期的な変化の類似度)」が0.875、「特徴5に関係する類似度(例えば、上記の主要部以外の領域の変化しない色の類似度)」が0.825である場合、平均値「0.85」を第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度としてもよい。
 なお、上述の平均値の算出時において、「特徴2に関係する類似度」又は「特徴5に関係する類似度」に重み付けをした後に平均値を算出してもよい。なお、平均値は、相加平均に限らず、相乗平均を用いてもよい。また、平均値に代えて、中央値、最大値、又は、最小値を、「第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度」としてもよい。
 なお、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を、特徴2、特徴5に関係する類似度に基づいて算出する例を説明したが、他の夫々の特徴に応じた夫々の算出手法を適用して、第1の他の撮像画像内のオブジェクトのリズム情報と、第2の他の撮像画像内のオブジェクトのリズム情報との類似度を算出してもよい。
 なお、図15Bに示す各値(D1~D7)として、画素グループ毎の平均画素値を用いる例を説明したが、平均画素値に代えて、例えば、最大画素値(画素グループ内の複数の画素の画素値の最大値)、最小画素値(画素グループ内の複数の画素の画素値の最小値)、中央値(画素グループ内の複数の画素の画素値の中央値)を用いてもよい。
 また、所定数の隣接画素を画素グループとし、リズム情報を構成する各値(図15Bに示す各値(D1~D7))を算出する例を説明したが、画素値の差が所定値以下である隣接画素を画素グループとし、リズム情報を構成する各値を算出してもよい。
 図16Aは、図14A~14Cに示した信号機のオブジェクトOを構成する画素において、画素値の差が所定数以下である隣接画像を画素グループとして模式的に表したものである。
図16Aにおいて、Ga1~Ga4は、各撮像タイミング(t1~t7)の何れにおいても画素値の差が所定数以下である隣接画像を画素グループである(図15B参照)。具体的には、Ga1は青ランプの領域r1-1-1、Ga2は黄ランプの領域r1-2-1、Ga3は赤ランプの領域r1-3-1、Ga4はランプ以外の領域を表している(図14A~14C参照)。
 図16Bは、オブジェクトOを図16Aの如く複数の画素グループに分割した場合における、オブジェクトOの空間的な変化のパターンを表すリズム情報である。
図16Bに示す各値(D1~D7)は、リズム情報を構成する値であって、各撮像タイミング(t1、t2、…)における、オブジェクトOを構成する各画素グループの平均画素値である。但し、上述した様に、平均値に代えて、最大画素値、最小画素値、中央値を用いてもよい。
 図17Aは、図14A~14Cに示した信号機のオブジェクトOを構成する画素において、画素値の差が所定数以下である隣接画像を画素グループとして模式的に表したものである。
図17Aにおいて、Gb1及びGb4は、信号が青のときの撮像タイミング(t1~t3)において画素値の差が所定数以下である隣接画像を画素グループである(図15B参照)。具体的には、Gb1は青色の領域、Gb4は黒色及び灰色の領域を表している(図14A~14C参照)。即ち、消灯中の黄ランプ及び赤ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。
 図17Bにおいて、Gb2及びGb4は、信号が黄のときの撮像タイミング(t4)において画素値の差が所定数以下である隣接画像を画素グループである(図15B参照)。具体的には、Gb2は黄色の領域、Gb4は黒色及び灰色の領域を表している(図14A~14C参照)。即ち、消灯中の青ランプ及び赤ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。
 図17Cにおいて、Gb3及びGb4は、信号が赤のときの撮像タイミング(t5~t7)において画素値の差が所定数以下である隣接画像を画素グループである(図15B参照)。具体的には、Gb3は赤色の領域、Gb4は黒色及び灰色の領域を表している(図14A~14C参照)。即ち、消灯中の青ランプ及び黄ランプの領域の画素値(黒色を示す値)とランプ以外の領域の画素値(灰色を示す値)の差は、所定値以下であるものとする。
 図17Dは、オブジェクトOを図17A~Cの如く複数の画素グループに分割した場合における、オブジェクトOの空間的な変化のパターンを表すリズム情報である。図17Dに示す各値(S1~S7)は、リズム情報を構成する値であって、各撮像タイミングにおける各画素グループの分布(領域の形状)である。具体的には、S1は青ランプの領域r1-1-1、S2は黄ランプの領域r1-2-1、S3は赤ランプの領域r1-3-1、S4は青ランプ以外の領域、S5は黄ランプ以外の領域、S6は赤ランプ以外の領域の分布を表している。
 即ち、図15Bに示すように所定数の隣接画素を画素グループとしリズム情報を表現するのではなく、図16B又は図17Dに示すように画素値の差が所定値以下である隣接画素を画素グループとしリズム情報を表現してもよく、図16B又は図17Dに示すように画素値の差が所定値以下である隣接画素を画素グループとしリズム情報を表現した場合には、図15Bに示すように所定数の隣接画素を画素グループとしリズム情報を表現した場合と同様に、リズム情報の類似度を算出する。
 以上、図11A乃至図17Dを用いて、リズム情報を、オブジェクトの時間的な変化のパターンとして表現し、類似度を算出する場合(図11A乃至図13C)と、オブジェクトの空間的な変化のパターンとして表現し、類似度を算出する場合(図14A乃至図17D)とを個々に説明したが、リズム情報を、時間的な変化のパターン及び空間的な変化のパターンとして表現し、類似度を算出してもよい。即ち、類似度を算出する対象のリズム情報の形式が同一であれば、リズム情報同士の類似度の算出が可能であるため、オブジェクトの時間的な変化のパターンをリズム情報としても、オブジェクトの空間的な変化のパターンをリズム情報としても、両方のパターンをリズム情報としてもよい。
 図18は、電子機器2の動作の一例を示すフローチャートである。図18に示すフローチャートの開始時において、リズム情報記憶部290には複数の他の電子機器200のリズム情報が記憶され、接続情報記憶部292には当該複数の他の電子機器200の接続情報が記憶されているものとする。
 図18において、算出部20は、リズム情報記憶部290に記憶されている複数の他の電子機器200のリズム情報の類似度を算出する(ステップS20)。算出部20は、類似度の算出結果をグループ化部30に出力する。
 グループ化部30は、算出部20による類似度の算出結果に基づいて、当該複数の他の電子機器200をグループ化し、グループ化情報を生成する(ステップS22)。グループ化部30は、グループ化情報をグループ化情報記憶部294に記憶する。グループ化部30は、グループ化情報をグループ化情報記憶部294に記憶した旨を表示部40に通知する。
 表示部40は、グループ化情報及び接続情報を表示する(ステップS24)。具体的には、表示部40は、接続情報記憶部292とグループ化情報記憶部294とを参照し、グループ別に、当該グループにグループ化された他の電子機器200の機器IDと、当該他の電子機器200と通信するための接続情報とを表示する。
 送信部50は、接続情報記憶部292とグループ化情報記憶部294と動作制御情報記憶部296とを参照し、グループ別に、当該グループにグループ化された他の電子機器200の夫々が、同様に音声出力し、同様に発光し、又は、同様に振動するように、各グループにグループ化された夫々の他の電子機器200に動作制御情報を送信する(ステップS26)。そして、本フローチャートは終了する。なお、送信部50は、操作受付部(非図示)が所定のユーザ操作を受け付けたときに、動作制御情報を送信してもよい。
 続いて、図7Bに示す態様(自電子機器2を含む、複数の電子機器(電子機器2及び電子機器200)をグループ化の対象とする態様)について説明する。
 図7Bに示す態様の電子機器2の構成が、上述の図7Aに示す態様の電子機器2の構成と異なる部分は、図8Dに示すように、撮像部18を有する点のみである。
以下、差異部分(撮像部18)を中心に説明する。
 電子機器2の取得部10は、他の電子機器200によって撮像された撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報、及び、自電子機器2によって撮像された撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表すリズム情報を取得する。具体的には、受信部12が、他の電子機器200の夫々から、図9Aに示すように、当該他の電子機器200の機器ID及び接続情報とともに、当該他の電子機器200のリズム情報を受信し、撮像部18が、自電子機器2が撮像画像を取得し、リズム情報生成部16が、撮像部18によって撮像された動画像からオブジェクトを抽出し、動画像から抽出したオブジェクトのリズム情報を生成する。なお、リズム情報生成部16は、他の電子機器200が備えるリズム情報生成部116と同様に、リズム情報を生成する。
 リズム情報を取得した取得部10(受信部12、撮像部18、リズム情報生成部16)は、取得したリズム情報をリズム情報記憶部290に記憶する。
 算出部20は、取得部10によって取得された複数の電子機器(自電子機器2、他の電子機器200)のリズム情報の類似度を算出する。つまり、算出部20は、リズム情報生成部16によって生成された当該電子機器2によって撮像された撮像画像内のオブジェクトのリズム情報と、受信部12によって受信された他の電子機器200によって撮像された撮像画像内のオブジェクトのリズム情報との類似度を算出する。なお、算出部20は、受信部12によって受信された他の電子機器200間のリズム情報の類似度を算出してもよい。
 グループ化部30は、算出部20によって算出された当該電子機器2のリズム情報と他の電子機器200のリズム情報との類似度が所定の閾値以上である場合に、当該電子機器2と他の電子機器200を同一グループにグループ化する。また、グループ化部30は、他の電子機器200同士のリズム情報の類似度が所定の閾値以上である場合にも、当該他の電子機器200同士を同一グループにグループ化してもよい。
 グループ化部30によって何れかのグループに自電子機器2がグループ化された場合には、当該グループにグループ化された自電子機器2と1以上の他の電子機器200とが、同様に音声出力し、同様に発光し、又は、同様に振動するように処理をする。例えば、送信部50が、動作制御情報記憶部296に記憶されている設定値(自電子機器2の設定値)と同一の値を他の電子機器200に送信してもよいし、設定部(非図示)が、送信部50によって他の電子機器200に送信する値(他の電子機器200に対する設定値)を、自電子機器2の設定値として動作制御情報記憶部296に記憶してもよい。
 図19A~19Cは、電子機器2によるグループ化の結果を説明するための模式図である。
 図19Aは、図7Aに示した態様におけるグループ化の結果であって、電子機器2が、5台の他の電子機器200(電子機器A~E)のうち、3台の電子機器200(電子機器A、C、D)をグループGとし、2台の電子機器(電子機器B、E)をグループGとし、更に、Gにグループ化された電子機器(電子機器A、C、D)に同様に音声を出力させ、Gにグループ化された電子機器(電子機器B、E)に同様に音声を出力させている様子を表している。
 つまり、電子機器2によれば、複数の他の電子機器200を簡便にグループ化し、同一グループ内の複数の他の電子機器200に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。従って、例えば、観衆が自身の電子機器200を用いて同一の被写体(例えば、遊園地におけるパレード、コンサートのアーティスト、サーカスの実演者)を撮像するような場面において、同一の被写体を撮像している2以上の他の電子機器200の挙動を同じ様に制御することができる(挙動をシンクロさせることができる)。
 図19Bは、図7Bに示した態様におけるグループ化の結果であって、電子機器2が、自電子機器2及び5台の電子機器(電子機器A~E)のうち、4台の電子機器(自電子機器2、電子機器A、C、D)をグループGとし、更に、Gにグループ化された電子機器(自電子機器2、電子機器A、C、D)に同様に音声を出力させている様子を表している。
 つまり、電子機器2によれば、自電子機器1と同一グループとなる複数の他の電子機器200について簡便にグループ化し、グループ内の複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。従って、自電子機器2と同一の被写体を撮像している1以上の電子機器200の挙動を同じ様に制御することができる。
 図19Cは、図7Bに示した態様におけるグループ化の結果であって、電子機器2が、自電子機器2及び5台の電子機器(電子機器A~E)のうち、4台の電子機器(自電子機器2、電子機器A、C、D)をグループGとし、2台の電子機器(電子機器B、E)をグループGとし、更に、Gにグループ化された電子機器(自電子機器2、電子機器A、C、D)に同様に音声を出力させ、Gにグループ化された電子機器(電子機器B、E)に同様に音声を出力させている様子を表している。
 つまり、電子機器2によれば、自電子機器1と同一グループとなる複数の他の電子機器200、及び、自電子機器1と同一グループとならない複数の他の電子機器200について簡便にグループ化し、同一グループ内の複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。従って、同一の被写体を撮像している2以上の他の電子機器200の挙動を同じ様に制御し、かつ、同一の被写体を撮像している2以上の電子機器200の挙動を同じ様に制御することができる。
 以上、電子機器1,2によれば、複数の電子機器を簡便にグループ化することできる。また、電子機器1,2によれば、同一グループにグループ化した複数の電子機器に、同様に音声出力させ、同様に発光させ、又は、同様に振動させることが可能になる。
 なお、本発明の実施形態による電子機器1,2の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、電子機器1,2の各処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
 さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこれら実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 例えば、電子機器1は、ユーザによる筐体の握り方をリズム情報とし、握り方の類似度に基づいて電子機器1及び電子機器100をグループ化してもよい。
 図20は、この場合における電子機器1及び電子機器100の外観構成を示す斜視図である。電子機器1(又は100)の筐体は、表示部40と検知部22とを保持する。
 表示部40は、筐体のうち板面に設けられている。筐体のうち当該表示部40が設けられる面を、以下表示面と表記する。
 検知部22は、筐体のうち表示面を囲む4辺に相当する4つの側面Fa~Fdに設けられている。検知部22Aは側面Faに設けられ、検知部22Bは側面Fbに設けられ、検知部22Cは側面Fcに設けられ、検知部22Dは側面Fdに設けられる。検知部22A~Dは、各側面Fa~Fdにおいて外部からの(例えばユーザの)接触の有無及び接触位置(領域)を検出する。なお、各検知部22A~Dに共通する事項については、A~Dの符号を省略し、単に「検知部22」又は「各検知部22」と記す。
 ユーザが電子機器1(又は100)を握ると、各検知部22は、各側面に接触しているユーザの指の位置(接触位置)を検知する。検出部14(又は114)は、各検知部22が検知している接触位置の情報をリズム情報として取得する。具体的には、検出部14(又は114)は、加速度センサ(不図示)により重力方向を検出し、重力方向を下として上下方向を定め、上下方向に直交する方向(であって表示部40を正面視したときの左右方向)を左右方向と定める。そして、検出部14(又は114)は、上下左右それぞれの側面における接触位置の情報をリズム情報とする。算出部20は、上下左右それぞれの側面における接触位置の類似度をリズム情報の類似度として算出する。例えば、算出部20は、上下左右それぞれの側面における第1の電子機器100の接触位置と第2の電子機器100の接触位置との距離を算出し、算出した各距離が近いほど類似度を高くし距離が遠いほど類似度を低くする。
 或いは、検出部14(又は114)は、各検知部22が検出している接触位置の指標(握り方のパターン)を生成し、当該指標をリズム情報として取得してもよい。
 図21A及び図21Bは、接触位置の指標である握り方の各パターンの一例を示すイメージ図である。図21Aに示すパターン1は、左右の側面を握る握り方である。また、図21Bに示すパターン2は、上下の側面を握る握り方である。検出部14(又は114)は、各検出部22が検出している接触位置に基づいて、握り方のパターンを判定し、判定したパターンをリズム情報として取得する。例えば、検出部14は、左右の側面に接触位置がある場合は握り方のパターンをパターン1とし、上下の側面に接触位置がある場合は握り方のパターンをパターン2とする。算出部20は、同一のパターンを持つ電子機器1(又は100)の類似度を高くし、異なるパターンを持つ電子機器1(又は100)の類似度を低くする。すなわち、グループ化部30は、同一のパターンを持つ電子機器1(又は100)を同一のグループとする。このように、検出部14(又は114)が握り方のパターンを取得することにより、算出部20における類似度の算出処理量が削減される。
1…電子機器、10…取得部、12…受信部、14…検出部、20…算出部、22…検知部、30…グループ化部、40…表示部、50…送信部、60…動作制御部、90…リズム情報記憶部、92…接続情報記憶部、94…グループ化情報記憶部、96…動作制御情報記憶部、100…電子機器(他の電子機器)、114…検出部、140…表示部、150…送受信部、160…動作制御部、196…動作制御情報記憶部、2…電子機器、18…撮像部、16…リズム情報生成部、290…リズム情報記憶部、292…接続情報記憶部、294…グループ化情報記憶部、296…動作制御情報記憶部、200…電子機器(他の電子機器)、118…撮像部、116…リズム情報生成部

Claims (11)

  1.  複数の電子機器それぞれの筐体の動きを表す複数のリズム情報を取得する取得部と、
     前記取得部によって取得された前記複数の電子機器の前記複数のリズム情報の類似度を算出する算出部と、
     前記算出部によって算出された前記複数の電子機器の前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成するグループ化部と
    を備える電子機器。
  2.  前記取得部は、
     他の電子機器の筐体の前記リズム情報を受信する受信部
    を有し、
     前記算出部は、
     前記受信部によって受信された第1の他の電子機器の前記リズム情報と、前記受信部によって受信された第2の他の電子機器の前記リズム情報との類似度を算出し、
     前記グループ化部は、
     前記算出部によって算出された前記第1の他の電子機器の前記リズム情報と前記第2の他の電子機器の前記リズム情報との前記類似度が所定の閾値以上である場合に、前記第1の他の電子機器と前記第2の他の電子機器を同一グループにグループ化する
    請求項1に記載の電子機器。
  3.  前記取得部は、
     自電子機器の筐体の動きを検出する検出部と、
     他の電子機器の筐体の前記リズム情報を受信する受信部と
    を有し、
     前記算出部は、
     前記検出部によって検出された前記自電子機器の筐体の動きを表す前記リズム情報と、前記受信部によって受信された前記他の電子機器の前記リズム情報との類似度を算出し、
     前記グループ化部は、
     前記算出部によって算出された前記自電子機器の前記リズム情報と前記他の電子機器の前記リズム情報との前記類似度が所定の閾値以上である場合に、前記自電子機器と前記他の電子機器を同一グループにグループ化する
    請求項1に記載の電子機器。
  4.  複数の電子機器それぞれの筐体の各側面における接触位置を検知する検知部による検知結果に基づいて、ユーザによる前記筐体の握り方を表す複数のリズム情報を取得する取得部と、
     前記取得部によって取得された前記複数の電子機器の前記複数のリズム情報の類似度を算出する算出部と、
     前記算出部によって算出された前記複数の電子機器の前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成するグループ化部と
     を備える電子機器。
  5.  複数の電子機器それぞれにおける撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表す複数のリズム情報を取得する取得部と、
     前記取得部によって取得された前記各オブジェクトの前記複数のリズム情報の類似度を算出する算出部と、
     前記算出部によって算出された前記各オブジェクトの前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成するグループ化部と
    を備える電子機器。
  6.  前記取得部は、
     他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部
    を有し、
     前記算出部は、
     前記受信部によって受信された第1の他の電子機器によって撮像された第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された第2の他の電子機器によって撮像された第2の他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、
     前記グループ化部は、
     前記算出部によって算出された前記第1の他の撮像画像内のオブジェクトの前記リズム情報と、前記第2の他の撮像画像内のオブジェクトの前記リズム情報との前記類似度が所定の閾値以上である場合に、前記第1の他の電子機器と前記第2の他の電子機器を同一グループにグループ化する
    請求項5に記載の電子機器。
  7.  前記取得部は、
     撮像部と、
     他の電子機器によって撮像された撮像画像内のオブジェクトの前記リズム情報を受信する受信部と
    を有し、
     前記算出部は、
     前記撮像部によって撮像された自撮像画像内のオブジェクトの前記リズム情報と、前記受信部によって受信された前記他の電子機器によって撮像された他の撮像画像内のオブジェクトの前記リズム情報との類似度を算出し、
     前記グループ化部は、
     前記算出部によって算出された前記自撮像画像内のオブジェクトの前記リズム情報と、前記他の撮像画像内のオブジェクトの前記リズム情報との前記類似度が所定の閾値以上である場合に、前記自電子機器と前記他の電子機器を同一グループにグループ化する
    請求項5に記載の電子機器。
  8.  前記グループ化部によって同一グループにグループ化された他の電子機器と通信するための接続情報を表示する表示部を更に備える
    請求項1から請求項7の何れか1項に記載の電子機器。
  9.  前記グループ化部によって同一グループにグループ化された複数の電子機器が、同様に音声出力し、同様に発光し、又は、同様に振動するように、他の電子機器に動作制御情報を送信する送信部を更に備える
    請求項1から請求項8の何れか1項に記載の電子機器。
  10.  複数の電子機器をグループ化する方法であって、
     前記複数の電子機器それぞれの筐体の動きを表す複数のリズム情報を取得することと、
     取得された前記複数の電子機器の前記複数のリズム情報の類似度を算出することと、
     算出された前記複数の電子機器の前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成することと、
    を含むグループ化方法。
  11.  複数の電子機器をグループ化する方法であって、
     前記複数の電子機器それぞれにおける撮像画像内のオブジェクトの時間的又は空間的な変化のパターンを表す複数のリズム情報を取得することと、
     取得された前記各オブジェクトの前記複数のリズム情報の類似度を算出することと、
     算出された前記各オブジェクトの前記複数のリズム情報の前記類似度に基づいて、前記複数の電子機器をグループ化するグループ化情報を生成することと、
    を含むグループ化方法。
PCT/JP2012/055188 2011-03-03 2012-03-01 電子機器及びグループ化方法 WO2012118138A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP12753041.8A EP2683152A4 (en) 2011-03-03 2012-03-01 ELECTRONIC DEVICE AND METHOD OF REGROUPING
US14/016,719 US20140003730A1 (en) 2011-03-03 2013-09-03 Electronic device and grouping method

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2011-046396 2011-03-03
JP2011046396A JP2012186535A (ja) 2011-03-03 2011-03-03 電子機器及びグループ化方法
JP2011051536 2011-03-09
JP2011-051536 2011-03-09
JP2012-040004 2012-02-27
JP2012040004A JP6003084B2 (ja) 2011-03-09 2012-02-27 電子機器及びグループ化方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/016,719 Continuation US20140003730A1 (en) 2011-03-03 2013-09-03 Electronic device and grouping method

Publications (1)

Publication Number Publication Date
WO2012118138A1 true WO2012118138A1 (ja) 2012-09-07

Family

ID=49680738

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/055188 WO2012118138A1 (ja) 2011-03-03 2012-03-01 電子機器及びグループ化方法

Country Status (3)

Country Link
US (1) US20140003730A1 (ja)
EP (1) EP2683152A4 (ja)
WO (1) WO2012118138A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109429210A (zh) * 2017-08-31 2019-03-05 富泰华工业(深圳)有限公司 电子装置识别系统、方法及电子装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352291A (ja) * 2000-06-08 2001-12-21 Sony Corp モニタ装置及び情報提供装置
US20060256074A1 (en) * 2005-05-13 2006-11-16 Robert Bosch Gmbh Sensor-initiated exchange of information between devices
JP2009271577A (ja) * 2008-04-30 2009-11-19 Panasonic Corp 類似画像検索の結果表示装置及び類似画像検索の結果表示方法
JP2010021810A (ja) * 2008-07-10 2010-01-28 Ubiquitous Entertainment Inc 無線通信ネットワークを経由したファイル転送プログラム及びファイル転送方法
JP2010130084A (ja) * 2008-11-25 2010-06-10 Casio Computer Co Ltd 画像処理装置及びプログラム
JP2011010275A (ja) 2009-05-26 2011-01-13 Sanyo Electric Co Ltd 画像再生装置及び撮像装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1633782B (zh) * 2001-12-17 2011-09-14 索尼公司 数据通信系统、数据通信装置和数据通信方法
JP4332738B2 (ja) * 2005-03-31 2009-09-16 ソニー株式会社 データ通信装置、データ通信方法およびデータ通信パケット
JP2007114885A (ja) * 2005-10-18 2007-05-10 National Institute Of Information & Communication Technology 画像の類似性による分類方法及び装置
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US9843351B2 (en) * 2007-07-26 2017-12-12 Nokia Technologies Oy Gesture activated close-proximity communication
EP2237577A1 (en) * 2009-03-31 2010-10-06 BRITISH TELECOMMUNICATIONS public limited company Location-based messaging system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352291A (ja) * 2000-06-08 2001-12-21 Sony Corp モニタ装置及び情報提供装置
US20060256074A1 (en) * 2005-05-13 2006-11-16 Robert Bosch Gmbh Sensor-initiated exchange of information between devices
JP2009271577A (ja) * 2008-04-30 2009-11-19 Panasonic Corp 類似画像検索の結果表示装置及び類似画像検索の結果表示方法
JP2010021810A (ja) * 2008-07-10 2010-01-28 Ubiquitous Entertainment Inc 無線通信ネットワークを経由したファイル転送プログラム及びファイル転送方法
JP2010130084A (ja) * 2008-11-25 2010-06-10 Casio Computer Co Ltd 画像処理装置及びプログラム
JP2011010275A (ja) 2009-05-26 2011-01-13 Sanyo Electric Co Ltd 画像再生装置及び撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2683152A4

Also Published As

Publication number Publication date
EP2683152A1 (en) 2014-01-08
US20140003730A1 (en) 2014-01-02
EP2683152A4 (en) 2015-04-08

Similar Documents

Publication Publication Date Title
US10970850B2 (en) Method and device for recognizing motion
US9692756B2 (en) Magic wand methods, apparatuses and systems for authenticating a user of a wand
CN105377117B (zh) 基于用户的光学处方的头戴式显示器
US9888090B2 (en) Magic wand methods, apparatuses and systems
CN105073210B (zh) 使用深度图像的用户身体角度、曲率和平均末端位置提取
CN116300091A (zh) 用于使用位置向量解析半球模糊度的方法和系统
US20160342202A1 (en) Virtual reality apparatus, feedback apparatus, and system and method for providing realistic service
CN102004623B (zh) 一种三维图像显示装置及方法
CN113365085B (zh) 一种直播视频生成方法及装置
US10750080B2 (en) Information processing device, information processing method, and program
WO2012118138A1 (ja) 電子機器及びグループ化方法
CN113014960B (zh) 一种在线制作视频的方法、装置及存储介质
JP2017506523A (ja) 画像表示方法及び装置
US10924721B2 (en) Volumetric video color assignment
EP3689427B1 (en) Peripheral tracking system and method
US10789476B2 (en) Information processing apparatus and information processing method
US20200342833A1 (en) Head mounted display system and scene scanning method thereof
CN110990623A (zh) 音频字幕的显示方法及装置、计算机设备及存储介质
JP2012186535A (ja) 電子機器及びグループ化方法
JP6003084B2 (ja) 電子機器及びグループ化方法
CN103809846B (zh) 一种功能调用方法及电子设备
US20170310942A1 (en) Method and apparatus for processing three-dimensional (3d) pseudoscopic images
CN109729399B (zh) 视频播放系统、可穿戴设备及物理联动组件的控制方法
JP2021125745A (ja) マルチディスプレイシステムとその制御方法
JP2012186536A (ja) 電子機器及びグループ化方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12753041

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE