JP7041046B2 - Group estimation device and group estimation method - Google Patents

Group estimation device and group estimation method Download PDF

Info

Publication number
JP7041046B2
JP7041046B2 JP2018227830A JP2018227830A JP7041046B2 JP 7041046 B2 JP7041046 B2 JP 7041046B2 JP 2018227830 A JP2018227830 A JP 2018227830A JP 2018227830 A JP2018227830 A JP 2018227830A JP 7041046 B2 JP7041046 B2 JP 7041046B2
Authority
JP
Japan
Prior art keywords
group
subjects
area
target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018227830A
Other languages
Japanese (ja)
Other versions
JP2020091622A (en
Inventor
一郎 馬田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018227830A priority Critical patent/JP7041046B2/en
Publication of JP2020091622A publication Critical patent/JP2020091622A/en
Application granted granted Critical
Publication of JP7041046B2 publication Critical patent/JP7041046B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、グループ推定装置及びグループ推定方法に関する。 The present invention relates to a group estimation device and a group estimation method.

従来、複数の人物が属するグループを特定することが行われている。例えば、特許文献1には、活動する集団の重心と個人の位置座標を分析することで、グループとしての活動を検出する技術が開示されている。 Conventionally, it has been performed to identify a group to which a plurality of people belong. For example, Patent Document 1 discloses a technique for detecting an activity as a group by analyzing the center of gravity of an active group and the position coordinates of an individual.

特開2013-232243号公報Japanese Unexamined Patent Publication No. 2013-232243

特許文献1において開示されている従来の技術は主に街中やショッピングモールなどで移動しつつ活動している集団の重心と個人の位置座標を分析することにより、グループとしての活動を検出するものである。したがって、従来の技術では、会議室などの基本的に着座しており、人物が移動していない状態においてグループを推定することができないという問題がある。 The conventional technique disclosed in Patent Document 1 detects the activity as a group mainly by analyzing the center of gravity of the group and the position coordinates of the individual who are active while moving in the city or in a shopping mall. be. Therefore, in the conventional technique, there is a problem that the group cannot be estimated in a state where the person is basically seated in a conference room or the like and the person is not moving.

そこで、本発明はこれらの点に鑑みてなされたものであり、人物が移動していない状態であってもグループを推定することができるグループ推定装置及びグループ推定方法を提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide a group estimation device and a group estimation method capable of estimating a group even when a person is not moving. ..

本発明の第1の態様に係るグループ推定装置は、所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定する注視領域特定部と、前記注視領域特定部が特定した前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するグループ推定部と、前記グループ推定部が推定した前記グループを示す情報を出力する出力部と、を備える。 The group estimation device according to the first aspect of the present invention has a gaze area that exists in a predetermined area and indicates an area in which each of a plurality of subjects who may belong to the group gazes at each time included in the predetermined period. Based on the gaze area specifying part and the gaze area of each of the plurality of subjects specified by the gaze area specifying part, a group including at least a part of the target persons is estimated. A group estimation unit is provided, and an output unit that outputs information indicating the group estimated by the group estimation unit is provided.

前記グループ推定部は、前記注視領域が共通する複数の対象者により構成される前記グループを推定してもよい。
前記グループ推定装置は、前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得する対象者情報取得部をさらに備え、前記グループ推定部は、前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置と、前記複数の対象者のそれぞれの前記注視領域との関係に基づいて、前記グループを推定してもよい。
The group estimation unit may estimate the group composed of a plurality of subjects having a common gaze area.
The group estimation device further includes a target person information acquisition unit that acquires target person information including position information indicating the position of each of the plurality of target persons, and the group estimation unit is provided to each of the plurality of target persons. The group may be estimated based on the relationship between the position indicated by the corresponding subject information and the gaze area of each of the plurality of subjects.

前記グループ推定部は、前記注視領域を注視した対象者と、前記注視領域に前記位置が含まれる対象者との関連付けを行い、関連付けが行われている複数の対象者により構成される前記グループを推定してもよい。 The group estimation unit associates a target person who gazes at the gaze area with a target person whose position is included in the gaze area, and sets the group composed of a plurality of subjects who are associated with each other. You may estimate.

前記グループ推定部は、任意の複数の対象者の位置を含む領域を設定し、前記所定期間における当該複数の対象者の注視領域が当該領域に含まれている場合、当該複数の対象者により構成される前記グループを推定してもよい。 The group estimation unit sets an area including the positions of any plurality of target persons, and when the gaze area of the plurality of target persons in the predetermined period is included in the area, the group estimation unit is composed of the plurality of target persons. The group may be estimated.

前記グループ推定部は、推定したグループに含まれる複数の対象者の位置を含む領域である対象者領域を設定し、当該複数の対象者と異なる対象者のうち、当該対象者領域に前記注視領域が含まれている対象者を、推定したグループに属すると推定してもよい。 The group estimation unit sets a target person area, which is an area including the positions of a plurality of target persons included in the estimated group, and among the target persons different from the plurality of target persons, the gaze area is set in the target person area. The subject including the may be presumed to belong to the presumed group.

前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、をさらに備え、前記グループ推定部は、前記連動者の前記関連する動作の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定してもよい。 The group estimation device corresponds to each of the plurality of target persons, and has an operation information acquisition unit that acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period, and the plurality of target persons. The group estimation unit further includes an interlocking specific unit that identifies a plurality of target persons performing related operations as interlocking persons based on the operation indicated by the operation information corresponding to each of the above. A group including some of the subjects may be estimated from the plurality of subjects based on the frequency of occurrence of the related movements of the person.

前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の発話の内容を示す発話情報を複数取得する発話情報取得部をさらに備え、前記連動特定部は、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作と、前記発話情報が示す前記発話とに基づいて、関連する動作及び発話を行っている複数の対象者を前記連動者として特定し、前記グループ推定部は、前記連動者の前記関連する動作及び前記発話の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定してもよい。 The group estimation device further includes an utterance information acquisition unit that corresponds to each of the plurality of subjects and acquires a plurality of utterance information indicating the contents of the utterances of the subject at each time included in the predetermined period. The interlocking identification unit selects a plurality of subjects who are performing related actions and utterances based on the action indicated by the motion information corresponding to each of the plurality of subjects and the utterance indicated by the utterance information. Identifying as the interlocking person, the group estimation unit estimates a group including some of the target persons among the plurality of target persons, based on the related movement of the interlocking person and the frequency of occurrence of the utterance. You may.

前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、前記グループ推定部が推定したグループに含まれる複数の前記連動者の連動状況に基づいて当該グループに含まれる複数の対象者の相互作用度を特定する相互作用度特定部と、をさらに備え、前記出力部は、前記グループに含まれる複数の対象者の相互作用度を示す情報を出力してもよい。 The group estimation device corresponds to each of the plurality of target persons, and has an operation information acquisition unit that acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period, and the plurality of target persons. An interlocking specific unit that identifies a plurality of target persons performing related operations as an interlocking person based on the operation indicated by the operation information corresponding to each of the above, and a plurality of groups included in the group estimated by the group estimation unit. Further includes an interaction degree specifying unit that specifies the degree of interaction of a plurality of subjects included in the group based on the interlocking status of the interlocking person, and the output unit is a plurality of objects included in the group. Information indicating the degree of interaction between the persons may be output.

前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、前記グループ推定部が推定した複数のグループのそれぞれに含まれる複数の前記連動者の連動状況に基づいて、前記複数のグループの相互作用度を特定する相互作用度特定部と、をさらに備え、前記出力部は、特定された前記複数のグループの相互作用度を示す情報を出力してもよい。 The group estimation device corresponds to each of the plurality of target persons, and has an operation information acquisition unit that acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period, and the plurality of target persons. Based on the operation indicated by the operation information corresponding to each of the above, the interlocking specific unit that identifies a plurality of target persons performing the related operations as the interlocking person, and the plurality of groups estimated by the group estimation unit, respectively. Further includes an interaction degree specifying unit that specifies the degree of interaction of the plurality of groups based on the interlocking status of the plurality of interlocking persons included in the above, and the output unit is a unit of the specified plurality of groups. Information indicating the degree of interaction may be output.

本発明の第2の態様に係るグループ推定方法は、コンピュータが実行する、所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定するステップと、特定された前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するステップと、推定された前記グループを示す情報を出力するステップと、を備える。 The group estimation method according to the second aspect of the present invention is an area executed by a computer, in which each of a plurality of subjects existing in a predetermined area and possibly belonging to a group pay attention to each time included in a predetermined period. A step of specifying a gaze area showing the above, and a step of estimating a group including at least a part of the gaze areas among the plurality of subjects based on the gaze area of each of the specified gaze areas. , A step of outputting information indicating the estimated group.

本発明によれば、人物が移動していない状態であってもグループを推定することができるという効果を奏する。 According to the present invention, there is an effect that the group can be estimated even when the person is not moving.

本実施形態に係るグループ推定装置の概要を示す図である。It is a figure which shows the outline of the group estimation apparatus which concerns on this embodiment. 本実施形態に係るグループ推定装置の構成を示す図である。It is a figure which shows the structure of the group estimation apparatus which concerns on this embodiment. 本実施形態に係る共同注視領域の一例を示す図である。It is a figure which shows an example of the joint gaze area which concerns on this embodiment. 本実施形態に係るグループ推定部が、対象者の位置と注視領域との関係に基づいてグループを推定する例を説明する図である。It is a figure explaining the example which the group estimation part which concerns on this embodiment estimates a group based on the relationship between the position of a subject and a gaze area. 本実施形態に係るグループ推定部が、対象者の位置と注視領域との関係に基づいてグループを推定する他の例(その1)を説明する図である。It is a figure explaining another example (the 1) which the group estimation part which concerns on this embodiment estimates a group based on the relationship between the position of a subject and a gaze area. 本実施形態に係るグループ推定部が、対象者の位置と注視領域との関係に基づいてグループを推定する他の例(その2)を説明する図である。It is a figure explaining another example (the 2) which the group estimation part which concerns on this embodiment estimates a group based on the relationship between the position of a subject and a gaze area. 本実施形態に係るグループ推定部が推定したグループに対象者を新たに所属させる例を示す図である。It is a figure which shows the example which newly belongs a subject to the group estimated by the group estimation unit which concerns on this embodiment. 本実施形態に係るグループ推定装置の処理の流れを示すフローチャートである。It is a flowchart which shows the processing flow of the group estimation apparatus which concerns on this embodiment.

[グループ推定装置1の概要]
図1は、本実施形態に係るグループ推定装置1の概要を示す図である。グループ推定装置1は、所定エリアにおいてグループに属する可能性がある複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するコンピュータである。ここで、所定エリアは、例えば会議室やホール等のフロアである。図1に示す例では、所定エリアには、複数の対象者として、対象者P1~P6が存在している。
[Overview of Group Estimator 1]
FIG. 1 is a diagram showing an outline of the group estimation device 1 according to the present embodiment. The group estimation device 1 is a computer that estimates a group including at least a part of the plurality of subjects who may belong to the group in a predetermined area. Here, the predetermined area is, for example, a floor such as a conference room or a hall. In the example shown in FIG. 1, the target persons P1 to P6 exist as a plurality of target persons in the predetermined area.

グループ推定装置1は、所定期間に含まれる各時刻における対象者の位置と、対象者の視線方向とを関連付けた視線情報に基づいて、複数の対象者のそれぞれが注視する領域を示す注視領域を特定する。グループ推定装置1は、例えば図1に示すように、対象者の位置と、対象者の視線方向D1~D6とに基づいて、対象者P1~P6の注視領域として、注視領域A1~A3を特定する。 The group estimation device 1 sets a gaze area indicating an area to be gazed by each of a plurality of subjects based on the gaze information associated with the position of the subject at each time included in a predetermined period and the gaze direction of the subject. Identify. As shown in FIG. 1, the group estimation device 1 specifies gaze areas A1 to A3 as gaze areas of the subjects P1 to P6 based on the position of the subject and the gaze directions D1 to D6 of the subject. do.

グループ推定装置1は、複数の対象者のそれぞれに対して特定した注視領域に基づいて、複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する。例えば、グループ推定装置1は、注視領域が共通する複数の対象者により構成されるグループを推定したり、複数の対象者の位置と、複数の対象者に対して特定された注視領域との関係に基づいてグループを推定したりする。グループ推定装置1は、例えば図1に示すように、対象者P1~P3が属するグループG1と、対象者P4~P6が属するグループG2とを特定する。このように、グループ推定装置1は、複数の対象者のそれぞれに対して特定した注視領域に基づいてグループを推定するので、人物が移動していない状態であってもグループを推定することができる。 The group estimation device 1 estimates a group including at least a part of the plurality of subjects based on the gaze area specified for each of the plurality of subjects. For example, the group estimation device 1 estimates a group composed of a plurality of subjects having a common gaze area, or a relationship between the positions of a plurality of subjects and a gaze area specified for the plurality of subjects. Estimate the group based on. As shown in FIG. 1, for example, the group estimation device 1 identifies a group G1 to which the subjects P1 to P3 belong and a group G2 to which the subjects P4 to P6 belong. In this way, the group estimation device 1 estimates the group based on the gaze area specified for each of the plurality of subjects, so that the group can be estimated even when the person is not moving. ..

[グループ推定装置1の構成]
続いて、グループ推定装置1の構成を説明する。図2は、本実施形態に係るグループ推定装置1の構成を示す図である。図2に示すように、グループ推定装置1は、記憶部11と、制御部12とを備える。
[Configuration of group estimation device 1]
Subsequently, the configuration of the group estimation device 1 will be described. FIG. 2 is a diagram showing a configuration of a group estimation device 1 according to the present embodiment. As shown in FIG. 2, the group estimation device 1 includes a storage unit 11 and a control unit 12.

記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。例えば、記憶部11は、グループ推定装置1を、対象者情報取得部121、注視領域特定部122、動作情報取得部123、発話情報取得部124、連動特定部125、グループ推定部126、相互作用度特定部127、及び出力部128として機能させるグループ推定プログラムを記憶している。 The storage unit 11 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The storage unit 11 stores a program executed by the control unit 12. For example, the storage unit 11 uses the group estimation device 1 as a target person information acquisition unit 121, a gaze area identification unit 122, an operation information acquisition unit 123, an utterance information acquisition unit 124, an interlocking identification unit 125, a group estimation unit 126, and an interaction. It stores a group estimation program that functions as a degree identification unit 127 and an output unit 128.

制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶されたグループ推定プログラムを実行することにより、対象者情報取得部121、注視領域特定部122、動作情報取得部123、発話情報取得部124、連動特定部125、グループ推定部126、相互作用度特定部127、及び出力部128として機能する。 The control unit 12 is, for example, a CPU (Central Processing Unit). By executing the group estimation program stored in the storage unit 11, the control unit 12 executes the target person information acquisition unit 121, the gaze area identification unit 122, the operation information acquisition unit 123, the utterance information acquisition unit 124, and the interlocking identification unit 125. , The group estimation unit 126, the interaction degree specifying unit 127, and the output unit 128.

対象者情報取得部121は、所定エリアにおいてグループに属する可能性がある複数の対象者のそれぞれに対応し、対象者を識別する対象者識別情報と、所定期間(例えば、5秒間)に含まれる各時刻における対象者の位置を示す位置情報と、対象者の視線方向を示す視線方向情報とを関連付けた対象者情報を複数取得する。対象者情報は、例えば記憶部11に記憶されており、対象者情報取得部121は、記憶部11に記憶されている対象者情報を取得する。 The target person information acquisition unit 121 corresponds to each of a plurality of target persons who may belong to a group in a predetermined area, and is included in the target person identification information for identifying the target person and a predetermined period (for example, 5 seconds). A plurality of target person information in which the position information indicating the position of the target person at each time and the line-of-sight direction information indicating the line-of-sight direction of the target person are associated with each other is acquired. The target person information is stored in, for example, the storage unit 11, and the target person information acquisition unit 121 acquires the target person information stored in the storage unit 11.

注視領域特定部122は、複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定する。例えば、注視領域特定部122は、対象者情報取得部121が取得した対象者情報に含まれる対象者の位置を示す位置情報と、対象者の視線方向を示す視線方向情報とに基づいて、複数の対象者のそれぞれに対応する注視領域を特定する。注視領域特定部122は、例えば、対象者の位置から対象者の視線方向の所定範囲内に他の対象者が存在する場合、他の対象者の位置を注視領域と特定する。また、注視領域特定部122は、例えば、対象者の位置から対象者の視線方向の所定範囲内に他の対象者が存在しない場合、対象者の位置から対象者の視線方向に所定距離離れた位置を注視領域と特定する。 The gaze area specifying unit 122 specifies a gaze area indicating an area in which each of the plurality of subjects gazes at each time included in a predetermined period. For example, the gaze area specifying unit 122 has a plurality of gaze area specifying units 122 based on the position information indicating the position of the target person included in the target person information acquired by the target person information acquisition unit 121 and the line-of-sight direction information indicating the line-of-sight direction of the target person. Identify the gaze area corresponding to each of the subjects. For example, when another target person exists within a predetermined range in the line-of-sight direction of the target person from the position of the target person, the gaze area specifying unit 122 specifies the position of the other target person as the gaze area. Further, for example, when there is no other target person within a predetermined range in the line-of-sight direction of the target person from the position of the target person, the gaze area specifying unit 122 is separated from the position of the target person by a predetermined distance in the line-of-sight direction of the target person. Specify the position as the gaze area.

なお、注視領域特定部122は、視線を検出する視線検出装置(不図示)が検出した対象者の視線に基づいて注視領域を特定してもよい。また、注視領域特定部122は、所定期間において所定エリアを撮像した撮像画像であって、対象者を含む撮像画像を解析することにより、当該対象者の注視領域を特定してもよい。 The gaze area specifying unit 122 may specify the gaze area based on the line of sight of the subject detected by the line of sight detection device (not shown) that detects the line of sight. Further, the gaze area specifying unit 122 may specify the gaze area of the target person by analyzing the captured image including the target person, which is an image captured by capturing the predetermined area in a predetermined period.

動作情報取得部123は、複数の対象者のそれぞれに対応し、所定期間に含まれる各時刻における対象者の動作を示す動作情報を複数取得する。動作情報には、対象者識別情報が関連付けられている。例えば、動作情報取得部123は、対象者の動作を特定するモーションキャプチャ装置(不図示)が生成した動作情報を取得したり、赤外線センサ(不図示)が検出した人の動きを示す情報に基づいて動作情報を取得したりしてもよい。また、動作情報取得部123は、所定期間における所定エリアを撮像した複数の撮像画像について、連続ウェーブレット変換等の画像処理を行い、画像に含まれる画素の変化量を算出することにより、動作情報を取得してもよい。ここで、対象者の動作は、相槌を打つ動作や、頷く動作が含まれている。 The operation information acquisition unit 123 corresponds to each of the plurality of target persons, and acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period. Target person identification information is associated with the operation information. For example, the motion information acquisition unit 123 acquires motion information generated by a motion capture device (not shown) that identifies the motion of the target person, or is based on information indicating the motion of a person detected by an infrared sensor (not shown). You may acquire the operation information. Further, the operation information acquisition unit 123 performs image processing such as continuous wavelet transform on a plurality of captured images captured in a predetermined area in a predetermined period, and calculates the amount of change in pixels included in the image to obtain operation information. You may get it. Here, the movement of the subject includes the movement of hitting an aizuchi and the movement of nodding.

発話情報取得部124は、複数の対象者のそれぞれに対応し、所定期間に含まれる各時刻における対象者の発話の内容を示す発話情報を複数取得する。発話情報には、対象者識別情報が関連付けられている。 The utterance information acquisition unit 124 corresponds to each of the plurality of target persons, and acquires a plurality of utterance information indicating the contents of the utterances of the target person at each time included in the predetermined period. Target person identification information is associated with the utterance information.

連動特定部125は、動作情報取得部123が取得した複数の対象者のそれぞれに対応する動作情報が示す動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する。また、連動特定部125は、動作情報取得部123が取得した複数の対象者のそれぞれに対応する動作情報が示す動作と、発話情報取得部124が取得した発話情報が示す発話とに基づいて、関連する動作及び発話を行っている複数の対象者を連動者として特定する。 The interlocking identification unit 125 identifies a plurality of target persons performing related operations as interlocking persons based on the operations indicated by the operation information corresponding to each of the plurality of target persons acquired by the operation information acquisition unit 123. Further, the interlocking specific unit 125 is based on the operation indicated by the operation information corresponding to each of the plurality of target persons acquired by the operation information acquisition unit 123 and the utterance indicated by the utterance information acquired by the utterance information acquisition unit 124. Identify multiple subjects who are performing related actions and utterances as interlockers.

例えば、連動特定部125は、対象者情報が示す対象者の位置が所定範囲以内の複数の対象者に対応する対象者識別情報を特定する。そして、連動特定部125は、特定した対象者識別情報に関連付けられている動作情報が示す動作と、特定した対象者識別情報に関連付けられている発話情報が示す発話とに基づいて、連動して頷く動作や相槌を示す単語を発している複数の対象者を連動者として特定する。 For example, the interlocking identification unit 125 identifies the target person identification information corresponding to a plurality of target persons whose positions of the target persons indicated by the target person information are within a predetermined range. Then, the interlocking specific unit 125 interlocks based on the operation indicated by the operation information associated with the specified target person identification information and the utterance indicated by the utterance information associated with the specified target person identification information. Identify multiple subjects who are uttering words that indicate nodding behavior or aizuchi as interlockers.

グループ推定部126は、注視領域特定部122が特定した複数の対象者のそれぞれの注視領域に基づいて、所定エリアに存在する複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する。 The group estimation unit 126 estimates a group including at least a part of the plurality of subjects existing in the predetermined area based on the respective gaze areas of the plurality of subjects specified by the gaze area identification unit 122. do.

グループ推定部126は、注視領域が共通する複数の対象者より構成されるグループを推定する。図3は、本実施形態に係る共同注視領域の一例を示す図である。図3に示す例では、所定エリア内に存在する複数の対象者P1~P3の注視領域がいずれも注視領域A1であることから、グループ推定部126は、注視領域A1を、共同注視領域として特定する。例えば、グループ推定部126は、複数の対象者で共通する注視領域を共同注視領域とし、複数の対象者が、当該共同注視領域を注視する時間に基づいて、これらの複数の対象者がグループを形成しているか否かを判定する。図3に示す例では、グループ推定部126は、共同注視領域A1を有する複数の対象者P1~P3により構成されるグループが形成されていると推定する。 The group estimation unit 126 estimates a group composed of a plurality of subjects having a common gaze area. FIG. 3 is a diagram showing an example of a joint gaze area according to the present embodiment. In the example shown in FIG. 3, since the gaze areas of the plurality of subjects P1 to P3 existing in the predetermined area are all gaze areas A1, the group estimation unit 126 specifies the gaze area A1 as the joint gaze area. do. For example, in the group estimation unit 126, a gaze area common to a plurality of subjects is set as a joint gaze area, and these plurality of subjects form a group based on the time when the plurality of subjects gaze at the joint gaze area. Determine if it is formed. In the example shown in FIG. 3, the group estimation unit 126 estimates that a group composed of a plurality of subjects P1 to P3 having a joint gaze area A1 is formed.

また、グループ推定部126は、複数の対象者のそれぞれに対応する対象者情報が示す対象者の位置と、複数の対象者のそれぞれの注視領域との関係に基づいて、グループを推定する。具体的には、グループ推定部126は、注視領域を注視した対象者と、注視領域に位置が含まれる対象者との関連付けを行い、関連付けが行われている複数の対象者により構成されるグループを推定する。 Further, the group estimation unit 126 estimates the group based on the relationship between the position of the target person indicated by the target person information corresponding to each of the plurality of target persons and the gaze area of each of the plurality of target persons. Specifically, the group estimation unit 126 associates a target person who gazes at the gaze area with a target person whose position is included in the gaze area, and is a group composed of a plurality of subjects who are associated with each other. To estimate.

図4は、本実施形態に係るグループ推定部126が、対象者の位置と、注視領域との関係に基づいてグループを推定する例を説明する図である。図4に示す例では、対象者P4及び対象者P5の注視領域A2に対象者P6が位置している。また、対象者P6の注視領域A3に対象者P4が位置している。したがって、グループ推定部126は、対象者P4と対象者P6とを関連付けるとともに、対象者P5と対象者P6とを関連付ける。対象者P4と、対象者P5とは、対象者P6を介して関連付けられることから、グループ推定部126は、関連付けが行われている複数の対象者P4~P6により構成されるグループが形成されていると推定する。 FIG. 4 is a diagram illustrating an example in which the group estimation unit 126 according to the present embodiment estimates a group based on the relationship between the position of the subject and the gaze area. In the example shown in FIG. 4, the subject P6 is located in the gaze area A2 of the subject P4 and the subject P5. Further, the subject P4 is located in the gaze area A3 of the subject P6. Therefore, the group estimation unit 126 associates the target person P4 with the target person P6 and also associates the target person P5 with the target person P6. Since the target person P4 and the target person P5 are associated with each other via the target person P6, the group estimation unit 126 forms a group composed of a plurality of the target persons P4 to P6 having the association. Presumed to be.

なお、グループ推定部126は、一人の対象者に対応する複数の注視領域のそれぞれに他の対象者が位置している場合、当該一人の対象者と、他の対象者とを含むグループが形成されていると推定してもよい。図5は、本実施形態に係るグループ推定部126が、対象者の位置と、注視領域との関係に基づいてグループを推定する他の例(その1)を説明する図である。図5に示す例では、対象者P6の注視領域A3及び注視領域A4のそれぞれに、他の対象者P4と他の対象者P5とが位置していることが確認できる。この場合、グループ推定部126は、対象者P4~P6により構成されるグループが形成されていると推定する。 When another target person is located in each of the plurality of gaze areas corresponding to one target person, the group estimation unit 126 forms a group including the one target person and the other target person. It may be presumed that it has been done. FIG. 5 is a diagram illustrating another example (No. 1) in which the group estimation unit 126 according to the present embodiment estimates a group based on the relationship between the position of the subject and the gaze area. In the example shown in FIG. 5, it can be confirmed that the other subject P4 and the other subject P5 are located in each of the gaze area A3 and the gaze area A4 of the subject P6. In this case, the group estimation unit 126 estimates that a group composed of the subjects P4 to P6 is formed.

また、グループ推定部126は、所定期間において、任意の複数の対象者の位置により囲まれる領域について、当該複数の対象者の注視領域が所定時間以上含まれている場合、当該複数の対象者により構成されるグループが形成されていると推定してもよい。 Further, in the group estimation unit 126, when the gaze area of the plurality of subjects is included for a predetermined time or more in the area surrounded by the positions of any plurality of subjects in a predetermined period, the group estimation unit 126 may use the plurality of subjects. It may be presumed that a constituent group is formed.

図6は、本実施形態に係るグループ推定部126が、対象者の位置と、注視領域との関係に基づいてグループを推定する他の例(その2)を説明する図である。図6(a)にように対象者P1~P10が表示されている。この場合において、グループ推定部126は、任意の複数の対象者として、図6(b)に示すように、これらの複数の対象者から、対象者P1、P2、P6、P7、P9の位置により囲まれる領域GA1を特定するとともに、対象者P3、P4、P5、P8、P10の位置により囲まれる領域GA2を特定する。 FIG. 6 is a diagram illustrating another example (No. 2) in which the group estimation unit 126 according to the present embodiment estimates a group based on the relationship between the position of the subject and the gaze area. The subjects P1 to P10 are displayed as shown in FIG. 6A. In this case, the group estimation unit 126, as an arbitrary plurality of subjects, from these plurality of subjects, depending on the positions of the subjects P1, P2, P6, P7, P9, as shown in FIG. 6 (b). The area GA1 to be surrounded is specified, and the area GA2 surrounded by the positions of the subjects P3, P4, P5, P8, and P10 is specified.

この場合、対象者P1、P2、P6、P7、P9の注視位置は、領域GA1の内部に存在する。グループ推定部126は、例えば、対象者P1、P2、P6、P7、P9の注視位置の全てが、所定時間以上、領域GA1に含まれているとき、複数の対象者P1、P2、P6、P7、P9により構成されるグループが形成されていると推定する。また、対象者P3、P4、P5、P8、P10の注視位置は、領域GA2の内部に存在する。グループ推定部126は、例えば、対象者P3、P4、P5、P8、P10の注視位置の全てが、所定時間以上、領域GA2に含まれているとき、複数の対象者P3、P4、P5、P8、P10により構成されるグループが形成されていると推定する。 In this case, the gaze positions of the subjects P1, P2, P6, P7, and P9 exist inside the region GA1. The group estimation unit 126 may, for example, have a plurality of subjects P1, P2, P6, P7 when all of the gaze positions of the subjects P1, P2, P6, P7, and P9 are included in the region GA1 for a predetermined time or longer. , It is presumed that a group composed of P9 is formed. Further, the gaze positions of the subjects P3, P4, P5, P8, and P10 exist inside the region GA2. The group estimation unit 126 may, for example, have a plurality of subjects P3, P4, P5, P8 when all of the gaze positions of the subjects P3, P4, P5, P8, and P10 are included in the region GA2 for a predetermined time or longer. , It is presumed that a group composed of P10 is formed.

また、グループ推定部126は、自身が推定したグループに含まれる複数の対象者の位置を含む領域である対象者領域を設定し、当該複数の対象者と異なる対象者のうち、当該対象者領域に注視領域が含まれている対象者を、当該推定したグループに属すると推定してもよい。 Further, the group estimation unit 126 sets a target person area which is an area including the positions of a plurality of target persons included in the group estimated by itself, and among the target persons different from the plurality of target persons, the target person area. A subject whose gaze area is included in may be estimated to belong to the estimated group.

図7は、本実施形態に係るグループ推定部126が推定したグループに、対象者を新たに所属させる例を示す図である。図7に示す例では、対象者P1~P3により構成されるグループの領域として、対象者P1~P3と、共同注視領域A1とを含むグループ領域GAが示されている。図7に示す例では、対象者P7の注視領域A5がグループ領域GAに含まれていることから、グループ推定部126は、対象者P7が、対象者P1~P3により構成されるグループに属すると推定する。このようにすることで、グループ推定装置1は、対象者が、他の対象者を直接注視したり、共同注視領域を注視したりしていない場合であっても、当該対象者をグループに所属させることができる。 FIG. 7 is a diagram showing an example in which a subject is newly assigned to a group estimated by the group estimation unit 126 according to the present embodiment. In the example shown in FIG. 7, as the region of the group composed of the subjects P1 to P3, the group region GA including the subjects P1 to P3 and the joint gaze region A1 is shown. In the example shown in FIG. 7, since the gaze region A5 of the subject P7 is included in the group region GA, the group estimation unit 126 determines that the subject P7 belongs to the group composed of the subjects P1 to P3. presume. By doing so, the group estimation device 1 makes the subject belong to the group even when the subject does not directly gaze at another subject or gaze at the joint gaze area. Can be made to.

なお、グループ推定部126は、注視領域特定部122が特定した複数の対象者のそれぞれの注視領域に基づいて、所定エリアに存在する複数の対象者のうち、少なくとも一部の対象者を含むグループを推定したが、注視領域のみに基づいてグループを推定すると、グループの推定精度が低下するという問題が発生する。そこで、グループ推定部126は、連動特定部125が特定した連動者の関連する動作及び発話の発生頻度にさらに基づいて、複数の対象者のうち、一部の対象者を含むグループを推定する。 The group estimation unit 126 is a group including at least a part of the plurality of subjects existing in the predetermined area based on the respective gaze areas of the plurality of subjects specified by the gaze area identification unit 122. However, if the group is estimated based only on the gaze area, there is a problem that the estimation accuracy of the group is lowered. Therefore, the group estimation unit 126 estimates a group including a part of the target persons among the plurality of target persons, based further on the occurrence frequency of the related actions and utterances of the interlocking person specified by the interlocking specific unit 125.

具体的には、グループ推定部126は、複数の対象者が予め定められた時間以上にわたって共同注視領域を注視している場合に、当該共同注視領域を注視している複数の対象者の集合に対し、グループを形成しているか否かの判定に用いる特定用指標値を算出する。そして、グループ推定部126は、当該複数の対象者に対し、算出した特定用指標値を付与する。グループ推定部126は、例えば、共同注視領域の注視時間が長ければ長いほど特定用指標値が高くなるように特定用指標値を算出する。 Specifically, when a plurality of subjects are gazing at the joint gaze area for a predetermined time or longer, the group estimation unit 126 is used as a set of a plurality of subjects who are gazing at the joint gaze area. On the other hand, a specific index value used for determining whether or not a group is formed is calculated. Then, the group estimation unit 126 assigns the calculated specific index value to the plurality of target persons. For example, the group estimation unit 126 calculates the specific index value so that the longer the gaze time of the joint gaze region is, the higher the specific index value is.

また、グループ推定部126は、注視領域を注視した対象者と、注視領域に位置が含まれる対象者との関連付けを行い、関連付けが行われている複数の対象者の集合に対し、特定用指標値を算出する。そして、グループ推定部126は、当該複数の対象者に対し、算出した特定用指標値を付与する。グループ推定部126は、例えば、対象者による他の対象者の注視時間が長ければ長いほど特定用指標値が高くなるように指標値を算出する。 Further, the group estimation unit 126 associates the target person who gazes at the gaze area with the target person whose position is included in the gaze area, and sets a specific index for a set of a plurality of subjects who are associated with each other. Calculate the value. Then, the group estimation unit 126 assigns the calculated specific index value to the plurality of target persons. The group estimation unit 126 calculates the index value so that, for example, the longer the gaze time of another target person by the target person, the higher the specific index value.

また、グループ推定部126は、任意の複数の対象者の位置により囲まれる領域に対し、当該複数の対象者の注視領域が含まれている時間に基づいて、特定用指標値を算出する。グループ推定部126は、当該複数の対象者に対し、算出した特定用指標値を付与する。グループ推定部126は、例えば、対象者による、複数の対象者の位置により囲まれる領域の内部の注視時間が長ければ長いほど特定用指標値が高くなるように指標値を算出する。 Further, the group estimation unit 126 calculates a specific index value based on the time in which the gaze area of the plurality of subjects is included in the region surrounded by the positions of the plurality of subjects. The group estimation unit 126 assigns the calculated specific index value to the plurality of subjects. For example, the group estimation unit 126 calculates the index value so that the longer the gaze time inside the area surrounded by the positions of the plurality of subjects by the subject, the higher the specific index value.

また、グループ推定部126は、連動特定部125が特定した連動者に対応する複数の対象者の集合に対し、特定用指標値を算出する。そして、グループ推定部126は、連動特定部125が特定した複数の連動者としての複数の対象者の集合に対し、算出した特定用指標値を付与する。グループ推定部126は、複数の連動者において連動して頷く動作が多ければ多いほど、特定用指標値が高くなるように特定用指標値を算出する。グループ推定部126は、複数の連動者において頷く動作に連動した発話が多ければ多いほど、特定用指標値が高くなるように特定用指標値を算出する。 Further, the group estimation unit 126 calculates the identification index value for a set of a plurality of target persons corresponding to the interlocking person specified by the interlocking specific unit 125. Then, the group estimation unit 126 assigns the calculated identification index value to the set of a plurality of target persons as the plurality of interlockers specified by the interlocking specific unit 125. The group estimation unit 126 calculates the specific index value so that the more the interlocking movements of the plurality of interlocking persons are, the higher the specific index value is. The group estimation unit 126 calculates the specific index value so that the more utterances linked to the nodding motion in the plurality of interlockers, the higher the specific index value.

グループ推定部126は、複数の対象者の集合に対して付与された複数の特定用指標値を統合する。例えば、グループ推定部126は、共同注視領域を注視している複数の対象者の集合に属する集合である部分集合に対し特定用指標値が付与されている場合、共同注視領域を注視している複数の対象者の集合に付与されている特定用指標値に、部分集合に対応する特定用指標値を加算することにより、特定用指標値を統合する。 The group estimation unit 126 integrates a plurality of identification index values given to a set of a plurality of subjects. For example, the group estimation unit 126 is gazing at the joint gaze area when a specific index value is given to a subset that belongs to a set of a plurality of subjects who are gazing at the joint gaze area. The specific index value is integrated by adding the specific index value corresponding to the subset to the specific index value given to the set of a plurality of subjects.

同様に、グループ推定部126は、関連付けが行われている複数の対象者の集合に属する集合である部分集合に対し特定用指標値が付与されている場合、関連付けが行われている複数の対象者の集合に付与されている特定用指標値に、部分集合に対応する特定用指標値を加算することにより、特定用指標値を統合する。 Similarly, the group estimation unit 126 has a plurality of related targets when a specific index value is given to a subset that belongs to a set of a plurality of related subjects. The specific index value is integrated by adding the specific index value corresponding to the subset to the specific index value given to the set of persons.

そして、グループ推定部126は、統合された特定用指標値が所定の閾値を超えている複数の対象者の集合を、当該複数の対象者により形成されるグループと推定する。このようにすることで、グループ推定装置1は、複数の対象者により形成されるグループを精度良く推定することができる。 Then, the group estimation unit 126 estimates that a set of a plurality of subjects whose integrated specific index value exceeds a predetermined threshold value is a group formed by the plurality of subjects. By doing so, the group estimation device 1 can accurately estimate the group formed by the plurality of subjects.

相互作用度特定部127は、グループ推定部126が推定したグループに含まれる複数の連動者の連動状況に基づいて、当該グループに含まれる複数の対象者の相互作用度を特定する。具体的には、相互作用度特定部127は、グループ推定部126により推定されたグループに含まれる複数の対象者の中から、互いに連動している連動者を特定する。相互作用度特定部127は、連動特定部125において特定された当該連動者の連動状況に基づいて、推定されたグループに含まれる複数の対象者の相互作用度を算出する。例えば、相互作用度特定部127は、連動特定部125において特定された当該連動者が連動していればしているほど、相互作用度を高くする。このようにすることで、グループ推定装置1は、推定したグループが活発であるか否かの判定を行うことができる。 The interaction degree specifying unit 127 specifies the degree of interaction of a plurality of subjects included in the group based on the interlocking status of the plurality of interlockers included in the group estimated by the group estimation unit 126. Specifically, the interaction degree specifying unit 127 identifies an interlocking person who is interlocking with each other from a plurality of subjects included in the group estimated by the group estimation unit 126. The interaction degree specifying unit 127 calculates the interaction degree of a plurality of subjects included in the estimated group based on the interlocking situation of the interlocking person specified in the interlocking specific unit 125. For example, the interaction degree specifying unit 127 increases the degree of interaction as the interlocking person specified in the interlocking specifying unit 125 is interlocked. By doing so, the group estimation device 1 can determine whether or not the estimated group is active.

また、相互作用度特定部127は、グループ推定部126が推定した複数のグループのそれぞれに含まれる複数の連動者の連動状況に基づいて、複数のグループの相互作用度を特定する。具体的には、相互作用度特定部127は、グループ推定部126により推定された複数のグループに含まれる複数の対象者の中から、グループを超えて互いに連動している連動者を特定する。相互作用度特定部127は、連動特定部125において特定された当該連動者の連動状況に基づいて、推定された複数のグループ間の相互作用度を算出する。例えば、相互作用度特定部127は、連動特定部125において特定された当該連動者が連動していればしているほど、複数のグループ間の相互作用度を高くする。このようにすることで、グループ推定装置1は、推定した複数のグループ間において活発に議論が行われているか等の判定を行うことができる。 Further, the interaction degree specifying unit 127 specifies the interaction degree of the plurality of groups based on the interlocking status of the plurality of interlockers included in each of the plurality of groups estimated by the group estimation unit 126. Specifically, the interaction degree specifying unit 127 identifies an interlocking person that is interlocked with each other beyond the group from among a plurality of subjects included in the plurality of groups estimated by the group estimation unit 126. The interaction degree specifying unit 127 calculates the estimated degree of interaction between a plurality of groups based on the interlocking situation of the interlocking person specified in the interlocking specific unit 125. For example, the interaction degree specifying unit 127 increases the degree of interaction between a plurality of groups as the interlocking person specified in the interlocking specifying unit 125 is interlocked. By doing so, the group estimation device 1 can determine whether or not there is active discussion among the estimated plurality of groups.

出力部128は、グループ推定部126が推定したグループを示す情報と、相互作用度特定部127が特定した当該グループに含まれる複数の対象者の相互作用度を示す情報とを出力する。例えば、出力部128は、グループ推定部126が推定したグループを識別するグループ識別情報と、当該グループに属する複数の対象者のそれぞれに対応する対象者識別情報と、相互作用度を示す情報とを関連付けた情報を、推定グループ情報として記憶部11に出力する。 The output unit 128 outputs information indicating the group estimated by the group estimation unit 126 and information indicating the degree of interaction of a plurality of subjects included in the group specified by the interaction degree specifying unit 127. For example, the output unit 128 provides group identification information for identifying the group estimated by the group estimation unit 126, target person identification information corresponding to each of a plurality of target persons belonging to the group, and information indicating the degree of interaction. The associated information is output to the storage unit 11 as estimation group information.

また、出力部128は、相互作用度特定部127が特定した複数のグループの相互作用度を示す情報を出力する。例えば、出力部128は、複数のグループのそれぞれに対応するグループ識別情報と、複数のグループの相互作用度を示す情報とを関連付けた情報を、グループ間相互作用度情報として記憶部11に出力する。 Further, the output unit 128 outputs information indicating the degree of interaction of a plurality of groups specified by the degree of interaction specifying unit 127. For example, the output unit 128 outputs information in which the group identification information corresponding to each of the plurality of groups and the information indicating the degree of interaction of the plurality of groups are associated with each other as the intergroup interaction degree information to the storage unit 11. ..

[グループ推定装置1の処理の流れ]
続いて、グループ推定装置1の処理の流れについて説明する。図8は、本実施形態に係るグループ推定装置1の処理の流れを示すフローチャートである。
[Processing flow of group estimation device 1]
Subsequently, the processing flow of the group estimation device 1 will be described. FIG. 8 is a flowchart showing a processing flow of the group estimation device 1 according to the present embodiment.

まず、対象者情報取得部121は、対象者情報を取得する(S1)。
続いて、注視領域特定部122は、複数の対象者のそれぞれの注視領域を特定する(S2)。
First, the target person information acquisition unit 121 acquires the target person information (S1).
Subsequently, the gaze area specifying unit 122 identifies each gaze area of the plurality of subjects (S2).

続いて、動作情報取得部123は、動作情報を取得する(S3)。
続いて、発話情報取得部124は、発話情報を取得する(S4)。
なお、対象者情報、動作情報及び発話情報は、図8に示す順番に限らず、他の順番に従って取得されてもよい。
Subsequently, the operation information acquisition unit 123 acquires the operation information (S3).
Subsequently, the utterance information acquisition unit 124 acquires the utterance information (S4).
The target person information, the operation information, and the utterance information are not limited to the order shown in FIG. 8, and may be acquired in another order.

続いて、連動特定部125は、取得した動作情報及び発話情報に基づいて連動者を特定する(S5)。
続いて、グループ推定部126は、特定された複数の対象者のそれぞれの注視領域、及び特定された連動者に基づいて、複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する(S6)。
Subsequently, the interlocking identification unit 125 identifies the interlocking person based on the acquired operation information and utterance information (S5).
Subsequently, the group estimation unit 126 estimates a group including at least a part of the plurality of subjects based on the gaze area of each of the identified plurality of subjects and the identified interlocking person. (S6).

続いて、相互作用度特定部127は、推定されたグループに含まれる複数の連動者の連動状況に基づいて、当該グループに含まれる複数の対象者の相互作用度を特定する(S7)。
続いて、相互作用度特定部127は、グループ推定部126が推定した複数のグループのそれぞれに含まれる複数の連動者の連動状況に基づいて、複数のグループの相互作用度を特定する(S8)。
Subsequently, the interaction degree specifying unit 127 specifies the interaction degree of the plurality of subjects included in the group based on the interlocking status of the plurality of interlockers included in the estimated group (S7).
Subsequently, the interaction degree specifying unit 127 specifies the interaction degree of the plurality of groups based on the interlocking status of the plurality of interlockers included in each of the plurality of groups estimated by the group estimation unit 126 (S8). ..

続いて、出力部128は、推定されたグループを識別するグループ識別情報と、当該グループに属する複数の対象者のそれぞれに対応する対象者識別情報と、相互作用度を示す情報とを関連付けた推定グループ情報を出力するとともに、複数のグループのそれぞれに対応するグループ識別情報と、複数のグループの相互作用度を示す情報とを関連付けたグループ間相互作用度情報を出力する(S9)。 Subsequently, the output unit 128 estimates that the group identification information for identifying the estimated group, the target person identification information corresponding to each of the plurality of subjects belonging to the group, and the information indicating the degree of interaction are associated with each other. In addition to outputting the group information, the group identification information corresponding to each of the plurality of groups and the information indicating the interaction degree of the plurality of groups are associated with each other, and the interaction degree information between the groups is output (S9).

[本実施形態における効果]
以上説明したように、本実施形態に係るグループ推定装置1は、所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが注視する領域を示す注視領域を特定し、特定した複数の対象者のそれぞれの注視領域に基づいて、複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する。このようにすることで、グループ推定装置1は、人物が移動していない状態であってもグループを推定することができる。
[Effects in this embodiment]
As described above, the group estimation device 1 according to the present embodiment has specified and specified a gaze area indicating an area to be gazed by each of a plurality of subjects who are present in a predetermined area and may belong to the group. Based on the respective gaze areas of the plurality of subjects, a group including at least a part of the subjects is estimated. By doing so, the group estimation device 1 can estimate the group even when the person is not moving.

以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. Further, in particular, the specific embodiment of the distribution / integration of the apparatus is not limited to those shown above, and all or a part thereof may be arbitrary according to various additions or the like, or according to the functional load. It can be functionally or physically distributed / integrated in units.

1・・・グループ推定装置、11・・・記憶部、12・・・制御部、121・・・対象者情報取得部、122・・注視領域特定部、123・・・動作情報取得部、124・・・発話情報取得部、125・・・連動特定部、126・・・グループ推定部、127・・・相互作用度特定部、128・・・出力部 1 ... Group estimation device, 11 ... Storage unit, 12 ... Control unit, 121 ... Target person information acquisition unit, 122 ... Gaze area identification unit, 123 ... Operation information acquisition unit, 124 ... Speaking information acquisition unit, 125 ... Interlocking specific unit, 126 ... Group estimation unit, 127 ... Interaction degree identification unit, 128 ... Output unit

Claims (10)

所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定する注視領域特定部と、
前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得する対象者情報取得部と、
前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置に基づいて、任意の複数の対象者の位置を含む領域を設定し、前記注視領域特定部が特定した前記複数の対象者のそれぞれの前記注視領域のうち、前記領域が設定された複数の対象者の前記注視領域が、前記領域に含まれている場合、前記領域が設定された複数の対象者により構成されるグループを推定するグループ推定部と、
前記グループ推定部が推定した前記グループを示す情報を出力する出力部と、
を備えるグループ推定装置。
A gaze area specifying unit that specifies a gaze area indicating an area to be gazed at each time included in a predetermined period by each of a plurality of subjects who are present in a predetermined area and may belong to a group.
A target person information acquisition unit that acquires target person information including position information indicating the position of each of the plurality of target persons, and a target person information acquisition unit.
Based on the position indicated by the target person information corresponding to each of the plurality of target persons, an area including the positions of any plurality of target persons is set, and the plurality of target persons specified by the gaze area specifying unit. When the gaze area of a plurality of subjects in which the area is set is included in the area, a group composed of a plurality of subjects in which the area is set is formed . Group estimation unit to estimate and
An output unit that outputs information indicating the group estimated by the group estimation unit, and an output unit.
A group estimator equipped with.
所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定する注視領域特定部と、 A gaze area specifying unit that specifies a gaze area indicating an area to be gazed at each time included in a predetermined period by each of a plurality of subjects who are present in a predetermined area and may belong to a group.
前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得する対象者情報取得部と、 A target person information acquisition unit that acquires target person information including position information indicating the position of each of the plurality of target persons, and a target person information acquisition unit.
前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置と、前記注視領域特定部が特定した前記複数の対象者のそれぞれの前記注視領域とに基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するグループ推定部と、 Based on the position indicated by the subject information corresponding to each of the plurality of subjects and the gaze area of each of the plurality of subjects specified by the gaze area specifying unit, the plurality of subjects of the plurality of subjects. Of these, the group estimation unit that estimates the group including at least some of the subjects,
前記グループ推定部が推定した前記グループを示す情報を出力する出力部と、 An output unit that outputs information indicating the group estimated by the group estimation unit, and an output unit.
を備え、 Equipped with
前記グループ推定部は、推定したグループに含まれる複数の対象者の位置を含む領域である対象者領域を設定し、当該複数の対象者と異なる対象者のうち、当該対象者領域に前記注視領域が含まれている対象者を、推定したグループに属すると推定する、 The group estimation unit sets a target person area, which is an area including the positions of a plurality of target persons included in the estimated group, and among the target persons different from the plurality of target persons, the gaze area is set in the target person area. Estimate that the subject containing is in the estimated group,
グループ推定装置。 Group estimator.
所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定する注視領域特定部と、 A gaze area specifying unit that specifies a gaze area indicating an area to be gazed at each time included in a predetermined period by each of a plurality of subjects who are present in a predetermined area and may belong to a group.
前記注視領域特定部が特定した前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するグループ推定部と、 A group estimation unit that estimates a group including at least a part of the plurality of subjects based on the gaze area of each of the plurality of subjects specified by the gaze area specifying unit.
前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、 An operation information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period.
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、 An interlocking identification unit that identifies a plurality of target persons performing related operations as interlocking persons based on the operation indicated by the operation information corresponding to each of the plurality of target persons.
前記グループ推定部が推定した複数のグループのそれぞれに含まれる複数の前記連動者の連動状況に基づいて、前記複数のグループの相互作用度を特定する相互作用度特定部と、 An interaction degree specifying unit that specifies the degree of interaction of the plurality of groups based on the interlocking status of the plurality of interlockers included in each of the plurality of groups estimated by the group estimation unit.
前記グループ推定部が推定した前記グループを示す情報と、特定された前記複数のグループの相互作用度を示す情報とを出力する出力部と、 An output unit that outputs information indicating the group estimated by the group estimation unit and information indicating the degree of interaction of the specified plurality of groups.
を備えるグループ推定装置。 A group estimator equipped with.
前記グループ推定部は、前記注視領域が共通する複数の対象者により構成される前記グループを推定する、
請求項1から3のいずれか1項に記載のグループ推定装置。
The group estimation unit estimates the group composed of a plurality of subjects having a common gaze area.
The group estimation device according to any one of claims 1 to 3 .
前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、
をさらに備え、
前記グループ推定部は、前記連動者の前記関連する動作の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定する、
請求項1からのいずれか1項に記載のグループ推定装置。
An operation information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period.
An interlocking identification unit that identifies a plurality of target persons performing related operations as interlocking persons based on the operation indicated by the operation information corresponding to each of the plurality of target persons.
Further prepare
The group estimation unit estimates a group including a part of the target persons among the plurality of target persons, based on the frequency of occurrence of the related movements of the interlocking person.
The group estimation device according to any one of claims 1 to 4 .
前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の発話の内容を示す発話情報を複数取得する発話情報取得部をさらに備え、
前記連動特定部は、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作と、前記発話情報が示す前記発話とに基づいて、関連する動作及び発話を行っている複数の対象者を前記連動者として特定し、
前記グループ推定部は、前記連動者の前記関連する動作及び前記発話の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定する、
請求項に記載のグループ推定装置。
Further, it is provided with an utterance information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of utterance information indicating the contents of the utterances of the target person at each time included in the predetermined period.
The interlocking specific unit is a plurality of target persons who perform related actions and utterances based on the operation indicated by the motion information corresponding to each of the plurality of subjects and the utterance indicated by the utterance information. As the interlocking person,
The group estimation unit estimates a group including a part of the plurality of subjects among the plurality of subjects, based on the related movements of the interlocking person and the frequency of occurrence of the utterances.
The group estimation device according to claim 5 .
前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、
前記グループ推定部が推定したグループに含まれる複数の前記連動者の連動状況に基づいて当該グループに含まれる複数の対象者の相互作用度を特定する相互作用度特定部と、
をさらに備え、
前記出力部は、前記グループに含まれる複数の対象者の相互作用度を示す情報を出力する、
請求項1からのいずれか1項に記載のグループ推定装置。
An operation information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period.
An interlocking identification unit that identifies a plurality of target persons performing related operations as interlocking persons based on the operation indicated by the operation information corresponding to each of the plurality of target persons.
An interaction degree specifying unit that specifies the degree of interaction of a plurality of subjects included in the group based on the interlocking status of the plurality of interlocking persons included in the group estimated by the group estimation unit.
Further prepare
The output unit outputs information indicating the degree of interaction of a plurality of subjects included in the group.
The group estimation device according to any one of claims 1 to 6 .
コンピュータが実行する、
所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定するステップと、
前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得するステップと、
取得された前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置に基づいて、任意の複数の対象者の位置を含む領域を設定し、特定された前記複数の対象者のそれぞれの前記注視領域のうち、前記領域が設定された複数の対象者の前記注視領域が、前記領域に含まれている場合、前記領域が設定された複数の対象者により構成されるグループを推定するステップと、
推定された前記グループを示す情報を出力するステップと、
有するグループ推定方法。
Computer runs,
A step of identifying a gaze area indicating an area of gaze at each time included in a predetermined period for each of a plurality of subjects who are present in a predetermined area and may belong to a group.
A step of acquiring target person information including position information indicating each position of the plurality of target persons, and
Based on the position indicated by the target person information corresponding to each of the acquired plurality of target persons, an area including the positions of any plurality of target persons is set, and each of the specified plurality of target persons. When the gaze area of a plurality of subjects in which the area is set is included in the area, a group composed of a plurality of subjects in which the area is set is estimated. Steps and
A step to output information indicating the estimated group, and
Group estimation method with .
コンピュータが実行する、 Computer runs,
所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定するステップと、 A step of identifying a gaze area indicating an area of gaze at each time included in a predetermined period for each of a plurality of subjects who are present in a predetermined area and may belong to a group.
前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得するステップと、 A step of acquiring target person information including position information indicating each position of the plurality of target persons, and
取得された前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置と、特定された前記複数の対象者のそれぞれの前記注視領域とに基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するステップと、 Of the plurality of subjects, based on the position indicated by the subject information corresponding to each of the acquired plurality of subjects and the gaze area of each of the identified plurality of subjects. Steps to estimate a group that includes at least some of the subjects,
推定された前記グループを示す情報を出力するステップと、 A step to output information indicating the estimated group, and
を有し、 Have,
前記グループを推定するステップにおいて、前記コンピュータは、推定したグループに含まれる複数の対象者の位置を含む領域である対象者領域を設定し、当該複数の対象者と異なる対象者のうち、当該対象者領域に前記注視領域が含まれている対象者を、推定したグループに属すると推定する、 In the step of estimating the group, the computer sets a target area which is an area including the positions of a plurality of target persons included in the estimated group, and among the target persons different from the plurality of target persons, the target person is concerned. It is estimated that the subject whose gaze area is included in the person area belongs to the estimated group.
グループ推定方法。 Group estimation method.
コンピュータが実行する、 Computer runs,
所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定するステップと、 A step of identifying a gaze area indicating an area of gaze at each time included in a predetermined period for each of a plurality of subjects who are present in a predetermined area and may belong to a group.
特定された前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するステップと、 A step of estimating a group including at least a part of the plurality of subjects based on the gaze area of each of the plurality of identified subjects.
前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得するステップと、 A step of acquiring a plurality of operation information indicating the operation of the target person at each time included in the predetermined period corresponding to each of the plurality of target persons, and
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定するステップと、 A step of identifying a plurality of target persons performing related operations as interlocking persons based on the operation indicated by the operation information corresponding to each of the plurality of target persons.
推定された複数のグループのそれぞれに含まれる複数の前記連動者の連動状況に基づいて、前記複数のグループの相互作用度を特定するステップと、 A step of specifying the degree of interaction of the plurality of groups based on the interlocking status of the plurality of interlockers included in each of the estimated plurality of groups, and a step of specifying the degree of interaction of the plurality of groups.
推定された前記グループを示す情報と、特定された前記複数のグループの相互作用度を示す情報とを出力するステップと、 A step of outputting information indicating the estimated said group and information indicating the degree of interaction of the specified plurality of groups.
を有するグループ推定方法。 Group estimation method with.
JP2018227830A 2018-12-05 2018-12-05 Group estimation device and group estimation method Active JP7041046B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018227830A JP7041046B2 (en) 2018-12-05 2018-12-05 Group estimation device and group estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018227830A JP7041046B2 (en) 2018-12-05 2018-12-05 Group estimation device and group estimation method

Publications (2)

Publication Number Publication Date
JP2020091622A JP2020091622A (en) 2020-06-11
JP7041046B2 true JP7041046B2 (en) 2022-03-23

Family

ID=71012856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018227830A Active JP7041046B2 (en) 2018-12-05 2018-12-05 Group estimation device and group estimation method

Country Status (1)

Country Link
JP (1) JP7041046B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230342746A1 (en) 2021-03-17 2023-10-26 Nec Corporation Information processing apparatus, information processing method, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016061996A (en) 2014-09-19 2016-04-25 ヤフー株式会社 Advertisement distribution device, advertisement distribution method, and advertisement distribution program
JP2016081174A (en) 2014-10-14 2016-05-16 富士ゼロックス株式会社 Association program and information processing apparatus
JP2016122272A (en) 2014-12-24 2016-07-07 富士通株式会社 Availability calculation system, availability calculation method and availability calculation program
WO2016158267A1 (en) 2015-03-27 2016-10-06 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016061996A (en) 2014-09-19 2016-04-25 ヤフー株式会社 Advertisement distribution device, advertisement distribution method, and advertisement distribution program
JP2016081174A (en) 2014-10-14 2016-05-16 富士ゼロックス株式会社 Association program and information processing apparatus
JP2016122272A (en) 2014-12-24 2016-07-07 富士通株式会社 Availability calculation system, availability calculation method and availability calculation program
WO2016158267A1 (en) 2015-03-27 2016-10-06 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2020091622A (en) 2020-06-11

Similar Documents

Publication Publication Date Title
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP5001260B2 (en) Object tracking method and object tracking apparatus
US8724845B2 (en) Content determination program and content determination device
KR101693951B1 (en) Method for recognizing gestures and gesture detector
JP6779699B2 (en) Image processing equipment, information processing methods and programs
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
US9682482B2 (en) Autonomous moving device and control method of autonomous moving device
US11094337B2 (en) Cough detection device, cough detection method, and recording medium
JP2014229068A (en) People counting device and person flow line analysis apparatus
JP6779410B2 (en) Video analyzer, video analysis method, and program
JP6922410B2 (en) Posture judgment program, posture judgment device and posture judgment method
JP7041046B2 (en) Group estimation device and group estimation method
JP7106296B2 (en) Image processing device, image processing method and program
US20120321197A1 (en) Image processing apparatus, content delivery system, image processing method, and program
JP2003216938A (en) Information collecting device
WO2012153868A1 (en) Information processing device, information processing method and information processing program
JP2020071717A (en) Information processing device, information processing method, and program
JP2020154808A (en) Information processor, information processing system, information processing method, and program
JP6723822B2 (en) Image processing apparatus, image processing method and program
JP2020201674A (en) Video analyzer and control method therefor and program
JPWO2021149274A5 (en)
JP6995960B2 (en) Image processing equipment, image processing methods and programs
WO2020020436A1 (en) Method and system for object tracking in image sequences
JP7314244B2 (en) Image processing device, image processing method and program
JP6287527B2 (en) Information processing apparatus, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220310

R150 Certificate of patent or registration of utility model

Ref document number: 7041046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150