JP2020091622A - Group estimation device and group estimation method - Google Patents
Group estimation device and group estimation method Download PDFInfo
- Publication number
- JP2020091622A JP2020091622A JP2018227830A JP2018227830A JP2020091622A JP 2020091622 A JP2020091622 A JP 2020091622A JP 2018227830 A JP2018227830 A JP 2018227830A JP 2018227830 A JP2018227830 A JP 2018227830A JP 2020091622 A JP2020091622 A JP 2020091622A
- Authority
- JP
- Japan
- Prior art keywords
- group
- target
- target persons
- persons
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、グループ推定装置及びグループ推定方法に関する。 The present invention relates to a group estimation device and a group estimation method.
従来、複数の人物が属するグループを特定することが行われている。例えば、特許文献1には、活動する集団の重心と個人の位置座標を分析することで、グループとしての活動を検出する技術が開示されている。
Conventionally, it has been performed to specify a group to which a plurality of persons belong. For example,
特許文献1において開示されている従来の技術は主に街中やショッピングモールなどで移動しつつ活動している集団の重心と個人の位置座標を分析することにより、グループとしての活動を検出するものである。したがって、従来の技術では、会議室などの基本的に着座しており、人物が移動していない状態においてグループを推定することができないという問題がある。
The conventional technique disclosed in
そこで、本発明はこれらの点に鑑みてなされたものであり、人物が移動していない状態であってもグループを推定することができるグループ推定装置及びグループ推定方法を提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object thereof is to provide a group estimation device and a group estimation method that can estimate a group even when a person is not moving. ..
本発明の第1の態様に係るグループ推定装置は、所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定する注視領域特定部と、前記注視領域特定部が特定した前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するグループ推定部と、前記グループ推定部が推定した前記グループを示す情報を出力する出力部と、を備える。 The group estimation device according to the first aspect of the present invention sets a gaze region indicating a region that is present in a predetermined area and is gazed at each time included in a predetermined period by a plurality of target persons who may belong to the group. Based on the gaze area specifying unit to specify and the gaze area of each of the plurality of target persons specified by the gaze area specifying unit, the group including at least a part of the plurality of target persons is estimated. And a group output unit that outputs information indicating the group estimated by the group estimation unit.
前記グループ推定部は、前記注視領域が共通する複数の対象者により構成される前記グループを推定してもよい。
前記グループ推定装置は、前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得する対象者情報取得部をさらに備え、前記グループ推定部は、前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置と、前記複数の対象者のそれぞれの前記注視領域との関係に基づいて、前記グループを推定してもよい。
The group estimation unit may estimate the group composed of a plurality of target persons having the same gaze area.
The group estimation device further includes a target person information acquisition unit that acquires target person information including position information indicating the position of each of the plurality of target people, the group estimation unit, for each of the plurality of target people The group may be estimated based on the relationship between the position indicated by the corresponding subject information and the gaze area of each of the plurality of subjects.
前記グループ推定部は、前記注視領域を注視した対象者と、前記注視領域に前記位置が含まれる対象者との関連付けを行い、関連付けが行われている複数の対象者により構成される前記グループを推定してもよい。 The group estimation unit associates a target person who gazes at the gaze area with a target person whose position is included in the gaze area, and defines the group configured by a plurality of target persons who are associated with each other. It may be estimated.
前記グループ推定部は、任意の複数の対象者の位置を含む領域を設定し、前記所定期間における当該複数の対象者の注視領域が当該領域に含まれている場合、当該複数の対象者により構成される前記グループを推定してもよい。 The group estimation unit sets an area including the positions of any plurality of target persons, and when the gaze area of the plurality of target persons in the predetermined period is included in the area, the group estimation unit is configured by the plurality of target persons. May be estimated.
前記グループ推定部は、推定したグループに含まれる複数の対象者の位置を含む領域である対象者領域を設定し、当該複数の対象者と異なる対象者のうち、当該対象者領域に前記注視領域が含まれている対象者を、推定したグループに属すると推定してもよい。 The group estimation unit sets a target person region that is a region including the positions of a plurality of target persons included in the estimated group, and among the target persons different from the plurality of target persons, the gaze area in the target person area. It is possible to presume that the target person including is included in the estimated group.
前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、をさらに備え、前記グループ推定部は、前記連動者の前記関連する動作の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定してもよい。 The group estimation device corresponds to each of the plurality of target persons, a motion information acquisition unit that acquires a plurality of motion information indicating the motion of the target person at each time included in the predetermined period, and the plurality of target persons Further includes an interlocking specifying unit that, based on the motion indicated by the motion information corresponding to each of the motion information, specifies a plurality of target persons performing related motions as interlocking members, and the group estimating unit is configured to perform the interlocking operation. A group including some of the plurality of target persons may be estimated further based on the frequency of occurrence of the related motion of the person.
前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の発話の内容を示す発話情報を複数取得する発話情報取得部をさらに備え、前記連動特定部は、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作と、前記発話情報が示す前記発話とに基づいて、関連する動作及び発話を行っている複数の対象者を前記連動者として特定し、前記グループ推定部は、前記連動者の前記関連する動作及び前記発話の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定してもよい。 The group estimation device further includes a utterance information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of utterance information indicating the content of the utterance of the target person at each time included in the predetermined period, The interlocking specifying unit identifies a plurality of target persons who are performing related actions and utterances based on the action indicated by the action information corresponding to each of the plurality of subject persons and the utterance indicated by the utterance information. The group estimating unit estimates a group including a part of the target persons among the plurality of target persons based on the related motion of the linking person and the occurrence frequency of the utterance. You may.
前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、前記グループ推定部が推定したグループに含まれる複数の前記連動者の連動状況に基づいて当該グループに含まれる複数の対象者の相互作用度を特定する相互作用度特定部と、をさらに備え、前記出力部は、前記グループに含まれる複数の対象者の相互作用度を示す情報を出力してもよい。 The group estimation device corresponds to each of the plurality of target persons, a motion information acquisition unit that acquires a plurality of motion information indicating the motion of the target person at each time included in the predetermined period, and the plurality of target persons Based on the motion indicated by the motion information corresponding to each of the plurality of included in the group estimated by the group estimation unit, which specifies a plurality of target persons performing a related action as interlocking persons. And a degree-of-interaction specifying unit that specifies the degree of interaction of a plurality of target persons included in the group based on the interlocking state of the interlocking person, and the output unit includes a plurality of targets included in the group. Information indicating the degree of interaction between persons may be output.
前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、前記グループ推定部が推定した複数のグループのそれぞれに含まれる複数の前記連動者の連動状況に基づいて、前記複数のグループの相互作用度を特定する相互作用度特定部と、をさらに備え、前記出力部は、特定された前記複数のグループの相互作用度を示す情報を出力してもよい。 The group estimation device corresponds to each of the plurality of target persons, a motion information acquisition unit that acquires a plurality of motion information indicating the motion of the target person at each time included in the predetermined period, and the plurality of target persons Based on the action indicated by the action information corresponding to each of the plurality of groups estimated by the group estimation unit, the interlocking identification unit that identifies a plurality of target persons who are performing related actions as interlocking persons. Further includes an interaction degree specifying unit that specifies the degree of interaction of the plurality of groups based on the interlocking status of the plurality of interlocking persons included in the output unit of the plurality of identified groups. Information indicating the degree of interaction may be output.
本発明の第2の態様に係るグループ推定方法は、コンピュータが実行する、所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定するステップと、特定された前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するステップと、推定された前記グループを示す情報を出力するステップと、を備える。 A group estimation method according to a second aspect of the present invention is an area which is executed by a computer and is watched at each time point included in a predetermined period by a plurality of target persons who are present in a predetermined area and may belong to a group. And a step of estimating a group including at least a part of the target persons among the plurality of target persons based on the respective gaze areas of the plurality of identified target persons, Outputting information indicating the estimated group.
本発明によれば、人物が移動していない状態であってもグループを推定することができるという効果を奏する。 According to the present invention, it is possible to estimate a group even when a person is not moving.
[グループ推定装置1の概要]
図1は、本実施形態に係るグループ推定装置1の概要を示す図である。グループ推定装置1は、所定エリアにおいてグループに属する可能性がある複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するコンピュータである。ここで、所定エリアは、例えば会議室やホール等のフロアである。図1に示す例では、所定エリアには、複数の対象者として、対象者P1〜P6が存在している。
[Outline of Group Estimation Device 1]
FIG. 1 is a diagram showing an outline of the
グループ推定装置1は、所定期間に含まれる各時刻における対象者の位置と、対象者の視線方向とを関連付けた視線情報に基づいて、複数の対象者のそれぞれが注視する領域を示す注視領域を特定する。グループ推定装置1は、例えば図1に示すように、対象者の位置と、対象者の視線方向D1〜D6とに基づいて、対象者P1〜P6の注視領域として、注視領域A1〜A3を特定する。
The
グループ推定装置1は、複数の対象者のそれぞれに対して特定した注視領域に基づいて、複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する。例えば、グループ推定装置1は、注視領域が共通する複数の対象者により構成されるグループを推定したり、複数の対象者の位置と、複数の対象者に対して特定された注視領域との関係に基づいてグループを推定したりする。グループ推定装置1は、例えば図1に示すように、対象者P1〜P3が属するグループG1と、対象者P4〜P6が属するグループG2とを特定する。このように、グループ推定装置1は、複数の対象者のそれぞれに対して特定した注視領域に基づいてグループを推定するので、人物が移動していない状態であってもグループを推定することができる。
The
[グループ推定装置1の構成]
続いて、グループ推定装置1の構成を説明する。図2は、本実施形態に係るグループ推定装置1の構成を示す図である。図2に示すように、グループ推定装置1は、記憶部11と、制御部12とを備える。
[Configuration of group estimation device 1]
Subsequently, the configuration of the
記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。例えば、記憶部11は、グループ推定装置1を、対象者情報取得部121、注視領域特定部122、動作情報取得部123、発話情報取得部124、連動特定部125、グループ推定部126、相互作用度特定部127、及び出力部128として機能させるグループ推定プログラムを記憶している。
The storage unit 11 is a storage medium including a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage unit 11 stores a program executed by the
制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶されたグループ推定プログラムを実行することにより、対象者情報取得部121、注視領域特定部122、動作情報取得部123、発話情報取得部124、連動特定部125、グループ推定部126、相互作用度特定部127、及び出力部128として機能する。
The
対象者情報取得部121は、所定エリアにおいてグループに属する可能性がある複数の対象者のそれぞれに対応し、対象者を識別する対象者識別情報と、所定期間(例えば、5秒間)に含まれる各時刻における対象者の位置を示す位置情報と、対象者の視線方向を示す視線方向情報とを関連付けた対象者情報を複数取得する。対象者情報は、例えば記憶部11に記憶されており、対象者情報取得部121は、記憶部11に記憶されている対象者情報を取得する。
The target person
注視領域特定部122は、複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定する。例えば、注視領域特定部122は、対象者情報取得部121が取得した対象者情報に含まれる対象者の位置を示す位置情報と、対象者の視線方向を示す視線方向情報とに基づいて、複数の対象者のそれぞれに対応する注視領域を特定する。注視領域特定部122は、例えば、対象者の位置から対象者の視線方向の所定範囲内に他の対象者が存在する場合、他の対象者の位置を注視領域と特定する。また、注視領域特定部122は、例えば、対象者の位置から対象者の視線方向の所定範囲内に他の対象者が存在しない場合、対象者の位置から対象者の視線方向に所定距離離れた位置を注視領域と特定する。
The gaze
なお、注視領域特定部122は、視線を検出する視線検出装置(不図示)が検出した対象者の視線に基づいて注視領域を特定してもよい。また、注視領域特定部122は、所定期間において所定エリアを撮像した撮像画像であって、対象者を含む撮像画像を解析することにより、当該対象者の注視領域を特定してもよい。
The gaze
動作情報取得部123は、複数の対象者のそれぞれに対応し、所定期間に含まれる各時刻における対象者の動作を示す動作情報を複数取得する。動作情報には、対象者識別情報が関連付けられている。例えば、動作情報取得部123は、対象者の動作を特定するモーションキャプチャ装置(不図示)が生成した動作情報を取得したり、赤外線センサ(不図示)が検出した人の動きを示す情報に基づいて動作情報を取得したりしてもよい。また、動作情報取得部123は、所定期間における所定エリアを撮像した複数の撮像画像について、連続ウェーブレット変換等の画像処理を行い、画像に含まれる画素の変化量を算出することにより、動作情報を取得してもよい。ここで、対象者の動作は、相槌を打つ動作や、頷く動作が含まれている。
The motion
発話情報取得部124は、複数の対象者のそれぞれに対応し、所定期間に含まれる各時刻における対象者の発話の内容を示す発話情報を複数取得する。発話情報には、対象者識別情報が関連付けられている。
The utterance
連動特定部125は、動作情報取得部123が取得した複数の対象者のそれぞれに対応する動作情報が示す動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する。また、連動特定部125は、動作情報取得部123が取得した複数の対象者のそれぞれに対応する動作情報が示す動作と、発話情報取得部124が取得した発話情報が示す発話とに基づいて、関連する動作及び発話を行っている複数の対象者を連動者として特定する。
The interlocking
例えば、連動特定部125は、対象者情報が示す対象者の位置が所定範囲以内の複数の対象者に対応する対象者識別情報を特定する。そして、連動特定部125は、特定した対象者識別情報に関連付けられている動作情報が示す動作と、特定した対象者識別情報に関連付けられている発話情報が示す発話とに基づいて、連動して頷く動作や相槌を示す単語を発している複数の対象者を連動者として特定する。
For example, the
グループ推定部126は、注視領域特定部122が特定した複数の対象者のそれぞれの注視領域に基づいて、所定エリアに存在する複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する。
The
グループ推定部126は、注視領域が共通する複数の対象者より構成されるグループを推定する。図3は、本実施形態に係る共同注視領域の一例を示す図である。図3に示す例では、所定エリア内に存在する複数の対象者P1〜P3の注視領域がいずれも注視領域A1であることから、グループ推定部126は、注視領域A1を、共同注視領域として特定する。例えば、グループ推定部126は、複数の対象者で共通する注視領域を共同注視領域とし、複数の対象者が、当該共同注視領域を注視する時間に基づいて、これらの複数の対象者がグループを形成しているか否かを判定する。図3に示す例では、グループ推定部126は、共同注視領域A1を有する複数の対象者P1〜P3により構成されるグループが形成されていると推定する。
The
また、グループ推定部126は、複数の対象者のそれぞれに対応する対象者情報が示す対象者の位置と、複数の対象者のそれぞれの注視領域との関係に基づいて、グループを推定する。具体的には、グループ推定部126は、注視領域を注視した対象者と、注視領域に位置が含まれる対象者との関連付けを行い、関連付けが行われている複数の対象者により構成されるグループを推定する。
In addition, the
図4は、本実施形態に係るグループ推定部126が、対象者の位置と、注視領域との関係に基づいてグループを推定する例を説明する図である。図4に示す例では、対象者P4及び対象者P5の注視領域A2に対象者P6が位置している。また、対象者P6の注視領域A3に対象者P4が位置している。したがって、グループ推定部126は、対象者P4と対象者P6とを関連付けるとともに、対象者P5と対象者P6とを関連付ける。対象者P4と、対象者P5とは、対象者P6を介して関連付けられることから、グループ推定部126は、関連付けが行われている複数の対象者P4〜P6により構成されるグループが形成されていると推定する。
FIG. 4 is a diagram illustrating an example in which the
なお、グループ推定部126は、一人の対象者に対応する複数の注視領域のそれぞれに他の対象者が位置している場合、当該一人の対象者と、他の対象者とを含むグループが形成されていると推定してもよい。図5は、本実施形態に係るグループ推定部126が、対象者の位置と、注視領域との関係に基づいてグループを推定する他の例(その1)を説明する図である。図5に示す例では、対象者P6の注視領域A3及び注視領域A4のそれぞれに、他の対象者P4と他の対象者P5とが位置していることが確認できる。この場合、グループ推定部126は、対象者P4〜P6により構成されるグループが形成されていると推定する。
In addition, when another target person is located in each of a plurality of gaze areas corresponding to one target person, the
また、グループ推定部126は、所定期間において、任意の複数の対象者の位置により囲まれる領域について、当該複数の対象者の注視領域が所定時間以上含まれている場合、当該複数の対象者により構成されるグループが形成されていると推定してもよい。
Further, the
図6は、本実施形態に係るグループ推定部126が、対象者の位置と、注視領域との関係に基づいてグループを推定する他の例(その2)を説明する図である。図6(a)にように対象者P1〜P10が表示されている。この場合において、グループ推定部126は、任意の複数の対象者として、図6(b)に示すように、これらの複数の対象者から、対象者P1、P2、P6、P7、P9の位置により囲まれる領域GA1を特定するとともに、対象者P3、P4、P5、P8、P10の位置により囲まれる領域GA2を特定する。
FIG. 6 is a diagram illustrating another example (No. 2) in which the
この場合、対象者P1、P2、P6、P7、P9の注視位置は、領域GA1の内部に存在する。グループ推定部126は、例えば、対象者P1、P2、P6、P7、P9の注視位置の全てが、所定時間以上、領域GA1に含まれているとき、複数の対象者P1、P2、P6、P7、P9により構成されるグループが形成されていると推定する。また、対象者P3、P4、P5、P8、P10の注視位置は、領域GA2の内部に存在する。グループ推定部126は、例えば、対象者P3、P4、P5、P8、P10の注視位置の全てが、所定時間以上、領域GA2に含まれているとき、複数の対象者P3、P4、P5、P8、P10により構成されるグループが形成されていると推定する。
In this case, the gaze positions of the subjects P1, P2, P6, P7, and P9 are inside the area GA1. For example, when all the gaze positions of the target persons P1, P2, P6, P7, and P9 are included in the area GA1 for a predetermined time or more, the
また、グループ推定部126は、自身が推定したグループに含まれる複数の対象者の位置を含む領域である対象者領域を設定し、当該複数の対象者と異なる対象者のうち、当該対象者領域に注視領域が含まれている対象者を、当該推定したグループに属すると推定してもよい。
In addition, the
図7は、本実施形態に係るグループ推定部126が推定したグループに、対象者を新たに所属させる例を示す図である。図7に示す例では、対象者P1〜P3により構成されるグループの領域として、対象者P1〜P3と、共同注視領域A1とを含むグループ領域GAが示されている。図7に示す例では、対象者P7の注視領域A5がグループ領域GAに含まれていることから、グループ推定部126は、対象者P7が、対象者P1〜P3により構成されるグループに属すると推定する。このようにすることで、グループ推定装置1は、対象者が、他の対象者を直接注視したり、共同注視領域を注視したりしていない場合であっても、当該対象者をグループに所属させることができる。
FIG. 7 is a diagram showing an example in which the subject is newly added to the group estimated by the
なお、グループ推定部126は、注視領域特定部122が特定した複数の対象者のそれぞれの注視領域に基づいて、所定エリアに存在する複数の対象者のうち、少なくとも一部の対象者を含むグループを推定したが、注視領域のみに基づいてグループを推定すると、グループの推定精度が低下するという問題が発生する。そこで、グループ推定部126は、連動特定部125が特定した連動者の関連する動作及び発話の発生頻度にさらに基づいて、複数の対象者のうち、一部の対象者を含むグループを推定する。
The
具体的には、グループ推定部126は、複数の対象者が予め定められた時間以上にわたって共同注視領域を注視している場合に、当該共同注視領域を注視している複数の対象者の集合に対し、グループを形成しているか否かの判定に用いる特定用指標値を算出する。そして、グループ推定部126は、当該複数の対象者に対し、算出した特定用指標値を付与する。グループ推定部126は、例えば、共同注視領域の注視時間が長ければ長いほど特定用指標値が高くなるように特定用指標値を算出する。
Specifically, when the plurality of target persons are gazing at the joint gaze area for a predetermined time or more, the
また、グループ推定部126は、注視領域を注視した対象者と、注視領域に位置が含まれる対象者との関連付けを行い、関連付けが行われている複数の対象者の集合に対し、特定用指標値を算出する。そして、グループ推定部126は、当該複数の対象者に対し、算出した特定用指標値を付与する。グループ推定部126は、例えば、対象者による他の対象者の注視時間が長ければ長いほど特定用指標値が高くなるように指標値を算出する。
In addition, the
また、グループ推定部126は、任意の複数の対象者の位置により囲まれる領域に対し、当該複数の対象者の注視領域が含まれている時間に基づいて、特定用指標値を算出する。グループ推定部126は、当該複数の対象者に対し、算出した特定用指標値を付与する。グループ推定部126は、例えば、対象者による、複数の対象者の位置により囲まれる領域の内部の注視時間が長ければ長いほど特定用指標値が高くなるように指標値を算出する。
In addition, the
また、グループ推定部126は、連動特定部125が特定した連動者に対応する複数の対象者の集合に対し、特定用指標値を算出する。そして、グループ推定部126は、連動特定部125が特定した複数の連動者としての複数の対象者の集合に対し、算出した特定用指標値を付与する。グループ推定部126は、複数の連動者において連動して頷く動作が多ければ多いほど、特定用指標値が高くなるように特定用指標値を算出する。グループ推定部126は、複数の連動者において頷く動作に連動した発話が多ければ多いほど、特定用指標値が高くなるように特定用指標値を算出する。
Further, the
グループ推定部126は、複数の対象者の集合に対して付与された複数の特定用指標値を統合する。例えば、グループ推定部126は、共同注視領域を注視している複数の対象者の集合に属する集合である部分集合に対し特定用指標値が付与されている場合、共同注視領域を注視している複数の対象者の集合に付与されている特定用指標値に、部分集合に対応する特定用指標値を加算することにより、特定用指標値を統合する。
The
同様に、グループ推定部126は、関連付けが行われている複数の対象者の集合に属する集合である部分集合に対し特定用指標値が付与されている場合、関連付けが行われている複数の対象者の集合に付与されている特定用指標値に、部分集合に対応する特定用指標値を加算することにより、特定用指標値を統合する。
Similarly, the
そして、グループ推定部126は、統合された特定用指標値が所定の閾値を超えている複数の対象者の集合を、当該複数の対象者により形成されるグループと推定する。このようにすることで、グループ推定装置1は、複数の対象者により形成されるグループを精度良く推定することができる。
Then, the
相互作用度特定部127は、グループ推定部126が推定したグループに含まれる複数の連動者の連動状況に基づいて、当該グループに含まれる複数の対象者の相互作用度を特定する。具体的には、相互作用度特定部127は、グループ推定部126により推定されたグループに含まれる複数の対象者の中から、互いに連動している連動者を特定する。相互作用度特定部127は、連動特定部125において特定された当該連動者の連動状況に基づいて、推定されたグループに含まれる複数の対象者の相互作用度を算出する。例えば、相互作用度特定部127は、連動特定部125において特定された当該連動者が連動していればしているほど、相互作用度を高くする。このようにすることで、グループ推定装置1は、推定したグループが活発であるか否かの判定を行うことができる。
The interaction
また、相互作用度特定部127は、グループ推定部126が推定した複数のグループのそれぞれに含まれる複数の連動者の連動状況に基づいて、複数のグループの相互作用度を特定する。具体的には、相互作用度特定部127は、グループ推定部126により推定された複数のグループに含まれる複数の対象者の中から、グループを超えて互いに連動している連動者を特定する。相互作用度特定部127は、連動特定部125において特定された当該連動者の連動状況に基づいて、推定された複数のグループ間の相互作用度を算出する。例えば、相互作用度特定部127は、連動特定部125において特定された当該連動者が連動していればしているほど、複数のグループ間の相互作用度を高くする。このようにすることで、グループ推定装置1は、推定した複数のグループ間において活発に議論が行われているか等の判定を行うことができる。
In addition, the interaction
出力部128は、グループ推定部126が推定したグループを示す情報と、相互作用度特定部127が特定した当該グループに含まれる複数の対象者の相互作用度を示す情報とを出力する。例えば、出力部128は、グループ推定部126が推定したグループを識別するグループ識別情報と、当該グループに属する複数の対象者のそれぞれに対応する対象者識別情報と、相互作用度を示す情報とを関連付けた情報を、推定グループ情報として記憶部11に出力する。
The
また、出力部128は、相互作用度特定部127が特定した複数のグループの相互作用度を示す情報を出力する。例えば、出力部128は、複数のグループのそれぞれに対応するグループ識別情報と、複数のグループの相互作用度を示す情報とを関連付けた情報を、グループ間相互作用度情報として記憶部11に出力する。
Further, the
[グループ推定装置1の処理の流れ]
続いて、グループ推定装置1の処理の流れについて説明する。図8は、本実施形態に係るグループ推定装置1の処理の流れを示すフローチャートである。
[Processing flow of group estimation device 1]
Next, the processing flow of the
まず、対象者情報取得部121は、対象者情報を取得する(S1)。
続いて、注視領域特定部122は、複数の対象者のそれぞれの注視領域を特定する(S2)。
First, the target person
Subsequently, the gaze
続いて、動作情報取得部123は、動作情報を取得する(S3)。
続いて、発話情報取得部124は、発話情報を取得する(S4)。
なお、対象者情報、動作情報及び発話情報は、図8に示す順番に限らず、他の順番に従って取得されてもよい。
Subsequently, the motion
Subsequently, the utterance
The subject information, the motion information, and the utterance information may be acquired according to another order, not limited to the order shown in FIG.
続いて、連動特定部125は、取得した動作情報及び発話情報に基づいて連動者を特定する(S5)。
続いて、グループ推定部126は、特定された複数の対象者のそれぞれの注視領域、及び特定された連動者に基づいて、複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する(S6)。
Then, the interlocking|linkage specific|
Subsequently, the
続いて、相互作用度特定部127は、推定されたグループに含まれる複数の連動者の連動状況に基づいて、当該グループに含まれる複数の対象者の相互作用度を特定する(S7)。
続いて、相互作用度特定部127は、グループ推定部126が推定した複数のグループのそれぞれに含まれる複数の連動者の連動状況に基づいて、複数のグループの相互作用度を特定する(S8)。
Subsequently, the interaction
Subsequently, the interaction
続いて、出力部128は、推定されたグループを識別するグループ識別情報と、当該グループに属する複数の対象者のそれぞれに対応する対象者識別情報と、相互作用度を示す情報とを関連付けた推定グループ情報を出力するとともに、複数のグループのそれぞれに対応するグループ識別情報と、複数のグループの相互作用度を示す情報とを関連付けたグループ間相互作用度情報を出力する(S9)。
Subsequently, the
[本実施形態における効果]
以上説明したように、本実施形態に係るグループ推定装置1は、所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが注視する領域を示す注視領域を特定し、特定した複数の対象者のそれぞれの注視領域に基づいて、複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する。このようにすることで、グループ推定装置1は、人物が移動していない状態であってもグループを推定することができる。
[Effects of this embodiment]
As described above, the
以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various modifications and improvements can be added to the above-described embodiment. Further, in particular, the specific embodiment of the dispersion/integration of the devices is not limited to the one illustrated above, and all or some of them may be arbitrarily added according to various additions or functional loads. The units can be functionally or physically distributed and integrated.
1・・・グループ推定装置、11・・・記憶部、12・・・制御部、121・・・対象者情報取得部、122・・注視領域特定部、123・・・動作情報取得部、124・・・発話情報取得部、125・・・連動特定部、126・・・グループ推定部、127・・・相互作用度特定部、128・・・出力部
DESCRIPTION OF
Claims (11)
前記注視領域特定部が特定した前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するグループ推定部と、
前記グループ推定部が推定した前記グループを示す情報を出力する出力部と、
を備えるグループ推定装置。 A gaze area specifying unit that specifies a gaze area indicating an area to be gazed at each time, which is present in a predetermined area and each of a plurality of target persons who may belong to a group, is included in a predetermined period,
Based on each gaze area of each of the plurality of target persons specified by the gaze area specifying unit, a group estimation unit that estimates a group including at least a part of the target persons among the plurality of target persons,
An output unit that outputs information indicating the group estimated by the group estimation unit,
A group estimation device comprising.
請求項1に記載のグループ推定装置。 The group estimation unit estimates the group composed of a plurality of target persons having the same gaze area,
The group estimation device according to claim 1.
前記グループ推定部は、前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置と、前記複数の対象者のそれぞれの前記注視領域との関係に基づいて、前記グループを推定する、
請求項1又は2に記載のグループ推定装置。 Further comprising a target person information acquisition unit for acquiring target person information including position information indicating respective positions of the plurality of target persons,
The group estimation unit estimates the group based on the relationship between the position indicated by the target person information corresponding to each of the plurality of target persons and the gaze area of each of the plurality of target persons,
The group estimation device according to claim 1 or 2.
請求項3に記載のグループ推定装置。 The group estimation unit associates a target person who gazes at the gaze area with a target person whose position is included in the gaze area, and defines the group configured by a plurality of target persons who are associated with each other. presume,
The group estimation device according to claim 3.
請求項3に記載のグループ推定装置。 The group estimation unit sets an area including the positions of any plurality of target persons, and when the gaze area of the plurality of target persons in the predetermined period is included in the area, the group estimation unit is configured by the plurality of target persons. Estimating the group being
The group estimation device according to claim 3.
請求項3から5のいずれか1項に記載のグループ推定装置。 The group estimation unit sets a target person region that is a region including the positions of a plurality of target persons included in the estimated group, and among the target persons different from the plurality of target persons, the gaze area in the target person area. Subjects that are included in the group are estimated to belong to the estimated group,
The group estimation device according to any one of claims 3 to 5.
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、
をさらに備え、
前記グループ推定部は、前記連動者の前記関連する動作の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定する、
請求項1から6のいずれか1項に記載のグループ推定装置。 A motion information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of motion information indicating a motion of the target person at each time included in the predetermined period,
An interlocking specifying unit that, based on the operation indicated by the operation information corresponding to each of the plurality of target persons, specifies a plurality of target persons performing a related operation as interlocking persons;
Further equipped with,
The group estimation unit estimates a group including a part of the target persons among the plurality of target persons, further based on the occurrence frequency of the related motion of the interlocking person,
The group estimation device according to any one of claims 1 to 6.
前記連動特定部は、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作と、前記発話情報が示す前記発話とに基づいて、関連する動作及び発話を行っている複数の対象者を前記連動者として特定し、
前記グループ推定部は、前記連動者の前記関連する動作及び前記発話の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定する、
請求項7に記載のグループ推定装置。 Corresponding to each of the plurality of target persons, further comprising a utterance information acquisition unit for acquiring a plurality of utterance information indicating the content of the utterance of the target person at each time included in the predetermined period,
The interlocking specifying unit, based on the action indicated by the action information corresponding to each of the plurality of target persons and the utterance indicated by the utterance information, a plurality of target persons performing related actions and utterances. Is specified as the interlocking person,
The group estimation unit estimates a group including a part of the target persons among the plurality of target persons, further based on the related motion of the interlocking person and the occurrence frequency of the utterance.
The group estimation device according to claim 7.
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、
前記グループ推定部が推定したグループに含まれる複数の前記連動者の連動状況に基づいて当該グループに含まれる複数の対象者の相互作用度を特定する相互作用度特定部と、
をさらに備え、
前記出力部は、前記グループに含まれる複数の対象者の相互作用度を示す情報を出力する、
請求項1から8のいずれか1項に記載のグループ推定装置。 A motion information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of motion information indicating a motion of the target person at each time included in the predetermined period,
An interlocking specifying unit that, based on the operation indicated by the operation information corresponding to each of the plurality of target persons, specifies a plurality of target persons performing a related operation as interlocking persons;
An interaction degree identifying unit that identifies an interaction degree of a plurality of target persons included in the group based on the interlocking status of the plurality of interlocking persons included in the group estimated by the group estimating unit,
Further equipped with,
The output unit outputs information indicating a degree of interaction between a plurality of target persons included in the group,
The group estimation device according to any one of claims 1 to 8.
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、
前記グループ推定部が推定した複数のグループのそれぞれに含まれる複数の前記連動者の連動状況に基づいて、前記複数のグループの相互作用度を特定する相互作用度特定部と、
をさらに備え、
前記出力部は、特定された前記複数のグループの相互作用度を示す情報を出力する、
請求項1から9のいずれか1項に記載のグループ推定装置。 A motion information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of motion information indicating a motion of the target person at each time included in the predetermined period,
An interlocking specifying unit that, based on the operation indicated by the operation information corresponding to each of the plurality of target persons, specifies a plurality of target persons performing a related operation as interlocking persons;
Based on the interlocking situation of the plurality of interlocking persons included in each of the plurality of groups estimated by the group estimation unit, an interaction degree specifying unit that specifies the degree of interaction of the plurality of groups,
Further equipped with,
The output unit outputs information indicating the degree of interaction of the identified groups,
The group estimation device according to any one of claims 1 to 9.
所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定するステップと、
特定された前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するステップと、
推定された前記グループを示す情報を出力するステップと、
を備えるグループ推定方法。
Computer running,
A step of specifying a gaze area indicating an area existing in a predetermined area and each of a plurality of target persons who may belong to a group are gazed at each time included in a predetermined period,
Estimating a group including at least a part of the target persons of the plurality of target persons based on the gaze area of each of the plurality of identified target persons, and
Outputting information indicating the estimated group, and
A group estimation method comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018227830A JP7041046B2 (en) | 2018-12-05 | 2018-12-05 | Group estimation device and group estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018227830A JP7041046B2 (en) | 2018-12-05 | 2018-12-05 | Group estimation device and group estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020091622A true JP2020091622A (en) | 2020-06-11 |
JP7041046B2 JP7041046B2 (en) | 2022-03-23 |
Family
ID=71012856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018227830A Active JP7041046B2 (en) | 2018-12-05 | 2018-12-05 | Group estimation device and group estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7041046B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022195752A1 (en) | 2021-03-17 | 2022-09-22 | 日本電気株式会社 | Information processing device, information processing method, and recording medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016061996A (en) * | 2014-09-19 | 2016-04-25 | ヤフー株式会社 | Advertisement distribution device, advertisement distribution method, and advertisement distribution program |
JP2016081174A (en) * | 2014-10-14 | 2016-05-16 | 富士ゼロックス株式会社 | Association program and information processing apparatus |
JP2016122272A (en) * | 2014-12-24 | 2016-07-07 | 富士通株式会社 | Availability calculation system, availability calculation method and availability calculation program |
WO2016158267A1 (en) * | 2015-03-27 | 2016-10-06 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2018
- 2018-12-05 JP JP2018227830A patent/JP7041046B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016061996A (en) * | 2014-09-19 | 2016-04-25 | ヤフー株式会社 | Advertisement distribution device, advertisement distribution method, and advertisement distribution program |
JP2016081174A (en) * | 2014-10-14 | 2016-05-16 | 富士ゼロックス株式会社 | Association program and information processing apparatus |
JP2016122272A (en) * | 2014-12-24 | 2016-07-07 | 富士通株式会社 | Availability calculation system, availability calculation method and availability calculation program |
WO2016158267A1 (en) * | 2015-03-27 | 2016-10-06 | ソニー株式会社 | Information processing device, information processing method, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022195752A1 (en) | 2021-03-17 | 2022-09-22 | 日本電気株式会社 | Information processing device, information processing method, and recording medium |
EP4310766A4 (en) * | 2021-03-17 | 2024-01-24 | Nec Corp | Information processing device, information processing method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP7041046B2 (en) | 2022-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10740652B2 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
US9875408B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
US8724845B2 (en) | Content determination program and content determination device | |
WO2012066785A1 (en) | People counting device, people counting method and people counting program | |
JP6024658B2 (en) | Object detection apparatus, object detection method, and program | |
JP2019109765A (en) | Object tracking program, object tracking device, and object tracking method | |
JP2014127208A (en) | Method and apparatus for detecting object | |
JP2014048882A (en) | Image processor, image processing method and image processing program | |
US10496874B2 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
US10235607B2 (en) | Control device, control method, and computer program product | |
JP2018028784A (en) | Movable body group detection program, movable body group detection device, and movable body group detection method | |
JP2018195166A (en) | Posture determination program, posture determination device and posture determination method | |
JP2020027405A (en) | Object detection program and object detection device | |
JP7106296B2 (en) | Image processing device, image processing method and program | |
JP7041046B2 (en) | Group estimation device and group estimation method | |
US11423622B2 (en) | Apparatus for generating feature positions in a virtual world, information processing method, and storage medium | |
JP7214437B2 (en) | Information processing device, information processing method and program | |
JP5448952B2 (en) | Same person determination device, same person determination method, and same person determination program | |
Nguyen et al. | Real-time human tracker based on location and motion recognition of user for smart home | |
KR101289883B1 (en) | System and method for generating mask image applied in each threshold in region | |
JP6451418B2 (en) | Gaze target determination device, gaze target determination method, and gaze target determination program | |
JP2019204374A (en) | Object detecting apparatus | |
US10922864B2 (en) | Image processing device, image processing method and program, for object detection in an image | |
JP2021144359A (en) | Learning apparatus, estimation apparatus, learning method, and program | |
JP6723822B2 (en) | Image processing apparatus, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7041046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |