JP7041046B2 - Group estimation device and group estimation method - Google Patents
Group estimation device and group estimation method Download PDFInfo
- Publication number
- JP7041046B2 JP7041046B2 JP2018227830A JP2018227830A JP7041046B2 JP 7041046 B2 JP7041046 B2 JP 7041046B2 JP 2018227830 A JP2018227830 A JP 2018227830A JP 2018227830 A JP2018227830 A JP 2018227830A JP 7041046 B2 JP7041046 B2 JP 7041046B2
- Authority
- JP
- Japan
- Prior art keywords
- group
- subjects
- area
- target
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、グループ推定装置及びグループ推定方法に関する。 The present invention relates to a group estimation device and a group estimation method.
従来、複数の人物が属するグループを特定することが行われている。例えば、特許文献1には、活動する集団の重心と個人の位置座標を分析することで、グループとしての活動を検出する技術が開示されている。 Conventionally, it has been performed to identify a group to which a plurality of people belong. For example, Patent Document 1 discloses a technique for detecting an activity as a group by analyzing the center of gravity of an active group and the position coordinates of an individual.
特許文献1において開示されている従来の技術は主に街中やショッピングモールなどで移動しつつ活動している集団の重心と個人の位置座標を分析することにより、グループとしての活動を検出するものである。したがって、従来の技術では、会議室などの基本的に着座しており、人物が移動していない状態においてグループを推定することができないという問題がある。 The conventional technique disclosed in Patent Document 1 detects the activity as a group mainly by analyzing the center of gravity of the group and the position coordinates of the individual who are active while moving in the city or in a shopping mall. be. Therefore, in the conventional technique, there is a problem that the group cannot be estimated in a state where the person is basically seated in a conference room or the like and the person is not moving.
そこで、本発明はこれらの点に鑑みてなされたものであり、人物が移動していない状態であってもグループを推定することができるグループ推定装置及びグループ推定方法を提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide a group estimation device and a group estimation method capable of estimating a group even when a person is not moving. ..
本発明の第1の態様に係るグループ推定装置は、所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定する注視領域特定部と、前記注視領域特定部が特定した前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するグループ推定部と、前記グループ推定部が推定した前記グループを示す情報を出力する出力部と、を備える。 The group estimation device according to the first aspect of the present invention has a gaze area that exists in a predetermined area and indicates an area in which each of a plurality of subjects who may belong to the group gazes at each time included in the predetermined period. Based on the gaze area specifying part and the gaze area of each of the plurality of subjects specified by the gaze area specifying part, a group including at least a part of the target persons is estimated. A group estimation unit is provided, and an output unit that outputs information indicating the group estimated by the group estimation unit is provided.
前記グループ推定部は、前記注視領域が共通する複数の対象者により構成される前記グループを推定してもよい。
前記グループ推定装置は、前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得する対象者情報取得部をさらに備え、前記グループ推定部は、前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置と、前記複数の対象者のそれぞれの前記注視領域との関係に基づいて、前記グループを推定してもよい。
The group estimation unit may estimate the group composed of a plurality of subjects having a common gaze area.
The group estimation device further includes a target person information acquisition unit that acquires target person information including position information indicating the position of each of the plurality of target persons, and the group estimation unit is provided to each of the plurality of target persons. The group may be estimated based on the relationship between the position indicated by the corresponding subject information and the gaze area of each of the plurality of subjects.
前記グループ推定部は、前記注視領域を注視した対象者と、前記注視領域に前記位置が含まれる対象者との関連付けを行い、関連付けが行われている複数の対象者により構成される前記グループを推定してもよい。 The group estimation unit associates a target person who gazes at the gaze area with a target person whose position is included in the gaze area, and sets the group composed of a plurality of subjects who are associated with each other. You may estimate.
前記グループ推定部は、任意の複数の対象者の位置を含む領域を設定し、前記所定期間における当該複数の対象者の注視領域が当該領域に含まれている場合、当該複数の対象者により構成される前記グループを推定してもよい。 The group estimation unit sets an area including the positions of any plurality of target persons, and when the gaze area of the plurality of target persons in the predetermined period is included in the area, the group estimation unit is composed of the plurality of target persons. The group may be estimated.
前記グループ推定部は、推定したグループに含まれる複数の対象者の位置を含む領域である対象者領域を設定し、当該複数の対象者と異なる対象者のうち、当該対象者領域に前記注視領域が含まれている対象者を、推定したグループに属すると推定してもよい。 The group estimation unit sets a target person area, which is an area including the positions of a plurality of target persons included in the estimated group, and among the target persons different from the plurality of target persons, the gaze area is set in the target person area. The subject including the may be presumed to belong to the presumed group.
前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、をさらに備え、前記グループ推定部は、前記連動者の前記関連する動作の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定してもよい。 The group estimation device corresponds to each of the plurality of target persons, and has an operation information acquisition unit that acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period, and the plurality of target persons. The group estimation unit further includes an interlocking specific unit that identifies a plurality of target persons performing related operations as interlocking persons based on the operation indicated by the operation information corresponding to each of the above. A group including some of the subjects may be estimated from the plurality of subjects based on the frequency of occurrence of the related movements of the person.
前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の発話の内容を示す発話情報を複数取得する発話情報取得部をさらに備え、前記連動特定部は、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作と、前記発話情報が示す前記発話とに基づいて、関連する動作及び発話を行っている複数の対象者を前記連動者として特定し、前記グループ推定部は、前記連動者の前記関連する動作及び前記発話の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定してもよい。 The group estimation device further includes an utterance information acquisition unit that corresponds to each of the plurality of subjects and acquires a plurality of utterance information indicating the contents of the utterances of the subject at each time included in the predetermined period. The interlocking identification unit selects a plurality of subjects who are performing related actions and utterances based on the action indicated by the motion information corresponding to each of the plurality of subjects and the utterance indicated by the utterance information. Identifying as the interlocking person, the group estimation unit estimates a group including some of the target persons among the plurality of target persons, based on the related movement of the interlocking person and the frequency of occurrence of the utterance. You may.
前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、前記グループ推定部が推定したグループに含まれる複数の前記連動者の連動状況に基づいて当該グループに含まれる複数の対象者の相互作用度を特定する相互作用度特定部と、をさらに備え、前記出力部は、前記グループに含まれる複数の対象者の相互作用度を示す情報を出力してもよい。 The group estimation device corresponds to each of the plurality of target persons, and has an operation information acquisition unit that acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period, and the plurality of target persons. An interlocking specific unit that identifies a plurality of target persons performing related operations as an interlocking person based on the operation indicated by the operation information corresponding to each of the above, and a plurality of groups included in the group estimated by the group estimation unit. Further includes an interaction degree specifying unit that specifies the degree of interaction of a plurality of subjects included in the group based on the interlocking status of the interlocking person, and the output unit is a plurality of objects included in the group. Information indicating the degree of interaction between the persons may be output.
前記グループ推定装置は、前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、前記グループ推定部が推定した複数のグループのそれぞれに含まれる複数の前記連動者の連動状況に基づいて、前記複数のグループの相互作用度を特定する相互作用度特定部と、をさらに備え、前記出力部は、特定された前記複数のグループの相互作用度を示す情報を出力してもよい。 The group estimation device corresponds to each of the plurality of target persons, and has an operation information acquisition unit that acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period, and the plurality of target persons. Based on the operation indicated by the operation information corresponding to each of the above, the interlocking specific unit that identifies a plurality of target persons performing the related operations as the interlocking person, and the plurality of groups estimated by the group estimation unit, respectively. Further includes an interaction degree specifying unit that specifies the degree of interaction of the plurality of groups based on the interlocking status of the plurality of interlocking persons included in the above, and the output unit is a unit of the specified plurality of groups. Information indicating the degree of interaction may be output.
本発明の第2の態様に係るグループ推定方法は、コンピュータが実行する、所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定するステップと、特定された前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するステップと、推定された前記グループを示す情報を出力するステップと、を備える。 The group estimation method according to the second aspect of the present invention is an area executed by a computer, in which each of a plurality of subjects existing in a predetermined area and possibly belonging to a group pay attention to each time included in a predetermined period. A step of specifying a gaze area showing the above, and a step of estimating a group including at least a part of the gaze areas among the plurality of subjects based on the gaze area of each of the specified gaze areas. , A step of outputting information indicating the estimated group.
本発明によれば、人物が移動していない状態であってもグループを推定することができるという効果を奏する。 According to the present invention, there is an effect that the group can be estimated even when the person is not moving.
[グループ推定装置1の概要]
図1は、本実施形態に係るグループ推定装置1の概要を示す図である。グループ推定装置1は、所定エリアにおいてグループに属する可能性がある複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するコンピュータである。ここで、所定エリアは、例えば会議室やホール等のフロアである。図1に示す例では、所定エリアには、複数の対象者として、対象者P1~P6が存在している。
[Overview of Group Estimator 1]
FIG. 1 is a diagram showing an outline of the group estimation device 1 according to the present embodiment. The group estimation device 1 is a computer that estimates a group including at least a part of the plurality of subjects who may belong to the group in a predetermined area. Here, the predetermined area is, for example, a floor such as a conference room or a hall. In the example shown in FIG. 1, the target persons P1 to P6 exist as a plurality of target persons in the predetermined area.
グループ推定装置1は、所定期間に含まれる各時刻における対象者の位置と、対象者の視線方向とを関連付けた視線情報に基づいて、複数の対象者のそれぞれが注視する領域を示す注視領域を特定する。グループ推定装置1は、例えば図1に示すように、対象者の位置と、対象者の視線方向D1~D6とに基づいて、対象者P1~P6の注視領域として、注視領域A1~A3を特定する。 The group estimation device 1 sets a gaze area indicating an area to be gazed by each of a plurality of subjects based on the gaze information associated with the position of the subject at each time included in a predetermined period and the gaze direction of the subject. Identify. As shown in FIG. 1, the group estimation device 1 specifies gaze areas A1 to A3 as gaze areas of the subjects P1 to P6 based on the position of the subject and the gaze directions D1 to D6 of the subject. do.
グループ推定装置1は、複数の対象者のそれぞれに対して特定した注視領域に基づいて、複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する。例えば、グループ推定装置1は、注視領域が共通する複数の対象者により構成されるグループを推定したり、複数の対象者の位置と、複数の対象者に対して特定された注視領域との関係に基づいてグループを推定したりする。グループ推定装置1は、例えば図1に示すように、対象者P1~P3が属するグループG1と、対象者P4~P6が属するグループG2とを特定する。このように、グループ推定装置1は、複数の対象者のそれぞれに対して特定した注視領域に基づいてグループを推定するので、人物が移動していない状態であってもグループを推定することができる。 The group estimation device 1 estimates a group including at least a part of the plurality of subjects based on the gaze area specified for each of the plurality of subjects. For example, the group estimation device 1 estimates a group composed of a plurality of subjects having a common gaze area, or a relationship between the positions of a plurality of subjects and a gaze area specified for the plurality of subjects. Estimate the group based on. As shown in FIG. 1, for example, the group estimation device 1 identifies a group G1 to which the subjects P1 to P3 belong and a group G2 to which the subjects P4 to P6 belong. In this way, the group estimation device 1 estimates the group based on the gaze area specified for each of the plurality of subjects, so that the group can be estimated even when the person is not moving. ..
[グループ推定装置1の構成]
続いて、グループ推定装置1の構成を説明する。図2は、本実施形態に係るグループ推定装置1の構成を示す図である。図2に示すように、グループ推定装置1は、記憶部11と、制御部12とを備える。
[Configuration of group estimation device 1]
Subsequently, the configuration of the group estimation device 1 will be described. FIG. 2 is a diagram showing a configuration of a group estimation device 1 according to the present embodiment. As shown in FIG. 2, the group estimation device 1 includes a storage unit 11 and a
記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。例えば、記憶部11は、グループ推定装置1を、対象者情報取得部121、注視領域特定部122、動作情報取得部123、発話情報取得部124、連動特定部125、グループ推定部126、相互作用度特定部127、及び出力部128として機能させるグループ推定プログラムを記憶している。
The storage unit 11 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The storage unit 11 stores a program executed by the
制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶されたグループ推定プログラムを実行することにより、対象者情報取得部121、注視領域特定部122、動作情報取得部123、発話情報取得部124、連動特定部125、グループ推定部126、相互作用度特定部127、及び出力部128として機能する。
The
対象者情報取得部121は、所定エリアにおいてグループに属する可能性がある複数の対象者のそれぞれに対応し、対象者を識別する対象者識別情報と、所定期間(例えば、5秒間)に含まれる各時刻における対象者の位置を示す位置情報と、対象者の視線方向を示す視線方向情報とを関連付けた対象者情報を複数取得する。対象者情報は、例えば記憶部11に記憶されており、対象者情報取得部121は、記憶部11に記憶されている対象者情報を取得する。
The target person
注視領域特定部122は、複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定する。例えば、注視領域特定部122は、対象者情報取得部121が取得した対象者情報に含まれる対象者の位置を示す位置情報と、対象者の視線方向を示す視線方向情報とに基づいて、複数の対象者のそれぞれに対応する注視領域を特定する。注視領域特定部122は、例えば、対象者の位置から対象者の視線方向の所定範囲内に他の対象者が存在する場合、他の対象者の位置を注視領域と特定する。また、注視領域特定部122は、例えば、対象者の位置から対象者の視線方向の所定範囲内に他の対象者が存在しない場合、対象者の位置から対象者の視線方向に所定距離離れた位置を注視領域と特定する。
The gaze
なお、注視領域特定部122は、視線を検出する視線検出装置(不図示)が検出した対象者の視線に基づいて注視領域を特定してもよい。また、注視領域特定部122は、所定期間において所定エリアを撮像した撮像画像であって、対象者を含む撮像画像を解析することにより、当該対象者の注視領域を特定してもよい。
The gaze
動作情報取得部123は、複数の対象者のそれぞれに対応し、所定期間に含まれる各時刻における対象者の動作を示す動作情報を複数取得する。動作情報には、対象者識別情報が関連付けられている。例えば、動作情報取得部123は、対象者の動作を特定するモーションキャプチャ装置(不図示)が生成した動作情報を取得したり、赤外線センサ(不図示)が検出した人の動きを示す情報に基づいて動作情報を取得したりしてもよい。また、動作情報取得部123は、所定期間における所定エリアを撮像した複数の撮像画像について、連続ウェーブレット変換等の画像処理を行い、画像に含まれる画素の変化量を算出することにより、動作情報を取得してもよい。ここで、対象者の動作は、相槌を打つ動作や、頷く動作が含まれている。
The operation
発話情報取得部124は、複数の対象者のそれぞれに対応し、所定期間に含まれる各時刻における対象者の発話の内容を示す発話情報を複数取得する。発話情報には、対象者識別情報が関連付けられている。
The utterance
連動特定部125は、動作情報取得部123が取得した複数の対象者のそれぞれに対応する動作情報が示す動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する。また、連動特定部125は、動作情報取得部123が取得した複数の対象者のそれぞれに対応する動作情報が示す動作と、発話情報取得部124が取得した発話情報が示す発話とに基づいて、関連する動作及び発話を行っている複数の対象者を連動者として特定する。
The interlocking
例えば、連動特定部125は、対象者情報が示す対象者の位置が所定範囲以内の複数の対象者に対応する対象者識別情報を特定する。そして、連動特定部125は、特定した対象者識別情報に関連付けられている動作情報が示す動作と、特定した対象者識別情報に関連付けられている発話情報が示す発話とに基づいて、連動して頷く動作や相槌を示す単語を発している複数の対象者を連動者として特定する。
For example, the interlocking
グループ推定部126は、注視領域特定部122が特定した複数の対象者のそれぞれの注視領域に基づいて、所定エリアに存在する複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する。
The
グループ推定部126は、注視領域が共通する複数の対象者より構成されるグループを推定する。図3は、本実施形態に係る共同注視領域の一例を示す図である。図3に示す例では、所定エリア内に存在する複数の対象者P1~P3の注視領域がいずれも注視領域A1であることから、グループ推定部126は、注視領域A1を、共同注視領域として特定する。例えば、グループ推定部126は、複数の対象者で共通する注視領域を共同注視領域とし、複数の対象者が、当該共同注視領域を注視する時間に基づいて、これらの複数の対象者がグループを形成しているか否かを判定する。図3に示す例では、グループ推定部126は、共同注視領域A1を有する複数の対象者P1~P3により構成されるグループが形成されていると推定する。
The
また、グループ推定部126は、複数の対象者のそれぞれに対応する対象者情報が示す対象者の位置と、複数の対象者のそれぞれの注視領域との関係に基づいて、グループを推定する。具体的には、グループ推定部126は、注視領域を注視した対象者と、注視領域に位置が含まれる対象者との関連付けを行い、関連付けが行われている複数の対象者により構成されるグループを推定する。
Further, the
図4は、本実施形態に係るグループ推定部126が、対象者の位置と、注視領域との関係に基づいてグループを推定する例を説明する図である。図4に示す例では、対象者P4及び対象者P5の注視領域A2に対象者P6が位置している。また、対象者P6の注視領域A3に対象者P4が位置している。したがって、グループ推定部126は、対象者P4と対象者P6とを関連付けるとともに、対象者P5と対象者P6とを関連付ける。対象者P4と、対象者P5とは、対象者P6を介して関連付けられることから、グループ推定部126は、関連付けが行われている複数の対象者P4~P6により構成されるグループが形成されていると推定する。
FIG. 4 is a diagram illustrating an example in which the
なお、グループ推定部126は、一人の対象者に対応する複数の注視領域のそれぞれに他の対象者が位置している場合、当該一人の対象者と、他の対象者とを含むグループが形成されていると推定してもよい。図5は、本実施形態に係るグループ推定部126が、対象者の位置と、注視領域との関係に基づいてグループを推定する他の例(その1)を説明する図である。図5に示す例では、対象者P6の注視領域A3及び注視領域A4のそれぞれに、他の対象者P4と他の対象者P5とが位置していることが確認できる。この場合、グループ推定部126は、対象者P4~P6により構成されるグループが形成されていると推定する。
When another target person is located in each of the plurality of gaze areas corresponding to one target person, the
また、グループ推定部126は、所定期間において、任意の複数の対象者の位置により囲まれる領域について、当該複数の対象者の注視領域が所定時間以上含まれている場合、当該複数の対象者により構成されるグループが形成されていると推定してもよい。
Further, in the
図6は、本実施形態に係るグループ推定部126が、対象者の位置と、注視領域との関係に基づいてグループを推定する他の例(その2)を説明する図である。図6(a)にように対象者P1~P10が表示されている。この場合において、グループ推定部126は、任意の複数の対象者として、図6(b)に示すように、これらの複数の対象者から、対象者P1、P2、P6、P7、P9の位置により囲まれる領域GA1を特定するとともに、対象者P3、P4、P5、P8、P10の位置により囲まれる領域GA2を特定する。
FIG. 6 is a diagram illustrating another example (No. 2) in which the
この場合、対象者P1、P2、P6、P7、P9の注視位置は、領域GA1の内部に存在する。グループ推定部126は、例えば、対象者P1、P2、P6、P7、P9の注視位置の全てが、所定時間以上、領域GA1に含まれているとき、複数の対象者P1、P2、P6、P7、P9により構成されるグループが形成されていると推定する。また、対象者P3、P4、P5、P8、P10の注視位置は、領域GA2の内部に存在する。グループ推定部126は、例えば、対象者P3、P4、P5、P8、P10の注視位置の全てが、所定時間以上、領域GA2に含まれているとき、複数の対象者P3、P4、P5、P8、P10により構成されるグループが形成されていると推定する。
In this case, the gaze positions of the subjects P1, P2, P6, P7, and P9 exist inside the region GA1. The
また、グループ推定部126は、自身が推定したグループに含まれる複数の対象者の位置を含む領域である対象者領域を設定し、当該複数の対象者と異なる対象者のうち、当該対象者領域に注視領域が含まれている対象者を、当該推定したグループに属すると推定してもよい。
Further, the
図7は、本実施形態に係るグループ推定部126が推定したグループに、対象者を新たに所属させる例を示す図である。図7に示す例では、対象者P1~P3により構成されるグループの領域として、対象者P1~P3と、共同注視領域A1とを含むグループ領域GAが示されている。図7に示す例では、対象者P7の注視領域A5がグループ領域GAに含まれていることから、グループ推定部126は、対象者P7が、対象者P1~P3により構成されるグループに属すると推定する。このようにすることで、グループ推定装置1は、対象者が、他の対象者を直接注視したり、共同注視領域を注視したりしていない場合であっても、当該対象者をグループに所属させることができる。
FIG. 7 is a diagram showing an example in which a subject is newly assigned to a group estimated by the
なお、グループ推定部126は、注視領域特定部122が特定した複数の対象者のそれぞれの注視領域に基づいて、所定エリアに存在する複数の対象者のうち、少なくとも一部の対象者を含むグループを推定したが、注視領域のみに基づいてグループを推定すると、グループの推定精度が低下するという問題が発生する。そこで、グループ推定部126は、連動特定部125が特定した連動者の関連する動作及び発話の発生頻度にさらに基づいて、複数の対象者のうち、一部の対象者を含むグループを推定する。
The
具体的には、グループ推定部126は、複数の対象者が予め定められた時間以上にわたって共同注視領域を注視している場合に、当該共同注視領域を注視している複数の対象者の集合に対し、グループを形成しているか否かの判定に用いる特定用指標値を算出する。そして、グループ推定部126は、当該複数の対象者に対し、算出した特定用指標値を付与する。グループ推定部126は、例えば、共同注視領域の注視時間が長ければ長いほど特定用指標値が高くなるように特定用指標値を算出する。
Specifically, when a plurality of subjects are gazing at the joint gaze area for a predetermined time or longer, the
また、グループ推定部126は、注視領域を注視した対象者と、注視領域に位置が含まれる対象者との関連付けを行い、関連付けが行われている複数の対象者の集合に対し、特定用指標値を算出する。そして、グループ推定部126は、当該複数の対象者に対し、算出した特定用指標値を付与する。グループ推定部126は、例えば、対象者による他の対象者の注視時間が長ければ長いほど特定用指標値が高くなるように指標値を算出する。
Further, the
また、グループ推定部126は、任意の複数の対象者の位置により囲まれる領域に対し、当該複数の対象者の注視領域が含まれている時間に基づいて、特定用指標値を算出する。グループ推定部126は、当該複数の対象者に対し、算出した特定用指標値を付与する。グループ推定部126は、例えば、対象者による、複数の対象者の位置により囲まれる領域の内部の注視時間が長ければ長いほど特定用指標値が高くなるように指標値を算出する。
Further, the
また、グループ推定部126は、連動特定部125が特定した連動者に対応する複数の対象者の集合に対し、特定用指標値を算出する。そして、グループ推定部126は、連動特定部125が特定した複数の連動者としての複数の対象者の集合に対し、算出した特定用指標値を付与する。グループ推定部126は、複数の連動者において連動して頷く動作が多ければ多いほど、特定用指標値が高くなるように特定用指標値を算出する。グループ推定部126は、複数の連動者において頷く動作に連動した発話が多ければ多いほど、特定用指標値が高くなるように特定用指標値を算出する。
Further, the
グループ推定部126は、複数の対象者の集合に対して付与された複数の特定用指標値を統合する。例えば、グループ推定部126は、共同注視領域を注視している複数の対象者の集合に属する集合である部分集合に対し特定用指標値が付与されている場合、共同注視領域を注視している複数の対象者の集合に付与されている特定用指標値に、部分集合に対応する特定用指標値を加算することにより、特定用指標値を統合する。
The
同様に、グループ推定部126は、関連付けが行われている複数の対象者の集合に属する集合である部分集合に対し特定用指標値が付与されている場合、関連付けが行われている複数の対象者の集合に付与されている特定用指標値に、部分集合に対応する特定用指標値を加算することにより、特定用指標値を統合する。
Similarly, the
そして、グループ推定部126は、統合された特定用指標値が所定の閾値を超えている複数の対象者の集合を、当該複数の対象者により形成されるグループと推定する。このようにすることで、グループ推定装置1は、複数の対象者により形成されるグループを精度良く推定することができる。
Then, the
相互作用度特定部127は、グループ推定部126が推定したグループに含まれる複数の連動者の連動状況に基づいて、当該グループに含まれる複数の対象者の相互作用度を特定する。具体的には、相互作用度特定部127は、グループ推定部126により推定されたグループに含まれる複数の対象者の中から、互いに連動している連動者を特定する。相互作用度特定部127は、連動特定部125において特定された当該連動者の連動状況に基づいて、推定されたグループに含まれる複数の対象者の相互作用度を算出する。例えば、相互作用度特定部127は、連動特定部125において特定された当該連動者が連動していればしているほど、相互作用度を高くする。このようにすることで、グループ推定装置1は、推定したグループが活発であるか否かの判定を行うことができる。
The interaction
また、相互作用度特定部127は、グループ推定部126が推定した複数のグループのそれぞれに含まれる複数の連動者の連動状況に基づいて、複数のグループの相互作用度を特定する。具体的には、相互作用度特定部127は、グループ推定部126により推定された複数のグループに含まれる複数の対象者の中から、グループを超えて互いに連動している連動者を特定する。相互作用度特定部127は、連動特定部125において特定された当該連動者の連動状況に基づいて、推定された複数のグループ間の相互作用度を算出する。例えば、相互作用度特定部127は、連動特定部125において特定された当該連動者が連動していればしているほど、複数のグループ間の相互作用度を高くする。このようにすることで、グループ推定装置1は、推定した複数のグループ間において活発に議論が行われているか等の判定を行うことができる。
Further, the interaction
出力部128は、グループ推定部126が推定したグループを示す情報と、相互作用度特定部127が特定した当該グループに含まれる複数の対象者の相互作用度を示す情報とを出力する。例えば、出力部128は、グループ推定部126が推定したグループを識別するグループ識別情報と、当該グループに属する複数の対象者のそれぞれに対応する対象者識別情報と、相互作用度を示す情報とを関連付けた情報を、推定グループ情報として記憶部11に出力する。
The
また、出力部128は、相互作用度特定部127が特定した複数のグループの相互作用度を示す情報を出力する。例えば、出力部128は、複数のグループのそれぞれに対応するグループ識別情報と、複数のグループの相互作用度を示す情報とを関連付けた情報を、グループ間相互作用度情報として記憶部11に出力する。
Further, the
[グループ推定装置1の処理の流れ]
続いて、グループ推定装置1の処理の流れについて説明する。図8は、本実施形態に係るグループ推定装置1の処理の流れを示すフローチャートである。
[Processing flow of group estimation device 1]
Subsequently, the processing flow of the group estimation device 1 will be described. FIG. 8 is a flowchart showing a processing flow of the group estimation device 1 according to the present embodiment.
まず、対象者情報取得部121は、対象者情報を取得する(S1)。
続いて、注視領域特定部122は、複数の対象者のそれぞれの注視領域を特定する(S2)。
First, the target person
Subsequently, the gaze
続いて、動作情報取得部123は、動作情報を取得する(S3)。
続いて、発話情報取得部124は、発話情報を取得する(S4)。
なお、対象者情報、動作情報及び発話情報は、図8に示す順番に限らず、他の順番に従って取得されてもよい。
Subsequently, the operation
Subsequently, the utterance
The target person information, the operation information, and the utterance information are not limited to the order shown in FIG. 8, and may be acquired in another order.
続いて、連動特定部125は、取得した動作情報及び発話情報に基づいて連動者を特定する(S5)。
続いて、グループ推定部126は、特定された複数の対象者のそれぞれの注視領域、及び特定された連動者に基づいて、複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する(S6)。
Subsequently, the interlocking
Subsequently, the
続いて、相互作用度特定部127は、推定されたグループに含まれる複数の連動者の連動状況に基づいて、当該グループに含まれる複数の対象者の相互作用度を特定する(S7)。
続いて、相互作用度特定部127は、グループ推定部126が推定した複数のグループのそれぞれに含まれる複数の連動者の連動状況に基づいて、複数のグループの相互作用度を特定する(S8)。
Subsequently, the interaction
Subsequently, the interaction
続いて、出力部128は、推定されたグループを識別するグループ識別情報と、当該グループに属する複数の対象者のそれぞれに対応する対象者識別情報と、相互作用度を示す情報とを関連付けた推定グループ情報を出力するとともに、複数のグループのそれぞれに対応するグループ識別情報と、複数のグループの相互作用度を示す情報とを関連付けたグループ間相互作用度情報を出力する(S9)。
Subsequently, the
[本実施形態における効果]
以上説明したように、本実施形態に係るグループ推定装置1は、所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが注視する領域を示す注視領域を特定し、特定した複数の対象者のそれぞれの注視領域に基づいて、複数の対象者のうち、少なくとも一部の対象者を含むグループを推定する。このようにすることで、グループ推定装置1は、人物が移動していない状態であってもグループを推定することができる。
[Effects in this embodiment]
As described above, the group estimation device 1 according to the present embodiment has specified and specified a gaze area indicating an area to be gazed by each of a plurality of subjects who are present in a predetermined area and may belong to the group. Based on the respective gaze areas of the plurality of subjects, a group including at least a part of the subjects is estimated. By doing so, the group estimation device 1 can estimate the group even when the person is not moving.
以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. Further, in particular, the specific embodiment of the distribution / integration of the apparatus is not limited to those shown above, and all or a part thereof may be arbitrary according to various additions or the like, or according to the functional load. It can be functionally or physically distributed / integrated in units.
1・・・グループ推定装置、11・・・記憶部、12・・・制御部、121・・・対象者情報取得部、122・・注視領域特定部、123・・・動作情報取得部、124・・・発話情報取得部、125・・・連動特定部、126・・・グループ推定部、127・・・相互作用度特定部、128・・・出力部 1 ... Group estimation device, 11 ... Storage unit, 12 ... Control unit, 121 ... Target person information acquisition unit, 122 ... Gaze area identification unit, 123 ... Operation information acquisition unit, 124 ... Speaking information acquisition unit, 125 ... Interlocking specific unit, 126 ... Group estimation unit, 127 ... Interaction degree identification unit, 128 ... Output unit
Claims (10)
前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得する対象者情報取得部と、
前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置に基づいて、任意の複数の対象者の位置を含む領域を設定し、前記注視領域特定部が特定した前記複数の対象者のそれぞれの前記注視領域のうち、前記領域が設定された複数の対象者の前記注視領域が、前記領域に含まれている場合、前記領域が設定された複数の対象者により構成されるグループを推定するグループ推定部と、
前記グループ推定部が推定した前記グループを示す情報を出力する出力部と、
を備えるグループ推定装置。 A gaze area specifying unit that specifies a gaze area indicating an area to be gazed at each time included in a predetermined period by each of a plurality of subjects who are present in a predetermined area and may belong to a group.
A target person information acquisition unit that acquires target person information including position information indicating the position of each of the plurality of target persons, and a target person information acquisition unit.
Based on the position indicated by the target person information corresponding to each of the plurality of target persons, an area including the positions of any plurality of target persons is set, and the plurality of target persons specified by the gaze area specifying unit. When the gaze area of a plurality of subjects in which the area is set is included in the area, a group composed of a plurality of subjects in which the area is set is formed . Group estimation unit to estimate and
An output unit that outputs information indicating the group estimated by the group estimation unit, and an output unit.
A group estimator equipped with.
前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得する対象者情報取得部と、 A target person information acquisition unit that acquires target person information including position information indicating the position of each of the plurality of target persons, and a target person information acquisition unit.
前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置と、前記注視領域特定部が特定した前記複数の対象者のそれぞれの前記注視領域とに基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するグループ推定部と、 Based on the position indicated by the subject information corresponding to each of the plurality of subjects and the gaze area of each of the plurality of subjects specified by the gaze area specifying unit, the plurality of subjects of the plurality of subjects. Of these, the group estimation unit that estimates the group including at least some of the subjects,
前記グループ推定部が推定した前記グループを示す情報を出力する出力部と、 An output unit that outputs information indicating the group estimated by the group estimation unit, and an output unit.
を備え、 Equipped with
前記グループ推定部は、推定したグループに含まれる複数の対象者の位置を含む領域である対象者領域を設定し、当該複数の対象者と異なる対象者のうち、当該対象者領域に前記注視領域が含まれている対象者を、推定したグループに属すると推定する、 The group estimation unit sets a target person area, which is an area including the positions of a plurality of target persons included in the estimated group, and among the target persons different from the plurality of target persons, the gaze area is set in the target person area. Estimate that the subject containing is in the estimated group,
グループ推定装置。 Group estimator.
前記注視領域特定部が特定した前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するグループ推定部と、 A group estimation unit that estimates a group including at least a part of the plurality of subjects based on the gaze area of each of the plurality of subjects specified by the gaze area specifying unit.
前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得する動作情報取得部と、 An operation information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period.
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、 An interlocking identification unit that identifies a plurality of target persons performing related operations as interlocking persons based on the operation indicated by the operation information corresponding to each of the plurality of target persons.
前記グループ推定部が推定した複数のグループのそれぞれに含まれる複数の前記連動者の連動状況に基づいて、前記複数のグループの相互作用度を特定する相互作用度特定部と、 An interaction degree specifying unit that specifies the degree of interaction of the plurality of groups based on the interlocking status of the plurality of interlockers included in each of the plurality of groups estimated by the group estimation unit.
前記グループ推定部が推定した前記グループを示す情報と、特定された前記複数のグループの相互作用度を示す情報とを出力する出力部と、 An output unit that outputs information indicating the group estimated by the group estimation unit and information indicating the degree of interaction of the specified plurality of groups.
を備えるグループ推定装置。 A group estimator equipped with.
請求項1から3のいずれか1項に記載のグループ推定装置。 The group estimation unit estimates the group composed of a plurality of subjects having a common gaze area.
The group estimation device according to any one of claims 1 to 3 .
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、
をさらに備え、
前記グループ推定部は、前記連動者の前記関連する動作の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定する、
請求項1から4のいずれか1項に記載のグループ推定装置。 An operation information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period.
An interlocking identification unit that identifies a plurality of target persons performing related operations as interlocking persons based on the operation indicated by the operation information corresponding to each of the plurality of target persons.
Further prepare
The group estimation unit estimates a group including a part of the target persons among the plurality of target persons, based on the frequency of occurrence of the related movements of the interlocking person.
The group estimation device according to any one of claims 1 to 4 .
前記連動特定部は、前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作と、前記発話情報が示す前記発話とに基づいて、関連する動作及び発話を行っている複数の対象者を前記連動者として特定し、
前記グループ推定部は、前記連動者の前記関連する動作及び前記発話の発生頻度にさらに基づいて、前記複数の対象者のうち、一部の対象者を含むグループを推定する、
請求項5に記載のグループ推定装置。 Further, it is provided with an utterance information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of utterance information indicating the contents of the utterances of the target person at each time included in the predetermined period.
The interlocking specific unit is a plurality of target persons who perform related actions and utterances based on the operation indicated by the motion information corresponding to each of the plurality of subjects and the utterance indicated by the utterance information. As the interlocking person,
The group estimation unit estimates a group including a part of the plurality of subjects among the plurality of subjects, based on the related movements of the interlocking person and the frequency of occurrence of the utterances.
The group estimation device according to claim 5 .
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定する連動特定部と、
前記グループ推定部が推定したグループに含まれる複数の前記連動者の連動状況に基づいて当該グループに含まれる複数の対象者の相互作用度を特定する相互作用度特定部と、
をさらに備え、
前記出力部は、前記グループに含まれる複数の対象者の相互作用度を示す情報を出力する、
請求項1から6のいずれか1項に記載のグループ推定装置。 An operation information acquisition unit that corresponds to each of the plurality of target persons and acquires a plurality of operation information indicating the operation of the target person at each time included in the predetermined period.
An interlocking identification unit that identifies a plurality of target persons performing related operations as interlocking persons based on the operation indicated by the operation information corresponding to each of the plurality of target persons.
An interaction degree specifying unit that specifies the degree of interaction of a plurality of subjects included in the group based on the interlocking status of the plurality of interlocking persons included in the group estimated by the group estimation unit.
Further prepare
The output unit outputs information indicating the degree of interaction of a plurality of subjects included in the group.
The group estimation device according to any one of claims 1 to 6 .
所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定するステップと、
前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得するステップと、
取得された前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置に基づいて、任意の複数の対象者の位置を含む領域を設定し、特定された前記複数の対象者のそれぞれの前記注視領域のうち、前記領域が設定された複数の対象者の前記注視領域が、前記領域に含まれている場合、前記領域が設定された複数の対象者により構成されるグループを推定するステップと、
推定された前記グループを示す情報を出力するステップと、
を有するグループ推定方法。 Computer runs,
A step of identifying a gaze area indicating an area of gaze at each time included in a predetermined period for each of a plurality of subjects who are present in a predetermined area and may belong to a group.
A step of acquiring target person information including position information indicating each position of the plurality of target persons, and
Based on the position indicated by the target person information corresponding to each of the acquired plurality of target persons, an area including the positions of any plurality of target persons is set, and each of the specified plurality of target persons. When the gaze area of a plurality of subjects in which the area is set is included in the area, a group composed of a plurality of subjects in which the area is set is estimated. Steps and
A step to output information indicating the estimated group, and
Group estimation method with .
所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定するステップと、 A step of identifying a gaze area indicating an area of gaze at each time included in a predetermined period for each of a plurality of subjects who are present in a predetermined area and may belong to a group.
前記複数の対象者のそれぞれの位置を示す位置情報を含む対象者情報を取得するステップと、 A step of acquiring target person information including position information indicating each position of the plurality of target persons, and
取得された前記複数の対象者のそれぞれに対応する前記対象者情報が示す前記位置と、特定された前記複数の対象者のそれぞれの前記注視領域とに基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するステップと、 Of the plurality of subjects, based on the position indicated by the subject information corresponding to each of the acquired plurality of subjects and the gaze area of each of the identified plurality of subjects. Steps to estimate a group that includes at least some of the subjects,
推定された前記グループを示す情報を出力するステップと、 A step to output information indicating the estimated group, and
を有し、 Have,
前記グループを推定するステップにおいて、前記コンピュータは、推定したグループに含まれる複数の対象者の位置を含む領域である対象者領域を設定し、当該複数の対象者と異なる対象者のうち、当該対象者領域に前記注視領域が含まれている対象者を、推定したグループに属すると推定する、 In the step of estimating the group, the computer sets a target area which is an area including the positions of a plurality of target persons included in the estimated group, and among the target persons different from the plurality of target persons, the target person is concerned. It is estimated that the subject whose gaze area is included in the person area belongs to the estimated group.
グループ推定方法。 Group estimation method.
所定エリアに存在し、グループに属する可能性がある複数の対象者のそれぞれが所定期間に含まれる各時刻に注視する領域を示す注視領域を特定するステップと、 A step of identifying a gaze area indicating an area of gaze at each time included in a predetermined period for each of a plurality of subjects who are present in a predetermined area and may belong to a group.
特定された前記複数の対象者のそれぞれの前記注視領域に基づいて、前記複数の対象者のうち、少なくとも一部の対象者を含むグループを推定するステップと、 A step of estimating a group including at least a part of the plurality of subjects based on the gaze area of each of the plurality of identified subjects.
前記複数の対象者のそれぞれに対応し、前記所定期間に含まれる各時刻における前記対象者の動作を示す動作情報を複数取得するステップと、 A step of acquiring a plurality of operation information indicating the operation of the target person at each time included in the predetermined period corresponding to each of the plurality of target persons, and
前記複数の対象者のそれぞれに対応する前記動作情報が示す前記動作に基づいて、関連する動作を行っている複数の対象者を連動者として特定するステップと、 A step of identifying a plurality of target persons performing related operations as interlocking persons based on the operation indicated by the operation information corresponding to each of the plurality of target persons.
推定された複数のグループのそれぞれに含まれる複数の前記連動者の連動状況に基づいて、前記複数のグループの相互作用度を特定するステップと、 A step of specifying the degree of interaction of the plurality of groups based on the interlocking status of the plurality of interlockers included in each of the estimated plurality of groups, and a step of specifying the degree of interaction of the plurality of groups.
推定された前記グループを示す情報と、特定された前記複数のグループの相互作用度を示す情報とを出力するステップと、 A step of outputting information indicating the estimated said group and information indicating the degree of interaction of the specified plurality of groups.
を有するグループ推定方法。 Group estimation method with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018227830A JP7041046B2 (en) | 2018-12-05 | 2018-12-05 | Group estimation device and group estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018227830A JP7041046B2 (en) | 2018-12-05 | 2018-12-05 | Group estimation device and group estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020091622A JP2020091622A (en) | 2020-06-11 |
JP7041046B2 true JP7041046B2 (en) | 2022-03-23 |
Family
ID=71012856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018227830A Active JP7041046B2 (en) | 2018-12-05 | 2018-12-05 | Group estimation device and group estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7041046B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230342746A1 (en) | 2021-03-17 | 2023-10-26 | Nec Corporation | Information processing apparatus, information processing method, and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016061996A (en) | 2014-09-19 | 2016-04-25 | ヤフー株式会社 | Advertisement distribution device, advertisement distribution method, and advertisement distribution program |
JP2016081174A (en) | 2014-10-14 | 2016-05-16 | 富士ゼロックス株式会社 | Association program and information processing apparatus |
JP2016122272A (en) | 2014-12-24 | 2016-07-07 | 富士通株式会社 | Availability calculation system, availability calculation method and availability calculation program |
WO2016158267A1 (en) | 2015-03-27 | 2016-10-06 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2018
- 2018-12-05 JP JP2018227830A patent/JP7041046B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016061996A (en) | 2014-09-19 | 2016-04-25 | ヤフー株式会社 | Advertisement distribution device, advertisement distribution method, and advertisement distribution program |
JP2016081174A (en) | 2014-10-14 | 2016-05-16 | 富士ゼロックス株式会社 | Association program and information processing apparatus |
JP2016122272A (en) | 2014-12-24 | 2016-07-07 | 富士通株式会社 | Availability calculation system, availability calculation method and availability calculation program |
WO2016158267A1 (en) | 2015-03-27 | 2016-10-06 | ソニー株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2020091622A (en) | 2020-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
JP5001260B2 (en) | Object tracking method and object tracking apparatus | |
US8724845B2 (en) | Content determination program and content determination device | |
KR101693951B1 (en) | Method for recognizing gestures and gesture detector | |
JP6779699B2 (en) | Image processing equipment, information processing methods and programs | |
US9928404B2 (en) | Determination device, determination method, and non-transitory storage medium | |
US9682482B2 (en) | Autonomous moving device and control method of autonomous moving device | |
US11094337B2 (en) | Cough detection device, cough detection method, and recording medium | |
JP2014229068A (en) | People counting device and person flow line analysis apparatus | |
JP6779410B2 (en) | Video analyzer, video analysis method, and program | |
JP6922410B2 (en) | Posture judgment program, posture judgment device and posture judgment method | |
JP7041046B2 (en) | Group estimation device and group estimation method | |
JP7106296B2 (en) | Image processing device, image processing method and program | |
US20120321197A1 (en) | Image processing apparatus, content delivery system, image processing method, and program | |
JP2003216938A (en) | Information collecting device | |
WO2012153868A1 (en) | Information processing device, information processing method and information processing program | |
JP2020071717A (en) | Information processing device, information processing method, and program | |
JP2020154808A (en) | Information processor, information processing system, information processing method, and program | |
JP6723822B2 (en) | Image processing apparatus, image processing method and program | |
JP2020201674A (en) | Video analyzer and control method therefor and program | |
JPWO2021149274A5 (en) | ||
JP6995960B2 (en) | Image processing equipment, image processing methods and programs | |
WO2020020436A1 (en) | Method and system for object tracking in image sequences | |
JP7314244B2 (en) | Image processing device, image processing method and program | |
JP6287527B2 (en) | Information processing apparatus, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7041046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |