JP2014059788A - Gazing action estimation device, gazing action estimation method and gazing action estimation program - Google Patents

Gazing action estimation device, gazing action estimation method and gazing action estimation program Download PDF

Info

Publication number
JP2014059788A
JP2014059788A JP2012205326A JP2012205326A JP2014059788A JP 2014059788 A JP2014059788 A JP 2014059788A JP 2012205326 A JP2012205326 A JP 2012205326A JP 2012205326 A JP2012205326 A JP 2012205326A JP 2014059788 A JP2014059788 A JP 2014059788A
Authority
JP
Japan
Prior art keywords
gaze
person
head
difference angle
gaze behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012205326A
Other languages
Japanese (ja)
Other versions
JP5920136B2 (en
Inventor
Keiju Okabayashi
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012205326A priority Critical patent/JP5920136B2/en
Publication of JP2014059788A publication Critical patent/JP2014059788A/en
Application granted granted Critical
Publication of JP5920136B2 publication Critical patent/JP5920136B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a gazing action estimation device for estimating an action of gazing at any object (gazing action) by a moving person, a gazing action estimation method, and a gazing action estimation program.SOLUTION: The gazing action estimation device for estimating the fact that a moving person is in a gazing action which is an action of gazing at a particular object includes: a head posture measurement unit which is attached to a head of a person and measures an absolute direction of the head; a step counting unit which is attached to a body of a person and counts the number of steps; and a gazing action determination unit which, on the basis of the measured absolute direction of the head and the counted number of steps, generates a difference angle of the absolute directions of the head for every one or predetermined number of steps and, when the difference angle which is consecutively retained between a first and second threshold values and a third frequency threshold being maintained is detected, this determines the person is in a gazing action.

Description

本発明は,注視行動推定装置,注視行動推定方法及び注視行動推定プログラムに関する。   The present invention relates to a gaze behavior estimation device, a gaze behavior estimation method, and a gaze behavior estimation program.

注視行動とは,人が何かに注目する行動である。例えば,人が展示場内を歩いて移動している場合,人が何かの展示物に注視していることを判別できれば,注視対象物の詳細情報をその人に提示するなど新しいサービスを提供することができる。   Gaze behavior is behavior in which a person pays attention to something. For example, if a person is walking around an exhibition hall and if it can be determined that the person is gazing at an exhibit, a new service will be provided, such as presenting the person with detailed information on the object of gazing. be able to.

人が静止している場合は,人が注視行動を行っている場合は,その人の頭の絶対方向が注視対象物の方向に固定されるので,頭の絶対方向の固定状態から注視行動を推定することができる。   When a person is stationary, when the person is gazing, the absolute direction of the person's head is fixed in the direction of the object to be watched. Can be estimated.

運転者の視線方向を車内カメラの撮像画像から検出し,検出された複数の視線方向が交差する地点を注視点と検出し,注視点の施設を特定することが特許文献1に記載されている。ただし,この文献には,運転者が注視行動をとっているか否かを推定するものではない。   Patent Document 1 describes that a driver's gaze direction is detected from an image captured by an in-vehicle camera, a point where a plurality of detected gaze directions intersect is detected as a gazing point, and a facility at the gazing point is specified. . However, this document does not estimate whether the driver is gazing.

さらに,監視カメラで撮像された複数の通行者の画像から各通行者が注視している向きである視線を検出し,その複数の視線が一カ所に集中している場合に,何らかの異常や事件が発生したことを検知することが特許文献2に記載されている。ただし,この文献でも,所定の通行者が注視行動をとっているか否かを推定するものではない。   Furthermore, if a gaze that is the direction in which each passer-by is gazing is detected from images of a plurality of passers-by captured by the surveillance camera and the gazes are concentrated in one place, any abnormality or incident Japanese Patent Application Laid-Open No. H10-228707 describes that the occurrence of the occurrence of the above is detected. However, this document does not estimate whether or not a predetermined passer-by is taking gaze action.

特開2009−31943号公報JP 2009-31943 A 特開2008−40758号公報JP 2008-40758 A 特開2010−61452号公報JP 2010-61452 A

そこで,本発明の目的は,移動している人が何らかの対象物を注視する行動(注視行動)を推定する注視行動推定装置,注視行動推定方法,及び注視行動推定プログラムを提供することにある。   Accordingly, an object of the present invention is to provide a gaze behavior estimation device, a gaze behavior estimation method, and a gaze behavior estimation program for estimating a behavior (gaze behavior) in which a moving person gazes at an object.

注視行動推定装置の第1の側面は,移動中の人が特定の対象物を注視する注視行動中であることを推定する注視行動推定装置であって,
前記人の頭部に取り付けられ頭部の絶対方向を測定する頭部姿勢計測部と,
前記人の身体に取り付けられ歩数を測定する歩数計測部と,
前記測定された頭部の絶対方向と歩数に基づいて,一歩または所定の歩数毎の前記頭部の絶対方向の差分角度を生成し,前記差分角度が第1,第2の閾値の間に,連続して第3の閾値回数維持されたことを検出したときに,前記人が前記注視行動を行っていると判定する注視行動判定部とを有する。
A first aspect of the gaze behavior estimation device is a gaze behavior estimation device that estimates that a moving person is gaze behavior to gaze at a specific object,
A head posture measuring unit attached to the head of the person for measuring the absolute direction of the head;
A step counting unit attached to the human body for measuring the number of steps;
Based on the measured absolute direction of the head and the number of steps, a difference angle of the absolute direction of the head for each step or every predetermined number of steps is generated, and the difference angle is between the first and second thresholds, And a gaze action determination unit that determines that the person is performing the gaze action when it is detected that the third threshold number of times is continuously maintained.

第1の側面によれば,移動中の人の注視行動を高精度に推定することができる。   According to the first aspect, it is possible to estimate the gaze behavior of a moving person with high accuracy.

本実施の形態の注視行動推定装置を利用したサービスの提供を説明する図である。It is a figure explaining provision of the service using the gaze action estimation apparatus of this Embodiment. 本実施の形態における注視行動推定装置を利用したサービスの提供の概略フローチャート図である。It is a schematic flowchart figure of provision of the service using the gaze action estimation apparatus in this Embodiment. 本実施の形態における注視行動推定装置による注視行動推定の概略を示す図である。It is a figure which shows the outline of gaze action estimation by the gaze action estimation apparatus in this Embodiment. 本実施の形態における注視行動推定装置の構成図である。It is a block diagram of the gaze action estimation apparatus in this Embodiment. 本実施の形態における人の注視行動を推定する方法を説明する図である。It is a figure explaining the method of estimating the gaze action of the person in this Embodiment. 注視行動を行った人の歩数の増加に対応する頭部姿勢方向の差分角度Δθの変化例を示す図である。It is a figure which shows the example of a change of difference angle (DELTA) (theta) of the head posture direction corresponding to the increase in the step count of the person who performed the gaze action. 本実施の形態における注視行動判定プログラムの処理のフローチャート図である。It is a flowchart figure of a process of the gaze action determination program in this Embodiment. 注視行動判定プログラムによる第1,第2,第3の閾値の計算処理のフローチャート図である。It is a flowchart figure of the calculation process of the 1st, 2nd, 3rd threshold value by a gaze action determination program. 差分角度Δθが基準値を超えた時に設定された注視判定三角形を示す図である。It is a figure which shows the gaze determination triangle set when difference angle (DELTA) (theta) exceeded reference value. 注視判定三角形の底辺ABの中心Cを通過するときの状態を示す図である。It is a figure which shows a state when passing the center C of the base AB of a gaze determination triangle.

[注視行動推定を利用したサービスの概略]
図1は,本実施の形態の注視行動推定装置を利用したサービスの提供を説明する図である。図1において,人10は,展示物E1を注視しながら,展示物E1の近くを破線矢印の方向に歩いて移動している。このような移動している人10が展示物E1を注視する行動を,人10が身につけているヘッドセット12や,携帯しているスマートホンやパッド端末などの端末11などにより推定することができれば,ヘッドセット12または端末10が,その注視対象の展示物E1の情報を含む注視行動判定情報を展示物コンテンツサーバ14に送信し(S10),それに応答して,展示物コンテンツサーバ14が,注視対象の展示物E1に関連するコンテンツ情報を端末11にプッシュ送信(S12)することができる。これにより,展示会場内を移動する人10が注視している展示物の関連情報をその人10に提供するサービスが可能になる。
[Outline of services using gaze behavior estimation]
FIG. 1 is a diagram for explaining the provision of a service using the gaze action estimation apparatus according to the present embodiment. In FIG. 1, the person 10 is walking in the direction of the dashed arrow in the vicinity of the exhibit E1 while gazing at the exhibit E1. Such a movement of the moving person 10 gazing at the exhibition E1 can be estimated by the headset 12 worn by the person 10 or the terminal 11 such as a smart phone or a pad terminal that is carried. If possible, the headset 12 or the terminal 10 transmits gaze action determination information including the information of the gaze target exhibit E1 to the exhibit content server 14 (S10), and in response, the exhibit content server 14 The content information related to the exhibition object E1 to be watched can be push-transmitted (S12) to the terminal 11. As a result, it is possible to provide a service for providing the person 10 with relevant information on the exhibit that the person 10 moving in the exhibition hall is watching.

図2は,本実施の形態における注視行動推定装置を利用したサービスの提供の概略フローチャート図である。また,図3は,本実施の形態における注視行動推定装置による注視行動推定の概略を示す図である。図3を参照しながら,図2のフローチャートに示したサービスの提供について説明する。   FIG. 2 is a schematic flowchart of service provision using the gaze behavior estimation apparatus according to the present embodiment. Moreover, FIG. 3 is a figure which shows the outline of gaze action estimation by the gaze action estimation apparatus in this Embodiment. The service provision shown in the flowchart of FIG. 2 will be described with reference to FIG.

図3では,複数の展示物E1〜E4が展示されている展示会場内を,人10が展示物E1を注視しながら展示物E1の前を歩行している。人10は,位置A(x0,y0)から一歩の歩行により位置x1,y1)に移動する。さらに,歩行を継続することで,人10は位置A(x0,y0)から点Bの方向に向かって位置を逐次変更する。   In FIG. 3, a person 10 is walking in front of the exhibit E1 while gazing at the exhibit E1 in the exhibition hall where a plurality of exhibits E1 to E4 are exhibited. The person 10 moves from the position A (x0, y0) to the position x1, y1) by one step of walking. Furthermore, by continuing walking, the person 10 sequentially changes the position from the position A (x0, y0) toward the point B.

それと共に,人10が複数の展示物の中から展示物E1を注視しながら歩行で移動すると,人10の頭部姿勢の方向は,展示物E1の方向に維持される。   At the same time, when the person 10 moves by walking while gazing at the exhibit E1 from the plurality of exhibits, the head posture of the person 10 is maintained in the direction of the exhibit E1.

そこで,人10は,少なくとも頭部10Hに頭部姿勢の方向を検出するセンサ装置を身につける。このセンサ装置により,歩行で移動中の人10の一歩または所定歩数毎の頭部10Hの姿勢の絶対方向を検出することができる。もし,人10が歩行しながら展示物E1を注視し続ける場合は,この歩行中の人10の頭部10Hの姿勢の方向は,後述するとおりほぼ一定の角度で変化する。したがって,この人10の頭部10Hの方向の変化が一定角度か否かを監視することで,人が注視行動中か否かを検出することができる。   Therefore, the person 10 wears a sensor device that detects the direction of the head posture at least on the head 10H. With this sensor device, it is possible to detect the absolute direction of the posture of the head 10H at one step or every predetermined number of steps of the person 10 who is moving by walking. If the person 10 keeps gazing at the exhibit E1 while walking, the direction of the posture of the head 10H of the person 10 who is walking changes at a substantially constant angle as will be described later. Therefore, by monitoring whether or not the change in the direction of the head 10H of the person 10 is at a certain angle, it is possible to detect whether or not the person is performing a gaze action.

さらに,人10の位置A(x0,y0)を何らかの方法で検出できれば,人10の頭部10Hの方向(矢印方向)の計測データとに基づいて,その方向の先にある展示物E1を検出することができる。または,位置A(x0,y0)と一歩先の位置B(x1,y1)での人の位置と頭部の姿勢方向に基づいて頭部の姿勢方向の交差位置に最も近い展示物E1を検出することができる。   Furthermore, if the position A (x0, y0) of the person 10 can be detected by any method, the exhibit E1 ahead of that direction is detected based on the measurement data in the direction of the head 10H (arrow direction) of the person 10. can do. Or, based on the position of the person at the position A (x0, y0) and the position B (x1, y1) one step ahead and the posture direction of the head, the exhibit E1 closest to the intersection position of the head posture direction is detected. can do.

したがって,図2に示されるとおり,移動中の人の頭部の姿勢の方向とその位置から,頭部10Hの正面方向の先にある展示物E1を検出し,また,一歩または所定歩数毎の頭部10Hの姿勢の方向の変化から,人10が注視行動にあるか否かを判定できる(S10)。そこで,人の注視行動が判定された場合は,人10のヘッドセットまたは端末から,注視行動の検出の事実と,検出した展示物E1の情報が,展示物コンテンツサーバ14に送信される(S12)。   Therefore, as shown in FIG. 2, the exhibit E1 ahead of the front direction of the head 10H is detected from the direction and position of the head of the moving person, and one step or every predetermined number of steps. It can be determined whether or not the person 10 is gazing from the change in the orientation of the head 10H (S10). Therefore, when the gaze behavior of the person is determined, the fact of gaze behavior detection and the information on the detected exhibit E1 are transmitted from the headset or terminal of the person 10 to the exhibit content server 14 (S12). ).

それに応答して,展示物コンテンツサーバ14は,人10の端末に注視対象物である展示物E1に関連するコンテンツをプッシュ送信する(S14)。そして,移動中の人10は,端末から終始している展示物E1のコンテンツを取得することができる(S16)。   In response to this, the exhibit content server 14 push-transmits the content related to the exhibit E1, which is the watched object, to the terminal of the person 10 (S14). Then, the moving person 10 can acquire the contents of the exhibition E1 that has been completed from the terminal (S16).

[注視行動推定装置の構成]
図4は,本実施の形態における注視行動推定装置の構成図である。図4の注視行動推定装置は,たとえば,人の頭部に装着されるヘッドセットである。または,注視行動推定装置は,ヘッドセットと人が携帯するスマートホンやパッド端末などの端末との組み合わせで構成される。
[Configuration of gaze behavior estimation device]
FIG. 4 is a configuration diagram of the gaze action estimation apparatus in the present embodiment. The gaze action estimation device in FIG. 4 is, for example, a headset worn on a human head. Alternatively, the gaze behavior estimation device is configured by a combination of a headset and a terminal such as a smart phone or a pad terminal carried by a person.

注視行動推定装置は,頭部の姿勢の方向を計測する頭部姿勢計測部20と,人の歩数を計測する歩数計測部24とを有する。頭部姿勢計測部20は,地磁気センサとジャイロセンサを有するセンサユニット21と,それらのセンサの出力信号を処理する信号処理部22とを有し,人の頭部に装着される。   The gaze action estimation device includes a head posture measurement unit 20 that measures the direction of the posture of the head, and a step count measurement unit 24 that measures the number of steps of a person. The head posture measurement unit 20 includes a sensor unit 21 having a geomagnetic sensor and a gyro sensor, and a signal processing unit 22 that processes output signals of these sensors, and is mounted on a human head.

地磁気センサは,頭部の絶対的な方向を検出することができるのに対して,ジャイロセンサは頭部の方向が変更したときの角速度を検出することができる。地磁気センサは,頭部の絶対的な方向を検出できるが応答特性があまり良くないのに対して,ジャイロセンサは高速応答で頭部の方向変更時の角度方向と角速度を検出できる。したがって,両センサを組み合わせて,頭部が静止している初期状態での方向を地磁気センサで検出し,その後の頭部の方向の変更をジャイロセンサで検出し,頭部の方向変更に対する変更角度を,初期状態での方向に累積することで,頭部の姿勢の方向の変化を追跡可能である。   The geomagnetic sensor can detect the absolute direction of the head, whereas the gyro sensor can detect the angular velocity when the direction of the head changes. The geomagnetic sensor can detect the absolute direction of the head, but the response characteristics are not so good, while the gyro sensor can detect the angular direction and angular velocity when changing the direction of the head with a high-speed response. Therefore, by combining both sensors, the direction in the initial state where the head is stationary is detected by the geomagnetic sensor, the change in the direction of the head after that is detected by the gyro sensor, and the change angle with respect to the change in the direction of the head Is accumulated in the direction in the initial state, and the change in the direction of the posture of the head can be tracked.

一方,歩数計測部24は,加速度センサ25と,そのセンサ出力信号を処理する信号処理部とを有し,頭部に装着しなくても,人が携帯すればよい。加速度センサ25は,X,Y,Zの3軸方向の加速度を検出できるので,鉛直方向の加速度が一次的に増加するのをカウントすることで,人の歩数をカウントすることができる。また,ジャイロセンサを設けることで,端末が傾いても鉛直方向を追従できるので,その鉛直方向の加速度が一次的に増加するタイミングで歩数がカウントされる。   On the other hand, the step count measuring unit 24 includes the acceleration sensor 25 and a signal processing unit that processes the sensor output signal, and it is only necessary for a person to carry it without wearing it on the head. Since the acceleration sensor 25 can detect accelerations in the three-axis directions of X, Y, and Z, the number of steps of a person can be counted by counting the increase in the acceleration in the vertical direction. Also, since the gyro sensor is provided, the vertical direction can be followed even if the terminal is tilted, so the number of steps is counted at the timing when the acceleration in the vertical direction increases temporarily.

注視行動判定部30は,CPU31と,注視行動判定プログラム32とを有し,CPU31が注視行動判定プログラム32を実行することで,注視行動か否かの判定を行う。また,メモリ34と,無線通信装置35が,CPU31にバス28を介して接続されている。メモリ34には,注視行動判定用の閾値などのパラメータが格納される。注視行動判定プログラムの処理フローについては後述する。   The gaze action determination unit 30 includes a CPU 31 and a gaze action determination program 32, and the CPU 31 executes the gaze action determination program 32 to determine whether or not it is a gaze action. A memory 34 and a wireless communication device 35 are connected to the CPU 31 via the bus 28. The memory 34 stores parameters such as a threshold for determining gaze behavior. The processing flow of the gaze action determination program will be described later.

歩数計測部24の信号処理部26は,一歩毎にまたは所定歩数毎にサンプリング信号を頭部姿勢計測部の信号処理部22に供給することで,信号処理部22がサンプリングタイミングでの頭部姿勢方向を出力する。または,CPU31が,頭部姿勢計測部の信号処理部22が出力する方向データを,歩数計測部の信号処理部26が生成するサンプリング信号のタイミングで取得するようにしてもよい。   The signal processing unit 26 of the step count measuring unit 24 supplies a sampling signal to the signal processing unit 22 of the head posture measuring unit at every step or every predetermined number of steps, so that the signal processing unit 22 performs the head posture at the sampling timing. Output direction. Alternatively, the CPU 31 may acquire the direction data output from the signal processing unit 22 of the head posture measurement unit at the timing of the sampling signal generated by the signal processing unit 26 of the step count measurement unit.

注視行動推定装置が,ヘッドセットと人が携帯するスマートホンやパッド端末などの端末との組み合わせで構成される場合は,上記の頭部姿勢計測部20がヘッドセットに設けられ,残りの構成が端末に設けられる。または,注視行動推定装置が,ヘッドセットのみで構成される場合は,図4の全ての構成がヘッドセットに設けられる。   When the gaze action estimation device is configured by a combination of a headset and a terminal such as a smart phone or a pad terminal carried by a person, the head posture measurement unit 20 is provided in the headset, and the remaining configuration is configured. Provided on the terminal. Alternatively, when the gaze behavior estimation device is configured only with a headset, all the configurations in FIG. 4 are provided in the headset.

注視行動推定装置は,頭部姿勢計測部20と歩数計測部24と無線通信装置35のみがヘッドセットまたはヘッドセットと端末の組み合わせにより実現され,注視行動判定部30とメモリ34が,展示物コンテンツサーバ14内のCPUと注視行動判定プログラムとメモリで実現されてもよい。   The gaze behavior estimation device is realized by only the head posture measurement unit 20, the step count measurement unit 24, and the wireless communication device 35 by a headset or a combination of a headset and a terminal, and the gaze behavior determination unit 30 and the memory 34 include exhibition contents. You may implement | achieve with CPU in the server 14, a gaze action determination program, and memory.

[注視行動を推定する方法]
図5は,本実施の形態における人の注視行動を推定する方法を説明する図である。本実施の形態では,人の頭部の姿勢の方向と歩数とを検出して,近似的に人の注視行動を推定する。図5に示されるとおり,人10がある注視点E1を見ながら直進している場合,0歩目の位置では,頭部10Hは前方の右斜め上方向に向けられ,頭部10Hの正面方向の先に注視点E1があり,0歩目から一歩歩いた後の1歩目の位置では,頭部10Hは右横方向に向けられ,0歩目と1歩目とでは頭部10Hの方向が時計方向にΔθ1だけ回転している。
[Method for estimating gaze behavior]
FIG. 5 is a diagram for explaining a method for estimating the gaze behavior of a person in the present embodiment. In the present embodiment, the direction of the human head posture and the number of steps are detected, and the gaze behavior of the person is estimated approximately. As shown in FIG. 5, when the person 10 is traveling straight while looking at a certain gazing point E1, at the position of the 0th step, the head 10H is directed diagonally upward to the right and the front direction of the head 10H. There is a gazing point E1, and at the position of the first step after walking one step from the zeroth step, the head 10H is directed to the right lateral direction, and at the zeroth step and the first step, the direction of the head 10H Is rotated clockwise by Δθ1.

さらに,次の一歩歩いた後の2歩目の位置では,頭部10Hは右後ろ斜め方向に向けられ,1歩目と2歩目とでは頭部10Hの方向が時計方向にΔθ2だけ回転している。そして,歩幅が一定と仮定すれば,頭部の絶対方向の変化角度または差分角度Δθ1,Δθ2は,ほぼ一定(Δθ1=Δθ2)になることが理解できる。   Further, at the position of the second step after the next one-step walk, the head 10H is directed diagonally to the right rear, and the direction of the head 10H is rotated clockwise by Δθ2 between the first and second steps. ing. If it is assumed that the stride is constant, it can be understood that the change angle or difference angle Δθ1, Δθ2 in the absolute direction of the head is substantially constant (Δθ1 = Δθ2).

厳密には,人10が注視点E1を中心とする円弧上を移動する場合に,一歩毎のサンプリングタイミングでの頭部10Hの方向の差分角度Δθが一定になる。しかし,人が直線上を移動する場合は,人10と注視点E1との距離が所定距離以上であれば,一歩毎のサンプリングタイミングでの頭部10Hの方向の差分角度Δθもほぼ一定になる。   Strictly speaking, when the person 10 moves on an arc centered on the gazing point E1, the difference angle Δθ in the direction of the head 10H at the sampling timing for each step becomes constant. However, when the person moves on a straight line, if the distance between the person 10 and the gazing point E1 is equal to or greater than a predetermined distance, the difference angle Δθ in the direction of the head 10H at the sampling timing for each step is also substantially constant. .

そこで,本実施の形態の注視行動推定装置の注視判定プログラムでは,移動中の人の一歩毎または所定歩数毎のサンプリングタイミングでの頭部の方向の変化量である差分角度Δθを連続して計測し,この差分角度Δθがある基準角度以上であって,差分角度Δθが一定の範囲内(第1,第2の閾値の間)に収まっていて差分角度Δθがほぼ一定である状態が,所定の歩数(第3の閾値)以上継続していることが検出されれば,人は注視行動を行っていると推定する。   Therefore, in the gaze determination program of the gaze behavior estimation apparatus according to the present embodiment, the difference angle Δθ, which is the amount of change in head direction at the sampling timing for each step of the moving person or for each predetermined number of steps, is continuously measured. A state in which the difference angle Δθ is equal to or larger than a reference angle, the difference angle Δθ is within a certain range (between the first and second threshold values), and the difference angle Δθ is substantially constant is predetermined. If it is detected that the number of steps (the third threshold) continues, it is estimated that the person is gazing.

[注視行動の例]
図6は,注視行動を行った人の歩数の増加に対応する頭部姿勢方向の差分角度Δθの変化例を示す図である。図6の横軸は歩数,縦軸は検出された頭部姿勢方向の差分角度Δθであり,その場合の差分角度Δθの変化例100が示されている。
[Example of gaze behavior]
FIG. 6 is a diagram illustrating a change example of the difference angle Δθ in the head posture direction corresponding to an increase in the number of steps of the person who performed the gaze action. The horizontal axis of FIG. 6 is the number of steps, and the vertical axis is the detected difference angle Δθ in the head posture direction. A variation example 100 of the difference angle Δθ in that case is shown.

この例によれば,最初の歩数0からある歩数の期間t1では,頭部姿勢方向の差分角度Δθは,基準値を超えることはない。そして,期間t1経過した時点で,差分角度Δθが基準値を超えて,期間t2の間の差分角度Δθが,第1,第2の閾値の間に維持されている。厳密には,期間t2の間の差分角度Δθは,低い側の第1の閾値low近傍から徐々に増加し,途中で高い側の第2の閾値highの近傍まで達し,その後低い側の第1の閾値lowの近傍まで低下している。   According to this example, the difference angle Δθ in the head posture direction does not exceed the reference value in the period t1 from the initial number of steps 0 to a certain number of steps. When the period t1 has elapsed, the difference angle Δθ exceeds the reference value, and the difference angle Δθ during the period t2 is maintained between the first and second threshold values. Strictly speaking, the difference angle Δθ during the period t2 gradually increases from the vicinity of the first threshold low on the low side, reaches the vicinity of the second threshold high on the high side, and then reaches the first threshold on the low side. It drops to the vicinity of the low threshold value.

その理由は,後述するとおり,人が注視点の近くを直進した場合に,注視点に最も近づいた位置での差分角度Δθが最大になり,注視点から遠ざかるにつれて差分角度Δθは減少するからである。   The reason is that, as will be described later, when a person goes straight near the gazing point, the difference angle Δθ at the position closest to the gazing point becomes maximum, and the difference angle Δθ decreases as the distance from the gazing point increases. is there.

[注視行動判定プログラムの処理]
図7は,本実施の形態における注視行動判定プログラムの処理のフローチャート図である。CPUがこの注視行動判定プログラムを実行する注視行動判定部30は,図6に示した例の場合,差分角度Δθが第1,第2の閾値の間に第3の閾値の歩数t3の間維持された場合に,注視行動中と判定する。
[Process of gaze behavior determination program]
FIG. 7 is a flowchart of processing of the gaze behavior determination program in the present embodiment. In the example shown in FIG. 6, the gaze behavior determination unit 30 in which the CPU executes the gaze behavior determination program is maintained during the third threshold step number t3 while the difference angle Δθ is between the first and second threshold values. If it is, it is determined that the person is gazing.

まず,注視行動判定部30は,図5で説明したように,一歩毎または所定の歩数毎のサンプリングタイミングでの人10の頭部姿勢の方向の差分角度Δθが,一定の範囲内にある状態が第3の閾値の歩数に達したか否かを判断するために,注視判定カウンタを利用する。   First, as described with reference to FIG. 5, the gaze action determination unit 30 is in a state where the difference angle Δθ in the direction of the head posture of the person 10 at a sampling timing for each step or every predetermined number of steps is within a certain range. In order to determine whether or not has reached the third threshold number of steps, a gaze determination counter is used.

最初に,注視行動判定部30は,注視判定カウンタをクリアしてカウント値をゼロにする(S20)。そして,頭部姿勢計測部20と歩数計測部24から頭部姿勢方向データと歩数データを読み込む(S21)。頭部姿勢方向データは,現在の頭部10Hの絶対方向データであり,歩数データは,歩行による一歩一歩のタイミングを示すデータである。   First, the gaze action determination unit 30 clears the gaze determination counter and sets the count value to zero (S20). Then, head posture direction data and step count data are read from the head posture measurement section 20 and the step count measurement section 24 (S21). The head posture direction data is the absolute direction data of the current head 10H, and the step count data is data indicating the timing of each step by walking.

歩数データから一歩または所定の歩数の更新が検出されるまで(S22のNO),工程S20,S21が繰り返される。そして,注視行動判定部30は,歩数データから一歩または所定の歩数の更新が検出されると(S22のYES),その更新のサンプリングタイミングで,前回のサンプリングタイミングと今回のサンプリングタイミングとでの頭部姿勢方向データの方向の変化角度,つまり差分角度Δθを計算する(S23)。   Steps S20 and S21 are repeated until an update of one step or a predetermined number of steps is detected from the step count data (NO in S22). When the gaze action determination unit 30 detects an update of one step or a predetermined number of steps from the step count data (YES in S22), the gaze action determination unit 30 calculates the head of the previous sampling timing and the current sampling timing at the sampling timing of the update. A change angle of the direction of the head posture direction data, that is, a difference angle Δθ is calculated (S23).

そして,注視行動判定部30は,工程S23で計算した差分角度Δθが,基準値を超えているか否かを判定する(S24)。移動中の人がある注視対象物を注視しながら移動すれば,頭部姿勢の方向はある基準値を超える差分角度Δθずつ変化するので,この基準値は,注視行動の可能性を推定させる程度の差分角度Δθに設定される。   Then, the gaze action determination unit 30 determines whether or not the difference angle Δθ calculated in step S23 exceeds a reference value (S24). If a moving person moves while gazing at a gaze target, the head posture direction changes by a difference angle Δθ exceeding a certain reference value, so this reference value is an extent that estimates the possibility of gaze behavior. Is set to the difference angle Δθ.

差分角度Δθが初めて基準値を超えた場合(S24のYES),人が注視行動に入った可能性があるので,注視行動判定部30は,注視判定カウンタのカウンタ値が0の場合(S25のYES),第1,第2,第3の閾値の計算を行う(S26)。また,差分角度Δθが繰り返し基準値を超えている場合(S24のYES),人が注視行動を継続していれば,注視判定カウンタのカウンタ値は0以外の正の値となる(S25のNO)。ただし,差分角度Δθが繰り返し基準値を超えていても,人が注視行動に入っていなければ注視判定カウンタのカウンタ値は0のままである。   When the difference angle Δθ exceeds the reference value for the first time (YES in S24), there is a possibility that the person has entered the gaze action. Therefore, the gaze action determination unit 30 determines that the counter value of the gaze determination counter is 0 (S25). YES), the first, second and third threshold values are calculated (S26). Further, when the difference angle Δθ repeatedly exceeds the reference value (YES in S24), if the person continues the gaze action, the counter value of the gaze determination counter becomes a positive value other than 0 (NO in S25). ). However, even if the difference angle Δθ repeatedly exceeds the reference value, the counter value of the gaze determination counter remains 0 if the person is not in the gaze behavior.

図6の例では,差分角度Δθは,期間t1の間,基準値を超えていない。そして,期間t1を経過すると,差分角度Δθは基準値を超えている。この時点で,図7のフローチャートの工程S24がYESとなる。そして,注視判定カウンタのカウンタ値が0の場合のみ,現在の人の位置と頭部の方向に基づいて,以下の第1,第2,第3の閾値の計算を行う(S26)。   In the example of FIG. 6, the difference angle Δθ does not exceed the reference value during the period t1. When the period t1 has elapsed, the difference angle Δθ exceeds the reference value. At this point, step S24 in the flowchart of FIG. 7 is YES. Then, only when the gaze determination counter value is 0, the following first, second and third thresholds are calculated based on the current position of the person and the head direction (S26).

[第1,第2,第3の閾値の計算]
注視行動判定部30は,第1,第2,第3の閾値の計算(S26)を次のように行う。図3に示されるように,展示物E1の前を人10が展示物E1を注視しながら直線的に歩行することを想定している。差分角度Δθが基準値を超えた時点で,人の注視行動の可能性を推定して,注視行動判定部30は,図3に示した注視判定三角形100を設定する。この注視判定三角形100は,辺ABを底辺とし,注視対象物E1を頂点とする二等辺三角形である。ただし,必ずしも二等辺三角形である必要はなく,人の現時点の位置Aと移動方向を底辺とし,注視対象物E1とを頂点とする三角形であればよい。
[Calculation of first, second, and third threshold values]
The gaze action determination unit 30 calculates the first, second, and third threshold values (S26) as follows. As shown in FIG. 3, it is assumed that the person 10 walks linearly in front of the exhibit E1 while gazing at the exhibit E1. When the difference angle Δθ exceeds the reference value, the possibility of the human gaze action is estimated, and the gaze action determination unit 30 sets the gaze determination triangle 100 shown in FIG. The gaze determination triangle 100 is an isosceles triangle having the side AB as a base and the gaze target E1 as a vertex. However, the triangle is not necessarily an isosceles triangle, and may be a triangle having the current position A and the moving direction of the person as the base and the gaze target E1 as the apex.

点Aが注視対象物E1から最も遠いので,底辺ABの点Aでの一歩または所定歩数での差分角度Δθは,最小値であり,第1の閾値に対応する。また,底辺ABの中心Cが注視対象物E1から最も近いので,中心Cでの一歩または所定歩数での差分角度Δθは,最大値であり,第2の閾値に対応する。そして,底辺ABの距離Lを歩行する間に,人が注視行動を行ったか否かを判定することが望ましいので,距離Lの所定割合の一部の距離を歩幅で除した歩数が,第3の閾値に対応する。この距離Lを注視判定距離Lとする。   Since the point A is farthest from the gaze target E1, the difference angle Δθ at one step or a predetermined number of steps at the point A on the base AB is the minimum value and corresponds to the first threshold value. Further, since the center C of the base AB is closest to the gaze target E1, the difference angle Δθ at one step or a predetermined number of steps at the center C is the maximum value and corresponds to the second threshold value. Then, since it is desirable to determine whether or not a person has performed a gaze action while walking the distance L of the base AB, the number of steps obtained by dividing a part of the predetermined distance of the distance L by the stride is the third number. Corresponds to the threshold value. This distance L is set as a gaze determination distance L.

図8は,注視行動判定プログラムによる第1,第2,第3の閾値の計算処理のフローチャート図である。図9は,差分角度Δθが基準値を超えた時に設定された注視判定三角形を示す図である。また,図10は,注視判定三角形の底辺ABの中心Cを通過するときの状態を示す図である。図9,図10を参照して,図8の計算処理を説明する。   FIG. 8 is a flowchart of first, second, and third threshold value calculation processing by the gaze behavior determination program. FIG. 9 is a diagram illustrating a gaze determination triangle that is set when the difference angle Δθ exceeds the reference value. FIG. 10 is a diagram showing a state when passing through the center C of the base AB of the gaze determination triangle. The calculation process of FIG. 8 will be described with reference to FIGS.

注視行動判定装置は,差分角度Δθが基準値を超えた時点での人の位置を計測する(S40)。人が携帯するスマートホンやパッド端末などの端末は,現在位置を検出する機能を有している。たとえば,2カ所のWiFi基地局との間の無線通信による電波強度によって,基地局からの距離を検出し,基地局の位置データと求めた2つの距離から,端末の位置を検出することができる。この位置検出の精度はそれほど高くはないが,おおよその位置が検出できれば良い。なぜなら,注視行動判定に利用する閾値を計算するために利用する情報だからである。   The gaze action determination device measures the position of the person when the difference angle Δθ exceeds the reference value (S40). A terminal such as a smart phone or a pad terminal carried by a person has a function of detecting the current position. For example, it is possible to detect the distance from the base station based on the radio field intensity by wireless communication with two WiFi base stations, and to detect the position of the terminal from the base station position data and the obtained two distances. . The accuracy of this position detection is not so high, but it is sufficient if an approximate position can be detected. This is because the information is used to calculate a threshold value used for gaze behavior determination.

次に,人が次の一歩を歩いた時の移動方向を計測する(S41)。移動方向は,ジャイロセンサのセンサ値から取得することができる。または,移動後の位置を上記の基地局間の電波強度により求めて,移動前の位置と移動後の位置の関係から移動方向を取得してもよい。   Next, the moving direction when the person walks the next step is measured (S41). The moving direction can be acquired from the sensor value of the gyro sensor. Alternatively, the position after movement may be obtained from the radio wave intensity between the base stations, and the movement direction may be acquired from the relationship between the position before movement and the position after movement.

そして,この場合,頭部姿勢計測部20により頭部姿勢の絶対方向は取得済みである。   In this case, the absolute direction of the head posture has already been acquired by the head posture measuring unit 20.

そこで,図3,9の点Aでの位置情報と,そのときの頭部姿勢の絶対方向情報とから,頭部の正面方向先にある展示物を,予め登録している複数の展示物の位置データベースをスキャンすることで特定する(S42)。すなわち,点Aでの位置情報と頭部姿勢方向から,その方向の先の最も手前に位置する展示物を注視対象物として検出する。   Therefore, based on the position information at point A in FIGS. 3 and 9 and the absolute direction information of the head posture at that time, an exhibit in front of the head direction is displayed for a plurality of pre-registered exhibits. The position database is specified by scanning (S42). That is, from the position information at the point A and the head posture direction, the exhibit located at the forefront of the direction is detected as a gaze target.

または,図3の点A(x0,y0)での位置情報と頭部姿勢の方向と,一歩移動した後の座標(x1,x2)での位置情報と頭部姿勢の方向とから,交差位置を注視点の位置として求めることができる。ただし,この計算で求めた注視点の位置は精度が低いので,予め登録している複数の展示物の位置データベースをスキャンして,計算で求めた注視点の位置に最も近い位置を有する展示物を注視対象物として特定する(S42)。   Alternatively, from the position information and the head posture direction at the point A (x0, y0) in FIG. 3 and the position information and the head posture direction at the coordinates (x1, x2) after moving one step, the intersection position Can be obtained as the position of the point of interest. However, since the position of the gazing point obtained by this calculation is low in accuracy, the exhibit that has a position closest to the position of the gazing point obtained by the calculation by scanning the position database of a plurality of exhibits registered in advance. Is identified as a gaze target (S42).

いずれの方法であっても,複数の展示物の位置データから抽出された展示物の位置データを利用することで,注視対象物の位置データは高い精度を有する。   In any method, the position data of the gaze target has high accuracy by using the position data of the exhibits extracted from the position data of a plurality of exhibits.

次に,注視行動判定部30は,注視対象物の位置を頂点とし,点Aから移動方向を底辺とする二等辺三角形を注視判定三角形100として設定する(S43)。つまり,図9に示した三角形100を設定する。これにより,注視判定三角形の底辺の長さLが注視判定距離として求められ,頂点の注視点から底辺に下ろした垂線の長さ(三角形の高さ)Dが求められる。   Next, the gaze action determination unit 30 sets an isosceles triangle having the position of the gaze object as a vertex and the moving direction as a base from the point A as the gaze determination triangle 100 (S43). That is, the triangle 100 shown in FIG. 9 is set. As a result, the length L of the bottom of the gaze determination triangle is obtained as the gaze determination distance, and the length D of the perpendicular (triangle height) D drawn from the vertex gaze point to the bottom is obtained.

そして,注視行動判定部30は,この注視判定三角形100に基づいて,点Aでの人の頭部視線の方向の差分角度を第1の閾値として算出する(S44)。具体的には,図3の注視判定三角形100において,次の式が成り立つ。
tanθh1=D/(L/2)
L=2D/tanθh1
次に,図3の座標(x0,y0)と座標(x1,y1)の間の一歩の歩幅をSとし,それぞれの座標での頭部姿勢の底辺に対する角度をθh1,θh2とすると,次の式が成り立つ。
Δθ=θh2−θh1=abs{atan(d/(L/2-s))-atan(d/(L/2)}
ここで,absは絶対値である。このΔθが,座標(x0,y0)から座標(x1,y1)の間の一歩の移動による頭部姿勢の差分角度に対応し,第1の閾値に対応する。
Then, based on the gaze determination triangle 100, the gaze behavior determination unit 30 calculates the difference angle of the direction of the human head gaze at the point A as the first threshold (S44). Specifically, in the gaze determination triangle 100 of FIG.
tanθh1 = D / (L / 2)
L = 2D / tanθh1
Next, assuming that the step length of one step between the coordinates (x0, y0) and the coordinates (x1, y1) in FIG. 3 is S and the angles with respect to the bottom of the head posture at each coordinate are θh1 and θh2, The formula holds.
Δθ = θh2−θh1 = abs {atan (d / (L / 2-s))-atan (d / (L / 2)}
Where abs is an absolute value. This Δθ corresponds to the difference angle of the head posture due to one step movement between the coordinates (x0, y0) and the coordinates (x1, y1), and corresponds to the first threshold value.

上記の例は,差分角度のサンプリング周期が1歩の場合の例である。差分角度のサンプリング周期がN歩数であれば,上記の式のsを,s=Nsとすればよい。   The above example is an example in which the difference angle sampling period is one step. If the sampling period of the difference angle is N steps, s in the above equation may be set to s = Ns.

次に,注視行動判定部30は,注視判定三角形100の底辺の中心Cでの頭部姿勢の方向の差分角度を第2の閾値として算出する(S45)。図10に示されるとおり,中心Cでの両側bの一歩の歩幅sとすると,差分角度Δθは,次のとおり求めることができる。
Δθ=atan(s/D)
これが,第2の閾値として算出される。この例は,差分角度のサンプリング周期が1歩の場合の例である。差分角度のサンプリング周期がN歩数であれば,上記の式のsを,s=Nsとすればよい。
Next, the gaze action determination unit 30 calculates the difference angle of the head posture direction at the center C of the bottom side of the gaze determination triangle 100 as the second threshold value (S45). As shown in FIG. 10, when the step s of one step on both sides b at the center C is used, the difference angle Δθ can be obtained as follows.
Δθ = atan (s / D)
This is calculated as the second threshold value. In this example, the difference angle sampling cycle is one step. If the sampling period of the difference angle is N steps, s in the above equation may be set to s = Ns.

最後に,注視行動判定部30は,注視三角形100の底辺の長さLの所定比率(例えば30〜50%)のサンプリング数(1歩または所定歩数)か,注視判定に必要な最低サンプリング数を,第3の閾値として算出する。いずれか多いサンプリング数を第3の閾値とすることが望ましい。つまり,注視判定距離Lが長ければ所定比率のサンプリング数が,短ければ最低必要なサンプリング数が,第3の閾値として生成される。   Finally, the gaze action determination unit 30 calculates the sampling number (one step or a predetermined number of steps) of a predetermined ratio (for example, 30 to 50%) of the base length L of the gaze triangle 100 or the minimum sampling number necessary for the gaze determination. , Calculated as the third threshold value. It is desirable to set the larger sampling number as the third threshold value. That is, if the gaze determination distance L is long, the sampling number of a predetermined ratio is generated as the third threshold, and if it is short, the minimum necessary sampling number is generated as the third threshold.

図7に戻り,注視行動判定部30は,工程S26で第1,第2,第3の閾値を計算で求めたら,それらの閾値を,メモリ34に格納する。そして,注視行動判定部30は,工程S24で基準値を超えていると判定された差分角度Δθが,第1,第2の閾値の間に入っているか否かを判定する(S27)。すなわち,差分角度Δθが,図6の第1の閾値lowと第2の閾値highとの間にあるか否かを判定する。差分角度Δθが第1,第2の閾値の間に入っていない場合は(S27のNO),注視行動判定部30は,注視判定カウンタをクリアして,工程S21に戻る。つまり,差分角度Δθが基準値を超えた時点で設定した注視判定三角形に基づく閾値はキャンセルされる。   Returning to FIG. 7, the gaze behavior determination unit 30 stores the first, second, and third threshold values in the memory 34 after obtaining the first, second, and third threshold values in the process S <b> 26. Then, the gaze action determination unit 30 determines whether or not the difference angle Δθ determined to exceed the reference value in step S24 is between the first and second thresholds (S27). That is, it is determined whether or not the difference angle Δθ is between the first threshold low and the second threshold high in FIG. When the difference angle Δθ does not fall between the first and second threshold values (NO in S27), the gaze action determination unit 30 clears the gaze determination counter and returns to step S21. That is, the threshold value based on the gaze determination triangle set when the difference angle Δθ exceeds the reference value is canceled.

一方,差分角度Δθが第1,第2の閾値の間に入っている場合は(S27のYES),注視行動判定部30は,注視判定カウンタをインクリメントする(S28)。つまり,注視行動判定部30は,人は注視行動を開始したと推定し,注視判定カウンタのインクリメントを開始する。この場合は,設定した注視判定三角形に基づく閾値がその後利用される。   On the other hand, when the difference angle Δθ is between the first and second threshold values (YES in S27), the gaze action determination unit 30 increments the gaze determination counter (S28). That is, the gaze behavior determination unit 30 estimates that the person has started the gaze behavior and starts incrementing the gaze determination counter. In this case, a threshold value based on the set gaze determination triangle is subsequently used.

次に,注視行動判定部30は,注視判定カウンタの値が,第3の閾値を超えたか否かを判定する(S30)。最初は,未だ第3の閾値を超えていないので,工程S30の判定はNOである。   Next, the gaze action determination unit 30 determines whether or not the value of the gaze determination counter has exceeded the third threshold (S30). Initially, since the third threshold value has not yet been exceeded, the determination in step S30 is NO.

そして,工程S21から以下の工程が繰り返される。   And the following processes are repeated from process S21.

以上のとおり,図7のフローチャートの処理によれば,注視行動判定部30は,常時,歩数と頭部姿勢の検出データを読み込み,一歩または所定歩数の歩数が更新されるサンプリングタイミングでサンプリング間の頭部姿勢の差分角度を計算し,基準値より高い第1,第2の閾値の間にある場合は,注視カウンタをインクリメントする。そして,注視カウンタが第3の閾値に達したら(S30のYES),人の注視行動を認識する(S31)。   As described above, according to the processing of the flowchart of FIG. 7, the gaze action determination unit 30 always reads the detection data of the number of steps and the head posture, and performs sampling intervals at the sampling timing at which one step or a predetermined number of steps is updated. The difference angle of the head posture is calculated, and if it is between the first and second threshold values higher than the reference value, the gaze counter is incremented. When the gaze counter reaches the third threshold (YES in S30), the person's gaze behavior is recognized (S31).

そして,注視行動判定部30は,差分角度が第1,第2の閾値の間から外れたら(S27のNO),注視判定カウンタをクリアし(S29),計算した閾値もキャンセルして,判定を最初からやり直す。また,注視行動判定部30は,注視カウンタをクリアした後,再度差分角度が基準値を超えたら一度だけ,第1,第2,第3の閾値を計算する(S26)。このようにすることで,これらの閾値をダイナミックに変化させて,人の状況に適合した注視判定三角形に基づく閾値に基づいて,注視行動の判定を行うことができる。   When the difference angle falls outside the range between the first and second threshold values (NO in S27), the gaze action determination unit 30 clears the gaze determination counter (S29), cancels the calculated threshold value, and performs the determination. Start over from the beginning. Also, the gaze action determination unit 30 calculates the first, second, and third thresholds only once when the difference angle exceeds the reference value again after clearing the gaze counter (S26). By doing so, it is possible to determine the gaze behavior based on the threshold value based on the gaze determination triangle adapted to the situation of the person by dynamically changing these threshold values.

以上の通り,本実施の形態の注視判定装置によれば,人の頭部姿勢の方向の計測データと,歩数データとから,人がある展示物に注視して移動しているか否かを推定することがで,近似的に人の注視行動を抽出することができる。そのような注視行動を抽出することで,注視対象物についてのコンテンツを人が携帯する端末にプッシュ送信するなどのサービスを提供することができる。   As described above, according to the gaze determination device of the present embodiment, it is estimated whether or not a person is moving while paying attention to an exhibit from the measurement data of the direction of the head posture of the person and the number of steps data. By doing so, it is possible to approximately extract the gaze behavior of a person. By extracting such gaze behavior, it is possible to provide a service such as push transmission of content about a gaze target to a terminal carried by a person.

20:頭部姿勢計測部
24:歩数計測部
20: Head posture measurement unit 24: Step count measurement unit

Claims (6)

移動中の人が特定の対象物を注視する注視行動中であることを推定する注視行動推定装置であって,
前記人の頭部に取り付けられ頭部の絶対方向を測定する頭部姿勢計測部と,
前記人の身体に取り付けられ歩数を測定する歩数計測部と,
前記測定された頭部の絶対方向と歩数に基づいて,一歩または所定の歩数毎の前記頭部の絶対方向の差分角度を生成し,前記差分角度が,第1,第2の閾値の間に,連続して第3の閾値回数維持されたことを検出したときに,前記人が前記注視行動を行っていると判定する注視行動判定部とを有する注視行動推定装置。
A gaze behavior estimation device for estimating that a moving person is gaze behavior to gaze at a specific object,
A head posture measuring unit attached to the head of the person for measuring the absolute direction of the head;
A step counting unit attached to the human body for measuring the number of steps;
Based on the measured absolute direction of the head and the number of steps, a difference angle of the absolute direction of the head for each step or every predetermined number of steps is generated, and the difference angle is between the first and second threshold values. , A gaze behavior estimation device having a gaze behavior determination unit that determines that the person is performing the gaze behavior when it is detected that the third threshold number of times is continuously maintained.
請求項1において,
前記注視行動判定部は,
前記人の注視開始位置と前記人の移動方向と前記頭部の絶対方向とに基づいて,前記人が注視する注視対象物を検出し,
前記注視対象物の位置を頂点とし前記人の注視開始位置からの移動方向を底辺とする三角形の前記人の注視開始位置での前記差分角度を前記第1の閾値として,前記三角形の底辺の前記頂点に最も近接する位置での前記差分角度を前記第2の閾値として生成する注視行動推定装置。
In claim 1,
The gaze behavior determination unit
Based on the gaze start position of the person, the movement direction of the person, and the absolute direction of the head, the gaze object that the person gazes at is detected,
The difference angle at the gaze start position of the person having the apex at the position of the gaze object and the base of the moving direction from the gaze start position of the person is the first threshold value, and the difference angle at the gaze start position of the person is the first threshold. A gaze action estimation device that generates the difference angle at a position closest to a vertex as the second threshold.
請求項2において,
前記注視行動判定部は,前記三角形の底辺の所定比率の距離に対応する回数を前記第3の閾値として生成する注視行動推定装置。
In claim 2,
The gaze behavior determination unit is configured to generate a gaze behavior estimation device that generates, as the third threshold value, the number of times corresponding to a predetermined ratio distance of the base of the triangle.
請求項2において,
前記注視行動判定部は,前記注視対象物の検出を,複数の対象物の位置データを検索して,前記人の注視開始位置と前記頭部の絶対方向とに基づく注視対象位置に最も近い位置の対象物を検出することで行う注視行動推定装置。
In claim 2,
The gaze behavior determination unit is configured to detect the gaze object by searching position data of a plurality of objects, and a position closest to the gaze target position based on the gaze start position of the person and the absolute direction of the head Gaze action estimation device performed by detecting a target object.
移動中の人が特定の対象物を注視する注視行動中であることを推定する注視行動推定方法であって,
前記人の頭部に取り付けられ頭部の絶対方向を測定する頭部姿勢計測部からの計測データと,前記人の身体に取り付けられ歩数を測定する歩数計測部からの歩数データとに基づいて,一歩または所定の歩数毎の前記頭部の絶対方向の差分角度を生成し,前記差分角度が,第1,第2の閾値の間に,連続して第3の閾値回数維持されたことを検出したときに,前記人が前記注視行動を行っていると判定する注視行動判定工程を有する注視行動推定方法。
A gaze behavior estimation method for estimating that a moving person is gazing at a specific object,
Based on the measurement data from the head posture measurement unit that is attached to the human head and measures the absolute direction of the head, and the step count data from the step measurement unit that is attached to the human body and measures the number of steps, Generate a difference angle in the absolute direction of the head for each step or a predetermined number of steps, and detect that the difference angle is continuously maintained for the third threshold number of times between the first and second thresholds A gaze behavior estimation method including a gaze behavior determination step of determining that the person is performing the gaze behavior when the person performs the gaze behavior.
移動中の人が特定の対象物を注視する注視行動中であることを推定する注視行動推定方法を処理する注視行動推定プログラムであって,
前記注視行動推定方法は,
前記人の頭部に取り付けられ頭部の絶対方向を測定する頭部姿勢計測部からの計測データと,前記人の身体に取り付けられ歩数を測定する歩数計測部からの歩数データとに基づいて,一歩または所定の歩数毎の前記頭部の絶対方向の差分角度を生成し,前記差分角度が,第1,第2の閾値の間に,連続して第3の閾値回数維持されたことを検出したときに,前記人が前記注視行動を行っていると判定する注視行動判定工程を有する注視行動推定プログラム。
A gaze behavior estimation program for processing a gaze behavior estimation method for estimating that a moving person is gaze behavior to gaze at a specific object,
The gaze behavior estimation method includes:
Based on the measurement data from the head posture measurement unit that is attached to the human head and measures the absolute direction of the head, and the step count data from the step measurement unit that is attached to the human body and measures the number of steps, Generate a difference angle in the absolute direction of the head for each step or a predetermined number of steps, and detect that the difference angle is continuously maintained for the third threshold number of times between the first and second thresholds A gaze behavior estimation program comprising a gaze behavior determination step for determining that the person is performing the gaze behavior when the person performs the gaze behavior.
JP2012205326A 2012-09-19 2012-09-19 Gaze behavior estimation device, gaze behavior estimation method, and gaze behavior estimation program Expired - Fee Related JP5920136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012205326A JP5920136B2 (en) 2012-09-19 2012-09-19 Gaze behavior estimation device, gaze behavior estimation method, and gaze behavior estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012205326A JP5920136B2 (en) 2012-09-19 2012-09-19 Gaze behavior estimation device, gaze behavior estimation method, and gaze behavior estimation program

Publications (2)

Publication Number Publication Date
JP2014059788A true JP2014059788A (en) 2014-04-03
JP5920136B2 JP5920136B2 (en) 2016-05-18

Family

ID=50616192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012205326A Expired - Fee Related JP5920136B2 (en) 2012-09-19 2012-09-19 Gaze behavior estimation device, gaze behavior estimation method, and gaze behavior estimation program

Country Status (1)

Country Link
JP (1) JP5920136B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157463A (en) * 2004-11-29 2006-06-15 National Institute Of Advanced Industrial & Technology Work state recorder, and its recording method, and recording program
JP2007181071A (en) * 2005-12-28 2007-07-12 Shunkosha:Kk Apparatus and method for evaluating attention paid to contents
US7529025B1 (en) * 2004-03-29 2009-05-05 Karterman Don S Audio and visual display
JP2010146412A (en) * 2008-12-19 2010-07-01 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for selecting content
JP2010268157A (en) * 2009-05-13 2010-11-25 Fujifilm Corp Image processing unit, method of processing image, and program
JP2011049773A (en) * 2009-08-26 2011-03-10 Panasonic Corp Output controller, and output control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7529025B1 (en) * 2004-03-29 2009-05-05 Karterman Don S Audio and visual display
JP2006157463A (en) * 2004-11-29 2006-06-15 National Institute Of Advanced Industrial & Technology Work state recorder, and its recording method, and recording program
JP2007181071A (en) * 2005-12-28 2007-07-12 Shunkosha:Kk Apparatus and method for evaluating attention paid to contents
JP2010146412A (en) * 2008-12-19 2010-07-01 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for selecting content
JP2010268157A (en) * 2009-05-13 2010-11-25 Fujifilm Corp Image processing unit, method of processing image, and program
JP2011049773A (en) * 2009-08-26 2011-03-10 Panasonic Corp Output controller, and output control method

Also Published As

Publication number Publication date
JP5920136B2 (en) 2016-05-18

Similar Documents

Publication Publication Date Title
JP5724237B2 (en) Walking change judgment device
JP6674791B2 (en) Congestion degree estimation method, number of persons estimation method, congestion degree estimation program, number of persons estimation program, and number of persons estimation system
CN106572814B (en) Device and method for classifying user activity and/or counting user steps
CN106470877B (en) Vehicle display device and vehicle display method
US10545031B2 (en) Portable terminal device, recording medium, and correction method
US20150088408A1 (en) Pedestrian observation system, recording medium, and estimation of direction of travel
US9158738B2 (en) Apparatus for monitoring vicinity of a vehicle
US10504381B2 (en) On-running landing position evaluation method, on-running landing position evaluation apparatus, detection method, detection apparatus, running motion evaluation method, and running motion evaluation apparatus
US20120123735A1 (en) Walking situation detection device, walking situation detection method, and walking situation detection program
CA3010997C (en) Passenger counting device, system, method and program, and vehicle movement amount calculation device, method and program
US10130843B2 (en) Electronic device, control program, control method, and system
JP2013008328A (en) Vehicle periphery monitoring system
US20150120022A1 (en) Training supporting apparatus and system for supporting training of walking and/or running
CN105841695B (en) Information processing apparatus, information processing method, and recording medium
JP6024134B2 (en) Status detection device, electronic device, measurement system, and program
JP2012037452A (en) Walking azimuth detection apparatus and walking azimuth detection method
JP6044971B2 (en) Estimated azimuth angle evaluation apparatus, mobile terminal apparatus, estimated azimuth angle evaluation apparatus control program, computer-readable recording medium, estimated azimuth angle evaluation apparatus control method, and positioning apparatus
JP2019198532A (en) Detection method, detection device and detection system
JP2017208007A5 (en)
JP2017208007A (en) Face orientation estimation device and face orientation estimation method
JP2009012521A (en) Traveling support system and traveling support method for vehicle
JP5920136B2 (en) Gaze behavior estimation device, gaze behavior estimation method, and gaze behavior estimation program
CN107782302B (en) Method, device and system for realizing positioning based on lower limb movement
JP2017059089A (en) Number-of-steps measurement device, number-of-steps measurement method and program
US20150177832A1 (en) Electronic Device, Display Control Method, and Recording Medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160328

R150 Certificate of patent or registration of utility model

Ref document number: 5920136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees