JP2001008197A - Device for analyzing human action and recording medium for recording human action analytic program - Google Patents

Device for analyzing human action and recording medium for recording human action analytic program

Info

Publication number
JP2001008197A
JP2001008197A JP11177839A JP17783999A JP2001008197A JP 2001008197 A JP2001008197 A JP 2001008197A JP 11177839 A JP11177839 A JP 11177839A JP 17783999 A JP17783999 A JP 17783999A JP 2001008197 A JP2001008197 A JP 2001008197A
Authority
JP
Japan
Prior art keywords
person
observer
space
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11177839A
Other languages
Japanese (ja)
Other versions
JP3489491B2 (en
Inventor
Yuichi Nino
裕一 仁野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP17783999A priority Critical patent/JP3489491B2/en
Publication of JP2001008197A publication Critical patent/JP2001008197A/en
Application granted granted Critical
Publication of JP3489491B2 publication Critical patent/JP3489491B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

PROBLEM TO BE SOLVED: To precisely analyze human action by automatically detecting the point under consideration of a person under an environment in which the position/direction of the person is arbitrarily changed. SOLUTION: Which region in a space can be observed by each line of sight detecting device is preliminarily stored in an observable region storing part 2, and the layout of space to be monitored and the position of an article to be investigated for judging whether or not the article is noticed by a person are written in a space map storing part 3, and the space to be monitored is divided according to the size of the observable range of the line of sight detecting device 1 so that all the lines of sight to each article to be investigated can be observed even when the person stands at any position and in any direction, and the plural line of sight detecting devices are arranged as necessary by removing any dead angle so that the lines of sight can be detected even when the person stands in any direction in each region.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、人物の行動を解析
する装置及びプログラムを記録した媒体に係わり、特
に、監視対象となる空間内で人物の移動軌跡や、空間内
の各地点における人物の注目対象を自動収集する人物行
動解析装置及び人物行動解析プログラムを記録した記録
媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for analyzing the behavior of a person and a medium on which a program is recorded. In particular, the present invention relates to a trajectory of a person in a space to be monitored and a person's movement at each point in the space. The present invention relates to a person behavior analysis device that automatically collects a target of interest and a recording medium that records a person behavior analysis program.

【0002】[0002]

【従来の技術】従来、この種の人物行動解析手法は、人
物の視線方向を検出し、監視対象となる空間内に存在す
る商品や広告などに対する注目度や関心度を分析するた
めに用いられている。
2. Description of the Related Art Conventionally, this kind of human behavior analysis method is used to detect the gaze direction of a person and analyze the degree of attention or interest in goods, advertisements, etc. existing in a space to be monitored. ing.

【0003】また、人物の視線方向を検出するための従
来技術としては、接触型と非接触型の2つの技術に大別
される。
[0003] Conventional techniques for detecting the direction of the line of sight of a person are roughly classified into two types: contact type and non-contact type.

【0004】接触型の従来技術の手法として、特開平0
6−347866号公報に記載されているようなアイカ
メラを用いた技術が知られている。このアイカメラは、
自分の視線方向を検出するために、眼球に近赤外線を照
射し、反射光をビデオカメラで撮影することにより視線
方向を検出するが、近赤外線の照射装置/ビデオカメラ
を眼球部に接触あるいは近接させているため、頭部の動
きに無関係に眼球の動き、すなわち視線方向が検出でき
る特徴を有する。
[0004] As a contact-type conventional technique, Japanese Patent Laid-Open No.
A technique using an eye camera as described in JP-A-6-347866 is known. This eye camera is
In order to detect the direction of the user's line of sight, the eyeball is irradiated with near-infrared light and the reflected light is captured by a video camera to detect the direction of the line of sight. Because of this, the movement of the eyeball, that is, the gaze direction can be detected regardless of the movement of the head.

【0005】また、非接触型の手法として、CCDカメ
ラなどの撮像装置で撮像された画像から人物の視線方向
を推定する手法が多く提案されている。例えば、顔領域
が楕円に近いことを利用してその主軸の傾きから顔の向
きを推定する手法が、1998年4月に開催された 第
2回顔とジェスチャの自動認識に関する国際シンポジウ
ムで発行された講演集第83〜93頁にある(pp.88-93,
The 2nd International Symposium on Automatic Face
and Gesture Recognition,Nara,Apl.1998)の谷内田(Yac
hida)らによる「スリーディー ヘッド ポーズ エスティ
メーション ウィズアウト フィーチャー トラッキング
(3D Head Pose Estimation without Feature Trackin
g)」によって紹介されている。また、目、鼻、口のよう
な顔面上の特徴点の位置関係の見かけの形状変化をもと
に視線方向を推定する手法が、1998年10月アイト
リプルイーのコンピュータビジョンのアプリケーション
に関するワークショップの講演集第256-257頁に
ある(pp.256-257,IEEE workshop on Applications of C
omputer Vision, Princeton, Oct.1998)のストックマン
(George Stockman)らによる「リアルタイム トラッキ
ング オブ フェースフィーチャーズ アンド ゲイズ デ
ィレクション ディターミネーション(Real-time Tracki
ng of Face Features and Gaze Direction Determinati
on)」に紹介されている。
[0005] Further, as a non-contact type method, many methods have been proposed for estimating the line of sight of a person from an image picked up by an image pickup device such as a CCD camera. For example, a method of estimating the orientation of a face from the inclination of its principal axis using the fact that the face region is close to an ellipse was published at the 2nd International Symposium on Automatic Face and Gesture Recognition held in April 1998. Pp.83-93 (pp.88-93,
The 2nd International Symposium on Automatic Face
and Gesture Recognition, Nara, Apl. 1998)
hida) et al. “3D Head Pose Estimation Without Feature Tracking
(3D Head Pose Estimation without Feature Trackin
g) ”. Also, a method of estimating a gaze direction based on an apparent shape change of a positional relationship between feature points on a face such as an eye, a nose, and a mouth was disclosed in October 1998 by a workshop on application of computer vision by iTripleE. (Pp.256-257, IEEE workshop on Applications of C)
omputer Vision, Princeton, Oct. 1998) by George Stockman et al., "Real-time Tracking of Face Features and Gaze Direction Termination (Real-time Tracki).
ng of Face Features and Gaze Direction Determinati
on) ".

【0006】このように、人物の視線方向を検出する手
法は、接触型と非接触型に大別されるが、ある空間内に
存在する商品や広告などに対する注目度や関心度を分析
することを考えると、観測者に対し何らかのセンサを取
り付ける接触型の手法を用いることは、観測者に対して
負担をかけてしまい好ましくない。よって、この手の人
物行動解析手法には、非接触型の視線方向検出手法が用
いられることが好ましい。非接触型の視線方向検出手法
を用いた人物行動解析手法の従来技術としては、特開平
11−24603号公報に記載されている手法が知られ
ている。
[0006] As described above, the method of detecting the direction of the line of sight of a person is roughly classified into a contact type and a non-contact type. However, it is necessary to analyze the degree of attention or interest in a product or advertisement existing in a certain space. In consideration of this, it is not preferable to use a contact-type method of attaching some kind of sensor to the observer because it places a burden on the observer. Therefore, it is preferable to use a non-contact gaze direction detection method as the human behavior analysis method of this kind. As a conventional technique of a person behavior analysis technique using a non-contact type gaze direction detection technique, a technique described in Japanese Patent Application Laid-Open No. H11-24603 is known.

【0007】ここで、この特開平11−24603号公
報に開示されている構成のブロック図を図11に示し、
以下、この図11を用いて従来技術の手法を説明する。
FIG. 11 is a block diagram showing a configuration disclosed in Japanese Patent Application Laid-Open No. H11-24603.
Hereinafter, a conventional technique will be described with reference to FIG.

【0008】提示情報記憶部14には、注目度や関心度
を分析する映像(主にコマーシャル)が格納されてお
り、この映像は表示部18を介して表示される。次に、
カメラ19によって、表示部18に表示されている映像
を鑑賞している人物を撮像し、視線検出部12は、上記
の非接触型の視線検出手法を用いてその人物の視線方向
を検出する。判断部20では、視線検出部12から得ら
れる視線方向が表示部18に表示している映像のどの箇
所に対応するかを計算し、この計算結果を収集情報記憶
部16に記憶させる。
[0008] The presentation information storage section 14 stores an image (mainly a commercial) for analyzing the degree of attention and the degree of interest, and this image is displayed via the display section 18. next,
The camera 19 captures an image of a person watching the image displayed on the display unit 18, and the line-of-sight detection unit 12 detects the line-of-sight direction of the person using the above-described non-contact type line-of-sight detection method. The determination unit 20 calculates which part of the video displayed on the display unit 18 the gaze direction obtained from the gaze detection unit 12 corresponds to, and stores the calculation result in the collection information storage unit 16.

【0009】[0009]

【発明が解決しようとする課題】上記従来の技術の第1
の課題は、観測者が撮像装置(カメラ)からある程度離
れてしまうと、精度のよい視線検出は極めて困難となる
ことである。その理由は、撮像装置の解像度によって人
物の視線方向を算出しているので、撮像装置からある程
度離れた場所に人物がいると、正しい視線方向が検出で
きないからである。
SUMMARY OF THE INVENTION The first of the prior arts described above.
The problem is that if the observer moves away from the imaging device (camera) to some extent, it is extremely difficult to perform accurate gaze detection. The reason is that the gaze direction of the person is calculated based on the resolution of the imaging device, so that if a person is located at a certain distance from the imaging device, the correct gaze direction cannot be detected.

【0010】また、従来の技術の第2の課題は、観測者
の顔の向いている方向が撮像装置に対してずれている場
合に視線方向が検出されないので、観測者がどのように
移動したかなど、必ずしも観測者の行動解析が行えない
点である。その理由は、従来の技術は視線方向を検出し
てその視線方向にある注目点をカウントするだけであ
り、視線方向が検出できない観測者についてどのような
行動を取ったのかを知る手段がないためである。
A second problem of the prior art is that the direction of the line of sight is not detected when the direction of the face of the observer is shifted with respect to the image pickup device, so how the observer moves. It is not always possible to analyze the behavior of the observer. The reason is that the conventional technology only detects the gaze direction and counts the point of interest in the gaze direction, and there is no means to know what action was taken for an observer who could not detect the gaze direction. It is.

【0011】よって、本願発明の目的は、上述した従来
技術の課題を解決する人物行動解析装置を提供すること
にある。
Accordingly, an object of the present invention is to provide a human behavior analysis device which solves the above-mentioned problems of the prior art.

【0012】[0012]

【課題を解決するための手段】本発明の第1の人物行動
解析装置は、監視対象となる空間において、人物がどの
位置/向きに立っていても調査対象となる各物品に対す
る視線をなるべく網羅して観測可能なように、視線検出
装置(図1の1)の観測可能範囲の大きさに合わせて監
視対象となる空間を分割して複数配置する。この視線検
出装置は、それぞれの領域において人物がどの向きに向
いても視線検出が可能なように、視線検出装置を死角の
ないように必要に応じて配置されていることが望まし
い。また、観測可能領域記憶部(図1の2)には、各視
線検出装置が空間中のどの領域において観測可能かを記
憶しておき、空間地図記憶部(図1の3)では、監視対
象となる空間のレイアウトと人物に注目されているかど
うか調査する物品の位置を記載しておく。
According to the first aspect of the present invention, there is provided a human behavior analysis apparatus that covers a line of sight for each article to be investigated as much as possible, regardless of the position / orientation of a person in a space to be monitored. A plurality of spaces to be monitored are divided and arranged in accordance with the size of the observable range of the eye-gaze detecting device (1 in FIG. 1) so that observation is possible. It is desirable that this line-of-sight detection device is arranged as necessary so that the line-of-sight detection device does not have a blind spot so that the line of sight can be detected regardless of the direction of the person in each area. In the observable area storage unit (2 in FIG. 1), which area in the space each gaze detecting device can observe is stored, and in the spatial map storage unit (3 in FIG. 1), The layout of the space to be used and the position of the article to be checked whether or not the person is paying attention are described.

【0013】次に、人物位置検出部(図1の4)で監視
カメラ/赤外線センサ/圧力センサ/無線などを用いて
人物が空間中のどの位置に存在するか検出し、装置選択
部(図1の5)において、人物位置検出部で検出された
位置の人物はどの視線検出装置で観測可能かを観測可能
領域記憶部の情報をもとに判断し、必要な視線検出装置
を1つまたは複数選択する。視線決定部(図1の6)で
は、先程選択された視線検出装置の処理結果を統合して
最終的な人物の視線方向を決定する。人物注目対象検出
部(図1の7)では、人物位置検出部で検出された人物
位置から視線決定部で検出された視線方向に存在する物
品を空間地図記憶部の情報を参照しながら推定し、その
物品を人物の注目対象として抽出する。人物注目対象記
憶部8(図1の8)は、人物注目対象検出部で検出され
た注目対象を人物別に測定時刻とともに記録する。
Next, a person position detecting section (4 in FIG. 1) detects where the person is in the space by using a surveillance camera / infrared sensor / pressure sensor / wireless, etc., and a device selecting section (FIG. 1). In 1-5), it is determined based on the information in the observable area storage unit which gaze detection device the person at the position detected by the person position detection unit can observe, and one or more necessary gaze detection devices are determined. Select multiple. The gaze determination unit (6 in FIG. 1) integrates the processing results of the gaze detection device selected previously to determine the final gaze direction of the person. The person-of-interest target detection unit (7 in FIG. 1) estimates, based on the information in the spatial map storage unit, the articles present in the line-of-sight direction detected by the line-of-sight determination unit from the person position detected by the person position detection unit. Then, the article is extracted as a person's attention target. The person attention target storage unit 8 (8 in FIG. 1) records the attention target detected by the person attention target detection unit along with the measurement time for each person.

【0014】よって、本発明の第1の人物行動解析装置
は、複数の視線検出装置を用いて観測者の視線方向を検
出し、観測対象となる空間における観測者の位置を検出
することによって、この検出された観測者の位置に対応
する視線検出装置を選択し、この選択された視線検出装
置の視線方向情報から観測者の注目対象を検出している
ので、観測対象となる人物が撮像装置からある程度離れ
てしまうと、精度のよい視線検出は極めて困難となると
いう第1の課題を解決できる。
Therefore, the first human behavior analysis device of the present invention detects the direction of the observer's line of sight using a plurality of line-of-sight detecting devices, and detects the position of the observer in the space to be observed. The gaze detection device corresponding to the detected position of the observer is selected, and the target of the observer is detected from the gaze direction information of the selected gaze detection device. The first problem that it becomes extremely difficult to accurately detect the line of sight when the sight line is separated to some extent.

【0015】本発明の第2の人物行動解析装置は、第1
の人物行動解析装置の構成に加えて、人物位置検出部で
得られた人物位置情報を測定時刻とともに記録する人物
動線記憶部9を有する。
[0015] The second person behavior analysis apparatus of the present invention comprises a first person behavior analysis apparatus.
In addition to the configuration of the person behavior analysis device of the above, a person movement line storage unit 9 that records the person position information obtained by the person position detection unit together with the measurement time is provided.

【0016】よって、本発明の第2の人物行動解析装置
は、人物位置情報によって、観測者が空間内でどのよう
に移動したかについても解析できるので、従来技術のよ
うに、観測者の顔の向いている方向が撮像装置に対して
ずれている場合に、その観測者がどのような行動を取っ
たか分からないという第2の課題を解決できる。
Therefore, the second person behavior analysis device of the present invention can analyze how the observer moves in the space based on the person position information. The second problem that it is not possible to know what action the observer has taken when the direction in which the observer is displaced with respect to the imaging device can be solved.

【0017】本発明の第3の人物行動解析装置は、第1
または第2の人物行動解析装置の装置選択部で選択され
た画像をモニタ(図3の10)に表示し、人物画像記憶
部(図3の11)で個別の人物画像を保存するので、従
来の監視システムと同様の役割を持たせることができ
る。
According to a third person behavior analysis device of the present invention,
Alternatively, the image selected by the device selection unit of the second person behavior analysis device is displayed on a monitor (10 in FIG. 3), and individual person images are stored in a person image storage unit (11 in FIG. 3). Can have the same role as the monitoring system.

【0018】[0018]

【発明の実施の形態】次に、本発明の実施の形態につい
て、図面を参照して詳細に説明する。
Next, an embodiment of the present invention will be described in detail with reference to the drawings.

【0019】[第1の実施の形態]まず、本発明の第1
の人物行動解析装置の実施の形態を説明する (構成の説明)図1は、本発明の第1の人物行動解析装
置の構成の一実施の形態を示したブロック図である。
[First Embodiment] First, the first embodiment of the present invention will be described.
DESCRIPTION OF THE PREFERRED EMBODIMENTS OF THE PERSON ANALYSIS APPARATUS (Description of Configuration) FIG. 1 is a block diagram showing an embodiment of the configuration of the first human behavior analysis apparatus of the present invention.

【0020】この図1を参照すると、本発明の第1の人
物行動解析装置は、視線検出装置1と、観測可能領域記
憶部2と、空間地図記憶部3と、人物位置検出部4と装
置選択部5と、視線決定部6と、人物注目対象検出部7
と、人物注目対象記憶部8とを有して構成されている。
Referring to FIG. 1, a first person behavior analysis device according to the present invention comprises a gaze detection device 1, an observable area storage unit 2, a spatial map storage unit 3, a person position detection unit 4, and a device. Selection unit 5, gaze determination unit 6, person attention target detection unit 7
And a person attention target storage unit 8.

【0021】視線検出装置1は、観測対象となる空間内
に複数配置され、観測者(人物)の視線方向を検出す
る。また、視線検出装置1は、監視対象となる空間内に
観測者がどの向きにいても、視線方向が検出できるよう
に配置されていることが好ましい。また、この視線検出
装置1は、従来の技術で述べた谷内田やストックマンの
手法をそのまま用いてもよいし、他に代用する装置があ
ればそれを用いてもよい。
A plurality of eye-gaze detecting devices 1 are arranged in a space to be observed and detect the gaze direction of an observer (person). Further, it is preferable that the line-of-sight detection device 1 is arranged so that the line-of-sight direction can be detected regardless of the direction of the observer in the space to be monitored. In addition, the eye-gaze detecting device 1 may use the method of Yauchida or Stockman described in the related art as it is, or may use another device if there is another substitute.

【0022】観測可能領域記憶部2は、位置情報から各
視線検出装置1のどの領域において視線方向の検出が可
能かを記憶している。
The observable area storage unit 2 stores in which area of each gaze detection device 1 the gaze direction can be detected from the position information.

【0023】空間地図記憶部3では、監視対象となる空
間のレイアウトと、観測者が注目しているかどうかを調
査する物品の位置を記載している。
The space map storage unit 3 describes the layout of the space to be monitored and the position of the article to be checked whether the observer is paying attention.

【0024】人物位置検出部4は、観測対象となる空間
内で、観測者がどの位置にいるかを検出し、その位置情
報を出力する。具体的には、監視カメラ・赤外線センサ
・圧力センサ・無線などの公知の技術を用いて、観測者
が空間中のどの位置に存在するか検出できればよい。
The person position detector 4 detects the position of the observer in the space to be observed and outputs the position information. Specifically, it is only necessary that the observer can detect where in the space the observer is located using a known technique such as a monitoring camera, an infrared sensor, a pressure sensor, and a wireless communication.

【0025】装置選択部5は、観測可能領域記憶部2を
参照して、人物位置検出部4で検出された観測者の位置
に対応してこの観測者の視線方向を検出可能な視線検出
装置1を選択する。
The apparatus selecting section 5 refers to the observable area storage section 2 and detects the line of sight of the observer in accordance with the position of the observer detected by the person position detecting section 4. Select 1.

【0026】視線決定部6は、装置選択部5によって選
択された視線検出装置1で検出された視線方向情報を参
照して観測者の視線方向を最終的に決定する。また、装
置選択部5で選択される視線検出装置1は、1つとは限
らず複数の場合も考えられる。この場合は、複数の視線
選出装置1から得られる視線方向情報の平均を取るなど
して視線方向情報を統合するようにしてもよい。
The line-of-sight determining unit 6 finally determines the line-of-sight direction of the observer with reference to the line-of-sight direction information detected by the line-of-sight detecting device 1 selected by the device selecting unit 5. In addition, the number of gaze detection devices 1 selected by the device selection unit 5 is not limited to one, and a plurality of cases may be considered. In this case, the gaze direction information may be integrated by, for example, averaging gaze direction information obtained from the plurality of gaze selection devices 1.

【0027】人物注目対象検出部7は、空間地図記憶部
3を参照し、人物位置検出部4で検出された人物位置か
ら視線決定部6で検出された視線方向に存在する物品を
観測者の注目対象として抽出する。
The person-of-interest target detecting section 7 refers to the spatial map storage section 3 and, based on the position of the person detected by the person position detecting section 4, identifies an article present in the line of sight detected by the line of sight determining section 6. Extract as a target of interest.

【0028】人物注目対象記憶部8は、人物注目対象検
出部7が抽出した注目対象を記憶する。
The person attention target storage unit 8 stores the attention object extracted by the person attention target detection unit 7.

【0029】(動作の説明)次に、図5に示した第1の
人物行動解析装置の動作の一実施の形態を示したフロー
チャートをもとに本実施の形態における動作を説明す
る。
(Explanation of Operation) Next, the operation in the present embodiment will be described based on a flowchart showing an embodiment of the operation of the first person behavior analysis apparatus shown in FIG.

【0030】ここで挙げる例としては、監視対象となる
空間として図6に示したような通路のような細長い空間
を挙げる。図6において、Si(i = 1〜M)は監視対象
となる空間を分割したもので、分割された各空間では視
線検出装置1によって観測可能な大きさになっている。
Ci1〜Ci4(i = 1〜M)は各Siに対して4方向に配置さ
れた視線検出装置1で、Siに存在する観測者に対してど
れかの観測装置で観測者の顔を捕捉でき、観測者の注視
点が推定できるようになっている。ただし、このCi、Si
はあくまで例である。SiはCiの観測可能範囲から自動的
に求められるようにしてもよい。また、aj(j = 1
〜N)は、観測者に注目されているかどうか調査する各
物品の位置を示している。また、図6の中のCM3、CM4
については、これらがあることによって観測される視
線方向によって検出されるであろう注目点の集合Trefの
中にaj(j = 1〜N)が存在しない。このような視線
検出装置1については特に配置しなくてもよい。また、
この図6に示した監視対象となる空間のレイアウトや、
観測者が注目しているかどうかを調査する物品の位置に
関する情報は、空間地図記憶部3に記憶され、また、各
領域Si(i = 1〜M)の位置情報と対応する視線検出装
置が観測可能な領域に関する情報は観測可能領域記憶部
2に予め記憶されているものとする。
As an example given here, an elongated space such as a passage as shown in FIG. 6 is used as a space to be monitored. In FIG. 6, Si (i = 1 to M) is a divided space to be monitored, and each of the divided spaces has a size that can be observed by the visual line detection device 1.
Ci1 to Ci4 (i = 1 to M) are eye-gaze detecting devices 1 arranged in four directions with respect to each Si, and the observer's face can be captured by any of the observing devices with respect to the observer existing in the Si. , The observer's gazing point can be estimated. However, this Ci, Si
Is only an example. Si may be automatically obtained from the observable range of Ci. Also, aj (j = 1
-N) indicate the position of each article to be investigated to see if it is noticed by the observer. Further, CM3 and CM4 in FIG.
, There is no aj (j = 1 to N) in the set of points of interest Tref that will be detected by the line of sight observed due to these. Such a line-of-sight detection device 1 does not need to be particularly arranged. Also,
The layout of the space to be monitored shown in FIG.
The information on the position of the article to be investigated whether the observer is paying attention is stored in the space map storage unit 3 and the line-of-sight detection device corresponding to the position information of each area Si (i = 1 to M) performs observation. It is assumed that information on the possible area is stored in the observable area storage unit 2 in advance.

【0031】この図6のような監視対象となる空間にお
いて、まず、人物位置検出部4で監視カメラ、赤外線セ
ンサ、圧力センサ、無線などの既存の技術を用いて観測
者が空間内のどの位置に存在するか検出する(図5、ス
テップ1)。赤外線センサ、圧力センサ、無線を用いる
場合は、各領域Si内部の人の所在を検出できるようにセ
ンサを配置すれば良い。この実施の形態では、空間上部
に配置した特に図示しない監視カメラを用いて観測者の
空間内の位置を検出する手法について説明する。
In the space to be monitored as shown in FIG. 6, first, the person position detecting unit 4 allows the observer to use any existing technology such as a monitoring camera, an infrared sensor, a pressure sensor, and wireless communication to determine the position in the space. Is detected (step 1 in FIG. 5). When an infrared sensor, a pressure sensor, or a wireless communication is used, the sensors may be arranged so as to detect the location of a person inside each area Si. In this embodiment, a method of detecting the position of an observer in a space using a surveillance camera (not shown) arranged above the space will be described.

【0032】図4にこの場合の人物位置検出部4の詳し
い一構成例を示したブロック図を示す。
FIG. 4 is a block diagram showing a detailed configuration example of the person position detecting section 4 in this case.

【0033】画像入力部41は、魚眼カメラや広角カメ
ラなど、空間の広範囲を撮影することの可能なカメラ
(Hyper Omni Vision(参考:山澤、八木、谷内田:“移
動ロボットのナビゲーションのための全方位センサHype
r Omni Vision の提案”電子情報通信学会論文誌D-II,V
ol.J79-D-II,No.5,pp.698-707(1996))などの全方位カ
メラ)によって、監視対象となる空間の全体を示す画像
を入力する。
The image input unit 41 is a camera (Hyper Omni Vision (see: Yamasawa, Yagi, Yanaida: “All for navigation of mobile robots”) such as a fish-eye camera and a wide-angle camera that can capture a wide range of space. Orientation sensor Hype
r Proposal of Omni Vision ”IEICE Transactions D-II, V
ol. J79-D-II, No. 5, pp. 698-707 (1996)) or the like, and inputs an image showing the entire space to be monitored.

【0034】人物検出部42は、画像入力部41で得た
画像から人物像を抽出する。人物像を抽出する手法とし
ては、1998年4月第2回顔とジェスチャの自動認識
に関する国際シンポジウムの222-227頁に記載の
(pp.222-227,The 2nd International Conference on Fa
ce and Gesture Recognition) ハリタオグル(Haritaogl
u)らの「ダブル4:フー?フェン?フェア?ファット?
ア リアルタイム システム フォー ディテクティング
(W4: Who? When? Where? What? A Realtime System fo
r Detecting and Tracking People)」等多くの手法があ
るが、複数の人物がフレームによって重なることがあっ
ても、過去の移動履歴をもとにそれぞれの人物が別々に
抽出できる手法であれば何でもよい。
The person detecting section 42 extracts a person image from the image obtained by the image input section 41. A method for extracting a human image is described in the second international symposium on automatic face and gesture recognition in April 1998, pp. 222-227.
(pp.222-227, The 2nd International Conference on Fa
ce and Gesture Recognition) Haritaogl
u) et al. “Double 4: Who? Fen? Fair? Fat?
A Real-time system for detecting
(W4: Who? When? Where? What? A Realtime System fo
r Detecting and Tracking People) '', but even if multiple people are overlapped by the frame, any method can be used as long as each person can be extracted separately based on the past movement history .

【0035】画像/空間対応関係記憶部43は、広角カ
メラで得た画像中の各画素が実空間中のどの場所に対応
するか記載したものである。この画像/空間対応関係記
憶部43に記憶している情報は、図7のように広角カメ
ラの各画素P(u,v)と実空間の位置P’(x,y)との対応をテ
ーブルに記載したものである。広角カメラの各画素と実
空間の位置との対応を求める際には、例えば施設のレイ
アウトがわかっていると、床の上のコーナーなどの特徴
点の空間中の位置が分かるので、そのような点を示す画
素を画像内から手動で抽出し、残りの画素については、
先程求めた画素の空間中の位置をもとに線形補間などに
より推定をすることにより、より高精度の対応関係を求
めることができる。ただし、PとP’の対応が解析的に求
まるのなら特にテーブルに保存せずに対応関係を記載し
た式をあらかじめ求めておくのでもよい。なお、PとP’
の対応関係は便宜上床面の点についてのみ行う。
The image / spatial correspondence storage unit 43 describes where each pixel in the image obtained by the wide-angle camera corresponds in the real space. The information stored in the image / space correspondence storage unit 43 is a table showing the correspondence between each pixel P (u, v) of the wide-angle camera and the position P ′ (x, y) in the real space as shown in FIG. It is described in. When calculating the correspondence between each pixel of the wide-angle camera and the position in the real space, for example, if the layout of the facility is known, the position in the space of a feature point such as a corner on the floor can be known. Pixels indicating points are manually extracted from the image, and for the remaining pixels,
By performing estimation by linear interpolation or the like based on the position in the space of the pixel obtained earlier, a more accurate correspondence can be obtained. However, if the correspondence between P and P 'can be obtained analytically, an expression describing the correspondence may be obtained in advance without saving the data in a table. Note that P and P '
Is performed only for the point on the floor for convenience.

【0036】人物位置推定部44では、人物検出部42
で人物の領域を切り出した画像において、観察者を示す
領域(図7(a)でS1、S2、S3で示したもの)内の
点で最も画像中心に近い点(図7(a)でM1、M2、M
3で示したもの)を抽出する。そして、M1、M2、M
3が空間中のどの位置にあるかを画像/空間対応関係記
憶部43で記憶しているテーブルの値をもとに推定し、
各人物の空間中の位置(図7(b)中のM’1、M’2、
M’3)を求める。このM1、M2、M3の点を人物の
位置と推定した理由は、IEEE Workshop on Visual Surv
eillance(Jan.1998, Bombay, India)の予稿集pp.2-9に
記載のIndoor Monitoring Via the Collaboration Betw
een a Peripheral Sensorand a Foveal Sensor(Y.cui,
S.Samarasekera,Q.Huang,M.Greiffenhagen)に記載され
ているように、人物が直立したり歩行したりする際には
これらの点が足元を指しており、利用者の位置を正確に
把握することが可能であるからである。
The person position estimating section 44 includes a person detecting section 42
In the image obtained by cutting out the region of the person in FIG. 7, a point in the region indicating the observer (indicated by S1, S2, and S3 in FIG. 7A) is closest to the center of the image (M1 in FIG. , M2, M
3) are extracted. And M1, M2, M
3 is estimated in the space based on the value of the table stored in the image / space correspondence storage unit 43,
The position of each person in the space (M′1, M′2,
M′3) is obtained. The reason why the points M1, M2, and M3 were estimated as the position of the person is that the IEEE Workshop on Visual Surv.
Indoor Monitoring Via the Collaboration Betw described in eillance (Jan. 1998, Bombay, India) Proceedings pp.2-9
een a Peripheral Sensor and a Foveal Sensor (Y.cui,
As described in (S. Samarasekera, Q. Huang, M. Greiffenhagen), when a person stands upright or walks, these points point to the feet and accurately grasp the position of the user This is because it is possible.

【0037】次に、装置選択部5では、人物位置検出部
4で検出された位置が先程の領域Si(i = 1〜M)のど
の領域内に存在するかを観測可能領域記憶部2を参照し
て調べる(ステップ2)。どの領域内にも観察者が存在
しない場合には処理を終了し(ステップ7)、存在する
場合には、その領域内に存在する人物の視線方向を検出
できる可能性のある視線検出装置1(Ci1〜Ci4)を選
択し(ステップ3)、この選択した視線検出装置1から
得られる視線方向情報を視線決定部6に出力する。尚、
この実施の形態では、図8に示すように、推定された人
物位置PmがSi内に存在するものとして、説明を続ける。
Next, the device selecting section 5 stores the observable area storage section 2 in which area of the area Si (i = 1 to M) the position detected by the person position detecting section 4 is located. Reference and check (step 2). If there is no observer in any of the regions, the process is terminated (step 7). If there is, the visual line detection device 1 (possible to detect the visual line direction of a person existing in that region) ( Ci1 to Ci4) are selected (step 3), and the gaze direction information obtained from the selected gaze detection device 1 is output to the gaze determination unit 6. still,
In this embodiment, the description is continued assuming that the estimated person position Pm exists in Si as shown in FIG.

【0038】次に、視線決定部6では、Ci1〜Ci4に示し
たすべての視線検出装置1で検出された情報を統合し、
人物の視線方向を最終的に決定する(ステップ4)。こ
れは、すべての視線検出装置1で人物の視線方向を検出
できる訳ではなく、通常人物の向いている方向に非常に
近い位置に配置された視線検出装置1のみ(図8の例だ
と、Ci1)が人物の視線方向を観測することが出来、そ
の他の視線検出装置1では通常観測することはできない
からである。
Next, the line-of-sight determination unit 6 integrates information detected by all the line-of-sight detection devices 1 indicated by Ci1 to Ci4,
The gaze direction of the person is finally determined (step 4). This does not mean that all the gaze detection devices 1 can detect the gaze direction of the person, but only the gaze detection device 1 arranged at a position very close to the direction of the normal person (in the example of FIG. 8, This is because Ci1) can observe the direction of the line of sight of the person, and cannot be normally observed with the other line of sight detecting devices 1.

【0039】また、視線決定部6では、視線方向を検出
できた視線検出装置1の検出結果を最終的な視線方向と
して出力する。視線方向を検出できた視線検出装置1が
複数存在する場合は、平均をとるか、有効度の高いもの
を最終的な視線方向とする。
The line-of-sight determination unit 6 outputs the detection result of the line-of-sight detecting device 1 that has detected the line-of-sight direction as the final line-of-sight direction. If there are a plurality of gaze detection devices 1 that have been able to detect the gaze direction, the average or the one with a high degree of effectiveness is taken as the final gaze direction.

【0040】次に、人物注目対象検出部7では、人物位
置検出部4で検出された人物位置Pmから視線決定部6で
検出された視線方向に存在する物品(図8の例だとaj)
を空間地図記憶部3の情報を参照して観測者の注目対象
として抽出する(ステップ5)。
Next, in the person-of-interest target detecting section 7, an article existing in the line-of-sight direction detected by the line-of-sight determining section 6 from the person position Pm detected by the person position detecting section 4 (aj in the example of FIG. 8)
Is extracted as an observer's attention target with reference to the information in the spatial map storage unit 3 (step 5).

【0041】人物注目対象記憶部8は、人物注目対象検
出部7で検出された注目対象を人物別に測定時刻ととも
に記録する(ステップ6)。
The person attention target storage unit 8 records the attention object detected by the person attention target detection unit 7 together with the measurement time for each person (step 6).

【0042】ここで、人物注目対象記憶部8において記
録されている情報の例を図9に示す。図9において、人
物IDは監視領域の内部に存在する各人物を識別するた
めのものである。図9には1,2,…と記載している
が、識別できるものなら何でもよい。また、測定時刻は
(時:分:秒)で示しているが、必要に応じて単位は任
意に設定してよい。また、日にち別に集計するような場
合においては、年月のようなデータがその中に含まれて
いてもよい。経過時間はその人物が監視領域に侵入して
からの経過時間を記載する。こちらも(時:分:秒)で
示しているが、必要に応じて単位は自由に設定してよ
い。最後に人物注視対象は、人物のその時刻での注目し
ている物品を示したもので、図6のaj(j = 1〜N)
をお互いに識別できるような形で記載される。ただし、
時刻によっては人物が観測対象のどの物品にも注目して
いない場合もあるので、そのような場合は該当なしと
し、計算機にはNULLなどとして保存する。
Here, FIG. 9 shows an example of information recorded in the person attention target storage section 8. In FIG. 9, the person ID is for identifying each person existing inside the monitoring area. In FIG. 9, 1, 2,... Are described, but anything may be used as long as it can be identified. The measurement time is indicated by (hour: minute: second), but the unit may be arbitrarily set as needed. In addition, in a case where data is totaled by day, data such as year and month may be included therein. The elapsed time describes the elapsed time since the person entered the monitoring area. This is also shown in (hours: minutes: seconds), but the unit may be freely set as necessary. Finally, the person's attention target shows the article of interest of the person at that time, and aj (j = 1 to N) in FIG.
Are described so that they can be distinguished from each other. However,
Depending on the time, the person may not be paying attention to any of the objects to be observed. In such a case, there is no such item, and NULL is stored in the computer.

【0043】よって、本発明の第1の人物行動解析装置
は、視線検出装置の観測可能範囲の大きさに合わせて監
視対象となる空間を分割し、それぞれの領域において人
物がどの向きに向いても視線検出ができる。
Therefore, the first person behavior analysis device of the present invention divides the space to be monitored according to the size of the observable range of the gaze detection device, and in which direction the person faces in each region. Can also detect the line of sight.

【0044】[第2の実施の形態]次に、本発明の第2
の人物行動解析装置の実施の形態を説明する図2は、本
発明の第2の人物行動解析装置の構成の一実施の形態を
示したブロック図である。本発明の第2の人物行動解析
装置は、本発明の第1の人物行動解析装置の構成と比べ
て、人物動線記憶部9が新たな構成要素として加わって
いる。
[Second Embodiment] Next, a second embodiment of the present invention will be described.
FIG. 2 is a block diagram showing an embodiment of the configuration of the second person behavior analysis device of the present invention. The second person behavior analysis device of the present invention is different from the first person behavior analysis device of the present invention in that a person flow line storage unit 9 is added as a new component.

【0045】人物動線記憶部9は、人物位置検出部4に
よって観測者が空間内のどの位置に存在するのか検出し
た時に、この人物位置検出部4から得られる人物位置情
報を測定時刻とともに格納している。
The person flow line storage unit 9 stores the person position information obtained from the person position detection unit 4 together with the measurement time when the person position detection unit 4 detects the position of the observer in the space. are doing.

【0046】ここで、人物動線記憶部9に格納された人
物位置情報と人物注目対象記憶部8に格納されている情
報との対応関係を示した例を図10に示す。人物動線記
憶部9では、人物位置検出部4で求めた人物の空間中の
位置(図7(b)中のM’1、M’2、M’3)を測定時
刻とともに記録しているので、人物注目対象記憶部8に
記憶されている情報との対応関係をとることが可能であ
る。また、人物動線記憶部9に記憶される人物位置情報
は、監視領域の水平面上のある特定位置を基準にした直
交座標系で記載している。ただし、用途に応じて極座標
系など別の座標系の方が便利な場合はそれを使用しても
よい。
Here, FIG. 10 shows an example showing the correspondence between the person position information stored in the person flow line storage unit 9 and the information stored in the person attention target storage unit 8. The person flow line storage unit 9 records the position of the person in the space (M′1, M′2, M′3 in FIG. 7B) obtained by the person position detection unit 4 together with the measurement time. Therefore, it is possible to establish a correspondence relationship with the information stored in the person attention target storage unit 8. The person position information stored in the person flow line storage unit 9 is described in an orthogonal coordinate system based on a specific position on the horizontal plane of the monitoring area. However, if another coordinate system such as a polar coordinate system is more convenient depending on the application, it may be used.

【0047】尚、本実施の形態では、人物注目対象記憶
部8と人物動線記憶部9とを別の構成としているが、人
物注目対象記憶部8に人物位置情報を格納する構成でも
同様な効果が得られる。
In this embodiment, the person attention target storage unit 8 and the person flow line storage unit 9 have different configurations. However, the same applies to the configuration in which the person attention target storage unit 8 stores person position information. The effect is obtained.

【0048】よって、本発明の第2の人物行動解析装置
では、人物位置情報によって、観測者が空間内でどのよ
うに移動したかについても解析できるので、観測者の視
線方向情報が得られなくても、観測者がどの様に行動し
たかを解析することが可能である。
Therefore, in the second person behavior analysis device of the present invention, since it is possible to analyze how the observer has moved in the space by using the person position information, it is not possible to obtain the gaze direction information of the observer. However, it is possible to analyze how the observer behaved.

【0049】[第3の実施の形態]次に、本発明の第3
の人物行動解析装置の実施の形態を説明する図3は、本
発明の第3の人物行動解析装置の構成の一実施の形態を
示したブロック図である。本発明の第3の人物行動解析
装置は、本発明の第1の人物行動解析装置の構成と比べ
てモニタ10と人物画像記憶部11を備える。
[Third Embodiment] Next, a third embodiment of the present invention will be described.
FIG. 3 is a block diagram illustrating an embodiment of the configuration of the third person behavior analysis device of the present invention. The third person behavior analysis device of the present invention includes a monitor 10 and a person image storage unit 11 as compared with the configuration of the first person behavior analysis device of the present invention.

【0050】モニタ10は、装置選択部5で選択された
視線検出装置1から得られる画像を映し出す。
The monitor 10 displays an image obtained from the visual line detection device 1 selected by the device selection section 5.

【0051】人物画像記憶部11は、装置選択部5で選
択された視線検出装置1から得られる画像を、既存のV
TRなどの記録媒体に記録する。
The person image storage unit 11 stores an image obtained from the visual axis detection device 1 selected by the device selection unit 5 into an existing V
It is recorded on a recording medium such as a TR.

【0052】よって、本発明の第3の人物行動解析装置
では、人物行動解析装置に既存の監視システムと同等の
機能を持たせることが可能である。
Therefore, in the third person behavior analysis device of the present invention, it is possible to make the person behavior analysis device have the same function as the existing monitoring system.

【0053】また、本発明の人物行動解析装置をコンピ
ュータによって実現するには、視線検出装置1、人物位
置検出部4の機能を持つデバイス(撮像装置等)の出力
をコンピュータへの入力とし、コンピュータには、上記
した装置選択部5、視線決定部6、人物注目対象検出部
7、観測可能領域記憶部2、空間地図記憶部3、人物注
目対象記憶部8のそれぞれが持つ機能を実現するコンピ
ュータプログラムを作成し、そのコンピュータプログラ
ムをCD−ROMやフロッピーディスクや半導体メモリ
に代表される記録媒体に記録しておき、コンピュータ側
では、このプログラムが記録された記録媒体を読み出す
ことにより、コンピュータに上記各機能を生成するよう
にすれば、本発明の機能をコンピュータによって実現す
ることができる。また、このコンピュータプログラム
は、例えばサーバ内の記録装置に記録されている形態で
もかまわなく、ネットワークを介してこのサーバ内に含
まれるプログラムを提供する形態でもよい。
In order to implement the human behavior analysis device of the present invention by a computer, the output of a device (such as an imaging device) having the functions of the gaze detection device 1 and the human position detection unit 4 is input to the computer, and A computer that realizes the functions of the device selection unit 5, the gaze determination unit 6, the person-of-interest target detection unit 7, the observable area storage unit 2, the space map storage unit 3, and the person-of-interest target storage unit 8 A program is created, and the computer program is recorded on a recording medium typified by a CD-ROM, a floppy disk, or a semiconductor memory, and the computer reads the recording medium on which the program is recorded, so that the computer By generating each function, the functions of the present invention can be realized by a computer. Further, the computer program may be, for example, in a form recorded in a recording device in the server, or in a form in which a program included in the server is provided via a network.

【0054】[0054]

【発明の効果】本発明は、視線検出装置の観測可能範囲
の大きさに合わせて監視対象となる空間を分割し、それ
ぞれの領域において人物がどの向きに向いても視線方向
を検出するように構成しているので、観測者が何処に注
目していたかを精度良く検出することができる。
According to the present invention, the space to be monitored is divided according to the size of the observable range of the gaze detecting device, and the gaze direction is detected regardless of the direction of the person in each region. With this configuration, it is possible to accurately detect where the observer is paying attention.

【0055】また、本発明は、人物位置情報によって、
観測者が空間内でどのように移動したかについて解析し
ているので、視線方向情報が得られなくても観測者の行
動を解析することができる。
Further, the present invention uses the person position information to
Since the analysis is performed on how the observer moves in the space, the behavior of the observer can be analyzed without obtaining the gaze direction information.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態の構成の一例を示す
ブロック図である。
FIG. 1 is a block diagram illustrating an example of a configuration according to a first embodiment of this invention.

【図2】本発明の第2の実施の形態の構成の一例を示す
ブロック図である。
FIG. 2 is a block diagram illustrating an example of a configuration according to a second embodiment of the present invention.

【図3】本発明の第3の実施の形態の構成の一例を示す
ブロック図である。
FIG. 3 is a block diagram illustrating an example of a configuration according to a third embodiment of the present invention.

【図4】監視カメラによって人物位置検出を行う場合の
人物位置検出部4の処理を詳細な内容を示すブロック図
である。
FIG. 4 is a block diagram showing details of processing performed by a person position detection unit 4 when a person position is detected by a monitoring camera.

【図5】本発明の第1の実施の形態の動作の一例を示す
フローチャートである。
FIG. 5 is a flowchart illustrating an example of an operation according to the first exemplary embodiment of the present invention.

【図6】観測可能領域記憶部2と空間地図記憶部3の内
容を説明した図である。
FIG. 6 is a diagram illustrating contents of an observable area storage unit 2 and a space map storage unit 3;

【図7】監視カメラによって人物位置検出を行う場合の
人物位置検出部4の処理を説明するための図である。
FIG. 7 is a diagram for explaining processing of a person position detection unit 4 when a person position is detected by a monitoring camera.

【図8】装置選択部5から人物注目対象検出部7の処理
内容を説明するための図である。
FIG. 8 is a diagram for explaining the processing content of a person attention target detection unit 7 from a device selection unit 5;

【図9】本発明の第1の実施の形態において人物注目対
象記憶部9を記載した内容を示した図である。
FIG. 9 is a diagram showing the content of a person attention target storage unit 9 according to the first embodiment of the present invention.

【図10】本発明の第2の実施の形態において人物動線
記憶部10と人物注目対象記憶部9とを対応を取った場
合の内容を示した図である。
FIG. 10 is a diagram showing contents when a person flow line storage unit 10 and a person attention target storage unit 9 are associated with each other in the second embodiment of the present invention.

【図11】本発明に関連する従来技術の構成を示すブロ
ック図である。
FIG. 11 is a block diagram showing a configuration of a conventional technique related to the present invention.

【符号の説明】[Explanation of symbols]

1 視線検出装置 2 観測可能領域記憶部 3 空間地図記憶部 4 人物位置検出部 5 装置選択部 6 視線決定部 7 人物注目対象検出部 8 人物注目対象記憶部 9 人物動線記憶部 10 モニタ 11 人物画像記憶部 REFERENCE SIGNS LIST 1 gaze detection device 2 observable area storage unit 3 spatial map storage unit 4 person position detection unit 5 device selection unit 6 gaze determination unit 7 person attention target detection unit 8 person attention target storage unit 9 person flow line storage unit 10 monitor 11 person Image storage unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/74 320A ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 15/74 320A

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】複数の視線検出装置を用いて観測者の視線
方向を検出し、観測対象となる空間における観測者の位
置を検出することによって、この検出された観測者の位
置に対応する視線検出装置を選択し、この選択された視
線検出装置の視線方向情報から観測者の注目対象を検出
することを特徴とする人物行動解析装置。
1. A gaze direction corresponding to a detected position of an observer by detecting an observer's gaze direction using a plurality of gaze detection devices and detecting an observer's position in a space to be observed. A person behavior analysis device, wherein a detection device is selected, and a target of interest of an observer is detected from the gaze direction information of the selected gaze detection device.
【請求項2】複数の視線検出装置を用いて観測者の視線
方向を検出し、観測対象となる空間における観測者の位
置を検出することによって、この検出された観測者の位
置に対応する視線検出装置を選択し、この選択された視
線検出装置の視線方向情報から観測者の注目対象を検出
し、この検出された注目対象と前記観測者の位置情報と
を保存することを特徴とする人物行動解析装置。
2. A line of sight corresponding to the detected position of the observer by detecting the direction of the observer's line of sight using a plurality of line of sight detection devices and detecting the position of the observer in the space to be observed. Selecting a detection device, detecting an observer's attention target from the gaze direction information of the selected gaze detection device, and storing the detected attention target and the observer's position information. Behavior analysis device.
【請求項3】複数の撮像装置を用いて観測者の視線方向
を検出し、観測対象となる空間における観測者の位置を
検出することによって、この検出された観測者の位置に
対応する該撮像装置を選択し、この選択された撮像装置
を用いて検出された視線方向情報から観測者の注目対象
を検出するとともに、選択された撮像装置が撮像した対
象を出力することを特徴とする人物行動解析装置。
3. The method according to claim 1, further comprising detecting a direction of a line of sight of the observer using a plurality of image pickup devices and detecting a position of the observer in a space to be observed. Selecting a device, detecting an object of interest of an observer from gaze direction information detected using the selected imaging device, and outputting a target imaged by the selected imaging device. Analysis device.
【請求項4】監視対象となる空間に複数配置され、観測
者の視線方向を検出可能な視線検出装置と、 それぞれ
の視線検出装置が前記空間のどの領域において観測可能
かを記憶した観測可能領域記憶部と、 前記空間のレイ
アウトと前記空間に存在する物品の位置情報を記憶した
空間地図記憶部と、 観測者が該空間中のどの位置に存
在するかを検出する人物位置検出部と、 前記人物位置
検出部が検出した位置情報をもとに、前記観測可能領域
記憶部を参照して利用可能な視線検出装置を選択する装
置選択部と、 前記装置選択部が選択した視線検出装置が検出した視線
方向情報を参照して該観測者の視線方向を決定する視線
決定部と、 前記人物位置検出部が検出した位置情報から前記視線決
定部で検出された視線方向に存在する物品を空間地図記
憶部を参照して決定し、その物品を該観測者の注目対象
として検出する人物注目対象検出部と、 を有することを特徴とする人物行動解析装置。
4. A plurality of gaze detecting devices arranged in a space to be monitored and capable of detecting a gaze direction of an observer, and an observable region storing in which region of the space each gaze detecting device can observe. A storage unit, a space map storage unit that stores the layout of the space and position information of articles present in the space, a person position detection unit that detects where the observer is located in the space, Based on the position information detected by the person position detection unit, a device selection unit that selects an available line-of-sight detection device with reference to the observable region storage unit, and a line-of-sight detection device selected by the device selection unit detects A line-of-sight determining unit that determines the line-of-sight direction of the observer by referring to the obtained line-of-sight direction information, and an article present in the line-of-sight direction detected by the line-of-sight determining unit from the position information detected by the person position detecting unit. Determined by reference to 憶部, the personal behavior analysis apparatus the article characterized by having a a person focused target detector for detecting a target of interest of the observer.
【請求項5】前記人物注目対象検出部で検出された該観
測者の注目対象と前記位置検出部で検出された該観測者
の位置情報を記憶しておくことを特徴とする請求項4に
記載の人物行動解析装置。
5. The method according to claim 4, wherein the observer's attention target detected by the person attention target detection unit and the position information of the observer detected by the position detection unit are stored. The person behavior analysis device described in the above.
【請求項6】前記視線検出装置が撮像装置を用いて視線
方向情報を検出するものであって、 前記装置選択部において選択された視線検出装置が撮像
した対象を出力する手段を更に有することを特徴とする
請求項4または5に記載の人物行動解析装置。
6. The gaze detection device detects gaze direction information using an imaging device, and further includes a unit that outputs a target imaged by the gaze detection device selected by the device selection unit. The human behavior analysis device according to claim 4 or 5, wherein:
【請求項7】前記人物位置検出部が、 前記監視対象となる空間の全体を示す画像を入力可能な
画像入力部と、 前記画像入力部で得られた画像から観測者の人物像を抽
出する人物検出部と、 画像入力部で得られる画像中の各画素が前記空間中のど
の位置に対応するかを記憶した画像/空間対応関係記憶
部と、 前記画像/空間対応関係記憶部を参照することにより、
前記人物検出部で抽出した人物像の前記空間中の位置を
算出する人物位置推定部と、 を有して構成されることを特徴とする請求項4〜6のい
ずれか一項に記載の人物行動解析装置。
7. An image input unit capable of inputting an image showing the entire space to be monitored, and a person image of an observer is extracted from the image obtained by the image input unit. Reference is made to a person detection unit, an image / space correspondence storage unit storing which position in the space each pixel in the image obtained by the image input unit corresponds to, and the image / space correspondence storage unit. By doing
The person according to claim 4, further comprising: a person position estimating unit that calculates a position in the space of the person image extracted by the person detecting unit. Behavior analysis device.
【請求項8】監視対象となる空間に複数配置され、観測
者の視線方向を検出可能な視線検出装置と、観測者が該
空間中のどの位置に存在するかを検出する人物位置検出
部とからの出力をコンピュータに入力し、 該コンピュータに、 それぞれの視線検出装置が前記空間のどの領域において
観測可能かを記憶させた観測可能領域記憶機能と、 前
記空間のレイアウトと前記空間に存在する物品の位置情
報を記憶させた空間地図記憶機能と、 前記人物位置検出部が検出した位置情報をもとに、前記
観測可能領域記憶部を参照して利用可能な視線検出装置
を選択する装置選択機能と、 前記装置選択機能によって選択された視線検出装置が検
出した視線方向情報を統合して、該観測者の視線方向を
決定する視線決定機能と、 前記人物位置検出部が検出した位置情報に基づき、前記
視線決定機能によって検出された視線方向に存在する物
品を空間地図記憶機能で記憶された情報を参照しながら
決定し、その物品を該観測者の注目対象として検出する
人物注目対象検出機能とを実現することを特徴とする人
物行動解析プログラムを記録した記録媒体。
8. A gaze detection device which is arranged in a plurality of spaces to be monitored and is capable of detecting a gaze direction of an observer, and a person position detection unit for detecting at which position in the space the observer is present. Input to the computer, and the computer stores in the computer an observable area storage function of storing in which area of the space each line-of-sight detection device can observe, and a layout of the space and an article present in the space A space map storage function that stores the position information of the device, and a device selection function that selects an available line-of-sight detection device by referring to the observable area storage unit based on the position information detected by the person position detection unit. A line-of-sight determination function that integrates line-of-sight direction information detected by the line-of-sight detection device selected by the device selection function to determine the line-of-sight direction of the observer; A person who determines an article present in the line-of-sight direction detected by the line-of-sight determination function with reference to the information stored by the spatial map storage function based on the position information, and detects the article as a target of interest of the observer. A recording medium on which a human behavior analysis program for realizing an attention target detection function is recorded.
JP17783999A 1999-06-24 1999-06-24 PERSONAL ANALYSIS DEVICE AND RECORDING MEDIUM RECORDING PERSONALITY ANALYSIS PROGRAM Expired - Fee Related JP3489491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17783999A JP3489491B2 (en) 1999-06-24 1999-06-24 PERSONAL ANALYSIS DEVICE AND RECORDING MEDIUM RECORDING PERSONALITY ANALYSIS PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17783999A JP3489491B2 (en) 1999-06-24 1999-06-24 PERSONAL ANALYSIS DEVICE AND RECORDING MEDIUM RECORDING PERSONALITY ANALYSIS PROGRAM

Publications (2)

Publication Number Publication Date
JP2001008197A true JP2001008197A (en) 2001-01-12
JP3489491B2 JP3489491B2 (en) 2004-01-19

Family

ID=16038028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17783999A Expired - Fee Related JP3489491B2 (en) 1999-06-24 1999-06-24 PERSONAL ANALYSIS DEVICE AND RECORDING MEDIUM RECORDING PERSONALITY ANALYSIS PROGRAM

Country Status (1)

Country Link
JP (1) JP3489491B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344946A (en) * 2001-05-16 2002-11-29 Oki Electric Ind Co Ltd Monitoring system
JP2006197373A (en) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp Viewer information measuring instrument
WO2007105792A1 (en) * 2006-03-15 2007-09-20 Omron Corporation Monitor and monitoring method, controller and control method, and program
JP2007251556A (en) * 2006-03-15 2007-09-27 Omron Corp Monitoring apparatus and method, image processing apparatus and method, and program
JP2007299207A (en) * 2006-04-28 2007-11-15 Sogo Keibi Hosho Co Ltd System, method and program for specifying notice position
JP2008226161A (en) * 2007-03-15 2008-09-25 Nippon Signal Co Ltd:The Gaze recognition system
JP2008288707A (en) * 2007-05-15 2008-11-27 Panasonic Corp Monitoring apparatus
JP2009075802A (en) * 2007-09-20 2009-04-09 Giken Torasutemu Kk Personal activity retrieving apparatus
JP2010105417A (en) * 2008-10-28 2010-05-13 Mitsubishi Motors Corp On-vehicle electronic equipment
US7834912B2 (en) 2006-04-19 2010-11-16 Hitachi, Ltd. Attention level measuring apparatus and an attention level measuring system
JP2013149050A (en) * 2012-01-19 2013-08-01 Fujitsu Ltd Target object determination device, target object determination method and program
KR101490505B1 (en) * 2014-07-08 2015-02-10 주식회사 테라클 Method and apparatus for generating degrees of concern
JP2015046732A (en) * 2013-08-28 2015-03-12 キヤノン株式会社 Image processing apparatus and image processing method
JP2015122711A (en) * 2013-12-25 2015-07-02 Necプラットフォームズ株式会社 Display device, display method, and display program
US9342770B2 (en) 2011-05-09 2016-05-17 Nec Corporation Equipment control device, equipment control system, and equipment control method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344946A (en) * 2001-05-16 2002-11-29 Oki Electric Ind Co Ltd Monitoring system
JP2006197373A (en) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp Viewer information measuring instrument
US8406457B2 (en) 2006-03-15 2013-03-26 Omron Corporation Monitoring device, monitoring method, control device, control method, and program
WO2007105792A1 (en) * 2006-03-15 2007-09-20 Omron Corporation Monitor and monitoring method, controller and control method, and program
JP2007251556A (en) * 2006-03-15 2007-09-27 Omron Corp Monitoring apparatus and method, image processing apparatus and method, and program
JP5120249B2 (en) * 2006-03-15 2013-01-16 オムロン株式会社 Monitoring device and monitoring method, control device and control method, and program
US7834912B2 (en) 2006-04-19 2010-11-16 Hitachi, Ltd. Attention level measuring apparatus and an attention level measuring system
JP2007299207A (en) * 2006-04-28 2007-11-15 Sogo Keibi Hosho Co Ltd System, method and program for specifying notice position
JP2008226161A (en) * 2007-03-15 2008-09-25 Nippon Signal Co Ltd:The Gaze recognition system
JP2008288707A (en) * 2007-05-15 2008-11-27 Panasonic Corp Monitoring apparatus
JP2009075802A (en) * 2007-09-20 2009-04-09 Giken Torasutemu Kk Personal activity retrieving apparatus
JP2010105417A (en) * 2008-10-28 2010-05-13 Mitsubishi Motors Corp On-vehicle electronic equipment
US9342770B2 (en) 2011-05-09 2016-05-17 Nec Corporation Equipment control device, equipment control system, and equipment control method
JP2013149050A (en) * 2012-01-19 2013-08-01 Fujitsu Ltd Target object determination device, target object determination method and program
JP2015046732A (en) * 2013-08-28 2015-03-12 キヤノン株式会社 Image processing apparatus and image processing method
JP2015122711A (en) * 2013-12-25 2015-07-02 Necプラットフォームズ株式会社 Display device, display method, and display program
KR101490505B1 (en) * 2014-07-08 2015-02-10 주식회사 테라클 Method and apparatus for generating degrees of concern

Also Published As

Publication number Publication date
JP3489491B2 (en) 2004-01-19

Similar Documents

Publication Publication Date Title
US6690374B2 (en) Security camera system for tracking moving objects in both forward and reverse directions
US7834912B2 (en) Attention level measuring apparatus and an attention level measuring system
TWI778030B (en) Store apparatus, store management method and program
JP3489491B2 (en) PERSONAL ANALYSIS DEVICE AND RECORDING MEDIUM RECORDING PERSONALITY ANALYSIS PROGRAM
US10839227B2 (en) Queue group leader identification
US8254633B1 (en) Method and system for finding correspondence between face camera views and behavior camera views
JP7448065B2 (en) Store equipment, store systems, store management methods, programs
US8913781B2 (en) Methods and systems for audience monitoring
US20170330208A1 (en) Customer service monitoring device, customer service monitoring system, and customer service monitoring method
JP2011248836A (en) Residence detection system and program
US10460466B2 (en) Line-of-sight measurement system, line-of-sight measurement method and program thereof
JP2001175868A (en) Method and device for human detection
WO2019186890A1 (en) Video monitoring device, control method for same, and computer-readable medium
US9710708B1 (en) Method and apparatus for autonomously recognizing at least one object in an image
US20190073810A1 (en) Flow line display system, flow line display method, and program recording medium
WO2017038035A1 (en) Device, system, and method for generating behavior history information
JP5834941B2 (en) Attention target identification device, attention target identification method, and program
JP2015230616A (en) Image processing method and image processor
KR20160068281A (en) Method of object recognition
JP2008243058A (en) Preference investigation system and method
JP7329967B2 (en) IMAGE PROCESSING APPARATUS, SYSTEM, IMAGE PROCESSING APPARATUS CONTROL METHOD, AND PROGRAM
WO2011025359A1 (en) System and method to determine suspicious behavior
JP6573259B2 (en) Attribute collection system by camera
JP2005071041A (en) Device and system for detecting visual object of driver
López-Palma et al. Oriented trajectories as a method for audience measurement

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031007

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101107

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees