JP5811918B2 - Gaze target estimation apparatus, method, and program - Google Patents

Gaze target estimation apparatus, method, and program Download PDF

Info

Publication number
JP5811918B2
JP5811918B2 JP2012070305A JP2012070305A JP5811918B2 JP 5811918 B2 JP5811918 B2 JP 5811918B2 JP 2012070305 A JP2012070305 A JP 2012070305A JP 2012070305 A JP2012070305 A JP 2012070305A JP 5811918 B2 JP5811918 B2 JP 5811918B2
Authority
JP
Japan
Prior art keywords
image
unit
time
gaze
passenger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012070305A
Other languages
Japanese (ja)
Other versions
JP2013200837A (en
Inventor
康洋 青木
康洋 青木
水谷 政美
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012070305A priority Critical patent/JP5811918B2/en
Publication of JP2013200837A publication Critical patent/JP2013200837A/en
Application granted granted Critical
Publication of JP5811918B2 publication Critical patent/JP5811918B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

開示の技術は注視対象物推定装置、注視対象物推定方法、及び注視対象物推定プログラムに関する。   The disclosed technology relates to a gaze target estimation device, a gaze target estimation method, and a gaze target estimation program.

従来、車両などの移動体に搭乗した搭乗者が注視した看板などの対象物を推定する装置が一般に知られている。このような装置は、搭乗者が注視した看板から搭乗者毎の興味及び関心を分析して効果的な広告提示を行ったり、看板を提示している広告業者側に注目度に応じた広告の値付け等の情報を提供したりといった、デジタルサイネージへ応用することが考えられる。   2. Description of the Related Art Conventionally, an apparatus for estimating an object such as a signboard watched by a passenger who has boarded a moving body such as a vehicle is generally known. Such an apparatus analyzes the interest and interest of each passenger from the signboard watched by the passenger, and presents an effective advertisement, or displays an advertisement according to the degree of attention to the advertising agency presenting the signboard. It can be applied to digital signage, such as providing information such as pricing.

上記のような注視対象物の推定装置の簡単な例としては、視線センサにより移動体の搭乗者の視線方向を推定し、また移動体の位置をGPSセンサ等により取得する。また、看板等の対象物の設置位置を予めデータベースに登録しておく。そして、これらの位置情報から3次元空間上で搭乗者がどの対象物を注視していたかを推定する装置が考えられる。しかし、このように3次元的に注視位置の推定を行う場合には、誤差要因として、対象物の設置位置、移動体の位置、及び視線方向がそれぞれ3次元的に影響するため、注視している対象物の推定が困難となる。   As a simple example of the gaze target estimating apparatus as described above, the line-of-sight direction of the occupant of the moving body is estimated by the line-of-sight sensor, and the position of the moving body is acquired by the GPS sensor or the like. In addition, the installation position of an object such as a signboard is registered in advance in the database. And the apparatus which estimates which target object the passenger was gazing in three-dimensional space from these positional information can be considered. However, when estimating the gaze position three-dimensionally in this way, the installation position of the object, the position of the moving object, and the line-of-sight direction are each three-dimensionally affected as error factors. It is difficult to estimate the target object.

そこで、2次元的な画像を用いて対象物を推定する装置が提供されている。このような装置では、移動体の搭乗者の視線方向を推定する視線センサと、移動体の周辺を撮影するカメラとを備えている。そして、カメラで撮影することにより得られた画像上での搭乗者の視線方向に対応した位置と、その画像に画像処理を施して認識した看板等の対象物の画像上での位置とから、搭乗者が注視した対象物を推定している。   Thus, an apparatus for estimating an object using a two-dimensional image is provided. Such an apparatus includes a line-of-sight sensor that estimates a line-of-sight direction of a passenger on a moving body, and a camera that captures the periphery of the moving body. And from the position corresponding to the sight line direction of the passenger on the image obtained by photographing with the camera, and the position on the image of the object such as a signboard recognized by performing image processing on the image, Estimates the object watched by the passenger.

例えば、所定時間毎に順次生成した搭乗者の視野画像の時間的変化から搭乗者の視線挙動の注視状態を判定し、視線挙動が注視状態であれば、搭乗者が注視した注視対象物体に含まれている視野画像上の文字情報を認識する注視対象物特定装置が提案されている。   For example, the gaze state of the passenger's gaze behavior is determined from the temporal change in the passenger's visual field image generated sequentially every predetermined time, and if the gaze behavior is the gaze state, it is included in the gaze target object watched by the passenger There has been proposed a gaze target identifying device that recognizes character information on a viewed image.

また、メモリに、前方画像データ、視線方向データ、撮像位置座標を記録し、視線方向データに基づいて判定された注目領域に対応する画像データを前方画像データから抽出し、液晶ディスプレイに注目領域の画像を表示する運転支援システムが提案されている。   Further, the front image data, the line-of-sight direction data, and the imaging position coordinates are recorded in the memory, the image data corresponding to the attention area determined based on the line-of-sight direction data is extracted from the front image data, and the attention area is displayed on the liquid crystal display. Driving support systems that display images have been proposed.

特開2007−172378号公報JP 2007-172378 A 特開2006−172215号公報JP 2006-172215 A

しかしながら、例えば車両の搭乗者は一般に脇見運転をしないように車両前方を見ており、看板等の対象物に注視する場合も、前方に設置されている対象物を注視する場合が多い。また、搭乗者の視線方向を検出するための視線センサは、その特性上、搭乗者が画像中心付近に対応する位置を見ているときの視線方向に対する検出精度が高い。一方で、搭乗者が注視する前方の看板等の対象物はカメラからの距離が遠くなるため、画像上でのサイズが小さくなる。現行の車載カメラ等の移動体に搭載されるカメラは解像度が低いため、画像上でのサイズが小さい対象物を画像処理により認識することは困難である、という問題がある。一方、画像上でのサイズが大きい対象物は、搭乗者にとって横方向や斜め前方などの近い距離に設置された対象物である。従って、車両の搭乗者は脇見運転をしないように車両前方を見ているため、このような近い距離の対象物を搭乗者が注視している可能性は低い、という問題がある。   However, for example, a vehicle occupant generally looks at the front of the vehicle so as not to look aside, and often looks at an object installed in front of the object such as a signboard. Further, the line-of-sight sensor for detecting the passenger's line-of-sight direction has high detection accuracy for the line-of-sight direction when the passenger is looking at a position corresponding to the vicinity of the center of the image. On the other hand, an object such as a signboard in front of the occupant who is gazing away from the camera has a smaller distance on the image. Since a camera mounted on a moving body such as a current on-vehicle camera has a low resolution, there is a problem that it is difficult to recognize an object having a small size on an image by image processing. On the other hand, an object having a large size on an image is an object installed at a short distance such as a lateral direction or obliquely forward for a passenger. Therefore, since the passenger of the vehicle looks at the front of the vehicle so as not to look aside, there is a problem that the possibility that the passenger is watching the object at such a short distance is low.

開示の技術は、移動体に搭乗した搭乗者が注視した対象物の画像上でのサイズが小さい場合でも、搭乗者が注視した対象物を推定することが目的である。   An object of the disclosed technology is to estimate an object watched by the passenger even when the size of the object watched by the passenger boarding the moving body is small.

開示の技術は、移動体の周辺を各時刻にて撮影することにより得られた画像の画像データの各々、及び前記各時刻における前記移動体の搭乗者の視線方向を示す視線データの各々を取得するデータ取得部を備えている。また、開示の技術は、前記データ取得部により取得された前記画像データ及び前記視線データに基づいて、前記各時刻における前記画像データが示す画像内での前記搭乗者の注視位置を判定する判定部を備えている。また、開示の技術は、前記画像データが示す画像から、予め定めた対象物に対応する対象物領域を検出する検出部を備えている。また、開示の技術は、前記搭乗者が前記対象物を注視していたか否かを推定する推定部を備えている。推定部は、前記検出部により前記対象物領域が検出された前記画像より過去の時刻に撮影された過去画像から追跡された前記対象物領域の前記過去画像内での位置と、前記判定部により判定された前記過去画像内での前記搭乗者の注視位置とを比較する。   The disclosed technology acquires each of image data of an image obtained by photographing the periphery of the moving object at each time, and each of the line-of-sight data indicating the line-of-sight direction of the passenger of the moving object at each time A data acquisition unit is provided. Further, the disclosed technology is a determination unit that determines the gaze position of the occupant in the image indicated by the image data at each time based on the image data and the line-of-sight data acquired by the data acquisition unit. It has. In addition, the disclosed technology includes a detection unit that detects an object region corresponding to a predetermined object from an image indicated by the image data. In addition, the disclosed technology includes an estimation unit that estimates whether or not the passenger is gazing at the object. The estimation unit includes: a position in the past image of the target region tracked from a past image taken at a time earlier than the image in which the target region is detected by the detection unit; and the determination unit. The determined gaze position of the passenger in the past image is compared.

開示の技術は、移動体に搭乗した搭乗者が注視した対象物の画像上でのサイズが小さい場合でも、搭乗者が注視した対象物を推定することができる、という効果を有する。   The disclosed technology has an effect that it is possible to estimate an object watched by the passenger even when the size of the object watched by the passenger boarding the moving body is small.

本実施形態に係る注視対象物推定装置の機能ブロック図である。It is a functional block diagram of the gaze target estimating device concerning this embodiment. (a)対象物領域の検出、(b)対象物領域の追跡、及び(c)追跡位置と注視位置との比較を説明するためのイメージ図である。It is an image figure for demonstrating the detection of (a) target object area, (b) tracking of target object area, and (c) tracking position and gaze position. 注視対象物推定装置として機能するコンピュータの概略ブロック図である。It is a schematic block diagram of the computer which functions as a gaze target object estimation apparatus. 本実施形態における注視対象物推定処理のフローチャートである。It is a flowchart of the gaze target object estimation process in this embodiment. 本実施形態における対象物検出処理のフローチャートである。It is a flowchart of the target object detection process in this embodiment. 本実施形態における遡及範囲決定処理のフローチャートである。It is a flowchart of the retroactive range determination process in this embodiment. 本実施形態における対象物領域追跡処理のフローチャートである。It is a flowchart of the object area | region tracking process in this embodiment. 本実施形態における追跡位置・注視位置比較処理のフローチャートである。It is a flowchart of the tracking position / gaze position comparison process in the present embodiment. 本実施形態に係る注視対象物推定装置の他の例を示す機能ブロック図である。It is a functional block diagram which shows the other example of the gaze target object estimation apparatus which concerns on this embodiment.

以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。   Hereinafter, an example of an embodiment of the disclosed technology will be described in detail with reference to the drawings.

〔第1実施形態〕   [First Embodiment]

図1には、本実施形態に係る注視対象物推定装置10が示されている。注視対象物推定装置10は、移動体の搭乗者が注視した対象物を推定する装置である。本実施形態では、車両に搭載され、車両のドライバが注視した車両の走行環境周辺に設置された看板を推定する注視対象物推定装置に開示の技術を適用した場合について説明する。   FIG. 1 shows a gaze target estimating apparatus 10 according to the present embodiment. The gaze target estimation device 10 is a device that estimates a target gaze by a passenger of a moving object. This embodiment demonstrates the case where the technique of indication is applied to the gaze target object estimation apparatus which estimates the signboard installed in the vehicle and the surroundings of the driving environment of the vehicle which the driver of the vehicle gazes at.

注視対象物推定装置10は、データ取得部12、画像データ記憶部14、注視位置判定部16、注視位置データ記憶部18、対象物検出部20、対象物情報記憶部22、推定部24、対象物情報取得部26、分析部28、及びフィードバック部30を備えている。なお、注視位置判定部16は開示の技術における判定部の一例であり、対象物検出部20は開示の技術における検出部の一例である。   The gaze target estimation device 10 includes a data acquisition unit 12, an image data storage unit 14, a gaze position determination unit 16, a gaze position data storage unit 18, a target detection unit 20, a target information storage unit 22, an estimation unit 24, a target An object information acquisition unit 26, an analysis unit 28, and a feedback unit 30 are provided. The gaze position determination unit 16 is an example of a determination unit in the disclosed technology, and the object detection unit 20 is an example of a detection unit in the disclosed technology.

データ取得部12は、GPSセンサ60で検出された車両の現在位置を示す位置データ、カメラ62で車両の周辺を撮影することにより得られた画像を示す画像データ、視線センサ64で検出された車両のドライバの視線方向を示す視線データを取得する。カメラ62は、車両の前方、少なくともドライバが前方を向いている場合の視界と同様の範囲を撮影する。視線センサ64は、例えば、ドライバの顔を含む領域を撮影するカメラで構成することができ、撮影されることにより得られた画像から公知の技術を用いてドライバの視線方向を検出することができる。データ取得部12は、各データを各時刻において同期して取得する。   The data acquisition unit 12 includes position data indicating the current position of the vehicle detected by the GPS sensor 60, image data indicating an image obtained by photographing the periphery of the vehicle with the camera 62, and the vehicle detected by the line-of-sight sensor 64. The line-of-sight data indicating the line-of-sight direction of the driver is acquired. The camera 62 captures the same range as the field of view in the front of the vehicle, at least when the driver is facing forward. The line-of-sight sensor 64 can be constituted by, for example, a camera that captures an area including the driver's face, and can detect the direction of the driver's line of sight from a captured image using a known technique. . The data acquisition unit 12 acquires each data synchronously at each time.

画像データ記憶部14には、データ取得部12により各時刻において取得された画像データ32が時刻と対応付けて記憶される。また、画像データ記憶部14には、画像データ32と同時刻に取得された位置データ34が画像データ32に対応付けられて記憶される。   The image data storage unit 14 stores image data 32 acquired at each time by the data acquisition unit 12 in association with the time. In the image data storage unit 14, position data 34 acquired at the same time as the image data 32 is stored in association with the image data 32.

注視位置判定部16は、データ取得部12により取得された画像データ32及び視線データ34に基づいて、各時刻における画像データ32が示す画像内でのドライバの注視位置を判定する。注視位置の判定方法は、公知の技術を用いることができる。例えば、ドライバの視線方向を示す画像上の視線位置の時間変化を用いて、ある時刻を基準にした所定時間内の視線位置の時間変化が小さい場合には、その視線位置周辺領域を注視位置として判定することができる。注視位置判定部16は、注視位置と判定した領域の所定位置(例えば、中心)の座標を注視位置データ36として、時刻と対応付けて注視位置データ記憶部18に記憶する。   The gaze position determination unit 16 determines the gaze position of the driver in the image indicated by the image data 32 at each time based on the image data 32 and the line-of-sight data 34 acquired by the data acquisition unit 12. A known technique can be used as a method for determining the gaze position. For example, when the temporal change of the line-of-sight position within a predetermined time with reference to a certain time is small using the time change of the line-of-sight position on the image indicating the driver's line-of-sight direction, the area around the line-of-sight position is set as the gaze position. Can be determined. The gaze position determination unit 16 stores the coordinates of a predetermined position (for example, the center) of the area determined as the gaze position in the gaze position data storage unit 18 as gaze position data 36 in association with the time.

なお、上記の画像データ記憶部14及び注視位置データ記憶部18には、各時刻において取得された各データを可能な限り記憶するようにしてもよいが、少なくとも後述の推定部24における遡及範囲として参照する過去の時刻の各データが記憶されるようにする。   The image data storage unit 14 and the gaze position data storage unit 18 may store each data acquired at each time as much as possible, but at least as a retrospective range in the estimation unit 24 described later. Each data of the past time to be referred to is stored.

対象物検出部20は、対象物情報記憶部22に記憶された対象物情報38を参照して、データ取得部12により取得された画像データ32が示す画像から、検出対象の看板を検出する。対象物情報記憶部22には、車両のドライバが車両の走行中に看板を注視していたときに、その注視していた看板を特定するために用いる情報である対象物情報が記憶されている。例えば、対象物情報には、該当の看板の実世界での設置位置、大きさ、及び画像上から看板を検出するためのテンプレートが含まれる。また、後述の対象物情報取得部26及び分析部28で利用するための看板の内容を示す詳細情報及び関連情報も含まれる。   The object detection unit 20 refers to the object information 38 stored in the object information storage unit 22 and detects a signboard to be detected from the image indicated by the image data 32 acquired by the data acquisition unit 12. The object information storage unit 22 stores object information, which is information used to identify the signboard that was being watched when the driver of the vehicle was watching the signboard while the vehicle was running. . For example, the object information includes an installation position and size of the corresponding signboard in the real world and a template for detecting the signboard from the image. Moreover, the detailed information and the related information which show the content of the signboard for using with the target object information acquisition part 26 and the analysis part 28 mentioned later are also contained.

対象物検出部20は、データ取得部12が取得した位置データ34と対象物情報記憶部22に記憶された対象物情報38に含まれる看板の設置位置を比較し、車両周辺に存在する看板のテンプレートを抽出する。なお、車両周辺の看板としては、ドライバの視野に入る可能性のある看板のみを抽出するようにしてもよい。また、対象物検出部20は、データ取得部12により取得された画像と、抽出したテンプレートとのマッチング処理により、画像上から看板を示す対象物領域を検出する。なお、対象物領域の検出方法はテンプレートマッチングに限定されず、他の手法を用いてもよい。例えば、画像上の文字を認識して、登録された単語と一致する場合に、その文字周辺を対象物領域として検出するようにしてもよい。本実施形態では、看板が車両近傍に到達したタイミングで撮影された画像から前記看板を検出するため、例えば、図2(a)に示すように、看板が画像上で大きなサイズとなり、容易かつ高精度に検出することができる。   The object detection unit 20 compares the installation positions of the signboards included in the position data 34 acquired by the data acquisition unit 12 and the object information 38 stored in the object information storage unit 22, and the signboards present around the vehicle. Extract a template. Note that only signs that may enter the driver's field of view may be extracted as signs around the vehicle. In addition, the object detection unit 20 detects an object region indicating a signboard from the image by a matching process between the image acquired by the data acquisition unit 12 and the extracted template. Note that the detection method of the object region is not limited to template matching, and other methods may be used. For example, when a character on the image is recognized and matches a registered word, the periphery of the character may be detected as a target area. In the present embodiment, since the sign is detected from an image taken when the sign reaches the vicinity of the vehicle, for example, as shown in FIG. It can be detected with accuracy.

推定部24は、さらに、遡及範囲決定部24a、対象物領域追跡部24b、及び追跡位置・注視位置比較部24cを備えている。推定部24は、対象物検出部20が検出した対象物を搭乗者が過去に注視していたかどうかを判定するため、画像データ記憶部14に記憶された画像データ32及び注視位置データ記憶部18に記憶された注視位置データ36を適宜参照する。以下、各部について詳述する。   The estimation unit 24 further includes a retrospective range determination unit 24a, an object region tracking unit 24b, and a tracking position / gaze position comparison unit 24c. The estimation unit 24 determines whether the passenger has been gazing at the object detected by the object detection unit 20 in the past, and the image data 32 and the gaze position data storage unit 18 stored in the image data storage unit 14. The gaze position data 36 stored in is referred to as appropriate. Hereinafter, each part is explained in full detail.

遡及範囲決定部24aは、対象物検出部20が対象物領域を検出した場合に、画像データ32及び対応する注視位置データ36に対して、対象物領域が検出された画像が撮影された時刻から過去へ遡及する方向に参照する範囲を決定する。以下、この範囲を「遡及範囲」という。この遡及範囲は、後述の対象物領域追跡部24bによる処理が不能になる(撮影された画像上で看板が消える)までとしてもよいが、例えば次のよう決定してもよい。案内標識の文字の寸法は、例えば、基準20cmとして定められているが、視力0.7(運転免許取得のために必要な視力)であれば、この大きさのランドルト環を約100m先から認識できる。このことから、移動体が現在位置から100m遡った位置までに対応する時刻の範囲を遡及範囲とすることができる。具体的には、車両が時速40km程度で走行していると仮定すると、100m分移動する時間、すなわち約10秒前まで遡るものとし、看板が検出された画像が撮影された時刻から10秒前までを遡及範囲として決定することができる。   When the object detection unit 20 detects the object area, the retrospective range determination unit 24a starts from the time when the image in which the object area is detected is captured with respect to the image data 32 and the corresponding gaze position data 36. Determine the reference range in the retroactive direction. Hereinafter, this range is referred to as “retroactive range”. The retroactive range may be until processing by the object area tracking unit 24b described later becomes impossible (the signboard disappears on the photographed image), but may be determined as follows, for example. The size of the character of the guide sign is set as, for example, a standard 20 cm. If the eyesight is 0.7 (sight required for obtaining a driver's license), the Landolt ring of this size is recognized from about 100 m ahead. it can. From this, it is possible to set the range of time corresponding to the position where the mobile body is 100 m back from the current position as the retroactive range. Specifically, assuming that the vehicle is traveling at a speed of about 40 km / h, it is assumed that the vehicle travels 100 meters, that is, about 10 seconds before, and 10 seconds before the time when the image where the sign is detected is captured. Can be determined as a retroactive range.

対象物領域追跡部24bは、遡及範囲決定部24aで決定した遡及範囲内の各時刻で撮影された画像を示す画像データ32を画像データ記憶部14から取得する。以下では、対象物検出部20により看板が検出された画像を「検出画像」、遡及範囲内の各時刻の画像として取得された画像を「過去画像」という。対象物領域追跡部24bは、検出画像における対象物領域の位置(座標)に基づいて、検出画像の撮影時刻から遡及範囲を過去へ遡及する方向に向かって、各時刻における過去画像上から対象物領域を検出することにより、対象物領域の位置を追跡する。この様子を図2(b)に示す。過去の時刻においては画像上での対象物領域のサイズが小さく画像認識が困難な場合でも、看板が手前に来た時点で検出された対象物領域を過去に遡及して追跡することで、小さいサイズの対象物領域の検出も可能となる。   The object region tracking unit 24b acquires from the image data storage unit 14 image data 32 indicating images taken at each time within the retroactive range determined by the retrospective range determining unit 24a. Hereinafter, an image in which a signboard is detected by the object detection unit 20 is referred to as a “detected image”, and an image acquired as an image at each time within the retroactive range is referred to as a “past image”. Based on the position (coordinates) of the object area in the detected image, the object area tracking unit 24b moves the object from the past image at each time in the direction of retroactively extending the retroactive range from the shooting time of the detected image. By detecting the area, the position of the object area is tracked. This is shown in FIG. Even if the size of the object area on the image is small at the past time and it is difficult to recognize the image, the object area detected when the signboard comes to the front is traced back in the past, so that the object area is small. It is also possible to detect an object region having a size.

各過去画像上から対象物領域を検出する方法は、対象物検出部20と同様に、テンプレートマッチングを用いることができる。この際、看板の検出の際に用いたテンプレートを適宜変形し、過去画像に対してテンプレートマッチングを行う。テンプレートの変形方法としては、例えば、検出された看板の設置位置、検出画像及び過去画像の各々が撮影された時刻における車両の位置の各々から、検出画像及び過去画像の各々が撮影された時刻における対象物領域の大きさの比率を推定する。そして、推定された比率分だけテンプレートを縮小する。   As with the object detection unit 20, template matching can be used as a method for detecting the object region from each past image. At this time, the template used in the detection of the signboard is appropriately modified, and template matching is performed on the past image. As a template deformation method, for example, from the installation position of the detected signboard, the position of the vehicle at the time when each of the detected image and the past image was photographed, at the time when each of the detected image and the past image was photographed. Estimate the size ratio of the object area. Then, the template is reduced by the estimated ratio.

追跡位置・注視位置比較部24cは、遡及範囲決定部24aで決定した遡及範囲内の各時刻における注視位置データ36を注視位置データ記憶部18から取得する。また、追跡位置・注視位置比較部24cは、対象物領域追跡部24bにより遡及範囲内の各時刻で撮影された各過去画像上から追跡された対象物領域の位置と、対応する時刻での注視位置とを比較する。この様子を図2(c)に示す。追跡位置・注視位置比較部24cは、比較結果に基づいて、遡及範囲内のいずれかの時刻において、ドライバが検出された看板を注視していたか否かを判定する。例えば、対象物領域の位置と注視位置との距離が所定距離以下であれば、ドライバが検出された対象物領域を示す看板を注視していたと判定することができる。   The tracking position / gaze position comparison unit 24 c acquires gaze position data 36 at each time within the retroactive range determined by the retrospective range determination unit 24 a from the gaze position data storage unit 18. The tracking position / gaze position comparing unit 24c also monitors the position of the object region tracked from each past image captured at each time within the retroactive range by the object region tracking unit 24b and the gaze at the corresponding time. Compare with position. This is shown in FIG. Based on the comparison result, the tracking position / gaze position comparing unit 24c determines whether or not the driver is gazing at the detected signboard at any time within the retroactive range. For example, if the distance between the position of the object area and the gaze position is equal to or less than a predetermined distance, it can be determined that the driver is gazing at the signboard indicating the detected object area.

なお、対象物検出部20で複数の対象物領域が検出された場合には、推定部24の処理を並列に、または検出された対象物領域毎に順番に行えばよい。   When a plurality of target areas are detected by the target detection unit 20, the processing of the estimation unit 24 may be performed in parallel or in order for each detected target area.

対象物情報取得部26は、追跡位置・注視位置比較部24cにより、ドライバが注視していたと判定された看板について、対象物情報記憶部22から対象物情報を取得する。例えば、対象物検出部20での検出時に用いたテンプレートに対応して対象物情報記憶部22に記憶された看板の詳細情報及び関連情報を取得する。   The target object information acquisition unit 26 acquires target object information from the target object information storage unit 22 for the signboard that has been determined by the tracking position / gaze position comparison unit 24c to be watched by the driver. For example, detailed information and related information of a signboard stored in the object information storage unit 22 corresponding to the template used at the time of detection by the object detection unit 20 are acquired.

分析部28は、対象物情報取得部26で取得した対象物情報と、追跡位置・注視位置比較部24cによる比較結果とに基づいて、ドライバの興味及び関心を分析する。例えば、看板の詳細情報及び関連情報に基づいて、あるドライバが注視した看板で広告されている製品をそのドライバの興味の対象として分析することができる。   The analysis unit 28 analyzes the interest and interest of the driver based on the object information acquired by the object information acquisition unit 26 and the comparison result by the tracking position / gaze position comparison unit 24c. For example, based on detailed information and related information of a signboard, a product advertised on a signboard watched by a driver can be analyzed as an object of interest of the driver.

フィードバック部30は、分析部28による分析結果に基づく情報を、ドライバにフィードバックする。例えば、ドライバの興味の対象として分析された製品に関する情報をディスプレイ52(図3参照)に表示するなどしてフィードバックすることができる。   The feedback unit 30 feeds back information based on the analysis result by the analysis unit 28 to the driver. For example, information on a product analyzed as an object of interest of the driver can be fed back by being displayed on the display 52 (see FIG. 3).

注視対象物推定装置10は、例えば図3に示すコンピュータ40で実現することができる。コンピュータ40はCPU42、メモリ44、不揮発性の記憶部46、キーボード50、ディスプレイ52、及び通信IF(インターフェース)54を備え、これらはバス56を介して互いに接続されている。GPSセンサ60、カメラ62、及び視線センサ64は通信IF54を介してコンピュータ40と接続されている。   The gaze target object estimation device 10 can be realized by a computer 40 shown in FIG. 3, for example. The computer 40 includes a CPU 42, a memory 44, a nonvolatile storage unit 46, a keyboard 50, a display 52, and a communication IF (interface) 54, which are connected to each other via a bus 56. The GPS sensor 60, the camera 62, and the line-of-sight sensor 64 are connected to the computer 40 via the communication IF 54.

また、記憶部46はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現できる。記録媒体としての記憶部46には、コンピュータ40を注視対象物推定装置10として機能させるための注視対象物推定プログラム70、並びに画像データ32、位置データ34、注視位置データ36、及び対象物情報38が各々記憶されている。CPU42は、注視対象物推定プログラム70を記憶部46から読み出してメモリ44に展開し、注視対象物推定プログラム70が有するプロセスを順次実行する。   The storage unit 46 can be realized by an HDD (Hard Disk Drive), a flash memory, or the like. In the storage unit 46 as a recording medium, a gaze target estimation program 70 for causing the computer 40 to function as the gaze target estimation device 10, image data 32, position data 34, gaze position data 36, and target object information 38. Is stored. The CPU 42 reads the gaze target object estimation program 70 from the storage unit 46 and develops it in the memory 44, and sequentially executes the processes of the gaze target object estimation program 70.

注視対象物推定プログラム70は、データ取得プロセス72、注視位置判定プロセス74、対象物検出プロセス76、推定プロセス78、対象物情報取得プロセス80、分析プロセス82、及びフィードバックプロセス84を有する。CPU42は、データ取得プロセス72を実行することで、図1に示すデータ取得部12として動作する。またCPU42は、注視位置判定プロセス74を実行することで、図1に示す注視位置判定部16として動作する。またCPU42は、対象物検出プロセス76を実行することで、図1に示す対象物検出部20として動作する。またCPU42は、推定プロセス78を実行することで、図1に示す推定部24として動作する。またCPU42は、対象物情報取得プロセス80を実行することで、図1に示す対象物情報取得部26として動作する。またCPU42は、分析プロセス82を実行することで、図1に示す分析部28として動作する。またCPU42は、フィードバックプロセス84を実行することで、図1に示すフィードバック部30として動作する。   The gaze target estimation program 70 includes a data acquisition process 72, a gaze position determination process 74, a target detection process 76, an estimation process 78, a target information acquisition process 80, an analysis process 82, and a feedback process 84. The CPU 42 operates as the data acquisition unit 12 illustrated in FIG. 1 by executing the data acquisition process 72. The CPU 42 operates as the gaze position determination unit 16 illustrated in FIG. 1 by executing the gaze position determination process 74. Further, the CPU 42 operates as the object detection unit 20 illustrated in FIG. 1 by executing the object detection process 76. The CPU 42 operates as the estimation unit 24 illustrated in FIG. 1 by executing the estimation process 78. The CPU 42 operates as the object information acquisition unit 26 shown in FIG. 1 by executing the object information acquisition process 80. The CPU 42 operates as the analysis unit 28 illustrated in FIG. 1 by executing the analysis process 82. Further, the CPU 42 operates as the feedback unit 30 illustrated in FIG. 1 by executing the feedback process 84.

注視対象物推定装置10がコンピュータ40で実現される場合、画像データ32及び位置データ34を記憶する記憶部46は画像データ記憶部14として用いられ、メモリ44の一部領域は画像データ32及び位置データ34の記憶領域として用いられる。また、注視位置データ36を記憶する記憶部46は注視位置データ記憶部18として用いられ、メモリ44の一部領域は注視位置データ36の記憶領域として用いられる。また、対象物情報38を記憶する記憶部46は対象物情報記憶部22として用いられ、メモリ44の一部領域は対象物情報38の記憶領域として用いられる。これにより、注視対象物推定プログラム70を実行したコンピュータ40が、注視対象物推定装置10として機能することになる。   When the gaze target estimating apparatus 10 is realized by the computer 40, the storage unit 46 that stores the image data 32 and the position data 34 is used as the image data storage unit 14, and a partial area of the memory 44 is the image data 32 and the position. Used as a storage area for data 34. The storage unit 46 that stores the gaze position data 36 is used as the gaze position data storage unit 18, and a partial area of the memory 44 is used as a storage area for the gaze position data 36. The storage unit 46 that stores the object information 38 is used as the object information storage unit 22, and a partial area of the memory 44 is used as a storage area of the object information 38. As a result, the computer 40 that has executed the gaze target estimation program 70 functions as the gaze target estimation apparatus 10.

なお、注視対象物推定装置10は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。   Note that the gaze target estimation apparatus 10 can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit) or the like.

次に、図4のフローチャートを参照し、本実施形態に係る注視対象物推定装置10による注視対象物推定処理を説明する。なお、この注視対象物推定処理は、注視対象物推定装置10により、一定時間周期で繰り返し実行される。   Next, a gaze target estimation process performed by the gaze target estimation apparatus 10 according to the present embodiment will be described with reference to the flowchart of FIG. Note that this gaze target object estimation process is repeatedly executed by the gaze target object estimation device 10 at regular time intervals.

まず、ステップ100で、データ取得部12は、GPSセンサ60で検出された時刻t2における車両の位置を示す位置データ(以下、「位置Pt2」と表記する)を取得する。また、データ取得部12は、カメラ62により時刻t2において車両の周辺を撮影することにより得られた画像を示す画像データ(以下、「画像It2」と表記する)を取得する。また、データ取得部12は、視線センサ64で検出された時刻t2における車両のドライバの視線方向を示す視線データ(以下、「視線Et2」と表記する)を取得する。また、データ取得部12は、画像It2と位置Pt2と時刻t2とを対応付けて画像データ記憶部14に記憶する。   First, in step 100, the data acquisition unit 12 acquires position data (hereinafter referred to as “position Pt2”) indicating the position of the vehicle at time t2 detected by the GPS sensor 60. Further, the data acquisition unit 12 acquires image data (hereinafter referred to as “image It2”) indicating an image obtained by photographing the periphery of the vehicle at time t2 with the camera 62. The data acquisition unit 12 acquires line-of-sight data (hereinafter referred to as “line of sight Et2”) indicating the line-of-sight direction of the driver of the vehicle at time t2 detected by the line-of-sight sensor 64. Further, the data acquisition unit 12 stores the image It2, the position Pt2, and the time t2 in association with each other in the image data storage unit 14.

次に、ステップ102で、注視位置判定部16は、データ取得部12により取得された画像It2及び視線Et2に基づいて、公知の技術を用いて画像It2上での注視位置を判定する。そして、判定した注視位置の座標(以下、「注視位置Gt2」と表記する)を時刻t2と対応付けて注視位置データ記憶部18に記憶する。   Next, in step 102, the gaze position determination unit 16 determines a gaze position on the image It2 using a known technique based on the image It2 and the line of sight Et2 acquired by the data acquisition unit 12. The coordinates of the determined gaze position (hereinafter referred to as “gaze position Gt2”) are stored in the gaze position data storage unit 18 in association with the time t2.

次に、ステップ104で、対象物検出部20は、画像から対象物領域を検出する対象物検出処理を実行する。ここで、図5を参照して、対象物検出処理について説明する。   Next, in step 104, the target object detection unit 20 executes a target object detection process for detecting a target object region from the image. Here, the object detection processing will be described with reference to FIG.

ステップ200で、対象物検出部20は、画像データ記憶部14から画像It2及び位置Pt2を取得する。次に、ステップ202で、対象物検出部20は、取得した位置Pt2と対象物情報記憶部22に記憶された看板の設置位置とを比較し、位置Pt2周辺に存在する看板のテンプレートを抽出する。例えば、位置Pt2との距離が近い位置に設置されている看板を抽出すればよい。ここで距離が近いとは、例えば、位置Pt2から100m以内とすることができる。100mとは、前述の通り、案内標識の文字が確認できる程度である。条件に該当する看板が複数存在する場合には、対応する複数のテンプレートを抽出し、各テンプレートに番号Bk(k=1,・・・,N、Nは抽出されたテンプレートの数)を付与し、メモリ44の所定領域に記憶する。   In step 200, the object detection unit 20 acquires the image It2 and the position Pt2 from the image data storage unit 14. Next, in step 202, the object detection unit 20 compares the acquired position Pt2 with the signboard installation position stored in the object information storage unit 22, and extracts a signboard template existing around the position Pt2. . For example, a signboard installed at a position close to the position Pt2 may be extracted. Here, the distance is short, for example, within 100 m from the position Pt2. As described above, 100 m means that the characters on the guide sign can be confirmed. When there are a plurality of signboards that meet the conditions, a plurality of corresponding templates are extracted, and a number Bk (k = 1,..., N, N is the number of extracted templates) is assigned to each template. And stored in a predetermined area of the memory 44.

次に、ステップ204で、対象物検出部20は、検出された対象物領域に付与する番号に対応した変数iに1をセットする。次に、ステップ206へ移行し、対象物検出部20は、テンプレートBkについてk=1から順に、ステップ208〜216で示されるループ処理を実行する。ループ処理では、ステップ208で、対象物検出部20は、メモリ44の所定領域に記憶されたテンプレートBkを取得する。次に、ステップ210で、対象物検出部20は、画像It2とテンプレートBkとのマッチング処理を行い、画像It2上の各領域とテンプレートBkとの類似度を算出する。   Next, in step 204, the object detection unit 20 sets 1 to the variable i corresponding to the number assigned to the detected object area. Next, the process proceeds to step 206, and the object detection unit 20 executes a loop process indicated by steps 208 to 216 in order from k = 1 for the template Bk. In the loop process, in step 208, the object detection unit 20 acquires the template Bk stored in a predetermined area of the memory 44. Next, in step 210, the object detection unit 20 performs matching processing between the image It2 and the template Bk, and calculates the similarity between each region on the image It2 and the template Bk.

次に、ステップ212で、対象物検出部20は、上記ステップ210で算出された類似度の最大値である最大類似度を取得し、次のステップ214で、最大類似度が所定の閾値より大きいか否かを判定する。最大類似度が閾値より大きい場合には、ステップ216へ移行し、テンプレートBkに対応した看板aiを示す対象物領域Aiが検出されたことを記録する。ここでは、Ai=Bkとして記録すると共に、変数iを1インクリメントする。これにより、抽出されたテンプレートBkの全てについて対象物領域の検出処理が完了したときに、画像It2内から検出された看板を示す対象物領域のリストがAiとして得られる。最大類似度が閾値以下の場合には、画像It2内にテンプレートBkにマッチングする対象物領域は存在しないと判定して、ステップ216をスキップする。なお、所定の閾値は予め実験的に設定しておけばよい。   Next, in step 212, the object detection unit 20 acquires the maximum similarity that is the maximum value of the similarity calculated in step 210, and in the next step 214, the maximum similarity is greater than a predetermined threshold. It is determined whether or not. When the maximum similarity is larger than the threshold, the process proceeds to step 216, and it is recorded that the object area Ai indicating the signboard ai corresponding to the template Bk is detected. Here, while recording as Ai = Bk, the variable i is incremented by one. As a result, when the object region detection processing is completed for all of the extracted templates Bk, a list of object regions indicating signboards detected from the image It2 is obtained as Ai. If the maximum similarity is less than or equal to the threshold value, it is determined that there is no object region that matches the template Bk in the image It2, and step 216 is skipped. Note that the predetermined threshold may be experimentally set in advance.

k=Nとなった場合、すなわち抽出されたテンプレートBkの全てについて対象物領域の検出処理が終了した場合には、ステップ218で、ループ処理の終了判定がされて、注視対象物推定処理(図4)へリターンする。   When k = N, that is, when the object region detection process is completed for all of the extracted templates Bk, the loop process is determined to end in step 218, and the gaze object estimation process (FIG. Return to 4).

注視対象物処理にリターンすると、ステップ106へ移行し、遡及範囲決定部24aは、上記ステップ104の対象物検出処理において、時刻t2での対象物領域が検出されたか否かを判定する。対象物領域が検出されていない場合には、注視対象物推定処理を終了する。対象物領域が検出された場合には、ステップ108へ移行し、推定部24、対象物情報取得部26、分析部28、及びフィードバック部30は、対象物領域Aiについてi=1から順に、ステップ110〜122で示されるループ処理を実行する。   When the process returns to the gaze target object process, the process proceeds to step 106, and the retroactive range determination unit 24a determines whether or not a target area at time t2 is detected in the target object detection process of step 104. When the object area is not detected, the gaze object estimation process ends. When the object area is detected, the process proceeds to step 108, and the estimation unit 24, the object information acquisition unit 26, the analysis unit 28, and the feedback unit 30 sequentially perform steps from i = 1 for the object area Ai. A loop process indicated by 110 to 122 is executed.

ループ処理では、ステップ110で、遡及範囲決定部24aは、遡及範囲を決定する遡及範囲決定処理を実行する。ここで、図6を参照して、遡及範囲決定処理について説明する。   In the loop processing, in step 110, the retroactive range determining unit 24a executes a retroactive range determining process for determining the retroactive range. Here, the retroactive range determination process will be described with reference to FIG.

まず、ステップ300で、遡及範囲決定部24aは、車両の移動距離の閾値Dを設定する。閾値Dの値は、前述の通り、例えば100mとすることができる。次に、ステップ302で、遡及範囲決定部24aは、画像データ記憶部14から位置Pt2を取得する。次に、ステップ206へ移行し、遡及範囲決定部24aは、時刻t=t2から一定時間ずつ過去に遡って時刻t=tminに到る各時刻tについて、ステップ306〜310で示されるループ処理を実行する。ループ処理では、ステップ306で、遡及範囲決定部24aは、画像データ記憶部14から時刻tにおける車両の位置Ptを取得し、次のステップ308で、時刻t2と時刻t間での車両の移動距離Dt(Dt=|Pt−Pt2|)を算出する。次に、ステップ310で、遡及範囲決定部24aは、移動距離Dtがステップ300で設定した閾値D未満か否かを判定する。Dt<Dの場合には、次の過去の時刻tについてループ処理を繰り返す。Dt≧Dの場合には、ループ処理を抜けてステップ314へ移行する。また、ステップ310で否定判定されることなくtがtminとなった場合にも、ステップ312でループ処理の終了判定がなされてステップ314へ移行する。なお、tminは、例えば、前述のように対象物領域追跡部24bが処理不能になる(撮影された画像上で看板が消える)までの時間等を予め定めておく。   First, in step 300, the retroactive range determining unit 24a sets a threshold D for the moving distance of the vehicle. As described above, the threshold value D can be set to 100 m, for example. Next, in step 302, the retroactive range determination unit 24a acquires the position Pt2 from the image data storage unit 14. Next, the process proceeds to step 206, where the retroactive range determining unit 24a performs the loop process indicated by steps 306 to 310 for each time t that reaches the time t = tmin by going back in the past by a fixed time from the time t = t2. Run. In the loop processing, in step 306, the retroactive range determination unit 24a acquires the position Pt of the vehicle at time t from the image data storage unit 14, and in the next step 308, the moving distance of the vehicle between time t2 and time t. Dt (Dt = | Pt−Pt2 |) is calculated. Next, in step 310, the retroactive range determining unit 24a determines whether or not the movement distance Dt is less than the threshold D set in step 300. If Dt <D, the loop process is repeated for the next past time t. If Dt ≧ D, the loop process is exited and the process proceeds to step 314. Even if t is tmin without a negative determination in step 310, the end of the loop process is determined in step 312 and the process proceeds to step 314. Note that, for example, tmin is set in advance as the time until the object area tracking unit 24b becomes unprocessable (the signboard disappears on the photographed image) as described above.

ステップ314では、遡及範囲決定部24aは、現在の処理時刻tの値を遡及終了時刻t1とし、時刻t2を遡及開始時刻として遡及範囲t2〜t1を決定し、注視対象物推定処理(図4)へリターンする。   In step 314, the retroactive range determining unit 24a determines the retroactive range t2 to t1 with the current processing time t as the retroactive end time t1 and the time t2 as the retroactive start time, and gaze target object estimation processing (FIG. 4). Return to

注視対象物処理にリターンすると、ステップ112へ移行し、対象物領域追跡部24bは、遡及範囲の過去画像において対象物領域を追跡する対象物領域追跡処理を実行する。ここで、図7を参照して、対象物領域追跡処理について説明する。   When returning to the gaze target processing, the process proceeds to step 112, and the target region tracking unit 24b executes target region tracking processing for tracking the target region in the past image in the retroactive range. Here, the object region tracking process will be described with reference to FIG.

ステップ400で、対象物領域追跡部24bは、上記ステップ110の遡及範囲決定処理で決定された遡及範囲t2〜t1を処理範囲として設定する。次に、ステップ402で、対象物領域追跡部24bは、画像データ記憶部14から位置Pt2を取得し、次のステップ404で、上記ステップ104で検出された対象物領域Aiを取得する。そして、次のステップ406で、対象物領域追跡部24bは、対象物情報記憶部22から、対象物領域Aiに対応するテンプレートTを取得する。次に、ステップ408で、対象物領域追跡部24bは、対象物情報記憶部22から、対象物領域Aiが示す看板aiの設置位置Riを取得する。   In step 400, the object area tracking unit 24 b sets the retroactive range t <b> 2 to t <b> 1 determined in the retroactive range determining process in step 110 as a processing range. Next, in step 402, the object area tracking unit 24b acquires the position Pt2 from the image data storage unit 14, and in the next step 404, acquires the object area Ai detected in step 104. In step 406, the object area tracking unit 24b acquires the template T corresponding to the object area Ai from the object information storage unit 22. Next, in step 408, the object area tracking unit 24b acquires the installation position Ri of the signboard ai indicated by the object area Ai from the object information storage unit 22.

次に、ステップ410へ移行し、対象物領域追跡部24bは、t=t2から過去に遡る方向の遡及範囲内の各時刻tについて、ステップ412〜420で示されるループ処理を実行する。ループ処理では、ステップ412で、対象物領域追跡部24bは、画像データ記憶部14から時刻tにおける画像It及び位置Ptを取得する。次に、ステップ414で、対象物領域追跡部24bは、テンプレートの縮小率cを算出する。車両は前進しており、時刻t2から遡及する時刻tにおいて対象物aiは時刻t2より自車両から見て遠方に存在するため、画像It上の対象物領域Aiのサイズは、検出画像It2上でのサイズよりも小さい。そこで、検出時における対象物領域AiのテンプレートTを縮小して、過去画像用のテンプレートを生成する際の縮小率cを、例えば下記(1)式で算出する。   Next, the process proceeds to step 410, and the object region tracking unit 24b executes a loop process indicated in steps 412 to 420 for each time t within a retroactive range in the direction retroactive from t = t2. In the loop processing, in step 412, the object region tracking unit 24 b acquires the image It and the position Pt at time t from the image data storage unit 14. Next, in step 414, the object area tracking unit 24b calculates a reduction ratio c of the template. Since the vehicle is moving forward and the object ai exists farther from the own vehicle than the time t2 at the time t retroactive from the time t2, the size of the object area Ai on the image It is indicated on the detection image It2. Smaller than the size of. Accordingly, the reduction rate c when generating the template for the past image by reducing the template T of the object area Ai at the time of detection is calculated by, for example, the following equation (1).

c=|Pt2−Ri|/|Pt−Ri| ・・・(1)           c = | Pt2-Ri | / | Pt-Ri | (1)

(1)式により、車両から看板の設置位置までの距離に応じた縮小率cが求まる。   The reduction ratio c corresponding to the distance from the vehicle to the installation position of the signboard can be obtained from equation (1).

次に、ステップ416で、対象物領域追跡部24bは、上記ステップ406で取得したテンプレートTを上記ステップ414で算出した縮小率cを用いて縮小したテンプレートT’を生成する。次に、ステップ418で、対象物領域追跡部24bは、画像ItとテンプレートT’とのマッチング処理を行い、画像It上の各領域とテンプレートT’との類似度を算出する。次に、ステップ420で、対象物領域追跡部24bは、上記ステップ418で算出した類似度が最大となる画像It上の位置、すなわちテンプレートT’とマッチした位置を、時刻tにおける対象物領域Aiとして検出する。そして、その位置(座標)を追跡位置Qtとして、メモリ44の所定領域に記憶する。ここでマッチした位置をQtとして記憶することで、t2〜t1までの遡及処理完了時には、対象物領域Aiの追跡結果がQt2〜Qt1として得られる。すなわち或る時刻t(t2〜t1)に対して追跡位置Qtが得られたことを示す。   Next, in step 416, the object region tracking unit 24 b generates a template T ′ obtained by reducing the template T acquired in step 406 using the reduction ratio c calculated in step 414. Next, in step 418, the object region tracking unit 24b performs a matching process between the image It and the template T ', and calculates the similarity between each region on the image It and the template T'. Next, in step 420, the object region tracking unit 24b determines the position on the image It where the similarity calculated in step 418 is maximized, that is, the position matching the template T ′ as the object region Ai at time t. Detect as. Then, the position (coordinates) is stored in a predetermined area of the memory 44 as the tracking position Qt. By storing the matched position as Qt, the tracking result of the object area Ai is obtained as Qt2 to Qt1 when the retroactive processing from t2 to t1 is completed. That is, the tracking position Qt is obtained at a certain time t (t2 to t1).

t=t1となった場合、すなわち遡及範囲の各時刻について対象物領域の追跡処理が終了した場合には、ステップ422で、ループ処理の終了判定がなされて、注視対象物推定処理(図4)へリターンする。   When t = t1, that is, when the tracking process of the object region is completed for each time in the retroactive range, it is determined in step 422 that the loop process is finished, and the gaze target object estimation process (FIG. 4). Return to

注視対象物処理にリターンすると、ステップ114へ移行し、追跡位置・注視位置比較部24cは、対象物領域の追跡位置と注視位置とを比較する追跡位置・注視位置比較処理を実行する。ここで、図8を参照して、追跡位置・注視位置比較処理について説明する。   When the process returns to the gaze target processing, the process proceeds to step 114, and the tracking position / gaze position comparison unit 24c executes tracking position / gaze position comparison processing for comparing the tracking position of the target area with the gaze position. Here, the tracking position / gaze position comparison process will be described with reference to FIG.

ステップ500で、追跡位置・注視位置比較部24cは、上記ステップ110の遡及範囲決定処理で決定された遡及範囲t2〜t1を処理範囲として設定する。次に、ステップ502へ移行し、追跡位置・注視位置比較部24cは、t=t2から過去に遡る方向の遡及範囲内の各時刻tについて、ステップ504〜512で示されるループ処理を実行する。   In step 500, the tracking position / gaze position comparing unit 24c sets the retroactive range t2 to t1 determined in the retroactive range determining process in step 110 as a processing range. Next, the process proceeds to step 502, and the tracking position / gaze position comparing unit 24c executes a loop process indicated by steps 504 to 512 for each time t within a retroactive range in the direction retroactive from t = t2.

ループ処理では、ステップ504で、追跡位置・注視位置比較部24cは、メモリ44の所定領域に記憶された時刻tにおける追跡位置Qtを取得し、次のステップ506で、注視位置データ記憶部18から、時刻tにおける注視位置Gtを取得する。次に、ステップ508で、追跡位置・注視位置比較部24cは、画素間距離の閾値dを設定する。閾値dは、例えば、対象物追跡処理のステップ416で生成されたテンプレートT’のサイズ以内等、予め設定しておく。   In the loop processing, in step 504, the tracking position / gaze position comparison unit 24c acquires the tracking position Qt at time t stored in a predetermined area of the memory 44, and in the next step 506, the tracking position / gaze position comparison unit 24c The gaze position Gt at time t is acquired. Next, in step 508, the tracking position / gaze position comparison unit 24c sets a threshold value d for the inter-pixel distance. The threshold value d is set in advance, for example, within the size of the template T ′ generated in step 416 of the object tracking process.

次に、ステップ510で、追跡位置・注視位置比較部24cは、追跡位置Qtと注視位置Gt間での画素間距離dt(dt=|Qt−Gt|)を算出する。次に、ステップ512で、追跡位置・注視位置比較部24cは、画素間距離dtがステップ508で設定した閾値dより大きいか否かを判定する。dt>dの場合には、次の過去の時刻tについてループ処理を繰り返す。dt≦dの場合には、ループ処理を抜けてステップ516へ移行する。   Next, in step 510, the tracking position / gaze position comparing unit 24c calculates an inter-pixel distance dt (dt = | Qt−Gt |) between the tracking position Qt and the gaze position Gt. Next, in step 512, the tracking position / gaze position comparing unit 24c determines whether or not the inter-pixel distance dt is larger than the threshold value d set in step 508. If dt> d, the loop process is repeated for the next past time t. If dt ≦ d, the loop process is exited and the process proceeds to step 516.

ステップ516では、追跡位置・注視位置比較部24cは、時刻tにおいてドライバが看板aiを注視していたと判定して、注視対象物推定処理(図4)へリターンする。また、ステップ512で否定判定されることなくtがt1となった場合にも、ステップ514でループ処理の終了判定がなされて注視対象物推定処理(図4)へリターンする。なお、ステップ516をループ処理内で行うようにし、遡及範囲内の全時刻について、対象物aiを注視していたか否かを判定するようにしてもよい。   In step 516, the tracking position / gaze position comparing unit 24c determines that the driver is gazing at the sign ai at time t, and returns to the gaze target estimation process (FIG. 4). Also, when t becomes t1 without a negative determination in step 512, the loop process is determined to be ended in step 514, and the process returns to the gaze target estimation process (FIG. 4). Note that step 516 may be performed in a loop process, and it may be determined whether or not the object ai is being watched at all times within the retroactive range.

注視対象物処理にリターンすると、ステップ116へ移行し、対象物情報取得部26は、上記ステップ114の追跡位置・注視位置比較処理において、ドライバが看板aiを注視していたと判定されたか否かを判定する。注視していたと判定された場合には、ステップ118で、対象物情報取得部26は、ドライバが注視していたと判定された看板aiについて、対象物情報記憶部22から対象物情報を取得する。   When the process returns to the gaze target processing, the process proceeds to step 116, and the target object information acquisition unit 26 determines whether or not it is determined in the tracking position / gaze position comparison process in step 114 that the driver is gazing at the signboard ai. judge. If it is determined that the user is gazing, in step 118, the object information acquisition unit 26 acquires object information from the object information storage unit 22 for the sign ai that is determined to be being watched by the driver.

次に、ステップ120で、分析部28は、上記ステップ118で取得した対象物情報と、上記ステップ114での比較結果とに基づいて、ドライバの興味及び関心を分析する。次に、ステップ122で、フィードバック部30は、上記ステップ120での分析結果に基づく情報を、ドライバにフィードバックする。   Next, in step 120, the analysis unit 28 analyzes the interest and interest of the driver based on the object information acquired in step 118 and the comparison result in step 114. Next, in step 122, the feedback unit 30 feeds back information based on the analysis result in step 120 to the driver.

i=n(画像It2から検出された対象物領域の数)となった場合、すなわち検出された対象物領域Aiの全てについて注視対象物の判定処理が終了した場合には、ステップ124でループ処理の終了判定がなされて、注視対象物推定処理を終了する。   When i = n (the number of target areas detected from the image It2), that is, when the gaze target determination process is completed for all detected target areas Ai, a loop process is performed in step 124. Is determined to end the gaze target estimation process.

以上説明したように、本実施形態の注視対象物推定装置10によれば、車両周辺を撮影して得られた画像上から看板を示す対象物領域が検出された場合に、過去の時刻に撮影された画像上で対象物領域を追跡する。そして、追跡された対象物領域の位置と、その過去の時刻における注視位置とを比較して、ドライバが看板を注視していたか否かを判定する。そのため、ドライバが注視した看板の画像上でのサイズが小さい場合でも、ドライバが注視した看板を推定することができる。   As described above, according to the gaze target estimating apparatus 10 of the present embodiment, when a target area indicating a signboard is detected from an image obtained by shooting the periphery of the vehicle, the shot is taken at a past time. The object area is tracked on the recorded image. Then, the position of the tracked object area is compared with the gaze position at the past time, and it is determined whether or not the driver has gazes at the signboard. Therefore, even when the size of the signboard watched by the driver is small, the signboard watched by the driver can be estimated.

なお、上記実施形態では、注視対象物推定装置10を車両に搭載する場合について説明したが、注視対象物推定装置10を管理センタ等に設置されるサーバ装置として構成してもよい。この場合、車両に搭載されたGPSセンサ60、カメラ62、及び視線センサ64で取得された各データを、データ取得部12によりネットワーク等を介して取得するようにするとよい。   In the above-described embodiment, the case where the gaze target estimation device 10 is mounted on a vehicle has been described. However, the gaze target estimation device 10 may be configured as a server device installed in a management center or the like. In this case, each data acquired by the GPS sensor 60, the camera 62, and the line-of-sight sensor 64 mounted on the vehicle may be acquired by the data acquisition unit 12 via a network or the like.

また、開示の技術をサーバ装置として構成する場合には、図1に示したように、各構成を全て端末内に閉じた構成とする場合に限定されない。例えば、一部の記憶部や処理部を車載機側に、他の記憶部や処理部をサーバ側に設け、車載機とサーバ装置間で通信を行いながら上記の注視対象物推定処理を実行するようにしてもよい。この場合の概略構成の一例を図9に示す。図9の例では、データ取得部12、画像データ記憶部14、注視位置判定部16、注視位置データ記憶部18、対象物検出部20、及び推定部24を車載機10a側に設けている。また、対象物情報記憶部22、対象物情報取得部26、分析部28、及びフィードバック部30をサーバ装置10b側に設けている。なお、図9は一例であり、類推される装置構成はいずれも開示の技術に含まれる。   Further, when the disclosed technology is configured as a server device, as illustrated in FIG. 1, the configuration is not limited to a configuration in which all the components are closed in the terminal. For example, some storage units and processing units are provided on the in-vehicle device side, and other storage units and processing units are provided on the server side, and the above-described gaze target object estimation process is executed while communicating between the on-vehicle device and the server device. You may do it. An example of a schematic configuration in this case is shown in FIG. In the example of FIG. 9, the data acquisition unit 12, the image data storage unit 14, the gaze position determination unit 16, the gaze position data storage unit 18, the object detection unit 20, and the estimation unit 24 are provided on the in-vehicle device 10a side. The object information storage unit 22, the object information acquisition unit 26, the analysis unit 28, and the feedback unit 30 are provided on the server device 10b side. Note that FIG. 9 is an example, and any analogized device configuration is included in the disclosed technology.

また、一部または全部の構成をサーバ装置側に設ける場合には、複数の異なるドライバに関する情報が収集可能なため、分析部28により、看板の注目度等のデータも分析可能となる。例えば、看板毎にその看板を注視したドライバの数をカウントし、注視したドライバの数が多いほど、すなわち様々なドライバに良く注視されているほど、注目度が高い看板であると分析することができる。そして、フィードバック部30により、広告業者に対して、広告業者が設置している看板毎の注目度等のデータを、ネットワークを介して送信するなどしてフィードバックすることができる。   In addition, when a part or all of the configuration is provided on the server device side, information on a plurality of different drivers can be collected, so that the analysis unit 28 can also analyze data such as the degree of attention of the signboard. For example, for each signboard, the number of drivers who watched the signboard is counted, and the greater the number of drivers watched, that is, the more closely watched by various drivers, the more noticeable the signboard is. it can. Then, the feedback unit 30 can feed back data such as the degree of attention for each signboard installed by the advertising agency via the network to the advertising agency.

また、上記実施形態では、検出対象物を看板とする場合について説明したが、これに限定されず、道路標識等を検出対象物としてもよい。この場合、標識の視認し易さなどを分析したり、ドライバに対して標識の見落とし等の情報をフィードバックしたりすることができる。また、搭乗者はドライバに限定されず助手席等に搭乗した搭乗者であってもよく、さらに、移動体も車両に限定されず、電車等であってもよい。   Moreover, although the said embodiment demonstrated the case where a detection target object was made into a signboard, it is not limited to this, A road sign etc. is good also as a detection target object. In this case, it is possible to analyze the ease of visually recognizing the sign, or to feed back information such as an oversight of the sign to the driver. Further, the passenger is not limited to the driver but may be a passenger who has boarded the passenger seat, and the moving body is not limited to the vehicle, and may be a train or the like.

また、上記実施形態では、車両の位置を用いて車両周辺に設置された看板に対応したテンプレートを抽出して対象物領域を検出する場合について説明したが、これに限定されない。車両の位置情報を用いることなく、登録された全てまたは一部のテンプレートを用いて対象物領域を検出するようにしてもよい。   Moreover, although the said embodiment demonstrated the case where the object area | region was detected by extracting the template corresponding to the signboard installed in the vehicle periphery using the position of a vehicle, it is not limited to this. The object region may be detected using all or some of the registered templates without using the vehicle position information.

また、上記実施形態では、遡及範囲を一律に決定する場合について説明したが、ここの看板における最大文字サイズ等に応じて遡及範囲を変化させてもよい。   Moreover, although the said embodiment demonstrated the case where the retroactive range was determined uniformly, you may change a retroactive range according to the largest character size etc. in the signboard here.

また、上記では注視対象物推定プログラム70が記憶部46に予め記憶(インストール)されている態様を説明したが、注視対象物推定プログラム70は、CD−ROMやDVD−ROM等の記録媒体に記録されている形態で提供することも可能である。   In the above description, the gaze target estimation program 70 is stored (installed) in the storage unit 46 in advance. However, the gaze target estimation program 70 is recorded on a recording medium such as a CD-ROM or a DVD-ROM. It is also possible to provide it in the form in which it is provided.

本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。   All documents, patent applications and technical standards mentioned in this specification are to the same extent as if each individual document, patent application and technical standard were specifically and individually stated to be incorporated by reference. Incorporated by reference in the book.

以上の実施形態に関し、更に以下の付記を開示する。   Regarding the above embodiment, the following additional notes are disclosed.

(付記1)
移動体の周辺を各時刻にて撮影することで得られた画像の画像データの各々、及び前記各時刻における前記移動体の搭乗者の視線方向を示す視線データの各々を取得するデータ取得部と、
前記データ取得部により取得された前記画像データ及び前記視線データに基づいて、前記各時刻における前記画像データが示す画像内での前記搭乗者の注視位置を判定する判定部と、
前記画像データが示す画像から、予め定めた対象物に対応する対象物領域を検出する検出部と、
前記検出部により前記対象物領域が検出された前記画像より過去の時刻に撮影された過去画像から追跡された前記対象物領域の前記過去画像内での位置と、前記判定部により判定された前記過去画像内での前記搭乗者の注視位置とに基づいて、前記過去の時刻に前記搭乗者が前記対象物を注視していたか否かを推定する推定部と、
を含む注視対象物推定装置。
(Appendix 1)
A data acquisition unit that acquires each of image data of an image obtained by photographing the periphery of the moving object at each time, and each of the line-of-sight data indicating the line-of-sight direction of the passenger of the moving object at each time; ,
A determination unit that determines the gaze position of the passenger in the image indicated by the image data at each time based on the image data and the line-of-sight data acquired by the data acquisition unit;
A detection unit for detecting an object region corresponding to a predetermined object from an image indicated by the image data;
The position in the past image of the target region tracked from the past image taken at a time earlier than the image in which the target region is detected by the detection unit, and the determination unit An estimation unit that estimates whether or not the passenger was gazing at the object at the past time based on the gazing position of the passenger in a past image;
Gaze target estimation device including

(付記2)
前記推定部は、前記対象物領域が検出された前記画像が撮影された時刻からどの時刻まで遡及して前記過去画像上で前記対象物領域を追跡するかを示す遡及範囲を、前記搭乗者が前記対象物を認識可能な距離と、前記移動体の移動速度とに基づいて決定する付記1記載の注視対象物推定装置。
(Appendix 2)
The estimator has a retroactive range indicating whether the object area is to be traced on the past image from the time when the image where the object area was detected was captured, to the time when the passenger The gaze target estimation apparatus according to supplementary note 1, wherein the gaze target estimation apparatus is determined based on a distance at which the target can be recognized and a moving speed of the moving body.

(付記3)
前記対象物の詳細情報及び関連情報の少なくとも一方を含む対象物情報を記憶した対象物情報記憶部から、前記推定部により前記搭乗者が注視していたと判定された前記対象物に対応する前記対象物情報を取得する対象物情報取得部を含む付記1または付記2記載の注視対象物推定装置。
(Appendix 3)
The object corresponding to the object determined by the estimating unit to be watched by the occupant from the object information storage unit that stores the object information including at least one of the detailed information and the related information of the object The gaze target estimation device according to supplementary note 1 or supplementary note 2, including a target information acquisition unit that acquires target information.

(付記4)
前記推定部により前記対象物を注視していたと推定された前記搭乗者に関する情報と、前記対象物情報取得部により取得された前記対象物情報とに基づいて、前記搭乗者の興味及び関心を分析する分析部を含む付記3記載の注視対象物推定装置。
(Appendix 4)
Based on the information related to the passenger estimated to have watched the object by the estimating unit and the object information acquired by the object information acquiring unit, the interest and interest of the passenger are analyzed. The gaze target object estimation device according to supplementary note 3, including an analysis unit.

(付記5)
前記分析部による分析結果に基づく情報を、前記搭乗者または前記対象物の関連事業者にフィードバックするフィードバック部を含む付記4記載の注視対象物推定装置。
(Appendix 5)
The gaze target estimation apparatus according to supplementary note 4, including a feedback unit that feeds back information based on an analysis result by the analysis unit to the passenger or a related business operator of the target.

(付記6)
移動体の周辺を各時刻にて撮影することで得られた画像の画像データの各々、及び前記各時刻における前記移動体の搭乗者の視線方向を示す視線データの各々を取得するデータ取得ステップと、
前記データ取得ステップにより取得された前記画像データ及び前記視線データに基づいて、前記各時刻における前記画像データが示す画像内での前記搭乗者の注視位置を判定する判定ステップと、
前記画像データが示す画像から、予め定めた対象物に対応する対象物領域を検出する検出ステップと、
前記検出ステップにより前記対象物領域が検出された前記画像より過去の時刻に撮影された過去画像から追跡された前記対象物領域の前記過去画像内での位置と、前記判定ステップにより判定された前記過去画像内での前記搭乗者の注視位置とに基づいて、前記過去の時刻に前記搭乗者が前記対象物を注視していたか否かを推定する推定ステップと、
を含む注視対象物推定方法。
(Appendix 6)
A data acquisition step of acquiring each of image data of images obtained by photographing the periphery of the moving body at each time, and each of line-of-sight data indicating a line-of-sight direction of a passenger of the moving body at each time; ,
A determination step of determining a gaze position of the passenger in an image indicated by the image data at each time based on the image data and the line-of-sight data acquired by the data acquisition step;
A detection step of detecting an object region corresponding to a predetermined object from an image indicated by the image data;
The position in the past image of the object area tracked from the past image taken at a time earlier than the image in which the object area is detected by the detection step, and the position determined by the determination step An estimation step for estimating whether or not the occupant was gazing at the object at the past time based on the gazing position of the occupant in the past image;
Gaze target estimation method.

(付記7)
前記推定ステップは、前記対象物領域が検出された前記画像が撮影された時刻からどの時刻まで遡及して前記過去画像上で前記対象物領域を追跡するかを示す遡及範囲を、前記搭乗者が前記対象物を認識可能な距離と、前記移動体の移動速度とに基づいて決定する付記6記載の注視対象物推定方法。
(Appendix 7)
In the estimation step, the passenger indicates a retroactive range indicating from which time the image in which the object area was detected was captured to what time to track the object area on the past image. The gaze target object estimation method according to appendix 6, wherein the gaze target object determination method is determined based on a distance at which the target object can be recognized and a moving speed of the moving body.

(付記8)
前記対象物の詳細情報及び関連情報の少なくとも一方を含む対象物情報を記憶した対象物情報記憶部から、前記推定ステップにより前記搭乗者が注視していたと判定された前記対象物に対応する前記対象物情報を取得する対象物情報取得ステップを含む付記6または付記7記載の注視対象物推定方法。
(Appendix 8)
The object corresponding to the object determined to have been watched by the occupant from the object information storage unit storing object information including at least one of detailed information of the object and related information. The gaze target object estimation method according to Supplementary Note 6 or Supplementary Note 7, which includes a target information acquisition step for acquiring target information.

(付記9)
前記推定ステップにより前記対象物を注視していたと推定された前記搭乗者に関する情報と、前記対象物情報取得ステップにより取得された前記対象物情報とに基づいて、前記搭乗者の興味及び関心を分析する分析ステップを含む付記8記載の注視対象物推定方法。
(Appendix 9)
Based on the information related to the passenger estimated to have watched the object in the estimation step and the object information acquired in the object information acquisition step, the interest and interest of the passenger are analyzed. The gaze target object estimation method according to appendix 8, which includes an analysis step to perform.

(付記10)
前記分析ステップによる分析結果に基づく情報を、前記搭乗者または前記対象物の関連事業者にフィードバックするフィードバックステップを含む付記9記載の注視対象物推定方法。
(Appendix 10)
The gaze target object estimation method according to appendix 9, including a feedback step of feeding back information based on the analysis result of the analysis step to the passenger or a related business operator of the target object.

(付記11)
コンピュータに、
移動体の周辺を各時刻にて撮影することで得られた画像の画像データの各々、及び前記各時刻における前記移動体の搭乗者の視線方向を示す視線データの各々を取得するデータ取得ステップと、
前記データ取得ステップにより取得された前記画像データ及び前記視線データに基づいて、前記各時刻における前記画像データが示す画像内での前記搭乗者の注視位置を判定する判定ステップと、
前記画像データが示す画像から、予め定めた対象物に対応する対象物領域を検出する検出ステップと、
前記検出ステップにより前記対象物領域が検出された前記画像より過去の時刻に撮影された過去画像から追跡された前記対象物領域の前記過去画像内での位置と、前記判定ステップにより判定された前記過去画像内での前記搭乗者の注視位置とに基づいて、前記過去の時刻に前記搭乗者が前記対象物を注視していたか否かを推定する推定ステップと、
を含む処理を実行させるための注視対象物推定プログラム。
(Appendix 11)
On the computer,
A data acquisition step of acquiring each of image data of images obtained by photographing the periphery of the moving body at each time, and each of line-of-sight data indicating a line-of-sight direction of a passenger of the moving body at each time; ,
A determination step of determining a gaze position of the passenger in an image indicated by the image data at each time based on the image data and the line-of-sight data acquired by the data acquisition step;
A detection step of detecting an object region corresponding to a predetermined object from an image indicated by the image data;
The position in the past image of the object area tracked from the past image taken at a time earlier than the image in which the object area is detected by the detection step, and the position determined by the determination step An estimation step for estimating whether or not the occupant was gazing at the object at the past time based on the gazing position of the occupant in the past image;
Gaze target estimation program for executing a process including.

(付記12)
前記推定ステップは、前記対象物領域が検出された前記画像が撮影された時刻からどの時刻まで遡及して前記過去画像上で前記対象物領域を追跡するかを示す遡及範囲を、前記搭乗者が前記対象物を認識可能な距離と、前記移動体の移動速度とに基づいて決定する付記11記載の注視対象物推定プログラム。
(Appendix 12)
In the estimation step, the passenger indicates a retroactive range indicating from which time the image in which the object area was detected was captured to what time to track the object area on the past image. The gaze target object estimation program according to appendix 11, which is determined based on a distance at which the target object can be recognized and a moving speed of the moving body.

(付記13)
前記対象物の詳細情報及び関連情報の少なくとも一方を含む対象物情報を記憶した対象物情報記憶部から、前記推定ステップにより前記搭乗者が注視していたと判定された前記対象物に対応する前記対象物情報を取得する対象物情報取得ステップを含む付記11または付記12記載の注視対象物推定プログラム。
(Appendix 13)
The object corresponding to the object determined to have been watched by the occupant from the object information storage unit storing object information including at least one of detailed information of the object and related information. The gaze target object estimation program according to supplementary note 11 or supplementary note 12, which includes a target information acquisition step for acquiring target information.

(付記14)
前記推定ステップにより前記対象物を注視していたと推定された前記搭乗者に関する情報と、前記対象物情報取得ステップにより取得された前記対象物情報とに基づいて、前記搭乗者の興味及び関心を分析する分析ステップを含む付記13記載の注視対象物推定プログラム。
(Appendix 14)
Based on the information related to the passenger estimated to have watched the object in the estimation step and the object information acquired in the object information acquisition step, the interest and interest of the passenger are analyzed. The gaze target object estimation program according to supplementary note 13, including an analysis step to perform.

(付記15)
前記分析ステップによる分析結果に基づく情報を、前記搭乗者または前記対象物の関連事業者にフィードバックするフィードバックステップを含む付記14記載の注視対象物推定プログラム。
(Appendix 15)
15. The attention object estimation program according to supplementary note 14, including a feedback step of feeding back information based on the analysis result of the analysis step to the passenger or a related business operator of the object.

10 注視対象物推定装置
12 データ取得部
14 画像データ記憶部
16 注視位置判定部
18 注視位置データ記憶部
20 対象物検出部
22 対象物情報記憶部
24 推定部
24a 遡及範囲決定部
24b 対象物領域追跡部
24c 追跡位置・注視位置比較部
26 対象物情報取得部
28 分析部
30 フィードバック部
32 画像データ
34 位置データ
36 注視位置データ
38 対象物情報
40 コンピュータ
42 CPU
44 メモリ
46 記憶部
DESCRIPTION OF SYMBOLS 10 Gaze target estimation apparatus 12 Data acquisition part 14 Image data storage part 16 Gaze position determination part 18 Gaze position data storage part 20 Object detection part 22 Object information storage part 24 Estimation part 24a Retrospective range determination part 24b Object area tracking Unit 24c tracking position / gaze position comparison unit 26 object information acquisition unit 28 analysis unit 30 feedback unit 32 image data 34 position data 36 gaze position data 38 object information 40 computer 42 CPU
44 memory 46 storage unit

Claims (7)

移動体の周辺を各時刻にて撮影することで得られた画像の画像データの各々、及び前記各時刻における前記移動体の搭乗者の視線方向を示す視線データの各々を取得するデータ取得部と、
前記データ取得部により取得された前記画像データ及び前記視線データに基づいて、前記各時刻における前記画像データが示す画像内での前記搭乗者の注視位置を判定する判定部と、
前記画像データが示す画像から、予め定めた対象物に対応する対象物領域を検出する検出部と、
前記検出部により前記対象物領域が検出された前記画像より過去の時刻に撮影された過去画像から追跡された前記対象物領域の前記過去画像内での位置と、前記判定部により判定された前記過去画像内での前記搭乗者の注視位置とに基づいて、前記過去の時刻に前記搭乗者が前記対象物を注視していたか否かを推定する推定部と、
を含む注視対象物推定装置。
A data acquisition unit that acquires each of image data of an image obtained by photographing the periphery of the moving object at each time, and each of the line-of-sight data indicating the line-of-sight direction of the passenger of the moving object at each time; ,
A determination unit that determines the gaze position of the passenger in the image indicated by the image data at each time based on the image data and the line-of-sight data acquired by the data acquisition unit;
A detection unit for detecting an object region corresponding to a predetermined object from an image indicated by the image data;
The position in the past image of the target region tracked from the past image taken at a time earlier than the image in which the target region is detected by the detection unit, and the determination unit An estimation unit that estimates whether or not the passenger was gazing at the object at the past time based on the gazing position of the passenger in a past image;
Gaze target estimation device including
前記推定部は、前記対象物領域が検出された前記画像が撮影された時刻からどの時刻まで遡及して前記過去画像上で前記対象物領域を追跡するかを示す遡及範囲を、前記搭乗者が前記対象物を認識可能な距離と、前記移動体の移動速度とに基づいて決定する請求項1記載の注視対象物推定装置。   The estimator has a retroactive range indicating whether the object area is to be traced on the past image from the time when the image where the object area was detected was captured, to the time when the passenger The gaze target estimation device according to claim 1, wherein the gaze target estimation device is determined based on a distance at which the target can be recognized and a moving speed of the moving body. 前記対象物の詳細情報及び関連情報の少なくとも一方を含む対象物情報を記憶した対象物情報記憶部から、前記推定部により前記搭乗者が注視していたと判定された前記対象物に対応する前記対象物情報を取得する対象物情報取得部を含む請求項1または請求項2記載の注視対象物推定装置。   The object corresponding to the object determined by the estimating unit to be watched by the occupant from the object information storage unit that stores the object information including at least one of the detailed information and the related information of the object The gaze target estimation device according to claim 1, further comprising a target information acquisition unit that acquires target information. 前記推定部により前記対象物を注視していたと推定された前記搭乗者に関する情報と、前記対象物情報取得部により取得された前記対象物情報とに基づいて、前記搭乗者の興味及び関心を分析する分析部を含む請求項3記載の注視対象物推定装置。   Based on the information related to the passenger estimated to have watched the object by the estimating unit and the object information acquired by the object information acquiring unit, the interest and interest of the passenger are analyzed. The gaze target estimation device according to claim 3, further comprising an analysis unit that performs the analysis. 前記分析部による分析結果に基づく情報を、前記搭乗者または前記対象物の関連事業者にフィードバックするフィードバック部を含む請求項4記載の注視対象物推定装置。   The gaze target object estimation apparatus according to claim 4, further comprising a feedback unit that feeds back information based on an analysis result by the analysis unit to the passenger or a related business operator of the target object. 移動体の周辺を各時刻にて撮影することで得られた画像の画像データの各々、及び前記各時刻における前記移動体の搭乗者の視線方向を示す視線データの各々を取得するデータ取得ステップと、
前記データ取得ステップにより取得された前記画像データ及び前記視線データに基づいて、前記各時刻における前記画像データが示す画像内での前記搭乗者の注視位置を判定する判定ステップと、
前記画像データが示す画像から、予め定めた対象物に対応する対象物領域を検出する検出ステップと、
前記検出ステップにより前記対象物領域が検出された前記画像より過去の時刻に撮影された過去画像から追跡された前記対象物領域の前記過去画像内での位置と、前記判定ステップにより判定された前記過去画像内での前記搭乗者の注視位置とに基づいて、前記過去の時刻に前記搭乗者が前記対象物を注視していたか否かを推定する推定ステップと、
を含む注視対象物推定方法。
A data acquisition step of acquiring each of image data of images obtained by photographing the periphery of the moving body at each time, and each of line-of-sight data indicating a line-of-sight direction of a passenger of the moving body at each time; ,
A determination step of determining a gaze position of the passenger in an image indicated by the image data at each time based on the image data and the line-of-sight data acquired by the data acquisition step;
A detection step of detecting an object region corresponding to a predetermined object from an image indicated by the image data;
The position in the past image of the object area tracked from the past image taken at a time earlier than the image in which the object area is detected by the detection step, and the position determined by the determination step An estimation step for estimating whether or not the occupant was gazing at the object at the past time based on the gazing position of the occupant in the past image;
Gaze target estimation method.
コンピュータに、
移動体の周辺を各時刻にて撮影することで得られた画像の画像データの各々、及び前記各時刻における前記移動体の搭乗者の視線方向を示す視線データの各々を取得するデータ取得ステップと、
前記データ取得ステップにより取得された前記画像データ及び前記視線データに基づいて、前記各時刻における前記画像データが示す画像内での前記搭乗者の注視位置を判定する判定ステップと、
前記画像データが示す画像から、予め定めた対象物に対応する対象物領域を検出する検出ステップと、
前記検出ステップにより前記対象物領域が検出された前記画像より過去の時刻に撮影された過去画像から追跡された前記対象物領域の前記過去画像内での位置と、前記判定ステップにより判定された前記過去画像内での前記搭乗者の注視位置とに基づいて、前記過去の時刻に前記搭乗者が前記対象物を注視していたか否かを推定する推定ステップと、
を含む処理を実行させるための注視対象物推定プログラム。
On the computer,
A data acquisition step of acquiring each of image data of images obtained by photographing the periphery of the moving body at each time, and each of line-of-sight data indicating a line-of-sight direction of a passenger of the moving body at each time; ,
A determination step of determining a gaze position of the passenger in an image indicated by the image data at each time based on the image data and the line-of-sight data acquired by the data acquisition step;
A detection step of detecting an object region corresponding to a predetermined object from an image indicated by the image data;
The position in the past image of the object area tracked from the past image taken at a time earlier than the image in which the object area is detected by the detection step, and the position determined by the determination step An estimation step for estimating whether or not the occupant was gazing at the object at the past time based on the gazing position of the occupant in the past image;
Gaze target estimation program for executing a process including.
JP2012070305A 2012-03-26 2012-03-26 Gaze target estimation apparatus, method, and program Expired - Fee Related JP5811918B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012070305A JP5811918B2 (en) 2012-03-26 2012-03-26 Gaze target estimation apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012070305A JP5811918B2 (en) 2012-03-26 2012-03-26 Gaze target estimation apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2013200837A JP2013200837A (en) 2013-10-03
JP5811918B2 true JP5811918B2 (en) 2015-11-11

Family

ID=49521003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012070305A Expired - Fee Related JP5811918B2 (en) 2012-03-26 2012-03-26 Gaze target estimation apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5811918B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6024639B2 (en) * 2013-10-15 2016-11-16 株式会社デンソー Gaze position detection device and gaze position detection method
JP6323074B2 (en) * 2014-03-06 2018-05-16 株式会社デンソー Display object information display device
US20190156511A1 (en) * 2016-04-28 2019-05-23 Sharp Kabushiki Kaisha Region of interest image generating device
JP6143986B1 (en) * 2016-09-27 2017-06-07 三菱電機株式会社 Information presentation system
JP7057110B2 (en) * 2017-11-30 2022-04-19 パイオニア株式会社 Information presentation control device, information presentation control method and program

Also Published As

Publication number Publication date
JP2013200837A (en) 2013-10-03

Similar Documents

Publication Publication Date Title
US11087186B2 (en) Fixation generation for machine learning
US20220092816A1 (en) Vehicle Localization Using Cameras
JP6227165B2 (en) Image processing apparatus, in-vehicle display system, display apparatus, image processing method, and image processing program
US9881221B2 (en) Method and system for estimating gaze direction of vehicle drivers
Tran et al. Modeling and prediction of driver behavior by foot gesture analysis
US9336630B2 (en) Method and apparatus for providing augmented reality
JP5811918B2 (en) Gaze target estimation apparatus, method, and program
JP2013225295A5 (en)
CN104463163B (en) The device and method that characteristic point carrys out cognitive disorders object are extracted using laser scanner
US20190340448A1 (en) Event prediction system, event prediction method, program, and recording medium having same recorded therein
CN109074486A (en) Method for detecting traffic sign
US20200064912A1 (en) Eye gaze tracking of a vehicle passenger
US20150070682A1 (en) Apparatus and method for recognizing obstacle using laser scanner
CN112712703A (en) Vehicle video processing method and device, computer equipment and storage medium
US20120155711A1 (en) Apparatus and method for analyzing video
US9691196B2 (en) Data reproducing apparatus
CN111967451B (en) Road congestion detection method and device
CN110619256A (en) Road monitoring detection method and device
CN112580457A (en) Vehicle video processing method and device, computer equipment and storage medium
JP7365166B2 (en) Advertising evaluation system
WO2014112407A1 (en) Information processing system, information processing method, and program
CN110188645B (en) Face detection method and device for vehicle-mounted scene, vehicle and storage medium
CN106153053B (en) Device and method for controlling head-up display
US20190355246A1 (en) Vehicle recognition apparatus and vehicle recognition method
Ćosić et al. Time to collision estimation for vehicles coming from behind using in-vehicle camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150907

R150 Certificate of patent or registration of utility model

Ref document number: 5811918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees