JP2007172378A - Apparatus for specifying object to be gazed at - Google Patents

Apparatus for specifying object to be gazed at Download PDF

Info

Publication number
JP2007172378A
JP2007172378A JP2005370561A JP2005370561A JP2007172378A JP 2007172378 A JP2007172378 A JP 2007172378A JP 2005370561 A JP2005370561 A JP 2005370561A JP 2005370561 A JP2005370561 A JP 2005370561A JP 2007172378 A JP2007172378 A JP 2007172378A
Authority
JP
Japan
Prior art keywords
outdoor
target object
passenger
gaze
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005370561A
Other languages
Japanese (ja)
Other versions
JP4735242B2 (en
Inventor
Daiki Mori
大樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005370561A priority Critical patent/JP4735242B2/en
Publication of JP2007172378A publication Critical patent/JP2007172378A/en
Application granted granted Critical
Publication of JP4735242B2 publication Critical patent/JP4735242B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus for specifying an object to be gazed at that is capable of precisely specifying any outdoor object to be gazed at, which an occupant on a moving body has gazed at. <P>SOLUTION: A camera 1 images an outdoor field including an occupant's viewing field to create images Pc. When a line-of-sight sensor detects the direction of the occupant's line of sight, a line-of-sight behavior determining part determines if the occupant's line-of-sight behavior is in the state of gazing according to changes with time in the occupant's viewing field images Pg created every predetermined time. If the line-of-sight behavior is in the state of gazing, a character recognizing part recognizes character information T on the viewing field images Pg included in the outdoor object O to be gazed at which the occupant has gazed at. Based on the character information detected by the character recognizing part and information on the current position of the moving body detected by a GPS sensor, an object determining part refers to attribute information on outdoor objects including character information and position information previously stored in an object information storage device, and determines the outdoor object O to be gazed at which the occupant gazed. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、移動体の搭乗者が注視した屋外の注視対象物体を特定する注視対象物体特定装置に関するものである。   The present invention relates to a gaze target object identification device that identifies an outdoor gaze target object gazed by a passenger of a moving body.

従来、自動車などの移動体の搭乗者が関心を持った対象物体を推定する装置が一般に知られている。この種の装置として、例えば特許文献1に記載された関心度推定装置では、自己位置検出手段によって得られた移動体の現在位置から、予め記憶してある地図情報や屋外物体の位置情報を参照し、これらの位置情報と視線検出手段によって得られた搭乗者の視線方向との空間配置関係およびその継続時間に基づいて、現在位置の周辺に存在する屋外物体に対する搭乗者の関心度を算出している。
特開2005−6897号公報
2. Description of the Related Art Conventionally, an apparatus that estimates a target object that is of interest to a passenger of a moving body such as an automobile is generally known. As an apparatus of this type, for example, in the interest level estimation apparatus described in Patent Document 1, reference is made to prestored map information and outdoor object position information from the current position of the moving body obtained by the self-position detecting means. Then, based on the spatial arrangement relationship between the position information and the sight line direction of the occupant obtained by the sight line detection means and its duration, the degree of interest of the occupant for the outdoor object existing around the current position is calculated. ing.
JP 2005-6897 A

ところで、特許文献1に記載の関心度推定装置において、移動体に比べて動作範囲が微小である搭乗者の視線方向とその視線方向にある屋外物体との空間的な重なりを比較するには、移動体の位置および屋外物体の位置をそれぞれ高精度に検出する必要がある。しかしながら、自動車などの移動体は、通常、高速度で移動しているため、自己位置検出手段であるGPS(Global Positioning System)では十分な精度の位置情報が得られない。   By the way, in the interest level estimation device described in Patent Document 1, in order to compare the spatial overlap between the line of sight of the passenger whose movement range is smaller than that of the moving object and the outdoor object in the line of sight, It is necessary to detect the position of the moving body and the position of the outdoor object with high accuracy. However, since a moving body such as an automobile normally moves at a high speed, position information with sufficient accuracy cannot be obtained by GPS (Global Positioning System) which is a self-position detecting means.

すなわち、特許文献1に記載のような従来技術においては、予め記憶してある地図情報および屋外物体の位置情報に対する移動体の位置情報の整合性が不十分であるため、搭乗者が注視している屋外の注視対象物体を正確に特定するのが困難であるという問題がある。   That is, in the prior art as described in Patent Document 1, since the consistency of the position information of the moving body with respect to the map information stored in advance and the position information of the outdoor object is insufficient, There is a problem that it is difficult to accurately specify an outdoor gaze target object.

そこで、本発明は、移動体の搭乗者が注視した屋外の注視対象物体を正確に特定することができる注視対象物体特定装置を提供することを課題とする。   Accordingly, an object of the present invention is to provide a gaze target object identification device that can accurately identify an outdoor gaze target object that a passenger of a mobile object gazes at.

本発明に係る注視対象物体特定装置は、移動体の搭乗者が注視した屋外の注視対象物体を特定する装置であって、屋外撮影手段により撮影された搭乗者の視野領域を含む屋外の撮影画像を処理することにより、視線検出手段により検出された搭乗者の視線方向の視野画像を所定時間毎に順次生成し、その視野画像の時間的変化から搭乗者の視線挙動の注視状態を判定する視線挙動判定部と、搭乗者が注視した屋外の注視対象物体に含まれている視野画像上の文字情報を検出して認識する文字認識部と、文字認識部によって検出された文字情報および位置検出手段によって検出された移動体の現在位置の情報に基づき、予め対象情報記憶装置に記憶されている文字情報および位置情報を含む屋外物体の属性情報を参照することにより、搭乗者が注視した屋外の注視対象物体を判定する対象判定部とを備えていることを特徴とする。   The gaze target object specifying device according to the present invention is an apparatus for specifying an outdoor gaze target object that is watched by a passenger of a moving body, and is an outdoor photographed image including a passenger's field of view imaged by an outdoor photographing means. The visual line of the passenger's line-of-sight direction detected by the line-of-sight detection means is sequentially generated every predetermined time, and the line of sight for determining the gaze state of the passenger's line-of-sight behavior from the temporal change of the visual field image A behavior determination unit, a character recognition unit that detects and recognizes character information on a visual field image included in an outdoor gaze target object that the passenger gazes at, and character information and position detection means detected by the character recognition unit By referring to the attribute information of the outdoor object including character information and position information stored in advance in the target information storage device based on the information on the current position of the moving object detected by the Characterized in that it includes a visual outdoor gaze target object determining object determination unit.

本発明に係る注視対象物体特定装置では、屋外撮影手段が搭乗者の視野領域を含む移動体の前方の屋外を撮影すると共に、視線検出手段が搭乗者の視線方向を検出すると、視線挙動判定部が搭乗者の視線方向の視野画像を所定時間毎に順次生成し、その視野画像の時間的変化から搭乗者の視線挙動の注視状態を判定する。ここで、搭乗者の視線挙動が注視状態であれば、搭乗者が注視した屋外の注視対象物体に含まれている視野画像上の文字情報を文字認識部が検出して認識する。すると、対象判定部は、文字認識部によって検出された文字情報および位置検出手段によって検出された移動体の現在位置の情報に基づき、予め対象情報記憶装置に記憶されている文字情報および位置情報を含む屋外物体の属性情報を参照することにより、搭乗者が注視した屋外の注視対象物体を判定する。これにより、移動体の搭乗者が注視した屋外の注視対象物体が正確に特定される。   In the gaze target object identifying device according to the present invention, when the outdoor photographing unit photographs the outdoor in front of the moving body including the occupant's visual field area, and the sight line detecting unit detects the sight line direction of the occupant, Sequentially generates a field-of-view image in the sight line direction of the passenger at predetermined time intervals, and determines a gaze state of the sight line behavior of the passenger from the temporal change of the field image. Here, if the sight line behavior of the occupant is in the gaze state, the character recognition unit detects and recognizes character information on the visual field image included in the outdoor gazing target object gazed by the occupant. Then, the target determination unit obtains character information and position information stored in advance in the target information storage device based on the character information detected by the character recognition unit and the current position information of the moving object detected by the position detection unit. By referring to the attribute information of the included outdoor object, the outdoor gaze target object watched by the passenger is determined. As a result, the outdoor gaze target object that the occupant of the mobile object gazes at is accurately identified.

本発明の注視対象物体特定装置において、注視対象物体に対する搭乗者の興味度を判定する興味度判定手段が設けられていると、搭乗者が注視した屋外の注視対象物体に対する搭乗者の興味度を判定できるので好ましい。   In the gaze target object specifying device of the present invention, when interest level determination means for determining the degree of interest of the occupant with respect to the gaze target object is provided, the degree of interest of the occupant with respect to the outdoor gaze target object gazed by the passenger is determined. This is preferable because it can be determined.

ここで、興味度判定手段は、対象判定部で判定された注視対象物体に対する搭乗者の注視持続時間と、速度センサで検出された移動体の速度とに基づいて搭乗者の興味度を判定するように構成することができる。また、興味度判定手段は、対象情報記憶装置に記憶されている屋外物体の属性情報の参照要求操作の頻度に基づいて搭乗者の興味度を判定するように構成することができる。   Here, the degree of interest determination means determines the degree of interest of the occupant based on the gazing duration of the occupant with respect to the gaze target object determined by the target determination unit and the speed of the moving body detected by the speed sensor. It can be constituted as follows. Also, the interest level determination means can be configured to determine the interest level of the passenger based on the frequency of the reference request operation for the attribute information of the outdoor object stored in the target information storage device.

また、興味度判定手段を備えた本発明の注視対象物体特定装置には、興味度判定手段から通信装置を介して受信した注視対象物体毎の興味度を対象評価情報記憶装置に記憶されている評価情報と照合し、その照合結果を宣伝効果として評価して対象評価情報記憶装置に蓄積する宣伝効果判定部を設けることができる。この場合、搭乗者が注視した屋外の注視対象物体の宣伝効果を評価することができる。   Also, in the gaze target object specifying device of the present invention provided with the interest level determination means, the interest level for each gaze target object received from the interest level determination means via the communication device is stored in the target evaluation information storage device. It is possible to provide an advertisement effect determination unit that collates with evaluation information, evaluates the collation result as an advertisement effect, and stores the result in the target evaluation information storage device. In this case, it is possible to evaluate the advertising effect of the outdoor gaze target object that the passenger gazes at.

本発明に係る注視対象物体特定装置によれば、屋外撮影手段が搭乗者の視野領域を含む移動体の前方の屋外を撮影すると共に、視線検出手段が搭乗者の視線方向を検出すると、視線挙動判定部が搭乗者の視野画像を所定時間毎に順次生成し、その視野画像の時間的変化から搭乗者の視線挙動の注視状態を判定する。ここで、搭乗者の視線挙動が注視状態であれば、搭乗者が注視した屋外の注視対象物体に含まれている視野画像上の文字情報を文字認識部が検出して認識する。すると、対象判定部が文字認識部によって検出された文字情報および位置検出手段によって検出された移動体の現在位置の情報に基づき、予め対象情報記憶装置に記憶されている文字情報および位置情報を含む屋外物体の属性情報を参照することにより、搭乗者が注視した屋外の注視対象物体を判定する。従って、移動体の搭乗者が注視した屋外の注視対象物体を正確に特定することができる。   According to the gaze target object specifying device according to the present invention, when the outdoor photographing unit photographs the outdoor in front of the moving object including the passenger's visual field area, and the visual line detecting unit detects the passenger's visual line direction, The determination unit sequentially generates a passenger's visual field image at predetermined time intervals, and determines a gaze state of the passenger's gaze behavior from the temporal change of the visual field image. Here, if the sight line behavior of the occupant is in the gaze state, the character recognition unit detects and recognizes character information on the visual field image included in the outdoor gazing target object gazed by the occupant. Then, the target determination unit includes character information and position information stored in advance in the target information storage device based on the character information detected by the character recognition unit and the current position information of the moving object detected by the position detection unit. By referring to the attribute information of the outdoor object, an outdoor gaze target object that is watched by the passenger is determined. Therefore, it is possible to accurately specify the outdoor target object that the passenger of the moving object has observed.

以下、図面を参照して本発明に係る注視対象物体特定装置の実施形態を説明する。この説明において、同一または同様の構成要素については、同一の符号を付して重複した説明を省略することがある。ここで、参照する図面において、図1は第1実施形態に係る注視対象物体特定装置の構成を示すブロック図、図2は図1に示したカメラが撮影した屋外の撮影画像を搭乗者の視野画像に射影変換する処理を説明する模式図である。   Hereinafter, an embodiment of a gaze target object specifying device according to the present invention will be described with reference to the drawings. In this description, the same or similar components are denoted by the same reference numerals, and redundant description may be omitted. Here, in the drawings to be referred to, FIG. 1 is a block diagram showing the configuration of the gaze target object specifying device according to the first embodiment, and FIG. 2 is a field of view of the occupant's field of view taken outdoors by the camera shown in FIG. It is a schematic diagram explaining the process which carries out projective conversion to an image.

第1実施形態に係る屋外対象物特定装置は、例えば自車両としての自動車の搭乗者が注視した屋外広告などの注視対象物体を特定する装置であって、図1に示すように、屋外撮影手段としてのカメラ1、視線検出手段としての視線センサ2、視線挙動判定部3、文字認識部4、対象判定部5、対象情報記憶装置6、位置検出手段としてのGPS(Global Positioning System)センサ7を備えている。   The outdoor object specifying device according to the first embodiment is a device for specifying an object to be watched such as an outdoor advertisement watched by a passenger of an automobile as the own vehicle, for example, as shown in FIG. A gaze sensor 2 as a gaze detection means, a gaze behavior determination section 3, a character recognition section 4, a target determination section 5, a target information storage device 6, and a GPS (Global Positioning System) sensor 7 as a position detection means. I have.

ここで、視線センサ2、視線挙動判定部3、文字認識部4、対象判定部5、対象情報記憶装置6は、図示しない車載用のECU(Electric Control Unit)等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成されており、このECUは、入出力インターフェースI/O、A/Dコンバータ、プログラムおよびデータを記憶したROM(ReadOnly Memory)、入力データ等を一時記憶するRAM(Random Access Memory)、プログラムを実行するCPU(CentralProcessing Unit)等を備えている。   Here, the line-of-sight sensor 2, the line-of-sight behavior determining unit 3, the character recognizing unit 4, the target determining unit 5, and the target information storage device 6 are microcomputer hardware and software such as an in-vehicle ECU (Electric Control Unit) not shown. This ECU is composed of an input / output interface I / O, an A / D converter, a ROM (Read Only Memory) that stores programs and data, and a RAM (Random Access Memory) that temporarily stores input data and the like. A CPU (Central Processing Unit) for executing the program is provided.

カメラ1は、1台以上のCCDカメラや赤外線カメラからなる画像撮影装置で構成されており、図示しない自車両の例えばフロントウィンドウの上部付近に設置されることで、搭乗者の視野領域を含む自車両の前方の屋外画像を撮影する。このカメラ1は、基準座標系に対するX,Y,Z方向の3次元位置(図2参照)が予めキャリブレーションされており、その3次元位置が変化しないように固定されている。   The camera 1 is composed of an image photographing device composed of one or more CCD cameras and infrared cameras, and is installed near the upper part of the front window of the host vehicle (not shown) so as to include the passenger's field of view. Take an outdoor image in front of the vehicle. In this camera 1, the three-dimensional positions (see FIG. 2) in the X, Y, and Z directions with respect to the reference coordinate system are calibrated in advance, and the three-dimensional positions are fixed so as not to change.

このようなカメラ1は、その撮影画像のデータやカメラパラメータ(カメラの焦点距離、レンズの歪み係数、画像中心、空間中のカメラの位置と方向を決める回転行列、平行移動ベクトル等)を含む全ての撮影データを計測時刻情報と共に視線挙動判定部3に出力する。   Such a camera 1 includes all of the captured image data and camera parameters (camera focal length, lens distortion coefficient, image center, rotation matrix for determining the position and direction of the camera in space, translation vector, etc.). Is output to the gaze behavior determination unit 3 together with the measurement time information.

視線センサ2は、1台以上のCCDカメラや赤外線カメラからなる画像撮影装置と、この画像撮影装置が撮影した画像データを処理する1台の演算装置とを備えて構成されている。この視線センサ2を構成する画像撮影装置は、搭乗者の顔面を含む頭部付近を撮影できるように自車両の車室内の適所に設置されている。この画像撮影装置は、基準座標系に対するX,Y,Z方向の3次元位置(図2参照)が予めキャリブレーションされており、その3次元位置が変化しないように固定されている。   The line-of-sight sensor 2 includes an image capturing device including one or more CCD cameras and infrared cameras, and one arithmetic device that processes image data captured by the image capturing device. The image capturing device that constitutes the line-of-sight sensor 2 is installed at an appropriate position in the passenger compartment of the host vehicle so that the vicinity of the head including the face of the passenger can be captured. In this image capturing apparatus, the three-dimensional positions in the X, Y, and Z directions (see FIG. 2) with respect to the reference coordinate system are calibrated in advance, and the three-dimensional positions are fixed so as not to change.

視線センサ2を構成する演算装置は、画像撮影装置が撮影した搭乗者の頭部付近の画像データを入力して画像処理することにより、搭乗者の頭部の中心位置および左右の眼球の中心位置の3次元座標を算出すると共に、その頭部の中心位置を始点として左右の眼球の中心位置へ向かう方向ベクトルを搭乗者の視線方向として算出する。そして、算出した全ての視線データを計測時刻情報と共に視線挙動判定部3へ所定時間毎に繰り返して出力する。   The arithmetic unit that constitutes the line-of-sight sensor 2 inputs image data of the vicinity of the passenger's head captured by the image capturing device and performs image processing, whereby the center position of the passenger's head and the center positions of the left and right eyeballs are processed. And a direction vector from the center position of the head to the center position of the left and right eyeballs is calculated as the sight line direction of the passenger. Then, all the calculated line-of-sight data is repeatedly output to the line-of-sight behavior determination unit 3 together with the measurement time information at predetermined time intervals.

視線挙動判定部3は、カメラ1により撮影された搭乗者の視野領域を含む屋外の撮影画像を処理することにより、視線センサ2により検出された搭乗者の視線方向の視野画像を所定時間毎に順次生成し、その視野画像の変化から搭乗者の視線挙動の注視状態を判定する。以下、視線挙動判定部3による視線挙動判定処理の手順を図3に示すフローチャートに沿って説明する。   The line-of-sight behavior determination unit 3 processes a field-of-view image of the passenger's line-of-sight detected by the line-of-sight sensor 2 every predetermined time by processing an outdoor captured image including the field of view of the passenger captured by the camera 1. It produces | generates sequentially and determines the gaze state of a passenger | crew's gaze behavior from the change of the visual field image. Hereinafter, the procedure of the gaze behavior determination process by the gaze behavior determination unit 3 will be described with reference to the flowchart shown in FIG.

まず、ステップS10において、視線データおよび撮影データから視野画像データを生成する。このステップS10においては、計測時刻情報が同期すると判断される視線データおよび撮影データに基づき、視線データから図2に示す搭乗者の視線方向である視線軸Agを算出すると共に、撮影データから図2に示すカメラ1の撮影方向であるカメラ軸Acを算出する。そして、算出したカメラ軸Acおよび視線軸Agの情報に基づき、カメラ軸Acを視線軸Agに射影変換する行列を求め、カメラ1が撮影した撮影画像Pcのデータを射影変換することにより、搭乗者の視線軸Ag方向の視野画像Pgを所定時間毎に順次生成する。この視野画像Pg上では、撮影画像Pc上の屋外の注視対象物体Oの形状が搭乗者の視線で見た形状に変換される   First, in step S10, visual field image data is generated from line-of-sight data and imaging data. In step S10, the line-of-sight axis Ag, which is the line-of-sight direction of the occupant shown in FIG. 2, is calculated from the line-of-sight data based on the line-of-sight data and the photographing data determined to synchronize the measurement time information, and from the photographing data, FIG. The camera axis Ac, which is the shooting direction of the camera 1 shown in FIG. Based on the calculated information about the camera axis Ac and the line-of-sight axis Ag, a matrix for projectively transforming the camera axis Ac to the line-of-sight axis Ag is obtained, and the data of the photographed image Pc photographed by the camera 1 is projectively transformed. The visual field images Pg in the direction of the visual axis Ag are sequentially generated every predetermined time. On the visual field image Pg, the shape of the outdoor object to be watched O on the photographed image Pc is converted into the shape seen by the passenger's line of sight.

ここで、計測時刻情報の同期判断は、視線データの計測時刻を基準とし、視線データの計測時刻に最も近い計測時刻の撮影データを選択する。なお、カメラ1が2台以上のCCDカメラや赤外線カメラからなる画像撮影装置で構成されている場合、視線軸Agとの内積が最も小さくなるカメラ軸Acを有する画像撮影装置の撮影データを選択する。   Here, the synchronization determination of the measurement time information is based on the measurement time of the line-of-sight data, and the imaging data at the measurement time closest to the measurement time of the line-of-sight data is selected. When the camera 1 is composed of an image photographing device including two or more CCD cameras or infrared cameras, the photographing data of the image photographing device having the camera axis Ac with the smallest inner product with the visual axis Ag is selected. .

次のステップS11では、計測時刻tにおける視野画像データ上の特徴点mと比較用計測時刻tcmpにおける視野画像データ上の特徴点mの座標値の差分dIを算出する。このステップS11においては、まず、カメラ1による撮影画像Pcのデータに対し、基準座標系での3次元位置が既知かつ不変である特徴点mを予め設定する。そして、撮影画像データ上の特徴点mの座標値を(u,v)とし、視野画像データ上の特徴点mの座標値(u’,v’)を射影変換によって算出する。続いて、比較用計測時刻tcmpにおける視野画像データI(tcmp)上の特徴点mの座標値と、計測時刻tにおける視野画像データI(t)上の特徴点mの座標値とを求め、両者の差を画像差分dIとして算出する。   In the next step S11, a difference dI between the coordinate value of the feature point m on the visual field image data at the measurement time t and the feature point m on the visual field image data at the comparative measurement time tcmp is calculated. In step S11, first, a feature point m whose three-dimensional position in the reference coordinate system is known and unchanged is set in advance for the data of the captured image Pc obtained by the camera 1. Then, the coordinate value of the feature point m on the captured image data is (u, v), and the coordinate value (u ′, v ′) of the feature point m on the field-of-view image data is calculated by projective transformation. Subsequently, the coordinate value of the feature point m on the visual field image data I (tcmp) at the measurement time tcmp for comparison and the coordinate value of the feature point m on the visual field image data I (t) at the measurement time t are obtained. Is calculated as an image difference dI.

続くステップS12では、計測時刻tと比較用計測時刻tcmpとの時間差分dtと、算出された画像差分dIとに基づいて運転者の眼球運動速度(視線移動速度)vを算出する。   In the subsequent step S12, the driver's eye movement speed (line-of-sight movement speed) v is calculated based on the time difference dt between the measurement time t and the comparison measurement time tcmp and the calculated image difference dI.

次のステップS13では、算出された眼球運動速度vと予め設定してある眼球運動速度の閾値thdvとを比較し、眼球運動速度vが閾値thdv以内であるか否かを判定する。この判定結果がYESであって眼球運動速度vが閾値thdv以内であれば、続くステップS14で時間フラグtflagに時間差分dtを加算し、その後、ステップS15に進む。   In the next step S13, the calculated eye movement speed v is compared with a preset threshold value thdv of the eye movement speed to determine whether or not the eye movement speed v is within the threshold thdv. If the determination result is YES and the eye movement speed v is within the threshold thdv, the time difference dt is added to the time flag tflag in the subsequent step S14, and then the process proceeds to step S15.

一方、ステップS13における判定結果がNOであって眼球運動速度vが閾値thdvを超えていれば、ステップS16で時間フラグtflagをtflag=0にリセットし、その後、ステップS15に進む。   On the other hand, if the determination result in step S13 is NO and the eye movement speed v exceeds the threshold thdv, the time flag tflag is reset to tflag = 0 in step S16, and then the process proceeds to step S15.

ステップS15では、時間フラグtflagと予め設定してある時間フラグの閾値thdtflagとを比較し、時間フラグtflagが閾値thdtflag以上であるか否かを判定する。この判定結果がYESであって時間フラグtflagが閾値thdtflag以上であれば、計測時刻tにおける視線挙動が注視状態であるとみなし、次のステップS17で視線挙動を示すGact(t)をGact(t)=1とすると共に、計測時刻tまでの視線挙動の注視状態の持続時間を示すTdur(t)をTdur(t)=tflagとし、その後、ステップS18に進む。   In step S15, the time flag tflag is compared with a preset time flag threshold thdtflag to determine whether or not the time flag tflag is greater than or equal to the threshold thdtflag. If the determination result is YES and the time flag tflag is greater than or equal to the threshold thdtflag, the gaze behavior at the measurement time t is regarded as a gaze state, and Gact (t) indicating the gaze behavior in the next step S17 is changed to Gact (t ) = 1, and Tdur (t) indicating the duration of the gaze state of the gaze behavior until the measurement time t is set to Tdur (t) = tflag, and then the process proceeds to step S18.

一方、ステップS15における判定結果がNOであって時間フラグtflagが閾値thdtflag未満であれば、計測時刻tにおける視線挙動が移動状態であるとみなし、ステップS19で視線挙動を示すGact(t)をGact(t)=0とすると共に、視線挙動の注視状態の持続時間を示すTdur(t)をTdur(t)=0とし、その後、ステップS18に進む。   On the other hand, if the determination result in step S15 is NO and the time flag tflag is less than the threshold thdtflag, the gaze behavior at the measurement time t is regarded as a moving state, and Gact (t) indicating the gaze behavior in step S19 is Gact. (T) = 0, and Tdur (t) indicating the duration of the gaze state of the gaze behavior is set to Tdur (t) = 0, and then the process proceeds to step S18.

ステップS18では、計測時刻t、視線挙動Gact(t)、持続時間Tdur(t)の値を図1に示した文字認識部4に出力して視線挙動判定部3による視線挙動判定処理を終了する。   In step S18, the values of measurement time t, line-of-sight behavior Gact (t), and duration Tdur (t) are output to the character recognition unit 4 shown in FIG. 1, and the line-of-sight behavior determination process by the line-of-sight behavior determination unit 3 is terminated. .

図1に示した文字認識部4は、視線挙動判定部3で判定された搭乗者の視線挙動が注視状態であれば、搭乗者が注視した屋外広告などの注視対象物体O(図2参照)に含まれている電話番号やURL等の文字情報Tを図2の視野画像Pg上から検出して認識する。以下、文字認識部4による文字認識処理の手順を図4に示すフローチャートに沿って説明する。   The character recognition unit 4 shown in FIG. 1 is a gaze target object O such as an outdoor advertisement watched by the passenger if the gaze behavior of the passenger determined by the gaze behavior determination unit 3 is a gaze state (see FIG. 2). 2 detects and recognizes character information T such as a telephone number and URL contained in the field of view image Pg in FIG. Hereinafter, the procedure of the character recognition process by the character recognition part 4 is demonstrated along the flowchart shown in FIG.

まず、ステップS20において、視線挙動を示すGact(t)がGact(t)=1であり、かつ、視線挙動の注視状態の持続時間を示すTdur(t)がTdur(t)>0であるか否かを判定する。この判定結果がNOであればステップS20の判定を繰り返すが、判定結果がYESであって搭乗者の視線挙動の注視状態が持続している場合には、続くステップS21で計測時刻tにおける視野画像データI(t)上の中央部分を搭乗者の注視領域として決定する。   First, in step S20, whether Gact (t) indicating the line-of-sight behavior is Gact (t) = 1, and whether Tdur (t) indicating the duration of the gaze state of the line-of-sight behavior is Tdur (t)> 0. Determine whether or not. If this determination result is NO, the determination in step S20 is repeated. However, if the determination result is YES and the gaze behavior of the passenger's line-of-sight behavior is maintained, the visual field image at the measurement time t in the subsequent step S21. A central portion on the data I (t) is determined as a gaze area for the passenger.

次のステップS22では、搭乗者の注視領域である視野画像データI(t)上の中央部分に対してエッジ処理などの画像処理を施し、電話番号やURL等の文字情報Tと判定されるエッジが含まれている領域を文字領域として抽出する。その後、ステップS23で文字領域内に電話番号やURL等の文字部分と判定されるエッジが存在する否かを判定する。   In the next step S22, image processing such as edge processing is performed on the central portion on the field-of-view image data I (t), which is the gazing area of the passenger, and the edge determined as character information T such as a telephone number or URL An area including a character is extracted as a character area. Thereafter, in step S23, it is determined whether or not there is an edge determined to be a character part such as a telephone number or URL in the character area.

ステップS23の判定結果がYESであって文字領域内に電話番号やURL等の文字部分と判定されるエッジが存在する場合には、続くステップS24において、抽出された文字領域に対してテンプレートマッチングなどのパターン識別処理を施すことにより、電話番号やURL等の適合する文字列を計測時刻tにおける文字列Char(t)として決定する。   If the determination result in step S23 is YES and an edge that is determined to be a character part such as a telephone number or URL exists in the character area, template matching is performed on the extracted character area in the subsequent step S24. By performing this pattern identification processing, a suitable character string such as a telephone number or URL is determined as a character string Char (t) at the measurement time t.

次のステップS25では、電話番号やURL等の適合する文字列Char(t)が存在するか否かを判定し、判定結果がYESであれば、続くステップS26において、適合する文字列Char(t)を図1に示した対象判定部5に出力し、その後、文字認識部4による文字認識処理を終了する。   In the next step S25, it is determined whether or not there is a matching character string Char (t) such as a telephone number or a URL. If the determination result is YES, in the following step S26, the matching character string Char (t ) Is output to the object determination unit 5 shown in FIG. 1, and then the character recognition processing by the character recognition unit 4 is terminated.

一方、ステップS23の判定結果がNOの場合またはステップS25の判定結果がNOの場合には、適合する文字列Char(t)が存在しないものとみなして文字列Char(t)をChar(t)=NULLとした後、文字認識部4による文字認識処理を終了する。   On the other hand, if the determination result in step S23 is NO or the determination result in step S25 is NO, it is assumed that there is no matching character string Char (t), and the character string Char (t) is converted to Char (t). After setting = NULL, the character recognition process by the character recognition unit 4 is terminated.

図1に示した対象判定部5には、対象情報記憶装置6に予め記憶されている屋外広告などの屋外物体の属性情報(ID、名称、設置位置、電話番号、URL等)と、自車両の適所に設置されたGPSセンサ7により計測される自車両の現在位置の情報とが入力される。   The target determination unit 5 shown in FIG. 1 includes outdoor object attribute information (ID, name, installation position, telephone number, URL, etc.) stored in advance in the target information storage device 6 and the own vehicle. And the information on the current position of the host vehicle measured by the GPS sensor 7 installed at the appropriate position.

この対象判定部5は、文字認識部4から入力される電話番号やURL等の文字列Char(t)の情報と、GPSセンサ7から入力される自車両の現在位置の情報とに基づき、対象情報記憶装置6から入力される屋外物体の属性情報(ID、名称、設置位置、電話番号、URL等)を参照することにより、搭乗者が注視した屋外広告などの注視対象物体Oを特定する。以下、対象判定部5による対象判定処理の手順を図5に示すフローチャートに沿って説明する。   The target determination unit 5 is based on information on a character string Char (t) such as a telephone number or URL input from the character recognition unit 4 and information on the current position of the host vehicle input from the GPS sensor 7. By referring to the attribute information (ID, name, installation position, telephone number, URL, etc.) of the outdoor object input from the information storage device 6, the object to be watched O such as an outdoor advertisement watched by the passenger is specified. Hereinafter, the procedure of the object determination process by the object determination unit 5 will be described with reference to the flowchart shown in FIG.

まず、ステップS30では、対象情報記憶装置6から入力される屋外物体の設置位置と、GPSセンサ7から入力される自車両の現在位置とを比較し、両者間の距離が予め設定されている閾値以下となる場合には、自車両の現在位置の近傍に存在する所定の屋外物体を特定の屋外物体として抽出する。   First, in step S30, the installation position of the outdoor object input from the target information storage device 6 is compared with the current position of the host vehicle input from the GPS sensor 7, and the threshold between which the distance is set in advance is compared. In the following case, a predetermined outdoor object existing in the vicinity of the current position of the host vehicle is extracted as a specific outdoor object.

次のステップS31では、自車両の現在位置の近傍に特定の屋外物体が存在するか否かを判定し、判定結果がYESであって特定の屋外物体が抽出されている場合には、続くステップS32において、抽出された特定の屋外物体に付随する電話番号およびURLを文字認識部4から入力された電話番号およびURLの文字列Char(t)と比較する。   In the next step S31, it is determined whether or not a specific outdoor object exists in the vicinity of the current position of the host vehicle. If the determination result is YES and the specific outdoor object is extracted, the following step is performed. In S32, the telephone number and URL associated with the extracted specific outdoor object are compared with the telephone number and URL character string Char (t) input from the character recognition unit 4.

次のステップS33では、電話番号やURLが一致する特定の屋外物体が存在するか否かを判定する。そして、判定結果がYESであれば、続くステップS34において、電話番号やURLが一致する特定の屋外物体を計測時刻tにおける注視対象物体Oatn(t)として特定し、その後、対象判定部5による対象判定処理を終了する。   In the next step S33, it is determined whether or not there is a specific outdoor object having a matching telephone number or URL. If the determination result is YES, in the subsequent step S34, a specific outdoor object with a matching telephone number or URL is specified as the gaze target object Oatn (t) at the measurement time t, and then the target by the target determination unit 5 The determination process ends.

一方、ステップS31の判定結果がNOの場合またはステップS33の判定結果がNOの場合には、計測時刻tに注視対象物体Oatn(t)が存在しないものとみなし、ステップS35でOatn(t)=NULLとした後、対象判定部5による対象判定処理を終了する。   On the other hand, when the determination result of step S31 is NO or when the determination result of step S33 is NO, it is considered that the gaze target object Oatn (t) does not exist at the measurement time t, and Oatn (t) = at step S35. After setting to NULL, the target determination process by the target determination unit 5 is terminated.

以上説明したように、本発明の第1実施形態に係る注視対象物体特定装置では、カメラ1が搭乗者の視野領域を含む自車両の前方の屋外を撮影して撮影画像Pc(図2参照)を生成すると共に、視線センサ2が搭乗者の視線方向である視線軸Agを算出すると、視線挙動判定部3が撮影画像Pcのデータを射影変換することにより搭乗者の視線軸Ag方向にある視野画像Pg(図2参照)を所定時間毎に順次生成する。そして、順次生成した視野画像Pgの時間的変化に基づき、搭乗者の視線挙動の注視状態を判定する。   As described above, in the gaze target object specifying device according to the first embodiment of the present invention, the camera 1 captures the outdoors in front of the host vehicle including the field of view of the passenger and the captured image Pc (see FIG. 2). And the visual line sensor 2 calculates the visual axis Ag that is the direction of the occupant's visual line, the visual line behavior determination unit 3 performs projective conversion on the data of the captured image Pc, so that the visual field in the direction of the visual axis Ag of the occupant Images Pg (see FIG. 2) are sequentially generated every predetermined time. Then, the gaze state of the sight line behavior of the passenger is determined based on the temporal change of the sequentially generated visual field images Pg.

ここで、搭乗者の視線挙動が注視状態であれば、搭乗者が注視した屋外の注視対象物体Oに含まれている視野画像Pg上の電話番号やURL等の文字情報Tを文字認識部4が文字列Char(t)として認識する。すると、対象判定部5は、文字認識部4によって検出された電話番号やURL等の文字情報TおよびGPSセンサ7によって検出された自車両の現在位置の情報に基づき、予め対象情報記憶装置6に記憶されている屋外物体の属性情報(ID、名称、設置位置、電話番号、URL等)を参照することにより、搭乗者が注視した屋外の注視対象物体Oを計測時刻tにおける注視対象物体Oatn(t)として特定する。   Here, if the sight line behavior of the occupant is in the gazing state, the character recognition unit 4 uses the character information T such as the telephone number or URL on the field-of-view image Pg included in the outdoor gazing target object O gazed by the occupant. Is recognized as a character string Char (t). Then, the target determination unit 5 stores in advance in the target information storage device 6 based on the character information T such as the telephone number and URL detected by the character recognition unit 4 and the current position information of the host vehicle detected by the GPS sensor 7. By referring to the stored attribute information (ID, name, installation position, telephone number, URL, etc.) of the outdoor object, the outdoor target object O gazeed by the passenger at the measurement time t t).

従って、第1実施形態に係る注視対象物体特定装置によれば、自車両の搭乗者が注視した特定の屋外物体を計測時刻tにおける注視対象物体Oatnとして正確に特定することができる。その結果、屋外に設置されている看板などの種々の屋外広告に対し、自車両の搭乗者がどの屋外広告に注意を払ったかを調査することが可能となる。   Therefore, according to the gaze target object specifying device according to the first embodiment, it is possible to accurately specify the specific outdoor object watched by the passenger of the host vehicle as the gaze target object Oatn at the measurement time t. As a result, it becomes possible to investigate which outdoor advertisement the passenger of the own vehicle paid attention to various outdoor advertisements such as signs installed outdoors.

次に、図6を参照して本発明の第2実施形態に係る注視対象物体特定装置について説明する。この第2実施形態の注視対象物体特定装置は、図1に示した第1実施形態の注視対象物体特定装置の構成に車速センサ8および興味度判定手段としての興味度判定部9を追加したものであり、これらを除くその他の構成部分は、第1実施形態の注視対象物体特定装置と同様であるため、同一の符号を付すことで説明を省略する。   Next, a gaze target object specifying device according to the second embodiment of the present invention will be described with reference to FIG. The gaze target object specifying device of the second embodiment is obtained by adding a vehicle speed sensor 8 and an interest level determination unit 9 as an interest level determination means to the configuration of the gaze target object specification device of the first embodiment shown in FIG. Since the other components other than these are the same as those of the gaze target object identifying device of the first embodiment, description thereof is omitted by attaching the same reference numerals.

ここで、興味度判定部9には、計測時刻tにおいて搭乗者が注視した特定の注視対象物体Oatn(t)の情報が対象判定部5から入力されると共に、計測時刻tにおける自車両の車両速度vel(t)の情報が車速センサ8から入力される。   Here, the interest level determination unit 9 receives information on a specific gaze target object Oatn (t) that the passenger gazes at the measurement time t from the target determination unit 5 and also the vehicle of the host vehicle at the measurement time t. Information on the speed vel (t) is input from the vehicle speed sensor 8.

この興味度判定部9は、対象判定部5から入力される注視対象物体Oatn(t)に対する搭乗者の注視持続時間と、車速センサ8から入力される自車両の車両速度vel(t)とに基づき、注視対象物体Oatn(t)に対する搭乗者の興味度を判定する。以下、興味度判定部9による興味度判定処理の手順を図7に示すフローチャートに沿って説明する。   The interest level determination unit 9 uses the gazing duration of the passenger with respect to the gaze target object Oatn (t) input from the target determination unit 5 and the vehicle speed vel (t) of the host vehicle input from the vehicle speed sensor 8. Based on this, the degree of interest of the passenger with respect to the gaze target object Oatn (t) is determined. Hereinafter, the procedure of the interest level determination process by the interest level determination unit 9 will be described with reference to the flowchart shown in FIG.

まず、ステップS40では、計測時刻tにおける注視対象物体Oatn(t)がOatn(t)≠NULLであるか否かを判定する。この判定結果がYESであって注視対象物体Oatn(t)が存在すれば、計測時刻tにおいて搭乗者が屋外の注視対象物体Oを注視しているものとみなし、次のステップS41に進む。   First, in step S40, it is determined whether or not the gaze target object Oatn (t) at the measurement time t is Oatn (t) ≠ NULL. If this determination result is YES and there is a gaze target object Oatn (t), it is considered that the passenger is gaze at the gaze target object O at the measurement time t, and the process proceeds to the next step S41.

ステップS41では、計測時刻tにおける注視対象物体Oatn(t)と計測時刻tの直前の時刻tprvにおける注視対象物体Oatn(tprv)とを比較し、Oatn(t)=Oatn(tprv)であるか否かを判定する。この判定結果がYESであれば、搭乗者が屋外の注視対象物体Oを注視しているものとみなして次のステップS42に進む。   In step S41, the gaze target object Oatn (t) at the measurement time t is compared with the gaze target object Oatn (tprv) at the time tprv immediately before the measurement time t, and whether or not Oatn (t) = Oatn (tprv). Determine whether. If this determination result is YES, it is considered that the passenger is gazing at the outdoor target object O, and the process proceeds to the next step S42.

一方、ステップS40の判定結果がNOの場合またはステップS41の判定結果NOの場合には、計測時刻tにおいて搭乗者が屋外の注視対象物体Oを注視していないものとみなし、ステップS43で屋外の注視対象物体Oに対する搭乗者の注視時間Tatn(t)をTatn(t)NULLにリセットとした後、興味度判定部9による興味度判定処理を終了する。   On the other hand, when the determination result of step S40 is NO or the determination result of step S41 is NO, it is considered that the passenger is not gazing at the outdoor target object O at the measurement time t. After resetting the gazing time Tatn (t) of the passenger with respect to the gaze target object O to Tatn (t) NULL, the interest level determination process by the interest level determination unit 9 ends.

ステップS42では、搭乗者の注視時間Tatn(t)をTatn(t)=Tatn(tprv)+(t−tprv)として更新する。そして、続くステップS44では、注視時間Tatn(t)がTatn(t)>0であるか否かを判定する。   In step S42, the passenger's gaze time Tatn (t) is updated as Tatn (t) = Tatn (tprv) + (t−tprv). In subsequent step S44, it is determined whether or not the gaze time Tatn (t) is Tatn (t)> 0.

ここで、ステップS44の判定結果がNOであれば、興味度判定部9による興味度判定処理を終了するが、判定結果がYESであれば、搭乗者が屋外の注視対象物体Oを注視し続けているものとみなして次のステップS45に進む。   Here, if the determination result of step S44 is NO, the interest level determination process by the interest level determination unit 9 is terminated, but if the determination result is YES, the passenger continues to watch the outdoor object of interest O. The process proceeds to the next step S45.

ステップS45では、車速センサ8から入力される自車両の車両速度vel(t)に基づいて、屋外の注視対象物体Oの近傍を通過する自車両の通過時間を表す係数α(t)を算出する。ここで、係数α(t)は、予め設定された分類基準に基づいて算出されるものであり、例えば、車両速度が所定の速度より低い場合には、屋外の注視対象物体Oが搭乗者の視野に入る時間が長くなると考えられるため、α(t)<1の範囲に係数α(t)を設定する。逆に車両速度が所定の速度より高い場合には、屋外の注視対象物体Oが搭乗者の視野に入る時間が短くなると考えられるため、α(t)>1の範囲に係数α(t)を設定する。そして、車両速度が通常の速度範囲にある場合には、α(t)=1に係数α(t)を設定する。   In step S45, based on the vehicle speed vel (t) of the host vehicle input from the vehicle speed sensor 8, a coefficient α (t) representing the passing time of the host vehicle passing near the outdoor object of interest O is calculated. . Here, the coefficient α (t) is calculated based on a preset classification criterion. For example, when the vehicle speed is lower than a predetermined speed, the outdoor gaze target object O is the passenger's Since the time for entering the field of view is considered to be long, the coefficient α (t) is set in the range of α (t) <1. On the contrary, when the vehicle speed is higher than the predetermined speed, it is considered that the time during which the outdoor gazing target object O enters the field of view of the passenger is shortened. Set. When the vehicle speed is in the normal speed range, the coefficient α (t) is set to α (t) = 1.

次のステップS46では、計測時刻tにおいて搭乗者が注視対象物体Oatn(t)に対して興味を持った時間である興味時間TInt(Oatn(t))を算出する。この興味時間TInt(Oatn(t))は、注視時間Tatn(t)と係数α(t)とを用いて、「TInt(Oatn(t))=Tatn(tprv)+α(t)*(t−tprv)」の式により算出する。   In the next step S46, an interest time TInt (Oatn (t)), which is a time during which the passenger is interested in the gaze target object Oatn (t) at the measurement time t, is calculated. The interest time TInt (Oatn (t)) is calculated by using the gaze time Tatn (t) and the coefficient α (t), “TInt (Oatn (t)) = Tatn (tprv) + α (t) * (t− tprv) ".

続くステップS47では、注視対象物体Oatn(t)に対する搭乗者の注視状態が終了する直前の時刻、すなわち、計測時刻tの次の計測時刻tnxtにおける注視時間Tatn(tnxt)がTatn(tnxt)=0であるか否かを判定する。   In the subsequent step S47, the time immediately before the gazing state of the passenger with respect to the gaze target object Oatn (t), that is, the gaze time Tatn (tnxt) at the measurement time tnxt following the measurement time t is Tatn (tnxt) = 0. It is determined whether or not.

この判定結果がNOであれば、ステップS40へ戻るが、判定結果がYESであれば、興味時間TInt(Oatn(t))が最大となるため、その値を注視対象物体Oatn(t)に対する搭乗者の興味度として決定する。そして、その注視対象物体Oatn(t)を興味対象物体Oref(t)として記録すると共に、興味時間TInt(Oatn(t))を興味度Int(Oref)として記録し、その後、興味度判定部9による興味度判定処理を終了する。   If this determination result is NO, the process returns to step S40, but if the determination result is YES, the interest time TInt (Oatn (t)) is maximized, so that value is boarded on the gaze target object Oatn (t). It is determined as the degree of interest of the person. Then, the gaze target object Oatn (t) is recorded as the interest target object Oref (t), and the interest time TInt (Oatn (t)) is recorded as the interest level Int (Oref). Thereafter, the interest level determination unit 9 The interest level determination process is terminated.

以上説明したように、本発明の第2実施形態に係る注視対象物体特定装置によれば、対象判定部5から入力される注視対象物体Oatn(t)に対する搭乗者の注視持続時間と、車速センサ8から入力される自車両の車両速度vel(t)とに基づく興味度判定部9の興味度判定処理により、搭乗者が注していた注視対象物体Oatn(t)を興味対象物体Oref(t)として興味度判定部9に記録できると共に、搭乗者が注視対象物体Oatn(t)に対して興味を持った興味時間TInt(Oatn(t))を興味度Int(Oref)として興味度判定部9に記録できる。   As described above, according to the gaze target object specifying device according to the second embodiment of the present invention, the gazing duration of the occupant with respect to the gaze target object Oatn (t) input from the target determination unit 5 and the vehicle speed sensor 8, the interest level determination process of the interest level determination unit 9 based on the vehicle speed vel (t) of the host vehicle input from 8 is used to convert the gaze target object Oatn (t) that the passenger is gazing into the interest target object Oref (t ) As the interest level Int (Oref), and the interest time TInt (Oatn (t)) when the passenger is interested in the gaze target object Oatn (t). 9 can be recorded.

興味度判定部9に記録された興味対象物体Oref(t)および興味度Int(Oref)の情報は、屋外に設置されている看板などの種々の屋外広告の宣伝効果を計る指標として利用することが可能であり、その情報は、屋外広告の例えば設置使用量を決定する際の情報として用いることができる。   The information on the object of interest Oref (t) and the interest level Int (Oref) recorded in the interest level determination unit 9 is used as an index for measuring the advertising effect of various outdoor advertisements such as signs installed outdoors. The information can be used as information when determining, for example, the installation usage amount of an outdoor advertisement.

また、興味度判定部9に記録された興味対象物体Oref(t)に対する興味度Int(Oref)が極端に高い場合には、車両の運転者に脇見運転を誘発するような内容が含まれている屋外広告であると判断することもでき、広告内容の是非の判定指標として用いることができる。   In addition, when the degree of interest Int (Oref) for the object of interest Oref (t) recorded in the degree-of-interest determination unit 9 is extremely high, content that induces the driver to look aside is included. It can also be determined that the advertisement is an outdoor advertisement, and can be used as an appropriate determination index of the advertisement content.

続いて、図8を参照して本発明の第3実施形態に係る注視対象物体特定装置について説明する。この第3実施形態の注視対象物体特定装置は、図1に示した第1実施形態の注視対象物体特定装置の構成に参照操作検出手段10、興味度判定手段としての興味度判定部11およびディスプレイ12を追加したものであり、これらを除くその他の構成部分は、第1実施形態の注視対象物体特定装置と同様であるため、同一の符号を付すことで説明を省略する。   Next, a gaze target object specifying device according to the third embodiment of the present invention will be described with reference to FIG. The gaze target object specifying device according to the third embodiment includes a reference operation detection unit 10, an interest level determination unit 11 as an interest level determination unit, and a display in the configuration of the gaze target object specification device according to the first embodiment shown in FIG. 12 are added, and the other components other than these are the same as those of the gaze target object identifying device of the first embodiment, and thus the same reference numerals are given and description thereof is omitted.

興味判定部11は、図6に示した興味度判定部9と略同様に構成されており、自車両の搭乗者が興味を持った屋外の注視対象物体Oである興味対象物体Orefおよびその興味度Int(Oref)の情報が記録されている。   The interest determination unit 11 is configured in substantially the same manner as the interest level determination unit 9 illustrated in FIG. 6, and is an interest target object Oref that is an outdoor gaze target object O in which the passenger of the own vehicle is interested, and its interest. Int (Oref) information is recorded.

参照操作検出手段10は、タッチパネル、リモコン、マイクなどのいずれかを備えて構成されており、ディスプレイ12に表示された項目、すなわち、対象情報記憶装置6に記憶されている屋外物体の属性情報(ID、名称、設置位置、電話番号、URL等)に対する搭乗者の参照要求操作を検出し、その操作情報を興味判定部11に出力する。   The reference operation detection unit 10 is configured to include any one of a touch panel, a remote controller, a microphone, and the like, and items displayed on the display 12, that is, attribute information of outdoor objects stored in the target information storage device 6 ( A passenger's reference request operation for ID, name, installation position, telephone number, URL, etc.) is detected, and the operation information is output to the interest determination unit 11.

ディスプレイ12は、興味判定部11に記録されている興味対象物体Orefの情報を表示し、参照操作検出手段10で検出された搭乗者の操作情報を反映させた上で搭乗者から要求された興味対象物体Orefに対する詳細情報を表示する。   The display 12 displays the information of the object of interest Oref recorded in the interest determination unit 11 and reflects the passenger's operation information detected by the reference operation detection means 10 and then the interest requested by the passenger. Detailed information for the target object Oref is displayed.

ここで、興味度判定部11は、参照操作検出手段10から入力される参照要求操作の頻度に基づき、注視対象物体Oatn(t)に対する搭乗者の興味度を判定する。以下、興味度判定部11による興味度判定処理の手順を図9に示すフローチャートに沿って説明する。   Here, the degree-of-interest determination unit 11 determines the degree of interest of the passenger with respect to the gaze target object Oatn (t) based on the frequency of the reference request operation input from the reference operation detection unit 10. Hereinafter, the procedure of the interest level determination process by the interest level determination unit 11 will be described with reference to the flowchart shown in FIG.

まず、ステップS50では、対象判定部5から入力された注視対象物体Oatn(t)に関する情報を蓄積し、次のステップS51では、注視対象物体Oatn(t)に関する情報をディスプレイ12に表示する。   First, in step S50, information related to the gaze target object Oatn (t) input from the target determination unit 5 is accumulated. In next step S51, information related to the gaze target object Oatn (t) is displayed on the display 12.

続くステップS52では、ディスプレイ12に表示された注視対象物体Oatn(t)に対する参照操作検出手段10からの参照要求操作を検出したか否かを判定する。この判定結果がNOであればステップS52の判定を繰り返すが、判定結果がYESであって参照操作検出手段10からの参照要求操作を検出した場合には、続くステップS53に進む。   In a succeeding step S52, it is determined whether or not a reference request operation from the reference operation detection unit 10 for the gaze target object Oatn (t) displayed on the display 12 is detected. If this determination result is NO, the determination in step S52 is repeated, but if the determination result is YES and a reference request operation from the reference operation detection means 10 is detected, the process proceeds to the subsequent step S53.

ステップS53では、対象情報記憶装置6に記憶されている屋外物体の属性情報(ID、名称、設置位置、電話番号、URL等)を参照する。そして、次のステップSS54では、参照した興味対象物体(参照対象物体)Orefに関する詳細情報を獲得する。   In step S53, the outdoor object attribute information (ID, name, installation position, telephone number, URL, etc.) stored in the target information storage device 6 is referred to. In the next step SS54, detailed information regarding the referenced object of interest (reference object) Oref is acquired.

続くステップS55では、ステップSS54で獲得した興味対象物体(参照対象物体)Orefに関する詳細情報をディスプレイ12に表示する。そして、次のステップS56では、興味対象物体(参照対象物体)Orefに対して搭乗者が興味を示したものとして、興味度Int(Oref)をインクリメントして更新し、その後、興味判定部11による興味判定処理を終了する。   In a succeeding step S55, detailed information on the object of interest (reference object) Oref acquired in step SS54 is displayed on the display 12. Then, in the next step S56, the interest level Int (Oref) is incremented and updated on the assumption that the passenger is interested in the object of interest (reference object) Oref. The interest determination process ends.

以上説明したように、本発明の第3実施形態に係る注視対象物体特定装置によれば、興味判定部11による一連の興味判定処理により、対象情報記憶装置6に記憶されている屋外物体の属性情報(ID、名称、設置位置、電話番号、URL等)に対する搭乗者の参照要求操作を参照操作検出手段10で検出することができ、この参照操作検出手段10から興味判定部11に入力される参照要求操作の頻度に基づいて注視対象物体Oatn(t)に対する搭乗者の興味度を判定することができる。   As described above, according to the gaze target object specifying device according to the third embodiment of the present invention, the attributes of the outdoor object stored in the target information storage device 6 through a series of interest determination processes by the interest determination unit 11. The reference operation detection means 10 can detect a passenger's reference request operation for information (ID, name, installation position, telephone number, URL, etc.), and is input from the reference operation detection means 10 to the interest determination unit 11. Based on the frequency of the reference request operation, the degree of interest of the passenger with respect to the gaze target object Oatn (t) can be determined.

続いて、図10を参照して本発明の第4実施形態に係る注視対象物体特定装置について説明する。この第4実施形態の注視対象物体特定装置は、図6に示した第2実施形態の注視対象物体特定装置の構成に通信装置13,14、対象評価情報記憶装置15および宣伝効果判定部16を追加したものであり、これらを除くその他の構成部分は、第2実施形態の注視対象物体特定装置と同様であるため、同一の符号を付すことで説明を省略する。   Next, a gaze target object specifying device according to the fourth embodiment of the present invention will be described with reference to FIG. The gaze target object specifying device of the fourth embodiment includes communication devices 13 and 14, a target evaluation information storage device 15, and an advertisement effect determining unit 16 in the configuration of the gaze target object specifying device of the second embodiment shown in FIG. 6. The other components other than those added are the same as those of the gaze target object identifying device according to the second embodiment, and thus the same reference numerals are given and description thereof is omitted.

第4実施形態の注視対象物体特定装置では、搭乗者の注視対象となった特定の屋外物体に対する複数の搭乗者の興味度を集計し、一定期間内に集計された興味度をこれまでに蓄積されている特定の屋外物体に対する評価情報と照合し、その照合結果により一定期間内に集計した興味度を加味した評価情報を更新する。この評価情報は、宣伝効果として評価されたものであり、特定の屋外物体の設置場所の提供者に支払う対価を決定するのに用いることができる。   In the gaze target object identifying device of the fourth embodiment, the interest levels of a plurality of passengers with respect to a specific outdoor object that is a gaze target for the passenger are totalized, and the interest levels totaled within a certain period are accumulated so far. The evaluation information for the specific outdoor object is collated, and the evaluation information taking into account the degree of interest collected within a certain period is updated according to the collation result. This evaluation information is evaluated as an advertising effect, and can be used to determine a price to be paid to a provider of a specific outdoor object installation location.

ここで、通信装置13は、特定の屋外物体に対する複数の搭乗者の興味度として、興味度判定部9に記録された興味対象物体Orefへの興味度Int(Oref)に関する情報を入力して通信装置14へ送信する。通信装置14は、通信装置13から受信した興味度Int(Oref)に関する情報を宣伝効果判定部16に出力する。   Here, the communication device 13 inputs information regarding the interest level Int (Oref) to the object of interest Oref recorded in the interest level determination unit 9 as the interest level of a plurality of passengers with respect to a specific outdoor object, and performs communication. Transmit to device 14. The communication device 14 outputs information related to the degree of interest Int (Oref) received from the communication device 13 to the advertising effectiveness determination unit 16.

宣伝効果判定部16は、特定の屋外物体に対する評価情報としてこれまでに蓄積されている対象評価情報記憶装置15の評価情報を参照した上で、一定期間内に集計した興味度を加味した評価情報を更新する。以下、宣伝効果判定部16による宣伝効果判定処理の手順を図11に示すフローチャートに沿って説明する。   The advertisement effect determination unit 16 refers to the evaluation information stored in the target evaluation information storage device 15 that has been accumulated so far as evaluation information for a specific outdoor object, and then includes evaluation information that takes into account the degree of interest that is aggregated within a certain period of time. Update. Hereinafter, the procedure of the advertisement effect determination process by the advertisement effect determination unit 16 will be described with reference to the flowchart shown in FIG.

まず、ステップS60では、搭乗者が興味を示した興味対象物体Orefに関する興味度Int(Oref)を通信装置14から入力する。次のステップS61では、通信装置14から入力された興味度Int(Oref)をこれまでに入力されて記録されている興味度Int(Oref)の総和Sum(Oref)に追加して興味度Int(Oref)の総和Sum(Oref)更新する。   First, in step S60, the degree of interest Int (Oref) related to the object of interest Oref that the passenger has shown an interest in is input from the communication device 14. In the next step S61, the interest level Int (Oref) input from the communication device 14 is added to the sum Sum (Oref) of the interest level Int (Oref) input and recorded so far, and the interest level Int ( The sum Sum (Oref) of Oref) is updated.

続くステップSS62では、興味度Int(Oref)を集計する一定の設定期間が終了したか否かを判定する。この判定結果がNOであればステップS60からステップSS62までの処理が繰り返されるが、判定結果がYESであって設定期間が終了した場合には、続くステップS63に進む。   In a succeeding step SS62, it is determined whether or not a predetermined setting period for counting the interest level Int (Oref) has ended. If this determination result is NO, the processing from step S60 to step SS62 is repeated, but if the determination result is YES and the set period has ended, the processing proceeds to the subsequent step S63.

ステップS63では、更新された興味度Int(Oref)の総和Sum(Oref)を一定の設定期間内の評価情報Vcurとして決定すると共に、その一定の設定期間を評価期間Pcurとして決定する。   In step S63, the sum Sum (Oref) of the updated degree of interest Int (Oref) is determined as the evaluation information Vcur within a fixed setting period, and the fixed setting period is determined as the evaluation period Pcur.

次のステップS64では、対象評価情報記憶装置15に蓄積されているこれまでの評価情報Vaveと評価期間Psumとを参照し、今回の評価情報Vcurと蓄積されている評価情報Vaveとを比較すると共に、今回の評価期間Pcurと蓄積されている評価期間Psumとを比較する。   In the next step S64, the previous evaluation information Vave stored in the target evaluation information storage device 15 and the evaluation period Psum are referred to, and the current evaluation information Vcur is compared with the stored evaluation information Vave. The current evaluation period Pcur is compared with the accumulated evaluation period Psum.

続くステップS65では、評価情報をVupdに更新すると共に、評価期間をPupdに更新する。ここで、評価情報Vupdは、設定期間内の評価情報Vcurと、蓄積されている評価情報Vaveと、蓄積されている評価期間Psumと、今回の評価期間Pcurとに基づき、「Vupd=(Vcur+Vave*Psum)/(Pcur+Psum)」の式により算出する。また、評価期間をPupdは、「Pupd=Pcur+Psum」の式により算出する。   In subsequent step S65, the evaluation information is updated to Vupd, and the evaluation period is updated to Pupd. Here, the evaluation information Vupd is based on the evaluation information Vcur within the set period, the accumulated evaluation information Vave, the accumulated evaluation period Psum, and the current evaluation period Pcur, “Vupd = (Vcur + Vave * Psum) / (Pcur + Psum) ”. The evaluation period Pupd is calculated by the equation “Pupd = Pcur + Psum”.

次のステップS66では、興味対象物体Oref毎に全ての興味対象物体(参照対象物体)Orefについて評価情報を更新したか否かを判定する。この判定結果がNOであればステップS63からステップSS66までの処理が繰り返されるが、判定結果がYESであれば、続くステップS67に進む。   In the next step S66, it is determined whether or not the evaluation information has been updated for all interest object (reference object) Oref for each object of interest Oref. If this determination result is NO, the processes from step S63 to step SS66 are repeated, but if the determination result is YES, the process proceeds to the subsequent step S67.

ステップS67では、更新された評価情報を複数の搭乗者が興味を示した興味対象物体Orefの宣伝効果としてみなし、対象評価情報記憶装置15に予め記憶されている対価換算表と照合し、興味対象物体Orefに対する対価、すなわち、興味対象物体Orefの設置場所提供者への支払い対価を決定する。   In step S67, the updated evaluation information is regarded as the advertising effect of the object of interest Oref in which the plurality of passengers have shown interest, and is compared with the price conversion table stored in advance in the object evaluation information storage device 15, A consideration for the object Oref, that is, a payment consideration for the installation location provider of the object of interest Oref is determined.

そして、次のステップS68で全ての更新結果を対象評価情報記憶装置15に記録し、その後、宣伝効果判定部16によるによる宣伝効果判定処理を終了する。   Then, in the next step S68, all the update results are recorded in the target evaluation information storage device 15, and thereafter the advertising effect determination process by the advertising effect determination unit 16 is ended.

以上説明したように、本発明の第4実施形態に係る注視対象物体特定装置によれば、宣伝効果判定部16による一連の宣伝効果判定処理により、搭乗者が興味を示した興味対象物体Orefの宣伝効果を対価として評価することができる。     As described above, according to the gaze target object specifying device according to the fourth embodiment of the present invention, the series of the advertisement effect determination process by the advertisement effect determination unit 16 determines the interest object Oref that the passenger has shown interest in. Advertising effects can be evaluated as consideration.

本発明に係る注視対象物体特定装置は、前述した各実施形態に限定されるものではなく、例えば、図12に示す構成の注視対象物体特定装置としてもよい。この注視対象物体特定装置は、図8に示した第3実施形態の注視対象物体特定装置の構成に、図10に示した第4実施形態の注視対象物体特定装置における通信装置13,14、対象評価情報記憶装置15および宣伝効果判定部16を追加したものである。この図12に示す構成の注視対象物体特定装置においても、図10に示した第4実施形態の注視対象物体特定装置と同様の作用効果を得ることができる。   The gaze target object specifying device according to the present invention is not limited to the above-described embodiments, and may be, for example, a gaze target object specifying device having the configuration shown in FIG. This gaze target object specifying device includes communication devices 13 and 14 in the gaze target object specifying device of the fourth embodiment shown in FIG. 10, the target, in the configuration of the gaze target object specifying device of the third embodiment shown in FIG. 8. An evaluation information storage device 15 and an advertisement effect determination unit 16 are added. Also in the gaze target object specifying device having the configuration shown in FIG. 12, the same effects as those of the gaze target object specifying device of the fourth embodiment shown in FIG. 10 can be obtained.

本発明の第1実施形態に係る注視対象物体特定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the gaze target object specific device which concerns on 1st Embodiment of this invention. 図1に示したカメラが撮影した屋外の撮影画像を搭乗者の視野画像に射影変換する処理を説明する模式図である。It is a schematic diagram explaining the process which carries out projective conversion of the outdoor picked-up image image | photographed with the camera shown in FIG. 1 to a passenger | crew's visual field image. 図1に示した視線挙動判定部による視線挙動判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the gaze behavior determination process by the gaze behavior determination part shown in FIG. 図1に示した文字認識部による文字認識処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the character recognition process by the character recognition part shown in FIG. 図1に示した対象判定部による対象判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the object determination process by the object determination part shown in FIG. 本発明の第2実施形態に係る注視対象物体特定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the gaze target object specific device which concerns on 2nd Embodiment of this invention. 図6に示した興味度判定部による興味度判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the interest degree determination process by the interest degree determination part shown in FIG. 本発明の第3実施形態に係る注視対象物体特定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the gaze target object specific device which concerns on 3rd Embodiment of this invention. 図8に示した興味度判定部による興味度判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the interest degree determination process by the interest degree determination part shown in FIG. 本発明の第4実施形態に係る注視対象物体特定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the gaze target object specific device which concerns on 4th Embodiment of this invention. 図10に示した宣伝効果判定部による宣伝効果判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the advertisement effect determination process by the advertisement effect determination part shown in FIG. 本発明の他の実施形態に係る注視対象物体特定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the gaze target object identification device which concerns on other embodiment of this invention.

符号の説明Explanation of symbols

1…カメラ、2…視線センサ、3…視線挙動判定部、4…文字認識部、5…対象判定部、6…対象情報記憶装置、7…GPSセンサ、8…車速センサ、9…興味判定部、10…参照操作検出手段、11…興味判定部、12…ディスプレイ、13…通信装置、14…通信装置、15…対象評価情報記憶装置、16…宣伝効果判定部、O…屋外の注視対象物体、Pg…視野画像、Pc…撮影画像、T…文字情報、Ac…カメラ軸、Ag…視線軸。
DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Line-of-sight sensor, 3 ... Line-of-sight behavior determination part, 4 ... Character recognition part, 5 ... Object determination part, 6 ... Object information storage device, 7 ... GPS sensor, 8 ... Vehicle speed sensor, 9 ... Interest determination part DESCRIPTION OF SYMBOLS 10 ... Reference operation detection means, 11 ... Interest determination part, 12 ... Display, 13 ... Communication apparatus, 14 ... Communication apparatus, 15 ... Target evaluation information storage device, 16 ... Advertising effect determination part, O ... Outdoor gaze target object , Pg: Field image, Pc: Captured image, T: Character information, Ac: Camera axis, Ag: Line of sight.

Claims (4)

移動体の搭乗者が注視した屋外の注視対象物体を特定する装置であって、
屋外撮影手段により撮影された搭乗者の視野領域を含む屋外の撮影画像を処理することにより、視線検出手段により検出された搭乗者の視線方向の視野画像を所定時間毎に順次生成し、その視野画像の時間的変化から搭乗者の視線挙動の注視状態を判定する視線挙動判定部と、
搭乗者が注視した屋外の注視対象物体に含まれている前記視野画像上の文字情報を検出して認識する文字認識部と、
前記文字認識部によって検出された文字情報および位置検出手段によって検出された移動体の現在位置の情報に基づき、予め対象情報記憶装置に記憶されている文字情報および位置情報を含む屋外物体の属性情報を参照することにより、搭乗者が注視した屋外の注視対象物体を判定する対象判定部とを備えていることを特徴とする注視対象物体特定装置。
A device that identifies an outdoor object to be watched by a passenger of a moving object,
By processing an outdoor photographed image including the passenger's visual field imaged by the outdoor photographing means, a visual field image of the passenger's visual line direction detected by the visual line detecting means is sequentially generated every predetermined time, and the visual field A line-of-sight behavior determination unit that determines the gaze state of the passenger's line-of-sight behavior from temporal changes in the image;
A character recognition unit that detects and recognizes character information on the field-of-view image included in an outdoor gaze target object watched by a passenger;
Outdoor object attribute information including character information and position information stored in advance in the target information storage device based on the character information detected by the character recognition unit and the current position information of the moving object detected by the position detection means A target object identification device comprising: a target determination unit that determines an outdoor target object to be watched by a passenger by referring to.
前記対象判定部で判定された注視対象物体に対する搭乗者の注視持続時間と、速度センサで検出された移動体の速度とに基づき、前記注視対象物体に対する搭乗者の興味度を判定する興味度判定手段を備えていることを特徴とする請求項1に記載の注視対象物体特定装置。   Interest level determination for determining the degree of interest of the occupant with respect to the gaze target object based on the gaze duration of the occupant with respect to the gaze target object determined by the target determination unit and the speed of the moving body detected by the speed sensor The gaze target object specifying device according to claim 1, further comprising: means. 前記対象情報記憶装置に記憶されている屋外物体の属性情報の参照要求操作の頻度に基づき、前記注視対象物体に対する搭乗者の興味度を判定する興味度判定手段を備えていることを特徴とする請求項1に記載の注視対象物体特定装置。   An interest level determination means is provided for determining an interest level of the passenger with respect to the gaze target object based on a frequency of a reference request operation for attribute information of the outdoor object stored in the target information storage device. The gaze target object specifying device according to claim 1. 前記興味度判定手段から通信装置を介して受信した注視対象物体毎の興味度を対象評価情報記憶装置に記憶されている評価情報と照合し、その照合結果を宣伝効果として評価して対象評価情報記憶装置に蓄積する宣伝効果判定部を備えていることを特徴とする請求項2または3に記載の注視対象物体特定装置。
The degree of interest for each gaze target object received from the degree-of-interest determination means via the communication device is collated with the evaluation information stored in the object evaluation information storage device, and the comparison result is evaluated as an advertising effect to evaluate the object evaluation information. The gaze target object specifying device according to claim 2, further comprising an advertisement effect determination unit that accumulates in a storage device.
JP2005370561A 2005-12-22 2005-12-22 Gaze target object identification device Expired - Fee Related JP4735242B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005370561A JP4735242B2 (en) 2005-12-22 2005-12-22 Gaze target object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005370561A JP4735242B2 (en) 2005-12-22 2005-12-22 Gaze target object identification device

Publications (2)

Publication Number Publication Date
JP2007172378A true JP2007172378A (en) 2007-07-05
JP4735242B2 JP4735242B2 (en) 2011-07-27

Family

ID=38298848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005370561A Expired - Fee Related JP4735242B2 (en) 2005-12-22 2005-12-22 Gaze target object identification device

Country Status (1)

Country Link
JP (1) JP4735242B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105518666A (en) * 2013-08-29 2016-04-20 索尼公司 Information processing device and information processing method
JP2016062330A (en) * 2014-09-18 2016-04-25 株式会社デンソーアイティーラボラトリ Hyperprosexia state determination device and hyperprosexia state determination program
WO2018230678A1 (en) * 2017-06-16 2018-12-20 本田技研工業株式会社 In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, program, and command measurement device
US11069239B2 (en) 2017-06-16 2021-07-20 Honda Motor Co., Ltd. Event vehicle dispatch device, event vehicle dispatch method, program, and management system
US11586223B2 (en) 2017-06-16 2023-02-21 Honda Motor Co., Ltd. Vehicle and service management device
WO2023074802A1 (en) * 2021-10-29 2023-05-04 パイオニア株式会社 Information processing device, information processing method, and program for information processing device
US11794816B2 (en) 2017-06-16 2023-10-24 Honda Motor Co., Ltd. Automated driving vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02194470A (en) * 1989-01-24 1990-08-01 Seiko Epson Corp Electronic translation machine
JPH10207615A (en) * 1997-01-22 1998-08-07 Tec Corp Network system
JPH1131239A (en) * 1997-07-11 1999-02-02 Nippon Telegr & Teleph Corp <Ntt> Direction under consideration landscape labeling device and system
JP2002207732A (en) * 2001-01-10 2002-07-26 Hiroshi Ono Translation device
JP2003067407A (en) * 2001-08-24 2003-03-07 Clarion Co Ltd Vehicle-mounted information retrieving device and information retrieving method
JP2003150306A (en) * 2002-11-14 2003-05-23 Toshiba Corp Information display device and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02194470A (en) * 1989-01-24 1990-08-01 Seiko Epson Corp Electronic translation machine
JPH10207615A (en) * 1997-01-22 1998-08-07 Tec Corp Network system
JPH1131239A (en) * 1997-07-11 1999-02-02 Nippon Telegr & Teleph Corp <Ntt> Direction under consideration landscape labeling device and system
JP2002207732A (en) * 2001-01-10 2002-07-26 Hiroshi Ono Translation device
JP2003067407A (en) * 2001-08-24 2003-03-07 Clarion Co Ltd Vehicle-mounted information retrieving device and information retrieving method
JP2003150306A (en) * 2002-11-14 2003-05-23 Toshiba Corp Information display device and method thereof

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105518666A (en) * 2013-08-29 2016-04-20 索尼公司 Information processing device and information processing method
CN105518666B (en) * 2013-08-29 2020-01-17 索尼公司 Information processing apparatus, information processing method, and computer program
JP2016062330A (en) * 2014-09-18 2016-04-25 株式会社デンソーアイティーラボラトリ Hyperprosexia state determination device and hyperprosexia state determination program
WO2018230678A1 (en) * 2017-06-16 2018-12-20 本田技研工業株式会社 In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, program, and command measurement device
JP2020089744A (en) * 2017-06-16 2020-06-11 本田技研工業株式会社 In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, program, and indication measuring device
US20200197791A1 (en) 2017-06-16 2020-06-25 Honda Motor Co., Ltd. In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
US11069239B2 (en) 2017-06-16 2021-07-20 Honda Motor Co., Ltd. Event vehicle dispatch device, event vehicle dispatch method, program, and management system
JP7216033B2 (en) 2017-06-16 2023-01-31 本田技研工業株式会社 In-vehicle presentation device, in-vehicle presentation system, in-vehicle presentation method, and program
US11586223B2 (en) 2017-06-16 2023-02-21 Honda Motor Co., Ltd. Vehicle and service management device
US11691070B2 (en) 2017-06-16 2023-07-04 Honda Motor Co., Ltd. In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
US11794816B2 (en) 2017-06-16 2023-10-24 Honda Motor Co., Ltd. Automated driving vehicle
WO2023074802A1 (en) * 2021-10-29 2023-05-04 パイオニア株式会社 Information processing device, information processing method, and program for information processing device

Also Published As

Publication number Publication date
JP4735242B2 (en) 2011-07-27

Similar Documents

Publication Publication Date Title
CN106952303B (en) Vehicle distance detection method, device and system
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
CN102782741B (en) Vehicle periphery monitoring device
JP4735242B2 (en) Gaze target object identification device
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US9158738B2 (en) Apparatus for monitoring vicinity of a vehicle
US9842259B2 (en) Captured image recognition device, captured image recognition system, and captured image recognition method
JP2007265125A (en) Content display
JP5956248B2 (en) Image monitoring device
CN110199316B (en) Camera and image processing method of camera
JP2010113313A (en) Electronic advertisement apparatus, electronic advertisement method and program
CN110136091B (en) Image processing method and related product
US20150010206A1 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
US11037014B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20160005156A1 (en) Infrared selecting device and method
JP2011089784A (en) Device for estimating direction of object
CN110609721A (en) Information display method and display system thereof
CN108710841A (en) A kind of face living body detection device and method based on MEMs infrared sensor arrays
JP2016195323A (en) Information processing apparatus, information processing method, and program
WO2014112407A1 (en) Information processing system, information processing method, and program
US20150350571A1 (en) Device and method for selecting thermal images
JPWO2019215780A1 (en) Identification system, model re-learning method and program
CN108363985B (en) Target object perception system testing method and device and computer readable storage medium
JP7040627B2 (en) Calculator, information processing method and program
CN112114659A (en) Method and system for determining a fine point of regard for a user

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

R151 Written notification of patent or utility model registration

Ref document number: 4735242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees