JP2019114118A - Warning device, vehicle, warning method, and program - Google Patents
Warning device, vehicle, warning method, and program Download PDFInfo
- Publication number
- JP2019114118A JP2019114118A JP2017248200A JP2017248200A JP2019114118A JP 2019114118 A JP2019114118 A JP 2019114118A JP 2017248200 A JP2017248200 A JP 2017248200A JP 2017248200 A JP2017248200 A JP 2017248200A JP 2019114118 A JP2019114118 A JP 2019114118A
- Authority
- JP
- Japan
- Prior art keywords
- specific area
- warning
- determination
- user
- gaze position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000001514 detection method Methods 0.000 claims abstract description 78
- 238000003384 imaging method Methods 0.000 claims abstract description 33
- 238000006243 chemical reaction Methods 0.000 claims description 39
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 4
- 206010033799 Paralysis Diseases 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 241001282110 Pagrus major Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、警告装置、自動車、警告方法、及びプログラムに係り、特に自動車に搭載される警告装置に関するものである。 The present invention relates to a warning device, a vehicle, a warning method, and a program, and more particularly to a warning device mounted on a vehicle.
従来、このような警告装置として、信号が青に変わった際に警告を発することで、赤信号で停車している運転者に自動車の発進を促すものが知られている(例えば、特許文献1参照)。しかしながら、このような警告装置では、信号が変わる度に警告が発せられるため、該警告に運転者が煩わしさを感じたり、ひいては、運転者が警告に麻痺してしまい警告としての用を成さなくなってしまうおそれがある。 Conventionally, as such a warning device, there has been known a device which urges a driver who has stopped at a red light to start the vehicle by giving a warning when the light turns to blue (for example, Patent Document 1) reference). However, in such a warning device, since the warning is issued whenever the signal changes, the driver may feel bothersome to the warning, and the driver may be paralyzed by the warning, thus serving as a warning. There is a risk of being lost.
本発明は、このような従来技術の問題点に鑑みてなされたもので、必要最低限のタイミングで警告を発することができる警告装置を提供することを第1の目的とする。 The present invention has been made in view of the problems of the prior art and has a first object to provide a warning device capable of issuing a warning at a minimum necessary timing.
また、本発明は、安全かつ快適に運転することができる自動車を提供することを第2の目的とする。 Another object of the present invention is to provide a car that can be driven safely and comfortably.
また、本発明は、必要最低限のタイミングで警告を発することができる警告方法を提供することを第3の目的とする。 The third object of the present invention is to provide a warning method capable of giving a warning at the minimum necessary timing.
さらに、本発明は、コンピュータに、必要最低限のタイミングで警告を発生させるプログラムを提供することを第4の目的とする。 Furthermore, the present invention has a fourth object to provide a program that causes a computer to generate an alert at a minimum necessary timing.
本発明の第1の態様によれば、必要最低限のタイミングで警告を発することができる警告装置が提供される。この警告装置は、撮像部と、上記撮像部により取得された画像のうち少なくとも特定の色の光を発する特定領域を検出する特定領域検出部と、ユーザの視線位置を検出する視線位置検出部と、判断部とを備える。この判断部は、上記視線位置検出部により検出された上記視線位置と上記特定領域検出部により検出された上記特定領域とに基づいて、上記ユーザが上記特定領域を見ているか否かのユーザ認識判断を行う。また、この警告装置は、上記ユーザ認識判断において上記ユーザが上記特定領域を見ていないと判断された場合に警告を出力する警告出力部を備える。 According to a first aspect of the present invention, an alerting device capable of emitting an alert at a minimum necessary timing is provided. The warning device includes an imaging unit, a specific area detection unit that detects a specific area that emits at least a specific color of an image acquired by the imaging unit, and a gaze position detection unit that detects a gaze position of a user. , And a determination unit. The determination unit determines whether the user views the specific area based on the visual line position detected by the visual line position detection unit and the specific area detected by the specific area detection unit. Make a judgment. The warning device also includes a warning output unit that outputs a warning when it is determined that the user does not look at the specific area in the user recognition determination.
このような警告装置によれば、特定の色の光を発する特定領域とユーザの視線位置とに基づくユーザ認識判断においてユーザが特定領域を見ていないと判断された場合に警告が出力される。したがって、警告のタイミングが必要最低限になり、ユーザが警告に煩わしさを感じたり、警告に麻痺してしまうことが効果的に抑制される。 According to such a warning device, a warning is output when it is determined that the user does not look at the specific area in the user recognition determination based on the specific area emitting the light of the specific color and the gaze position of the user. Therefore, the timing of the warning is minimized, and it is effectively suppressed that the user feels bothered with the warning or paralyzes the warning.
なお、上記ユーザ認識判断には、上記視線位置検出部により検出された上記視線位置が上記特定領域検出部により検出された上記特定領域に含まれるか否かを判断する第1の判断が含まれることが好ましい。この場合、上記第1の判断は、上記視線位置検出部により検出された上記視線位置と上記特定領域検出部により検出された上記特定領域とを所定の基準座標に対応付けることにより行われることがさらに好ましい。そして、所定の基準座標への対応付けを行うために、この警告装置は、上記撮像部により取得された画像を上記基準座標に変換する画像変換部と、上記視線位置を上記基準座標に変換する視線位置変換部とをさらに備えてもよい。この場合、上記第1の判断では、上記基準座標に変換された上記視線位置が上記基準座標に変換された上記特定領域に含まれるか否かが判断されることが好ましい。このような構成により、ユーザ認識判断のアルゴリズム構築が容易になる。 Note that the user recognition determination includes a first determination to determine whether the gaze position detected by the gaze position detection unit is included in the specific region detected by the specific region detection unit. Is preferred. In this case, the first determination is further performed by associating the sight line position detected by the sight line position detection unit and the specific area detected by the specific area detection unit with predetermined reference coordinates. preferable. Then, in order to perform association with predetermined reference coordinates, the warning device converts the image position acquired by the imaging unit into the reference coordinates, and converts the gaze position into the reference coordinates. It may further comprise a gaze position conversion unit. In this case, preferably, in the first determination, it is determined whether the gaze position converted to the reference coordinate is included in the specific area converted to the reference coordinate. Such a configuration facilitates the construction of an algorithm for user recognition judgment.
また、この警告装置では、上記基準座標により規定される基準領域が一定の広さを有する複数のブロックに区分けされていることが好ましい。この場合、上記第1の判断では、上記基準領域における上記視線位置と上記基準領域における上記特定領域とが上記複数のブロックのうち同一ブロックであるときに、上記視線位置が上記特定領域に含まれると判断される。このような構成により、ユーザが特定領域を見ているにも関わらず警告が出力される誤作動が生じることが効果的に抑制される。 Further, in this warning device, it is preferable that the reference area defined by the reference coordinates is divided into a plurality of blocks having a certain size. In this case, in the first determination, the visual line position is included in the specific area when the visual line position in the reference area and the specific area in the reference area are the same block among the plurality of blocks. It is judged. With such a configuration, occurrence of an erroneous operation in which a warning is output even when the user is looking at the specific area is effectively suppressed.
なお、上記複数のブロックのうち少なくとも1つが、上記ユーザと上記特定領域との相対距離の変化の大きさに基づいて他のブロックと相違する広さに形成されていてもよい。また、この場合、上記撮像部により取得された画像のうち、上記特定の色の光を発し、かつ、上記ユーザとの上記相対距離が変化する領域を特定領域とし、上記特定領域が上記複数のブロックのうち広いブロックに含まれるように上記基準領域が区分けされてもよい。このような構成により、ユーザと特定領域との相対距離が変化する場合に上記誤作動が生じることが効果的に抑制される。 Note that at least one of the plurality of blocks may be formed to have a width different from that of the other blocks based on the magnitude of the change in the relative distance between the user and the specific area. Further, in this case, in the image acquired by the imaging unit, a region where light of the specific color is emitted and the relative distance to the user changes is defined as a specific region, and the specific region is the plurality of the plurality The reference area may be divided so as to be included in a wide block among the blocks. With such a configuration, the occurrence of the erroneous operation is effectively suppressed when the relative distance between the user and the specific area changes.
ところで、上記ユーザ認識判断には、上記第1の判断に基づいて上記ユーザが上記特定領域を見ているか否かを判断する第2の判断が含まれることが好ましい。そして、この第2の判断では、例えば、上記第1の判断において上記視線位置が上記特定領域に含まれないと判断された回数が所定時間内に所定の閾値に達した場合に上記ユーザが上記特定領域を見ていないと判断されてもよい。なお、上記第2の判断では、他の例として、上記第1の判断において、上記視線位置が上記特定領域に含まれるとの判断が所定時間内において連続的に所定回数行われなかった場合に、上記ユーザが上記特定領域を見ていないと判断することも可能である。このような構成により、ユーザ認識判断をより正確に行うことが可能になる。 Preferably, the user recognition determination includes a second determination to determine whether the user is looking at the specific area based on the first determination. Then, in the second determination, for example, when the number of times the sight line position is determined not to be included in the specific area in the first determination reaches a predetermined threshold within a predetermined time, the user determines that the user It may be determined that the specific area is not seen. In the second determination, as another example, in the first determination, the determination that the sight line position is included in the specific region is not performed a predetermined number of times consecutively within a predetermined time. It is also possible to judge that the user does not look at the specific area. Such a configuration makes it possible to make user recognition judgment more accurately.
ここで、上記特定の色の光は赤色光であってもよい。このような構成により、警告装置が自動車に搭載された場合に、運転者に赤信号の認識を促す警告を必要最低限のタイミングで出力することが可能となる。 Here, the light of the specific color may be red light. With such a configuration, when the warning device is mounted in a car, it is possible to output a warning for prompting the driver to recognize a red light at a necessary minimum timing.
本発明の第2の態様によれば、安全かつ快適に運転することができる自動車が提供される。この自動車は、上記警告装置を備えている。なお、この自動車は、所定の基準座標により規定される基準領域を画定するフロントガラスをさらに備えてもよい。フロントガラスの座標を基準座標とした場合、ユーザ認識判断のアルゴリズム構築が容易になり得る。 According to a second aspect of the present invention, there is provided an automobile capable of driving safely and comfortably. This car is equipped with the above-mentioned warning device. The vehicle may further include a windshield defining a reference area defined by predetermined reference coordinates. When the coordinates of the windshield are used as the reference coordinates, the algorithm construction of the user recognition judgment can be facilitated.
本発明の第3の態様によれば、必要最低限のタイミングで警告を発することができる警告方法が提供される。この警告方法によれば、まず画像を取得し、取得された上記画像のうち特定の色の光を発する特定領域を検出する。また、ユーザの視線位置を検出する。そして、検出された上記視線位置と検出された上記特定領域とに基づいて、上記ユーザが上記特定領域を見ているか否かを判断する。そして、上記ユーザが上記特定領域を見ていないと判断された場合に警告を出力する。 According to a third aspect of the present invention, there is provided a warning method capable of giving a warning at a minimum required timing. According to this warning method, first, an image is acquired, and a specific area that emits light of a specific color is detected among the acquired images. In addition, the gaze position of the user is detected. Then, based on the detected gaze position and the detected specific area, it is determined whether the user is looking at the specific area. Then, when it is determined that the user does not look at the specific area, a warning is output.
本発明の第4の態様によれば、コンピュータに、必要最低限のタイミングで警告を発生させるプログラムが提供される。このプログラムは、コンピュータに、画像を取得させ、取得された上記画像のうち特定の色の光を発する特定領域を検出させる。また、コンピュータに、ユーザの視線位置を検出させ、検出された上記視線位置と検出された上記特定領域とに基づいて、上記ユーザが上記特定領域を見ているか否かの判断を実行させる。そして、上記ユーザが上記特定領域を見ていないと判断した場合に警告を出力させる。 According to a fourth aspect of the present invention, there is provided a program that causes a computer to generate an alert at a minimum required timing. The program causes a computer to acquire an image, and detects a specific area that emits light of a specific color among the acquired images. Further, the computer is made to detect the gaze position of the user, and based on the detected gaze position and the detected specific area, it is determined whether the user is looking at the specific area. Then, when it is determined that the user does not look at the specific area, a warning is output.
本発明によれば、特定領域とユーザの視線位置とに基づくユーザ認識判断においてユーザが特定領域を見ていないと判断された場合に警告が出力されるため、警告のタイミングを必要最低限にすることができる。 According to the present invention, a warning is output when it is determined that the user does not look at the specific area in the user recognition determination based on the specific area and the gaze position of the user, so the timing of the warning is minimized. be able to.
以下、本発明に係る警告装置の実施形態について図1から図8を参照して詳細に説明する。なお、図1から図8において、同一又は相当する構成要素には、同一の符号を付して重複した説明を省略する。また、図1から図8においては、各構成要素の縮尺や寸法が誇張されて示されている場合や一部の構成要素が省略されている場合がある。 Hereinafter, an embodiment of a warning device according to the present invention will be described in detail with reference to FIGS. 1 to 8. Note that, in FIG. 1 to FIG. 8, the same or corresponding components are given the same reference numerals, and duplicate explanations are omitted. In addition, in FIGS. 1 to 8, the scale and dimensions of each component may be exaggerated and shown, or some components may be omitted.
図1は本発明の一実施形態における警告装置1を示すブロック図、図2は警告装置1を搭載した自動車の車内の一部を模式的に示す図である。本実施形態では、図2に示すように、警告装置1は自動車80に搭載されており、赤信号92で停車している運転者(ユーザ)が赤信号92を見ていない場合に、赤信号92を見るように促す信号警告装置として使用される。なお、この警告装置1の用途は信号警告装置に限られるものではなく、また、自動車への搭載に限定されるものでもない。
FIG. 1 is a block diagram showing a warning device 1 according to an embodiment of the present invention, and FIG. 2 is a view schematically showing a part of the interior of a car on which the warning device 1 is mounted. In the present embodiment, as shown in FIG. 2, the warning device 1 is mounted on a
ところで、図2に示すように、運転者が前方車両93のテールランプ94A,94B(停止ランプ)を見ている場合には、前方車両93の停止を認識しているため、間接的に赤信号を認識しているといえる。したがって、運転者が赤信号92を見ていないがテールランプ94A,94Bを見ている場合に、「運転者が赤信号を見ていない」と判断することは妥当でない。本実施形態では、この点を考慮して、前方車両93のテールランプ94A,94Bも赤信号92に準ずるものと扱い、赤信号92及びテールランプ94A,94Bを合わせて赤色領域(特定領域)として判断するように構成される。
By the way, as shown in FIG. 2, when the driver is looking at the
図1及び図2に示すように、警告装置1は、運転者(図示せず)が操縦する自動車80の例えばダッシュボード81に配置される撮像装置2(撮像部)と、同様にダッシュボード81などに配置される視線位置検出装置3(視線位置検出部)と、所定の警告(音)を生成して出力する(発生させる)警告出力部4と、警告出力部4が所定のタイミングで警告を出力するように警告装置1を制御する主制御部5とを備えている。
As shown in FIGS. 1 and 2, the warning device 1 is a
図1及び図2に示すように、撮像装置2は、レンズ部2Aと撮像素子2Bとを有しており、撮像素子2Bによって運転者の前方光景90(すなわち、自動車80のフロントガラス82に対して運転者の反対側の光景)を撮像する。より具体的には、撮像装置2は自動車80が赤信号92などで停車した際に前方光景90を撮像するように構成されており、この前方光景90には、信号機91の赤信号92や前方車両93の赤色テールランプ94A,94B(停止ランプ)等が含まれる。
As shown in FIGS. 1 and 2, the
視線位置検出装置3は、既知の方法により運転者の視線位置を検出する。本実施形態の例では、この視線位置検出装置3は、角膜検出法により運転者の視線位置を検出するものであり、例えば、図2に示すように、カメラ3A及び近赤外線LED3Bを有している。より具体的には、この視線位置検出装置3は、カメラ3Aによって運転者の目の瞳孔を撮像するととともに、近赤外線LED3Bによって運転者の目に近赤外線を照射して角膜での反射を検出する。そして、瞳孔と角膜反射との位置関係に基づいて運転者の視線位置を検出するように構成されている。なお、本実施形態では、この視線位置検出装置3によって、例えばカーナビゲーションに対する視線入力の位置が検出される。
The gaze
警告出力部4は、運転者が赤信号92を認識していないときに、主制御部5からの指令(駆動信号)に基づいて所定の警告音を出力し、運転者や搭乗者に対して赤信号92の認識を促す。なお、警告は音に限定されるものではなく、光や振動等であってもよい。
The warning output unit 4 outputs a predetermined warning sound based on a command (drive signal) from the
図1に示すように、主制御部5は、CPU(Central Processing Unit)6と、ROM(Read Only Memory)7と、RAM(Random Access Memory)8とを備えている。ROM7は、後述する警告処理を警告装置1に実行させるためのプログラムや後述する基準座標のデータなどを格納している。CPU6は、ROM7に格納されているプログラムやデータを読み出し、上記警告処理を実行する。RAM8は、CPU6のワークエリアである。このような構成により、この主制御部5は、プログラムを実行するためのコンピュータとして機能する。この主制御部5は、例えば、自動車80の電子制御ユニット(ECU)の一部として構成されてもよいし、カーナビゲーションシステムやスマートフォンなどの外付け装置の中に含まれてもよい。
As shown in FIG. 1, the
ROM7等に格納された上記プログラムは、警告出力部4に所定のタイミングで警告音を発生させるために、主制御部5(コンピュータ)に以下の警告処理を実行させる。換言すれば、主制御部5は、上記プログラムに基づいて以下の警告処理を実行する。すなわち、(1)撮像装置2の撮像素子2Bによって取得された前方光景90(図2参照)の画像を所定の基準座標に変換して(対応付けて)変換後画像を生成すると共に、該変換後画像のうち赤信号92やテールランプ94A,94B等からなる赤色領域(特定領域)を検出し、また、(2)視線位置検出装置3により検出された運転者の視線位置を上記基準座標に変換し(対応付け)、そして、(3)基準座標に変換された視線位置と基準座標に変換された赤色領域とに基づいて運転者が赤色領域を見ているか(認識しているか)の判断をすることにより、警告出力部4に警告音を発生させる。本実施形態において、この基準座標は、自動車80のフロントガラス82の座標に対応している。以下、本明細書において、上記(3)、すなわち、運転者が赤色領域などの特定領域を見ているか(認識しているか)の判断を「ユーザ認識判断」と言うことがある。
The above program stored in the
図3は、このような主制御部5の機能構成の一例を示すブロック図である。図3に示すように、上記警告処理を実行するために、主制御部5は、画像変換部51と、特定領域検出部52と、視線位置変換部53と、判断部54と、警告出力制御部55とを有している。
FIG. 3 is a block diagram showing an example of the functional configuration of such a
図3に示すように、画像変換部51は、撮像装置2の撮像素子2B及び特定領域検出部52に接続されており、撮像素子2Bを介して撮像された前方光景90のデータを取得する。また、画像変換部51は、ROM7等に格納されている基準座標のデータを読み出し、所定のアルゴリズムに基づいて前方光景90のデータを基準座標に変換して変換後画像を生成する。そして、この変換後画像のデータをRAM8などに格納する。
As shown in FIG. 3, the
例えば、本実施形態では、撮像装置2はフロントガラス82の全体を通して前方光景90を撮影可能な画角を有している。画像変換部51は、この撮像装置2によって撮影された前方光景90のデータを、運転者がフロントガラス82を通して見えると推定される画像、すなわち基準座標を有する画像に変換する。なお、この変換アルゴリズムは、撮像装置2からフロントガラス82までの距離、撮像装置2からユーザ(運転者)の顔(あるいは運転席のヘッドレストの位置)までの距離、あるいは、ユーザ(運転者)の顔からフロントガラス82までの距離などに基づいて構築することができる。
For example, in the present embodiment, the
ここで、図4は、上記基準座標を示す概略図である。図4に示すように、基準座標70は、X座標及びY座標によって表される。このX座標は、図2に示すように、自動車80の車幅方向に対応する座標であり、Y座標は、フロントガラス82においてX座標に垂直な方向に対応する座標である。すなわち、基準座標70はフロントガラス82のXY座標から構成されており、一方で、フロントガラス82は基準座標70により規定される基準領域71を画定している。この基準領域71は、略同一面積からなる複数のブロック72に区分けされている。本実施形態の例では、基準領域71は、4行(A〜D行)かつ8列(P〜W列)の32個のブロック72に区分けされている。なお、基準領域71のうちC行は、フロントガラス82上、運転者の目が位置する高さにおおよそ相当している。
Here, FIG. 4 is a schematic view showing the reference coordinates. As shown in FIG. 4, the reference coordinates 70 are represented by X coordinates and Y coordinates. The X coordinate is a coordinate corresponding to the vehicle width direction of the
なお、本明細書において、例えば、A行P列のブロック(図4において左上端に位置するブロック)を特定するときはブロック72APと記載する。すなわち、区分けされた各ブロック72の一つを特定する場合は、符号「72」にそのブロックの行と列とを併記して記載するものとする。なお、このような区分け(ブロック)の数は適宜変更できることは言うまでもない。 In this specification, for example, when a block in row A and column P (a block located at the upper left end in FIG. 4) is specified, it is described as a block 72AP. That is, when one of the divided blocks 72 is specified, the row and the column of the block are described together in the code "72". Needless to say, the number of such divisions (blocks) can be changed as appropriate.
図3に戻って、特定領域検出部52は、画像変換部51及び判断部54に接続されており、上記変換後画像のデータを画像変換部51から読み出して解析する。より具体的には、特定領域検出部52は、変換後画像を解析して赤信号92やテールランプ94A,94B等からなる赤色領域(特定領域)を検出し、検出した赤色領域が上記複数のブロック72のうちどのブロックに含まれるかを特定して特定光検出座標を生成する。そして、生成した特定光検出座標のデータをRAM8などに格納する。後に再び言及するが、図6は、このような特定光検出座標73を示している。
Returning to FIG. 3, the specific
図3に示すように、視線位置変換部53は、視線位置検出装置3及び判断部54に接続されており、視線位置検出装置3から運転者の視線位置データを読み出す。また、読み出した視線位置データを基準座標70に変換すると共に、運転者の視線位置が上記複数のブロック72のうちどのブロックに含まれるかを特定して視線位置検出座標を生成する。そして、生成した視線位置検出座標のデータをRAM8などに格納する。後に再び言及するが、図7A及び図7Bは、このような視線位置検出座標74を示している。
As shown in FIG. 3, the gaze
例えば、本実施形態では、上記視線位置変換部53によって、カーナビゲーションに対する運転者の視線位置データがフロントガラス82における運転者の視線位置データ(すなわち、基準座標における視線位置データ)に変換される。
For example, in the present embodiment, the gaze
図3に示すように、判断部54は、特定領域検出部52、視線位置変換部53、及び警告出力制御部55などに接続されており、第1の判断と第2の判断とを含む上記ユーザ認識判断を実行する。すなわち、この判断部54は、特定領域検出部52から上記特定光検出座標73のデータを読み出し、また、視線位置変換部53から上記視線位置検出座標74のデータを読み出す。そして、読み出した特定光検出座標73と視線位置検出座標74とを対比することにより、赤色領域と運転者の視線位置とが基準座標70において一致するか否かの第1の判断を行う。また、この第1の判断に基づいて、運転者が赤色領域を見ているか否かの第2の判断を行う。より具体的には、判断部54は、内部にカウンタCを有しており、このカウンタCを用いて上記第2の判断を行う。運転者が赤色領域を見ていないと判断した場合には、信号を生成して該信号を警告出力制御部55に出力する。
As shown in FIG. 3, the
図3に示すように、警告出力制御部55は、判断部54及び警告出力部4に接続されている。この警告出力制御部55は、判断部54からの信号を入力すると、この信号に基づいて所定の駆動信号を生成し、該駆動信号を警告出力部4に出力する。
As shown in FIG. 3, the warning
次に、警告装置1が上記警告処理を行うプロセスの一例について詳細に説明する。この警告処理プロセスでは、例えば、図5に示されるように、ステップS1〜S10が実行される。なお、以下に述べる警告処理プロセスは例示的なものであり、他のステップからなる警告処理プロセスを構成してもよいことは言うまでもない。 Next, an example of a process in which the warning device 1 performs the warning process will be described in detail. In this warning processing process, for example, as shown in FIG. 5, steps S1 to S10 are executed. It is needless to say that the warning processing process described below is an example, and the warning processing process including other steps may be configured.
まず、図2に示すように、前方の信号機91が赤になることにより、運転者は自動車80を停止させる。本実施形態における警告処理プロセスでは、自動車が停止した時点が図5の「スタート」となる。このスタート時点における前方光景90には、図2に示すように、信号機91の赤信号92と前方車両93の2つのテールランプ94A,94B(停止ランプ)とからなる赤色領域(特定領域)が存在している。主制御部5は、自動車が停止したことを検知すると、撮像装置2及び視線位置検出装置3に信号を出力して撮像装置2及び視線位置検出装置3を動作させる。本実施形態では、上記スタート時点において、運転者は前方車両93のテールランプ94Bを見ているものとする。
First, as shown in FIG. 2, when the
(ステップS1)
撮像装置2は、主制御部5からの信号を入力すると、レンズ部2A及び撮像素子2Bによって前方光景90を撮像する。画像変換部51は、撮像素子2Bから前方光景90のデータを取得すると、ROM7から図4に示す基準座標70のデータを読み出し、撮像した前方光景90を基準座標70に変換して(対応付けて)変換後画像を生成する。そして、画像変換部51は、生成した変換後画像のデータを特定領域検出部52に出力する。
(Step S1)
When the signal from the
特定領域検出部52は、画像変換部51から変換後画像のデータを入力すると、この変換後画像の中から上記赤色領域を特定(検出)する。ここで、図2の前方光景90において、テールランプ94Aは、運転者の目の位置と略同一の高さかつフロントガラス82のX方向における中央部からやや−X方向(左側)にずれた位置に存在している。また、テールランプ94Bは、運転者の目の位置と略同一の高さかつフロントガラス82のX方向における中央部からやや右側にずれた位置に存在している。また、赤信号92は、フロントガラス82の上縁部近傍かつX方向においてテールランプ94Aとほぼ同じ位置に存在している。このようなテールランプ94A,94B及び赤信号92は、図4に示す基準座標70に変換すると、それぞれ、ブロック72CR、ブロック72CT、及びブロック72ARに位置することとなる。
When the data of the image after conversion is input from the
したがって、特定領域検出部52は、上記のような位置に存在する赤色領域(テールランプ94A,94B及び赤信号92)を変換後画像から検出すると、図6に示すように、赤色領域としてブロック72CR(テールランプ94A)、ブロック72CT(テールランプ94B)、及びブロック72AR(赤信号92)が特定された特定光検出座標73を生成する。特定領域検出部52は、この特定光検出座標73のデータを判断部54に出力する。
Therefore, when the specific
(ステップS2)
視線位置検出装置3は、主制御部5からの信号を入力すると、カメラ3A及び近赤外線LED3B(図2参照)によって運転者の視線位置を検出する。そして、この視線位置のデータを視線位置変換部53に出力する。
(Step S2)
When the gaze
視線位置変換部53は、視線位置検出装置3から視線位置のデータを入力すると、ROM7から図4に示す基準座標70のデータを読み出し、運転者の視線位置を基準座標70に変換する(対応付ける)。そして、視線位置変換部53は、変換後の視線位置が属するブロック72を特定し、この特定されたブロックを基準座標70における視線位置として定める。
When the gaze
すなわち、視線位置変換部53は、図5の「スタート」時点において運転者がテールランプ94Bを見ていたことを検出すると、図7Aに示すように、テールランプ94Bが属するブロック72CTを基準座標70における運転者の視線位置と特定し、視線位置検出座標74を生成する。そして、この視線位置検出座標74のデータを判断部54に出力する。
That is, when the sight line
なお、他の実施形態では、上記ステップS1とステップS2との順番を入れ替えてもよい。 In another embodiment, the order of step S1 and step S2 may be switched.
) 判断部54は、特定領域検出部52から特定光検出座標73のデータを入力し、視線位置変換部53から視線位置検出座標74のデータを入力すると、第1の判断及び第2の判断を含むユーザ認識判断を以下のように実行する。
When the
(ステップS3(第1の判断))
すなわち、判断部54は、視線位置検出座標74における視線位置(ブロック72CT)が、特定光検出座標73における赤色領域(ブロック72AR,72CR,72CT)と一致するか否かを判断する(第1の判断)。
(Step S3 (first determination))
That is, the
(ステップS4)
上述したように、運転者は、図5のスタート時点において前方車両93のテールランプ94Bを見ている。すなわち、判断部54が入力した視線位置検出座標74は、図7Aに示すものであり、ブロック72CTが視線位置として特定されている。図6に示すように、このブロック72CTは、特定光検出座標73の赤色領域72AR,72CR,72CTのうちの一つである。したがって、判断部54は、赤色領域に視線位置が含まれていると判断する。そして、この場合、判断部54は、警告処理プロセスをステップS1の前にリターンさせる。なお、このケースでは上述のカウンタCの値は変わらない。
(Step S4)
As described above, the driver looks at the
上記リターンにより、再び(2回目の)ステップS1〜S3が実行される。ここで、上記リターン後かつ2回目のステップS2の前に、運転者が目の高さを変えずにフロントガラス82の右端82A(図2参照)をよそ見したものとする。
By the above-described return, steps S1 to S3 (second time) are executed again. Here, after the return and before the second step S2, it is assumed that the driver looks aside at the
(ステップS2(2回目))
視線位置変換部53は、この2回目のステップS2において、運転者の視線位置を再び基準座標70に変換する。上述のように、運転者は、フロントガラス82の右端82Aをよそ見している。したがって、視線位置変換部53は、図7Bに示すように、変換前の視線位置に対応するブロック72CWを基準座標70における視線位置と特定し、新たな視線位置検出座標74を生成する。そして、この新たな視線位置検出座標74のデータを判断部54に出力する。
(Step S2 (second time))
The gaze
(ステップS3(2回目))
2回目のステップS2の後、判断部54は、運転者の視線位置が赤色領域に含まれるか否か再び判断する(第1の判断)。
(Step S3 (second time))
After the second step S2, the
(ステップS5)
ここで、上述のように、2回目のステップS2では、図7Bに示す視線位置検出座標74が生成されており、この視線位置検出座標74における視線位置はブロック72CWである。このブロック72CWは、図6に示す特定光検出座標73の赤色領域72AR,72CR,72CTのいずれにも該当しない。したがって、判断部54は、赤色領域に視線位置が含まれていないと判断する。
(Step S5)
Here, as described above, in the second step S2, the gaze position detection coordinates 74 shown in FIG. 7B are generated, and the gaze position in the gaze position detection coordinates 74 is the block 72CW. This block 72CW does not correspond to any of the red areas 72AR, 72CR, 72CT of the specific light detection coordinates 73 shown in FIG. Therefore, the
(ステップS6)
そして、判断部54は、赤色領域に視線位置が含まれていないと判断することにより、上述のカウンタCを1つ増加させる。
(Step S6)
Then, the
(ステップS7(第2の判断))
その後、判断部54は、カウンタCの値が所定の閾値Nに達しているか否かを判断する(第2の判断)。例えば、閾値Nの値が「5」である場合、上記ステップS6後のカウンタCの値はまだ「1」であり、閾値Nに達していない。この場合、判断部54は、警告処理プロセスをステップS1の前の状態にリターンさせ、3度目のステップを実行する。
(Step S7 (second determination))
Thereafter, the
(ステップS8(第2の判断))
判断部54は、このような処理を所定時間の間繰り返す。そして、該所定時間内にカウンタCの値が所定の閾値N(例えば「5」)に達した場合、判断部54は、運転者が赤色領域72AR,72CR,72CTを見ていないと判断する。すなわち、運転者は赤信号92を見ていないし、赤信号92を見ているに等しいと判断し得る前方車両93のテールランプ94A,94Bも見ていないと判断する(第2の判断)。そして、この場合、判断部54は、信号を生成して該信号を警告出力制御部55に出力する。
(Step S8 (second determination))
The
なお、本実施形態では、上記所定時間(「1回目の所定時間」)が経過した際にカウンタCが閾値Nに達していない場合、時間カウントはリセットされるが、カウンタCの値は維持されるように構成されている。したがって、1回目の所定時間が経過した後、2回目の所定時間における1回目のステップS1が実行される。そして、判断部54は、2回目の所定時間内にカウンタCが閾値Nに達したときに「運転者が赤信号92を見ていない」と判断する。ただし、必ずしもこのように構成する必要はなく、1回目の所定時間が経過した際にカウンタCの値が閾値Nに達していない場合、時間カウントと共にカウンタCの値をリセットするようにしてもよい。
In the present embodiment, when the counter C does not reach the threshold N when the predetermined time (“the first predetermined time”) has elapsed, the time count is reset, but the value of the counter C is maintained. Are configured to Therefore, after the first predetermined time has elapsed, the first step S1 in the second predetermined time is executed. Then, when the counter C reaches the threshold value N within the second predetermined time, the
(ステップ9)
警告出力制御部55は、判断部54からの信号を入力すると、所定の駆動信号を生成して警告出力部4に出力する。そして、警告出力部4は、該駆動信号に基づいて警告音を出力する。
(Step 9)
When the warning
(ステップ10)
警告出力部4が上記警告音を出力すると、主制御部5は、判断部54のカウンタCの値及び上記時間カウントをリセットする。そして、再び時間カウントが開始され、すなわち、2回目の時間カウントが開始され、1回目のステップS1が再び実行される。
(Step 10)
When the warning output unit 4 outputs the warning sound, the
上記ステップS1〜S10からなる警告処理プロセスは、自動車80の停車状態が解除されるまで実行される。そして、自動車80の停車状態が解除されたとき、主制御部5が上記警告処理プロセスを終了させる。
The warning processing process consisting of the above steps S1 to S10 is executed until the stop state of the
以上のように、本実施形態における警告装置1によれば、判断部54が、上記ユーザ認識判断を行った上で、該ユーザ認識判断において運転者が赤信号を見ていないと判断された場合に警告が出力されるようになっている。より具体的には、運転者の視線位置が赤色領域に含まれる否かの第1の判断をした上で、「含まれない」との判断の回数が所定時間内に閾値に達した場合に、「運転者が赤信号を見ていない」と判断(第2の判断)され、そして、該第2の判断において「運転者が赤信号を見ていない」と判断された場合に警告が出力されるようになっている。したがって、警告を発するタイミングが必要最低限になり、その結果、運転者が警告に煩わしさを感じたり、警告に麻痺したりすることが効果的に抑制される。そのため、このような警告装置1を搭載した自動車80によれば、運転者は、安全かつ快適にドライブすることができる。
As described above, according to the warning device 1 of the present embodiment, after the
ところで、運転者が赤色領域を見ている場合でも、運転者の視線位置が僅かに動いてしまうことも有り得る。したがって、このような場合に「運転者が赤信号を見ていない」と判断されることは妥当でない。本実施形態では、複数のブロックに区分けされた基準領域によって視線検出座標及び特定光検出座標が生成されるため、視線位置の変動が僅かな場合には、視線位置は赤色領域のブロックに含まれたままである。したがって、運転者が赤色領域を見ているにも関わらず警告が発せられてしまうことが効果的に抑制される。 By the way, even when the driver is looking at the red area, the driver's gaze position may move slightly. Therefore, in such a case, it is not appropriate that it is determined that the driver does not look at a red light. In this embodiment, since the gaze detection coordinates and the specific light detection coordinates are generated by the reference area divided into a plurality of blocks, the gaze position is included in the block of the red region when the fluctuation of the gaze position is slight. It remains as it is. Therefore, it is effectively suppressed that a warning is issued although the driver is looking at the red area.
また、本実施形態では、赤色領域と視線位置との双方がフロントガラス82のXY座標(基準座標70)に変換されるため、赤色領域と視線位置との対比が行いやすい。したがって、ユーザ認識判断のアルゴリズムを容易に構成し得る。
Further, in the present embodiment, since both the red area and the gaze position are converted to the XY coordinates (reference coordinate 70) of the
これまで本発明の好ましい実施形態について説明したが、本発明は上述の実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。例えば、以下のような他の実施形態を構成してもよい。 Although the preferred embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to the above-described embodiments and may be implemented in various different forms within the scope of the technical idea thereof. For example, the following other embodiments may be configured.
上述の実施形態では、自動車が赤信号で停車している場合に警告装置が動作する例を説明したが、他の実施形態では、自動車の走行時にも警告装置が動作するように構成してもよい。この場合には、運転者の自動車は走行中であるため、運転者と例えば信号との相対距離が変化することとなる。そのため、基準座標における信号の位置が経時的に変化してしまい、運転者が信号を見ているのにもかかわらず判断部が「見ていない」と判断する誤作動が生じるおそれがある。そこで、このような問題を回避するために、例えば図8に示すように、運転者の目の高さ(C行)よりも上方のブロック172をブロック72よりも大きくした基準座標170を生成してもよい。これにより、信号の位置が基準座標において経時的に変化した場合でも、この位置変化は同一ブロック内の変化となるため、上記誤作動が生じることが抑制される。また、走行中は運転者と信号との相対距離が経時的に変化するため、赤色光源(例えば、赤信号)の位置が撮影画像上で変化することが考えられる。そのため、自動車の走行時に警告装置を動作させる実施形態では、上方の(大きな)複数のブロック172のうち、撮影画像上でその位置が変化するような赤色光源を含むブロックを特定領域としてもよい。このような構成により、上記誤作動をより効果的に抑制することができる。
In the above embodiment, an example in which the warning device operates when the vehicle stops at a red light has been described, but in other embodiments, the warning device may operate even when the vehicle is traveling. Good. In this case, since the driver's car is traveling, the relative distance between the driver and, for example, the signal changes. Therefore, the position of the signal at the reference coordinates changes with time, and there is a possibility that an erroneous operation may occur in which the judgment unit judges that “the driver does not look” although the driver looks at the signal. Therefore, in order to avoid such a problem, for example, as shown in FIG. 8, a reference coordinate 170 is generated in which the
また、上述の実施形態では、自動車のフロントガラス82の座標(XY座標)を基準座標とした例を説明したが、他の実施形態では、撮像装置2のカメラ座標を基準座標にしてもよい。この実施形態では、カメラ座標そのものが基準座標になるため、画像変換部51を必ずしも設ける必要はない。なお、この実施形態では、視線位置変換部によって視線位置をカメラ座標に変換する(対応付ける)ことにより、視線位置と特定領域との一致の判断(第1の判断)がされる。また、別の実施形態では、視線位置検出装置が運転者のフロントガラス82上の視線位置を検出するように構成してもよい。このような構成によれば、検出された視線位置をそのまま基準座標にすることが可能となる。
Moreover, although the above-mentioned embodiment demonstrated the example which made the coordinate (XY coordinate) of the
また、上述の実施形態では、特定領域に視線位置が含まれないと判断された回数に基づいて警告を発する例を説明したが、他の実施形態では、特定領域に視線位置が含まれると判断された回数に基づいて警告を発するように構成してもよい。このような実施形態におけるユーザ認識判断では、特定領域に視線位置が含まれるとの判断(第1の判断)が所定時間内において連続的に所定回数されない場合に、ユーザが特定領域を見ていない(第2の判断)と判断してもよい。 Moreover, although the above-mentioned embodiment demonstrated the example which warns based on the frequency | count that it was judged that a gaze position is not contained in a specific area, in other embodiment, it judges that a gaze position is contained in a specific area. It may be configured to issue a warning based on the number of times performed. In the user recognition judgment in such an embodiment, the user does not look at the specific area if the judgment (first judgment) that the sight line position is included in the specific area is not continuously performed a predetermined number of times within a predetermined time. It may be determined that (the second determination).
また、上述の実施形態では、ユーザ(運転者)が赤色光(赤信号)を認識していない場合に警告を発する例を説明したが、他の実施形態では、赤色光以外の他の色の光をユーザが認識していない場合に警告を出力するように構成してもよい。そして、このような実施形態では、他の色の光を発する領域(例えば、青色の光を発する領域(青色領域))が特定領域となる。また、別の実施形態では、停車中と走行中とで特定領域として判断する色を変化させてもよい。たとえば、停車中は青信号(青色領域)が認識されないときに警告を発し、走行中は赤信号(赤色領域)が認識されていないときに警告を発するようにしてもよい。 Moreover, although the above-mentioned embodiment demonstrated the example which warns, when a user (driver) does not recognize red light (red signal), in other embodiment, it is another color other than red light. It may be configured to output a warning when the light is not recognized by the user. And in such an embodiment, a field (for example, a field (blue field) which emits blue light) which emits light of other colors turns into a specific field. In another embodiment, the color to be determined as the specific area may be changed between stopping and traveling. For example, a warning may be issued when a green light (blue area) is not recognized while the vehicle is stopped, and a warning may be issued when a red light (red area) is not recognized while traveling.
また、他の実施形態では、主制御部がCPUに加えて他のプロセッサを含むように構成してもよい。この場合、当該他のプロセッサが、上記機能構成(すなわち、画像変換部、特定領域検出部、視線位置変換部、判断部、及び警告出力制御部等)の一部または全てとして機能するようにしてもよい。 In another embodiment, the main control unit may be configured to include another processor in addition to the CPU. In this case, the other processor functions as part or all of the functional configuration (that is, the image conversion unit, the specific area detection unit, the gaze position conversion unit, the determination unit, the warning output control unit, etc.) It is also good.
また、他の実施形態では、ROM7等に記憶されているプログラムは、データ配信用のサーバのHDD(Hard Disk Drive)に記憶され、ネットワークを介してカーナビゲーションシステムやスマートフォンなどの電子機器に配信されてもよい。また、CD,DVD,BD(Blu-Ray Disk)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされたプログラムが本実施例と同等の構成の電子機器にインストールされた場合、上述の実施形態と同等の効果が得られる。
In another embodiment, the program stored in the
なお、本明細書において使用した用語「下」、「上」、「上方」、「下方」、その他の位置関係を示す用語は、図示した実施形態との関連において使用されているのであり、装置の相対的な位置関係によって変化するものである。 The terms "lower", "upper", "upper", "lower" and other terms used in the present specification are used in the context of the illustrated embodiment, It changes with the relative positional relationship of.
1 警告装置
2 撮像装置(撮像部)
2A レンズ部
2B 撮像素子
3 視線位置検出装置(視線位置検出部)
3A カメラ
3B 近赤外線LED
4 警告出力部
5 主制御部(コンピュータ)
6 CPU
7 ROM
8 RAM
51 画像変換部
52 特定領域検出部
53 視線位置変換部
54 判断部
55 警告出力制御部
70,170 基準座標
71 基準領域
72,172 ブロック
73 特定光検出座標
74 視線位置検出座標
80 自動車
81 ダッシュボード
82 フロントガラス
90 前方光景
91 信号機
92 赤信号
93 前方車両
94A,94B テールランプ
1
2A lens unit 2B
4
6 CPU
7 ROM
8 RAM
51
Claims (11)
前記撮像部により取得された画像のうち少なくとも特定の色の光を発する特定領域を検出する特定領域検出部と、
ユーザの視線位置を検出する視線位置検出部と、
前記視線位置検出部により検出された前記視線位置と前記特定領域検出部により検出された前記特定領域とに基づいて、前記ユーザが前記特定領域を見ているか否かのユーザ認識判断を行う判断部と、
前記ユーザ認識判断において前記ユーザが前記特定領域を見ていないと判断された場合に警告を出力する警告出力部と
を備える、警告装置。 An imaging unit,
A specific area detection unit that detects a specific area that emits light of at least a specific color in the image acquired by the imaging unit;
A gaze position detection unit that detects a gaze position of the user;
A determination unit that makes a user recognition determination as to whether or not the user is looking at the specific region based on the gaze position detected by the gaze position detection unit and the specific region detected by the specific region detection unit When,
And a warning output unit that outputs a warning when it is determined that the user does not look at the specific area in the user recognition determination.
前記視線位置を前記基準座標に変換する視線位置変換部と
をさらに備え、
前記第1の判断では、前記基準座標に変換された前記視線位置が前記基準座標に変換された前記特定領域に含まれるか否かが判断される、請求項3に記載の警告装置。 An image conversion unit configured to convert an image acquired by the imaging unit into the reference coordinates;
And a visual point position conversion unit for converting the visual line position into the reference coordinates,
The warning device according to claim 3, wherein, in the first determination, it is determined whether or not the gaze position converted to the reference coordinate is included in the specific area converted to the reference coordinate.
前記第1の判断では、前記基準領域における前記視線位置と前記基準領域における前記特定領域とが前記複数のブロックのうち同一ブロックであるときに、前記視線位置が前記特定領域に含まれると判断される、請求項3又は4に記載の警告装置。 The reference area defined by the reference coordinates is divided into a plurality of blocks having a certain size,
In the first determination, when the sight line position in the reference area and the specific area in the reference area are the same block among the plurality of blocks, it is determined that the sight line position is included in the specific area The warning device according to claim 3 or 4.
前記特定領域が前記複数のブロックのうち広いブロックに含まれるように前記基準領域が区分けされる、請求項6に記載の警告装置。 In the image acquired by the imaging unit, a region that emits light of the specific color and in which the relative distance to the user changes is set as a specific region,
The warning device according to claim 6, wherein the reference area is divided such that the specific area is included in a wide block among the plurality of blocks.
取得された前記画像のうち特定の色の光を発する特定領域を検出し、
ユーザの視線位置を検出し、
検出された前記視線位置と検出された前記特定領域とに基づいて、前記ユーザが前記特定領域を見ているか否かを判断し、
前記ユーザが前記特定領域を見ていないと判断された場合に警告を出力する、警告方法。 Get an image,
Detecting a specific area emitting light of a specific color in the acquired image;
Detect the user's gaze position,
Based on the detected gaze position and the detected specific area, it is determined whether the user is looking at the specific area.
A warning method, which outputs a warning when it is determined that the user does not look at the specific area.
画像を取得させ、
取得された前記画像のうち特定の色の光を発する特定領域を検出させ、
ユーザの視線位置を検出させ、
検出された前記視線位置と検出された前記特定領域とに基づいて、前記ユーザが前記特定領域を見ているか否かの判断を実行させ、
前記ユーザが前記特定領域を見ていないと判断した場合に警告を出力させる、プログラム。 On the computer
Let me get an image,
Detecting a specific area emitting light of a specific color in the acquired image;
Make the user's gaze position detected
Based on the detected gaze position and the detected specific area, it is determined whether the user is looking at the specific area or not.
A program for outputting a warning when it is determined that the user does not look at the specific area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017248200A JP2019114118A (en) | 2017-12-25 | 2017-12-25 | Warning device, vehicle, warning method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017248200A JP2019114118A (en) | 2017-12-25 | 2017-12-25 | Warning device, vehicle, warning method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019114118A true JP2019114118A (en) | 2019-07-11 |
Family
ID=67222665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017248200A Pending JP2019114118A (en) | 2017-12-25 | 2017-12-25 | Warning device, vehicle, warning method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019114118A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021043852A (en) * | 2019-09-13 | 2021-03-18 | 日産自動車株式会社 | Information processing apparatus and method |
-
2017
- 2017-12-25 JP JP2017248200A patent/JP2019114118A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021043852A (en) * | 2019-09-13 | 2021-03-18 | 日産自動車株式会社 | Information processing apparatus and method |
JP7263187B2 (en) | 2019-09-13 | 2023-04-24 | 日産自動車株式会社 | Information processing device and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6562239B2 (en) | Display control apparatus, display control method, display control program, and projection apparatus | |
US9696814B2 (en) | Information processing device, gesture detection method, and gesture detection program | |
WO2019144880A1 (en) | Primary preview region and gaze based driver distraction detection | |
US10002300B2 (en) | Apparatus and method for monitoring driver's concentrativeness using eye tracing | |
US20220188555A1 (en) | Driver monitoring apparatus, vehicle and control method | |
JP7290930B2 (en) | Occupant modeling device, occupant modeling method and occupant modeling program | |
US11535260B2 (en) | Attention-based notifications | |
TWI522257B (en) | Vehicle safety system and operating method thereof | |
JP6433383B2 (en) | Floodlight device | |
JP2019212226A (en) | Driver monitor apparatus | |
US20130187845A1 (en) | Adaptive interface system | |
TW201623067A (en) | Signal alarm device, method, computer readable media, and computer program product | |
JP2011087006A (en) | Display device for vehicle | |
US20200114932A1 (en) | Vehicle and method of outputting information therefor | |
JP2019114118A (en) | Warning device, vehicle, warning method, and program | |
JP6600342B2 (en) | Gesture operation method based on depth value and gesture operation system based on depth value | |
US20190156133A1 (en) | Vehicle driving support apparatus and vehicle driving support program | |
JP2016115119A (en) | Eye opening/closing determination device and eye opening/closing determination method | |
WO2021085371A1 (en) | Driving assistance device, driving assistance method, and driving assistance program | |
JP7312971B2 (en) | vehicle display | |
KR101968620B1 (en) | HMI System and Method for Vehicle | |
WO2021005702A1 (en) | Face detection processing device and face detection processing method | |
US8363957B2 (en) | Image classification system and method thereof | |
JPS6199803A (en) | Recognizing device for vehicle driver's position | |
JP2018180623A (en) | Sight line direction estimation device and sight line direction estimation method |