JP2019114118A - Warning device, vehicle, warning method, and program - Google Patents

Warning device, vehicle, warning method, and program Download PDF

Info

Publication number
JP2019114118A
JP2019114118A JP2017248200A JP2017248200A JP2019114118A JP 2019114118 A JP2019114118 A JP 2019114118A JP 2017248200 A JP2017248200 A JP 2017248200A JP 2017248200 A JP2017248200 A JP 2017248200A JP 2019114118 A JP2019114118 A JP 2019114118A
Authority
JP
Japan
Prior art keywords
specific area
warning
determination
user
gaze position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017248200A
Other languages
Japanese (ja)
Inventor
武志 和田
Takeshi Wada
武志 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Precision Corp
Original Assignee
Nidec Copal Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Copal Corp filed Critical Nidec Copal Corp
Priority to JP2017248200A priority Critical patent/JP2019114118A/en
Publication of JP2019114118A publication Critical patent/JP2019114118A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a warning device capable of giving a warning at a minimum necessary timing.SOLUTION: A warning device 1 comprises: an imaging device 2; a specific region detection unit 52 that detects a red region emitting red light in a front view 90 captured by the imaging device 2; a line-of-sight position detection unit 53 that detects a line-of-sight position of a driver; a determination unit 54 that performs a first determination to determine whether the line-of-sight position matches the specific region by converting the line-of-sight position and the specific region into a reference coordinate 70 and a second determination to determine whether the driver is looking at the specific region on the basis of the first determination; and a warning output unit 4 for outputting a warning when it is determined that the driver does not look at the specific region in the second determination.SELECTED DRAWING: Figure 3

Description

本発明は、警告装置、自動車、警告方法、及びプログラムに係り、特に自動車に搭載される警告装置に関するものである。   The present invention relates to a warning device, a vehicle, a warning method, and a program, and more particularly to a warning device mounted on a vehicle.

従来、このような警告装置として、信号が青に変わった際に警告を発することで、赤信号で停車している運転者に自動車の発進を促すものが知られている(例えば、特許文献1参照)。しかしながら、このような警告装置では、信号が変わる度に警告が発せられるため、該警告に運転者が煩わしさを感じたり、ひいては、運転者が警告に麻痺してしまい警告としての用を成さなくなってしまうおそれがある。   Conventionally, as such a warning device, there has been known a device which urges a driver who has stopped at a red light to start the vehicle by giving a warning when the light turns to blue (for example, Patent Document 1) reference). However, in such a warning device, since the warning is issued whenever the signal changes, the driver may feel bothersome to the warning, and the driver may be paralyzed by the warning, thus serving as a warning. There is a risk of being lost.

特開2010−123100号公報JP, 2010-123100, A

本発明は、このような従来技術の問題点に鑑みてなされたもので、必要最低限のタイミングで警告を発することができる警告装置を提供することを第1の目的とする。   The present invention has been made in view of the problems of the prior art and has a first object to provide a warning device capable of issuing a warning at a minimum necessary timing.

また、本発明は、安全かつ快適に運転することができる自動車を提供することを第2の目的とする。   Another object of the present invention is to provide a car that can be driven safely and comfortably.

また、本発明は、必要最低限のタイミングで警告を発することができる警告方法を提供することを第3の目的とする。   The third object of the present invention is to provide a warning method capable of giving a warning at the minimum necessary timing.

さらに、本発明は、コンピュータに、必要最低限のタイミングで警告を発生させるプログラムを提供することを第4の目的とする。   Furthermore, the present invention has a fourth object to provide a program that causes a computer to generate an alert at a minimum necessary timing.

本発明の第1の態様によれば、必要最低限のタイミングで警告を発することができる警告装置が提供される。この警告装置は、撮像部と、上記撮像部により取得された画像のうち少なくとも特定の色の光を発する特定領域を検出する特定領域検出部と、ユーザの視線位置を検出する視線位置検出部と、判断部とを備える。この判断部は、上記視線位置検出部により検出された上記視線位置と上記特定領域検出部により検出された上記特定領域とに基づいて、上記ユーザが上記特定領域を見ているか否かのユーザ認識判断を行う。また、この警告装置は、上記ユーザ認識判断において上記ユーザが上記特定領域を見ていないと判断された場合に警告を出力する警告出力部を備える。   According to a first aspect of the present invention, an alerting device capable of emitting an alert at a minimum necessary timing is provided. The warning device includes an imaging unit, a specific area detection unit that detects a specific area that emits at least a specific color of an image acquired by the imaging unit, and a gaze position detection unit that detects a gaze position of a user. , And a determination unit. The determination unit determines whether the user views the specific area based on the visual line position detected by the visual line position detection unit and the specific area detected by the specific area detection unit. Make a judgment. The warning device also includes a warning output unit that outputs a warning when it is determined that the user does not look at the specific area in the user recognition determination.

このような警告装置によれば、特定の色の光を発する特定領域とユーザの視線位置とに基づくユーザ認識判断においてユーザが特定領域を見ていないと判断された場合に警告が出力される。したがって、警告のタイミングが必要最低限になり、ユーザが警告に煩わしさを感じたり、警告に麻痺してしまうことが効果的に抑制される。   According to such a warning device, a warning is output when it is determined that the user does not look at the specific area in the user recognition determination based on the specific area emitting the light of the specific color and the gaze position of the user. Therefore, the timing of the warning is minimized, and it is effectively suppressed that the user feels bothered with the warning or paralyzes the warning.

なお、上記ユーザ認識判断には、上記視線位置検出部により検出された上記視線位置が上記特定領域検出部により検出された上記特定領域に含まれるか否かを判断する第1の判断が含まれることが好ましい。この場合、上記第1の判断は、上記視線位置検出部により検出された上記視線位置と上記特定領域検出部により検出された上記特定領域とを所定の基準座標に対応付けることにより行われることがさらに好ましい。そして、所定の基準座標への対応付けを行うために、この警告装置は、上記撮像部により取得された画像を上記基準座標に変換する画像変換部と、上記視線位置を上記基準座標に変換する視線位置変換部とをさらに備えてもよい。この場合、上記第1の判断では、上記基準座標に変換された上記視線位置が上記基準座標に変換された上記特定領域に含まれるか否かが判断されることが好ましい。このような構成により、ユーザ認識判断のアルゴリズム構築が容易になる。   Note that the user recognition determination includes a first determination to determine whether the gaze position detected by the gaze position detection unit is included in the specific region detected by the specific region detection unit. Is preferred. In this case, the first determination is further performed by associating the sight line position detected by the sight line position detection unit and the specific area detected by the specific area detection unit with predetermined reference coordinates. preferable. Then, in order to perform association with predetermined reference coordinates, the warning device converts the image position acquired by the imaging unit into the reference coordinates, and converts the gaze position into the reference coordinates. It may further comprise a gaze position conversion unit. In this case, preferably, in the first determination, it is determined whether the gaze position converted to the reference coordinate is included in the specific area converted to the reference coordinate. Such a configuration facilitates the construction of an algorithm for user recognition judgment.

また、この警告装置では、上記基準座標により規定される基準領域が一定の広さを有する複数のブロックに区分けされていることが好ましい。この場合、上記第1の判断では、上記基準領域における上記視線位置と上記基準領域における上記特定領域とが上記複数のブロックのうち同一ブロックであるときに、上記視線位置が上記特定領域に含まれると判断される。このような構成により、ユーザが特定領域を見ているにも関わらず警告が出力される誤作動が生じることが効果的に抑制される。   Further, in this warning device, it is preferable that the reference area defined by the reference coordinates is divided into a plurality of blocks having a certain size. In this case, in the first determination, the visual line position is included in the specific area when the visual line position in the reference area and the specific area in the reference area are the same block among the plurality of blocks. It is judged. With such a configuration, occurrence of an erroneous operation in which a warning is output even when the user is looking at the specific area is effectively suppressed.

なお、上記複数のブロックのうち少なくとも1つが、上記ユーザと上記特定領域との相対距離の変化の大きさに基づいて他のブロックと相違する広さに形成されていてもよい。また、この場合、上記撮像部により取得された画像のうち、上記特定の色の光を発し、かつ、上記ユーザとの上記相対距離が変化する領域を特定領域とし、上記特定領域が上記複数のブロックのうち広いブロックに含まれるように上記基準領域が区分けされてもよい。このような構成により、ユーザと特定領域との相対距離が変化する場合に上記誤作動が生じることが効果的に抑制される。   Note that at least one of the plurality of blocks may be formed to have a width different from that of the other blocks based on the magnitude of the change in the relative distance between the user and the specific area. Further, in this case, in the image acquired by the imaging unit, a region where light of the specific color is emitted and the relative distance to the user changes is defined as a specific region, and the specific region is the plurality of the plurality The reference area may be divided so as to be included in a wide block among the blocks. With such a configuration, the occurrence of the erroneous operation is effectively suppressed when the relative distance between the user and the specific area changes.

ところで、上記ユーザ認識判断には、上記第1の判断に基づいて上記ユーザが上記特定領域を見ているか否かを判断する第2の判断が含まれることが好ましい。そして、この第2の判断では、例えば、上記第1の判断において上記視線位置が上記特定領域に含まれないと判断された回数が所定時間内に所定の閾値に達した場合に上記ユーザが上記特定領域を見ていないと判断されてもよい。なお、上記第2の判断では、他の例として、上記第1の判断において、上記視線位置が上記特定領域に含まれるとの判断が所定時間内において連続的に所定回数行われなかった場合に、上記ユーザが上記特定領域を見ていないと判断することも可能である。このような構成により、ユーザ認識判断をより正確に行うことが可能になる。   Preferably, the user recognition determination includes a second determination to determine whether the user is looking at the specific area based on the first determination. Then, in the second determination, for example, when the number of times the sight line position is determined not to be included in the specific area in the first determination reaches a predetermined threshold within a predetermined time, the user determines that the user It may be determined that the specific area is not seen. In the second determination, as another example, in the first determination, the determination that the sight line position is included in the specific region is not performed a predetermined number of times consecutively within a predetermined time. It is also possible to judge that the user does not look at the specific area. Such a configuration makes it possible to make user recognition judgment more accurately.

ここで、上記特定の色の光は赤色光であってもよい。このような構成により、警告装置が自動車に搭載された場合に、運転者に赤信号の認識を促す警告を必要最低限のタイミングで出力することが可能となる。   Here, the light of the specific color may be red light. With such a configuration, when the warning device is mounted in a car, it is possible to output a warning for prompting the driver to recognize a red light at a necessary minimum timing.

本発明の第2の態様によれば、安全かつ快適に運転することができる自動車が提供される。この自動車は、上記警告装置を備えている。なお、この自動車は、所定の基準座標により規定される基準領域を画定するフロントガラスをさらに備えてもよい。フロントガラスの座標を基準座標とした場合、ユーザ認識判断のアルゴリズム構築が容易になり得る。   According to a second aspect of the present invention, there is provided an automobile capable of driving safely and comfortably. This car is equipped with the above-mentioned warning device. The vehicle may further include a windshield defining a reference area defined by predetermined reference coordinates. When the coordinates of the windshield are used as the reference coordinates, the algorithm construction of the user recognition judgment can be facilitated.

本発明の第3の態様によれば、必要最低限のタイミングで警告を発することができる警告方法が提供される。この警告方法によれば、まず画像を取得し、取得された上記画像のうち特定の色の光を発する特定領域を検出する。また、ユーザの視線位置を検出する。そして、検出された上記視線位置と検出された上記特定領域とに基づいて、上記ユーザが上記特定領域を見ているか否かを判断する。そして、上記ユーザが上記特定領域を見ていないと判断された場合に警告を出力する。   According to a third aspect of the present invention, there is provided a warning method capable of giving a warning at a minimum required timing. According to this warning method, first, an image is acquired, and a specific area that emits light of a specific color is detected among the acquired images. In addition, the gaze position of the user is detected. Then, based on the detected gaze position and the detected specific area, it is determined whether the user is looking at the specific area. Then, when it is determined that the user does not look at the specific area, a warning is output.

本発明の第4の態様によれば、コンピュータに、必要最低限のタイミングで警告を発生させるプログラムが提供される。このプログラムは、コンピュータに、画像を取得させ、取得された上記画像のうち特定の色の光を発する特定領域を検出させる。また、コンピュータに、ユーザの視線位置を検出させ、検出された上記視線位置と検出された上記特定領域とに基づいて、上記ユーザが上記特定領域を見ているか否かの判断を実行させる。そして、上記ユーザが上記特定領域を見ていないと判断した場合に警告を出力させる。   According to a fourth aspect of the present invention, there is provided a program that causes a computer to generate an alert at a minimum required timing. The program causes a computer to acquire an image, and detects a specific area that emits light of a specific color among the acquired images. Further, the computer is made to detect the gaze position of the user, and based on the detected gaze position and the detected specific area, it is determined whether the user is looking at the specific area. Then, when it is determined that the user does not look at the specific area, a warning is output.

本発明によれば、特定領域とユーザの視線位置とに基づくユーザ認識判断においてユーザが特定領域を見ていないと判断された場合に警告が出力されるため、警告のタイミングを必要最低限にすることができる。   According to the present invention, a warning is output when it is determined that the user does not look at the specific area in the user recognition determination based on the specific area and the gaze position of the user, so the timing of the warning is minimized. be able to.

図1は、本発明の一実施形態における警告装置を示すブロック図である。FIG. 1 is a block diagram showing a warning device in an embodiment of the present invention. 図2は、図1に示される警告装置を搭載した自動車の車内の一部を模式的に示す図である。FIG. 2 is a view schematically showing a part of the interior of a car equipped with the warning device shown in FIG. 図3は、図1に示される警告装置の機能構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of a functional configuration of the warning device shown in FIG. 図4は、図3に示される警告装置の基準座標を示す概略図である。FIG. 4 is a schematic view showing reference coordinates of the warning device shown in FIG. 図5は、図3に示される警告装置の判断過程を示すフローチャートである。FIG. 5 is a flowchart showing the determination process of the warning device shown in FIG. 図6は、図3に示される警告装置の赤色光検出座標及び判断部における判断処理を示す概略図である。FIG. 6 is a schematic diagram showing red light detection coordinates of the warning device shown in FIG. 3 and determination processing in a determination unit. 図7Aは、図3に示される警告装置の視線位置検出座標及び判断部における判断処理を示す概略図である。FIG. 7A is a schematic view showing gaze position detection coordinates of the warning device shown in FIG. 3 and determination processing in a determination unit. 図7Bは、図3に示される警告装置の視線位置検出座標及び判断部における判断処理を示す概略図である。FIG. 7B is a schematic view showing gaze position detection coordinates of the warning device shown in FIG. 3 and determination processing in a determination unit. 図8は、図6に示される基準座標の変形例を示す概略図である。FIG. 8 is a schematic view showing a modification of the reference coordinates shown in FIG.

以下、本発明に係る警告装置の実施形態について図1から図8を参照して詳細に説明する。なお、図1から図8において、同一又は相当する構成要素には、同一の符号を付して重複した説明を省略する。また、図1から図8においては、各構成要素の縮尺や寸法が誇張されて示されている場合や一部の構成要素が省略されている場合がある。   Hereinafter, an embodiment of a warning device according to the present invention will be described in detail with reference to FIGS. 1 to 8. Note that, in FIG. 1 to FIG. 8, the same or corresponding components are given the same reference numerals, and duplicate explanations are omitted. In addition, in FIGS. 1 to 8, the scale and dimensions of each component may be exaggerated and shown, or some components may be omitted.

図1は本発明の一実施形態における警告装置1を示すブロック図、図2は警告装置1を搭載した自動車の車内の一部を模式的に示す図である。本実施形態では、図2に示すように、警告装置1は自動車80に搭載されており、赤信号92で停車している運転者(ユーザ)が赤信号92を見ていない場合に、赤信号92を見るように促す信号警告装置として使用される。なお、この警告装置1の用途は信号警告装置に限られるものではなく、また、自動車への搭載に限定されるものでもない。   FIG. 1 is a block diagram showing a warning device 1 according to an embodiment of the present invention, and FIG. 2 is a view schematically showing a part of the interior of a car on which the warning device 1 is mounted. In the present embodiment, as shown in FIG. 2, the warning device 1 is mounted on a car 80, and when the driver (user) stopping at the red light 92 does not look at the red light 92, the red light is It is used as a signal warning device prompting you to look at 92. The application of the warning device 1 is not limited to the signal warning device, and is not limited to mounting on an automobile.

ところで、図2に示すように、運転者が前方車両93のテールランプ94A,94B(停止ランプ)を見ている場合には、前方車両93の停止を認識しているため、間接的に赤信号を認識しているといえる。したがって、運転者が赤信号92を見ていないがテールランプ94A,94Bを見ている場合に、「運転者が赤信号を見ていない」と判断することは妥当でない。本実施形態では、この点を考慮して、前方車両93のテールランプ94A,94Bも赤信号92に準ずるものと扱い、赤信号92及びテールランプ94A,94Bを合わせて赤色領域(特定領域)として判断するように構成される。   By the way, as shown in FIG. 2, when the driver is looking at the tail lamps 94A and 94B (stop lamps) of the forward vehicle 93, since the stop of the forward vehicle 93 is recognized, the red signal is indirectly It can be said that they are aware of it. Therefore, when the driver does not look at the red light 92 but looks at the tail lamps 94A and 94B, it is not appropriate to judge that the driver does not look at the red light. In the present embodiment, in consideration of this point, the tail lamps 94A and 94B of the forward vehicle 93 are treated as those according to the red signal 92, and the red signal 92 and the tail lamps 94A and 94B are collectively determined as a red area (specific area). Configured as.

図1及び図2に示すように、警告装置1は、運転者(図示せず)が操縦する自動車80の例えばダッシュボード81に配置される撮像装置2(撮像部)と、同様にダッシュボード81などに配置される視線位置検出装置3(視線位置検出部)と、所定の警告(音)を生成して出力する(発生させる)警告出力部4と、警告出力部4が所定のタイミングで警告を出力するように警告装置1を制御する主制御部5とを備えている。   As shown in FIGS. 1 and 2, the warning device 1 is a dashboard 81 in the same manner as the imaging device 2 (imaging unit) disposed on, for example, the dashboard 81 of an automobile 80 steered by a driver (not shown). And the warning output unit 4 that generates and outputs (generates) a predetermined warning (sound), and a warning output unit 4 at a predetermined timing. And a main control unit 5 that controls the warning device 1 to output the

図1及び図2に示すように、撮像装置2は、レンズ部2Aと撮像素子2Bとを有しており、撮像素子2Bによって運転者の前方光景90(すなわち、自動車80のフロントガラス82に対して運転者の反対側の光景)を撮像する。より具体的には、撮像装置2は自動車80が赤信号92などで停車した際に前方光景90を撮像するように構成されており、この前方光景90には、信号機91の赤信号92や前方車両93の赤色テールランプ94A,94B(停止ランプ)等が含まれる。   As shown in FIGS. 1 and 2, the imaging device 2 includes a lens unit 2A and an imaging element 2B, and the imaging device 2B can provide a front view 90 of the driver (that is, the front glass 82 of the automobile 80). Image of the opposite side of the driver). More specifically, the imaging device 2 is configured to image the front view 90 when the automobile 80 stops at the red light 92 or the like, and the front view 90 includes the red light 92 of the traffic light 91 and the front. The red tail lamps 94A and 94B (stop lamps) of the vehicle 93 are included.

視線位置検出装置3は、既知の方法により運転者の視線位置を検出する。本実施形態の例では、この視線位置検出装置3は、角膜検出法により運転者の視線位置を検出するものであり、例えば、図2に示すように、カメラ3A及び近赤外線LED3Bを有している。より具体的には、この視線位置検出装置3は、カメラ3Aによって運転者の目の瞳孔を撮像するととともに、近赤外線LED3Bによって運転者の目に近赤外線を照射して角膜での反射を検出する。そして、瞳孔と角膜反射との位置関係に基づいて運転者の視線位置を検出するように構成されている。なお、本実施形態では、この視線位置検出装置3によって、例えばカーナビゲーションに対する視線入力の位置が検出される。   The gaze position detection device 3 detects the gaze position of the driver by a known method. In the example of the present embodiment, the gaze position detection device 3 detects the gaze position of the driver by the cornea detection method, and includes, for example, a camera 3A and a near infrared LED 3B as shown in FIG. There is. More specifically, the visual line position detection device 3 images the pupil of the driver's eyes with the camera 3A, and emits near infrared rays to the driver's eyes with the near infrared LED 3B to detect reflection on the cornea. . And it is comprised so that a driver | operator's gaze position may be detected based on the positional relationship of a pupil and corneal reflection. In the present embodiment, for example, the position of the line-of-sight input to the car navigation is detected by the line-of-sight position detection device 3.

警告出力部4は、運転者が赤信号92を認識していないときに、主制御部5からの指令(駆動信号)に基づいて所定の警告音を出力し、運転者や搭乗者に対して赤信号92の認識を促す。なお、警告は音に限定されるものではなく、光や振動等であってもよい。   The warning output unit 4 outputs a predetermined warning sound based on a command (drive signal) from the main control unit 5 when the driver does not recognize the red signal 92, and sends a warning sound to the driver or the passenger. Promote recognition of red light 92. The warning is not limited to sound, and may be light, vibration or the like.

図1に示すように、主制御部5は、CPU(Central Processing Unit)6と、ROM(Read Only Memory)7と、RAM(Random Access Memory)8とを備えている。ROM7は、後述する警告処理を警告装置1に実行させるためのプログラムや後述する基準座標のデータなどを格納している。CPU6は、ROM7に格納されているプログラムやデータを読み出し、上記警告処理を実行する。RAM8は、CPU6のワークエリアである。このような構成により、この主制御部5は、プログラムを実行するためのコンピュータとして機能する。この主制御部5は、例えば、自動車80の電子制御ユニット(ECU)の一部として構成されてもよいし、カーナビゲーションシステムやスマートフォンなどの外付け装置の中に含まれてもよい。   As shown in FIG. 1, the main control unit 5 includes a central processing unit (CPU) 6, a read only memory (ROM) 7, and a random access memory (RAM) 8. The ROM 7 stores a program for causing the warning device 1 to execute warning processing described later, data of reference coordinates described later, and the like. The CPU 6 reads the program and data stored in the ROM 7 and executes the warning process. The RAM 8 is a work area of the CPU 6. With such a configuration, the main control unit 5 functions as a computer for executing a program. The main control unit 5 may be configured, for example, as a part of an electronic control unit (ECU) of the automobile 80, or may be included in an external device such as a car navigation system or a smartphone.

ROM7等に格納された上記プログラムは、警告出力部4に所定のタイミングで警告音を発生させるために、主制御部5(コンピュータ)に以下の警告処理を実行させる。換言すれば、主制御部5は、上記プログラムに基づいて以下の警告処理を実行する。すなわち、(1)撮像装置2の撮像素子2Bによって取得された前方光景90(図2参照)の画像を所定の基準座標に変換して(対応付けて)変換後画像を生成すると共に、該変換後画像のうち赤信号92やテールランプ94A,94B等からなる赤色領域(特定領域)を検出し、また、(2)視線位置検出装置3により検出された運転者の視線位置を上記基準座標に変換し(対応付け)、そして、(3)基準座標に変換された視線位置と基準座標に変換された赤色領域とに基づいて運転者が赤色領域を見ているか(認識しているか)の判断をすることにより、警告出力部4に警告音を発生させる。本実施形態において、この基準座標は、自動車80のフロントガラス82の座標に対応している。以下、本明細書において、上記(3)、すなわち、運転者が赤色領域などの特定領域を見ているか(認識しているか)の判断を「ユーザ認識判断」と言うことがある。   The above program stored in the ROM 7 or the like causes the main control unit 5 (computer) to execute the following warning process in order to cause the warning output unit 4 to generate a warning sound at a predetermined timing. In other words, the main control unit 5 executes the following warning processing based on the above program. That is, (1) The image of the front view 90 (see FIG. 2) acquired by the imaging device 2B of the imaging device 2 is converted (correlated) to predetermined reference coordinates to generate a converted image, and the conversion In the rear image, a red area (specific area) consisting of red signal 92 and tail lamps 94A, 94B etc. is detected, and (2) the driver's gaze position detected by the gaze position detection device 3 is converted to the reference coordinates. (Correspondence), and (3) a judgment as to whether the driver is looking at (recognizing) the red area based on the gaze position converted to the reference coordinates and the red area converted to the reference coordinates By doing this, the warning output unit 4 generates a warning sound. In the present embodiment, the reference coordinates correspond to the coordinates of the windshield 82 of the automobile 80. Hereinafter, in the present specification, the determination of the above (3), that is, whether the driver looks at (recognizes) a specific area such as a red area may be referred to as “user recognition determination”.

図3は、このような主制御部5の機能構成の一例を示すブロック図である。図3に示すように、上記警告処理を実行するために、主制御部5は、画像変換部51と、特定領域検出部52と、視線位置変換部53と、判断部54と、警告出力制御部55とを有している。   FIG. 3 is a block diagram showing an example of the functional configuration of such a main control unit 5. As shown in FIG. 3, in order to execute the warning process, the main control unit 5 controls the image conversion unit 51, the specific area detection unit 52, the sight line position conversion unit 53, the judgment unit 54, and the warning output control. And a part 55.

図3に示すように、画像変換部51は、撮像装置2の撮像素子2B及び特定領域検出部52に接続されており、撮像素子2Bを介して撮像された前方光景90のデータを取得する。また、画像変換部51は、ROM7等に格納されている基準座標のデータを読み出し、所定のアルゴリズムに基づいて前方光景90のデータを基準座標に変換して変換後画像を生成する。そして、この変換後画像のデータをRAM8などに格納する。   As shown in FIG. 3, the image conversion unit 51 is connected to the imaging element 2B and the specific area detection unit 52 of the imaging device 2, and acquires data of the forward scene 90 imaged through the imaging element 2B. Further, the image conversion unit 51 reads out data of reference coordinates stored in the ROM 7 or the like, converts data of the front sight 90 into reference coordinates based on a predetermined algorithm, and generates a converted image. Then, the data of the converted image is stored in the RAM 8 or the like.

例えば、本実施形態では、撮像装置2はフロントガラス82の全体を通して前方光景90を撮影可能な画角を有している。画像変換部51は、この撮像装置2によって撮影された前方光景90のデータを、運転者がフロントガラス82を通して見えると推定される画像、すなわち基準座標を有する画像に変換する。なお、この変換アルゴリズムは、撮像装置2からフロントガラス82までの距離、撮像装置2からユーザ(運転者)の顔(あるいは運転席のヘッドレストの位置)までの距離、あるいは、ユーザ(運転者)の顔からフロントガラス82までの距離などに基づいて構築することができる。   For example, in the present embodiment, the imaging device 2 has an angle of view capable of capturing the front view 90 through the entire windshield 82. The image conversion unit 51 converts the data of the front view 90 captured by the imaging device 2 into an image estimated to be viewed by the driver through the windshield 82, that is, an image having reference coordinates. Note that this conversion algorithm is the distance from the imaging device 2 to the windshield 82, the distance from the imaging device 2 to the face of the user (driver) (or the position of the headrest at the driver's seat), or It can be constructed based on the distance from the face to the windshield 82 or the like.

ここで、図4は、上記基準座標を示す概略図である。図4に示すように、基準座標70は、X座標及びY座標によって表される。このX座標は、図2に示すように、自動車80の車幅方向に対応する座標であり、Y座標は、フロントガラス82においてX座標に垂直な方向に対応する座標である。すなわち、基準座標70はフロントガラス82のXY座標から構成されており、一方で、フロントガラス82は基準座標70により規定される基準領域71を画定している。この基準領域71は、略同一面積からなる複数のブロック72に区分けされている。本実施形態の例では、基準領域71は、4行(A〜D行)かつ8列(P〜W列)の32個のブロック72に区分けされている。なお、基準領域71のうちC行は、フロントガラス82上、運転者の目が位置する高さにおおよそ相当している。   Here, FIG. 4 is a schematic view showing the reference coordinates. As shown in FIG. 4, the reference coordinates 70 are represented by X coordinates and Y coordinates. The X coordinate is a coordinate corresponding to the vehicle width direction of the automobile 80 as shown in FIG. 2, and the Y coordinate is a coordinate corresponding to a direction perpendicular to the X coordinate on the windshield 82. That is, the reference coordinates 70 are composed of the XY coordinates of the windshield 82, while the windshield 82 defines a reference area 71 defined by the reference coordinates 70. The reference area 71 is divided into a plurality of blocks 72 having substantially the same area. In the example of the present embodiment, the reference area 71 is divided into 32 blocks 72 of 4 rows (rows A to D) and 8 columns (rows P to W). Line C in the reference area 71 roughly corresponds to the height at which the driver's eyes are located on the windshield 82.

なお、本明細書において、例えば、A行P列のブロック(図4において左上端に位置するブロック)を特定するときはブロック72APと記載する。すなわち、区分けされた各ブロック72の一つを特定する場合は、符号「72」にそのブロックの行と列とを併記して記載するものとする。なお、このような区分け(ブロック)の数は適宜変更できることは言うまでもない。   In this specification, for example, when a block in row A and column P (a block located at the upper left end in FIG. 4) is specified, it is described as a block 72AP. That is, when one of the divided blocks 72 is specified, the row and the column of the block are described together in the code "72". Needless to say, the number of such divisions (blocks) can be changed as appropriate.

図3に戻って、特定領域検出部52は、画像変換部51及び判断部54に接続されており、上記変換後画像のデータを画像変換部51から読み出して解析する。より具体的には、特定領域検出部52は、変換後画像を解析して赤信号92やテールランプ94A,94B等からなる赤色領域(特定領域)を検出し、検出した赤色領域が上記複数のブロック72のうちどのブロックに含まれるかを特定して特定光検出座標を生成する。そして、生成した特定光検出座標のデータをRAM8などに格納する。後に再び言及するが、図6は、このような特定光検出座標73を示している。   Returning to FIG. 3, the specific area detection unit 52 is connected to the image conversion unit 51 and the determination unit 54, reads out the data of the converted image from the image conversion unit 51, and analyzes the data. More specifically, the specific area detection unit 52 analyzes the converted image to detect a red area (specific area) including the red signal 92 and the tail lamps 94A and 94B, and the detected red area corresponds to the above-described plurality of blocks. The specific light detection coordinates are generated by specifying which block is included in 72. Then, data of the generated specific light detection coordinates is stored in the RAM 8 or the like. As mentioned later, FIG. 6 shows such specific light detection coordinates 73.

図3に示すように、視線位置変換部53は、視線位置検出装置3及び判断部54に接続されており、視線位置検出装置3から運転者の視線位置データを読み出す。また、読み出した視線位置データを基準座標70に変換すると共に、運転者の視線位置が上記複数のブロック72のうちどのブロックに含まれるかを特定して視線位置検出座標を生成する。そして、生成した視線位置検出座標のデータをRAM8などに格納する。後に再び言及するが、図7A及び図7Bは、このような視線位置検出座標74を示している。   As shown in FIG. 3, the gaze position conversion unit 53 is connected to the gaze position detection device 3 and the determination unit 54, and reads gaze position data of the driver from the gaze position detection device 3. Further, the read visual point position data is converted into the reference coordinates 70, and the visual axis position detection coordinate is generated by specifying in which block among the plurality of blocks 72 the visual line position of the driver is included. Then, data of the generated gaze position detection coordinates is stored in the RAM 8 or the like. 7A and 7B show such gaze position detection coordinates 74, which will be mentioned again later.

例えば、本実施形態では、上記視線位置変換部53によって、カーナビゲーションに対する運転者の視線位置データがフロントガラス82における運転者の視線位置データ(すなわち、基準座標における視線位置データ)に変換される。   For example, in the present embodiment, the gaze position conversion unit 53 converts the gaze position data of the driver for car navigation into gaze position data of the driver on the windshield 82 (that is, gaze position data at reference coordinates).

図3に示すように、判断部54は、特定領域検出部52、視線位置変換部53、及び警告出力制御部55などに接続されており、第1の判断と第2の判断とを含む上記ユーザ認識判断を実行する。すなわち、この判断部54は、特定領域検出部52から上記特定光検出座標73のデータを読み出し、また、視線位置変換部53から上記視線位置検出座標74のデータを読み出す。そして、読み出した特定光検出座標73と視線位置検出座標74とを対比することにより、赤色領域と運転者の視線位置とが基準座標70において一致するか否かの第1の判断を行う。また、この第1の判断に基づいて、運転者が赤色領域を見ているか否かの第2の判断を行う。より具体的には、判断部54は、内部にカウンタCを有しており、このカウンタCを用いて上記第2の判断を行う。運転者が赤色領域を見ていないと判断した場合には、信号を生成して該信号を警告出力制御部55に出力する。   As shown in FIG. 3, the determination unit 54 is connected to the specific area detection unit 52, the gaze position conversion unit 53, the warning output control unit 55, etc., and includes the first determination and the second determination. Execute user recognition judgment. That is, the determination unit 54 reads the data of the specific light detection coordinate 73 from the specific area detection unit 52, and reads the data of the gaze position detection coordinate 74 from the gaze position conversion unit 53. Then, by comparing the read-out specific light detection coordinate 73 and the gaze position detection coordinate 74, a first determination is made as to whether or not the red area and the driver's gaze position coincide with each other at the reference coordinate 70. Also, based on the first determination, a second determination is made as to whether the driver is looking at the red region. More specifically, the determination unit 54 internally includes a counter C, and uses the counter C to make the second determination. When it is determined that the driver does not look at the red region, a signal is generated and the signal is output to the warning output control unit 55.

図3に示すように、警告出力制御部55は、判断部54及び警告出力部4に接続されている。この警告出力制御部55は、判断部54からの信号を入力すると、この信号に基づいて所定の駆動信号を生成し、該駆動信号を警告出力部4に出力する。   As shown in FIG. 3, the warning output control unit 55 is connected to the determination unit 54 and the warning output unit 4. When the signal from the determination unit 54 is input, the warning output control unit 55 generates a predetermined drive signal based on the signal and outputs the drive signal to the warning output unit 4.

次に、警告装置1が上記警告処理を行うプロセスの一例について詳細に説明する。この警告処理プロセスでは、例えば、図5に示されるように、ステップS1〜S10が実行される。なお、以下に述べる警告処理プロセスは例示的なものであり、他のステップからなる警告処理プロセスを構成してもよいことは言うまでもない。   Next, an example of a process in which the warning device 1 performs the warning process will be described in detail. In this warning processing process, for example, as shown in FIG. 5, steps S1 to S10 are executed. It is needless to say that the warning processing process described below is an example, and the warning processing process including other steps may be configured.

まず、図2に示すように、前方の信号機91が赤になることにより、運転者は自動車80を停止させる。本実施形態における警告処理プロセスでは、自動車が停止した時点が図5の「スタート」となる。このスタート時点における前方光景90には、図2に示すように、信号機91の赤信号92と前方車両93の2つのテールランプ94A,94B(停止ランプ)とからなる赤色領域(特定領域)が存在している。主制御部5は、自動車が停止したことを検知すると、撮像装置2及び視線位置検出装置3に信号を出力して撮像装置2及び視線位置検出装置3を動作させる。本実施形態では、上記スタート時点において、運転者は前方車両93のテールランプ94Bを見ているものとする。   First, as shown in FIG. 2, when the traffic light 91 in front becomes red, the driver stops the automobile 80. In the warning processing process in the present embodiment, the time when the vehicle stops is the "start" of FIG. As shown in FIG. 2, a red area (a specific area) consisting of a red light 92 of a traffic light 91 and two tail lamps 94A and 94B (stop lamps) of a front vehicle 93 exists in the front view 90 at this start time. ing. When detecting that the vehicle has stopped, the main control unit 5 outputs a signal to the imaging device 2 and the gaze position detection device 3 to operate the imaging device 2 and the gaze position detection device 3. In the present embodiment, it is assumed that the driver is looking at the tail lamp 94B of the forward vehicle 93 at the start time.

(ステップS1)
撮像装置2は、主制御部5からの信号を入力すると、レンズ部2A及び撮像素子2Bによって前方光景90を撮像する。画像変換部51は、撮像素子2Bから前方光景90のデータを取得すると、ROM7から図4に示す基準座標70のデータを読み出し、撮像した前方光景90を基準座標70に変換して(対応付けて)変換後画像を生成する。そして、画像変換部51は、生成した変換後画像のデータを特定領域検出部52に出力する。
(Step S1)
When the signal from the main control unit 5 is input, the imaging device 2 images the front view 90 by the lens unit 2A and the imaging element 2B. When the image conversion unit 51 acquires data of the front view 90 from the imaging device 2B, the image conversion unit 51 reads data of the reference coordinates 70 shown in FIG. 4 from the ROM 7 and converts the captured front view 90 into reference coordinates 70 (corresponds to ) Generate an image after conversion. Then, the image conversion unit 51 outputs the data of the generated converted image to the specific area detection unit 52.

特定領域検出部52は、画像変換部51から変換後画像のデータを入力すると、この変換後画像の中から上記赤色領域を特定(検出)する。ここで、図2の前方光景90において、テールランプ94Aは、運転者の目の位置と略同一の高さかつフロントガラス82のX方向における中央部からやや−X方向(左側)にずれた位置に存在している。また、テールランプ94Bは、運転者の目の位置と略同一の高さかつフロントガラス82のX方向における中央部からやや右側にずれた位置に存在している。また、赤信号92は、フロントガラス82の上縁部近傍かつX方向においてテールランプ94Aとほぼ同じ位置に存在している。このようなテールランプ94A,94B及び赤信号92は、図4に示す基準座標70に変換すると、それぞれ、ブロック72CR、ブロック72CT、及びブロック72ARに位置することとなる。   When the data of the image after conversion is input from the image conversion unit 51, the specific region detection unit 52 specifies (detects) the red region from the image after conversion. Here, in the front view 90 of FIG. 2, the tail lamp 94A is at a height substantially the same as the position of the driver's eyes and at a position slightly offset in the −X direction (left side) from the center of the windshield 82 in the X direction. Existing. Further, the tail lamp 94B is present at a height substantially the same as the position of the driver's eyes and at a position slightly offset to the right from the center of the windshield 82 in the X direction. Further, the red light 92 is present near the upper edge of the windshield 82 and at substantially the same position as the tail lamp 94A in the X direction. Such tail lamps 94A, 94B and red signal 92, when converted to reference coordinates 70 shown in FIG. 4, will be located at block 72CR, block 72CT and block 72AR, respectively.

したがって、特定領域検出部52は、上記のような位置に存在する赤色領域(テールランプ94A,94B及び赤信号92)を変換後画像から検出すると、図6に示すように、赤色領域としてブロック72CR(テールランプ94A)、ブロック72CT(テールランプ94B)、及びブロック72AR(赤信号92)が特定された特定光検出座標73を生成する。特定領域検出部52は、この特定光検出座標73のデータを判断部54に出力する。   Therefore, when the specific area detection unit 52 detects from the image after conversion the red area (tail lamps 94A and 94B and the red signal 92) present at the position as described above, as shown in FIG. Tail light 94A), block 72CT (tail light 94B), and block 72AR (red light 92) generate specific light detection coordinates 73 specified. The specific area detection unit 52 outputs the data of the specific light detection coordinates 73 to the determination unit 54.

(ステップS2)
視線位置検出装置3は、主制御部5からの信号を入力すると、カメラ3A及び近赤外線LED3B(図2参照)によって運転者の視線位置を検出する。そして、この視線位置のデータを視線位置変換部53に出力する。
(Step S2)
When the gaze position detection device 3 receives a signal from the main control unit 5, the gaze position of the driver is detected by the camera 3A and the near infrared LED 3B (see FIG. 2). Then, the data of the gaze position is output to the gaze position conversion unit 53.

視線位置変換部53は、視線位置検出装置3から視線位置のデータを入力すると、ROM7から図4に示す基準座標70のデータを読み出し、運転者の視線位置を基準座標70に変換する(対応付ける)。そして、視線位置変換部53は、変換後の視線位置が属するブロック72を特定し、この特定されたブロックを基準座標70における視線位置として定める。   When the gaze position conversion unit 53 receives the gaze position data from the gaze position detection device 3, it reads the data of the reference coordinates 70 shown in FIG. 4 from the ROM 7 and converts the driver's gaze position to the reference coordinates 70 (corresponds) . Then, the gaze position conversion unit 53 identifies the block 72 to which the gaze position after conversion belongs, and determines the identified block as the gaze position at the reference coordinates 70.

すなわち、視線位置変換部53は、図5の「スタート」時点において運転者がテールランプ94Bを見ていたことを検出すると、図7Aに示すように、テールランプ94Bが属するブロック72CTを基準座標70における運転者の視線位置と特定し、視線位置検出座標74を生成する。そして、この視線位置検出座標74のデータを判断部54に出力する。   That is, when the sight line position conversion unit 53 detects that the driver looks at the tail lamp 94B at the “start” time of FIG. 5, as shown in FIG. 7A, driving the block 72CT to which the tail lamp 94B belongs at the reference coordinate 70 A gaze position of the person is identified, and gaze position detection coordinates 74 are generated. Then, the data of the sight line position detection coordinates 74 is output to the determination unit 54.

なお、他の実施形態では、上記ステップS1とステップS2との順番を入れ替えてもよい。   In another embodiment, the order of step S1 and step S2 may be switched.

) 判断部54は、特定領域検出部52から特定光検出座標73のデータを入力し、視線位置変換部53から視線位置検出座標74のデータを入力すると、第1の判断及び第2の判断を含むユーザ認識判断を以下のように実行する。 When the determination unit 54 receives data of the specific light detection coordinates 73 from the specific area detection unit 52 and receives data of the gaze position detection coordinates 74 from the gaze position conversion unit 53, the first determination and the second determination are The user recognition judgment including is performed as follows.

(ステップS3(第1の判断))
すなわち、判断部54は、視線位置検出座標74における視線位置(ブロック72CT)が、特定光検出座標73における赤色領域(ブロック72AR,72CR,72CT)と一致するか否かを判断する(第1の判断)。
(Step S3 (first determination))
That is, the determination unit 54 determines whether the sight line position (block 72CT) in the sight line position detection coordinates 74 matches the red area (blocks 72AR, 72CR, 72CT) in the specific light detection coordinates 73 (first Judgment).

(ステップS4)
上述したように、運転者は、図5のスタート時点において前方車両93のテールランプ94Bを見ている。すなわち、判断部54が入力した視線位置検出座標74は、図7Aに示すものであり、ブロック72CTが視線位置として特定されている。図6に示すように、このブロック72CTは、特定光検出座標73の赤色領域72AR,72CR,72CTのうちの一つである。したがって、判断部54は、赤色領域に視線位置が含まれていると判断する。そして、この場合、判断部54は、警告処理プロセスをステップS1の前にリターンさせる。なお、このケースでは上述のカウンタCの値は変わらない。
(Step S4)
As described above, the driver looks at the tail lamp 94B of the forward vehicle 93 at the start time of FIG. That is, the gaze position detection coordinates 74 input by the determination unit 54 are as shown in FIG. 7A, and the block 72CT is specified as the gaze position. As shown in FIG. 6, this block 72CT is one of the red areas 72AR, 72CR, 72CT of the specific light detection coordinate 73. Therefore, the determination unit 54 determines that the red line area includes the gaze position. Then, in this case, the determination unit 54 returns the warning processing process before step S1. In this case, the value of the counter C does not change.

上記リターンにより、再び(2回目の)ステップS1〜S3が実行される。ここで、上記リターン後かつ2回目のステップS2の前に、運転者が目の高さを変えずにフロントガラス82の右端82A(図2参照)をよそ見したものとする。   By the above-described return, steps S1 to S3 (second time) are executed again. Here, after the return and before the second step S2, it is assumed that the driver looks aside at the right end 82A (see FIG. 2) of the windshield 82 without changing the eye height.

(ステップS2(2回目))
視線位置変換部53は、この2回目のステップS2において、運転者の視線位置を再び基準座標70に変換する。上述のように、運転者は、フロントガラス82の右端82Aをよそ見している。したがって、視線位置変換部53は、図7Bに示すように、変換前の視線位置に対応するブロック72CWを基準座標70における視線位置と特定し、新たな視線位置検出座標74を生成する。そして、この新たな視線位置検出座標74のデータを判断部54に出力する。
(Step S2 (second time))
The gaze position conversion unit 53 converts the gaze position of the driver into the reference coordinates 70 again in the second step S2. As described above, the driver looks at the right end 82A of the windshield 82 aside. Therefore, as shown in FIG. 7B, the gaze position conversion unit 53 identifies the block 72CW corresponding to the gaze position before conversion as the gaze position at the reference coordinate 70, and generates a new gaze position detection coordinate 74. Then, the data of the new gaze position detection coordinates 74 is output to the determination unit 54.

(ステップS3(2回目))
2回目のステップS2の後、判断部54は、運転者の視線位置が赤色領域に含まれるか否か再び判断する(第1の判断)。
(Step S3 (second time))
After the second step S2, the determination unit 54 again determines whether the line-of-sight position of the driver is included in the red region (first determination).

(ステップS5)
ここで、上述のように、2回目のステップS2では、図7Bに示す視線位置検出座標74が生成されており、この視線位置検出座標74における視線位置はブロック72CWである。このブロック72CWは、図6に示す特定光検出座標73の赤色領域72AR,72CR,72CTのいずれにも該当しない。したがって、判断部54は、赤色領域に視線位置が含まれていないと判断する。
(Step S5)
Here, as described above, in the second step S2, the gaze position detection coordinates 74 shown in FIG. 7B are generated, and the gaze position in the gaze position detection coordinates 74 is the block 72CW. This block 72CW does not correspond to any of the red areas 72AR, 72CR, 72CT of the specific light detection coordinates 73 shown in FIG. Therefore, the determination unit 54 determines that the red line area does not include the gaze position.

(ステップS6)
そして、判断部54は、赤色領域に視線位置が含まれていないと判断することにより、上述のカウンタCを1つ増加させる。
(Step S6)
Then, the determination unit 54 increases the above-described counter C by one by determining that the line-of-sight position is not included in the red region.

(ステップS7(第2の判断))
その後、判断部54は、カウンタCの値が所定の閾値Nに達しているか否かを判断する(第2の判断)。例えば、閾値Nの値が「5」である場合、上記ステップS6後のカウンタCの値はまだ「1」であり、閾値Nに達していない。この場合、判断部54は、警告処理プロセスをステップS1の前の状態にリターンさせ、3度目のステップを実行する。
(Step S7 (second determination))
Thereafter, the determination unit 54 determines whether the value of the counter C has reached a predetermined threshold N (second determination). For example, when the value of the threshold N is “5”, the value of the counter C after step S6 is still “1” and has not reached the threshold N. In this case, the determination unit 54 returns the warning processing process to the state before step S1, and executes the third step.

(ステップS8(第2の判断))
判断部54は、このような処理を所定時間の間繰り返す。そして、該所定時間内にカウンタCの値が所定の閾値N(例えば「5」)に達した場合、判断部54は、運転者が赤色領域72AR,72CR,72CTを見ていないと判断する。すなわち、運転者は赤信号92を見ていないし、赤信号92を見ているに等しいと判断し得る前方車両93のテールランプ94A,94Bも見ていないと判断する(第2の判断)。そして、この場合、判断部54は、信号を生成して該信号を警告出力制御部55に出力する。
(Step S8 (second determination))
The determination unit 54 repeats such processing for a predetermined time. Then, when the value of the counter C reaches a predetermined threshold N (for example, “5”) within the predetermined time, the determination unit 54 determines that the driver does not look at the red regions 72AR, 72CR, 72CT. That is, it is determined that the driver does not look at the red light 92 and does not look at the tail lamps 94A and 94B of the preceding vehicle 93 which can be determined to be equal to looking at the red light 92 (second judgment). Then, in this case, the determination unit 54 generates a signal and outputs the signal to the warning output control unit 55.

なお、本実施形態では、上記所定時間(「1回目の所定時間」)が経過した際にカウンタCが閾値Nに達していない場合、時間カウントはリセットされるが、カウンタCの値は維持されるように構成されている。したがって、1回目の所定時間が経過した後、2回目の所定時間における1回目のステップS1が実行される。そして、判断部54は、2回目の所定時間内にカウンタCが閾値Nに達したときに「運転者が赤信号92を見ていない」と判断する。ただし、必ずしもこのように構成する必要はなく、1回目の所定時間が経過した際にカウンタCの値が閾値Nに達していない場合、時間カウントと共にカウンタCの値をリセットするようにしてもよい。   In the present embodiment, when the counter C does not reach the threshold N when the predetermined time (“the first predetermined time”) has elapsed, the time count is reset, but the value of the counter C is maintained. Are configured to Therefore, after the first predetermined time has elapsed, the first step S1 in the second predetermined time is executed. Then, when the counter C reaches the threshold value N within the second predetermined time, the determination unit 54 determines that “the driver does not look at the red signal 92”. However, it is not necessary to configure in this way, and when the value of the counter C does not reach the threshold N when the first predetermined time has elapsed, the value of the counter C may be reset together with the time count. .

(ステップ9)
警告出力制御部55は、判断部54からの信号を入力すると、所定の駆動信号を生成して警告出力部4に出力する。そして、警告出力部4は、該駆動信号に基づいて警告音を出力する。
(Step 9)
When the warning output control unit 55 receives the signal from the determination unit 54, the warning output control unit 55 generates a predetermined drive signal and outputs the generated drive signal to the warning output unit 4. Then, the warning output unit 4 outputs a warning sound based on the drive signal.

(ステップ10)
警告出力部4が上記警告音を出力すると、主制御部5は、判断部54のカウンタCの値及び上記時間カウントをリセットする。そして、再び時間カウントが開始され、すなわち、2回目の時間カウントが開始され、1回目のステップS1が再び実行される。
(Step 10)
When the warning output unit 4 outputs the warning sound, the main control unit 5 resets the value of the counter C of the determination unit 54 and the time count. Then, time counting is started again, that is, the second time counting is started, and the first step S1 is performed again.

上記ステップS1〜S10からなる警告処理プロセスは、自動車80の停車状態が解除されるまで実行される。そして、自動車80の停車状態が解除されたとき、主制御部5が上記警告処理プロセスを終了させる。   The warning processing process consisting of the above steps S1 to S10 is executed until the stop state of the automobile 80 is released. Then, when the stopped state of the automobile 80 is released, the main control unit 5 ends the warning processing process.

以上のように、本実施形態における警告装置1によれば、判断部54が、上記ユーザ認識判断を行った上で、該ユーザ認識判断において運転者が赤信号を見ていないと判断された場合に警告が出力されるようになっている。より具体的には、運転者の視線位置が赤色領域に含まれる否かの第1の判断をした上で、「含まれない」との判断の回数が所定時間内に閾値に達した場合に、「運転者が赤信号を見ていない」と判断(第2の判断)され、そして、該第2の判断において「運転者が赤信号を見ていない」と判断された場合に警告が出力されるようになっている。したがって、警告を発するタイミングが必要最低限になり、その結果、運転者が警告に煩わしさを感じたり、警告に麻痺したりすることが効果的に抑制される。そのため、このような警告装置1を搭載した自動車80によれば、運転者は、安全かつ快適にドライブすることができる。   As described above, according to the warning device 1 of the present embodiment, after the determination unit 54 performs the user recognition determination, it is determined that the driver does not look at a red signal in the user recognition determination. The warning is output to. More specifically, after the first determination of whether or not the driver's gaze position is included in the red region, the number of determinations of “not included” reaches a threshold within a predetermined time. , "It is judged that the driver does not look at the red light" (second judgment), and a warning is output when it is judged that "the driver does not look at the red light" in the second judgment. It is supposed to be Therefore, the timing at which the warning is issued is minimized, and as a result, it is effectively suppressed that the driver feels bothered with the warning or paralyzed by the warning. Therefore, according to the automobile 80 equipped with such a warning device 1, the driver can drive safely and comfortably.

ところで、運転者が赤色領域を見ている場合でも、運転者の視線位置が僅かに動いてしまうことも有り得る。したがって、このような場合に「運転者が赤信号を見ていない」と判断されることは妥当でない。本実施形態では、複数のブロックに区分けされた基準領域によって視線検出座標及び特定光検出座標が生成されるため、視線位置の変動が僅かな場合には、視線位置は赤色領域のブロックに含まれたままである。したがって、運転者が赤色領域を見ているにも関わらず警告が発せられてしまうことが効果的に抑制される。   By the way, even when the driver is looking at the red area, the driver's gaze position may move slightly. Therefore, in such a case, it is not appropriate that it is determined that the driver does not look at a red light. In this embodiment, since the gaze detection coordinates and the specific light detection coordinates are generated by the reference area divided into a plurality of blocks, the gaze position is included in the block of the red region when the fluctuation of the gaze position is slight. It remains as it is. Therefore, it is effectively suppressed that a warning is issued although the driver is looking at the red area.

また、本実施形態では、赤色領域と視線位置との双方がフロントガラス82のXY座標(基準座標70)に変換されるため、赤色領域と視線位置との対比が行いやすい。したがって、ユーザ認識判断のアルゴリズムを容易に構成し得る。   Further, in the present embodiment, since both the red area and the gaze position are converted to the XY coordinates (reference coordinate 70) of the windshield 82, the red area and the gaze position can be easily compared. Therefore, the algorithm of the user recognition judgment can be easily configured.

これまで本発明の好ましい実施形態について説明したが、本発明は上述の実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。例えば、以下のような他の実施形態を構成してもよい。   Although the preferred embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to the above-described embodiments and may be implemented in various different forms within the scope of the technical idea thereof. For example, the following other embodiments may be configured.

上述の実施形態では、自動車が赤信号で停車している場合に警告装置が動作する例を説明したが、他の実施形態では、自動車の走行時にも警告装置が動作するように構成してもよい。この場合には、運転者の自動車は走行中であるため、運転者と例えば信号との相対距離が変化することとなる。そのため、基準座標における信号の位置が経時的に変化してしまい、運転者が信号を見ているのにもかかわらず判断部が「見ていない」と判断する誤作動が生じるおそれがある。そこで、このような問題を回避するために、例えば図8に示すように、運転者の目の高さ(C行)よりも上方のブロック172をブロック72よりも大きくした基準座標170を生成してもよい。これにより、信号の位置が基準座標において経時的に変化した場合でも、この位置変化は同一ブロック内の変化となるため、上記誤作動が生じることが抑制される。また、走行中は運転者と信号との相対距離が経時的に変化するため、赤色光源(例えば、赤信号)の位置が撮影画像上で変化することが考えられる。そのため、自動車の走行時に警告装置を動作させる実施形態では、上方の(大きな)複数のブロック172のうち、撮影画像上でその位置が変化するような赤色光源を含むブロックを特定領域としてもよい。このような構成により、上記誤作動をより効果的に抑制することができる。   In the above embodiment, an example in which the warning device operates when the vehicle stops at a red light has been described, but in other embodiments, the warning device may operate even when the vehicle is traveling. Good. In this case, since the driver's car is traveling, the relative distance between the driver and, for example, the signal changes. Therefore, the position of the signal at the reference coordinates changes with time, and there is a possibility that an erroneous operation may occur in which the judgment unit judges that “the driver does not look” although the driver looks at the signal. Therefore, in order to avoid such a problem, for example, as shown in FIG. 8, a reference coordinate 170 is generated in which the block 172 above the height (line C) of the driver's eyes is larger than the block 72. May be Thus, even when the position of the signal changes with time in the reference coordinates, this change in position is a change in the same block, and thus the occurrence of the above-mentioned malfunction is suppressed. In addition, since the relative distance between the driver and the signal changes with time during traveling, it is conceivable that the position of the red light source (for example, red signal) changes on the captured image. Therefore, in the embodiment in which the warning device is operated when the vehicle travels, among the upper (large) blocks 172, a block including a red light source whose position changes on the photographed image may be set as the specific area. With such a configuration, the malfunction can be suppressed more effectively.

また、上述の実施形態では、自動車のフロントガラス82の座標(XY座標)を基準座標とした例を説明したが、他の実施形態では、撮像装置2のカメラ座標を基準座標にしてもよい。この実施形態では、カメラ座標そのものが基準座標になるため、画像変換部51を必ずしも設ける必要はない。なお、この実施形態では、視線位置変換部によって視線位置をカメラ座標に変換する(対応付ける)ことにより、視線位置と特定領域との一致の判断(第1の判断)がされる。また、別の実施形態では、視線位置検出装置が運転者のフロントガラス82上の視線位置を検出するように構成してもよい。このような構成によれば、検出された視線位置をそのまま基準座標にすることが可能となる。   Moreover, although the above-mentioned embodiment demonstrated the example which made the coordinate (XY coordinate) of the windshield 82 of a motor vehicle the reference coordinate, you may make the camera coordinate of the imaging device 2 into a reference coordinate in other embodiment. In this embodiment, since the camera coordinates themselves become the reference coordinates, it is not necessary to provide the image conversion unit 51. In this embodiment, the gaze position conversion unit converts (associates) the gaze position to the camera coordinates, thereby determining whether the gaze position matches the specific area (first determination). In another embodiment, the gaze position detection device may be configured to detect the gaze position of the driver on the windshield 82. According to such a configuration, it is possible to directly use the detected gaze position as the reference coordinate.

また、上述の実施形態では、特定領域に視線位置が含まれないと判断された回数に基づいて警告を発する例を説明したが、他の実施形態では、特定領域に視線位置が含まれると判断された回数に基づいて警告を発するように構成してもよい。このような実施形態におけるユーザ認識判断では、特定領域に視線位置が含まれるとの判断(第1の判断)が所定時間内において連続的に所定回数されない場合に、ユーザが特定領域を見ていない(第2の判断)と判断してもよい。   Moreover, although the above-mentioned embodiment demonstrated the example which warns based on the frequency | count that it was judged that a gaze position is not contained in a specific area, in other embodiment, it judges that a gaze position is contained in a specific area. It may be configured to issue a warning based on the number of times performed. In the user recognition judgment in such an embodiment, the user does not look at the specific area if the judgment (first judgment) that the sight line position is included in the specific area is not continuously performed a predetermined number of times within a predetermined time. It may be determined that (the second determination).

また、上述の実施形態では、ユーザ(運転者)が赤色光(赤信号)を認識していない場合に警告を発する例を説明したが、他の実施形態では、赤色光以外の他の色の光をユーザが認識していない場合に警告を出力するように構成してもよい。そして、このような実施形態では、他の色の光を発する領域(例えば、青色の光を発する領域(青色領域))が特定領域となる。また、別の実施形態では、停車中と走行中とで特定領域として判断する色を変化させてもよい。たとえば、停車中は青信号(青色領域)が認識されないときに警告を発し、走行中は赤信号(赤色領域)が認識されていないときに警告を発するようにしてもよい。   Moreover, although the above-mentioned embodiment demonstrated the example which warns, when a user (driver) does not recognize red light (red signal), in other embodiment, it is another color other than red light. It may be configured to output a warning when the light is not recognized by the user. And in such an embodiment, a field (for example, a field (blue field) which emits blue light) which emits light of other colors turns into a specific field. In another embodiment, the color to be determined as the specific area may be changed between stopping and traveling. For example, a warning may be issued when a green light (blue area) is not recognized while the vehicle is stopped, and a warning may be issued when a red light (red area) is not recognized while traveling.

また、他の実施形態では、主制御部がCPUに加えて他のプロセッサを含むように構成してもよい。この場合、当該他のプロセッサが、上記機能構成(すなわち、画像変換部、特定領域検出部、視線位置変換部、判断部、及び警告出力制御部等)の一部または全てとして機能するようにしてもよい。   In another embodiment, the main control unit may be configured to include another processor in addition to the CPU. In this case, the other processor functions as part or all of the functional configuration (that is, the image conversion unit, the specific area detection unit, the gaze position conversion unit, the determination unit, the warning output control unit, etc.) It is also good.

また、他の実施形態では、ROM7等に記憶されているプログラムは、データ配信用のサーバのHDD(Hard Disk Drive)に記憶され、ネットワークを介してカーナビゲーションシステムやスマートフォンなどの電子機器に配信されてもよい。また、CD,DVD,BD(Blu-Ray Disk)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされたプログラムが本実施例と同等の構成の電子機器にインストールされた場合、上述の実施形態と同等の効果が得られる。   In another embodiment, the program stored in the ROM 7 or the like is stored in the HDD (Hard Disk Drive) of a server for data distribution and distributed to an electronic device such as a car navigation system or a smartphone via a network. May be Further, the storage medium may be sold or distributed in a state where the program is stored in a storage medium such as an optical disc such as a CD, a DVD, and a BD (Blu-Ray Disk), a USB memory, and a memory card. When the program downloaded through the server or storage medium described above is installed in the electronic device having the same configuration as that of this embodiment, the same effect as that of the above embodiment can be obtained.

なお、本明細書において使用した用語「下」、「上」、「上方」、「下方」、その他の位置関係を示す用語は、図示した実施形態との関連において使用されているのであり、装置の相対的な位置関係によって変化するものである。   The terms "lower", "upper", "upper", "lower" and other terms used in the present specification are used in the context of the illustrated embodiment, It changes with the relative positional relationship of.

1 警告装置
2 撮像装置(撮像部)
2A レンズ部
2B 撮像素子
3 視線位置検出装置(視線位置検出部)
3A カメラ
3B 近赤外線LED
4 警告出力部
5 主制御部(コンピュータ)
6 CPU
7 ROM
8 RAM
51 画像変換部
52 特定領域検出部
53 視線位置変換部
54 判断部
55 警告出力制御部
70,170 基準座標
71 基準領域
72,172 ブロック
73 特定光検出座標
74 視線位置検出座標
80 自動車
81 ダッシュボード
82 フロントガラス
90 前方光景
91 信号機
92 赤信号
93 前方車両
94A,94B テールランプ
1 Warning device 2 Imaging device (imaging unit)
2A lens unit 2B image pickup device 3 gaze position detection device (gaze position detection unit)
3A camera 3B near infrared LED
4 warning output unit 5 main control unit (computer)
6 CPU
7 ROM
8 RAM
51 image conversion unit 52 specific region detection unit 53 gaze position conversion unit 54 determination unit 55 warning output control unit 70, 170 reference coordinates 71 reference region 72, 172 blocks 73 specific light detection coordinates 74 gaze position detection coordinates 80 automobile 81 dashboard 82 Windshield 90 Front view 91 Traffic light 92 Red light 93 Forward vehicle 94A, 94B Tail lamp

Claims (11)

撮像部と、
前記撮像部により取得された画像のうち少なくとも特定の色の光を発する特定領域を検出する特定領域検出部と、
ユーザの視線位置を検出する視線位置検出部と、
前記視線位置検出部により検出された前記視線位置と前記特定領域検出部により検出された前記特定領域とに基づいて、前記ユーザが前記特定領域を見ているか否かのユーザ認識判断を行う判断部と、
前記ユーザ認識判断において前記ユーザが前記特定領域を見ていないと判断された場合に警告を出力する警告出力部と
を備える、警告装置。
An imaging unit,
A specific area detection unit that detects a specific area that emits light of at least a specific color in the image acquired by the imaging unit;
A gaze position detection unit that detects a gaze position of the user;
A determination unit that makes a user recognition determination as to whether or not the user is looking at the specific region based on the gaze position detected by the gaze position detection unit and the specific region detected by the specific region detection unit When,
And a warning output unit that outputs a warning when it is determined that the user does not look at the specific area in the user recognition determination.
前記ユーザ認識判断には、前記視線位置検出部により検出された前記視線位置が前記特定領域検出部により検出された前記特定領域に含まれるか否かを判断する第1の判断が含まれる、請求項1に記載の警告装置。   The user recognition determination includes a first determination to determine whether the sight line position detected by the sight line position detection unit is included in the specific area detected by the specific area detection unit. The warning device according to Item 1. 前記第1の判断は、前記視線位置検出部により検出された前記視線位置と前記特定領域検出部により検出された前記特定領域とを所定の基準座標に対応付けることにより行われる、請求項2に記載の警告装置。   The first determination is performed by associating the sight line position detected by the sight line position detection unit and the specific area detected by the specific area detection unit with predetermined reference coordinates. Warning device. 前記撮像部により取得された画像を前記基準座標に変換する画像変換部と、
前記視線位置を前記基準座標に変換する視線位置変換部と
をさらに備え、
前記第1の判断では、前記基準座標に変換された前記視線位置が前記基準座標に変換された前記特定領域に含まれるか否かが判断される、請求項3に記載の警告装置。
An image conversion unit configured to convert an image acquired by the imaging unit into the reference coordinates;
And a visual point position conversion unit for converting the visual line position into the reference coordinates,
The warning device according to claim 3, wherein, in the first determination, it is determined whether or not the gaze position converted to the reference coordinate is included in the specific area converted to the reference coordinate.
前記基準座標により規定される基準領域が一定の広さを有する複数のブロックに区分けされており、
前記第1の判断では、前記基準領域における前記視線位置と前記基準領域における前記特定領域とが前記複数のブロックのうち同一ブロックであるときに、前記視線位置が前記特定領域に含まれると判断される、請求項3又は4に記載の警告装置。
The reference area defined by the reference coordinates is divided into a plurality of blocks having a certain size,
In the first determination, when the sight line position in the reference area and the specific area in the reference area are the same block among the plurality of blocks, it is determined that the sight line position is included in the specific area The warning device according to claim 3 or 4.
前記複数のブロックのうち少なくとも1つが、前記ユーザと前記特定領域との相対距離の変化の大きさに基づいて他のブロックと相違する広さに形成されている、請求項5に記載の警告装置。   The warning device according to claim 5, wherein at least one of the plurality of blocks is formed to have a width different from other blocks based on the magnitude of change in relative distance between the user and the specific area. . 前記撮像部により取得された画像のうち、前記特定の色の光を発し、かつ、前記ユーザとの前記相対距離が変化する領域を特定領域とし、
前記特定領域が前記複数のブロックのうち広いブロックに含まれるように前記基準領域が区分けされる、請求項6に記載の警告装置。
In the image acquired by the imaging unit, a region that emits light of the specific color and in which the relative distance to the user changes is set as a specific region,
The warning device according to claim 6, wherein the reference area is divided such that the specific area is included in a wide block among the plurality of blocks.
前記ユーザ認識判断には、前記第1の判断において前記視線位置が前記特定領域に含まれないと判断された回数が所定時間内に所定の閾値に達した場合に前記ユーザが前記特定領域を見ていないと判断する第2の判断が含まれる、請求項2から7のいずれか一項に記載の警告装置。   In the user recognition determination, the user looks at the specific area when the number of times the visual line position is determined not to be included in the specific area in the first determination reaches a predetermined threshold within a predetermined time. The warning device according to any one of claims 2 to 7, comprising a second determination to determine that it is not. 請求項1から8のいずれか一項に記載の警告装置を備える、自動車。   A car comprising the warning device according to any one of the preceding claims. 画像を取得し、
取得された前記画像のうち特定の色の光を発する特定領域を検出し、
ユーザの視線位置を検出し、
検出された前記視線位置と検出された前記特定領域とに基づいて、前記ユーザが前記特定領域を見ているか否かを判断し、
前記ユーザが前記特定領域を見ていないと判断された場合に警告を出力する、警告方法。
Get an image,
Detecting a specific area emitting light of a specific color in the acquired image;
Detect the user's gaze position,
Based on the detected gaze position and the detected specific area, it is determined whether the user is looking at the specific area.
A warning method, which outputs a warning when it is determined that the user does not look at the specific area.
コンピュータに、
画像を取得させ、
取得された前記画像のうち特定の色の光を発する特定領域を検出させ、
ユーザの視線位置を検出させ、
検出された前記視線位置と検出された前記特定領域とに基づいて、前記ユーザが前記特定領域を見ているか否かの判断を実行させ、
前記ユーザが前記特定領域を見ていないと判断した場合に警告を出力させる、プログラム。
On the computer
Let me get an image,
Detecting a specific area emitting light of a specific color in the acquired image;
Make the user's gaze position detected
Based on the detected gaze position and the detected specific area, it is determined whether the user is looking at the specific area or not.
A program for outputting a warning when it is determined that the user does not look at the specific area.
JP2017248200A 2017-12-25 2017-12-25 Warning device, vehicle, warning method, and program Pending JP2019114118A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017248200A JP2019114118A (en) 2017-12-25 2017-12-25 Warning device, vehicle, warning method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017248200A JP2019114118A (en) 2017-12-25 2017-12-25 Warning device, vehicle, warning method, and program

Publications (1)

Publication Number Publication Date
JP2019114118A true JP2019114118A (en) 2019-07-11

Family

ID=67222665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017248200A Pending JP2019114118A (en) 2017-12-25 2017-12-25 Warning device, vehicle, warning method, and program

Country Status (1)

Country Link
JP (1) JP2019114118A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043852A (en) * 2019-09-13 2021-03-18 日産自動車株式会社 Information processing apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043852A (en) * 2019-09-13 2021-03-18 日産自動車株式会社 Information processing apparatus and method
JP7263187B2 (en) 2019-09-13 2023-04-24 日産自動車株式会社 Information processing device and method

Similar Documents

Publication Publication Date Title
JP6562239B2 (en) Display control apparatus, display control method, display control program, and projection apparatus
US9696814B2 (en) Information processing device, gesture detection method, and gesture detection program
WO2019144880A1 (en) Primary preview region and gaze based driver distraction detection
US10002300B2 (en) Apparatus and method for monitoring driver's concentrativeness using eye tracing
US20220188555A1 (en) Driver monitoring apparatus, vehicle and control method
JP7290930B2 (en) Occupant modeling device, occupant modeling method and occupant modeling program
US11535260B2 (en) Attention-based notifications
TWI522257B (en) Vehicle safety system and operating method thereof
JP6433383B2 (en) Floodlight device
JP2019212226A (en) Driver monitor apparatus
US20130187845A1 (en) Adaptive interface system
TW201623067A (en) Signal alarm device, method, computer readable media, and computer program product
JP2011087006A (en) Display device for vehicle
US20200114932A1 (en) Vehicle and method of outputting information therefor
JP2019114118A (en) Warning device, vehicle, warning method, and program
JP6600342B2 (en) Gesture operation method based on depth value and gesture operation system based on depth value
US20190156133A1 (en) Vehicle driving support apparatus and vehicle driving support program
JP2016115119A (en) Eye opening/closing determination device and eye opening/closing determination method
WO2021085371A1 (en) Driving assistance device, driving assistance method, and driving assistance program
JP7312971B2 (en) vehicle display
KR101968620B1 (en) HMI System and Method for Vehicle
WO2021005702A1 (en) Face detection processing device and face detection processing method
US8363957B2 (en) Image classification system and method thereof
JPS6199803A (en) Recognizing device for vehicle driver's position
JP2018180623A (en) Sight line direction estimation device and sight line direction estimation method