JP2017084157A - Warning device - Google Patents

Warning device Download PDF

Info

Publication number
JP2017084157A
JP2017084157A JP2015212820A JP2015212820A JP2017084157A JP 2017084157 A JP2017084157 A JP 2017084157A JP 2015212820 A JP2015212820 A JP 2015212820A JP 2015212820 A JP2015212820 A JP 2015212820A JP 2017084157 A JP2017084157 A JP 2017084157A
Authority
JP
Japan
Prior art keywords
seat
driver
vehicle
image
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015212820A
Other languages
Japanese (ja)
Inventor
健也 水上
Takeya Mizukami
健也 水上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2015212820A priority Critical patent/JP2017084157A/en
Publication of JP2017084157A publication Critical patent/JP2017084157A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a warning device which estimates a seat which is highly likely to be a driver's seat, even if the driver's seat of another vehicle cannot be identified, to issue a warning at a proper timing.SOLUTION: A warning device 100 includes: a driver's seat identifying unit 23 which executes first image recognition processing on a front image formed by a front camera 10 arranged in a vehicle 1 and capturing an oncoming vehicle 2, to identify a position of a driver's seat of the oncoming vehicle 2 in the front image; a driver's seat estimating unit 24 which executes second image recognition processing different from the first image recognition processing on the front image when the driver's seat identifying unit 23 cannot identify the position of the driver's seat, to estimate the position of the driver's seat in the front image; and an attention state determination unit 25 which executes third image recognition processing on an area including the driver's seat in the front image, to determine whether a driver of the oncoming vehicle 2 is in a careless driving state or not.SELECTED DRAWING: Figure 1

Description

本発明は、車両用の警報装置に関する。   The present invention relates to an alarm device for a vehicle.

従来、自車両に搭載されたカメラが他車両を撮影した画像を用いて、他車両の運転者が前方不注意状態であるか否かを判定し、前方不注意状態である場合には当該他車両の運転者に警報を発する警報装置が開発されている(例えば、特許文献1参照。)。   Conventionally, a camera mounted on the host vehicle is used to determine whether the driver of the other vehicle is in a forward careless state using an image obtained by shooting the other vehicle. An alarm device that issues an alarm to a driver of a vehicle has been developed (see, for example, Patent Document 1).

特開2014−178971号公報JP 2014-178971 A

一般に、車両の前部座席には複数個の座席が含まれており、このうちのいずれか1つの座席が運転席である。他車両の運転者に警報を発する警報装置は、他車両の前部座席に複数人の搭乗者が座っている場合、前部座席のうちのどの座席が運転席であるのかを特定し、運転者を特定することが求められる。これは、例えば助手席の搭乗者が前方不注意状態である場合に、運転者が前方不注意状態でないにも関わらず誤って警報を発するのを防ぐためである。   Generally, a front seat of a vehicle includes a plurality of seats, and any one of these seats is a driver seat. The warning device that issues a warning to the driver of another vehicle specifies which seat of the front seat is the driver's seat when multiple passengers are seated in the front seat of the other vehicle. It is required to identify the person. This is because, for example, when the passenger in the passenger seat is in a forward careless state, the driver is prevented from issuing an alarm erroneously even though the driver is not in the forward careless state.

特許文献1の車両用衝突警報装置は、まず画像認識部が、撮像装置から入力された撮像画像データに基づいて、パターンマッチングなどの周知の画像認識手法を用いて他車両のステアリングの位置を検出する。最初にステアリングの位置を検出することで、他車両に運転者のみでなく助手席にも乗員がいる場合に、ステアリングの位置する側に存在する乗員が運転者であると特定する。   In the vehicle collision warning device disclosed in Patent Document 1, first, the image recognition unit detects the steering position of another vehicle using a known image recognition method such as pattern matching based on the captured image data input from the imaging device. To do. By detecting the position of the steering wheel first, when there is an occupant not only in the driver but also in the passenger seat in the other vehicle, it is specified that the occupant existing on the side where the steering is located is the driver.

しかしながら、自車両に搭載されたカメラが他車両を撮影した画像には、他車両のステアリングホイール(以下「ハンドル」という。)が写らない場合もある。例えば、自車両のバンパ部にカメラを設けた場合、当該カメラが撮影した画像において、他車両のハンドルが他車両のフロント部に隠れて写らないことがある。また、カメラの取り付け位置を高くしても、自車両の車高に対して他車両の車高が高い場合、他車両のハンドルが他車両のフロント部に隠れて写らないことがある。さらに、他車両のダッシュボード上に車載情報機器又は装飾品などが設置されている場合、他車両のハンドルが車載情報機器又は装飾品に隠れて写らないことがある。   However, the steering wheel (hereinafter referred to as “handle”) of the other vehicle may not be shown in the image obtained by photographing the other vehicle with the camera mounted on the host vehicle. For example, when a camera is provided in the bumper part of the host vehicle, the handle of the other vehicle may be hidden behind the front part of the other vehicle in an image taken by the camera. Even if the camera mounting position is increased, if the vehicle height of the other vehicle is higher than the vehicle height of the host vehicle, the handle of the other vehicle may be hidden behind the front part of the other vehicle. Furthermore, when an in-vehicle information device or an ornament is installed on the dashboard of another vehicle, the handle of the other vehicle may be hidden behind the in-vehicle information device or the ornament.

特許文献1の車両用衝突警報装置は、撮影した画像に他車両のハンドルが写っていない場合、他車両の運転席の位置を特定できず、運転者を特定できない問題があった。この場合、助手席の搭乗者が前方不注意状態である場合に誤って警報を発するなど、不適切なタイミングで警報を発する問題があった。   The vehicle collision warning device disclosed in Patent Document 1 has a problem in that the position of the driver's seat of the other vehicle cannot be specified and the driver cannot be specified when the handle of the other vehicle is not shown in the captured image. In this case, there is a problem that an alarm is issued at an improper timing, such as when an occupant in the front passenger seat is in a state of carelessness in front of the passenger.

本発明は、上記のような課題を解決するためになされたものであり、他車両の運転席を特定できない場合であっても、運転席である蓋然性の高い座席を推定して、適切なタイミングで警報を発することのできる警報装置を提供することを目的とする。   The present invention has been made to solve the above-described problems. Even when the driver's seat of another vehicle cannot be specified, the seat having a high probability of being the driver's seat is estimated and an appropriate timing is obtained. An object of the present invention is to provide an alarm device that can issue an alarm.

本発明の警報装置は、自車両に設けたカメラが他車両を撮影した画像に対する第1画像認識処理を実行して、画像における他車両の運転席の位置を特定する運転席特定部と、運転席特定部により運転席の位置を特定することができなかった場合、画像に対する第1画像認識処理と異なる第2画像認識処理を実行して、画像における運転席の位置を推定する運転席推定部と、画像のうちの運転席を含む領域に対する第3画像認識処理を実行して、他車両の運転者が前方不注意状態であるか否かを判定する注意状態判定部と、注意状態判定部により運転者が前方不注意状態であると判定された場合、自車両に設けた出力装置を用いて運転者への警報を発する警報出力部とを備えるものである。   The alarm device according to the present invention includes a driver seat identifying unit that performs a first image recognition process on an image obtained by photographing a vehicle with a camera provided in the host vehicle, and identifies the position of the driver seat of the other vehicle in the image; If the position of the driver's seat cannot be specified by the seat specifying unit, a driver's seat estimating unit that executes a second image recognition process different from the first image recognition process for the image and estimates the position of the driver's seat in the image And a caution state determination unit that executes a third image recognition process on a region including the driver's seat in the image to determine whether the driver of the other vehicle is in a forward careless state, and a caution state determination unit And a warning output unit that issues a warning to the driver using an output device provided in the host vehicle when it is determined that the driver is in a forward careless state.

本発明の警報装置は、上記のように構成したので、第1画像認識処理により他車両の運転席を特定できない場合であっても、第2画像認識処理により運転席である蓋然性の高い座席を推定して、適切なタイミングで警報を発することができる。   Since the alarm device of the present invention is configured as described above, even if the driver's seat of the other vehicle cannot be specified by the first image recognition process, a highly probable seat that is the driver's seat by the second image recognition process. It is possible to estimate and issue an alarm at an appropriate timing.

本発明の実施の形態1に係る警報装置を自車両に設けた状態を示すブロック図である。It is a block diagram which shows the state which provided the alarm device which concerns on Embodiment 1 of this invention in the own vehicle. 本発明の実施の形態1に係る制御部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the control part which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る制御部の他のハードウェア構成を示すブロック図である。It is a block diagram which shows the other hardware constitutions of the control part which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る自車両及び対向車を示す説明図である。It is explanatory drawing which shows the own vehicle and oncoming vehicle which concern on Embodiment 1 of this invention. 本発明の実施の形態1に係る運転席特定部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the driver's seat specific | specification part which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る運転席推定部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the driver's seat estimation part which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る注意状態判定部及び警報出力部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the caution state determination part and alarm output part which concern on Embodiment 1 of this invention. 本発明の実施の形態1に係る警報装置を自車両に設けた他の状態を示すブロック図である。It is a block diagram which shows the other state which provided the alarm device which concerns on Embodiment 1 of this invention in the own vehicle. 本発明の実施の形態1に係る警報装置をサーバに設けた状態を示すブロック図である。It is a block diagram which shows the state which provided the alarm device which concerns on Embodiment 1 of this invention in the server. 本発明の実施の形態2に係る警報装置を自車両に設けた状態を示すブロック図である。It is a block diagram which shows the state which provided the alarm device which concerns on Embodiment 2 of this invention in the own vehicle. 本発明の実施の形態2に係る自車両及び後続車を示す説明図である。It is explanatory drawing which shows the own vehicle and subsequent vehicle which concern on Embodiment 2 of this invention.

実施の形態1.
図1は、本発明の実施の形態1に係る警報装置を自車両に設けた状態を示すブロック図である。図1を参照して、実施の形態1の警報装置100について説明する。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a state in which an alarm device according to Embodiment 1 of the present invention is provided in a host vehicle. With reference to FIG. 1, the alarm device 100 of Embodiment 1 is demonstrated.

記憶装置30は、例えば、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ハードディスクドライブ又は光ディスクなどの不揮発性メモリにより構成されている。記憶装置30には、エンブレムデータベース31、車種データベース32及び通行区分データベース33が予め記憶されている。   The storage device 30 is, for example, a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read Only Memory), or a hard disk such as an EEPROM. Yes. In the storage device 30, an emblem database 31, a vehicle type database 32, and a traffic classification database 33 are stored in advance.

エンブレムデータベース31は、車両製造者のエンブレム(以下「メーカエンブレム」という。)の画像データと、当該メーカエンブレムの示す車両製造者が右ハンドルの車両を製造しているか否かを示す情報と、当該メーカエンブレムの示す車両製造者が左ハンドルの車両を製造しているか否かを示す情報とを関連付けたデータベースである。   The emblem database 31 includes image data of a vehicle manufacturer's emblem (hereinafter referred to as “maker emblem”), information indicating whether or not the vehicle manufacturer indicated by the maker emblem manufactures a right-hand drive vehicle, It is the database which linked | related with the information which shows whether the vehicle manufacturer which a maker emblem manufactures the vehicle of a left steering wheel.

車種データベース32は、車両の車種を示す情報と、当該車種に右ハンドルの型式が存在するか否かを示す情報と、当該車種に左ハンドルの型式が存在するか否かを示す情報とを関連付けたデータベースである。   The vehicle type database 32 associates information indicating the vehicle type of the vehicle, information indicating whether or not the right-hand drive type exists in the vehicle type, and information indicating whether or not the left-hand drive type exists in the vehicle type. Database.

通行区分データベース33は、地図上の座標値と、当該座標値を含む地域における車両の通行区分を示す情報とを関連付けたデータベースである。車両の通行区分には、いわゆる「左側通行」と「右側通行」とがある。一般に、左側通行の地域では右ハンドルの車両が普及しており、右側通行の地域では左ハンドルの車両が普及している。   The traffic classification database 33 is a database in which the coordinate values on the map are associated with information indicating the vehicle traffic classification in an area including the coordinate values. There are so-called “left-hand traffic” and “right-hand traffic” in the vehicle traffic classification. Generally, right-hand drive vehicles are popular in left-hand traffic areas, and left-hand drive vehicles are popular in right-hand traffic areas.

GPS(Global Positioning System)受信機40は、図示しないGPS衛星が送信したGPS信号を受信するものである。自車位置算出部21は、GPS受信機40が受信したGPS信号を用いて、自車両1の現在位置を示す座標値を算出するものである。自車位置算出部21は、算出した座標値を運転席推定部24に出力するものである。   A GPS (Global Positioning System) receiver 40 receives a GPS signal transmitted by a GPS satellite (not shown). The own vehicle position calculation unit 21 calculates a coordinate value indicating the current position of the own vehicle 1 using the GPS signal received by the GPS receiver 40. The own vehicle position calculation unit 21 outputs the calculated coordinate value to the driver seat estimation unit 24.

フロントカメラ10は、例えば、自車両1のフロントバンパ部、車体の前半部又は車室内等に設けられたカメラである。フロントカメラ10は、対向車検出部22からの指示により、所定の時間間隔で自車両1の前方を撮影するものである。また、フロントカメラ10は、撮影した画像(以下「前方画像」という。)のデータを対向車検出部22に出力するものである。なお、フロントカメラ10が前方画像を撮影する時間間隔は、予め設定された一定の時間間隔(例えば1秒ごと)でも良く、自車両1の走行速度に応じて異なる時間間隔であっても良い。   The front camera 10 is, for example, a camera provided in the front bumper portion of the host vehicle 1, the front half of the vehicle body, the vehicle interior, or the like. The front camera 10 captures the front of the host vehicle 1 at predetermined time intervals according to instructions from the oncoming vehicle detection unit 22. The front camera 10 outputs data of a photographed image (hereinafter referred to as “front image”) to the oncoming vehicle detection unit 22. The time interval at which the front camera 10 captures the front image may be a predetermined time interval (for example, every second) or may be a time interval that varies depending on the traveling speed of the host vehicle 1.

対向車検出部22は、フロントカメラ10に前方画像の撮影を指示するものである。また、対向車検出部22は、フロントカメラ10から入力されたデータを用いて、自車両1の走行車線に隣接した車線を走る対向車を検出するものである。具体的には、対向車検出部22は、入力されたデータが示す前方画像に対し、いわゆる「パターン認識」などの画像認識処理を実行して、自車両1との距離が所定距離以内の対向車を検出するものである。なお、この所定距離は、予め設定された一定の距離(例えば20メートル)でも良く、自車両1の走行速度に応じて異なる距離であっても良い。対向車検出部22は、対向車を検出した場合、対向車が写された前方画像のデータを運転席特定部23に出力するものである。   The oncoming vehicle detection unit 22 instructs the front camera 10 to capture a front image. The oncoming vehicle detection unit 22 detects an oncoming vehicle that runs in a lane adjacent to the traveling lane of the host vehicle 1 using data input from the front camera 10. Specifically, the oncoming vehicle detection unit 22 performs image recognition processing such as so-called “pattern recognition” on the front image indicated by the input data, and the oncoming vehicle detection unit 22 faces the vehicle 1 within a predetermined distance. It detects the car. The predetermined distance may be a predetermined distance (for example, 20 meters), or may be a different distance depending on the traveling speed of the host vehicle 1. When the oncoming vehicle is detected, the oncoming vehicle detection unit 22 outputs data of a front image showing the oncoming vehicle to the driver seat identification unit 23.

運転席特定部23は、対向車検出部22から入力されたデータを用いて、当該データが示す前方画像における対向車の運転席の位置を特定するものである。ここで、運転席の位置を「特定」するとは、対向車の前部座席のうちの略確実に運転席である座席を特定し、この座席の位置を特定することをいう。すなわち、当該データが示す前方画像は、対向車を前方から撮影したものであり、対向車のフロントガラス越しに車室内が写されている。運転席特定部23は、前方画像に対するパターン認識などの画像認識処理を実行して、対向車の前部座席に座った搭乗者を検出する。運転席特定部23は、検出した搭乗者の人数が1人である場合、対向車の前部座席のうち、搭乗者の座った座席が運転席であると特定する。   The driver seat specifying unit 23 uses the data input from the oncoming vehicle detection unit 22 to specify the position of the driver seat of the oncoming vehicle in the front image indicated by the data. Here, “specifying” the position of the driver's seat means specifying the seat that is the driver's seat almost certainly among the front seats of the oncoming vehicle, and specifying the position of this seat. That is, the front image indicated by the data is a picture of the oncoming vehicle taken from the front, and the vehicle interior is shown through the windshield of the oncoming vehicle. The driver seat identification unit 23 performs image recognition processing such as pattern recognition on the front image, and detects a passenger sitting on the front seat of the oncoming vehicle. When the number of detected passengers is one, the driver seat specifying unit 23 specifies that the seat on which the passenger sits is the driver seat among the front seats of the oncoming vehicle.

また、運転席特定部23は、前方画像に対するパターン認識などの画像認識処理を実行して、前方画像に写された対向車のハンドルを検出する。運転席特定部23は、ハンドルを検出できた場合、対向車の前部座席のうち、ハンドルを設けた座席が運転席であると特定する。   In addition, the driver's seat specifying unit 23 performs image recognition processing such as pattern recognition on the front image, and detects the handle of the oncoming vehicle imaged in the front image. When the steering wheel can be detected, the driver seat specifying unit 23 specifies that the seat provided with the steering wheel is the driver seat among the front seats of the oncoming vehicle.

以下、運転席特定部23による画像認識処理を総称して「第1画像認識処理」という。運転席特定部23は、第1画像認識処理により運転席の位置を特定できた場合、前方画像のデータと、当該前方画像における運転席の位置を示す情報とを注意状態判定部25に出力するものである。また、運転席特定部23は、第1画像認識処理により運転席の位置を特定できなかった場合、前方画像のデータを運転席推定部24に出力するものである。   Hereinafter, the image recognition processing performed by the driver seat specifying unit 23 is collectively referred to as “first image recognition processing”. When the position of the driver's seat can be specified by the first image recognition process, the driver's seat specifying unit 23 outputs data of the front image and information indicating the position of the driver's seat in the front image to the attention state determining unit 25. Is. Further, when the position of the driver's seat cannot be specified by the first image recognition process, the driver's seat specifying unit 23 outputs the data of the front image to the driver's seat estimating unit 24.

運転席推定部24は、運転席特定部23から入力されたデータを用いて、当該データが示す前方画像における対向車の運転席の位置を推定するものである。ここで、運転席の位置を「推定」するとは、対向車の前部座席のうちの略確実に運転席である座席を特定できなかった場合に、運転席である蓋然性の高い座席を推定し、この座席の位置を推定することをいう。すなわち、運転席推定部24は、前方画像に対するパターン認識などの画像認識処理を実行して、対向車の前部座席に座った複数人の搭乗者のそれぞれが子供であるか大人であるかを判定し、搭乗者に含まれる大人を検出する。各々の搭乗者が子供であるか大人であるかは、例えば、搭乗者の体格、高さ方向の頭の位置、及び、チャイルドシートの設置の有無などにより判定する。運転席推定部24は、検出した大人の人数が1人である場合、対向車の前部座席のうち、大人の座った座席が運転席であると推定する。   The driver seat estimation unit 24 uses the data input from the driver seat identification unit 23 to estimate the position of the driver's seat of the oncoming vehicle in the front image indicated by the data. Here, “estimating” the position of the driver's seat is to estimate a seat that has a high probability of being the driver's seat when the driver's seat in the front seats of the oncoming vehicle cannot be identified with certainty. It means to estimate the position of this seat. That is, the driver seat estimation unit 24 performs image recognition processing such as pattern recognition on the front image, and determines whether each of the plurality of passengers sitting on the front seat of the oncoming vehicle is a child or an adult. Determine and detect adults included in the passenger. Whether each passenger is a child or an adult is determined by, for example, the physique of the passenger, the position of the head in the height direction, and the presence or absence of a child seat. When the detected number of adults is one, the driver seat estimation unit 24 estimates that the seat on which the adult sits is the driver seat among the front seats of the oncoming vehicle.

また、運転席推定部24は、前方画像に対するパターン認識などの画像認識処理を実行して、前方画像に写された対向車のフェンダーランプを検出する。一般に、フェンダーランプは、車両前端部の左端部及び右端部のうち、運転席からより遠い側の端部に配置されている。運転席推定部24は、フェンダーランプを検出できた場合、対向車の前部座席のうち、フェンダーランプからより離れた座席が運転席であると推定する。   In addition, the driver seat estimation unit 24 performs image recognition processing such as pattern recognition on the front image, and detects a fender lamp of an oncoming vehicle that is captured in the front image. Generally, the fender lamp is disposed at an end portion farther from the driver's seat among the left end portion and the right end portion of the vehicle front end portion. When the fender lamp can be detected, the driver seat estimation unit 24 estimates that the seat farther from the fender lamp among the front seats of the oncoming vehicle is the driver seat.

また、運転席推定部24は、前方画像に対するパターン認識などの画像認識処理を実行して、前方画像に写された対向車のメーカエンブレムを検出する。運転席推定部24は、メーカエンブレムを検出できた場合、記憶装置30に記憶されたエンブレムデータベース31から、当該メーカエンブレムに関連付けられた情報を取得する。運転席推定部24は、検出したメーカエンブレムの示す車両製造者が右ハンドルの車両のみを製造している場合、対向車の前部座席のうち、右側の座席が運転席であると推定する。運転席推定部24は、検出したメーカエンブレムの示す車両製造者が左ハンドルの車両のみを製造している場合、対向車の前部座席のうち、左側の座席が運転席であると推定する。   In addition, the driver seat estimation unit 24 performs image recognition processing such as pattern recognition on the front image, and detects the maker emblem of the oncoming vehicle that is captured in the front image. If the driver seat estimation unit 24 can detect the manufacturer emblem, the driver seat estimation unit 24 acquires information associated with the manufacturer emblem from the emblem database 31 stored in the storage device 30. When the vehicle manufacturer indicated by the detected maker emblem manufactures only the right-hand drive vehicle, the driver seat estimation unit 24 estimates that the right seat among the front seats of the oncoming vehicle is the driver seat. When the vehicle manufacturer indicated by the detected manufacturer emblem manufactures only the left-hand drive vehicle, the driver seat estimation unit 24 estimates that the left seat among the front seats of the oncoming vehicle is the driver seat.

また、運転席推定部24は、前方画像に対するパターン認識などの画像認識処理を実行して、前方画像に写された対向車の外観を検出する。ここで、対向車の「外観」とは、対向車の形状、模様若しくは色彩又はこれらの結合のことである。運転席推定部24は、検出した外観に基づき、対向車の車種を特定する。運転席推定部24は、対向車の車種を特定できた場合、記憶装置30に記憶された車種データベース32から、当該車種に関連付けられた情報を取得する。運転席推定部24は、検出した車種に右ハンドルの型式のみが存在する場合、対向車の前部座席のうち、右側の座席が運転席であると推定する。運転席推定部24は、検出した車種に左ハンドルの型式のみが存在する場合、対向車の前部座席のうち、左側の座席が運転席であると推定する。   In addition, the driver seat estimation unit 24 performs image recognition processing such as pattern recognition on the front image, and detects the appearance of the oncoming vehicle imaged in the front image. Here, the “appearance” of the oncoming vehicle is the shape, pattern or color of the oncoming vehicle, or a combination thereof. The driver seat estimation unit 24 identifies the vehicle type of the oncoming vehicle based on the detected appearance. When the driver seat estimation unit 24 can identify the vehicle type of the oncoming vehicle, the driver seat estimation unit 24 acquires information associated with the vehicle type from the vehicle type database 32 stored in the storage device 30. The driver seat estimation unit 24 estimates that the right seat among the front seats of the oncoming vehicle is the driver seat when only the right steering wheel type exists in the detected vehicle type. The driver seat estimation unit 24 estimates that the left seat among the front seats of the oncoming vehicle is the driver seat when only the left steering wheel type exists in the detected vehicle type.

以下、運転席推定部24による画像認識処理を総称して「第2画像認識処理」という。運転席推定部24は、第2画像認識処理により運転席の位置を推定できた場合、前方画像のデータと、当該前方画像における運転席の位置を示す情報とを注意状態判定部25に出力するものである。   Hereinafter, the image recognition processing by the driver seat estimation unit 24 is collectively referred to as “second image recognition processing”. When the position of the driver seat can be estimated by the second image recognition process, the driver seat estimation unit 24 outputs data of the front image and information indicating the position of the driver seat in the front image to the attention state determination unit 25. Is.

また、運転席推定部24は、第2画像認識処理により運転席の位置を推定できなかった場合、通行区分データベース33を参照して運転席の位置を推定するものである。すなわち、運転席推定部24は、自車位置算出部21から、自車両1の現在位置を示す座標値を取得する。運転席推定部24は、記憶装置30に記憶された通行区分データベース33を参照して、自車両1の現在位置を含む地域における車両の通行区分を判定する。通行区分が左側通行である場合、運転席推定部24は、対向車が右ハンドルの車両であるとみなして、対向車の前部座席のうちの右側の座席が運転席であると推定する。通行区分が右側通行である場合、運転席推定部24は、対向車が左ハンドルの車両であるとみなして、対向車の前部座席のうちの左側の座席が運転席であると推定する。運転席推定部24は、通行区分データベース33を参照して運転席の位置を推定した場合も、前方画像のデータと、当該前方画像における運転席の位置を示す情報とを注意状態判定部25に出力するものである。   Moreover, the driver seat estimation part 24 estimates the position of a driver's seat with reference to the traffic classification database 33, when the position of a driver's seat cannot be estimated by the 2nd image recognition process. That is, the driver seat estimation unit 24 acquires a coordinate value indicating the current position of the host vehicle 1 from the host vehicle position calculation unit 21. The driver seat estimation unit 24 refers to the traffic classification database 33 stored in the storage device 30 and determines the traffic classification of the vehicle in the area including the current position of the host vehicle 1. When the traffic classification is left-hand traffic, the driver seat estimation unit 24 regards the oncoming vehicle as a right-hand drive vehicle and estimates that the right seat among the front seats of the oncoming vehicle is the driver seat. When the traffic classification is right-hand traffic, the driver seat estimation unit 24 regards the oncoming vehicle as a left-hand drive vehicle, and estimates that the left seat among the front seats of the oncoming vehicle is the driver seat. Even when the driver's seat estimation unit 24 estimates the position of the driver's seat with reference to the traffic classification database 33, the driver's seat estimation unit 24 sends the data of the front image and the information indicating the position of the driver's seat in the front image to the attention state determination unit 25. Output.

注意状態判定部25は、運転席特定部23又は運転席推定部24から入力された前方画像のデータ及び運転席の位置を示す情報を用いて、対向車の運転者が前方不注意状態であるか否かを判定するものである。具体的には、注意状態判定部25は、入力されたデータが示す前方画像のうち、入力された情報が示す運転席の位置を含む領域に対してパターン認識などの画像認識処理を実行する。この領域には、少なくとも、対向車の運転者の頭部が写されている。   The attention state determination unit 25 uses the data of the front image and the information indicating the position of the driver seat input from the driver seat specification unit 23 or the driver seat estimation unit 24, and the driver of the oncoming vehicle is in a state of carelessness ahead. Whether or not. Specifically, the attention state determination unit 25 executes image recognition processing such as pattern recognition on a region including the position of the driver's seat indicated by the input information in the front image indicated by the input data. At least the head of the driver of the oncoming vehicle is shown in this area.

画像認識処理の結果、例えば、運転者の顔が対向車の前方と異なる方向を向いている場合、又は、運転者の視線が対向車の進行方向と異なる方向を向いている場合などは、対向車の運転者がいわゆる「脇見運転」をしている蓋然性が高い。注意状態判定部25は、対向車の運転者がこれらの状態である場合、対向車の運転者が前方不注意状態であると判定する。   As a result of the image recognition process, for example, when the driver's face is facing a direction different from the front of the oncoming vehicle, or when the driver's line of sight is facing a direction different from the traveling direction of the oncoming vehicle, There is a high probability that the driver of the car is doing so-called “side-view driving”. The caution state determination unit 25 determines that the driver of the oncoming vehicle is in a forward careless state when the driver of the oncoming vehicle is in these states.

また、時間的に連続した複数枚の前方画像に対する画像認識処理の結果、例えば、対向車の運転者が連続して目を閉じている場合、又は、連続して頭を伏せている場合などは、対向車の運転者がいわゆる「居眠り運転」をしている蓋然性が高い。また、対向車の運転者の瞬きの頻度が高い場合、又は、目の開きが不十分である場合などは、その後、運転者が居眠り運転に陥る蓋然性が高い。注意状態判定部25は、対向車の運転者がこれらの状態である場合、対向車の運転者が前方不注意状態であると判定する。   In addition, as a result of image recognition processing for a plurality of front images that are temporally continuous, for example, when the driver of an oncoming vehicle continuously closes her eyes, or when her head is continuously bowed There is a high probability that the driver of the oncoming vehicle is doing so-called “sleeping driving”. In addition, when the frequency of blinking by the driver of the oncoming vehicle is high, or when the eyes are insufficiently opened, there is a high probability that the driver will fall asleep afterwards. The caution state determination unit 25 determines that the driver of the oncoming vehicle is in a forward careless state when the driver of the oncoming vehicle is in these states.

また、画像認識処理の結果、対向車の運転者がスマートフォンなどの音声通話自在な携帯端末を用いて通話している場合も、注意状態判定部25は、対向車の運転者が前方不注意状態であると判定する。   In addition, as a result of the image recognition process, when the driver of the oncoming vehicle is making a call using a portable terminal such as a smartphone that is capable of voice communication, the attention state determination unit 25 indicates that the driver of the oncoming vehicle is in a state of carelessness ahead. It is determined that

以下、注意状態判定部25による画像認識処理を総称して「第3画像認識処理」という。注意状態判定部25は、第3画像認識処理により対向車の運転者が前方不注意状態であると判定した場合、警報出力部26に警報の出力を指示するものである。   Hereinafter, the image recognition processing by the attention state determination unit 25 is collectively referred to as “third image recognition processing”. The caution state determination unit 25 instructs the alarm output unit 26 to output an alarm when it is determined by the third image recognition process that the driver of the oncoming vehicle is in a forward careless state.

警報出力部26は、注意状態判定部25からの指示により、自車両1に設けられた出力装置50を用いて、対向車の運転者に警報を発するものである。具体的には、例えば、警報出力部26は、自車両1のクラクション51を鳴らしたり、ヘッドランプ52又はハザードランプ53を点滅させたりすることで、対向車の運転者に対して注意喚起する。   The warning output unit 26 issues a warning to the driver of the oncoming vehicle using the output device 50 provided in the host vehicle 1 according to an instruction from the attention state determination unit 25. Specifically, for example, the alarm output unit 26 alerts the driver of the oncoming vehicle by sounding the horn 51 of the host vehicle 1 or blinking the headlamp 52 or the hazard lamp 53.

運転席特定部23、運転席推定部24、注意状態判定部25及び警報出力部26により、警報装置100が構成されている。自車位置算出部21、対向車検出部22及び警報装置100により、制御部20が構成されている。   The driver seat identification unit 23, the driver seat estimation unit 24, the caution state determination unit 25, and the alarm output unit 26 constitute an alarm device 100. The own vehicle position calculation unit 21, the oncoming vehicle detection unit 22, and the alarm device 100 constitute a control unit 20.

次に、図2及び図3を参照して、制御部20のハードウェア構成について説明する。
図2は、制御部20のハードウェア構成の一例を示している。図2に示す如く、制御部20は専用の処理回路71により構成されている。処理回路71は、例えば、システムLSI(Large−Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)又はこれらを組み合わせたものである。なお、図1に示す自車位置算出部21、対向車検出部22、運転席特定部23、運転席推定部24、注意状態判定部25及び警報出力部26の各部の機能をそれぞれ処理回路で実現したものでも良く、各部の機能をまとめて処理回路で実現したものであっても良い。また、この処理回路71には、自車両1に搭載されたECU(Electronic Control Unit)の処理回路を用いることができる。
Next, the hardware configuration of the control unit 20 will be described with reference to FIGS. 2 and 3.
FIG. 2 shows an example of the hardware configuration of the control unit 20. As shown in FIG. 2, the control unit 20 includes a dedicated processing circuit 71. The processing circuit 71 is, for example, a system LSI (Large-Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination thereof. In addition, the function of each part of the own vehicle position calculation part 21, the oncoming vehicle detection part 22, the driver seat specification part 23, the driver seat estimation part 24, the caution state determination part 25, and the alarm output part 26 shown in FIG. It may be realized, or the functions of the respective units may be collectively realized by a processing circuit. The processing circuit 71 may be a processing circuit of an ECU (Electronic Control Unit) mounted on the host vehicle 1.

図3は、制御部20のハードウェア構成の他の例を示している。図3に示す如く、制御部20はメモリ72及びプロセッサ73により構成されている。メモリ72には、図1に示す自車位置算出部21、対向車検出部22、運転席特定部23、運転席推定部24、注意状態判定部25及び警報出力部26の機能を実現するプログラムが記憶されている。プロセッサ73は、メモリ72に記憶されたプログラムを読み出して実行するものである。プロセッサ73は、例えばCPU(Central Processing Unit)である。メモリ72は、例えば、RAM(Random Access Memory)、ROM、フラッシュメモリ、EPROM若しくはEEPROMなどの半導体メモリ、ハードディスクドライブ又は光ディスクなどである。なお、このメモリ72及びプロセッサ73には、自車両1に搭載されたカーナビゲーション装置などの車載情報機器のメモリ及びプロセッサを用いることができる。または、自車両1に持ち込まれたPND(Portable Navigation Device)又はスマートフォンなどの携帯情報端末のメモリ及びプロセッサを用いることもできる。   FIG. 3 shows another example of the hardware configuration of the control unit 20. As shown in FIG. 3, the control unit 20 includes a memory 72 and a processor 73. In the memory 72, a program for realizing the functions of the own vehicle position calculation unit 21, the oncoming vehicle detection unit 22, the driver seat identification unit 23, the driver seat estimation unit 24, the caution state determination unit 25, and the alarm output unit 26 illustrated in FIG. Is remembered. The processor 73 reads out and executes a program stored in the memory 72. The processor 73 is, for example, a CPU (Central Processing Unit). The memory 72 is, for example, a RAM (Random Access Memory), a ROM, a flash memory, a semiconductor memory such as an EPROM or an EEPROM, a hard disk drive, or an optical disk. As the memory 72 and the processor 73, a memory and a processor of an in-vehicle information device such as a car navigation device mounted on the host vehicle 1 can be used. Alternatively, a memory and a processor of a portable information terminal such as a PND (Portable Navigation Device) or a smartphone brought into the host vehicle 1 can be used.

次に、図4〜図7を参照して、警報装置100の動作について説明する。
図4は、自車両1と、自車両1の走行車線に隣接した車線を走る対向車2とのイメージを示している。図4の例では、自車両1のフロントバンパ部に、撮影画角θが約90°のフロントカメラ10を設けている。フロントカメラ10が撮影した前方画像に対向車2が写り、対向車検出部22が対向車2を検出すると、対向車検出部22は前方画像のデータを運転席特定部23に出力する。
Next, the operation of the alarm device 100 will be described with reference to FIGS.
FIG. 4 shows an image of the host vehicle 1 and an oncoming vehicle 2 running in a lane adjacent to the travel lane of the host vehicle 1. In the example of FIG. 4, the front camera 10 having a shooting angle of view θ of about 90 ° is provided in the front bumper portion of the host vehicle 1. When the oncoming vehicle 2 appears in the front image captured by the front camera 10 and the oncoming vehicle detection unit 22 detects the oncoming vehicle 2, the oncoming vehicle detection unit 22 outputs the data of the front image to the driver seat identification unit 23.

図5は、運転席特定部23の動作を示すフローチャートである。運転席特定部23は、対向車検出部22から前方画像のデータが入力されると、ステップST1の処理を開始する。   FIG. 5 is a flowchart showing the operation of the driver seat identification unit 23. When the front image data is input from the oncoming vehicle detection unit 22, the driver seat identification unit 23 starts the process of step ST1.

まず、ステップST1にて、運転席特定部23は、対向車検出部22から入力されたデータが示す前方画像に対し、対向車2の前部座席に座った搭乗者を検出する第1画像認識処理を実行する。   First, in step ST <b> 1, the driver seat identification unit 23 detects a passenger sitting in the front seat of the oncoming vehicle 2 with respect to the front image indicated by the data input from the oncoming vehicle detection unit 22. Execute the process.

次いで、ステップST2にて、運転席特定部23は、ステップST1の第1画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を特定できるか否かを判定する。すなわち、運転席特定部23は、ステップST1の第1画像認識処理にて検出した搭乗者の人数が1人である場合、運転席の位置を特定できると判定する。他方、ステップST1の第1画像認識処理にて搭乗者を検出できなかった場合、又は、検出した搭乗者の人数が複数人である場合、運転席特定部23は、運転席の位置を特定できないと判定する。   Next, in step ST2, the driver seat identifying unit 23 determines whether or not the position of the driver seat of the oncoming vehicle 2 in the front image can be identified based on the result of the first image recognition process in step ST1. That is, the driver seat identification unit 23 determines that the position of the driver seat can be identified when the number of passengers detected in the first image recognition process in step ST1 is one. On the other hand, when the passenger cannot be detected in the first image recognition process in step ST1, or when the detected number of passengers is plural, the driver seat specifying unit 23 cannot specify the position of the driver seat. Is determined.

運転席の位置を特定できる場合(ステップST2“YES”)、次いで、ステップST3にて、運転席特定部23は、ステップST1の第1画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を特定する。すなわち、運転席特定部23は、対向車2の前部座席のうち、ステップST1で検出した搭乗者の座った座席が運転席であると特定する。運転席特定部23は、前方画像のデータと、特定した運転席の位置を示す情報とを注意状態判定部25に出力する。   If the position of the driver's seat can be specified (step ST2 “YES”), then, in step ST3, the driver's seat specifying unit 23 determines the oncoming vehicle 2 in the front image based on the result of the first image recognition process in step ST1. Locate the driver's seat. That is, the driver's seat specifying unit 23 specifies that the seat on which the passenger is sitting detected in step ST1 among the front seats of the oncoming vehicle 2 is the driver's seat. The driver seat identification unit 23 outputs the data of the front image and information indicating the identified driver seat position to the attention state determination unit 25.

運転席の位置を特定できない場合(ステップST2“NO”)、次いで、ステップST4にて、運転席特定部23は、対向車検出部22から入力されたデータが示す前方画像に対し、対向車2のハンドルを検出する第1画像認識処理を実行する。   If the position of the driver's seat cannot be specified (step ST2 “NO”), then, in step ST4, the driver's seat specifying unit 23 performs the oncoming vehicle 2 with respect to the front image indicated by the data input from the oncoming vehicle detection unit 22. The first image recognition process for detecting the handle of is performed.

次いで、ステップST5にて、運転席特定部23は、ステップST4の第1画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を特定できるか否かを判定する。すなわち、運転席特定部23は、ステップST4の第1画像認識処理にてハンドルを検出できた場合、運転席の位置を特定できると判定する。他方、ステップST4の第1画像認識処理にてハンドルを検出できなかった場合、運転席特定部23は、運転席の位置を特定できないと判定する。   Next, in step ST5, the driver seat identifying unit 23 determines whether the position of the driver seat of the oncoming vehicle 2 in the front image can be identified based on the result of the first image recognition process in step ST4. That is, the driver seat identification unit 23 determines that the position of the driver seat can be identified when the steering wheel can be detected in the first image recognition process of step ST4. On the other hand, when the steering wheel cannot be detected in the first image recognition process in step ST4, the driver seat specifying unit 23 determines that the position of the driver seat cannot be specified.

運転席の位置を特定できる場合(ステップST5“YES”)、次いで、ステップST3にて、運転席特定部23は、ステップST5の第1画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を特定する。すなわち、運転席特定部23は、対向車2の前部座席のうち、ステップST4で検出したハンドルを設けた座席が運転席であると特定する。運転席特定部23は、前方画像のデータと、特定した運転席の位置を示す情報とを注意状態判定部25に出力する。   If the position of the driver's seat can be specified (step ST5 “YES”), then in step ST3, the driver's seat specifying unit 23 determines the oncoming vehicle 2 in the front image based on the result of the first image recognition process in step ST5. Locate the driver's seat. That is, the driver's seat specifying unit 23 specifies that the seat provided with the handle detected in step ST4 among the front seats of the oncoming vehicle 2 is the driver's seat. The driver seat identification unit 23 outputs the data of the front image and information indicating the identified driver seat position to the attention state determination unit 25.

運転席の位置を特定できない場合(ステップST5“NO”)、次いで、ステップST6にて、運転席特定部23は、前方画像における対向車2の運転席の位置を特定せず、前方画像のデータを運転席推定部24に出力する。   If the position of the driver's seat cannot be specified (step ST5 “NO”), then in step ST6, the driver's seat specifying unit 23 does not specify the position of the driver's seat of the oncoming vehicle 2 in the front image, and the data of the front image. Is output to the driver seat estimation unit 24.

図6は、運転席推定部24の動作を示すフローチャートである。運転席推定部24は、運転席特定部23から前方画像のデータが入力されると、ステップST11の処理を開始する。   FIG. 6 is a flowchart showing the operation of the driver seat estimation unit 24. When the front image data is input from the driver seat identification unit 23, the driver seat estimation unit 24 starts the process of step ST11.

まず、ステップST11にて、運転席推定部24は、運転席特定部23から入力されたデータが示す前方画像に対し、対向車2の前方座席に座った複数人の搭乗者のそれぞれが子供であるか大人であるかを判定して、搭乗者に含まれる大人を検出する第2画像認識処理を実行する。   First, in step ST11, the driver seat estimation unit 24 compares each of a plurality of passengers sitting in the front seat of the oncoming vehicle 2 with respect to the front image indicated by the data input from the driver seat identification unit 23. It is determined whether there is an adult or not, and a second image recognition process for detecting an adult included in the passenger is executed.

次いで、ステップST12にて、運転席推定部24は、ステップST11の第2画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を推定できるか否かを判定する。すなわち、運転席推定部24は、ステップST11の第2画像認識処理にて検出した大人の人数が1人である場合、運転席の位置を推定できると判定する。他方、ステップST11の第2画像認識処理にて大人を検出できなかった場合、又は、検出した大人の人数が複数人である場合、運転席推定部24は、運転席の位置を推定できないと判定する。   Next, in step ST12, the driver seat estimation unit 24 determines whether or not the position of the driver seat of the oncoming vehicle 2 in the front image can be estimated based on the result of the second image recognition process in step ST11. That is, the driver seat estimation unit 24 determines that the position of the driver seat can be estimated when the number of adults detected in the second image recognition process in step ST11 is one. On the other hand, if an adult cannot be detected in the second image recognition process in step ST11, or if there are a plurality of detected adults, the driver seat estimation unit 24 determines that the position of the driver seat cannot be estimated. To do.

運転席の位置を推定できる場合(ステップST12“YES”)、次いで、ステップST13にて、運転席推定部24は、ステップST11の第2画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を推定する。すなわち、運転席推定部24は、対向車2の前部座席のうち、ステップST11で検出した大人の座った座席が運転席であると推定する。運転席推定部24は、前方画像のデータと、推定した運転席の位置を示す情報とを注意状態判定部25に出力する。   If the position of the driver's seat can be estimated (step ST12 “YES”), then, in step ST13, the driver's seat estimation unit 24 determines the oncoming vehicle 2 in the front image based on the result of the second image recognition process in step ST11. Estimate the position of the driver's seat. That is, the driver seat estimation unit 24 estimates that the seat on which the adult sits detected in step ST11 among the front seats of the oncoming vehicle 2 is the driver seat. The driver seat estimation unit 24 outputs the data of the front image and information indicating the estimated driver seat position to the attention state determination unit 25.

運転席の位置を推定できない場合(ステップST12“NO”)、次いで、ステップST14にて、運転席推定部24は、運転席特定部23から入力されたデータが示す前方画像に対し、対向車2のフェンダーランプを検出する第2画像認識処理を実行する。   If the position of the driver's seat cannot be estimated (step ST12 “NO”), then, in step ST14, the driver's seat estimating unit 24 performs the oncoming vehicle 2 with respect to the front image indicated by the data input from the driver's seat specifying unit 23. The second image recognition process for detecting the fender lamp is executed.

次いで、ステップST15にて、運転席推定部24は、ステップST14の第2画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を推定できるか否かを判定する。すなわち、運転席推定部24は、ステップST14の第2画像認識処理にてフェンダーランプを検出できた場合、運転席の位置を推定できると判定する。他方、ステップST14の第2画像認識処理にてフェンダーランプを検出できなかった場合、運転席推定部24は、運転席の位置を推定できないと判定する。   Next, in step ST15, the driver seat estimation unit 24 determines whether the position of the driver seat of the oncoming vehicle 2 in the front image can be estimated based on the result of the second image recognition process in step ST14. That is, the driver seat estimation unit 24 determines that the position of the driver seat can be estimated when the fender lamp can be detected in the second image recognition process of step ST14. On the other hand, if the fender lamp cannot be detected in the second image recognition process in step ST14, the driver seat estimation unit 24 determines that the driver seat position cannot be estimated.

運転席の位置を推定できる場合(ステップST15“YES”)、次いで、ステップST13にて、運転席推定部24は、ステップST14の第2画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を推定する。すなわち、運転席推定部24は、対向車2の前部座席のうち、ステップST4で検出したフェンダーランプからより離れた座席が運転席であると推定する。運転席推定部24は、前方画像のデータと、推定した運転席の位置を示す情報とを注意状態判定部25に出力する。   If the position of the driver's seat can be estimated (step ST15 “YES”), then, in step ST13, the driver's seat estimation unit 24 determines the oncoming vehicle 2 in the front image based on the result of the second image recognition process in step ST14. Estimate the position of the driver's seat. That is, the driver seat estimation unit 24 estimates that, among the front seats of the oncoming vehicle 2, a seat farther from the fender lamp detected in step ST4 is the driver seat. The driver seat estimation unit 24 outputs the data of the front image and information indicating the estimated driver seat position to the attention state determination unit 25.

運転席の位置を推定できない場合(ステップST15“NO”)、次いで、ステップST16にて、運転席推定部24は、運転席特定部23から入力されたデータが示す前方画像に対し、対向車2のメーカエンブレムを検出する第2画像認識処理を実行する。メーカエンブレムを検出できた場合、運転席推定部24は、記憶装置30に記憶されたエンブレムデータベース31から、検出したメーカエンブレムに関連付けられた情報を取得する。   If the position of the driver's seat cannot be estimated (step ST15 “NO”), then in step ST16, the driver's seat estimation unit 24 performs the oncoming vehicle 2 with respect to the front image indicated by the data input from the driver's seat specifying unit 23. The second image recognition process for detecting the manufacturer emblem is executed. When the manufacturer emblem can be detected, the driver seat estimation unit 24 acquires information associated with the detected manufacturer emblem from the emblem database 31 stored in the storage device 30.

次いで、ステップST17にて、運転席推定部24は、ステップST16の第2画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を推定できるか否かを判定する。すなわち、運転席推定部24は、ステップST16の第2画像認識処理にてメーカエンブレムを検出できており、かつ、当該メーカエンブレムの示す車両製造者が右ハンドルの車両及び左ハンドルの車両のうちのいずれか一方のみを製造している場合、運転席の位置を推定できると判定する。他方、ステップST16の第2画像認識処理にてメーカエンブレムを検出できなかった場合、又は、検出したメーカエンブレムの示す車両製造者が右ハンドルの車両及び左ハンドルの車両の両方を製造している場合、運転席推定部24は、運転席の位置を推定できないと判定する。   Next, in step ST17, the driver seat estimation unit 24 determines whether the position of the driver seat of the oncoming vehicle 2 in the front image can be estimated based on the result of the second image recognition process in step ST16. That is, the driver seat estimation unit 24 can detect the maker emblem in the second image recognition process in step ST16, and the vehicle manufacturer indicated by the maker emblem is a right-hand drive vehicle or a left-hand drive vehicle. When only one of them is manufactured, it is determined that the position of the driver's seat can be estimated. On the other hand, when the maker emblem cannot be detected in the second image recognition process of step ST16, or when the vehicle manufacturer indicated by the detected maker emblem manufactures both a right-hand drive vehicle and a left-hand drive vehicle. The driver seat estimation unit 24 determines that the position of the driver seat cannot be estimated.

運転席の位置を推定できる場合(ステップST17“YES”)、次いで、ステップST13にて、運転席推定部24は、ステップST16の第2画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を推定する。すなわち、運転席推定部24は、検出したメーカエンブレムの示す車両製造者が右ハンドルの車両のみを製造している場合、対向車2の前部座席のうち、右側の座席が運転席であると推定する。また、運転席推定部24は、検出したメーカエンブレムの示す車両製造者が左ハンドルの車両のみを製造している場合、対向車2の前部座席のうち、左側の座席が運転席であると推定する。運転席推定部24は、前方画像のデータと、推定した運転席の位置を示す情報とを注意状態判定部25に出力する。   If the position of the driver's seat can be estimated (step ST17 “YES”), then in step ST13, the driver's seat estimation unit 24 determines the oncoming vehicle 2 in the front image based on the result of the second image recognition process in step ST16. Estimate the position of the driver's seat. That is, when the vehicle manufacturer indicated by the detected manufacturer emblem manufactures only the right-hand drive vehicle, the driver seat estimation unit 24 determines that the right seat among the front seats of the oncoming vehicle 2 is the driver seat. presume. Further, when the vehicle manufacturer indicated by the detected maker emblem manufactures only the left-hand drive vehicle, the driver seat estimation unit 24 determines that the left seat among the front seats of the oncoming vehicle 2 is the driver seat. presume. The driver seat estimation unit 24 outputs the data of the front image and information indicating the estimated driver seat position to the attention state determination unit 25.

運転席の位置を推定できない場合(ステップST17“NO”)、次いで、ステップST18にて、運転席推定部24は、運転席特定部23から入力されたデータが示す前方画像に対し、対向車2の外観を検出する第2画像認識処理を実行する。運転席推定部24は、検出した外観に基づき、対向車2の車種を特定する。対向車2の車種を特定できた場合、運転席推定部24は、記憶装置30に記憶された車種データベース32から、特定した車種に関連付けられた情報を取得する。   If the position of the driver's seat cannot be estimated (step ST17 “NO”), then, in step ST18, the driver's seat estimating unit 24 performs the oncoming vehicle 2 with respect to the front image indicated by the data input from the driver's seat specifying unit 23. A second image recognition process for detecting the appearance of the image is executed. The driver seat estimation unit 24 identifies the vehicle type of the oncoming vehicle 2 based on the detected appearance. When the vehicle type of the oncoming vehicle 2 can be specified, the driver seat estimation unit 24 acquires information associated with the specified vehicle type from the vehicle type database 32 stored in the storage device 30.

次いで、ステップST19にて、運転席推定部24は、ステップST18の第2画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を推定できるか否かを判定する。すなわち、運転席推定部24は、ステップST18にて対向車2の車種を特定できており、かつ、当該車種に右ハンドルの型式及び左ハンドルの型式のうちのいずれか一方のみが存在する場合、運転席の位置を推定できると判定する。他方、ステップST18にて対向車2の車種を特定できなかった場合、又は、特定した車種に右ハンドルの型式及び左ハンドルの型式の両方が存在する場合、運転席推定部24は、運転席の位置を推定できないと判定する。   Next, in step ST19, the driver seat estimation unit 24 determines whether the position of the driver seat of the oncoming vehicle 2 in the front image can be estimated based on the result of the second image recognition process in step ST18. That is, if the driver seat estimation unit 24 can identify the vehicle type of the oncoming vehicle 2 in step ST18 and only one of the right handle type and the left handle type exists in the vehicle type, It is determined that the position of the driver's seat can be estimated. On the other hand, if the vehicle type of the oncoming vehicle 2 cannot be specified in step ST18, or if both the right-hand drive type and the left-hand drive type exist in the specified vehicle type, the driver seat estimation unit 24 It is determined that the position cannot be estimated.

運転席の位置を推定できる場合(ステップST19“YES”)、次いで、ステップST13にて、運転席推定部24は、ステップST18の第2画像認識処理の結果に基づき、前方画像における対向車2の運転席の位置を推定する。すなわち、運転席推定部24は、特定した車種に右ハンドルの型式のみが存在する場合、対向車2の前部座席のうち、右側の座席が運転席であると推定する。また、運転席推定部24は、特定した車種に左ハンドルの型式のみが存在する場合、対向車2の前部座席のうち、左側の座席が運転席であると推定する。運転席推定部24は、前方画像のデータと、推定した運転席の位置を示す情報とを注意状態判定部25に出力する。   If the position of the driver's seat can be estimated (step ST19 “YES”), then, in step ST13, the driver's seat estimation unit 24 determines the oncoming vehicle 2 in the front image based on the result of the second image recognition process in step ST18. Estimate the position of the driver's seat. That is, the driver seat estimation unit 24 estimates that the right seat among the front seats of the oncoming vehicle 2 is the driver seat when only the right steering wheel type exists in the specified vehicle type. Further, the driver seat estimation unit 24 estimates that the left seat among the front seats of the oncoming vehicle 2 is the driver seat when only the type of the left steering wheel exists in the specified vehicle type. The driver seat estimation unit 24 outputs the data of the front image and information indicating the estimated driver seat position to the attention state determination unit 25.

運転席の位置を推定できない場合(ステップST19“NO”)、次いで、ステップST20にて、運転席推定部24は、通行区分データベース33を参照して、前方画像における対向車2の運転席の位置を推定する。すなわち、運転席推定部24は、自車位置算出部21から、自車両1の現在位置を示す座標値を取得する。運転席推定部24は、記憶装置30に記憶された通行区分データベース33を参照して、自車両1の現在位置を含む地域における車両の通行区分を判定する。通行区分が左側通行である場合、運転席推定部24は、対向車2が右ハンドルの車両であるとみなし、対向車2の前部座席のうちの右側の座席が運転席であると推定する。通行区分が右側通行である場合、運転席推定部24は、対向車2が左ハンドルの車両であるとみなし、対向車2の前部座席のうちの左側の座席が運転席であると推定する。運転席推定部24は、前方画像のデータと、推定した運転席の位置を示す情報とを注意状態判定部25に出力する。   If the position of the driver's seat cannot be estimated (step ST19 “NO”), then, at step ST20, the driver's seat estimating unit 24 refers to the traffic classification database 33 and the position of the driver's seat of the oncoming vehicle 2 in the front image. Is estimated. That is, the driver seat estimation unit 24 acquires a coordinate value indicating the current position of the host vehicle 1 from the host vehicle position calculation unit 21. The driver seat estimation unit 24 refers to the traffic classification database 33 stored in the storage device 30 and determines the traffic classification of the vehicle in the area including the current position of the host vehicle 1. When the traffic classification is left-hand traffic, the driver seat estimation unit 24 regards the oncoming vehicle 2 as a right-hand drive vehicle, and estimates that the right seat among the front seats of the oncoming vehicle 2 is the driver seat. . When the traffic classification is right-hand traffic, the driver seat estimation unit 24 regards the oncoming vehicle 2 as a left-hand drive vehicle and estimates that the left seat of the front seats of the oncoming vehicle 2 is the driver seat. . The driver seat estimation unit 24 outputs the data of the front image and information indicating the estimated driver seat position to the attention state determination unit 25.

図7は、注意状態判定部25及び警報出力部26の動作を示すフローチャートである。注意状態判定部25は、運転席特定部23又は運転席推定部24から前方画像のデータ及び運転席の位置を示す情報が入力されると、ステップST31の処理を開始する。   FIG. 7 is a flowchart showing operations of the attention state determination unit 25 and the alarm output unit 26. When the attention state determination unit 25 receives the data of the front image and the information indicating the position of the driver seat from the driver seat identification unit 23 or the driver seat estimation unit 24, the attention state determination unit 25 starts the process of step ST31.

まず、ステップST31にて、注意状態判定部25は、運転席特定部23又は運転席推定部24から入力されたデータが示す前方画像のうち、運転席特定部23又は運転席推定部24から入力された情報が示す運転席の位置を含む領域に対し、第3画像認識処理を実行する。   First, in step ST31, the attention state determination unit 25 is input from the driver seat specification unit 23 or the driver seat estimation unit 24 among the front images indicated by the data input from the driver seat specification unit 23 or the driver seat estimation unit 24. The third image recognition process is executed on the region including the position of the driver's seat indicated by the information.

次いで、ステップST32にて、注意状態判定部25は、ステップST31の第3画像認識処理の結果、対向車2の運転者が前方不注意状態であるか否かを判定する。具体的には、例えば、第3画像認識処理の結果、運転者の顔が対向車2の前方と異なる方向を向いている場合、運転者の視線が対向車2の進行方向と異なる方向を向いている場合、運転者が連続して目を閉じている場合、運転者が連続して頭を伏せている場合、運転者の瞬きの頻度が高い場合、運転者の目の開きが不十分である場合、運転者が携帯電話端末を用いて通話している場合、注意状態判定部25は対向車2の運転者が前方不注意状態であると判定する。他方、第3画像認識処理の結果、対向車2の運転者がこれらの状態でない場合、注意状態判定部25は対向車2の運転者が前方不注意状態でないと判定する。   Next, in step ST32, the caution state determination unit 25 determines whether or not the driver of the oncoming vehicle 2 is in a forward careless state as a result of the third image recognition process in step ST31. Specifically, for example, when the driver's face is facing a different direction from the front of the oncoming vehicle 2 as a result of the third image recognition process, the driver's line of sight is facing a direction different from the traveling direction of the oncoming vehicle 2. The driver's eyes are continuously closed, the driver is continuously lying down, the driver's blinking frequency is high, and the driver's eyes are not fully open In some cases, when the driver is talking using the mobile phone terminal, the caution state determination unit 25 determines that the driver of the oncoming vehicle 2 is in a forward careless state. On the other hand, as a result of the third image recognition process, when the driver of the oncoming vehicle 2 is not in these states, the caution state determination unit 25 determines that the driver of the oncoming vehicle 2 is not in the forward careless state.

対向車2の運転者が前方不注意状態である場合(ステップST32“YES”)、注意状態判定部25は、警報出力部26に警報の出力を指示する。次いで、ステップST33にて、警報出力部26は、出力装置50を用いて、対向車2の運転者に警報を発する。具体的には、警報出力部26は、自車両1のクラクション51を鳴らしたり、ヘッドランプ52又はハザードランプ53を点滅させたりすることで、対向車2の運転者に対して注意喚起する。   When the driver of the oncoming vehicle 2 is in a forward careless state (step ST32 “YES”), the attention state determination unit 25 instructs the alarm output unit 26 to output an alarm. Next, in step ST <b> 33, the warning output unit 26 issues a warning to the driver of the oncoming vehicle 2 using the output device 50. Specifically, the alarm output unit 26 alerts the driver of the oncoming vehicle 2 by sounding the horn 51 of the host vehicle 1 or blinking the headlamp 52 or the hazard lamp 53.

対向車2の運転者が前方不注意状態でない場合(ステップST32“NO”)、注意状態判定部25は、警報出力部26に警報の出力を指示しない。これにより、ステップST33の処理はスキップされ、警報装置100は処理を終了する。   When the driver of the oncoming vehicle 2 is not in the forward careless state (step ST32 “NO”), the attention state determination unit 25 does not instruct the alarm output unit 26 to output an alarm. Thereby, the process of step ST33 is skipped and the alarm device 100 ends the process.

このように、実施の形態1の警報装置100は、まず、運転席特定部23が第1画像認識処理を実行して、対向車2の前部座席のうちの運転席を特定し、前方画像における運転席の位置を特定する。運転席特定部23が運転席の位置を特定できなかった場合、運転席推定部24が、第1画像認識処理とは検出対象の異なる第2画像認識処理を実行して、対向車2の前部座席のうちの運転席である蓋然性の高い座席を推定し、前方画像における運転席の位置を推定する。さらに、第2画像認識処理により運転席の位置を推定できなかった場合、運転席推定部24は通行区分データベース33を参照して、対向車2の前部座席のうちの運転席である蓋然性の高い座席を推定し、前方画像における運転席の位置を推定する。すなわち、第1画像認識処理により対向車2の運転席を特定できない場合であっても、第2画像認識処理などにより運転席である蓋然性の高い座席を推定して、適切なタイミングで警報を発することができる。   As described above, in the alarm device 100 according to the first embodiment, first, the driver's seat specifying unit 23 executes the first image recognition process, specifies the driver's seat among the front seats of the oncoming vehicle 2, and the front image. The position of the driver's seat at is identified. When the driver seat identification unit 23 cannot identify the position of the driver seat, the driver seat estimation unit 24 executes a second image recognition process that is a detection target different from the first image recognition process, and A seat with high probability that is a driver seat among the seats is estimated, and the position of the driver seat in the front image is estimated. Furthermore, when the position of the driver's seat cannot be estimated by the second image recognition processing, the driver's seat estimating unit 24 refers to the traffic classification database 33 and the probability that the driver's seat is the driver seat among the front seats of the oncoming vehicle 2. A high seat is estimated, and the position of the driver's seat in the front image is estimated. That is, even if the driver's seat of the oncoming vehicle 2 cannot be specified by the first image recognition process, a seat with a high probability of being the driver's seat is estimated by the second image recognition process and the warning is issued at an appropriate timing. be able to.

なお、第1画像認識処理は、対向車2の前部座席のうちの略確実に運転席である座席を特定して、前方画像における運転席の位置を特定できるものであれば良く、図5のステップST1,ST4に示す処理に限定されるものではない。   The first image recognition process only needs to be able to specify the seat that is the driver seat in the front seat of the oncoming vehicle 2 with certainty and specify the position of the driver seat in the front image. It is not limited to the processing shown in steps ST1 and ST4.

また、第2画像認識処理は、対向車2の前部座席のうちの運転席である蓋然性が高い座席を推定して、前方画像における運転席の位置を推定できるものであれば良く、図6のステップST11,ST14,ST16,ST18に示す処理に限定されるものではない。   Further, the second image recognition process may be any process that can estimate the position of the driver seat in the front image by estimating a seat that is highly likely to be a driver seat among the front seats of the oncoming vehicle 2, and FIG. It is not limited to the processing shown in steps ST11, ST14, ST16, ST18.

例えば、第2画像認識処理は、対向車2の車室内に設けられたルームミラーを検出するものであっても良い。この場合、運転席推定部24は、検出したルームミラーの設置角度を判定し、対向車2の前部座席のうち、ルームミラーの鏡面が向けられた座席が運転席であると推定する。   For example, the second image recognition process may detect a room mirror provided in the passenger compartment of the oncoming vehicle 2. In this case, the driver's seat estimation unit 24 determines the installation angle of the detected rearview mirror, and estimates that the seat to which the mirror surface of the rearview mirror is directed is the driver's seat among the front seats of the oncoming vehicle 2.

または、第2画像認識処理は、対向車2のダッシュボード上に設置されたPNDなどの情報端末を検出するものであっても良い。この場合、運転席推定部24は、検出した情報端末の設置角度を判定し、対向車2の前部座席のうち、情報端末の表示画面が向けられた座席が運転席であると推定する。あるいは、運転席推定部24は、検出した情報端末の設置位置を判定し、対向車2の前部座席のうち、情報端末により近い座席が運転席であると推定する。   Alternatively, the second image recognition process may detect an information terminal such as a PND installed on the dashboard of the oncoming vehicle 2. In this case, the driver's seat estimation unit 24 determines the installation angle of the detected information terminal, and estimates that the seat to which the display screen of the information terminal is directed is the driver's seat among the front seats of the oncoming vehicle 2. Alternatively, the driver seat estimation unit 24 determines the installation position of the detected information terminal, and estimates that the seat closer to the information terminal among the front seats of the oncoming vehicle 2 is the driver seat.

または、第2画像認識処理は、対向車2のダッシュボード上に設置されたHUD(Head−Up Display)の投影装置を検出するものであっても良い。この場合、運転席推定部24は、検出した投影装置の設置位置を判定し、対向車2の前部座席のうち、投影装置により近い座席が運転席であると推定する。   Alternatively, the second image recognition process may detect a HUD (Head-Up Display) projection device installed on the dashboard of the oncoming vehicle 2. In this case, the driver seat estimation unit 24 determines the installation position of the detected projection device, and estimates that the seat closer to the projection device among the front seats of the oncoming vehicle 2 is the driver seat.

また、ステップST11,ST12の処理と、ステップST14,ST15の処理と、ステップST16,ST17の処理と、ステップST18,ST19の処理との実行順序は、図6に示す順序に限定されるものではなく、順序を入れ替えて実行するものでも良い。また、運転席推定部24は、これらの処理のうちの一部の処理のみを実行するものであっても良い。   Further, the execution order of the processes of steps ST11 and ST12, the processes of steps ST14 and ST15, the processes of steps ST16 and ST17, and the processes of steps ST18 and ST19 is not limited to the order shown in FIG. , It may be executed by changing the order. Further, the driver seat estimation unit 24 may execute only a part of these processes.

また、運転席推定部24は、ステップST11,ST12の処理と、ステップST14,ST15の処理と、ステップST16,ST17の処理と、ステップST18,ST19の処理とを並行して実行するものであっても良い。また、運転席推定部24は、これらの各処理の優先度が予め設定されており、各処理間で推定結果が異なる場合、優先度がより高い処理の結果を採用するものとしても良い。   Further, the driver seat estimation unit 24 executes the processes of steps ST11 and ST12, the processes of steps ST14 and ST15, the processes of steps ST16 and ST17, and the processes of steps ST18 and ST19 in parallel. Also good. The driver seat estimation unit 24 may adopt a result of a process with a higher priority when the priority of each process is set in advance and the estimation result is different between the processes.

また、図1に示すGPS受信機40、自車位置算出部21及び通行区分データベース33を除去した構成であっても良い。この場合、運転席推定部24は、ステップST20にて対向車2を右ハンドルの車両とみなすか左ハンドルの車両とみなすかが予め設定されている。例えば、自車両1の仕向地が左側通行の地域である場合は右ハンドルに設定し、右側通行の地域である場合は左ハンドルに設定するのが好適である。   Moreover, the structure which removed the GPS receiver 40, the own vehicle position calculation part 21, and the traffic classification database 33 which are shown in FIG. 1 may be sufficient. In this case, whether or not the driver's seat estimation unit 24 regards the oncoming vehicle 2 as a right-hand drive vehicle or a left-hand drive vehicle in step ST20 is set in advance. For example, when the destination of the host vehicle 1 is a left-hand traffic area, it is preferable to set it to the right steering wheel, and when it is a right-hand traffic area, it is preferable to set the left steering wheel.

また、出力装置50は、対向車2の運転者に警報を発して注意喚起することができるものであれば良く、クラクション51、ヘッドランプ52及びハザードランプ53に限定されるものではない。例えば、自車両1にクラクション51と別の発音装置を取り付けて、警報出力部26がこの発音装置を鳴らすものであっても良い。また、自車両1にヘッドランプ52及びハザードランプ53と別の光源を取り付けて、警報出力部26がこの光源を点灯するものであっても良い。また、自車両1に表示装置を取り付けて、この表示装置の表示画面を自車両1の前方に向けておき、警報出力部26がテキスト又はイラストを表示させることで警報を発するものであっても良い。また、自車両1と対向車2間で車車間通信が可能である場合、自車両1に設けた車車間通信用の送信機を出力装置50に用いて、対向車2に設けた受信機に警報信号を送信し、対向車2の車室内に設けたスピーカから音声により警報を発するものとしても良い。   Further, the output device 50 is not limited to the horn 51, the headlamp 52, and the hazard lamp 53 as long as it can issue a warning to the driver of the oncoming vehicle 2 to alert the driver. For example, a sounding device different from the horn 51 may be attached to the own vehicle 1 and the alarm output unit 26 may sound this sounding device. Further, a light source different from the headlamp 52 and the hazard lamp 53 may be attached to the host vehicle 1, and the alarm output unit 26 may turn on the light source. Moreover, even if it attaches a display apparatus to the own vehicle 1, the display screen of this display apparatus faces the front of the own vehicle 1, and the alarm output unit 26 displays a text or an illustration to issue an alarm. good. When vehicle-to-vehicle communication is possible between the host vehicle 1 and the oncoming vehicle 2, a transmitter for vehicle-to-vehicle communication provided on the host vehicle 1 is used as the output device 50, and a receiver provided on the oncoming vehicle 2 is used. An alarm signal may be transmitted, and an alarm may be issued by voice from a speaker provided in the passenger compartment of the oncoming vehicle 2.

また、対向車検出部22は、フロントカメラ10に代えて、自車両1の外装部に設けた超音波センサ又は光電センサを用いて対向車2を検出するものであっても良い。この場合、対向車検出部22は、これらのセンサを用いて対向車2を検出したとき、フロントカメラ10に前方画像の撮影開始を指示する。または、対向車検出部22は、フロントカメラ10及びセンサの両方を用いて対向車2を検出するものであっても良い。   Further, the oncoming vehicle detection unit 22 may detect the oncoming vehicle 2 using an ultrasonic sensor or a photoelectric sensor provided in the exterior portion of the host vehicle 1 instead of the front camera 10. In this case, the oncoming vehicle detection unit 22 instructs the front camera 10 to start capturing a front image when the oncoming vehicle 2 is detected using these sensors. Alternatively, the oncoming vehicle detection unit 22 may detect the oncoming vehicle 2 using both the front camera 10 and the sensor.

また、図8に示す如く、記憶装置30を自車両1外のサーバ3に設けるとともに、自車両1に無線通信装置60を設けて、自車両1とサーバ3間で無線通信を行うものとしても良い。運転席推定部24は、無線通信装置60の送信機61を用いて、記憶装置30に記憶された情報の取得要求をサーバ3に送信する。運転席推定部24は、無線通信装置60の受信機62を用いて、サーバ3が送信した情報を受信する。   In addition, as shown in FIG. 8, the storage device 30 is provided in the server 3 outside the host vehicle 1 and the wireless communication device 60 is provided in the host vehicle 1 to perform wireless communication between the host vehicle 1 and the server 3. good. The driver seat estimation unit 24 transmits an acquisition request for information stored in the storage device 30 to the server 3 using the transmitter 61 of the wireless communication device 60. The driver seat estimation unit 24 receives information transmitted by the server 3 using the receiver 62 of the wireless communication device 60.

また、図9に示す如く、記憶装置30及び警報装置100を自車両1外のサーバ3に設けるとともに、自車両1に無線通信装置60を設けて、自車両1とサーバ3間で無線通信を行うものとしても良い。対向車検出部22は、無線通信装置60の送信機61を用いて、対向車2が写された前方画像のデータをサーバ3の運転席特定部23に送信する。自車位置算出部21は、無線通信装置60の送信機61を用いて、自車両1の現在位置を示す座標値をサーバ3の運転席推定部24に送信する。サーバ3の警報出力部26は、警報の出力を指示する信号を無線通信装置60に送信する。無線通信装置60は、受信機62が受信した指示信号に応じて、出力装置50に警報を出力させる。   In addition, as shown in FIG. 9, the storage device 30 and the alarm device 100 are provided in the server 3 outside the host vehicle 1, and the wireless communication device 60 is provided in the host vehicle 1 to perform wireless communication between the host vehicle 1 and the server 3. It can be done. The oncoming vehicle detection unit 22 uses the transmitter 61 of the wireless communication device 60 to transmit data on the front image of the oncoming vehicle 2 to the driver seat identification unit 23 of the server 3. The own vehicle position calculation unit 21 transmits a coordinate value indicating the current position of the own vehicle 1 to the driver seat estimation unit 24 of the server 3 using the transmitter 61 of the wireless communication device 60. The alarm output unit 26 of the server 3 transmits a signal instructing output of the alarm to the wireless communication device 60. The wireless communication device 60 causes the output device 50 to output an alarm in response to the instruction signal received by the receiver 62.

以上のように、実施の形態1の警報装置100は、自車両1に設けたフロントカメラ10が対向車2を撮影した前方画像に対する第1画像認識処理を実行して、前方画像における対向車2の運転席の位置を特定する運転席特定部23と、運転席特定部23により運転席の位置を特定することができなかった場合、前方画像に対する第1画像認識処理と異なる第2画像認識処理を実行して、前方画像における運転席の位置を推定する運転席推定部24と、前方画像のうちの運転席を含む領域に対する第3画像認識処理を実行して、対向車2の運転者が前方不注意状態であるか否かを判定する注意状態判定部25と、注意状態判定部25により運転者が前方不注意状態であると判定された場合、自車両1に設けた出力装置50を用いて運転者への警報を発する警報出力部26とを備える。第1画像認識処理により対向車2の運転席を特定できない場合であっても、第2画像認識処理により運転席である蓋然性の高い座席を推定して、適切なタイミングで警報を発することができる。   As described above, the alarm device 100 according to the first embodiment performs the first image recognition process on the front image in which the front camera 10 provided in the host vehicle 1 captures the oncoming vehicle 2, and the oncoming vehicle 2 in the front image. And a second image recognition process different from the first image recognition process for the front image when the driver's seat position cannot be specified by the driver's seat specifying unit 23. The driver seat estimator 24 for estimating the position of the driver seat in the front image and the third image recognition process for the region including the driver seat in the front image are executed, and the driver of the oncoming vehicle 2 When the attention state determination unit 25 determines whether or not the vehicle is in a forward careless state, and the attention state determination unit 25 determines that the driver is in a forward careless state, the output device 50 provided in the host vehicle 1 is Use to driver And an alarm output unit 26 that emits broadcast. Even if the driver's seat of the oncoming vehicle 2 cannot be specified by the first image recognition process, a highly probable seat that is the driver's seat can be estimated by the second image recognition process, and an alarm can be issued at an appropriate timing. .

実施の形態2.
図10は、本発明の実施の形態2に係る警報装置を自車両に設けた状態を示すブロック図である。図10を参照して、実施の形態2の警報装置100について説明する。なお、実施の形態1と同様の構成部材には同一符号を付して説明を省略する。
Embodiment 2. FIG.
FIG. 10 is a block diagram illustrating a state in which the alarm device according to Embodiment 2 of the present invention is provided in the host vehicle. With reference to FIG. 10, the alarm device 100 of Embodiment 2 is demonstrated. In addition, the same code | symbol is attached | subjected to the structural member similar to Embodiment 1, and description is abbreviate | omitted.

リアカメラ10aは、例えば、自車両1のリアバンパ部、車体の後半部又は車室内等に設けられたカメラである。リアカメラ10aは、後続車検出部22aからの指示により、所定の時間間隔で自車両1の後方を撮影するものである。また、リアカメラ10aは、撮影した画像(以下「後方画像」という。)のデータを後続車検出部22aに出力するものである。   The rear camera 10a is, for example, a camera provided in the rear bumper portion of the host vehicle 1, the rear half of the vehicle body, the vehicle interior, or the like. The rear camera 10a captures the rear of the host vehicle 1 at predetermined time intervals according to an instruction from the following vehicle detection unit 22a. The rear camera 10a outputs data of a captured image (hereinafter referred to as “rear image”) to the subsequent vehicle detection unit 22a.

後続車検出部22aは、リアカメラ10aに後方画像の撮影を指示するものである。また、後続車検出部22aは、リアカメラ10aから入力されたデータを用いて、自車両1の走行車線と同じ車線を走る後続車を検出するものである。具体的には、後続車検出部22aは、入力されたデータが示す前方画像に対し、パターン認識などの画像認識処理を実行して、自車両1との距離が所定距離以内の後続車を検出するものである。後続車検出部22aは、後続車を検出した場合、後続車が写された後方画像のデータを運転席特定部23に出力するものである。   The succeeding vehicle detection unit 22a instructs the rear camera 10a to capture a rear image. Further, the succeeding vehicle detection unit 22a detects a succeeding vehicle that travels in the same lane as the traveling lane of the host vehicle 1 using data input from the rear camera 10a. Specifically, the following vehicle detection unit 22a performs image recognition processing such as pattern recognition on the front image indicated by the input data, and detects a following vehicle whose distance from the host vehicle 1 is within a predetermined distance. To do. When the succeeding vehicle detection unit 22a detects the following vehicle, the succeeding vehicle detection unit 22a outputs data of a rear image in which the following vehicle is captured to the driver seat identification unit 23.

出力装置50には、実施の形態1と同様のクラクション51及びハザードランプ53に加えて、テールランプ54a及びブレーキランプ55aが含まれている。警報出力部26は、クラクション51を鳴らしたり、テールランプ54a、ブレーキランプ55a又はハザードランプ53を点滅させたりすることで、後続車の運転者に警報を発するようになっている。このようにして、実施の形態2の警報装置100が構成されている。   The output device 50 includes a tail lamp 54a and a brake lamp 55a in addition to the horn 51 and the hazard lamp 53 similar to those in the first embodiment. The warning output unit 26 is configured to issue a warning to the driver of the following vehicle by sounding the horn 51 or blinking the tail lamp 54a, the brake lamp 55a, or the hazard lamp 53. In this way, the alarm device 100 according to the second embodiment is configured.

図10に示す制御部20のハードウェア構成は、実施の形態1にて図2又は図3を参照して説明したものと同様であるため、図示及び説明を省略する。   The hardware configuration of the control unit 20 shown in FIG. 10 is the same as that described with reference to FIG. 2 or FIG.

図11は、自車両1と、自車両1の走行車線と同じ車線を走る後続車4とのイメージを示している。図11の例では、自車両1のリアバンパ部に、撮影画角θが約90°のリアカメラ10aを設けている。リアカメラ10aが撮影した後方画像に後続車4が写り、後続車検出部22aが後続車4を検出すると、後続車検出部22aは後方画像のデータを運転席特定部23に出力する。   FIG. 11 shows an image of the host vehicle 1 and the following vehicle 4 running in the same lane as the travel lane of the host vehicle 1. In the example of FIG. 11, a rear camera 10 a having a shooting angle of view θ of about 90 ° is provided in the rear bumper portion of the host vehicle 1. When the subsequent vehicle 4 appears in the rear image captured by the rear camera 10a and the subsequent vehicle detection unit 22a detects the subsequent vehicle 4, the subsequent vehicle detection unit 22a outputs data of the rear image to the driver seat identification unit 23.

図10に示す運転席特定部23の動作は、実施の形態1にて図5を参照して説明したものと同様であるため、図示及び説明を省略する。図10に示す運転席推定部24の動作は、実施の形態1にて図6を参照して説明したものと同様であるため、図示及び説明を省略する。図10に示す注意状態判定部25及び警報出力部26の動作は、実施の形態1にて図7を参照して説明したものと同様であるため、図示及び説明を省略する。   Since the operation of the driver seat identification unit 23 shown in FIG. 10 is the same as that described with reference to FIG. 5 in the first embodiment, illustration and description thereof are omitted. The operation of the driver seat estimation unit 24 shown in FIG. 10 is the same as that described in Embodiment 1 with reference to FIG. Since the operations of the attention state determination unit 25 and the alarm output unit 26 shown in FIG. 10 are the same as those described with reference to FIG. 7 in the first embodiment, illustration and description thereof are omitted.

すなわち、実施の形態2の警報装置100は、まず、運転席特定部23が第1画像認識処理を実行して、後続車4の前部座席のうちの運転席を特定し、前方画像における運転席の位置を特定する。運転席特定部23が運転席の位置を特定できなかった場合、運転席推定部24が、第1画像認識処理とは検出対象の異なる第2画像認識処理を実行して、後続車4の前部座席のうちの運転席である蓋然性の高い座席を推定し、前方画像における運転席の位置を推定する。さらに、第2画像認識処理により運転席の位置を推定できなかった場合、運転席推定部24は通行区分データベース33を参照して、後続車4の前部座席のうちの運転席である蓋然性の高い座席を推定し、前方画像における運転席の位置を推定する。この結果、第1画像認識処理により後続車4の運転席を特定できない場合であっても、第2画像認識処理などにより運転席である蓋然性の高い座席を推定して、適切なタイミングで警報を発することができる。   That is, in the alarm device 100 according to the second embodiment, first, the driver seat identification unit 23 executes the first image recognition process to identify the driver seat among the front seats of the succeeding vehicle 4 and drive in the front image. Identify the seat location. If the driver seat identification unit 23 cannot identify the position of the driver seat, the driver seat estimation unit 24 executes a second image recognition process that is different from the first image recognition process and detects the front of the succeeding vehicle 4. A seat with high probability that is a driver seat among the seats is estimated, and the position of the driver seat in the front image is estimated. Furthermore, when the position of the driver's seat cannot be estimated by the second image recognition process, the driver's seat estimating unit 24 refers to the traffic classification database 33 and the probability that the driver's seat is the driver's seat among the front seats of the succeeding vehicle 4. A high seat is estimated, and the position of the driver's seat in the front image is estimated. As a result, even if the driver's seat of the succeeding vehicle 4 cannot be specified by the first image recognition process, a highly probable seat that is the driver's seat is estimated by the second image recognition process, and an alarm is issued at an appropriate timing. Can be emitted.

なお、実施の形態2の警報装置100は、実施の形態1の警報装置100と同様の種々の変形例を採用することができる。   The alarm device 100 according to the second embodiment can employ various modifications similar to those of the alarm device 100 according to the first embodiment.

また、図1に示すフロントカメラ10及び対向車検出部22と、図10に示すリアカメラ10a及び後続車検出部22aとの両方を備え、対向車2の運転者への警報と、後続車4の運転者への警報との両方を出力可能な構成としても良い。   Further, both the front camera 10 and the oncoming vehicle detection unit 22 shown in FIG. 1 and the rear camera 10a and the following vehicle detection unit 22a shown in FIG. 10 are provided, and an alarm to the driver of the oncoming vehicle 2 and the following vehicle 4 are provided. It is good also as a structure which can output both the warning to the driver | operator of this.

以上のように、実施の形態2の警報装置100は、自車両1に設けたリアカメラ10aが後続車4を撮影した後方画像に対する第1画像認識処理を実行して、後方画像における後続車4の運転席の位置を特定する運転席特定部23と、運転席特定部23により運転席の位置を特定することができなかった場合、後方画像に対する第1画像認識処理と異なる第2画像認識処理を実行して、後方画像における運転席の位置を推定する運転席推定部24と、後方画像のうちの運転席を含む領域に対する第3画像認識処理を実行して、後続車4の運転者が前方不注意状態であるか否かを判定する注意状態判定部25と、注意状態判定部25により運転者が前方不注意状態であると判定された場合、自車両1に設けた出力装置50を用いて運転者への警報を発する警報出力部26とを備える。第1画像認識処理により後続車4の運転席を特定できない場合であっても、第2画像認識処理により運転席である蓋然性の高い座席を推定して、適切なタイミングで警報を発することができる。   As described above, the alarm device 100 according to the second embodiment performs the first image recognition process on the rear image in which the rear camera 10a provided in the host vehicle 1 captures the subsequent vehicle 4, and the subsequent vehicle 4 in the rear image. And a second image recognition process different from the first image recognition process for the rear image when the driver's seat position cannot be specified by the driver's seat specifying unit 23. The driver seat estimation unit 24 that estimates the position of the driver seat in the rear image and the third image recognition process for the region including the driver seat in the rear image are performed, and the driver of the succeeding vehicle 4 When the attention state determination unit 25 determines whether or not the vehicle is in a forward careless state, and the attention state determination unit 25 determines that the driver is in a forward careless state, the output device 50 provided in the host vehicle 1 is Use to guard the driver And an alarm output unit 26 that emits. Even when the driver's seat of the succeeding vehicle 4 cannot be specified by the first image recognition process, a highly probable seat that is the driver's seat can be estimated by the second image recognition process, and an alarm can be issued at an appropriate timing. .

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 自車両、2 対向車、3 サーバ、4 後続車、10 フロントカメラ、10a リアカメラ、20 制御部、21 自車位置算出部、22 対向車検出部、22a 後続車検出部、23 運転席特定部、24 運転席推定部、25 注意状態判定部、26 警報出力部、30 記憶装置、31 エンブレムデータベース、32 車種データベース、33 通行区分データベース、40 GPS受信機、50 出力装置、51 クラクション、52 ヘッドランプ、53 ハザードランプ、54a テールランプ、55a ブレーキランプ、60 無線通信装置、61 送信機、62 受信機、71 処理回路、72 メモリ、73 プロセッサ、100 警報装置。   DESCRIPTION OF SYMBOLS 1 Own vehicle, 2 Oncoming vehicle, 3 Server, 4 Subsequent vehicle, 10 Front camera, 10a Rear camera, 20 Control part, 21 Own vehicle position calculation part, 22 Oncoming vehicle detection part, 22a Subsequent vehicle detection part, 23 Driver's seat specification 24, driver's seat estimation unit, 25 attention state determination unit, 26 alarm output unit, 30 storage device, 31 emblem database, 32 vehicle type database, 33 traffic classification database, 40 GPS receiver, 50 output device, 51 horn, 52 heads Lamp, 53 hazard lamp, 54a tail lamp, 55a brake lamp, 60 wireless communication device, 61 transmitter, 62 receiver, 71 processing circuit, 72 memory, 73 processor, 100 alarm device.

Claims (11)

自車両に設けたカメラが他車両を撮影した画像に対する第1画像認識処理を実行して、前記画像における前記他車両の運転席の位置を特定する運転席特定部と、
前記運転席特定部により前記運転席の位置を特定することができなかった場合、前記画像に対する前記第1画像認識処理と異なる第2画像認識処理を実行して、前記画像における前記運転席の位置を推定する運転席推定部と、
前記画像のうちの前記運転席を含む領域に対する第3画像認識処理を実行して、前記他車両の運転者が前方不注意状態であるか否かを判定する注意状態判定部と、
前記注意状態判定部により前記運転者が前方不注意状態であると判定された場合、前記自車両に設けた出力装置を用いて前記運転者への警報を発する警報出力部と、
を備える警報装置。
A driver seat identifying unit for performing a first image recognition process on an image obtained by photographing a vehicle with a camera provided in the host vehicle, and identifying a position of a driver seat of the other vehicle in the image;
When the position of the driver's seat cannot be specified by the driver's seat specifying unit, a second image recognition process different from the first image recognition process for the image is executed, and the position of the driver's seat in the image A driver seat estimation unit for estimating
A caution state determination unit that determines whether or not the driver of the other vehicle is in a forward careless state by executing a third image recognition process on a region including the driver seat in the image;
An alarm output unit that issues an alarm to the driver using an output device provided in the host vehicle, when the attention state determination unit determines that the driver is in a careless state ahead;
An alarm device comprising:
前記運転席特定部は、前記第1画像認識処理により前記他車両の前部座席に座った搭乗者を検出し、前記搭乗者の人数が1人である場合、前記前部座席のうちの前記搭乗者が座った座席が前記運転席であると特定することを特徴とする請求項1記載の警報装置。   The driver seat identifying unit detects a passenger sitting in a front seat of the other vehicle by the first image recognition process, and when the number of passengers is one, the driver seat specifying unit The alarm device according to claim 1, wherein the seat on which the passenger sits is specified as the driver's seat. 前記運転席特定部は、前記第1画像認識処理により前記他車両のハンドルを検出し、前記他車両の前部座席のうちの前記ハンドルを設けた座席が前記運転席であると特定することを特徴とする請求項1記載の警報装置。   The driver seat identifying unit detects the handle of the other vehicle by the first image recognition process, and identifies that the seat provided with the handle among the front seats of the other vehicle is the driver seat. The alarm device according to claim 1, wherein: 前記運転席特定部は、
前記第1画像認識処理により前記他車両の前部座席に座った搭乗者を検出し、前記搭乗者の人数が1人である場合、前記前部座席のうちの前記搭乗者が座った座席が前記運転席であると特定する処理と、
前記第1画像認識処理により前記他車両のハンドルを検出し、前記前部座席のうちの前記ハンドルを設けた座席が前記運転席であると特定する処理と、
のうちの少なくとも1つの処理を実行することで、前記画像における前記運転席の位置を特定する
ことを特徴とする請求項1記載の警報装置。
The driver seat identification unit is
When a passenger sitting on the front seat of the other vehicle is detected by the first image recognition processing and the number of passengers is one, the seat on which the passenger sits is one of the front seats. Processing for identifying the driver's seat;
A process of detecting a handle of the other vehicle by the first image recognition process and specifying that the seat of the front seat provided with the handle is the driver seat;
The alarm device according to claim 1, wherein the position of the driver's seat in the image is specified by executing at least one of the processes.
前記運転席推定部は、前記第2画像認識処理により前記他車両の前部座席に座った搭乗者に含まれる大人を検出し、前記大人の人数が1人である場合、前記前部座席のうちの前記大人が座った座席が前記運転席であると推定することを特徴とする請求項1記載の警報装置。   The driver seat estimation unit detects an adult included in a passenger seated in a front seat of the other vehicle by the second image recognition process, and when the number of adults is one, the driver seat estimation unit The alarm device according to claim 1, wherein a seat on which the adult sits is estimated to be the driver's seat. 前記運転席推定部は、前記第2画像認識処理により前記他車両のフェンダーランプを検出し、前記他車両の前部座席のうちの前記フェンダーランプからより離れた座席が前記運転席であると推定することを特徴とする請求項1記載の警報装置。   The driver seat estimation unit detects a fender lamp of the other vehicle by the second image recognition process, and estimates that a seat farther from the fender lamp among the front seats of the other vehicle is the driver seat. The alarm device according to claim 1. 前記運転席推定部は、前記第2画像認識処理により前記他車両のメーカエンブレムを検出するとともに、前記メーカエンブレムが示す車両製造者による右ハンドルの車両の製造の有無及び左ハンドルの車両の製造の有無を示す情報をデータベースから取得することで、前記画像における前記運転席の位置を推定することを特徴とする請求項1記載の警報装置。   The driver seat estimation unit detects a manufacturer emblem of the other vehicle by the second image recognition process, and whether or not the right-hand drive vehicle is manufactured by the vehicle manufacturer indicated by the maker emblem and the manufacture of the left-handle vehicle. The alarm device according to claim 1, wherein the position of the driver's seat in the image is estimated by acquiring information indicating presence / absence from a database. 前記運転席推定部は、前記第2画像認識処理により前記他車両の外観を検出して前記他車両の車種を特定するとともに、前記車種における右ハンドルの型式の有無及び左ハンドルの型式の有無を示す情報をデータベースから取得することで、前記画像における前記運転席の位置を推定することを特徴とする請求項1記載の警報装置。   The driver seat estimation unit detects the appearance of the other vehicle by the second image recognition process to identify the vehicle type of the other vehicle, and determines whether the right handle type and the left handle type are present in the vehicle type. The alarm device according to claim 1, wherein the position of the driver's seat in the image is estimated by acquiring information to be shown from a database. 前記運転席推定部は、
前記第2画像認識処理により前記他車両の前部座席に座った搭乗者に含まれる大人を検出し、前記大人の人数が1人である場合、前記前部座席のうちの前記大人が座った座席が前記運転席であると推定する処理と、
前記第2画像認識処理により前記他車両のフェンダーランプを検出し、前記前部座席のうちの前記フェンダーランプからより離れた座席が前記運転席であると推定する処理と、
前記第2画像認識処理により前記他車両のメーカエンブレムを検出するとともに、前記メーカエンブレムが示す車両製造者による右ハンドルの車両の製造の有無及び左ハンドルの車両の製造の有無を示す情報をデータベースから取得することで、前記画像における前記運転席の位置を推定する処理と、
前記第2画像認識処理により前記他車両の外観を検出して前記他車両の車種を特定するとともに、前記車種における右ハンドルの型式の有無及び左ハンドルの型式の有無を示す情報をデータベースから取得することで、前記画像における前記運転席の位置を推定する処理と、
のうちの少なくとも1つの処理を実行することで、前記画像における前記運転席の位置を推定する
ことを特徴とする請求項1記載の警報装置。
The driver seat estimation unit
When the second image recognition process detects an adult included in a passenger seated in the front seat of the other vehicle and the number of adults is one, the adult in the front seat sat down A process of estimating that the seat is the driver's seat;
A process of detecting a fender lamp of the other vehicle by the second image recognition process and estimating that a seat farther from the fender lamp of the front seats is the driver seat;
A maker emblem of the other vehicle is detected by the second image recognition process, and information indicating whether the right-hand drive vehicle is manufactured and whether the left-hand drive vehicle is manufactured by the vehicle manufacturer indicated by the maker emblem is stored from the database. A process of estimating the position of the driver's seat in the image by obtaining;
The appearance of the other vehicle is detected by the second image recognition process to identify the vehicle type of the other vehicle, and information indicating the presence / absence of the type of the right steering wheel and the type of the left steering wheel in the vehicle type is acquired from the database. Thus, processing for estimating the position of the driver's seat in the image,
The warning device according to claim 1, wherein the position of the driver's seat in the image is estimated by executing at least one of the processes.
前記注意状態判定部は、前記第3画像認識処理の結果、前記運転者の顔が前記他車両の前方と異なる方向を向いている場合、前記運転者の視線が前記他車両の進行方向と異なる方向を向いている場合、前記運転者が目を閉じている場合、前記運転者が頭を伏せている場合、又は、前記運転者が携帯端末を用いて通話している場合、前記運転者が前方不注意状態であると判定することを特徴とする請求項1から請求項9のうちのいずれか1項記載の警報装置。   When the driver's face is facing a different direction from the front of the other vehicle as a result of the third image recognition process, the caution state determination unit is different from the traveling direction of the other vehicle. When facing the direction, when the driver closes his eyes, when the driver is bowed, or when the driver is talking using a mobile terminal, the driver The alarm device according to claim 1, wherein the alarm device is determined to be in a forward careless state. 前記警報出力部は、前記自車両のクラクション、ヘッドランプ、テールランプ、ブレーキランプ又はハザードランプを前記出力装置に用いることを特徴とする請求項1から請求項10のうちのいずれか1項記載の警報装置。   11. The alarm according to claim 1, wherein the alarm output unit uses a horn, a head lamp, a tail lamp, a brake lamp, or a hazard lamp of the host vehicle for the output device. apparatus.
JP2015212820A 2015-10-29 2015-10-29 Warning device Pending JP2017084157A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015212820A JP2017084157A (en) 2015-10-29 2015-10-29 Warning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015212820A JP2017084157A (en) 2015-10-29 2015-10-29 Warning device

Publications (1)

Publication Number Publication Date
JP2017084157A true JP2017084157A (en) 2017-05-18

Family

ID=58712100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015212820A Pending JP2017084157A (en) 2015-10-29 2015-10-29 Warning device

Country Status (1)

Country Link
JP (1) JP2017084157A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095356A (en) * 2018-12-10 2020-06-18 トヨタ自動車株式会社 Abnormality detection device, abnormality detection system and abnormality detection program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095356A (en) * 2018-12-10 2020-06-18 トヨタ自動車株式会社 Abnormality detection device, abnormality detection system and abnormality detection program
JP7234614B2 (en) 2018-12-10 2023-03-08 トヨタ自動車株式会社 Anomaly detection device, anomaly detection system and anomaly detection program

Similar Documents

Publication Publication Date Title
US11244564B2 (en) Vehicle acoustic-based emergency vehicle detection
US11021172B2 (en) System for controlling host vehicle and method for controlling host vehicle
JP4517393B2 (en) Driving assistance device
JP4615038B2 (en) Image processing device
US9576208B2 (en) Emergency vehicle detection with digital image sensor
JP6705437B2 (en) Inattentive judgment device, inattentive judgment method, and program for inattentive judgment
JPWO2018092265A1 (en) Driving support device and driving support method
JP2006318093A (en) Vehicular moving object detection device
US20170046578A1 (en) Focus system to enhance vehicle vision performance
CN110431613B (en) Information processing device, information processing method, program, and moving object
JP2008204281A (en) Object detection device and inter-vehicle communication system
CN106314424B (en) Householder method of overtaking other vehicles, device and automobile based on automobile
JP2011118483A (en) On-vehicle device and recognition support system
JP5751423B2 (en) Driving assistance device
US11176826B2 (en) Information providing system, server, onboard device, storage medium, and information providing method
US20170197551A1 (en) System and method for collision warning
JP2008193339A (en) Rear monitoring system
JP2010173619A (en) Head-up display device
CN105793909B (en) The method and apparatus for generating warning for two images acquired by video camera by vehicle-periphery
US10909848B2 (en) Driving assistance device
JP2013078151A (en) Display device for vehicle
CN112534487A (en) Information processing apparatus, moving object, information processing method, and program
JP7287301B2 (en) Blind spot information acquisition device, blind spot information acquisition method, vehicle and program
JP2010097335A (en) Driving intention estimating device
JP2019139401A (en) Collision avoidance support device, program, and collision avoidance support method