JP2015026255A - Driving support system and driving support method - Google Patents

Driving support system and driving support method Download PDF

Info

Publication number
JP2015026255A
JP2015026255A JP2013155396A JP2013155396A JP2015026255A JP 2015026255 A JP2015026255 A JP 2015026255A JP 2013155396 A JP2013155396 A JP 2013155396A JP 2013155396 A JP2013155396 A JP 2013155396A JP 2015026255 A JP2015026255 A JP 2015026255A
Authority
JP
Japan
Prior art keywords
vehicle
driver
information
surrounding
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013155396A
Other languages
Japanese (ja)
Inventor
根本 英明
Hideaki Nemoto
英明 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2013155396A priority Critical patent/JP2015026255A/en
Publication of JP2015026255A publication Critical patent/JP2015026255A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driving support system capable of properly determining a possibility of approach between an own vehicle and a vehicle therearound.SOLUTION: The driving support system comprises a first device used in a first vehicle and a second device used in a second vehicle. The first device comprises: image acquisition means 130 for acquiring a face image of a driver of the first vehicle; recognition state detection means 130 for detecting surroundings recognition state of the driver of the first vehicle on the basis of the face image of the driver of the first vehicle; and first transmission means 120 for transmitting recognition information indicating the surroundings recognition state, and the second device comprises: reception means 120 for receiving the recognition information; recognition determination means 130 for determining on the basis of the recognition information whether the driver of the first vehicle recognizes the second vehicle or not; generation means for generating presentation information indicating that the driver of the first vehicle does not recognize the second vehicle when the determination means determines that the driver of the first vehicle does not recognize the second vehicle; and presentation means 140 for presenting a driver of the second vehicle with the presentation information.

Description

本発明は、運転支援システムおよび運転支援方法に関するものである。   The present invention relates to a driving support system and a driving support method.

従来より、自車両の車速や自車両から周囲車両までの距離などに基づいて、自車両が周囲車両に近接する可能性を判断し、自車両が周囲車両に近接する可能性が高いほど、周囲車両を強調して運転者に報知する技術が知られている。   Conventionally, based on the speed of the host vehicle, the distance from the host vehicle to the surrounding vehicle, etc., the possibility that the host vehicle is close to the surrounding vehicle is determined. A technique for highlighting a vehicle and notifying a driver is known.

特開2009−40107号公報JP 2009-40107 A

しかしながら、従来技術では、自車両および周囲車両の挙動に基づいて、自車両が周囲車両に近接する可能性を判断するものであり、たとえば、周囲車両が停止している場合において、周囲車両の運転者が自車両を認識しておらず、周囲車両が急発進して自車両に接近する場合など、自車両と周囲車両とが接近する潜在的な可能性を判断することができないという問題があった。   However, in the prior art, the possibility of the host vehicle approaching the surrounding vehicle is determined based on the behavior of the host vehicle and the surrounding vehicle. For example, when the surrounding vehicle is stopped, the driving of the surrounding vehicle is performed. There is a problem that it is impossible to determine the potential possibility that the host vehicle and the surrounding vehicle approach each other, for example, when the person does not recognize the host vehicle and the surrounding vehicle starts suddenly and approaches the host vehicle. It was.

本発明の課題は、自車両と周囲車両とが接近する可能性を適切に判断することが可能な運転支援システムを提供することである。   The subject of this invention is providing the driving assistance system which can judge appropriately the possibility that the own vehicle and a surrounding vehicle approach.

本発明は、第1車両の運転者の顔画像に基づいて、第1車両の運転者の周囲認識状態を判断し、第1車両の運転者の周囲認識状態に基づいて、第1車両の運転者が第2車両を認識しているか否かを判断することで、上記課題を解決する。   The present invention determines the surrounding recognition state of the driver of the first vehicle based on the face image of the driver of the first vehicle, and drives the first vehicle based on the surrounding recognition state of the driver of the first vehicle. The above-mentioned problem is solved by determining whether the person recognizes the second vehicle.

本発明によれば、第1車両の運転者が第2車両を認識しているか否かを判断することで、第1車両や第2車両の挙動だけでは把握することができない、第1車両の運転者の内的な周囲認識状態に基づいて、第1車両と第2車両とが接近する可能性を適切に判断することができる。   According to the present invention, by determining whether or not the driver of the first vehicle recognizes the second vehicle, the behavior of the first vehicle cannot be grasped only by the behavior of the first vehicle or the second vehicle. The possibility of the first vehicle and the second vehicle approaching each other can be appropriately determined based on the driver's internal surrounding recognition state.

本実施形態に係る運転支援システムを示す概要図である。It is a schematic diagram showing a driving support system concerning this embodiment. 本実施形態に係る運転支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the driving assistance system which concerns on this embodiment. 情報提示装置により提示される提示情報の一例を示す図である。It is a figure which shows an example of the presentation information shown by an information presentation apparatus. 車載装置による視線情報送信処理を示すフローチャートである。It is a flowchart which shows the gaze information transmission process by a vehicle-mounted apparatus. 情報センターによるセンター制御処理を示すフローチャートである。It is a flowchart which shows the center control process by an information center. 車載装置による情報提示処理を示すフローチャートである。It is a flowchart which shows the information presentation process by a vehicle-mounted apparatus. 第2実施形態に係る情報提示処理を示すフローチャートである。It is a flowchart which shows the information presentation process which concerns on 2nd Embodiment.

以下、図面に基づいて、本発明の実施形態について説明する。本発明は、運転中の周囲状況認識(Situation Awareness)に関するものであり、自車両の周囲に存在する周囲車両の運転者が、自車両を視認しているか否かを判断し、その判断結果に基づいて、自車両の運転者に周囲車両に関する情報を提示することで、運転の安全性の向上を図るものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention relates to the situational awareness during driving (Situation Awareness), and it is determined whether or not the driver of the surrounding vehicle existing around the host vehicle is viewing the host vehicle, and the determination result is Based on this, information related to surrounding vehicles is presented to the driver of the host vehicle to improve driving safety.

《第1実施形態》
図1は、本実施形態に係る運転支援システムを示す概要図であり、図2は、本実施形態に係る運転支援システムの構成を示すブロック図である。なお、図1においては、周囲車両が、駐車場から自車両が走行している道路に進もうとしている場面を例示している。
<< First Embodiment >>
FIG. 1 is a schematic diagram illustrating a driving support system according to the present embodiment, and FIG. 2 is a block diagram illustrating a configuration of the driving support system according to the present embodiment. In addition, in FIG. 1, the scene where the surrounding vehicle is going to advance to the road where the own vehicle is drive | working from the parking lot is illustrated.

本実施形態に係る運転支援システムは、図1および図2に示すように、車両に搭載される車載装置100と、車両外部に設置された情報センター200とから構成される。車載装置100と情報センター200とは、インターネット通信網や電話通信網を介して、互いに情報の授受が可能となっている。なお、図1および図2においては、自車両に搭載される車載装置100を100aとし、自車両の周囲に存在する周囲車両に搭載される車載装置100を100bとして図示しているが、車載装置100aおよび100bは同一の構成であるため、以下においては、車載装置100aおよび100bを、車載装置100として説明する。   As shown in FIGS. 1 and 2, the driving support system according to the present embodiment includes an in-vehicle device 100 mounted on a vehicle and an information center 200 installed outside the vehicle. The in-vehicle device 100 and the information center 200 can exchange information with each other via the Internet communication network or the telephone communication network. In FIG. 1 and FIG. 2, the in-vehicle device 100 mounted on the host vehicle is illustrated as 100a, and the in-vehicle device 100 mounted in the surrounding vehicle existing around the host vehicle is illustrated as 100b. Since 100a and 100b have the same configuration, in-vehicle devices 100a and 100b will be described as in-vehicle device 100 below.

車載装置100は、図1および図2に示すように、カメラ110と、車載通信装置120と、車載制御装置130と、情報提示装置140とを備える。以下に、車載装置100の各構成について説明する。   As shown in FIGS. 1 and 2, the in-vehicle device 100 includes a camera 110, an in-vehicle communication device 120, an in-vehicle control device 130, and an information presentation device 140. Below, each structure of the vehicle-mounted apparatus 100 is demonstrated.

カメラ110は、車室内に設置され、運転者の顔の画像を撮像する。カメラ110により撮像された運転者の顔画像の画像データは、車載制御装置130に送信される。   The camera 110 is installed in the passenger compartment and captures an image of the driver's face. Image data of the driver's face image captured by the camera 110 is transmitted to the in-vehicle control device 130.

車載通信装置120は、自車両の運転者の視線情報(詳細は後述する。)および自車両の位置情報を車載制御装置130から取得し、取得した自車両の運転者の視線情報および自車両の位置情報を情報センター200に送信する。また、車載通信装置120は、周囲車両の運転者の視線情報および周囲車両の位置情報を情報センター200から受信し、受信した周囲車両の運転者の視線情報および周囲車両の位置情報を車載制御装置130に出力する。   The in-vehicle communication device 120 acquires gaze information (details will be described later) of the driver of the own vehicle and position information of the own vehicle from the in-vehicle control device 130, and the obtained gaze information of the driver of the own vehicle and the own vehicle The position information is transmitted to the information center 200. The in-vehicle communication device 120 receives the gaze information of the driver of the surrounding vehicle and the position information of the surrounding vehicle from the information center 200, and the in-vehicle control device receives the received gaze information of the driver of the surrounding vehicle and the position information of the surrounding vehicle. To 130.

車載制御装置130は、運転者の運転を支援するためのプログラムが格納されたROM(Read Only Memory)と、このROMに格納されたプログラムを実行する動作回路としてのCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)と、を備える。なお、動作回路としては、CPUに代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを用いることができる。   The in-vehicle control device 130 includes a ROM (Read Only Memory) in which a program for supporting driving of the driver is stored, a CPU (Central Processing Unit) as an operation circuit for executing the program stored in the ROM, And a RAM (Random Access Memory) that functions as an accessible storage device. As the operation circuit, an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like can be used instead of or in addition to the CPU. .

車載制御装置130は、ROMに格納されたプログラムをCPUで実行することで、自車両の運転者の視線方向を検出する視線方向検出機能と、自車両の運転者の視線方向に存在する領域を判断する視線領域検出機能と、自車両の位置情報を検出する位置情報検出機能と、自車両の運転者の視線情報および自車両の位置情報を送信する送信機能と、自車両と周囲車両との相対的な位置関係を求める相対位置演算機能と、周囲車両の運転者が自車両を視認しているか否かを判断する自車両視認判断機能と、周囲車両に関する提示情報を生成する提示情報生成機能とを実現する。以下において、車載制御装置130が備える各機能について説明する。   The in-vehicle control device 130 executes a program stored in the ROM by the CPU, thereby detecting a gaze direction detection function for detecting the gaze direction of the driver of the host vehicle and a region existing in the gaze direction of the driver of the host vehicle. A line-of-sight area detection function for determining, a position information detection function for detecting position information of the own vehicle, a transmission function for transmitting the line-of-sight information of the driver of the own vehicle and the position information of the own vehicle, and the own vehicle and surrounding vehicles. A relative position calculation function for obtaining a relative positional relationship, a host vehicle visual determination function for determining whether or not a driver of the surrounding vehicle is viewing the host vehicle, and a presentation information generation function for generating presentation information regarding the surrounding vehicle And realize. Below, each function with which the vehicle-mounted control apparatus 130 is provided is demonstrated.

車載制御装置130の視線方向検出機能は、カメラ110により撮像された自車両の運転者の顔画像の画像データに基づいて、自車両の運転者の視線方向を検出する。具体的には、視線方向検出機能は、自車両の運転者の顔画像の画像データを画像解析し、自車両の運転者の顔の向きと、自車両の運転者の眼球の向きとを検出し、検出した自車両の運転者の顔の向き、および、眼球の向きに基づいて、自車両の運転者の視線方向を検出する。   The gaze direction detection function of the in-vehicle control device 130 detects the gaze direction of the driver of the host vehicle based on the image data of the driver's face image captured by the camera 110. Specifically, the gaze direction detection function analyzes image data of the face image of the driver of the own vehicle and detects the direction of the face of the driver of the own vehicle and the direction of the eyeball of the driver of the own vehicle. Then, based on the detected face direction of the driver of the host vehicle and the direction of the eyeball, the line-of-sight direction of the driver of the host vehicle is detected.

車載制御装置130の視線領域検出機能は、視線方向検出機能により検出された自車両の運転者の視線方向に基づいて、自車両の運転者の視線方向に存在する視線領域が、自車両のフロントウィンドウ、サイドウィンドウ、またはリヤウィンドウの開口部に対応するウィンドウ領域であるか、自車両の右サイドミラーに対応する右サイドミラー領域であるか、自車両の左サイドミラーに対応する左サイドミラー領域であるか、あるいは、自車両のルームミラーに対応するルームミラー領域であるかを検出する。なお、本実施形態では、運転者の視線方向とそれぞれの視線領域との対応関係が予め設定されており、視線領域検出機能は、運転者の視線方向に基づいて、運転者の視線領域を検出することができる。   The line-of-sight area detection function of the in-vehicle control device 130 is based on the line-of-sight direction of the driver of the own vehicle detected by the line-of-sight direction detection function. A window area corresponding to an opening of a window, a side window, or a rear window, a right side mirror area corresponding to a right side mirror of the own vehicle, or a left side mirror area corresponding to a left side mirror of the own vehicle Or a room mirror area corresponding to the room mirror of the host vehicle. In this embodiment, the correspondence between the driver's line-of-sight direction and each line-of-sight area is set in advance, and the line-of-sight area detection function detects the driver's line-of-sight area based on the driver's line-of-sight direction. can do.

車載制御装置130の位置情報検出機能は、たとえば、GPSユニット(不図示)からGPS信号を受信することで、自車両の車両位置および自車両の進行方向を含む情報を、自車両の位置情報として検出する。また、位置情報検出機能は、ジャイロセンサー(不図示)の検出結果に基づいて、自車両の進行方向を補正する構成としてもよいし、あるいは、車両運動情報(車速、操舵、横加速度など)から、自車両の車両位置および自車両の進行方向を含む自車両の位置情報を検出する構成としてもよい。   The position information detection function of the in-vehicle control device 130 receives, for example, a GPS signal from a GPS unit (not shown), and uses information including the vehicle position of the own vehicle and the traveling direction of the own vehicle as position information of the own vehicle. To detect. The position information detection function may be configured to correct the traveling direction of the host vehicle based on the detection result of a gyro sensor (not shown), or from vehicle motion information (vehicle speed, steering, lateral acceleration, etc.). The position information of the host vehicle including the vehicle position of the host vehicle and the traveling direction of the host vehicle may be detected.

車載制御装置130の送信機能は、車載通信装置120を介して、視線方向検出機能により検出された自車両の運転者の視線方向、および、視線領域検出機能により検出された自車両の運転者の視線領域に関する情報を、自車両の運転者の視線情報として、情報センター200に送信する。また、送信機能は、自車両の運転者の視線情報とともに、位置情報検出機能により検出された自車両の位置情報を情報センター200に送信する。   The transmission function of the in-vehicle control device 130 includes the gaze direction of the driver of the own vehicle detected by the gaze direction detection function and the driver of the own vehicle detected by the gaze region detection function via the in-vehicle communication device 120. Information regarding the line-of-sight area is transmitted to the information center 200 as line-of-sight information of the driver of the host vehicle. The transmission function transmits the position information of the host vehicle detected by the position information detection function to the information center 200 together with the line-of-sight information of the driver of the host vehicle.

車載制御装置130の相対位置演算機能は、情報センター200から受信した周囲車両の位置情報と、位置情報検出機能により検出された自車両の位置情報とに基づいて、自車両と周囲車両との相対的な位置関係を求める。たとえば、相対位置演算機能は、周囲車両の車両位置と自車両の車両位置とに基づいて、自車両を座標原点とした車両座標系に周囲車両を配置することで、自車両と周囲車両との相対的な位置関係を求めることができる。また、相対位置演算機能は、周囲車両を座標原点とした車両座標系に自車両を配置することで、自車両と周囲車両との相対的な位置関係を求める構成としてもよい。   The relative position calculation function of the in-vehicle control device 130 is based on the position information of the surrounding vehicle received from the information center 200 and the position information of the own vehicle detected by the position information detecting function. To obtain a realistic positional relationship. For example, the relative position calculation function is based on the vehicle position of the surrounding vehicle and the vehicle position of the own vehicle, and places the surrounding vehicle in the vehicle coordinate system with the own vehicle as the coordinate origin, thereby A relative positional relationship can be obtained. The relative position calculation function may be configured to obtain a relative positional relationship between the host vehicle and the surrounding vehicle by arranging the host vehicle in a vehicle coordinate system with the surrounding vehicle as a coordinate origin.

車載制御装置130の自車両視認判断機能は、情報センター200から受信した周囲車両の運転者の視線情報と、相対位置演算機能により算出された自車両と周囲車両の相対的な位置関係とに基づいて、周囲車両の運転者が自車両を視認しているか否かを判断する。具体的には、自車両視認判断機能は、周囲車両の車両位置および進行方向に、周囲車両の運転者の視線方向を重畳することで、周囲車両の運転者の視線方向を、車両座標系において特定する。さらに、自車両視認判断機能は、車両座標系における周囲車両の運転者の視線方向に、人間の一般的な周辺視野角を適用することで、車両座標系において、周囲車両の運転者がウィンドウ越しに目視で視認できる範囲を、周囲車両の運転者の視認範囲として特定する。   The own vehicle visual recognition determination function of the in-vehicle control device 130 is based on the line-of-sight information of the driver of the surrounding vehicle received from the information center 200 and the relative positional relationship between the own vehicle and the surrounding vehicle calculated by the relative position calculation function. Thus, it is determined whether or not the driver of the surrounding vehicle is viewing the own vehicle. Specifically, the self-vehicle visibility determination function superimposes the driver's line of sight on the surrounding vehicle in the vehicle coordinate system by superimposing the driver's line of sight on the vehicle position and traveling direction of the surrounding vehicle. Identify. Furthermore, the self-vehicle visibility determination function applies a general human peripheral viewing angle to the direction of the driver's line of sight in the vehicle coordinate system, so that the driver of the surrounding vehicle can pass through the window in the vehicle coordinate system. The range that can be visually recognized is identified as the visible range of the driver of the surrounding vehicle.

そして、自車両視認判断機能は、車両座標系における、周囲車両の運転者の視認範囲と、自車両の車両位置とに基づいて、周囲車両の運転者の視認範囲に自車両が存在するか否かを判断する。なお、自車両視認判断機能は、周囲車両の運転者の視線領域に基づいて、周囲車両の運転者がミラーを視認していると判断できる場合には、周囲車両の運転者の視線方向を変換し、周囲車両の運転者がミラーにより視認することができる範囲を、運転者の視認範囲として特定する。   Then, the own vehicle visibility determination function determines whether or not the own vehicle exists in the view range of the driver of the surrounding vehicle based on the view range of the driver of the surrounding vehicle and the vehicle position of the own vehicle in the vehicle coordinate system. Determine whether. The self-vehicle visibility determination function converts the gaze direction of the driver of the surrounding vehicle when it can be determined that the driver of the surrounding vehicle is viewing the mirror based on the gaze area of the driver of the surrounding vehicle. And the range which the driver | operator of a surrounding vehicle can visually recognize with a mirror is specified as a driver | operator's visual recognition range.

提示情報生成機能は、図3に示すように、相対位置演算機能により算出された自車両と周囲車両との相対的な位置関係に基づいて、自車両と周囲車両との位置関係を、自車両の運転者に把握させるための画像データを、提示情報として生成する。   As shown in FIG. 3, the presentation information generation function determines the positional relationship between the host vehicle and the surrounding vehicle based on the relative positional relationship between the host vehicle and the surrounding vehicle calculated by the relative position calculation function. Image data for the driver to grasp is generated as presentation information.

また、提示情報生成機能は、自車両視認判断機能による判断結果に基づいて、自車両を視認していない周囲車両を特定し、図3に示すように、自車両を視認していない周囲車両が強調表示されるように、提示情報を生成する。たとえば、提示情報生成機能は、図3に示すように、周囲車両を枠線で囲み、あるいは、周囲車両を囲う枠線や周囲車両を示す画像を点滅させたり、周囲車両を示す画像の色をより目立ち易い色に変えることで、自車両の運転者が自車両を視認していない周囲車両を把握し易いように、自車両を視認していない周囲車両が強調表示された提示情報を生成する。そして、提示情報生成機能により生成された提示情報は、情報提示装置140に送信される。なお、提示情報生成機能は、自車両を視認していない周囲車両を運転者に把握させるための音声データを、提示情報として生成する構成としてもよい。   In addition, the presentation information generation function identifies surrounding vehicles that are not visually recognizing the own vehicle based on the determination result by the own vehicle visual recognition determining function, and as shown in FIG. Presentation information is generated so as to be highlighted. For example, as shown in FIG. 3, the presentation information generation function surrounds surrounding vehicles with a frame line, blinks a frame surrounding the surrounding vehicle or an image showing the surrounding vehicle, or changes the color of the image showing the surrounding vehicle. By changing to a more conspicuous color, the presentation information highlighting the surrounding vehicles that are not viewing the host vehicle is generated so that the driver of the host vehicle can easily grasp the surrounding vehicles that are not viewing the host vehicle. . Then, the presentation information generated by the presentation information generation function is transmitted to the information presentation device 140. The presentation information generation function may be configured to generate, as the presentation information, voice data that allows the driver to grasp surrounding vehicles that are not viewing the host vehicle.

情報提示装置140は、スピーカーやディスプレイなどの装置であり、図3に示すように、車載制御装置130により生成された提示情報を、自車両の運転者に提示する。なお、図3は、情報提示装置140により提示された提示情報の一例を示す図である。このように、自車両の運転者に提示情報を提示することで、自車両の運転者に、自車両を認識していない周囲車両を把握させることができ、これにより、運転者の運転の安全性を向上させることができる。   The information presentation device 140 is a device such as a speaker or a display, and as shown in FIG. 3, presents the presentation information generated by the in-vehicle control device 130 to the driver of the host vehicle. FIG. 3 is a diagram illustrating an example of the presentation information presented by the information presentation device 140. Thus, by presenting the presentation information to the driver of the host vehicle, the driver of the host vehicle can grasp the surrounding vehicles that do not recognize the host vehicle. Can be improved.

次いで、情報センター200について説明する。情報センター200は、図2に示すように、センター通信装置210と、センター制御装置220とから構成されている。   Next, the information center 200 will be described. As illustrated in FIG. 2, the information center 200 includes a center communication device 210 and a center control device 220.

センター制御装置220は、ROMと、CPUと、RAMとを備え、センター通信装置210を介して、各車両に搭載された車載装置100から、各車両の運転者の視線情報と、各車両の位置情報とを収集する。また、センター制御装置220は、各車両の位置情報に基づいて、各車両の周囲に存在する周囲車両を特定し、センター通信装置210を介して、特定した周囲車両の位置情報および周囲車両の運転者の視線情報を、各車両に送信する。   The center control device 220 includes a ROM, a CPU, and a RAM. From the in-vehicle device 100 mounted on each vehicle via the center communication device 210, the driver's line-of-sight information of each vehicle and the position of each vehicle Collect information and. In addition, the center control device 220 identifies surrounding vehicles existing around each vehicle based on the position information of each vehicle, and via the center communication device 210, the position information of the identified surrounding vehicles and the driving of the surrounding vehicles. The person's line-of-sight information is transmitted to each vehicle.

次に、図4〜図6を参照して、第1実施形態に係る運転支援処理について説明する。図4は、車載装置100による視線情報送信処理を示すフローチャートであり、図5は、情報センター200によるセンター制御処理を示すフローチャートであり、図6は、車載装置100による情報提示処理を示すフローチャートである。   Next, the driving support process according to the first embodiment will be described with reference to FIGS. 4 is a flowchart showing the line-of-sight information transmission processing by the in-vehicle device 100, FIG. 5 is a flowchart showing the center control processing by the information center 200, and FIG. 6 is a flowchart showing the information presentation processing by the in-vehicle device 100. is there.

図4に示す視線情報送信処理は、各車両に搭載された車載装置100により、各車両の運転者の視線方向および視線領域を含む視線情報と、各車両の車両位置および進行方向を含む位置情報とを検出し、検出した各車両の運転者の視線情報と各車両の位置情報とを、情報センター200に送信する処理である。以下に、図4に示す視線情報送信処理の詳細について説明する。   The line-of-sight information transmission process shown in FIG. 4 includes line-of-sight information including the line-of-sight direction and line-of-sight area of the driver of each vehicle, and position information including the vehicle position and the traveling direction of each vehicle. And the detected driver's line-of-sight information and position information of each vehicle are transmitted to the information center 200. Details of the line-of-sight information transmission process shown in FIG. 4 will be described below.

まず、ステップS101では、車載制御装置130の位置情報検出機能により、GPSユニット(不図示)により出力されたGPS信号に基づいて、自車両の車両位置および自車両の進行方向を含む自車両の位置情報の検出が行われる。また、ステップS102では、車載制御装置130の視線方向検出機能により、カメラ110で撮像された自車両の運転者の顔画像に基づいて、自車両の運転者の視線方向の検出が行われる。   First, in step S101, the position of the host vehicle including the vehicle position of the host vehicle and the traveling direction of the host vehicle based on the GPS signal output from the GPS unit (not shown) by the position information detection function of the in-vehicle control device 130. Information detection is performed. In step S102, the gaze direction detection function of the in-vehicle control device 130 detects the gaze direction of the driver of the host vehicle based on the face image of the driver of the host vehicle captured by the camera 110.

ステップS103では、車載制御装置130の視線領域検出機能により、ステップS102で検出された自車両の運転者の視線方向に基づいて、自車両の運転者の視線方向に、自車両の右サイドミラーに対応する右サイドミラー領域が存在するか否かの判断が行われる。本実施形態では、自車両の運転者の視線方向と、自車両の運転者の視線領域との対応関係が予め決められており、視線領域検出機能は、自車両の運転者の視線方向に基づいて、自車両の運転者の視線方向に、自車両のフロントウィンドウ、サイドウィンドウ、またはリヤウィンドウの開口部に対応するウィンドウ領域が存在するか、自車両の右サイドミラーに対応する右サイドミラー領域が存在するか、自車両の左サイドミラーに対応する左サイドミラー領域が存在するか、あるいは、自車両のルームミラーに対応するルームミラー領域が存在するかを判断することができる。   In step S103, the line-of-sight detection function of the vehicle-mounted control device 130 causes the driver's line-of-sight direction detected in step S102 to detect the right-side mirror of the vehicle. A determination is made whether a corresponding right side mirror region exists. In this embodiment, the correspondence between the driver's line-of-sight direction of the host vehicle and the driver's line-of-sight region of the host vehicle is determined in advance, and the line-of-sight region detection function is based on the driver's line-of-sight direction of the host vehicle. In addition, there is a window area corresponding to the opening of the front window, side window, or rear window of the own vehicle in the direction of the driver's line of sight, or a right side mirror area corresponding to the right side mirror of the own vehicle. It is possible to determine whether there is a left side mirror area corresponding to the left side mirror of the host vehicle, or whether there is a room mirror area corresponding to the room mirror of the host vehicle.

そして、ステップS103において、自車両の運転者の視線方向に右サイドミラー領域が存在すると判断された場合には、ステップS104に進み、視線領域検出機能により、自車両の運転者の視線方向に存在する視線領域として、右サイドミラー領域が設定される。   If it is determined in step S103 that the right side mirror area is present in the line of sight of the driver of the own vehicle, the process proceeds to step S104, and the line of sight is detected in the direction of the driver of the own vehicle by the line of sight area detection function. A right side mirror area is set as the line-of-sight area to be operated.

ステップS105では、車載制御装置130の送信機能により、ステップS101で検出された自車両の位置情報と、ステップS102で検出された自車両の運転者の視線方向、および、ステップS104において自車両の運転者の視線領域として設定された右サイドミラー領域を含む自車両の運転者の視線情報とが、車載通信装置120を介して、情報センター200に送信される。   In step S105, the position information of the host vehicle detected in step S101, the line-of-sight direction of the driver of the host vehicle detected in step S102, and the driving of the host vehicle in step S104 are performed by the transmission function of the in-vehicle control device 130. The driver's line-of-sight information including the right side mirror area set as the person's line-of-sight area is transmitted to the information center 200 via the in-vehicle communication device 120.

一方、ステップS103において、自車両の運転者の視線方向に右サイドミラー領域が存在していないと判断された場合には、ステップS106に進む。ステップS106では、ステップS103と同様に、視線領域検出機能により、自車両の運転者の視線方向に、左サイドミラーに対応する左サイドミラー領域が存在するか否かの判断が行われる。そして、ステップS106において、自車両の運転者の視線方向に左サイドミラー領域が存在すると判断された場合には、ステップS107に進み、自車両の運転者の視線領域として左サイドミラー領域が設定される。そして、ステップS105に進み、自車両の位置情報と、ステップS107において自車両の運転者の視線領域として設定された左サイドミラー領域を含む自車両の運転者の視線情報とが、情報センター200に送信される。   On the other hand, if it is determined in step S103 that the right side mirror region does not exist in the line of sight of the driver of the host vehicle, the process proceeds to step S106. In step S106, as in step S103, it is determined whether or not there is a left side mirror area corresponding to the left side mirror in the line of sight direction of the driver of the host vehicle by the line of sight detection function. If it is determined in step S106 that the left side mirror area exists in the line of sight of the driver of the host vehicle, the process proceeds to step S107, and the left side mirror area is set as the line of sight of the driver of the host vehicle. The Then, the process proceeds to step S105, and the position information of the own vehicle and the line-of-sight information of the driver of the own vehicle including the left side mirror region set as the line-of-sight region of the driver of the own vehicle in step S107 are sent to the information center 200. Sent.

また、ステップS106において、自車両の運転者の視線方向に左サイドミラー領域が存在していないと判断された場合には、ステップS108に進む。ステップS108では、ステップS103,S106と同様に、視線領域検出機能により、自車両の運転者の視線方向に、自車両のルームミラーに対応するルームミラー領域が存在するか否かの判断が行われる。そして、ステップS108において、自車両の運転者の視線方向にルームミラー領域が存在すると判断された場合には、ステップS109に進み、自車両の運転者の視線領域としてルームミラー領域が設定される。そして、ステップS105に進み、自車両の位置情報と、ステップS109において自車両の運転者の視線領域として設定されたルームミラー領域を含む自車両の運転者の視線情報とが、情報センター200に送信される。   If it is determined in step S106 that the left side mirror region does not exist in the line-of-sight direction of the driver of the host vehicle, the process proceeds to step S108. In step S108, as in steps S103 and S106, it is determined whether or not there is a room mirror area corresponding to the room mirror of the host vehicle in the line of sight of the driver of the host vehicle by the line of sight detection function. . If it is determined in step S108 that a room mirror region exists in the line-of-sight direction of the driver of the host vehicle, the process proceeds to step S109, where the room mirror region is set as the line-of-sight region of the driver of the host vehicle. Then, the process proceeds to step S105, and the position information of the own vehicle and the line-of-sight information of the driver of the own vehicle including the room mirror area set as the line-of-sight region of the driver of the own vehicle in step S109 are transmitted to the information center 200. Is done.

さらに、ステップS108において、自車両の運転者の視線方向にルームミラー領域が存在していないと判断された場合には、ステップS110に進む。ステップS110では、ステップS103,S106,S108と同様に、視線領域検出機能により、自車両の運転者の視線方向に、自車両のフロントウィンドウ、サイドウィンドウ、またはリヤウィンドウの開口部に対応するウィンドウ領域が存在するか否かの判断が行われる。そして、ステップS110において、自車両の運転者の視線方向にウィンドウ領域が存在すると判断された場合には、ステップS111に進み、自車両の運転者の視線領域としてウィンドウ領域が設定される。そして、ステップS105に進み、自車両の位置情報と、ステップS111において自車両の運転者の視線領域として設定されたウィンドウ領域を含む自車両の運転者の視線情報とが、情報センター200に送信される。   Furthermore, if it is determined in step S108 that no room mirror area exists in the direction of the driver's line of sight, the process proceeds to step S110. In step S110, similarly to steps S103, S106, and S108, a window area corresponding to the opening of the front window, side window, or rear window of the host vehicle in the direction of the driver's line of sight by the line-of-sight detection function. A determination is made whether or not exists. If it is determined in step S110 that there is a window area in the line-of-sight direction of the driver of the own vehicle, the process proceeds to step S111, and the window area is set as the line-of-sight area of the driver of the own vehicle. Then, the process proceeds to step S105, and the position information of the own vehicle and the line-of-sight information of the driver of the own vehicle including the window area set as the line-of-sight area of the driver of the own vehicle in step S111 are transmitted to the information center 200. The

このように、図4に示す視線情報送信処理では、自車両の位置情報および自車両の運転者の視線情報が情報センター200に送信される。なお、図4に示す視線情報送信処理は、車載制御装置130により、所定の周期で繰り返し実行され、これにより、自車両の位置情報と自車両の運転者の視線情報とが、所定の周期で繰り返し、情報センター200に送信されることとなる。   Thus, in the line-of-sight information transmission process shown in FIG. 4, the position information of the host vehicle and the line-of-sight information of the driver of the host vehicle are transmitted to the information center 200. Note that the line-of-sight information transmission process shown in FIG. 4 is repeatedly executed by the in-vehicle control device 130 at a predetermined cycle, whereby the position information of the own vehicle and the line-of-sight information of the driver of the own vehicle are It is repeatedly transmitted to the information center 200.

次に、図5に示すセンター制御処理について説明する。図5に示すセンター制御処理では、情報センター200により、図4に示す視線情報送信処理で送信された各車両の位置情報および各車両の視線情報の収集が行われ、各車両に搭載された車載装置100に、当該車両の周囲に存在する周囲車両の位置情報および周囲車両の運転者の視線情報の送信が行われる。   Next, the center control process shown in FIG. 5 will be described. In the center control process shown in FIG. 5, the information center 200 collects the position information of each vehicle and the line-of-sight information of each vehicle transmitted in the line-of-sight information transmission process shown in FIG. The apparatus 100 transmits position information of surrounding vehicles existing around the vehicle and line-of-sight information of drivers of the surrounding vehicles.

まず、ステップS201では、センター制御装置220により、各車載装置100から送信された各車両の位置情報と、各車両の運転者の視線方向および各車両の運転者の視線領域を含む視線情報が、センター通信装置210を介して受信される。   First, in step S201, the position information of each vehicle transmitted from each in-vehicle device 100 by the center control device 220, the line-of-sight information including the line-of-sight direction of the driver of each vehicle and the line-of-sight area of the driver of each vehicle, Received via the center communication device 210.

ステップS202では、センター制御装置220により、ステップS201で受信された、各車両の位置情報と、各車両の運転者の視線方向および視線領域を含む視線情報のデータベース化処理が行われる。そして、ステップS203では、センター制御装置220により、ステップS202でデータベース化された各車両の位置情報に基づいて、各車両の位置関係の特定が行われる。具体的には、センター制御装置220は、各車両の位置情報に基づいて、車両ごとに、当該車両の周囲に存在する周囲車両を特定する。   In step S202, the center control device 220 performs a database processing of the position information of each vehicle received in step S201 and the line-of-sight information including the line-of-sight direction and line-of-sight area of the driver of each vehicle. In step S203, the center control device 220 identifies the positional relationship of each vehicle based on the position information of each vehicle stored in the database in step S202. Specifically, the center control device 220 identifies surrounding vehicles existing around the vehicle for each vehicle based on the position information of each vehicle.

そして、ステップS204では、センター制御装置220により、ステップS203で特定された周囲車両の位置情報および周囲車両の運転者の視線情報の送信が、各車両に搭載された車載装置100に対して行われる。   In step S204, the center control device 220 transmits the position information of the surrounding vehicle specified in step S203 and the line-of-sight information of the driver of the surrounding vehicle to the in-vehicle device 100 mounted on each vehicle. .

このように、図5に示すセンター制御処理では、各車両に搭載された車載装置100に対して、周囲車両の位置情報および周囲車両の運転者の視線情報が送信される。なお、図5に示すセンター制御処理は、情報センター200により所定の周期で繰り返し実行され、これにより、各車両に搭載された車載装置100に対して、周囲車両の位置情報および周囲車両の運転者の視線情報が、一定間隔で繰り返し送信されることとなる。   As described above, in the center control process shown in FIG. 5, the position information of the surrounding vehicle and the line-of-sight information of the driver of the surrounding vehicle are transmitted to the in-vehicle device 100 mounted on each vehicle. Note that the center control process shown in FIG. 5 is repeatedly executed by the information center 200 at a predetermined cycle, whereby the position information of the surrounding vehicle and the driver of the surrounding vehicle are provided to the in-vehicle device 100 mounted on each vehicle. The line-of-sight information is repeatedly transmitted at regular intervals.

次に、図6に示す情報提示処理について説明する。図6に示す情報提示処理では、車載装置100により、図5に示すセンター制御処理により送信された周囲車両の位置情報および周囲車両の運転者の視線情報に基づいて、周囲車両の運転者が自車両を視認しているか否かの判断が行われ、当該判断結果に基づいて、周囲車両を示す提示情報が、自車両の運転者に提示される。   Next, the information presentation process shown in FIG. 6 will be described. In the information presentation process shown in FIG. 6, the driver of the surrounding vehicle self-appropriates based on the position information of the surrounding vehicle and the line-of-sight information of the driver of the surrounding vehicle transmitted by the center control process shown in FIG. It is determined whether or not the vehicle is visually recognized, and based on the determination result, presentation information indicating surrounding vehicles is presented to the driver of the host vehicle.

なお、図6に示す情報提示処理は、自車両の周囲に存在する周囲車両ごとに行われる。たとえば、図3に示す例では、周囲車両が2台存在しており、周囲車両ごとに、図6に示す情報提示処理を行うことで、一方の周囲車両は自車両を視認していると判断されるが、他方の周囲車両は自車両を視認していないと判断される。この場合、図3に示すように、自車両を視認している一方の周囲車両のみを強調表示した提示情報が、自車両の運転者に提示される。   The information presentation process shown in FIG. 6 is performed for each surrounding vehicle that exists around the host vehicle. For example, in the example illustrated in FIG. 3, there are two surrounding vehicles, and it is determined that one surrounding vehicle is viewing the host vehicle by performing the information presentation process illustrated in FIG. 6 for each surrounding vehicle. However, it is determined that the other surrounding vehicle does not visually recognize the host vehicle. In this case, as shown in FIG. 3, presentation information highlighting only one surrounding vehicle viewing the host vehicle is presented to the driver of the host vehicle.

まず、ステップS301では、車載制御装置130により、車載通信装置120を介して、周囲車両の位置情報および周囲車両の運転者の視線情報が受信される。また、ステップS302では、車載制御装置130の位置情報検出機能により、自車両の位置情報の検出が行われる。   First, in step S301, the in-vehicle control device 130 receives the position information of the surrounding vehicle and the gaze information of the driver of the surrounding vehicle via the in-vehicle communication device 120. In step S302, the position information of the host vehicle is detected by the position information detection function of the in-vehicle control device 130.

そして、ステップS303では、車載制御装置130の相対位置演算機能により、ステップS301で受信した周囲車両の位置情報と、ステップS302で検出した自車両の位置情報とに基づいて、自車両と周囲車両との相対的な位置関係が求められる。本実施形態では、自車両の車両位置と周囲車両の車両位置とを同一の車両座標系に配置することで、自車両と周囲車両との相対的な位置関係を求める。   In step S303, the relative position calculation function of the in-vehicle control device 130 determines the own vehicle and the surrounding vehicles based on the position information of the surrounding vehicle received in step S301 and the position information of the own vehicle detected in step S302. Relative positional relationship is required. In this embodiment, the relative positional relationship between the host vehicle and the surrounding vehicles is obtained by arranging the vehicle position of the host vehicle and the vehicle positions of the surrounding vehicles in the same vehicle coordinate system.

ステップS304では、車載制御装置130の自車両視認判断機能により、ステップS301で受信した周囲車両の運転者の視線領域に基づいて、周囲車両の運転者が、周囲車両のフロントウィンドウ、サイドウィンドウ、またはリヤウィンドウの開口部に対応するウィンドウ領域を視認しているか否かの判断が行われる。本実施形態において、自車両視認判断機能は、周囲車両の運転者の視線領域がウィンドウ領域である場合には、周囲車両の運転者がウィンドウ領域を視認していると判断する。自車両の運転者がウィンドウ領域を視認していると判断された場合には、ステップS305に進み、一方、自車両の運転者がウィンドウ領域を視認していないと判断された場合には、ステップS308に進む。   In step S304, based on the gaze area of the driver of the surrounding vehicle received in step S301 by the vehicle visibility determination function of the in-vehicle control device 130, the driver of the surrounding vehicle can detect the front window, side window, or It is determined whether or not the window area corresponding to the opening of the rear window is visually recognized. In this embodiment, the own vehicle visual recognition determination function determines that the driver of the surrounding vehicle is viewing the window area when the line-of-sight area of the driver of the surrounding vehicle is the window area. If it is determined that the driver of the host vehicle is visually recognizing the window area, the process proceeds to step S305. If the driver of the host vehicle is determined not to be visually recognizing the window area, the step is performed. The process proceeds to S308.

ステップS305では、自車両視認判断機能により、周囲車両の運転者の視線範囲に、自車両が存在するか否かの判断が行われる。具体的には、自車両視認判断機能は、ステップS301で受信した周囲車両の車両位置および進行方向に、周囲車両の運転者の視線方向を重畳することで、周囲車両の運転者の視線方向を、ステップS303で求めた車両座標系において特定する。また、自車両視認判断機能は、車両座標系における周囲車両の運転者の視線方向に、人間の一般的な周辺視野角を適用することで、車両座標系において、周囲車両の運転者が視認できる範囲を、周囲車両の運転者の視認範囲として特定する。そして、自車両視認判断機能は、特定した周囲車両の運転者の視認範囲に、自車両が存在するか否かを判断する。なお、人間の一般的な周辺視野角の情報は、車載制御装置130のRAMに予め記憶されており、自車両視認判断機能は、周囲車両の運転者の視線方向に、RAMに記憶されている人間の一般的な周辺視野角を適用することで、周囲車両の運転者の視認範囲を特定することができる。   In step S <b> 305, it is determined whether or not the host vehicle exists in the line-of-sight range of the driver of the surrounding vehicle by the host vehicle visual determination function. Specifically, the own vehicle visual recognition determination function superimposes the gaze direction of the driver of the surrounding vehicle on the vehicle position and the traveling direction of the surrounding vehicle received in step S301, thereby determining the gaze direction of the driver of the surrounding vehicle. The vehicle coordinate system obtained in step S303 is specified. In addition, the self-vehicle visibility determination function applies a general human peripheral viewing angle to the direction of the driver's line of sight in the vehicle coordinate system, so that the driver of the surrounding vehicle can visually recognize the vehicle coordinate system. The range is specified as the visible range of the driver of the surrounding vehicle. And the own vehicle visual recognition judgment function judges whether the own vehicle exists in the visual recognition range of the driver of the specified surrounding vehicle. In addition, information on the general peripheral viewing angle of a human is stored in advance in the RAM of the in-vehicle control device 130, and the own vehicle visual recognition determination function is stored in the RAM in the line-of-sight direction of the driver of the surrounding vehicle. By applying a general human peripheral viewing angle, it is possible to specify the viewing range of the driver of the surrounding vehicle.

そして、ステップS305において、周囲車両の運転者の視認範囲に自車両が存在していないと判断された場合には、周囲車両の運転者が自車両を視認していないと判断し、ステップS306に進む。ステップS306では、車載制御装置130の提示情報生成機能により、周囲車両に関する提示情報の生成が行われる。また、ステップS306では、周囲車両の運転者が自車両を視認していないと判断されているため、提示情報生成機能は、図3に示すように、自車両を視認していない周囲車両が強調表示されるように、提示情報を生成する。そして、提示情報生成機能により生成された提示情報は情報提示装置140に送信され、これにより、図3に示すように、自車両を認識していない周囲車両を強調表示した提示情報が、自車両の運転者に提示される。   In step S305, if it is determined that the host vehicle does not exist in the viewing range of the driver of the surrounding vehicle, it is determined that the driver of the surrounding vehicle is not viewing the host vehicle, and the process proceeds to step S306. move on. In step S306, the presentation information generation function of the in-vehicle control device 130 generates presentation information related to surrounding vehicles. Further, in step S306, since it is determined that the driver of the surrounding vehicle is not visually recognizing the own vehicle, the presentation information generation function emphasizes the surrounding vehicle not visually recognizing the own vehicle as shown in FIG. Presentation information is generated to be displayed. And the presentation information produced | generated by the presentation information generation function is transmitted to the information presentation apparatus 140, and as shown in FIG. 3, the presentation information which highlighted the surrounding vehicle which has not recognized the own vehicle is shown in FIG. Presented to drivers.

一方、ステップS305において、周囲車両の運転者の視認範囲に自車両が存在していると判断された場合には、周囲車両の運転者が自車両を視認していると判断し、ステップS307に進む。ステップS307では、提示情報生成機能により、周囲車両に関する提示情報の生成が行われる。なお、ステップS307では、周囲車両の運転者が自車両を視認していると判断されているため、提示情報生成機能は、図3に示すように、自車両を視認している周囲車両について強調表示が行われないように、提示情報を生成する。そして、提示情報生成機能により生成された提示情報は、情報提示装置140に送信され、情報提示装置140により提示情報が運転者に提示される。   On the other hand, if it is determined in step S305 that the host vehicle is present in the viewing range of the driver of the surrounding vehicle, it is determined that the driver of the surrounding vehicle is viewing the host vehicle, and the process proceeds to step S307. move on. In step S307, the presentation information generation function generates presentation information related to surrounding vehicles. In step S307, since it is determined that the driver of the surrounding vehicle is viewing the host vehicle, the presentation information generation function is emphasized for the surrounding vehicle viewing the host vehicle as shown in FIG. Presentation information is generated so as not to be displayed. Then, the presentation information generated by the presentation information generation function is transmitted to the information presentation device 140, and the presentation information is presented to the driver by the information presentation device 140.

また、ステップS304において、周囲車両の運転者がウィンドウ領域を視認していないと判断された場合には、ステップS308に進む。ステップS308では、ステップS304と同様に、自車両視認判断機能により、ステップS301で受信した周囲車両の運転者の視線領域に基づいて、周囲車両の運転者が、周囲車両の右サイドミラーに対応する右サイドミラー領域を視認しているか否かの判断が行われる。周囲車両の運転者が右サイドミラー領域を視認していると判断された場合には、ステップS309に進み、一方、周囲車両の運転者が右サイドミラー領域を視認していないと判断された場合には、ステップS310に進む。   In step S304, if it is determined that the driver of the surrounding vehicle is not viewing the window area, the process proceeds to step S308. In step S308, as in step S304, the driver of the surrounding vehicle corresponds to the right side mirror of the surrounding vehicle based on the line-of-sight area of the driver of the surrounding vehicle received in step S301 by the own vehicle visual recognition determination function. It is determined whether or not the right side mirror area is visually recognized. If it is determined that the driver of the surrounding vehicle is visually recognizing the right side mirror area, the process proceeds to step S309, while the driver of the surrounding vehicle is determined not to visually recognize the right side mirror area. In step S310, the process proceeds to step S310.

ステップS309では、周囲車両の運転者が右サイドミラー領域を視認していると判断されているため、自車両視認判断機能により、周囲車両の運転者が周囲車両の右サイドミラーで視認できる範囲が、周囲車両の運転者の視認範囲として特定される。具体的には、自車両視認判断機能は、右サイドミラーの角度に応じて、周囲車両の運転者の視線方向を変換し、変換した周囲車両の運転者の視線方向に、人間の一般的な周辺視野角を適用することで、車両座標系において、周囲車両の運転者が右サイドミラーを介して視認できる範囲を、周囲車両の運転者の視認範囲として特定する。   In step S309, since it is determined that the driver of the surrounding vehicle is visually recognizing the right side mirror region, there is a range in which the driver of the surrounding vehicle can visually recognize the right side mirror of the surrounding vehicle by the own vehicle visual recognition function. , It is specified as the visible range of the driver of the surrounding vehicle. Specifically, the own vehicle visual recognition determination function converts the gaze direction of the driver of the surrounding vehicle according to the angle of the right side mirror, and the general human vision is changed to the gaze direction of the converted driver of the surrounding vehicle. By applying the peripheral viewing angle, the range that the driver of the surrounding vehicle can visually recognize through the right side mirror in the vehicle coordinate system is specified as the visual recognition range of the driver of the surrounding vehicle.

そして、周囲車両の運転者が右サイドミラーで視認できる視認範囲が特定された後は、ステップS305に進み、周囲車両の運転者が右サイドミラーで視認できる視認範囲に自車両が存在するか否かの判断が行われる。周囲車両の運転者が右サイドミラーで視認できる視認範囲に自車両が存在しないと判断された場合には、当該周囲車両を強調表示した提示情報が提示され(ステップS306)、周囲車両の運転者が右サイドミラーで視認できる視認範囲に自車両が存在すると判断された場合には、当該周囲車両を強調表示していない提示情報が提示される(ステップS307)。   And after the visual recognition range which the driver | operator of a surrounding vehicle can visually recognize with a right side mirror is specified, it progresses to step S305, and the own vehicle exists in the visual recognition range which the driver | operator of a surrounding vehicle can visually recognize with a right side mirror. Judgment is made. When it is determined that the driver of the surrounding vehicle does not exist in the viewable range visible by the right side mirror, the presentation information highlighting the surrounding vehicle is presented (step S306), and the driver of the surrounding vehicle is presented. When it is determined that the host vehicle is present in the viewing range that can be viewed with the right side mirror, the presentation information that does not highlight the surrounding vehicle is presented (step S307).

また、ステップS308において、周囲車両の運転者が右サイドミラー領域を視認していないと判断された場合には、ステップS310に進み、周囲車両の運転者が左サイドミラー領域を視認しているか否かの判断が行われる。周囲車両の運転者が左サイドミラー領域を視認していると判断された場合には、ステップS311に進み、周囲車両の運転者が左サイドミラーで視認できる視認範囲が特定される。すなわち、自車両視認判断機能は、左サイドミラーの角度に応じて、周囲車両の運転者の視線方向を変換し、変換した周囲車両の運転者の視線方向に、人間の一般的な周辺視野角を適用することで、車両座標系において、周囲車両の運転者が左サイドミラーを介して視認できる範囲を、周囲車両の運転者の視認範囲として特定する。   If it is determined in step S308 that the driver of the surrounding vehicle is not visually recognizing the right side mirror area, the process proceeds to step S310, and whether or not the driver of the surrounding vehicle is visually recognizing the left side mirror area. Judgment is made. If it is determined that the driver of the surrounding vehicle is visually recognizing the left side mirror region, the process proceeds to step S311 and the viewing range that the driver of the surrounding vehicle can visually recognize with the left side mirror is specified. That is, the self-vehicle visibility determination function converts the gaze direction of the driver of the surrounding vehicle according to the angle of the left side mirror, and the general peripheral viewing angle of the human being in the converted gaze direction of the driver of the surrounding vehicle By applying the above, in the vehicle coordinate system, the range that the driver of the surrounding vehicle can visually recognize through the left side mirror is specified as the viewing range of the driver of the surrounding vehicle.

そして、周囲車両の運転者が左サイドミラーで視認できる視認範囲が特定された後は、ステップS305に進み、周囲車両の運転者が左サイドミラーで視認できる視認範囲に自車両が存在する場合には(ステップS305=Yes)、当該周囲車両を強調表示した提示情報が提示され(ステップS306)、周囲車両の運転者が左サイドミラーで視認できる視認範囲に自車両が存在する場合には(ステップS305=No)、当該周囲車両を強調表示していない提示情報が提示される(ステップS307)。   And after the visual recognition range which the driver | operator of a surrounding vehicle can visually recognize with a left side mirror is specified, it progresses to step S305, and when the own vehicle exists in the visual recognition range which the driver | operator of a surrounding vehicle can visually recognize with a left side mirror. (Step S305 = Yes), the presentation information highlighting the surrounding vehicle is presented (step S306), and when the vehicle is in a viewable range visible to the driver of the surrounding vehicle with the left side mirror (step S306) (S305 = No), the presentation information that does not highlight the surrounding vehicle is presented (step S307).

同様に、ステップS310において、周囲車両の運転者が左サイドミラー領域を視認していないと判断された場合には、ステップS312に進み、周囲車両の運転者がルームミラー領域を視認しているか否かの判断が行われ、周囲車両の運転者がルームミラー領域を視認していると判断された場合に、ステップS313に進み、周囲車両の運転者がルームミラーで視認できる視認範囲が特定される。そして、周囲車両の運転者がルームミラーで視認できる視認範囲が特定された後は、ステップS305に進み、周囲車両の運転者がルームミラーで視認できる視認範囲に自車両が存在する場合には(ステップS305=Yes)、当該周囲車両を強調表示した提示情報が提示され(ステップS306)、周囲車両の運転者がルームミラーで視認できる視認範囲に自車両が存在する場合には(ステップS305=No)、当該周囲車両を強調表示していない提示情報が提示される(ステップS307)。   Similarly, if it is determined in step S310 that the driver of the surrounding vehicle does not visually recognize the left side mirror region, the process proceeds to step S312 and whether or not the driver of the surrounding vehicle visually recognizes the room mirror region. If it is determined that the driver of the surrounding vehicle is viewing the room mirror area, the process proceeds to step S313, and the viewing range that the driver of the surrounding vehicle can visually recognize with the room mirror is specified. . And after the visual recognition range which the driver | operator of a surrounding vehicle can visually recognize with a room mirror is specified, it progresses to step S305, and when the own vehicle exists in the visual recognition range which the driver | operator of a surrounding vehicle can visually recognize with a room mirror ( In step S305 = Yes, presentation information highlighting the surrounding vehicle is presented (step S306), and when the vehicle is present in a viewable range visible to the driver of the surrounding vehicle with the room mirror (step S305 = No) ), The presentation information that does not highlight the surrounding vehicle is presented (step S307).

なお、ステップS312において、周囲車両の運転者がルームミラー領域を視認していないと判断された場合には、ステップS307に進み、周囲車両を強調表示していない提示情報の提示が行われる。なお、このような場合に、周囲車両の運転者の周囲認識状態が不明である旨の提示情報を提示する構成としてもよい。   If it is determined in step S312 that the driver of the surrounding vehicle does not visually recognize the room mirror region, the process proceeds to step S307, where presentation information that does not highlight the surrounding vehicle is presented. In such a case, it may be configured to present presentation information indicating that the surrounding recognition state of the driver of the surrounding vehicle is unknown.

以上のように、第1実施形態では、自車両の周囲に存在する周囲車両の運転者の視線情報に基づいて、周囲車両の運転者が自車両を視認しているか否かを判断し、周囲車両の運転者が自車両を視認していないと判断された場合には、自車両を視認していない周囲車両を示す情報を、自車両の運転者に提示する。このように、第1実施形態では、自車両や周囲車両の挙動だけでは把握することができない、周囲車両の運転者の内的な周囲認識状態に基づいて、自車両と周囲車両とが接近する可能性を判断し、自車両の運転者に提示することができるため、自車両の運転者の注意を適切に喚起することができ、これにより、運転者の運転の安全性の向上を図ることができる。すなわち、従来では、自車両や周囲車両の挙動に基づいて、自車両と周囲車両とが接近する可能性を判断する構成のため、たとえば、周囲車両が停止している場合でも、周囲車両が自車両を認識していないために、周囲車両が急発進して、自車両に接近してしまう可能性を判断することができなかった。これに対して、本実施形態では、周囲車両の運転者が自車両を視認しているか否かを判断し、周囲車両の運転者が自車両を視認していない場合には、自車両の運転者にその旨を伝達することで、自車両の運転者に、自車両に接近する可能性がある周囲車両を適切に把握させることができる。   As described above, in the first embodiment, it is determined whether or not the driver of the surrounding vehicle is viewing the host vehicle based on the line-of-sight information of the driver of the surrounding vehicle existing around the host vehicle. When it is determined that the driver of the vehicle is not visually recognizing the own vehicle, information indicating surrounding vehicles that are not visually recognizing the own vehicle is presented to the driver of the own vehicle. In this way, in the first embodiment, the host vehicle and the surrounding vehicle approach based on the internal surrounding recognition state of the driver of the surrounding vehicle that cannot be grasped only by the behavior of the host vehicle and the surrounding vehicle. Since the possibility can be judged and presented to the driver of the host vehicle, the driver's attention can be appropriately raised, thereby improving the driving safety of the driver. Can do. That is, in the related art, since the possibility of the host vehicle and the surrounding vehicle approaching based on the behavior of the host vehicle and the surrounding vehicle is determined, for example, even when the surrounding vehicle is stopped, Since the vehicle is not recognized, it is impossible to determine the possibility that the surrounding vehicle suddenly starts and approaches the host vehicle. On the other hand, in the present embodiment, it is determined whether or not the driver of the surrounding vehicle is visually recognizing the own vehicle, and if the driver of the surrounding vehicle is not visually recognizing the own vehicle, the driving of the own vehicle is determined. By transmitting that fact to the driver, the driver of the host vehicle can appropriately recognize surrounding vehicles that may approach the host vehicle.

また、本実施形態では、周囲車両の運転者の視線方向に存在する領域が、周囲車両のフロントウィンドウ、サイドウィンドウ、またはリヤウィンドウの開口部に対応するウィンドウ領域であるか否かを判断し、周囲車両の運転者の視線領域がウィンドウ領域である場合には、周囲車両の運転者がウィンドウ越しに目視で視認できる範囲を、周囲車両の運転者の視認範囲として特定することで、周囲車両の運転者が自車両を認識しているか否かを適切に判断することができる。   Further, in the present embodiment, it is determined whether or not the region existing in the line-of-sight direction of the driver of the surrounding vehicle is a window region corresponding to the front window, the side window, or the rear window of the surrounding vehicle, When the line-of-sight area of the driver of the surrounding vehicle is a window area, the range that the driver of the surrounding vehicle can visually recognize through the window is specified as the visual range of the driver of the surrounding vehicle. It is possible to appropriately determine whether or not the driver recognizes the host vehicle.

さらに、本実施形態では、周囲車両の運転者の視線方向に存在する領域が、周囲車両の右サイドミラーに対応する右サイドミラー領域であるか否かを判断し、周囲車両の運転者の視線領域が右サイドミラー領域である場合には、周囲車両の運転者が周囲車両の右サイドミラーで視認できる範囲を、周囲車両の運転者の視認範囲として特定することで、周囲車両の運転者が自車両を認識しているか否かを適切に判断することができる。同様に、周囲車両の運転者の視線領域が左サイドミラー領域である場合には、周囲車両の運転者が周囲車両の左サイドミラーで視認できる範囲を、周囲車両の運転者の視認範囲として特定し、周囲車両の運転者の視線領域がルームミラー領域である場合には、周囲車両の運転者が周囲車両のルームミラーで視認できる範囲を、周囲車両の運転者の視認範囲として特定することで、周囲車両の運転者が自車両を認識しているか否かを適切に判断することができる。   Further, in the present embodiment, it is determined whether or not the region existing in the line-of-sight direction of the driver of the surrounding vehicle is a right side mirror region corresponding to the right side mirror of the surrounding vehicle, and the line of sight of the driver of the surrounding vehicle When the area is the right side mirror area, by identifying the range that the driver of the surrounding vehicle can visually recognize with the right side mirror of the surrounding vehicle as the viewing range of the driver of the surrounding vehicle, the driver of the surrounding vehicle It is possible to appropriately determine whether or not the host vehicle is recognized. Similarly, when the line-of-sight area of the driver of the surrounding vehicle is the left side mirror area, the range that the driver of the surrounding vehicle can visually recognize with the left side mirror of the surrounding vehicle is specified as the viewing range of the driver of the surrounding vehicle When the line-of-sight area of the driver of the surrounding vehicle is the room mirror area, the range that the driver of the surrounding vehicle can see with the room mirror of the surrounding vehicle is specified as the viewing range of the driver of the surrounding vehicle. It is possible to appropriately determine whether or not the driver of the surrounding vehicle recognizes the own vehicle.

加えて、本実施形態では、周囲車両の運転者の視線方向に、人間の一般的な周辺視野角を適用することで、周囲車両の運転者の視認範囲を特定し、周囲車両の運転者の視認範囲に自車両が存在するか否かを判断することで、周囲車両の運転者が自車両を認識しているか否かを適切に判断することができる。   In addition, in the present embodiment, by applying a general peripheral viewing angle of the human to the line-of-sight direction of the driver of the surrounding vehicle, the viewing range of the driver of the surrounding vehicle is specified, and the driver of the surrounding vehicle By determining whether or not the own vehicle exists in the viewing range, it is possible to appropriately determine whether or not the driver of the surrounding vehicle recognizes the own vehicle.

《第2実施形態》
次に、本発明の第2実施形態について説明する。第2実施形態に係る運転支援システムは、図1および図2に示す運転支援システムと同様の構成を有しており、図7に示すように動作すること以外は、第1実施形態と同様に動作する。なお、図7は、第2実施形態に係る情報提示処理を示すフローチャートである。
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described. The driving support system according to the second embodiment has the same configuration as the driving support system shown in FIGS. 1 and 2, and is the same as the first embodiment except that it operates as shown in FIG. 7. Operate. FIG. 7 is a flowchart showing the information presentation process according to the second embodiment.

ステップS401〜S405,S410〜S416は、第1実施形態のステップS301〜305,S308〜S313と同様に、周囲車両の運転者が視認している視認範囲の特定が行われ、周囲車両の運転者が自車両を視認しているか否かの判断が行われる。   Steps S401 to S405, S410 to S416 are similar to Steps S301 to S305 and S308 to S313 of the first embodiment, and the viewing range that is recognized by the driver of the surrounding vehicle is specified. A determination is made as to whether or not the user is viewing the host vehicle.

そして、ステップS405において、周囲車両の運転者が自車両を視認していないと判断された場合には、ステップS406に進む。ステップS406では、提示情報生成機能により、自車両を視認していない周囲車両を最大限に強調表示した提示情報の生成が行われ、生成された提示情報が自車両の運転者に提示される。   If it is determined in step S405 that the driver of the surrounding vehicle is not viewing the host vehicle, the process proceeds to step S406. In step S406, the presentation information generation function generates presentation information that highlights the surrounding vehicles that are not viewing the host vehicle to the maximum, and the generated presentation information is presented to the driver of the host vehicle.

一方、ステップS405において、周囲車両の運転者が自車両を視認していると判断された場合には、ステップS407に進む。ステップS407では、自車両視認判断機能により、周囲車両の運転者が自車両を視認している時間を視認時間としてカウントする処理が行われる。具体的には、自車両視認判断機能は、周囲車両の運転者が自車両を視認しているか否かの判断を、一定の周期(たとえば300ミリ秒周期)で所定回数繰り返し行い、周囲車両の運転者が自車両を視認していると判断された回数と、周期とを乗じることで、周囲車両の運転者が自車両を視認している視認時間を算出する。   On the other hand, if it is determined in step S405 that the driver of the surrounding vehicle is viewing the host vehicle, the process proceeds to step S407. In step S407, a process of counting the time during which the driver of the surrounding vehicle is viewing the host vehicle as the viewing time is performed by the host vehicle viewing determination function. Specifically, the own vehicle visual recognition determination function repeatedly determines whether or not the driver of the surrounding vehicle is visually recognizing the own vehicle a predetermined number of times at a constant cycle (for example, a cycle of 300 milliseconds). By multiplying the number of times it is determined that the driver is visually recognizing the host vehicle and the period, the viewing time during which the driver of the surrounding vehicle is viewing the host vehicle is calculated.

そして、ステップS408では、自車両視認判断機能により、ステップS407で算出された視認時間に基づいて、周囲車両の運転者が自車両に注意している度合いである、注意度の算出が行われる。本実施形態において、自車両視認判断機能は、視認時間に応じて注意度を3段階に分けており、視認時間が長いほど、周囲車両の運転者の注意度を大きな値に設定する。   In step S408, the degree of attention, which is the degree to which the driver of the surrounding vehicle is paying attention to the own vehicle, is calculated based on the visual recognition time calculated in step S407 by the own vehicle visual recognition determination function. In this embodiment, the own vehicle visual recognition determination function divides the attention level into three stages according to the visual recognition time, and sets the attention level of the driver of the surrounding vehicle to a larger value as the visual recognition time is longer.

ステップS409では、提示情報生成機能により、提示情報の生成が行われる。また、ステップS409において、提示情報生成機能は、ステップS408で算出された注意度に応じて周囲車両が強調表示されるように、提示情報を生成する。たとえば、提示情報生成機能は、注意度の低い周囲車両ほど、点滅速度を速くし、あるいは、周囲車両を囲む枠線を大きくすることで、注意度の低い周囲車両ほど強調表示されるように、提示情報を生成する。そして、生成された提示情報は、情報提示装置140により、運転者に提示される。   In step S409, presentation information is generated by the presentation information generation function. In step S409, the presentation information generation function generates presentation information so that surrounding vehicles are highlighted according to the degree of caution calculated in step S408. For example, the presentation information generation function highlights a surrounding vehicle with a low level of attention by increasing the blinking speed of a surrounding vehicle with a low level of attention, or by enlarging the frame surrounding the surrounding vehicle. Generate presentation information. The generated presentation information is presented to the driver by the information presentation device 140.

以上のように、第2実施形態では、周囲車両の運転者が自車両を視認していると判断された場合に、周囲車両の運転者が自車両を視認している時間を視認時間としてカウントし、視認時間が短いほど、周囲車両の運転者の注意度を低い値で算出する。そして、注意度の低い周囲車両ほど強調して表示されるように、提示情報を生成し、生成した提示情報を自車両の運転者に提示する。これにより、第2実施形態では、周囲車両の運転者が自車両に注意している度合いを、自車両の運転者に適切に伝達することができるため、自車両の運転者の注意をより適切に喚起することができ、運転者の運転をより向上させることができる。   As described above, in the second embodiment, when it is determined that the driver of the surrounding vehicle is viewing the host vehicle, the time during which the driver of the surrounding vehicle is viewing the host vehicle is counted as the viewing time. However, as the visual recognition time is shorter, the driver's attention level of the surrounding vehicle is calculated with a lower value. And presentation information is produced | generated so that the surrounding vehicle with a low alertness may be emphasized and displayed, and the produced | generated presentation information is shown to the driver | operator of the own vehicle. Thereby, in 2nd Embodiment, since the driver | operator of the surrounding vehicle can transmit appropriately the degree to which the driver of the surrounding vehicle is paying attention to the driver of the own vehicle, the driver's attention of the own vehicle is more appropriate. The driver's driving can be further improved.

以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

たとえば、上述した実施形態では、周囲車両の運転者の顔画像に基づいて、周囲車両の運転者の視線方向を検出することで、周囲車両の運転者が自車両を視認しているか否かを判断する構成を例示したが、この構成に限定されず、たとえば、周囲車両の運転者の顔画像に基づいて、周囲車両の運転者の覚醒状態や周囲車両の運転者がイライラしている状態を判断し、このような周囲車両の運転者の意識の度合い(認識的内部状態)に基づいて、自車両に接近する可能性がある周囲車両を特定し、特定した周囲車両を示す提示情報を自車両の運転者に提示する構成としてもよい。   For example, in the above-described embodiment, whether or not the driver of the surrounding vehicle is visually recognizing the own vehicle by detecting the line-of-sight direction of the driver of the surrounding vehicle based on the face image of the driver of the surrounding vehicle. Although the structure to determine was illustrated, it is not limited to this structure, For example, based on the face image of the driver of a surrounding vehicle, the awakening state of the driver of the surrounding vehicle and the state where the driver of the surrounding vehicle is frustrated Based on the degree of awareness (recognition internal state) of the driver of the surrounding vehicle, the surrounding vehicle that may approach the own vehicle is identified, and the presentation information indicating the identified surrounding vehicle is automatically determined. It is good also as a structure shown to the driver | operator of a vehicle.

また、上述した実施形態では、車載装置100a,100bと情報センター200とから構成される運転支援システムを例示して説明したが、この構成に限定されず、たとえば、車車間通信が可能な車載装置100a,100bから運転支援システムを構成してもよい。たとえば、自車両に搭載された車載装置100bが、車車間通信により、周囲車両に搭載された車載装置100aから、周囲車両の位置情報と周囲車両の運転者の視線情報を受信することで、周囲車両の運転者が自車両を視認しているか否かを判断する構成としてもよい。   In the above-described embodiment, the driving support system including the in-vehicle devices 100a and 100b and the information center 200 has been described as an example. However, the present invention is not limited to this configuration. For example, the in-vehicle device capable of inter-vehicle communication. You may comprise a driving assistance system from 100a, 100b. For example, the vehicle-mounted device 100b mounted on the host vehicle receives the position information of the surrounding vehicle and the line-of-sight information of the driver of the surrounding vehicle from the vehicle-mounted device 100a mounted on the surrounding vehicle by vehicle-to-vehicle communication. It is good also as a structure which judges whether the driver | operator of the vehicle is visually recognizing the own vehicle.

さらに、上述した実施形態では、周囲車両および自車両に同一の構成を備えた車載装置100a,100bを備える構成を例示したが、この構成に限定されず、たとえば、運転者の視線情報および位置情報を検出し、検出した運転者の視線情報および位置情報を情報センター200に送信する機能のみを有する車載装置100aと、周囲車両の運転者の視線情報および位置情報を情報センター200から受信し、受信した周囲車両の運転者の視線情報および位置情報に基づいて、周囲車両の運転者が自車両を視認しているか否かを判断し、自車両を視認しない周囲車両を示す提示情報を、自車両の運転者に提示する機能のみを有する車載装置100bとにより、運転支援システムを構成してもよい。この場合に、車載装置100bでの処理負荷を軽減することができる。   Furthermore, in the above-described embodiment, the configuration including the in-vehicle devices 100a and 100b having the same configuration in the surrounding vehicle and the host vehicle is illustrated. However, the configuration is not limited to this configuration. For example, the driver's line-of-sight information and position information The vehicle-mounted device 100a having only the function of transmitting the detected driver's line-of-sight information and position information to the information center 200, and receiving the line-of-sight information and position information of drivers of surrounding vehicles from the information center 200, Based on the line-of-sight information and position information of the driver of the surrounding vehicle, it is determined whether or not the driver of the surrounding vehicle is viewing the host vehicle, and the presentation information indicating the surrounding vehicle not viewing the host vehicle is displayed. The driving support system may be configured by the in-vehicle device 100b having only the function presented to the driver. In this case, the processing load on the in-vehicle device 100b can be reduced.

また、上述した実施形態では、車両に搭載された車載装置100a,100bを例示して説明したが、この構成に限定されず、たとえば、自車両および周囲車両において使用される携帯電話、スマートフォンなどの携帯端末に、上述した機能を備えることで、本発明の運転支援システムを構成してもよい。   In the above-described embodiment, the in-vehicle devices 100a and 100b mounted on the vehicle have been illustrated and described. However, the present invention is not limited to this configuration, and examples thereof include mobile phones and smartphones used in the own vehicle and surrounding vehicles. The driving support system of the present invention may be configured by providing the mobile terminal with the functions described above.

加えて、上述した実施形態では、車載装置100が、周囲車両の運転者が自車両を認識しているか否かを判断し、自車両を認識していない周囲車両が強調表示されるように、提示情報を生成する構成を例示したが、この構成に限定されず、たとえば、情報センター200において、周囲車両の運転者が自車両を認識しているか否かを判断し、自車両を認識していない周囲車両が強調表示されるように、提示情報を生成し、生成した提示情報を自車両の車載装置100bに送信する構成としてもよい。   In addition, in the above-described embodiment, the in-vehicle device 100 determines whether the driver of the surrounding vehicle recognizes the own vehicle, and the surrounding vehicle that does not recognize the own vehicle is highlighted. Although the structure which produces | generates presentation information was illustrated, it is not limited to this structure, For example, in the information center 200, it is judged whether the driver of the surrounding vehicle has recognized the own vehicle, and has recognized the own vehicle. It is good also as a structure which produces | generates presentation information and transmits the produced | generated presentation information to the vehicle-mounted apparatus 100b of the own vehicle so that the surrounding vehicle which does not have it may be highlighted.

なお、上述した実施形態の車載装置100の車載通信装置120は本発明の第1送信手段、受信手段、および第2送信手段に、車載装置100の車載制御装置130は本発明の画像取得手段、認識状態検出手段、視線領域判定手段、認識判断手段、生成手段、第1車両位置検出手段、および、第2車両位置検出手段に、車載装置100の情報提示装置140は本発明の提示手段に、情報センター200のセンター通信装置210は本発明の第3送信手段に、情報センター200のセンター制御装置220は本発明の収集手段および周囲車両検出手段にそれぞれ相当する。   Note that the in-vehicle communication device 120 of the in-vehicle device 100 of the above-described embodiment is the first transmission unit, the reception unit, and the second transmission unit of the present invention, and the in-vehicle control device 130 of the in-vehicle device 100 is the image acquisition unit of the present invention. In the recognition state detection means, the line-of-sight area determination means, the recognition determination means, the generation means, the first vehicle position detection means, and the second vehicle position detection means, the information presentation device 140 of the in-vehicle device 100 is a presentation means of the present invention. The center communication device 210 of the information center 200 corresponds to the third transmission means of the present invention, and the center control device 220 of the information center 200 corresponds to the collection means and surrounding vehicle detection means of the present invention.

100…車載装置
110…カメラ
120…車載通信装置
130…車載制御装置
140…情報提示装置
200…情報センター
210…センター通信装置
220…センター制御装置
DESCRIPTION OF SYMBOLS 100 ... In-vehicle apparatus 110 ... Camera 120 ... In-vehicle communication apparatus 130 ... In-vehicle control apparatus 140 ... Information presentation apparatus 200 ... Information center 210 ... Center communication apparatus 220 ... Center control apparatus

Claims (9)

第1車両において使用される第1装置と、前記第1装置と情報の授受が可能であり、第2車両において使用される第2装置とを有する運転支援システムであって、
前記第1装置は、
前記第1車両の運転者の顔画像を取得する画像取得手段と、
前記第1車両の運転者の顔画像に基づいて、前記第1車両の運転者の周囲認識状態を検出する認識状態検出手段と、
前記第1車両の運転者の周囲認識状態を示す情報を、認識情報として送信する第1送信手段と、を備え、
前記第2装置は、
前記認識情報を受信する受信手段と、
前記認識情報に基づいて、前記第1車両の運転者が前記第2車両を認識しているか否かを判断する認識判断手段と、
前記第1車両の運転者が前記第2車両を認識していないと判断された場合に、前記第1車両の運転者が前記第2車両を認識していないことを示す提示情報を生成する生成手段と、
前記第2車両の運転者に前記提示情報を提示する提示手段と、を備えることを特徴とする運転支援システム。
A driving support system comprising: a first device used in a first vehicle; and a second device capable of exchanging information with the first device and used in a second vehicle,
The first device includes:
Image acquisition means for acquiring a face image of the driver of the first vehicle;
Recognition state detection means for detecting the surrounding recognition state of the driver of the first vehicle based on the face image of the driver of the first vehicle;
First transmission means for transmitting information indicating the surrounding recognition state of the driver of the first vehicle as recognition information,
The second device includes:
Receiving means for receiving the recognition information;
Recognizing determination means for determining whether or not the driver of the first vehicle recognizes the second vehicle based on the recognition information;
Generating to generate presentation information indicating that the driver of the first vehicle does not recognize the second vehicle when it is determined that the driver of the first vehicle does not recognize the second vehicle Means,
Presenting means for presenting the presentation information to the driver of the second vehicle.
請求項1に記載の運転支援システムであって、
前記認識状態検出手段は、前記第1車両の運転者の顔画像に基づいて、前記第1車両の運転者の視線方向を、前記第1車両の運転者の周囲認識状態として検出し、
前記認識判断手段は、前記認識情報に基づいて、前記第1車両の運転者の視線方向に前記第2車両が存在するか否かを判断し、前記第1車両の運転者の視線方向に前記第2車両が存在する場合に、前記第1車両の運転者が前記第2車両を認識していると判断することを特徴とする運転支援システム。
The driving support system according to claim 1,
The recognition state detection means detects the line-of-sight direction of the driver of the first vehicle based on the face image of the driver of the first vehicle as a surrounding recognition state of the driver of the first vehicle,
The recognition determining means determines whether the second vehicle exists in the line of sight of the driver of the first vehicle based on the recognition information, and the direction of the line of sight of the driver of the first vehicle A driving support system, wherein when there is a second vehicle, the driver of the first vehicle determines that the second vehicle is recognized.
請求項2に記載の運転支援システムであって、
前記第1装置は、前記第1車両の運転者の視線方向に基づいて、前記第1車両の運転者の視線方向に存在する視線領域が、前記第1車両のウィンドウに対応するウィンドウ領域である否かを判定する視線領域判定手段をさらに備え、
前記認識判断手段は、前記第1車両の運転者の視線領域が前記第1車両のウィンドウ領域であると判定された場合には、前記第1車両の運転者が前記第1車両のウィンドウ越しに目視可能な視認可能範囲に、前記第2車両が存在するか否かを判断し、前記視認範囲に前記第2車両が存在する場合に、前記第1車両の運転者が前記第2車両を認識していると判断することを特徴とする運転支援システム。
The driving support system according to claim 2,
In the first device, a line-of-sight area existing in the line-of-sight direction of the driver of the first vehicle is a window area corresponding to the window of the first vehicle based on the line-of-sight direction of the driver of the first vehicle. A visual line region determining means for determining whether or not,
When it is determined that the line-of-sight area of the driver of the first vehicle is the window area of the first vehicle, the recognition determination means allows the driver of the first vehicle to pass through the window of the first vehicle. It is determined whether or not the second vehicle exists in a visually recognizable range, and the driver of the first vehicle recognizes the second vehicle when the second vehicle exists in the visual recognition range. A driving support system characterized by determining that the vehicle is driving.
請求項3に記載の運転支援システムであって、
前記視線領域判定手段は、前記第1車両の運転者の視線方向に基づいて、前記第1車両の運転者の視線方向に存在する視線領域が、前記第1車両のミラーに対応するミラー領域であるか否かを判定し、
前記認識判断手段は、前記第1車両の運転者の視線領域が前記第1車両のミラー領域であると判定された場合には、前記第1車両の運転者が前記第1車両のミラーを介して視認可能な視認可能範囲に、前記第2車両が存在するか否かを判断し、前記視認範囲に前記第2車両が存在する場合に、前記第1車両の運転者が前記第2車両を認識していると判断することを特徴とする運転支援システム。
The driving support system according to claim 3,
The line-of-sight area determination means is a mirror area corresponding to a mirror of the first vehicle, wherein the line-of-sight area existing in the line-of-sight direction of the driver of the first vehicle is based on the line-of-sight direction of the driver of the first vehicle. Determine if there is,
When it is determined that the line-of-sight area of the driver of the first vehicle is the mirror area of the first vehicle, the recognition determination means causes the driver of the first vehicle to pass through the mirror of the first vehicle. It is determined whether or not the second vehicle exists in a viewable range that can be visually recognized. When the second vehicle exists in the viewable range, the driver of the first vehicle moves the second vehicle. A driving support system characterized in that it is judged to be recognized.
請求項3または4に記載の運転支援システムであって、
前記認識判断手段は、前記第1車両の運転者の視線方向における、人間の一般的な周辺視野角の範囲内を、前記視線可能範囲として特定することを特徴とする運転支援システム。
The driving support system according to claim 3 or 4,
The driving support system, wherein the recognition determination unit identifies a range of a general peripheral viewing angle of a human in the line-of-sight direction of the driver of the first vehicle as the line-of-sight range.
請求項2〜5のいずれかに記載の運転支援システムであって、
前記生成手段は、前記第1車両の運転者の視線方向に前記第2車両が存在しているか否かを繰り返し判断することで、前記第1車両の運転者が前記第2車両を視認している継続時間を検出し、前記継続判断が短いほど、前記第1車両が強調して表示されるように、前記提示情報を生成することを特徴とする運転支援システム。
The driving support system according to any one of claims 2 to 5,
The generation means repeatedly determines whether or not the second vehicle exists in the line-of-sight direction of the driver of the first vehicle, so that the driver of the first vehicle visually recognizes the second vehicle. The driving support system is characterized in that the presenting information is generated so that the first vehicle is displayed with emphasis as the continuation determination is detected.
請求項1〜6のいずれかに記載の運転支援システムであって、
前記運転支援システムは、車両外部に設置され、前記第1装置および前記第2装置と相互に通信が可能な情報センターをさらに有し、
前記第1装置は、
前記第1車両の位置情報を検出する第1車両位置検出手段をさらに備え、
前記第1送信手段は、前記認識情報とともに、前記第1車両の位置情報を、前記情報センターに送信し、
前記第2装置は、
前記第2車両の位置情報を検出する第2車両位置検出手段と、
前記第2車両の位置情報を前記情報センターに送信する第2送信手段と、をさらに備え、
前記情報センターは、
前記認識情報と前記第1車両の位置情報とを前記第1装置から収集するとともに、前記第2車両の位置情報を前記第2装置から収集する収集手段と、
前記第1車両の位置情報と前記第2車両の位置情報とに基づいて、前記第2車両の周囲に存在する前記第1車両を周囲車両として検出する周囲車両検出手段と、
前記周囲車両の運転者の認識情報を、前記第2装置に送信する第3送信手段と、を備えることを特徴とする運転支援システム。
The driving support system according to any one of claims 1 to 6,
The driving support system further includes an information center installed outside the vehicle and capable of communicating with the first device and the second device;
The first device includes:
The vehicle further comprises first vehicle position detecting means for detecting position information of the first vehicle,
The first transmission means transmits the position information of the first vehicle together with the recognition information to the information center,
The second device includes:
Second vehicle position detection means for detecting position information of the second vehicle;
Second transmission means for transmitting the position information of the second vehicle to the information center,
The information center
Collecting means for collecting the recognition information and the position information of the first vehicle from the first device, and collecting the position information of the second vehicle from the second device;
Surrounding vehicle detection means for detecting the first vehicle existing around the second vehicle as a surrounding vehicle based on the positional information of the first vehicle and the positional information of the second vehicle;
A driving support system comprising: third transmission means for transmitting recognition information of a driver of the surrounding vehicle to the second device.
第1車両において使用される第1装置と、第2車両において使用される第2装置と、車両外部に設置され、前記第1装置および前記第2装置と相互に通信が可能な情報センターとを有する運転支援システムであって、
前記第1装置は、
前記第1車両の運転者の顔画像を取得する画像取得手段と、
前記第1車両の運転者の顔画像に基づいて、前記第1車両の運転者の周囲認識状態を検出する認識状態検出手段と、
前記第1車両の位置情報を検出する第1車両位置検出手段と、
前記第1車両の運転者の周囲認識状態を示す認識情報と、前記第1車両の位置情報とを前記情報センターに送信する第1送信手段と、を備え、
前記第2装置は、
前記第2車両の位置情報を検出する第2車両位置検出手段と、
前記第2車両の位置情報を前記情報センターに送信する第2送信手段と、を備え、
前記情報センターは、
前記認識情報と前記第1車両の位置情報とを前記第1装置から収集するとともに、前記第2車両の位置情報を前記第2装置から収集する収集手段と、
前記第1車両の位置情報と前記第2車両の位置情報とに基づいて、前記第2車両の周囲に存在する前記第1車両を周囲車両として検出する周囲車両検出手段と、
前記認識情報に基づいて、前記周囲車両の運転者が前記第2車両を認識しているか否かを判断する認識判断手段と、
前記周囲車両の運転者が前記第2車両を認識していないと判断された場合に、前記周囲車両の運転者が前記第2車両を認識していないことを示す提示情報を生成する生成手段と、
前記第2装置に前記提示情報を送信する第3送信手段と、を備え、
前記第2装置は、前記第2車両の運転者に前記提示情報を提示する提示手段をさらに備えることを特徴とする運転支援システム。
A first device used in the first vehicle, a second device used in the second vehicle, and an information center installed outside the vehicle and capable of communicating with the first device and the second device. A driving support system comprising:
The first device includes:
Image acquisition means for acquiring a face image of the driver of the first vehicle;
Recognition state detection means for detecting the surrounding recognition state of the driver of the first vehicle based on the face image of the driver of the first vehicle;
First vehicle position detecting means for detecting position information of the first vehicle;
Recognizing information indicating a surrounding recognition state of the driver of the first vehicle, and first transmitting means for transmitting position information of the first vehicle to the information center,
The second device includes:
Second vehicle position detection means for detecting position information of the second vehicle;
Second transmission means for transmitting the position information of the second vehicle to the information center,
The information center
Collecting means for collecting the recognition information and the position information of the first vehicle from the first device, and collecting the position information of the second vehicle from the second device;
Surrounding vehicle detection means for detecting the first vehicle existing around the second vehicle as a surrounding vehicle based on the positional information of the first vehicle and the positional information of the second vehicle;
Recognizing determination means for determining whether a driver of the surrounding vehicle recognizes the second vehicle based on the recognition information;
Generating means for generating presentation information indicating that the driver of the surrounding vehicle does not recognize the second vehicle when it is determined that the driver of the surrounding vehicle does not recognize the second vehicle; ,
Third transmission means for transmitting the presentation information to the second device,
The driving support system, wherein the second device further includes a presentation unit that presents the presentation information to a driver of the second vehicle.
自車両周囲に存在する周囲車両の運転者の視線情報を取得し、周囲車両の運転者の視線情報に基づいて、周囲車両の運転者の視線方向に自車両が存在するか否かを判断し、周囲車両の運転者の視線方向に自車両が存在しないと判断された場合に、周囲車両の運転者が自車両を視認していないことを示す提示情報を生成し、自車両の運転者に前記提示情報を提示することを特徴とする運転支援方法。   Obtain the gaze information of the drivers of the surrounding vehicles existing around the host vehicle, and determine whether the own vehicle exists in the gaze direction of the drivers of the surrounding vehicles based on the gaze information of the drivers of the surrounding vehicles When it is determined that the host vehicle does not exist in the line-of-sight direction of the driver of the surrounding vehicle, the presentation information indicating that the driver of the surrounding vehicle is not viewing the host vehicle is generated, and the driver of the host vehicle is generated. A driving support method comprising presenting the presentation information.
JP2013155396A 2013-07-26 2013-07-26 Driving support system and driving support method Pending JP2015026255A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013155396A JP2015026255A (en) 2013-07-26 2013-07-26 Driving support system and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013155396A JP2015026255A (en) 2013-07-26 2013-07-26 Driving support system and driving support method

Publications (1)

Publication Number Publication Date
JP2015026255A true JP2015026255A (en) 2015-02-05

Family

ID=52490855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013155396A Pending JP2015026255A (en) 2013-07-26 2013-07-26 Driving support system and driving support method

Country Status (1)

Country Link
JP (1) JP2015026255A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019055748A (en) * 2017-09-22 2019-04-11 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
DE102019204340A1 (en) 2018-03-29 2019-10-02 Honda Motor Co., Ltd. output device
CN112236806A (en) * 2018-06-08 2021-01-15 本田技研工业株式会社 Human-vehicle convergence support system and vehicle-sharing support system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019055748A (en) * 2017-09-22 2019-04-11 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
DE102019204340A1 (en) 2018-03-29 2019-10-02 Honda Motor Co., Ltd. output device
US20190304300A1 (en) * 2018-03-29 2019-10-03 Honda Motor Co.,Ltd. Output apparatus
JP2019175258A (en) * 2018-03-29 2019-10-10 本田技研工業株式会社 Output device
CN110319848A (en) * 2018-03-29 2019-10-11 本田技研工业株式会社 Output device
US10818174B2 (en) 2018-03-29 2020-10-27 Honda Motor Co., Ltd. Output apparatus
CN110319848B (en) * 2018-03-29 2023-03-14 本田技研工业株式会社 Output device
DE102019204340B4 (en) 2018-03-29 2024-03-21 Honda Motor Co., Ltd. Dispensing device
CN112236806A (en) * 2018-06-08 2021-01-15 本田技研工业株式会社 Human-vehicle convergence support system and vehicle-sharing support system

Similar Documents

Publication Publication Date Title
US20220343659A1 (en) Apparatus, systems and methods for classifying digital images
CN107415938B (en) Controlling autonomous vehicle functions and outputs based on occupant position and attention
US10298741B2 (en) Method and device for assisting in safe driving of a vehicle
EP2893867B1 (en) Detecting visual inattention based on eye convergence
JP2022519895A (en) Systems and methods that correlate user attention and appearance
JP6613623B2 (en) On-vehicle device, operation mode control system, and operation mode control method
US20180026669A1 (en) Phone docking station for enhanced driving safety
JP6218618B2 (en) Driving support device, driving support method, and driving support program
US11485380B2 (en) Method and control device for warning a driver of a motor vehicle and motor vehicle with such a control device
CN105035074A (en) Vehicle active safety control method based on portable intelligent equipment
CN110544368B (en) Fatigue driving augmented reality early warning device and early warning method
CN105023394A (en) Dangerous driving reminding and controlling method based on portable intelligent device
JP2017524850A (en) Balancing vehicle parking method and apparatus
CN105034979A (en) Vehicle active safety control method and vehicle active safety control system
CN105139583A (en) Vehicle danger prompting method based on portable intelligent equipment
JP2015026255A (en) Driving support system and driving support method
CN105034804A (en) Vehicle active safety control method and vehicle active safety control system
JP2020035437A (en) Vehicle system, method to be implemented in vehicle system, and driver assistance system
CN105235595A (en) Auxiliary driving method, automobile data recorder, display device and system
Kashevnik et al. Context-based driver support system development: Methodology and case study
CN105035005A (en) Road danger prompting and controlling method based on portable intelligent equipment
JP2020154375A (en) Vehicle hazardous condition identification device, vehicle hazardous condition identification method, and program
JP2020095466A (en) Electronic device
WO2021005975A1 (en) State determination device, on-vehicle instrument, driving assessment system, state determination method, and program
WO2021085371A1 (en) Driving assistance device, driving assistance method, and driving assistance program