JP2017111739A - Driving support apparatus and driving support method - Google Patents

Driving support apparatus and driving support method Download PDF

Info

Publication number
JP2017111739A
JP2017111739A JP2015247440A JP2015247440A JP2017111739A JP 2017111739 A JP2017111739 A JP 2017111739A JP 2015247440 A JP2015247440 A JP 2015247440A JP 2015247440 A JP2015247440 A JP 2015247440A JP 2017111739 A JP2017111739 A JP 2017111739A
Authority
JP
Japan
Prior art keywords
image
region
driver
vehicle
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015247440A
Other languages
Japanese (ja)
Inventor
恭平 尾崎
Kyohei Ozaki
恭平 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015247440A priority Critical patent/JP2017111739A/en
Publication of JP2017111739A publication Critical patent/JP2017111739A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology of allowing a driver to easily recognize a display image intuitively, for various display modes of a driving support image.SOLUTION: A first acquisition unit acquires information indicating the surroundings of a vehicle from an in-vehicle camera capturing the surroundings of the vehicle. A second acquisition unit acquires information indicating a position of a face part of a driver, from a driver status monitor. A first generation unit generates an image (hereinafter referred to as "object image") based on the information acquired by the first acquisition unit. An area estimation unit estimates at least one of a visible image area 31 corresponding to a range to be viewed by the driver, and a blind image area 32 corresponding to a range which cannot be seen by the driver, by use of the information acquired by the second acquisition unit. A second generation unit generates a driving support image by synthesizing the object image with an area image indicating a position and shape of the visible image area 31 or the blind image area 32 in the object image, on the basis of the image area estimated by the area estimation unit.SELECTED DRAWING: Figure 4

Description

本発明は、車両の周囲において運転者の死角となる範囲を含む画像を当該運転者に提供する技術に関する。   The present invention relates to a technique for providing a driver with an image including a range that becomes a blind spot of a driver around a vehicle.

従来、この種の技術においては、車両の周囲を撮像した画像を処理することにより、必要に応じて、当該車両の室内から周囲を見た画像や、当該車両の室外から周囲を見た画像等に加工し、加工した画像を運転支援画像として表示する技術が知られている。   Conventionally, in this type of technology, by processing an image of the surroundings of the vehicle, an image of the surroundings from the interior of the vehicle, an image of the surroundings from the outside of the vehicle, etc., as necessary. There is known a technique of processing a processed image and displaying the processed image as a driving support image.

例えば、特許文献1では、車両の周囲において当該車両(即ち、自車両)に接近する他車両の位置を検出し、他車両が自車両に近づくにつれて、画像に係る仮想視点の高さを上昇させたり、当該仮想視点の位置を他車両の運転者の位置に設定したり、する技術が提案されている。   For example, in Patent Document 1, the position of another vehicle approaching the vehicle (that is, the host vehicle) is detected around the vehicle, and the height of the virtual viewpoint related to the image is increased as the other vehicle approaches the host vehicle. Or a technique for setting the position of the virtual viewpoint to the position of the driver of another vehicle has been proposed.

特開2012−253428号公報JP 2012-253428 A

しかしながら、上述のように運転支援画像の表示形態が多様化されていることに伴い、表示された画像について、どのような現実世界を示しているのかを運転者が直感的に認知し難くなりつつあるという問題があった。   However, as the display forms of the driving assistance images are diversified as described above, it is difficult for the driver to intuitively recognize what kind of real world the displayed images represent. There was a problem that there was.

本発明は、運転支援画像の表示形態の多様化に対応させるためになされたものであり、表示画像について運転者が直感的に認知させ易くする技術を提供することを目的としている。   The present invention has been made in order to cope with diversification of display forms of driving assistance images, and an object of the present invention is to provide a technique that makes it easy for a driver to intuitively recognize display images.

本発明の一局面である運転支援装置は、第1の取得部と、第2の取得部と、第1の生成部と、領域推定部と、第2の生成部と、画像出力部と、を備える。第1の取得部は、車両の周囲を撮像する車載装置(以下、第1の車載装置)から当該車両(以下、自車両)の周囲を示す情報を取得する。   A driving support apparatus according to one aspect of the present invention includes a first acquisition unit, a second acquisition unit, a first generation unit, a region estimation unit, a second generation unit, an image output unit, Is provided. A 1st acquisition part acquires the information which shows the circumference | surroundings of the said vehicle (henceforth a self-vehicle) from the vehicle-mounted apparatus (henceforth a 1st vehicle-mounted apparatus) which images the circumference | surroundings of a vehicle.

第2の取得部は、自車両の運転者の顔部分の位置を検出する車載装置(以下、第2の車載装置)から運転者の顔部分の位置を示す情報を取得する。第1の生成部は、第1の取得部により取得した情報に基づく画像(以下、対象画像)を生成する。   A 2nd acquisition part acquires the information which shows the position of a driver | operator's face part from the vehicle-mounted apparatus (henceforth 2nd vehicle-mounted apparatus) which detects the position of the driver | operator's face part of the own vehicle. The first generation unit generates an image (hereinafter, a target image) based on the information acquired by the first acquisition unit.

領域推定部は、第2の取得部により取得した情報を用いて、自車両の周囲のうち運転者が視認可能な範囲に対応する対象画像の領域(以下、可視画像領域)、及び、自車両の周囲のうち運転者から見た死角となる範囲に対応する対象画像の領域(以下、死角画像領域)、のうち少なくとも一つの画像領域を推定する。   The region estimation unit uses the information acquired by the second acquisition unit, and includes a target image region (hereinafter referred to as a visible image region) corresponding to a range that is visible to the driver among the surroundings of the host vehicle, and the host vehicle. At least one image area is estimated from the area of the target image corresponding to the range of the blind spot viewed from the driver (hereinafter, blind spot image area).

第2の生成部は、領域推定部により推定した画像領域に基づき、対象画像において可視画像領域又は死角画像領域の位置及び形状を示す領域画像を対象画像に合成した運転支援画像を生成する。こうして第2の生成部により生成された運転支援画像は、画像出力部によって出力される。   A 2nd production | generation part produces | generates the driving assistance image which synthesize | combined the area | region image which shows the position and shape of a visible image area | region or a blind spot image area | region in a target image based on the image area estimated by the area | region estimation part. The driving support image generated by the second generation unit in this manner is output by the image output unit.

このような構成によれば、運転者の顔部分の位置に応じて推定された可視画像領域及び死角画像領域の少なくとも一方の画像領域が運転支援画像に反映される。このため、運転支援画像では、運転者が視認可能な範囲と、運転者から見た死角となる範囲とが、運転者の視点等に応じた位置及び形状によって識別可能な態様で表示されることになる。したがって、これらの表示範囲を運転者から見た現実世界により近い形態で識別させることにより、表示画像について運転者に直感的に認知させ易くすることができる。   According to such a configuration, at least one of the visible image area and the blind spot image area estimated according to the position of the driver's face is reflected in the driving support image. For this reason, in the driving assistance image, the range that can be visually recognized by the driver and the range that becomes the blind spot viewed from the driver are displayed in a manner that can be identified by the position and shape according to the viewpoint of the driver. become. Therefore, by identifying these display ranges in a form closer to the real world viewed from the driver, the driver can easily make the display image intuitively recognized.

また、本発明の一局面である運転支援方法によれば、上記同様の理由により、本発明の一局面である運転支援装置において既に述べた効果と同様の効果を得ることができる。   Moreover, according to the driving support method which is one aspect of the present invention, the same effect as already described in the driving support device which is one aspect of the present invention can be obtained for the same reason as described above.

運転支援装置1の構成を示すブロック図である。1 is a block diagram showing a configuration of a driving support device 1. FIG. 複数の車載カメラ10の各撮像領域を例示する説明図である。4 is an explanatory diagram illustrating each imaging region of a plurality of in-vehicle cameras 10. FIG. 表示制御ユニット20の機能的な構成を示すブロック図である。3 is a block diagram showing a functional configuration of a display control unit 20. FIG. バックガイドビュー画像又はフロントビュー画像を採用する場合において、(A)は対象画像を示すイメージ図であり、(B)(C)は運転支援画像を示すイメージ図である。In the case of employing the back guide view image or the front view image, (A) is an image diagram showing a target image, and (B) and (C) are image diagrams showing a driving support image. バックガイドビュー画像又はフロントビュー画像を採用する場合において、(A)(B)は運転者毎に形状及び位置が異なる可視画像領域31を示すイメージ図である。In the case of employing a back guide view image or a front view image, (A) and (B) are image diagrams showing visible image regions 31 having different shapes and positions for each driver. アラウンドビュー画像を採用する場合において、(A)は対象画像を示すイメージ図であり、(B)(C)は運転支援画像を示すイメージ図である。In the case of employing an around view image, (A) is an image diagram showing a target image, and (B) and (C) are image diagrams showing a driving support image. 鳥瞰画像を採用する場合において、(A)は対象画像を示すイメージ図であり、(B)は運転支援画像を示すイメージ図である。In the case of adopting a bird's-eye view image, (A) is an image diagram showing a target image, and (B) is an image diagram showing a driving support image. 表示制御ユニット20のCPU12が実行する処理のフローチャートである。4 is a flowchart of processing executed by the CPU 12 of the display control unit 20.

以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.第1実施形態]
[1−1.全体構成]
図1に示す運転支援装置1は、複数の車載カメラ10と、表示制御ユニット20と、ディスプレイ30と、ドライバーステータスモニター40と、を備える。また、図示を省略しているが、運転支援装置1は、車内ローカルエリアネットワーク(以下、車内LAN)に接続されており、車内LANに接続された他の電子制御ユニット(以下、ECU)との間で、各種センサの検出情報やECU内の制御情報等の車両情報を共有するように構成されている。以下の説明では、これらの構成要素が搭載された車両を自車両という。
Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.
[1. First Embodiment]
[1-1. overall structure]
The driving support device 1 illustrated in FIG. 1 includes a plurality of in-vehicle cameras 10, a display control unit 20, a display 30, and a driver status monitor 40. Although not shown, the driving support device 1 is connected to an in-vehicle local area network (hereinafter referred to as an in-vehicle LAN) and is connected to another electronic control unit (hereinafter referred to as an ECU) connected to the in-vehicle LAN. It is configured to share vehicle information such as detection information of various sensors and control information in the ECU. In the following description, a vehicle on which these components are mounted is called a host vehicle.

なお、車内LANは、自車両の内部に配備されているローカルエリアネットワークであり、例えば、周知のCANやFlexRay、LIN、MOST、AVC−LAN等の通信プロトコルを利用して各種情報を伝送するものである。運転支援装置1においては、表示制御ユニット20と、ドライバーステータスモニター40内のECUと、が車内LANに接続されている。   The in-vehicle LAN is a local area network provided in the host vehicle, and transmits various information using a communication protocol such as a well-known CAN, FlexRay, LIN, MOST, or AVC-LAN. It is. In the driving support device 1, the display control unit 20 and the ECU in the driver status monitor 40 are connected to the in-vehicle LAN.

各車載カメラ10は、自車両の周囲を撮像するように自車両に搭載された第1の車載装置として、自車両の前後左右における各位置に設置されている。本実施形態において、各車載カメラ10は、自車両におけるそれぞれの設置位置及び撮像領域に応じて、前方カメラ2と、後方カメラ4と、右側方カメラ6と、左側方カメラ8と、に大別される。   Each in-vehicle camera 10 is installed at each position on the front, rear, left, and right sides of the host vehicle as a first in-vehicle device mounted on the host vehicle so as to image the surroundings of the host vehicle. In the present embodiment, each in-vehicle camera 10 is roughly divided into a front camera 2, a rear camera 4, a right side camera 6, and a left side camera 8 according to the respective installation positions and imaging areas in the host vehicle. Is done.

図2に示すように、前方カメラ2は、自車両の前部(例えば、前部中央部)に搭載され、自車両の前方領域A1を撮像する。後方カメラ4は、自車両の後部(例えば、後部中央部)に搭載され、自車両の後方領域A2を撮像する。右側方カメラ6は、自車両の右側部(例えば、右側バックミラー部)に搭載され、自車両の右側方領域A3を撮像する。左側方カメラ8は、自車両の左側部(例えば、左側バックミラー部)に搭載され、自車両の左側方領域A4を撮像する。   As shown in FIG. 2, the front camera 2 is mounted in the front part (for example, front center part) of the own vehicle, and images the front area A1 of the own vehicle. The rear camera 4 is mounted in the rear part (for example, rear center part) of the host vehicle, and images the rear area A2 of the host vehicle. The right side camera 6 is mounted on the right side part (for example, the right rearview mirror part) of the host vehicle, and images the right side area A3 of the host vehicle. The left side camera 8 is mounted on the left side part (for example, the left rear mirror part) of the host vehicle, and images the left side area A4 of the host vehicle.

また、各車載カメラ10は、各撮像領域の一部が他の少なくとも1つの車載カメラ10の撮像領域の一部と重複する領域(以下、重複領域)を有するように自車両に設置されている。例えば、図2に示すように、前方カメラ2の撮像領域である前方領域A1は、右側方カメラ6の撮像領域である右側方領域A3と一部が重複する右前重複領域OA1と、左側方カメラ8の撮像領域である左側方領域A4と一部が重複する左前重複領域OA2と、を有している。後方カメラ4の撮像領域である後方領域A2は、右側方カメラ6の撮像領域である右側方領域A3と一部が重複する右後重複領域OA3と、左側方カメラ8の撮像領域である左側方領域A4と一部が重複する左後重複領域OA4と、を有している。つまり、撮像領域に重複領域を有するように車載カメラ10を配備することにより、自車両の全周囲をより確実に撮像可能とされている。   In addition, each in-vehicle camera 10 is installed in the host vehicle so that a part of each imaging area has an area (hereinafter, an overlapping area) that overlaps a part of the imaging area of at least one other in-vehicle camera 10. . For example, as shown in FIG. 2, a front area A1 that is an imaging area of the front camera 2 is a right front overlapping area OA1 that partially overlaps with a right side area A3 that is an imaging area of the right side camera 6, and a left side camera. 8 and a left front area A4 that partially overlaps the left front area A4. The rear area A2 that is the imaging area of the rear camera 4 is a right rear overlapping area OA3 that partially overlaps the right area A3 that is the imaging area of the right camera 6 and the left side that is the imaging area of the left camera 8. A left rear overlapping area OA4 that partially overlaps the area A4. That is, by arranging the in-vehicle camera 10 so as to have an overlapping area in the imaging area, it is possible to more reliably image the entire periphery of the host vehicle.

ディスプレイ30は、自車両に搭載される表示装置として、車室内等に設置されるものである。例えば、ディスプレイ30は、液晶ディスプレイ、ヘッドアップディスプレイ、又はこれらの組合せ等によって構成され、自車両の運転者が視認しやすい位置に設置される。   The display 30 is installed in a vehicle interior or the like as a display device mounted on the host vehicle. For example, the display 30 is configured by a liquid crystal display, a head-up display, or a combination thereof, and is installed at a position where the driver of the host vehicle can easily see.

ドライバーステータスモニター40は、自車両の運転者の顔部分の位置を検出する第2の車載装置として、車室内におけるメーターバイザーの下部等に設置されるものである。例えば、ドライバーステータスモニター40は、近赤外線カメラ、ECU、音声出力装置等によって構成される。   The driver status monitor 40 is installed as a second vehicle-mounted device for detecting the position of the face portion of the driver of the host vehicle, such as below the meter visor in the passenger compartment. For example, the driver status monitor 40 includes a near-infrared camera, an ECU, an audio output device, and the like.

ドライバーステータスモニター40のECUは、近赤外線カメラで撮影した運転者の顔部分を含む画像(以下、顔画像)をもとに、運転者の顔の向きや目の開き具合等を解析するものである。そして、ECUは、例えば決められた時間、運転者が目を閉じていたり、正面を向いていなかったりする状態が続いていると判定すると、音声出力装置を介して運転者に警報を行い、これにより安全運転を促す処理を主に行う。   The ECU of the driver status monitor 40 analyzes the direction of the driver's face, the degree of opening of the eyes, and the like based on an image including the driver's face image (hereinafter referred to as a face image) taken with a near-infrared camera. is there. When the ECU determines that the state where the driver closes his eyes or does not face the front continues for a predetermined time, for example, the ECU issues a warning to the driver via the audio output device. The process that encourages safe driving is mainly performed.

詳細には、ドライバーステータスモニター40のECUは、公知の画像認識技術により、顔画像をもとに運転者の顔の輪郭や目、鼻、口等のパーツを検出し、各パーツの位置関係により顔の向きを検出する。本実施形態では、こうして検出された情報のうち、運転者の顔部分の位置(例えば、目の位置)や顔の向きを示す情報を含む、運転者の状態を示す情報(以下、運転者状態情報)が、車内LANを介して、ドライバーステータスモニター40のECUから表示制御ユニット20へ送信される。   Specifically, the ECU of the driver status monitor 40 detects the contours of the driver's face and parts such as eyes, nose and mouth based on the face image using a known image recognition technique, and determines the position of each part. Detect face orientation. In the present embodiment, among the information thus detected, information indicating the driver's state (hereinafter referred to as driver state) including information indicating the position of the driver's face (for example, the position of the eyes) and the orientation of the face. Information) is transmitted from the ECU of the driver status monitor 40 to the display control unit 20 via the in-vehicle LAN.

[1−2.表示制御ユニット20の構成]
表示制御ユニット20は、CPU12と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ14)と、を有する周知のマイクロコンピュータ及び車載ネットワーク用の通信コントローラを中心に構成されたECUである。表示制御ユニット20においては、メモリ14に格納されているプログラムに基づいてCPU12により各種処理が実行される。つまり、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、マイクロコンピュータの数は1つでも複数でもよく、1ないし複数のマイクロコンピュータの各設置場所は車両内部の何れでもよい。
[1-2. Configuration of Display Control Unit 20]
The display control unit 20 is an ECU configured mainly with a known microcomputer having a CPU 12 and a semiconductor memory (hereinafter referred to as a memory 14) such as a RAM, a ROM, and a flash memory, and a communication controller for an in-vehicle network. In the display control unit 20, various processes are executed by the CPU 12 based on a program stored in the memory 14. That is, by executing this program, a method corresponding to the program is executed. Note that the number of microcomputers may be one or more, and each installation place of the one or more microcomputers may be anywhere inside the vehicle.

表示制御ユニット20は、CPU12の各種処理の実行により実現される機能の構成として、図3に示すように、第1の取得部21と、第2の取得部22と、第1の生成部23と、領域推定部24と、第2の生成部25と、画像出力部26と、を備える。なお、表示制御ユニット20が提供するこれら機能の一部又は全部を、一つあるいは複数の論理回路やIC等の電子回路によりハードウェア的に構成してもよい。つまり、表示制御ユニット20においては、ソフトウェアに限らず、ハードウェアあるいはそれらの組合せによっても上記機能を提供することができる。   As shown in FIG. 3, the display control unit 20 includes a first acquisition unit 21, a second acquisition unit 22, and a first generation unit 23 as functions configured by executing various processes of the CPU 12. A region estimation unit 24, a second generation unit 25, and an image output unit 26. Note that some or all of these functions provided by the display control unit 20 may be configured in hardware by one or a plurality of electronic circuits such as logic circuits and ICs. That is, the display control unit 20 can provide the above function not only by software but also by hardware or a combination thereof.

第1の取得部21は、各車載カメラ10から自車両の周囲を示す画像(以下、周囲画像)を取得する。本実施形態では、各車載カメラ10から、前方領域A1、後方領域A2、右側方領域A3、左側方領域A4を撮像した各周囲画像を所定のフレームレートで取得し、これらの周囲画像を互いに識別可能な態様でメモリ14に格納する。なお、メモリ14には、各車載カメラ10の位置及び姿勢を示す外部パラメータや、焦点距離や画像中心や画像サイズや歪収差係数等を示す内部パラメータ等を含む周知のカメラパラメータが格納されている。第1の取得部21は、これらのカメラパラメータのうち一部又は全部を各車載カメラ10から取得しても良い。カメラパラメータは、以下で述べる対象画像や領域画像を生成する際等に用いられる。   The first acquisition unit 21 acquires an image showing the surroundings of the host vehicle (hereinafter referred to as an ambient image) from each in-vehicle camera 10. In the present embodiment, surrounding images obtained by imaging the front area A1, the rear area A2, the right side area A3, and the left side area A4 are acquired from each in-vehicle camera 10 at a predetermined frame rate, and these surrounding images are distinguished from each other. Store in memory 14 in a possible manner. The memory 14 stores known camera parameters including external parameters indicating the position and orientation of each in-vehicle camera 10, internal parameters indicating focal length, image center, image size, distortion aberration coefficient, and the like. . The first acquisition unit 21 may acquire some or all of these camera parameters from each in-vehicle camera 10. The camera parameter is used when generating a target image or a region image described below.

第1の生成部23は、第1の取得部21により取得した情報に基づく画像(以下、対象画像)を生成する。対象画像は、1ないし複数の周囲画像をもとに生成される画像であり、周囲画像そのものでも良いし、複数の周囲画像を繋ぎ合わせた画像であっても良いし、視点変換画像であっても良い。また、対象画像は、複数の視点変換画像を繋ぎ合わせた画像であっても良い。   The first generation unit 23 generates an image (hereinafter referred to as a target image) based on the information acquired by the first acquisition unit 21. The target image is an image generated based on one or more surrounding images, may be the surrounding image itself, may be an image obtained by connecting a plurality of surrounding images, or may be a viewpoint conversion image. Also good. Further, the target image may be an image obtained by connecting a plurality of viewpoint conversion images.

視点変換画像は、車載カメラ10の視点から見た周囲画像を、仮想カメラの視点(すなわち、仮想視点)から見ているかのように座標変換した画像である。例えば、カメラ座標系の光軸を基準とすると、撮像画像上のあらゆる点の座標位置を光軸からの角度と距離とによって求め、これらの座標位置を仮想カメラの光軸に基づいて回転及び並進させることにより、画像を視点変換することができる。つまり、仮想カメラの光軸として、仮想視点の位置及び向きを設定すれば、所望の視点変換画像を得ることが可能となる。なお、画像の視点変換技術は当業者にとって周知のため、その詳細な説明については省略する。   The viewpoint-converted image is an image obtained by coordinate-converting the surrounding image viewed from the viewpoint of the in-vehicle camera 10 as if viewed from the viewpoint of the virtual camera (that is, the virtual viewpoint). For example, when the optical axis of the camera coordinate system is used as a reference, the coordinate position of every point on the captured image is obtained by the angle and distance from the optical axis, and these coordinate positions are rotated and translated based on the optical axis of the virtual camera. By doing so, the viewpoint of the image can be converted. That is, if the position and orientation of the virtual viewpoint are set as the optical axis of the virtual camera, a desired viewpoint converted image can be obtained. Since the viewpoint conversion technique for images is well known to those skilled in the art, detailed description thereof is omitted.

対象画像としては、例えば、バックガイドビュー画像やフロントビュー画像、アラウンドビュー画像、鳥瞰画像等が挙げられる。これらの画像は、ユーザによる運転操作やスイッチ操作等によって切り替えることができる。この切り替えに係る制御は、表示制御ユニット20が行っても良いし、自車両内の他のECUが行っても良い。他のECUが行う場合には、その切り替えに係る制御指示が、車内LANを介して、当該他のECUから表示制御ユニット20へ送信される。   Examples of the target image include a back guide view image, a front view image, an around view image, a bird's eye image, and the like. These images can be switched by a driving operation or a switch operation by the user. The control related to this switching may be performed by the display control unit 20 or may be performed by another ECU in the host vehicle. When another ECU performs, a control instruction related to the switching is transmitted from the other ECU to the display control unit 20 via the in-vehicle LAN.

バックガイドビュー画像は、例えば、後方領域A2を撮像した周囲画像に基づく画像に、車庫入れや駐車等の後退運転時にハンドル操作の参考となる予想進路線や距離目安線を重畳した態様で表示する画像である。フロントビュー画像は、例えば、前方領域A1を撮像した周囲画像を、自車両の発進時等に死角になりやすい自車両付近の安全確認を行える態様に加工した画像である。アラウンドビュー画像は、例えば、前方領域A1、後方領域A2、右側方領域A3及び左側方領域A4を撮像した各周囲画像のうち少なくとも2つの画像を繋ぎ合わせた画像をもとに加工した画像である。鳥瞰画像は、例えば、自車両の真上から自車両の周囲を見た態様に加工された視点変換画像である。これら画像の生成方法は当業者にとって周知のため、その詳細な説明については省略する。   For example, the back guide view image is displayed in such a manner that an estimated route line or a reference distance line that is a reference for steering operation is superimposed on an image based on a surrounding image obtained by imaging the rear area A2 during reverse operation such as garage entry or parking. It is an image. The front view image is, for example, an image obtained by processing a surrounding image obtained by imaging the front area A1 into a mode in which safety confirmation can be performed near the host vehicle that is likely to be a blind spot when the host vehicle starts. The around view image is an image processed based on an image obtained by joining at least two of the surrounding images obtained by imaging the front area A1, the rear area A2, the right side area A3, and the left side area A4, for example. . The bird's-eye view image is, for example, a viewpoint-converted image that has been processed so that the surroundings of the host vehicle are viewed from directly above the host vehicle. Since these image generation methods are well known to those skilled in the art, a detailed description thereof will be omitted.

第2の取得部22は、ドライバーステータスモニター40から、運転者の顔部分の位置を示す情報を取得する。本実施形態では、運転者の目の位置を示す情報と、運転者の顔の向きを示す情報と、を含む運転者状態情報を、ドライバーステータスモニター40から車内LANを介して所定の周期で取得する。そして、この運転者状態情報を、第1の取得部21により周囲画像を取得したタイミングと対応付けてメモリ14に格納する。なお、第1の生成部により生成される対象画像は、運転者の目の位置を仮想視点の位置、運転者の顔の向きを仮想視点の向きとした視点変換画像であっても良い。   The second acquisition unit 22 acquires information indicating the position of the driver's face from the driver status monitor 40. In the present embodiment, driver status information including information indicating the position of the driver's eyes and information indicating the driver's face orientation is acquired from the driver status monitor 40 via the in-vehicle LAN at a predetermined cycle. To do. Then, this driver state information is stored in the memory 14 in association with the timing when the surrounding image is acquired by the first acquisition unit 21. The target image generated by the first generation unit may be a viewpoint conversion image in which the position of the driver's eyes is the position of the virtual viewpoint and the direction of the driver's face is the direction of the virtual viewpoint.

領域推定部24は、第2の取得部22により取得した情報を用いて、自車両の周囲のうち運転者が視認可能な範囲に対応する対象画像の領域(以下、可視画像領域31)、及び、自車両の周囲のうち運転者から見た死角となる範囲に対応する対象画像の領域(以下、死角画像領域32)、のうち少なくとも一つの画像領域を推定する。本実施形態において、領域推定部24は、画像領域について、運転者の目の位置に応じた形状を推定する。   Using the information acquired by the second acquisition unit 22, the region estimation unit 24 uses a region of the target image corresponding to a range that can be visually recognized by the driver in the vicinity of the host vehicle (hereinafter, visible image region 31), and Then, at least one image area is estimated from the area of the target image (hereinafter, the blind spot image area 32) corresponding to the range that becomes the blind spot viewed from the driver in the periphery of the host vehicle. In the present embodiment, the region estimation unit 24 estimates a shape corresponding to the position of the driver's eyes for the image region.

具体的には、対象画像としてバックガイドビュー画像やフロントビュー画像が採用される場合、領域推定部24は、図4(A)に示す対象画像から、自車両のピラーやルーフパネルやリアパネル又はフロントパネルによって運転者の視界が遮られる領域を、図4(B)に示す死角画像領域32として推定する。そして、本実施形態では、対象画像のうち、死角画像領域32を除く領域を可視画像領域31として推定する。なお、メモリ14には、自車両のフレーム各部やドア等の形状及び位置や、自車両のミラーの形状及び位置等を示す座標に関する情報(以下、車体情報)が、カメラ座標に変換可能な態様で記憶されている。つまり、領域推定部24による画像領域の推定には、メモリ14に記憶されている車体情報が用いられる。   Specifically, when a back guide view image or a front view image is adopted as the target image, the region estimation unit 24 determines the pillar, roof panel, rear panel, or front panel of the host vehicle from the target image shown in FIG. A region where the driver's field of view is blocked by the panel is estimated as a blind spot image region 32 shown in FIG. In the present embodiment, a region excluding the blind spot image region 32 in the target image is estimated as the visible image region 31. The memory 14 is a mode in which information (hereinafter referred to as vehicle body information) relating to coordinates indicating the shape and position of each part of the vehicle frame, doors, etc., and the shape and position of the mirror of the own vehicle can be converted into camera coordinates. Is remembered. That is, the vehicle body information stored in the memory 14 is used for the image region estimation by the region estimation unit 24.

詳細には、本実施形態では、領域推定部24において、可視画像領域31は、運転者状態情報に基づいて、図4(C)に示すように、運転者の目の高さに応じた位置及び形状に補正される。つまり、運転者が車室内から車室外を見たときの車室外の見え方(以下、視界)は、運転者の目の位置によって異なるため、可視画像領域31の位置及び形状を変更するようにしている。   Specifically, in the present embodiment, in the region estimation unit 24, the visible image region 31 is based on the driver state information, as shown in FIG. And the shape is corrected. That is, when the driver looks out of the passenger compartment from the passenger compartment, the appearance outside the passenger compartment (hereinafter referred to as the field of view) differs depending on the position of the driver's eyes, so the position and shape of the visible image region 31 are changed. ing.

例えば、図5(A)に示す運転者Aの視界に対応する可視画像領域31は、運転者Aよりも背が高い図5(B)に示す運転者Bの視界に対応する可視画像領域31と比較して、ルーフパネル側(すなわち、上方)にシフトしたものとなる。また、可視画像領域31の形状については、図5(A)に示す下辺に対する上辺の長さの割合が図5(B)に示すものよりも大きくなる。逆に言うと、図5(B)に示す運転者Bの視界に対応する可視画像領域31は、運転者Aよりも背が低い図5(A)に示す運転者Aの視界に対応する可視画像領域31と比較して、リアパネル又はフロントパネル側(すなわち、下方)にシフトしたものとなる。また、可視画像領域31の形状については、図5(B)に示す下辺に対する上辺の長さの割合が図5(A)に示すものよりも小さくなる。つまり、こうした可視画像領域31の位置及び形状の推定精度を上げるために、運転者状態情報のうち、運転者の目の位置を示す情報を用いている。   For example, the visible image region 31 corresponding to the field of view of the driver A shown in FIG. 5A is higher than the driver A and the visible image region 31 corresponding to the field of view of the driver B shown in FIG. Compared to the above, it is shifted to the roof panel side (that is, upward). As for the shape of the visible image region 31, the ratio of the length of the upper side to the lower side shown in FIG. 5A is larger than that shown in FIG. Conversely, the visible image region 31 corresponding to the field of view of the driver B shown in FIG. 5B is visible corresponding to the field of view of the driver A shown in FIG. Compared with the image area 31, it is shifted to the rear panel or front panel side (ie, downward). Regarding the shape of the visible image region 31, the ratio of the length of the upper side to the lower side shown in FIG. 5B is smaller than that shown in FIG. That is, in order to improve the estimation accuracy of the position and shape of the visible image region 31, information indicating the position of the driver's eyes is used in the driver state information.

また、具体的には、対象画像としてアラウンドビュー画像が採用される場合、領域推定部24は、図6(A)に示す対象画像から、自車両のピラーやフロントパネルやドアによって運転者の視界が遮られる領域を、図6(B)に示す死角画像領域32として推定する。そして、本実施形態では、対象画像のうち、死角画像領域32を除く領域を可視画像領域31として推定する。   Specifically, when an around-view image is adopted as the target image, the region estimation unit 24 determines the driver's field of view from the target image shown in FIG. An area where the image is blocked is estimated as a blind spot image area 32 shown in FIG. In the present embodiment, a region excluding the blind spot image region 32 in the target image is estimated as the visible image region 31.

この可視画像領域31についても、運転者状態情報に基づいて、図6(C)に示すように、運転者の目の高さに応じた位置及び形状に補正される。例えば、図6(C)に示す可視画像領域31は、図6(B)に示す可視画像領域31と比較して、下方にシフトしたものとなり、またピラーの位置が左側にシフトしたものとなる。逆に言うと、図6(B)に示す可視画像領域31は、図6(C)に示す可視画像領域31と比較して、上方にシフトしたものとなり、またピラーの位置が右側にシフトしたものとなる。   The visible image region 31 is also corrected to a position and shape according to the height of the driver's eyes, as shown in FIG. 6C, based on the driver state information. For example, the visible image region 31 shown in FIG. 6C is shifted downward compared to the visible image region 31 shown in FIG. 6B, and the pillar position is shifted to the left. . In other words, the visible image region 31 shown in FIG. 6B is shifted upward as compared with the visible image region 31 shown in FIG. 6C, and the pillar position is shifted to the right side. It will be a thing.

また、具体的には、対象画像として鳥瞰画像が採用される場合、領域推定部24は、図7(A)に示す対象画像から、自車両のフレーム各部やドア等によって運転者の視界が遮られる領域から、バックミラーによって運転者が視認可能な領域を除く領域を、図7(B)に示す死角画像領域32として推定する。そして、本実施形態では、対象画像のうち、死角画像領域32を除く領域を可視画像領域31として推定する。例えば、バックミラーによって運転者が視認可能な領域については、運転者の目の位置と、車体情報が示す自車両のミラーの形状及び位置の座標と、に基づいて推定することができる。   Specifically, when a bird's-eye view image is adopted as the target image, the region estimation unit 24 blocks the driver's view from the target image shown in FIG. The area excluding the area that can be visually recognized by the driver by the rearview mirror is estimated as the blind spot image area 32 shown in FIG. In the present embodiment, a region excluding the blind spot image region 32 in the target image is estimated as the visible image region 31. For example, the region that can be visually recognized by the driver using the rearview mirror can be estimated based on the position of the driver's eyes and the coordinates of the shape and position of the mirror of the host vehicle indicated by the vehicle body information.

第2の生成部25は、領域推定部24により推定した画像領域に基づき、対象画像において可視画像領域31又は死角画像領域32の位置及び形状を示す領域画像を対象画像に合成した運転支援画像を生成する。この領域画像は、少なくとも可視画像領域31と死角画像領域32との境界が識別可能な態様であれば良く、例えば、境界線によって示される画像であっても良いし、領域によって示される画像であっても良い。   Based on the image region estimated by the region estimation unit 24, the second generation unit 25 generates a driving assistance image obtained by combining the target image with a region image indicating the position and shape of the visible image region 31 or the blind spot image region 32 in the target image. Generate. The region image may be an aspect in which at least the boundary between the visible image region 31 and the blind spot image region 32 can be identified. For example, the region image may be an image indicated by a boundary line or an image indicated by the region. May be.

具体的には、例えば、対象画像がバックガイドビュー画像やフロントビュー画像やアラウンドビュー画像である場合、第2の生成部25は、自車両のピラーやルーフパネルやリアパネル又はフロントパネルやドアの位置及び形状を模擬した画像を、死角画像領域32の領域画像として生成する。そして、生成した領域画像を対象画像に重畳することにより運転支援画像を生成する。   Specifically, for example, when the target image is a back guide view image, a front view image, or an around view image, the second generation unit 25 determines the position of the pillar, roof panel, rear panel, front panel, or door of the host vehicle. Then, an image simulating the shape is generated as an area image of the blind spot image area 32. Then, the driving support image is generated by superimposing the generated region image on the target image.

この場合、領域画像は、上記のように模擬した部分の輪郭(すなわち、死角画像領域32の輪郭)を示す画像でも良い。また、領域画像は、上記のように重畳した画像部分において、領域画像を上位のレイヤー、対象画像を下位のレイヤーとし、下位のレイヤーである対象画像が見えるように、輝度、明度、若しくは不透明度が調整された画像でも良いし、これに輪郭を付加した画像でも良い。   In this case, the area image may be an image showing the outline of the part simulated as described above (that is, the outline of the blind spot image area 32). In addition, the region image has the brightness, brightness, or opacity so that the region image is the upper layer, the target image is the lower layer, and the lower layer target image can be seen in the superimposed image portion as described above. The image may be an image in which is adjusted, or may be an image with an outline added thereto.

あるいは、領域画像は、可視画像領域31の輪郭を示す画像でも良いし、可視画像領域31自体を示す画像であっても良い。この場合も、領域画像は、上記のように重畳した部分において、領域画像を上位のレイヤー、対象画像を下位のレイヤーとし、下位のレイヤーである対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像でも良いし、これに輪郭を付加した画像でも良い。また、これに代えて、あるいはこれに加えて、領域画像は、可視画像領域31にハッチングが施された画像であっても良い。   Alternatively, the region image may be an image showing the outline of the visible image region 31 or an image showing the visible image region 31 itself. Also in this case, the region image has the luminance, brightness, or opacity so that the region image is the upper layer and the target image is the lower layer, and the lower layer target image can be seen in the overlapped portion as described above. The image may be an image in which is adjusted, or may be an image with an outline added thereto. In addition to or in addition to this, the area image may be an image in which the visible image area 31 is hatched.

例えば、対象画像として鳥瞰画像が採用される場合、第2の生成部25は、図7(B)に示すように、バックミラーによるものを含む運転者が視認可能な領域(すなわち、可視画像領域31)にハッチングを施した画像を領域画像とし、対象画像と合成することができる。この場合も、領域画像は、上記のように重畳した部分において、領域画像を上位のレイヤー、対象画像を下位のレイヤーとし、下位のレイヤーである対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像であっても良いし、これに輪郭を付加した画像であっても良い。あるいは、逆に、死角画像領域32にハッチングを施した画像を領域画像としても良い。   For example, when a bird's-eye view image is employed as the target image, the second generation unit 25 can display an area (that is, a visible image area) that is visible to the driver, including a rear-view mirror, as illustrated in FIG. 31) The hatched image can be used as a region image and can be combined with the target image. Also in this case, the region image has the luminance, brightness, or opacity so that the region image is the upper layer and the target image is the lower layer, and the lower layer target image can be seen in the overlapped portion as described above. May be an image in which is adjusted, or may be an image with an outline added thereto. Alternatively, an image obtained by hatching the blind spot image area 32 may be used as the area image.

画像出力部26は、第2の生成部25により生成された運転支援画像を出力する。具体的には、第2の生成部25により生成された運転支援画像をディスプレイ30に表示する。   The image output unit 26 outputs the driving support image generated by the second generation unit 25. Specifically, the driving support image generated by the second generation unit 25 is displayed on the display 30.

[1−3.処理]
次に、表示制御ユニット20のCPU12が実行する処理の一例について、図8のフローチャートを用いて説明する。なお、本処理は、例えば自車両のイグニッションスイッチがON状態であり、運転支援機能に係るスイッチがONされている間、所定サイクル毎に繰り返し起動される。
[1-3. processing]
Next, an example of processing executed by the CPU 12 of the display control unit 20 will be described with reference to the flowchart of FIG. In addition, this process is repeatedly started for every predetermined cycle, for example, while the ignition switch of the own vehicle is in an ON state and the switch related to the driving support function is turned on.

本処理が起動すると、S110において第1の取得部21は、各車載カメラ10から周囲画像を取得する。本実施形態においては、このとき、第1の取得部21は、各車載カメラ10からカメラパラメータも取得する。   When this process is activated, the first acquisition unit 21 acquires a surrounding image from each in-vehicle camera 10 in S110. In this embodiment, the 1st acquisition part 21 also acquires a camera parameter from each vehicle-mounted camera 10 at this time.

S120において第2の取得部22は、ドライバーステータスモニター40から運転者状態情報を取得する。
S130において第1の生成部23は、第1の取得部21により取得した周囲画像をもとに、対象画像を生成する。対象画像としては、バックガイドビュー画像やフロントビュー画像、アラウンドビュー画像、鳥瞰画像等があり、これらの画像からユーザによる運転操作やスイッチ操作等の内容に応じた画像が選択される。
In S120, the second acquisition unit 22 acquires the driver state information from the driver status monitor 40.
In S <b> 130, the first generation unit 23 generates a target image based on the surrounding image acquired by the first acquisition unit 21. Examples of the target image include a back guide view image, a front view image, an around view image, a bird's eye image, and the like, and an image corresponding to a content such as a driving operation or a switch operation by the user is selected from these images.

S140において領域推定部24は、S120で取得した運転者状態情報を用いて、運転者の目の位置から見て死角となる範囲に対応する死角画像領域32を、S130で生成した対象画像において推定する。または、運転者の目の位置から見て運転者の視認可能な範囲に対応する可視画像領域31を、S130で生成した対象画像において推定する。   In S140, the region estimation unit 24 uses the driver state information acquired in S120 to estimate the blind spot image region 32 corresponding to the range that is a blind spot when viewed from the driver's eye position in the target image generated in S130. To do. Or the visible image area | region 31 corresponding to the range which a driver | operator can visually recognize seeing from the position of a driver | operator's eyes is estimated in the object image produced | generated by S130.

S150において第2の生成部25は、S140で推定した画像領域に相当する領域画像を生成し、生成した領域画像を、S130で生成した対象画像に重畳することにより、領域画像を対象画像に合成する。例えば、領域画像としては、対象画像のうち、死角画像領域32を目立たせるために、可視画像領域31の輝度や明度を落としたり、可視画像領域31を半透明にするように不透明度を上げたり、可視画像領域31にハッチングを施したりするためのフィルター効果を有する画像(以下、フィルター画像)が使用される。また例えば、領域画像としては、対象画像のうち、死角画像領域32を目立たせるために、死角画像領域32の輪郭を強調した画像(以下、強調画像)や、死角画像領域32の輝度や明度を上げたり、死角画像領域32の不透明度を下げたりするためのフィルター画像が使用される。なお、領域画像としては、複数の各種フィルター画像を組み合わせて使用しても良いし、フィルター画像と強調画像とを組み合わせて使用しても良い。   In S150, the second generation unit 25 generates a region image corresponding to the image region estimated in S140, and superimposes the generated region image on the target image generated in S130, thereby synthesizing the region image with the target image. To do. For example, as the region image, in order to make the blind spot image region 32 conspicuous among the target images, the luminance and brightness of the visible image region 31 are decreased, or the opacity is increased so that the visible image region 31 is translucent. An image having a filter effect for hatching the visible image region 31 (hereinafter referred to as a filter image) is used. Further, for example, as the area image, an image in which the outline of the blind spot image area 32 is emphasized (hereinafter referred to as an emphasized image) or the brightness and brightness of the blind spot image area 32 in order to make the blind spot image area 32 stand out among the target images. A filter image for increasing or decreasing the opacity of the blind spot image area 32 is used. As the region image, a plurality of various filter images may be used in combination, or a filter image and an enhanced image may be used in combination.

S160において画像出力部26は、S150で領域画像を対象画像に合成した画像を運転支援画像としてディスプレイ30に表示し、本処理を終了する。
[1−4.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
In S160, the image output unit 26 displays an image obtained by combining the region image with the target image in S150 on the display 30 as a driving support image, and ends this processing.
[1-4. effect]
According to the first embodiment described in detail above, the following effects can be obtained.

(1a)運転者の顔部分の位置に応じて推定された可視画像領域31及び死角画像領域32の少なくとも一方の画像領域が運転支援画像に反映されるため、運転支援画像では、運転者が視認可能な範囲と、運転者から見た死角となる範囲とが、運転者の視点等に応じた位置及び形状によって識別可能な態様で表示されることになる。したがって、これらの表示範囲を運転者から見た現実世界により近い形態で識別させることにより、表示画像について運転者に直感的に認知させ易くすることができる。   (1a) Since at least one of the visible image area 31 and the blind spot image area 32 estimated according to the position of the driver's face is reflected in the driving support image, the driver can visually recognize the driving support image. The possible range and the range that becomes the blind spot as seen from the driver are displayed in a manner that can be identified by the position and shape according to the viewpoint of the driver. Therefore, by identifying these display ranges in a form closer to the real world viewed from the driver, the driver can easily make the display image intuitively recognized.

(2a)画像領域について運転者の目に応じた形状を推定するため、運転者の目の位置に応じた形状に可視画像領域31及び死角画像領域32の少なくとも一方の画像領域が加工されることになる。このため、運転者から見た現実世界によりもっと近い形態で識別させることが可能となり、ひいては表示画像について運転者により直感的に認知させ易くすることができる。   (2a) In order to estimate the shape of the image area according to the eyes of the driver, at least one of the visible image area 31 and the blind spot image area 32 is processed into a shape according to the position of the driver's eyes. become. For this reason, it becomes possible to identify in a form closer to the real world seen from the driver, and as a result, the driver can easily make the display image intuitively recognized by the driver.

(3a)死角画像領域32の位置及び形状を示す領域画像を上位のレイヤーとし、下位のレイヤーである対象画像が見えるように不透明度等が調整された領域画像や、死角画像領域32の輪郭を示す領域画像を、対象画像に重畳させる。このため、対象画像において死角画像領域32を目立たせることができ、運転者により注意を向けさせたい表示範囲を運転者に直感的に認知させ易くすることができる。   (3a) An area image indicating the position and shape of the blind spot image area 32 is used as an upper layer, and an area image whose opacity is adjusted so that the target image as a lower layer can be seen, and the outline of the blind spot image area 32 are displayed. The region image shown is superimposed on the target image. For this reason, the blind spot image area 32 can be made conspicuous in the target image, and the driver can easily make the driver intuitively recognize the display range that the driver wants to pay attention to.

(4a)可視画像領域31の位置及び形状を示す領域画像を上位のレイヤーとし、下位のレイヤーである対象画像が見えるように不透明度等が調整された領域画像や、可視画像領域31にハッチングが施された領域画像を、対象画像に重畳させる。このため、対象画像において死角画像領域32を相対的に目立たせることができ、運転者により注意を向けさせたい表示範囲を運転者に直感的に認知させ易くすることができる。   (4a) An area image indicating the position and shape of the visible image area 31 is set as an upper layer, and an area image whose opacity or the like is adjusted so that the lower layer target image can be seen, or the visible image area 31 is hatched. The applied region image is superimposed on the target image. For this reason, the blind spot image region 32 can be made relatively conspicuous in the target image, and the driver can easily make the driver intuitively recognize the display range that the driver wants to pay attention to.

[2.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other Embodiments]
As mentioned above, although the form for implementing this invention was demonstrated, this invention is not limited to the above-mentioned embodiment, It can implement in various deformation | transformation.

(2A)上記実施形態では、バックガイドビュー画像やフロントビュー画像、アラウンドビュー画像、鳥瞰画像等の対象画像を、ユーザによる運転操作やスイッチ操作等の内容に応じて選択しているが、これに限定されるものではない。例えば、自車両の周囲の状況や走行シーン等において対象画像の種別を変更しても良い。自車両の周囲の状況としては、例えば歩行者や他車両等の有無が挙げられる。また、走行シーンとしては、例えば高速道路や一般道路や市街地等といった走行環境の種別や、高速運転時や低速運転時等といった自車速に基づく種別等が挙げられる。   (2A) In the above embodiment, the target images such as the back guide view image, the front view image, the around view image, and the bird's eye view image are selected according to the contents of the driving operation and the switch operation by the user. It is not limited. For example, the type of the target image may be changed in a situation around the host vehicle, a traveling scene, or the like. Examples of the situation around the host vehicle include the presence or absence of pedestrians and other vehicles. Further, examples of the driving scene include a type of driving environment such as a highway, a general road, and a city area, and a type based on the own vehicle speed such as high speed driving and low speed driving.

(2B)上記実施形態では、複数の車載カメラ10が撮像した周囲画像に基づいて対象画像を作成しているが、これに限定されるものではなく、1つの車載カメラ10が撮像した周囲画像に基づいて対象画像を作成するようにしても良い。つまり、運転支援装置1は、1つの車載カメラ10を備えて構成されても良い。   (2B) In the above embodiment, the target image is created based on the surrounding images captured by the plurality of in-vehicle cameras 10, but the present invention is not limited to this, and the surrounding image captured by one in-vehicle camera 10 is used. The target image may be created based on the result. That is, the driving support device 1 may be configured to include one on-vehicle camera 10.

(2C)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (2C) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claims are embodiments of the present disclosure.

(2D)上述した運転支援装置1の他、当該運転支援装置1を構成要素とするシステム、当該運転支援装置1としてコンピュータを機能させるための1ないし複数のプログラム、このプログラムの少なくとも一部を記録した1ないし複数の半導体メモリ等の非遷移的実体的記録媒体、運転支援方法など、種々の形態で本発明を実現することもできる。   (2D) In addition to the driving support device 1 described above, a system including the driving support device 1 as a constituent element, one or more programs for causing the computer to function as the driving support device 1, and at least a part of the program are recorded. The present invention can also be realized in various forms such as a non-transitional tangible recording medium such as one or a plurality of semiconductor memories and a driving support method.

1…運転支援装置、10…車載カメラ、12…CPU、14…メモリ、20…表示制御ユニット、21…第1の取得部、22…第2の取得部、23…第1の生成部、24…領域推定部、25…第2の生成部、26…画像出力部、30…ディスプレイ、31…可視画像領域、32…死角画像領域、40…ドライバーステータスモニター   DESCRIPTION OF SYMBOLS 1 ... Driving assistance device, 10 ... Car-mounted camera, 12 ... CPU, 14 ... Memory, 20 ... Display control unit, 21 ... 1st acquisition part, 22 ... 2nd acquisition part, 23 ... 1st production | generation part, 24 ... area estimation unit, 25 ... second generation unit, 26 ... image output unit, 30 ... display, 31 ... visible image area, 32 ... blind spot image area, 40 ... driver status monitor

Claims (5)

車両の周囲を撮像する車載装置を第1の車載装置として、前記第1の車載装置から前記車両の周囲を示す情報を取得する第1の取得部と、
前記車両の運転者の顔部分の位置を検出する車載装置を第2の車載装置として、前記第2の車載装置から前記運転者の顔部分の位置を示す情報を取得する第2の取得部と、
前記第1の取得部により取得した情報に基づく画像を対象画像として生成する第1の生成部と、
前記第2の取得部により取得した情報を用いて、前記車両の周囲のうち前記運転者が視認可能な範囲に対応する前記対象画像の領域である可視画像領域、及び、前記車両の周囲のうち前記運転者から見た死角となる範囲に対応する前記対象画像の領域である死角画像領域、のうち少なくとも一つの画像領域を推定する領域推定部と、
前記領域推定部により推定した画像領域に基づき、前記対象画像において前記可視画像領域又は前記死角画像領域の位置及び形状を示す領域画像を前記対象画像に合成した運転支援画像を生成する第2の生成部と、
前記第2の生成部により生成された運転支援画像を出力する画像出力部と、
を備える運転支援装置。
A first acquisition unit that acquires information indicating the periphery of the vehicle from the first in-vehicle device, wherein the in-vehicle device that images the surroundings of the vehicle is a first in-vehicle device;
A second acquisition unit that acquires information indicating the position of the driver's face portion from the second in-vehicle device, wherein the in-vehicle device that detects the position of the face portion of the driver of the vehicle is a second in-vehicle device; ,
A first generation unit that generates an image based on information acquired by the first acquisition unit as a target image;
Using the information acquired by the second acquisition unit, a visible image region that is a region of the target image corresponding to a range that is visible to the driver in the periphery of the vehicle, and the periphery of the vehicle A region estimation unit that estimates at least one image region of the blind image region that is a region of the target image corresponding to a range that is a blind spot viewed from the driver;
Second generation for generating a driving support image in which a region image indicating a position and a shape of the visible image region or the blind spot image region in the target image is combined with the target image based on the image region estimated by the region estimation unit. And
An image output unit that outputs the driving assistance image generated by the second generation unit;
A driving support apparatus comprising:
請求項1に記載の運転支援装置であって、
前記第2の取得部により取得される情報には、前記運転者の目の位置を示す情報が含まれており、
前記領域推定部は、前記画像領域について、前記運転者の目の位置に応じた形状を推定する、運転支援装置。
The driving support device according to claim 1,
The information acquired by the second acquisition unit includes information indicating the position of the driver's eyes,
The region estimation unit is a driving support device that estimates a shape of the image region according to the position of the driver's eyes.
請求項1又は請求項2に記載の運転支援装置であって、
前記第2の生成部は、前記対象画像において前記死角画像領域の位置及び形状を示す領域画像を上位のレイヤーとして前記対象画像に合成し、
前記第2の生成部により合成される領域画像は、前記領域画像との重畳部分において下位のレイヤーである前記対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像、前記死角画像領域の輪郭を示す画像、又は、これらの組合せによる画像である、運転支援装置。
The driving support device according to claim 1 or 2,
The second generation unit synthesizes a region image indicating the position and shape of the blind spot image region in the target image as an upper layer in the target image,
The region image synthesized by the second generation unit is an image in which brightness, brightness, or opacity is adjusted so that the target image that is a lower layer can be seen in the overlapping portion with the region image, the blind spot image A driving support device, which is an image showing an outline of a region or an image based on a combination thereof.
請求項1又は請求項2に記載の運転支援装置であって、
前記第2の生成部は、前記対象画像において前記可視画像領域の位置及び形状を示す領域画像を上位のレイヤーとして前記対象画像に合成し、
前記第2の生成部により合成される領域画像は、前記領域画像との重畳部分において下位のレイヤーである前記対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像、前記可視画像領域にハッチングが施された画像、又は、これらの組合せによる画像である、運転支援装置。
The driving support device according to claim 1 or 2,
The second generation unit synthesizes an area image indicating the position and shape of the visible image area in the target image as an upper layer to the target image,
The region image synthesized by the second generation unit is an image in which luminance, brightness, or opacity is adjusted so that the target image that is a lower layer can be seen in a superimposed portion with the region image, the visible image A driving assistance device, which is an image in which an area is hatched, or an image obtained by a combination thereof.
車両の周囲を撮像する車載装置を第1の車載装置として、前記第1の車載装置から前記車両の周囲を示す情報を取得する第1の取得工程と、
前記車両の運転者の顔部分の位置を検出する車載装置を第2の車載装置として、前記第2の車載装置から前記運転者の顔部分の位置を示す情報を取得する第2の取得工程と、
前記第1の取得工程により取得した情報に基づく画像を対象画像として生成する第1の生成工程と、
前記第2の取得工程により取得した情報を用いて、前記車両の周囲のうち前記運転者が視認可能な範囲に対応する前記対象画像の領域である可視画像領域、及び、前記車両の周囲のうち前記運転者から見た死角となる範囲に対応する前記対象画像の領域である死角画像領域、のうち少なくとも一つの画像領域を推定する領域推定工程と、
前記領域推定工程により推定した画像領域に基づき、前記対象画像において前記可視画像領域又は前記死角画像領域の位置及び形状を示す領域画像を前記対象画像に合成した運転支援画像を生成する第2の生成工程と、
前記第2の生成工程により生成された運転支援画像を出力する画像出力工程と、
を備える運転支援方法。
A first acquisition step of acquiring information indicating the periphery of the vehicle from the first in-vehicle device, wherein the in-vehicle device that images the surroundings of the vehicle is a first in-vehicle device;
A second acquisition step of acquiring information indicating the position of the driver's face portion from the second in-vehicle device, wherein the in-vehicle device that detects the position of the face portion of the driver of the vehicle is a second in-vehicle device; ,
A first generation step of generating an image based on the information acquired in the first acquisition step as a target image;
Using the information acquired in the second acquisition step, the visible image region that is the region of the target image corresponding to the range that the driver can visually recognize in the periphery of the vehicle, and the periphery of the vehicle A region estimation step for estimating at least one image region of the blind image region that is a region of the target image corresponding to a range that is a blind spot viewed from the driver;
Second generation for generating a driving support image in which a region image indicating the position and shape of the visible image region or the blind spot image region in the target image is combined with the target image based on the image region estimated in the region estimation step. Process,
An image output step of outputting the driving support image generated by the second generation step;
A driving support method comprising:
JP2015247440A 2015-12-18 2015-12-18 Driving support apparatus and driving support method Pending JP2017111739A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015247440A JP2017111739A (en) 2015-12-18 2015-12-18 Driving support apparatus and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015247440A JP2017111739A (en) 2015-12-18 2015-12-18 Driving support apparatus and driving support method

Publications (1)

Publication Number Publication Date
JP2017111739A true JP2017111739A (en) 2017-06-22

Family

ID=59080775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015247440A Pending JP2017111739A (en) 2015-12-18 2015-12-18 Driving support apparatus and driving support method

Country Status (1)

Country Link
JP (1) JP2017111739A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004144A (en) * 2018-06-29 2020-01-09 国立大学法人金沢大学 Obstacle map generation device and autonomous mobile body
WO2020122084A1 (en) * 2018-12-11 2020-06-18 ソニー株式会社 Image processing device, image processing method, and image processing system
WO2020122079A1 (en) * 2018-12-11 2020-06-18 ソニー株式会社 Image processing device, image processing method, and image processing system
WO2020122085A1 (en) * 2018-12-11 2020-06-18 ソニー株式会社 Image processing device, image processing method, and image processing system
JP7484270B2 (en) 2020-03-18 2024-05-16 株式会社デンソー Measurement device unit for use on vehicle and obstacle detection method for vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196645A (en) * 2001-12-28 2003-07-11 Equos Research Co Ltd Image processing device of vehicle
JP2005269010A (en) * 2004-03-17 2005-09-29 Olympus Corp Image creating device, program and method
JP2012052934A (en) * 2010-09-01 2012-03-15 Fujitsu Ten Ltd Portable navigation device
JP2014198531A (en) * 2013-03-29 2014-10-23 アイシン精機株式会社 Image display controller, image display system, and display unit
JP2015055881A (en) * 2013-09-10 2015-03-23 三菱電機株式会社 Information processing device, information display device and display control method
JP2015109681A (en) * 2015-01-09 2015-06-11 キヤノン株式会社 Image processing method, image processing apparatus, image processing program, and imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196645A (en) * 2001-12-28 2003-07-11 Equos Research Co Ltd Image processing device of vehicle
JP2005269010A (en) * 2004-03-17 2005-09-29 Olympus Corp Image creating device, program and method
JP2012052934A (en) * 2010-09-01 2012-03-15 Fujitsu Ten Ltd Portable navigation device
JP2014198531A (en) * 2013-03-29 2014-10-23 アイシン精機株式会社 Image display controller, image display system, and display unit
JP2015055881A (en) * 2013-09-10 2015-03-23 三菱電機株式会社 Information processing device, information display device and display control method
JP2015109681A (en) * 2015-01-09 2015-06-11 キヤノン株式会社 Image processing method, image processing apparatus, image processing program, and imaging apparatus

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004144A (en) * 2018-06-29 2020-01-09 国立大学法人金沢大学 Obstacle map generation device and autonomous mobile body
JP7121361B2 (en) 2018-06-29 2022-08-18 国立大学法人金沢大学 Autonomous mobile
JPWO2020122079A1 (en) * 2018-12-11 2021-10-21 ソニーグループ株式会社 Image processing equipment, image processing method and image processing system
WO2020122084A1 (en) * 2018-12-11 2020-06-18 ソニー株式会社 Image processing device, image processing method, and image processing system
CN113170083A (en) * 2018-12-11 2021-07-23 索尼集团公司 Image processing apparatus, image processing method, and image processing system
CN113170084A (en) * 2018-12-11 2021-07-23 索尼集团公司 Image processing apparatus, image processing method, and image processing system
JPWO2020122085A1 (en) * 2018-12-11 2021-10-21 ソニーグループ株式会社 Image processing equipment, image processing method and image processing system
JPWO2020122084A1 (en) * 2018-12-11 2021-10-21 ソニーグループ株式会社 Image processing equipment, image processing method and image processing system
WO2020122079A1 (en) * 2018-12-11 2020-06-18 ソニー株式会社 Image processing device, image processing method, and image processing system
EP3896961A4 (en) * 2018-12-11 2022-01-19 Sony Group Corporation Image processing device, image processing method, and image processing system
EP3896963A4 (en) * 2018-12-11 2022-01-19 Sony Group Corporation Image processing device, image processing method, and image processing system
WO2020122085A1 (en) * 2018-12-11 2020-06-18 ソニー株式会社 Image processing device, image processing method, and image processing system
US11603043B2 (en) 2018-12-11 2023-03-14 Sony Group Corporation Image processing apparatus, image processing method, and image processing system
US11813988B2 (en) 2018-12-11 2023-11-14 Sony Group Corporation Image processing apparatus, image processing method, and image processing system
JP7444073B2 (en) 2018-12-11 2024-03-06 ソニーグループ株式会社 Image processing device, image processing method, and image processing system
JP7484722B2 (en) 2018-12-11 2024-05-16 ソニーグループ株式会社 Image processing device, image processing method, and image processing system
JP7494735B2 (en) 2018-12-11 2024-06-04 ソニーグループ株式会社 Image processing device, image processing method, and image processing system
US11987182B2 (en) 2018-12-11 2024-05-21 Sony Group Corporation Image processing apparatus, image processing method, and image processing system
JP7484270B2 (en) 2020-03-18 2024-05-16 株式会社デンソー Measurement device unit for use on vehicle and obstacle detection method for vehicle

Similar Documents

Publication Publication Date Title
JP5099451B2 (en) Vehicle periphery confirmation device
EP2487906B1 (en) Control device and vehicle surrounding monitoring device
WO2016002163A1 (en) Image display device and image display method
JP6524922B2 (en) Driving support device, driving support method
CN107284356B (en) Vehicle mirror alternative system
JP2017111739A (en) Driving support apparatus and driving support method
JP6649914B2 (en) Image display device
JP2007104373A (en) On-vehicle image displaying device
JP4943367B2 (en) Vehicle information display device
JP2010183170A (en) Display apparatus for vehicle
JP2008193339A (en) Rear monitoring system
JP2014229997A (en) Display device for vehicle
JP5708669B2 (en) Vehicle display device
US20190100145A1 (en) Three-dimensional image driving assistance device
JP2018052216A (en) Visual recognition device for vehicle and visual recognition image display method for vehicle
EP3967554A1 (en) Vehicular display system
JP2013207746A (en) Device for photographing rear lateral side of vehicle
JP2007336466A (en) Vehicle peripheral information presenting apparatus, and vehicle peripheral information presenting method
US20190100146A1 (en) Three-dimensional driving image reminder device
JP6115278B2 (en) Vehicle display device
JP2018091908A (en) Head-up display device
JP2014235640A (en) Vehicle display device
JP2007290570A (en) Vehicular display device
JP2007302238A (en) Vehicular image processing device
KR20180094717A (en) Driving assistance apparatus using avm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191025

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407