JP2017111739A - Driving support apparatus and driving support method - Google Patents
Driving support apparatus and driving support method Download PDFInfo
- Publication number
- JP2017111739A JP2017111739A JP2015247440A JP2015247440A JP2017111739A JP 2017111739 A JP2017111739 A JP 2017111739A JP 2015247440 A JP2015247440 A JP 2015247440A JP 2015247440 A JP2015247440 A JP 2015247440A JP 2017111739 A JP2017111739 A JP 2017111739A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- driver
- vehicle
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両の周囲において運転者の死角となる範囲を含む画像を当該運転者に提供する技術に関する。 The present invention relates to a technique for providing a driver with an image including a range that becomes a blind spot of a driver around a vehicle.
従来、この種の技術においては、車両の周囲を撮像した画像を処理することにより、必要に応じて、当該車両の室内から周囲を見た画像や、当該車両の室外から周囲を見た画像等に加工し、加工した画像を運転支援画像として表示する技術が知られている。 Conventionally, in this type of technology, by processing an image of the surroundings of the vehicle, an image of the surroundings from the interior of the vehicle, an image of the surroundings from the outside of the vehicle, etc., as necessary. There is known a technique of processing a processed image and displaying the processed image as a driving support image.
例えば、特許文献1では、車両の周囲において当該車両(即ち、自車両)に接近する他車両の位置を検出し、他車両が自車両に近づくにつれて、画像に係る仮想視点の高さを上昇させたり、当該仮想視点の位置を他車両の運転者の位置に設定したり、する技術が提案されている。
For example, in
しかしながら、上述のように運転支援画像の表示形態が多様化されていることに伴い、表示された画像について、どのような現実世界を示しているのかを運転者が直感的に認知し難くなりつつあるという問題があった。 However, as the display forms of the driving assistance images are diversified as described above, it is difficult for the driver to intuitively recognize what kind of real world the displayed images represent. There was a problem that there was.
本発明は、運転支援画像の表示形態の多様化に対応させるためになされたものであり、表示画像について運転者が直感的に認知させ易くする技術を提供することを目的としている。 The present invention has been made in order to cope with diversification of display forms of driving assistance images, and an object of the present invention is to provide a technique that makes it easy for a driver to intuitively recognize display images.
本発明の一局面である運転支援装置は、第1の取得部と、第2の取得部と、第1の生成部と、領域推定部と、第2の生成部と、画像出力部と、を備える。第1の取得部は、車両の周囲を撮像する車載装置(以下、第1の車載装置)から当該車両(以下、自車両)の周囲を示す情報を取得する。 A driving support apparatus according to one aspect of the present invention includes a first acquisition unit, a second acquisition unit, a first generation unit, a region estimation unit, a second generation unit, an image output unit, Is provided. A 1st acquisition part acquires the information which shows the circumference | surroundings of the said vehicle (henceforth a self-vehicle) from the vehicle-mounted apparatus (henceforth a 1st vehicle-mounted apparatus) which images the circumference | surroundings of a vehicle.
第2の取得部は、自車両の運転者の顔部分の位置を検出する車載装置(以下、第2の車載装置)から運転者の顔部分の位置を示す情報を取得する。第1の生成部は、第1の取得部により取得した情報に基づく画像(以下、対象画像)を生成する。 A 2nd acquisition part acquires the information which shows the position of a driver | operator's face part from the vehicle-mounted apparatus (henceforth 2nd vehicle-mounted apparatus) which detects the position of the driver | operator's face part of the own vehicle. The first generation unit generates an image (hereinafter, a target image) based on the information acquired by the first acquisition unit.
領域推定部は、第2の取得部により取得した情報を用いて、自車両の周囲のうち運転者が視認可能な範囲に対応する対象画像の領域(以下、可視画像領域)、及び、自車両の周囲のうち運転者から見た死角となる範囲に対応する対象画像の領域(以下、死角画像領域)、のうち少なくとも一つの画像領域を推定する。 The region estimation unit uses the information acquired by the second acquisition unit, and includes a target image region (hereinafter referred to as a visible image region) corresponding to a range that is visible to the driver among the surroundings of the host vehicle, and the host vehicle. At least one image area is estimated from the area of the target image corresponding to the range of the blind spot viewed from the driver (hereinafter, blind spot image area).
第2の生成部は、領域推定部により推定した画像領域に基づき、対象画像において可視画像領域又は死角画像領域の位置及び形状を示す領域画像を対象画像に合成した運転支援画像を生成する。こうして第2の生成部により生成された運転支援画像は、画像出力部によって出力される。 A 2nd production | generation part produces | generates the driving assistance image which synthesize | combined the area | region image which shows the position and shape of a visible image area | region or a blind spot image area | region in a target image based on the image area estimated by the area | region estimation part. The driving support image generated by the second generation unit in this manner is output by the image output unit.
このような構成によれば、運転者の顔部分の位置に応じて推定された可視画像領域及び死角画像領域の少なくとも一方の画像領域が運転支援画像に反映される。このため、運転支援画像では、運転者が視認可能な範囲と、運転者から見た死角となる範囲とが、運転者の視点等に応じた位置及び形状によって識別可能な態様で表示されることになる。したがって、これらの表示範囲を運転者から見た現実世界により近い形態で識別させることにより、表示画像について運転者に直感的に認知させ易くすることができる。 According to such a configuration, at least one of the visible image area and the blind spot image area estimated according to the position of the driver's face is reflected in the driving support image. For this reason, in the driving assistance image, the range that can be visually recognized by the driver and the range that becomes the blind spot viewed from the driver are displayed in a manner that can be identified by the position and shape according to the viewpoint of the driver. become. Therefore, by identifying these display ranges in a form closer to the real world viewed from the driver, the driver can easily make the display image intuitively recognized.
また、本発明の一局面である運転支援方法によれば、上記同様の理由により、本発明の一局面である運転支援装置において既に述べた効果と同様の効果を得ることができる。 Moreover, according to the driving support method which is one aspect of the present invention, the same effect as already described in the driving support device which is one aspect of the present invention can be obtained for the same reason as described above.
以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.第1実施形態]
[1−1.全体構成]
図1に示す運転支援装置1は、複数の車載カメラ10と、表示制御ユニット20と、ディスプレイ30と、ドライバーステータスモニター40と、を備える。また、図示を省略しているが、運転支援装置1は、車内ローカルエリアネットワーク(以下、車内LAN)に接続されており、車内LANに接続された他の電子制御ユニット(以下、ECU)との間で、各種センサの検出情報やECU内の制御情報等の車両情報を共有するように構成されている。以下の説明では、これらの構成要素が搭載された車両を自車両という。
Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.
[1. First Embodiment]
[1-1. overall structure]
The
なお、車内LANは、自車両の内部に配備されているローカルエリアネットワークであり、例えば、周知のCANやFlexRay、LIN、MOST、AVC−LAN等の通信プロトコルを利用して各種情報を伝送するものである。運転支援装置1においては、表示制御ユニット20と、ドライバーステータスモニター40内のECUと、が車内LANに接続されている。
The in-vehicle LAN is a local area network provided in the host vehicle, and transmits various information using a communication protocol such as a well-known CAN, FlexRay, LIN, MOST, or AVC-LAN. It is. In the
各車載カメラ10は、自車両の周囲を撮像するように自車両に搭載された第1の車載装置として、自車両の前後左右における各位置に設置されている。本実施形態において、各車載カメラ10は、自車両におけるそれぞれの設置位置及び撮像領域に応じて、前方カメラ2と、後方カメラ4と、右側方カメラ6と、左側方カメラ8と、に大別される。
Each in-
図2に示すように、前方カメラ2は、自車両の前部(例えば、前部中央部)に搭載され、自車両の前方領域A1を撮像する。後方カメラ4は、自車両の後部(例えば、後部中央部)に搭載され、自車両の後方領域A2を撮像する。右側方カメラ6は、自車両の右側部(例えば、右側バックミラー部)に搭載され、自車両の右側方領域A3を撮像する。左側方カメラ8は、自車両の左側部(例えば、左側バックミラー部)に搭載され、自車両の左側方領域A4を撮像する。
As shown in FIG. 2, the
また、各車載カメラ10は、各撮像領域の一部が他の少なくとも1つの車載カメラ10の撮像領域の一部と重複する領域(以下、重複領域)を有するように自車両に設置されている。例えば、図2に示すように、前方カメラ2の撮像領域である前方領域A1は、右側方カメラ6の撮像領域である右側方領域A3と一部が重複する右前重複領域OA1と、左側方カメラ8の撮像領域である左側方領域A4と一部が重複する左前重複領域OA2と、を有している。後方カメラ4の撮像領域である後方領域A2は、右側方カメラ6の撮像領域である右側方領域A3と一部が重複する右後重複領域OA3と、左側方カメラ8の撮像領域である左側方領域A4と一部が重複する左後重複領域OA4と、を有している。つまり、撮像領域に重複領域を有するように車載カメラ10を配備することにより、自車両の全周囲をより確実に撮像可能とされている。
In addition, each in-
ディスプレイ30は、自車両に搭載される表示装置として、車室内等に設置されるものである。例えば、ディスプレイ30は、液晶ディスプレイ、ヘッドアップディスプレイ、又はこれらの組合せ等によって構成され、自車両の運転者が視認しやすい位置に設置される。
The
ドライバーステータスモニター40は、自車両の運転者の顔部分の位置を検出する第2の車載装置として、車室内におけるメーターバイザーの下部等に設置されるものである。例えば、ドライバーステータスモニター40は、近赤外線カメラ、ECU、音声出力装置等によって構成される。
The
ドライバーステータスモニター40のECUは、近赤外線カメラで撮影した運転者の顔部分を含む画像(以下、顔画像)をもとに、運転者の顔の向きや目の開き具合等を解析するものである。そして、ECUは、例えば決められた時間、運転者が目を閉じていたり、正面を向いていなかったりする状態が続いていると判定すると、音声出力装置を介して運転者に警報を行い、これにより安全運転を促す処理を主に行う。
The ECU of the
詳細には、ドライバーステータスモニター40のECUは、公知の画像認識技術により、顔画像をもとに運転者の顔の輪郭や目、鼻、口等のパーツを検出し、各パーツの位置関係により顔の向きを検出する。本実施形態では、こうして検出された情報のうち、運転者の顔部分の位置(例えば、目の位置)や顔の向きを示す情報を含む、運転者の状態を示す情報(以下、運転者状態情報)が、車内LANを介して、ドライバーステータスモニター40のECUから表示制御ユニット20へ送信される。
Specifically, the ECU of the
[1−2.表示制御ユニット20の構成]
表示制御ユニット20は、CPU12と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ14)と、を有する周知のマイクロコンピュータ及び車載ネットワーク用の通信コントローラを中心に構成されたECUである。表示制御ユニット20においては、メモリ14に格納されているプログラムに基づいてCPU12により各種処理が実行される。つまり、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、マイクロコンピュータの数は1つでも複数でもよく、1ないし複数のマイクロコンピュータの各設置場所は車両内部の何れでもよい。
[1-2. Configuration of Display Control Unit 20]
The
表示制御ユニット20は、CPU12の各種処理の実行により実現される機能の構成として、図3に示すように、第1の取得部21と、第2の取得部22と、第1の生成部23と、領域推定部24と、第2の生成部25と、画像出力部26と、を備える。なお、表示制御ユニット20が提供するこれら機能の一部又は全部を、一つあるいは複数の論理回路やIC等の電子回路によりハードウェア的に構成してもよい。つまり、表示制御ユニット20においては、ソフトウェアに限らず、ハードウェアあるいはそれらの組合せによっても上記機能を提供することができる。
As shown in FIG. 3, the
第1の取得部21は、各車載カメラ10から自車両の周囲を示す画像(以下、周囲画像)を取得する。本実施形態では、各車載カメラ10から、前方領域A1、後方領域A2、右側方領域A3、左側方領域A4を撮像した各周囲画像を所定のフレームレートで取得し、これらの周囲画像を互いに識別可能な態様でメモリ14に格納する。なお、メモリ14には、各車載カメラ10の位置及び姿勢を示す外部パラメータや、焦点距離や画像中心や画像サイズや歪収差係数等を示す内部パラメータ等を含む周知のカメラパラメータが格納されている。第1の取得部21は、これらのカメラパラメータのうち一部又は全部を各車載カメラ10から取得しても良い。カメラパラメータは、以下で述べる対象画像や領域画像を生成する際等に用いられる。
The
第1の生成部23は、第1の取得部21により取得した情報に基づく画像(以下、対象画像)を生成する。対象画像は、1ないし複数の周囲画像をもとに生成される画像であり、周囲画像そのものでも良いし、複数の周囲画像を繋ぎ合わせた画像であっても良いし、視点変換画像であっても良い。また、対象画像は、複数の視点変換画像を繋ぎ合わせた画像であっても良い。
The
視点変換画像は、車載カメラ10の視点から見た周囲画像を、仮想カメラの視点(すなわち、仮想視点)から見ているかのように座標変換した画像である。例えば、カメラ座標系の光軸を基準とすると、撮像画像上のあらゆる点の座標位置を光軸からの角度と距離とによって求め、これらの座標位置を仮想カメラの光軸に基づいて回転及び並進させることにより、画像を視点変換することができる。つまり、仮想カメラの光軸として、仮想視点の位置及び向きを設定すれば、所望の視点変換画像を得ることが可能となる。なお、画像の視点変換技術は当業者にとって周知のため、その詳細な説明については省略する。
The viewpoint-converted image is an image obtained by coordinate-converting the surrounding image viewed from the viewpoint of the in-
対象画像としては、例えば、バックガイドビュー画像やフロントビュー画像、アラウンドビュー画像、鳥瞰画像等が挙げられる。これらの画像は、ユーザによる運転操作やスイッチ操作等によって切り替えることができる。この切り替えに係る制御は、表示制御ユニット20が行っても良いし、自車両内の他のECUが行っても良い。他のECUが行う場合には、その切り替えに係る制御指示が、車内LANを介して、当該他のECUから表示制御ユニット20へ送信される。
Examples of the target image include a back guide view image, a front view image, an around view image, a bird's eye image, and the like. These images can be switched by a driving operation or a switch operation by the user. The control related to this switching may be performed by the
バックガイドビュー画像は、例えば、後方領域A2を撮像した周囲画像に基づく画像に、車庫入れや駐車等の後退運転時にハンドル操作の参考となる予想進路線や距離目安線を重畳した態様で表示する画像である。フロントビュー画像は、例えば、前方領域A1を撮像した周囲画像を、自車両の発進時等に死角になりやすい自車両付近の安全確認を行える態様に加工した画像である。アラウンドビュー画像は、例えば、前方領域A1、後方領域A2、右側方領域A3及び左側方領域A4を撮像した各周囲画像のうち少なくとも2つの画像を繋ぎ合わせた画像をもとに加工した画像である。鳥瞰画像は、例えば、自車両の真上から自車両の周囲を見た態様に加工された視点変換画像である。これら画像の生成方法は当業者にとって周知のため、その詳細な説明については省略する。 For example, the back guide view image is displayed in such a manner that an estimated route line or a reference distance line that is a reference for steering operation is superimposed on an image based on a surrounding image obtained by imaging the rear area A2 during reverse operation such as garage entry or parking. It is an image. The front view image is, for example, an image obtained by processing a surrounding image obtained by imaging the front area A1 into a mode in which safety confirmation can be performed near the host vehicle that is likely to be a blind spot when the host vehicle starts. The around view image is an image processed based on an image obtained by joining at least two of the surrounding images obtained by imaging the front area A1, the rear area A2, the right side area A3, and the left side area A4, for example. . The bird's-eye view image is, for example, a viewpoint-converted image that has been processed so that the surroundings of the host vehicle are viewed from directly above the host vehicle. Since these image generation methods are well known to those skilled in the art, a detailed description thereof will be omitted.
第2の取得部22は、ドライバーステータスモニター40から、運転者の顔部分の位置を示す情報を取得する。本実施形態では、運転者の目の位置を示す情報と、運転者の顔の向きを示す情報と、を含む運転者状態情報を、ドライバーステータスモニター40から車内LANを介して所定の周期で取得する。そして、この運転者状態情報を、第1の取得部21により周囲画像を取得したタイミングと対応付けてメモリ14に格納する。なお、第1の生成部により生成される対象画像は、運転者の目の位置を仮想視点の位置、運転者の顔の向きを仮想視点の向きとした視点変換画像であっても良い。
The
領域推定部24は、第2の取得部22により取得した情報を用いて、自車両の周囲のうち運転者が視認可能な範囲に対応する対象画像の領域(以下、可視画像領域31)、及び、自車両の周囲のうち運転者から見た死角となる範囲に対応する対象画像の領域(以下、死角画像領域32)、のうち少なくとも一つの画像領域を推定する。本実施形態において、領域推定部24は、画像領域について、運転者の目の位置に応じた形状を推定する。
Using the information acquired by the
具体的には、対象画像としてバックガイドビュー画像やフロントビュー画像が採用される場合、領域推定部24は、図4(A)に示す対象画像から、自車両のピラーやルーフパネルやリアパネル又はフロントパネルによって運転者の視界が遮られる領域を、図4(B)に示す死角画像領域32として推定する。そして、本実施形態では、対象画像のうち、死角画像領域32を除く領域を可視画像領域31として推定する。なお、メモリ14には、自車両のフレーム各部やドア等の形状及び位置や、自車両のミラーの形状及び位置等を示す座標に関する情報(以下、車体情報)が、カメラ座標に変換可能な態様で記憶されている。つまり、領域推定部24による画像領域の推定には、メモリ14に記憶されている車体情報が用いられる。
Specifically, when a back guide view image or a front view image is adopted as the target image, the
詳細には、本実施形態では、領域推定部24において、可視画像領域31は、運転者状態情報に基づいて、図4(C)に示すように、運転者の目の高さに応じた位置及び形状に補正される。つまり、運転者が車室内から車室外を見たときの車室外の見え方(以下、視界)は、運転者の目の位置によって異なるため、可視画像領域31の位置及び形状を変更するようにしている。
Specifically, in the present embodiment, in the
例えば、図5(A)に示す運転者Aの視界に対応する可視画像領域31は、運転者Aよりも背が高い図5(B)に示す運転者Bの視界に対応する可視画像領域31と比較して、ルーフパネル側(すなわち、上方)にシフトしたものとなる。また、可視画像領域31の形状については、図5(A)に示す下辺に対する上辺の長さの割合が図5(B)に示すものよりも大きくなる。逆に言うと、図5(B)に示す運転者Bの視界に対応する可視画像領域31は、運転者Aよりも背が低い図5(A)に示す運転者Aの視界に対応する可視画像領域31と比較して、リアパネル又はフロントパネル側(すなわち、下方)にシフトしたものとなる。また、可視画像領域31の形状については、図5(B)に示す下辺に対する上辺の長さの割合が図5(A)に示すものよりも小さくなる。つまり、こうした可視画像領域31の位置及び形状の推定精度を上げるために、運転者状態情報のうち、運転者の目の位置を示す情報を用いている。
For example, the
また、具体的には、対象画像としてアラウンドビュー画像が採用される場合、領域推定部24は、図6(A)に示す対象画像から、自車両のピラーやフロントパネルやドアによって運転者の視界が遮られる領域を、図6(B)に示す死角画像領域32として推定する。そして、本実施形態では、対象画像のうち、死角画像領域32を除く領域を可視画像領域31として推定する。
Specifically, when an around-view image is adopted as the target image, the
この可視画像領域31についても、運転者状態情報に基づいて、図6(C)に示すように、運転者の目の高さに応じた位置及び形状に補正される。例えば、図6(C)に示す可視画像領域31は、図6(B)に示す可視画像領域31と比較して、下方にシフトしたものとなり、またピラーの位置が左側にシフトしたものとなる。逆に言うと、図6(B)に示す可視画像領域31は、図6(C)に示す可視画像領域31と比較して、上方にシフトしたものとなり、またピラーの位置が右側にシフトしたものとなる。
The
また、具体的には、対象画像として鳥瞰画像が採用される場合、領域推定部24は、図7(A)に示す対象画像から、自車両のフレーム各部やドア等によって運転者の視界が遮られる領域から、バックミラーによって運転者が視認可能な領域を除く領域を、図7(B)に示す死角画像領域32として推定する。そして、本実施形態では、対象画像のうち、死角画像領域32を除く領域を可視画像領域31として推定する。例えば、バックミラーによって運転者が視認可能な領域については、運転者の目の位置と、車体情報が示す自車両のミラーの形状及び位置の座標と、に基づいて推定することができる。
Specifically, when a bird's-eye view image is adopted as the target image, the
第2の生成部25は、領域推定部24により推定した画像領域に基づき、対象画像において可視画像領域31又は死角画像領域32の位置及び形状を示す領域画像を対象画像に合成した運転支援画像を生成する。この領域画像は、少なくとも可視画像領域31と死角画像領域32との境界が識別可能な態様であれば良く、例えば、境界線によって示される画像であっても良いし、領域によって示される画像であっても良い。
Based on the image region estimated by the
具体的には、例えば、対象画像がバックガイドビュー画像やフロントビュー画像やアラウンドビュー画像である場合、第2の生成部25は、自車両のピラーやルーフパネルやリアパネル又はフロントパネルやドアの位置及び形状を模擬した画像を、死角画像領域32の領域画像として生成する。そして、生成した領域画像を対象画像に重畳することにより運転支援画像を生成する。
Specifically, for example, when the target image is a back guide view image, a front view image, or an around view image, the
この場合、領域画像は、上記のように模擬した部分の輪郭(すなわち、死角画像領域32の輪郭)を示す画像でも良い。また、領域画像は、上記のように重畳した画像部分において、領域画像を上位のレイヤー、対象画像を下位のレイヤーとし、下位のレイヤーである対象画像が見えるように、輝度、明度、若しくは不透明度が調整された画像でも良いし、これに輪郭を付加した画像でも良い。 In this case, the area image may be an image showing the outline of the part simulated as described above (that is, the outline of the blind spot image area 32). In addition, the region image has the brightness, brightness, or opacity so that the region image is the upper layer, the target image is the lower layer, and the lower layer target image can be seen in the superimposed image portion as described above. The image may be an image in which is adjusted, or may be an image with an outline added thereto.
あるいは、領域画像は、可視画像領域31の輪郭を示す画像でも良いし、可視画像領域31自体を示す画像であっても良い。この場合も、領域画像は、上記のように重畳した部分において、領域画像を上位のレイヤー、対象画像を下位のレイヤーとし、下位のレイヤーである対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像でも良いし、これに輪郭を付加した画像でも良い。また、これに代えて、あるいはこれに加えて、領域画像は、可視画像領域31にハッチングが施された画像であっても良い。
Alternatively, the region image may be an image showing the outline of the
例えば、対象画像として鳥瞰画像が採用される場合、第2の生成部25は、図7(B)に示すように、バックミラーによるものを含む運転者が視認可能な領域(すなわち、可視画像領域31)にハッチングを施した画像を領域画像とし、対象画像と合成することができる。この場合も、領域画像は、上記のように重畳した部分において、領域画像を上位のレイヤー、対象画像を下位のレイヤーとし、下位のレイヤーである対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像であっても良いし、これに輪郭を付加した画像であっても良い。あるいは、逆に、死角画像領域32にハッチングを施した画像を領域画像としても良い。
For example, when a bird's-eye view image is employed as the target image, the
画像出力部26は、第2の生成部25により生成された運転支援画像を出力する。具体的には、第2の生成部25により生成された運転支援画像をディスプレイ30に表示する。
The
[1−3.処理]
次に、表示制御ユニット20のCPU12が実行する処理の一例について、図8のフローチャートを用いて説明する。なお、本処理は、例えば自車両のイグニッションスイッチがON状態であり、運転支援機能に係るスイッチがONされている間、所定サイクル毎に繰り返し起動される。
[1-3. processing]
Next, an example of processing executed by the
本処理が起動すると、S110において第1の取得部21は、各車載カメラ10から周囲画像を取得する。本実施形態においては、このとき、第1の取得部21は、各車載カメラ10からカメラパラメータも取得する。
When this process is activated, the
S120において第2の取得部22は、ドライバーステータスモニター40から運転者状態情報を取得する。
S130において第1の生成部23は、第1の取得部21により取得した周囲画像をもとに、対象画像を生成する。対象画像としては、バックガイドビュー画像やフロントビュー画像、アラウンドビュー画像、鳥瞰画像等があり、これらの画像からユーザによる運転操作やスイッチ操作等の内容に応じた画像が選択される。
In S120, the
In S <b> 130, the
S140において領域推定部24は、S120で取得した運転者状態情報を用いて、運転者の目の位置から見て死角となる範囲に対応する死角画像領域32を、S130で生成した対象画像において推定する。または、運転者の目の位置から見て運転者の視認可能な範囲に対応する可視画像領域31を、S130で生成した対象画像において推定する。
In S140, the
S150において第2の生成部25は、S140で推定した画像領域に相当する領域画像を生成し、生成した領域画像を、S130で生成した対象画像に重畳することにより、領域画像を対象画像に合成する。例えば、領域画像としては、対象画像のうち、死角画像領域32を目立たせるために、可視画像領域31の輝度や明度を落としたり、可視画像領域31を半透明にするように不透明度を上げたり、可視画像領域31にハッチングを施したりするためのフィルター効果を有する画像(以下、フィルター画像)が使用される。また例えば、領域画像としては、対象画像のうち、死角画像領域32を目立たせるために、死角画像領域32の輪郭を強調した画像(以下、強調画像)や、死角画像領域32の輝度や明度を上げたり、死角画像領域32の不透明度を下げたりするためのフィルター画像が使用される。なお、領域画像としては、複数の各種フィルター画像を組み合わせて使用しても良いし、フィルター画像と強調画像とを組み合わせて使用しても良い。
In S150, the
S160において画像出力部26は、S150で領域画像を対象画像に合成した画像を運転支援画像としてディスプレイ30に表示し、本処理を終了する。
[1−4.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
In S160, the
[1-4. effect]
According to the first embodiment described in detail above, the following effects can be obtained.
(1a)運転者の顔部分の位置に応じて推定された可視画像領域31及び死角画像領域32の少なくとも一方の画像領域が運転支援画像に反映されるため、運転支援画像では、運転者が視認可能な範囲と、運転者から見た死角となる範囲とが、運転者の視点等に応じた位置及び形状によって識別可能な態様で表示されることになる。したがって、これらの表示範囲を運転者から見た現実世界により近い形態で識別させることにより、表示画像について運転者に直感的に認知させ易くすることができる。
(1a) Since at least one of the
(2a)画像領域について運転者の目に応じた形状を推定するため、運転者の目の位置に応じた形状に可視画像領域31及び死角画像領域32の少なくとも一方の画像領域が加工されることになる。このため、運転者から見た現実世界によりもっと近い形態で識別させることが可能となり、ひいては表示画像について運転者により直感的に認知させ易くすることができる。
(2a) In order to estimate the shape of the image area according to the eyes of the driver, at least one of the
(3a)死角画像領域32の位置及び形状を示す領域画像を上位のレイヤーとし、下位のレイヤーである対象画像が見えるように不透明度等が調整された領域画像や、死角画像領域32の輪郭を示す領域画像を、対象画像に重畳させる。このため、対象画像において死角画像領域32を目立たせることができ、運転者により注意を向けさせたい表示範囲を運転者に直感的に認知させ易くすることができる。
(3a) An area image indicating the position and shape of the blind
(4a)可視画像領域31の位置及び形状を示す領域画像を上位のレイヤーとし、下位のレイヤーである対象画像が見えるように不透明度等が調整された領域画像や、可視画像領域31にハッチングが施された領域画像を、対象画像に重畳させる。このため、対象画像において死角画像領域32を相対的に目立たせることができ、運転者により注意を向けさせたい表示範囲を運転者に直感的に認知させ易くすることができる。
(4a) An area image indicating the position and shape of the
[2.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other Embodiments]
As mentioned above, although the form for implementing this invention was demonstrated, this invention is not limited to the above-mentioned embodiment, It can implement in various deformation | transformation.
(2A)上記実施形態では、バックガイドビュー画像やフロントビュー画像、アラウンドビュー画像、鳥瞰画像等の対象画像を、ユーザによる運転操作やスイッチ操作等の内容に応じて選択しているが、これに限定されるものではない。例えば、自車両の周囲の状況や走行シーン等において対象画像の種別を変更しても良い。自車両の周囲の状況としては、例えば歩行者や他車両等の有無が挙げられる。また、走行シーンとしては、例えば高速道路や一般道路や市街地等といった走行環境の種別や、高速運転時や低速運転時等といった自車速に基づく種別等が挙げられる。 (2A) In the above embodiment, the target images such as the back guide view image, the front view image, the around view image, and the bird's eye view image are selected according to the contents of the driving operation and the switch operation by the user. It is not limited. For example, the type of the target image may be changed in a situation around the host vehicle, a traveling scene, or the like. Examples of the situation around the host vehicle include the presence or absence of pedestrians and other vehicles. Further, examples of the driving scene include a type of driving environment such as a highway, a general road, and a city area, and a type based on the own vehicle speed such as high speed driving and low speed driving.
(2B)上記実施形態では、複数の車載カメラ10が撮像した周囲画像に基づいて対象画像を作成しているが、これに限定されるものではなく、1つの車載カメラ10が撮像した周囲画像に基づいて対象画像を作成するようにしても良い。つまり、運転支援装置1は、1つの車載カメラ10を備えて構成されても良い。
(2B) In the above embodiment, the target image is created based on the surrounding images captured by the plurality of in-
(2C)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。 (2C) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claims are embodiments of the present disclosure.
(2D)上述した運転支援装置1の他、当該運転支援装置1を構成要素とするシステム、当該運転支援装置1としてコンピュータを機能させるための1ないし複数のプログラム、このプログラムの少なくとも一部を記録した1ないし複数の半導体メモリ等の非遷移的実体的記録媒体、運転支援方法など、種々の形態で本発明を実現することもできる。
(2D) In addition to the driving
1…運転支援装置、10…車載カメラ、12…CPU、14…メモリ、20…表示制御ユニット、21…第1の取得部、22…第2の取得部、23…第1の生成部、24…領域推定部、25…第2の生成部、26…画像出力部、30…ディスプレイ、31…可視画像領域、32…死角画像領域、40…ドライバーステータスモニター
DESCRIPTION OF
Claims (5)
前記車両の運転者の顔部分の位置を検出する車載装置を第2の車載装置として、前記第2の車載装置から前記運転者の顔部分の位置を示す情報を取得する第2の取得部と、
前記第1の取得部により取得した情報に基づく画像を対象画像として生成する第1の生成部と、
前記第2の取得部により取得した情報を用いて、前記車両の周囲のうち前記運転者が視認可能な範囲に対応する前記対象画像の領域である可視画像領域、及び、前記車両の周囲のうち前記運転者から見た死角となる範囲に対応する前記対象画像の領域である死角画像領域、のうち少なくとも一つの画像領域を推定する領域推定部と、
前記領域推定部により推定した画像領域に基づき、前記対象画像において前記可視画像領域又は前記死角画像領域の位置及び形状を示す領域画像を前記対象画像に合成した運転支援画像を生成する第2の生成部と、
前記第2の生成部により生成された運転支援画像を出力する画像出力部と、
を備える運転支援装置。 A first acquisition unit that acquires information indicating the periphery of the vehicle from the first in-vehicle device, wherein the in-vehicle device that images the surroundings of the vehicle is a first in-vehicle device;
A second acquisition unit that acquires information indicating the position of the driver's face portion from the second in-vehicle device, wherein the in-vehicle device that detects the position of the face portion of the driver of the vehicle is a second in-vehicle device; ,
A first generation unit that generates an image based on information acquired by the first acquisition unit as a target image;
Using the information acquired by the second acquisition unit, a visible image region that is a region of the target image corresponding to a range that is visible to the driver in the periphery of the vehicle, and the periphery of the vehicle A region estimation unit that estimates at least one image region of the blind image region that is a region of the target image corresponding to a range that is a blind spot viewed from the driver;
Second generation for generating a driving support image in which a region image indicating a position and a shape of the visible image region or the blind spot image region in the target image is combined with the target image based on the image region estimated by the region estimation unit. And
An image output unit that outputs the driving assistance image generated by the second generation unit;
A driving support apparatus comprising:
前記第2の取得部により取得される情報には、前記運転者の目の位置を示す情報が含まれており、
前記領域推定部は、前記画像領域について、前記運転者の目の位置に応じた形状を推定する、運転支援装置。 The driving support device according to claim 1,
The information acquired by the second acquisition unit includes information indicating the position of the driver's eyes,
The region estimation unit is a driving support device that estimates a shape of the image region according to the position of the driver's eyes.
前記第2の生成部は、前記対象画像において前記死角画像領域の位置及び形状を示す領域画像を上位のレイヤーとして前記対象画像に合成し、
前記第2の生成部により合成される領域画像は、前記領域画像との重畳部分において下位のレイヤーである前記対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像、前記死角画像領域の輪郭を示す画像、又は、これらの組合せによる画像である、運転支援装置。 The driving support device according to claim 1 or 2,
The second generation unit synthesizes a region image indicating the position and shape of the blind spot image region in the target image as an upper layer in the target image,
The region image synthesized by the second generation unit is an image in which brightness, brightness, or opacity is adjusted so that the target image that is a lower layer can be seen in the overlapping portion with the region image, the blind spot image A driving support device, which is an image showing an outline of a region or an image based on a combination thereof.
前記第2の生成部は、前記対象画像において前記可視画像領域の位置及び形状を示す領域画像を上位のレイヤーとして前記対象画像に合成し、
前記第2の生成部により合成される領域画像は、前記領域画像との重畳部分において下位のレイヤーである前記対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像、前記可視画像領域にハッチングが施された画像、又は、これらの組合せによる画像である、運転支援装置。 The driving support device according to claim 1 or 2,
The second generation unit synthesizes an area image indicating the position and shape of the visible image area in the target image as an upper layer to the target image,
The region image synthesized by the second generation unit is an image in which luminance, brightness, or opacity is adjusted so that the target image that is a lower layer can be seen in a superimposed portion with the region image, the visible image A driving assistance device, which is an image in which an area is hatched, or an image obtained by a combination thereof.
前記車両の運転者の顔部分の位置を検出する車載装置を第2の車載装置として、前記第2の車載装置から前記運転者の顔部分の位置を示す情報を取得する第2の取得工程と、
前記第1の取得工程により取得した情報に基づく画像を対象画像として生成する第1の生成工程と、
前記第2の取得工程により取得した情報を用いて、前記車両の周囲のうち前記運転者が視認可能な範囲に対応する前記対象画像の領域である可視画像領域、及び、前記車両の周囲のうち前記運転者から見た死角となる範囲に対応する前記対象画像の領域である死角画像領域、のうち少なくとも一つの画像領域を推定する領域推定工程と、
前記領域推定工程により推定した画像領域に基づき、前記対象画像において前記可視画像領域又は前記死角画像領域の位置及び形状を示す領域画像を前記対象画像に合成した運転支援画像を生成する第2の生成工程と、
前記第2の生成工程により生成された運転支援画像を出力する画像出力工程と、
を備える運転支援方法。 A first acquisition step of acquiring information indicating the periphery of the vehicle from the first in-vehicle device, wherein the in-vehicle device that images the surroundings of the vehicle is a first in-vehicle device;
A second acquisition step of acquiring information indicating the position of the driver's face portion from the second in-vehicle device, wherein the in-vehicle device that detects the position of the face portion of the driver of the vehicle is a second in-vehicle device; ,
A first generation step of generating an image based on the information acquired in the first acquisition step as a target image;
Using the information acquired in the second acquisition step, the visible image region that is the region of the target image corresponding to the range that the driver can visually recognize in the periphery of the vehicle, and the periphery of the vehicle A region estimation step for estimating at least one image region of the blind image region that is a region of the target image corresponding to a range that is a blind spot viewed from the driver;
Second generation for generating a driving support image in which a region image indicating the position and shape of the visible image region or the blind spot image region in the target image is combined with the target image based on the image region estimated in the region estimation step. Process,
An image output step of outputting the driving support image generated by the second generation step;
A driving support method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015247440A JP2017111739A (en) | 2015-12-18 | 2015-12-18 | Driving support apparatus and driving support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015247440A JP2017111739A (en) | 2015-12-18 | 2015-12-18 | Driving support apparatus and driving support method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017111739A true JP2017111739A (en) | 2017-06-22 |
Family
ID=59080775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015247440A Pending JP2017111739A (en) | 2015-12-18 | 2015-12-18 | Driving support apparatus and driving support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017111739A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020004144A (en) * | 2018-06-29 | 2020-01-09 | 国立大学法人金沢大学 | Obstacle map generation device and autonomous mobile body |
WO2020122084A1 (en) * | 2018-12-11 | 2020-06-18 | ソニー株式会社 | Image processing device, image processing method, and image processing system |
WO2020122079A1 (en) * | 2018-12-11 | 2020-06-18 | ソニー株式会社 | Image processing device, image processing method, and image processing system |
WO2020122085A1 (en) * | 2018-12-11 | 2020-06-18 | ソニー株式会社 | Image processing device, image processing method, and image processing system |
JP7484270B2 (en) | 2020-03-18 | 2024-05-16 | 株式会社デンソー | Measurement device unit for use on vehicle and obstacle detection method for vehicle |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003196645A (en) * | 2001-12-28 | 2003-07-11 | Equos Research Co Ltd | Image processing device of vehicle |
JP2005269010A (en) * | 2004-03-17 | 2005-09-29 | Olympus Corp | Image creating device, program and method |
JP2012052934A (en) * | 2010-09-01 | 2012-03-15 | Fujitsu Ten Ltd | Portable navigation device |
JP2014198531A (en) * | 2013-03-29 | 2014-10-23 | アイシン精機株式会社 | Image display controller, image display system, and display unit |
JP2015055881A (en) * | 2013-09-10 | 2015-03-23 | 三菱電機株式会社 | Information processing device, information display device and display control method |
JP2015109681A (en) * | 2015-01-09 | 2015-06-11 | キヤノン株式会社 | Image processing method, image processing apparatus, image processing program, and imaging apparatus |
-
2015
- 2015-12-18 JP JP2015247440A patent/JP2017111739A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003196645A (en) * | 2001-12-28 | 2003-07-11 | Equos Research Co Ltd | Image processing device of vehicle |
JP2005269010A (en) * | 2004-03-17 | 2005-09-29 | Olympus Corp | Image creating device, program and method |
JP2012052934A (en) * | 2010-09-01 | 2012-03-15 | Fujitsu Ten Ltd | Portable navigation device |
JP2014198531A (en) * | 2013-03-29 | 2014-10-23 | アイシン精機株式会社 | Image display controller, image display system, and display unit |
JP2015055881A (en) * | 2013-09-10 | 2015-03-23 | 三菱電機株式会社 | Information processing device, information display device and display control method |
JP2015109681A (en) * | 2015-01-09 | 2015-06-11 | キヤノン株式会社 | Image processing method, image processing apparatus, image processing program, and imaging apparatus |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020004144A (en) * | 2018-06-29 | 2020-01-09 | 国立大学法人金沢大学 | Obstacle map generation device and autonomous mobile body |
JP7121361B2 (en) | 2018-06-29 | 2022-08-18 | 国立大学法人金沢大学 | Autonomous mobile |
JPWO2020122079A1 (en) * | 2018-12-11 | 2021-10-21 | ソニーグループ株式会社 | Image processing equipment, image processing method and image processing system |
WO2020122084A1 (en) * | 2018-12-11 | 2020-06-18 | ソニー株式会社 | Image processing device, image processing method, and image processing system |
CN113170083A (en) * | 2018-12-11 | 2021-07-23 | 索尼集团公司 | Image processing apparatus, image processing method, and image processing system |
CN113170084A (en) * | 2018-12-11 | 2021-07-23 | 索尼集团公司 | Image processing apparatus, image processing method, and image processing system |
JPWO2020122085A1 (en) * | 2018-12-11 | 2021-10-21 | ソニーグループ株式会社 | Image processing equipment, image processing method and image processing system |
JPWO2020122084A1 (en) * | 2018-12-11 | 2021-10-21 | ソニーグループ株式会社 | Image processing equipment, image processing method and image processing system |
WO2020122079A1 (en) * | 2018-12-11 | 2020-06-18 | ソニー株式会社 | Image processing device, image processing method, and image processing system |
EP3896961A4 (en) * | 2018-12-11 | 2022-01-19 | Sony Group Corporation | Image processing device, image processing method, and image processing system |
EP3896963A4 (en) * | 2018-12-11 | 2022-01-19 | Sony Group Corporation | Image processing device, image processing method, and image processing system |
WO2020122085A1 (en) * | 2018-12-11 | 2020-06-18 | ソニー株式会社 | Image processing device, image processing method, and image processing system |
US11603043B2 (en) | 2018-12-11 | 2023-03-14 | Sony Group Corporation | Image processing apparatus, image processing method, and image processing system |
US11813988B2 (en) | 2018-12-11 | 2023-11-14 | Sony Group Corporation | Image processing apparatus, image processing method, and image processing system |
JP7444073B2 (en) | 2018-12-11 | 2024-03-06 | ソニーグループ株式会社 | Image processing device, image processing method, and image processing system |
JP7484722B2 (en) | 2018-12-11 | 2024-05-16 | ソニーグループ株式会社 | Image processing device, image processing method, and image processing system |
JP7494735B2 (en) | 2018-12-11 | 2024-06-04 | ソニーグループ株式会社 | Image processing device, image processing method, and image processing system |
US11987182B2 (en) | 2018-12-11 | 2024-05-21 | Sony Group Corporation | Image processing apparatus, image processing method, and image processing system |
JP7484270B2 (en) | 2020-03-18 | 2024-05-16 | 株式会社デンソー | Measurement device unit for use on vehicle and obstacle detection method for vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5099451B2 (en) | Vehicle periphery confirmation device | |
EP2487906B1 (en) | Control device and vehicle surrounding monitoring device | |
WO2016002163A1 (en) | Image display device and image display method | |
JP6524922B2 (en) | Driving support device, driving support method | |
CN107284356B (en) | Vehicle mirror alternative system | |
JP2017111739A (en) | Driving support apparatus and driving support method | |
JP6649914B2 (en) | Image display device | |
JP2007104373A (en) | On-vehicle image displaying device | |
JP4943367B2 (en) | Vehicle information display device | |
JP2010183170A (en) | Display apparatus for vehicle | |
JP2008193339A (en) | Rear monitoring system | |
JP2014229997A (en) | Display device for vehicle | |
JP5708669B2 (en) | Vehicle display device | |
US20190100145A1 (en) | Three-dimensional image driving assistance device | |
JP2018052216A (en) | Visual recognition device for vehicle and visual recognition image display method for vehicle | |
EP3967554A1 (en) | Vehicular display system | |
JP2013207746A (en) | Device for photographing rear lateral side of vehicle | |
JP2007336466A (en) | Vehicle peripheral information presenting apparatus, and vehicle peripheral information presenting method | |
US20190100146A1 (en) | Three-dimensional driving image reminder device | |
JP6115278B2 (en) | Vehicle display device | |
JP2018091908A (en) | Head-up display device | |
JP2014235640A (en) | Vehicle display device | |
JP2007290570A (en) | Vehicular display device | |
JP2007302238A (en) | Vehicular image processing device | |
KR20180094717A (en) | Driving assistance apparatus using avm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191025 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200407 |