JP6406159B2 - 車載表示制御装置、車載表示制御方法 - Google Patents

車載表示制御装置、車載表示制御方法 Download PDF

Info

Publication number
JP6406159B2
JP6406159B2 JP2015154409A JP2015154409A JP6406159B2 JP 6406159 B2 JP6406159 B2 JP 6406159B2 JP 2015154409 A JP2015154409 A JP 2015154409A JP 2015154409 A JP2015154409 A JP 2015154409A JP 6406159 B2 JP6406159 B2 JP 6406159B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
vehicle
imaging
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015154409A
Other languages
English (en)
Other versions
JP2017034543A (ja
JP2017034543A5 (ja
Inventor
昇幸 横田
昇幸 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015154409A priority Critical patent/JP6406159B2/ja
Priority to DE112016003517.9T priority patent/DE112016003517T5/de
Priority to US15/749,631 priority patent/US10464484B2/en
Priority to CN201680045331.4A priority patent/CN107852483B/zh
Priority to PCT/JP2016/071370 priority patent/WO2017022496A1/ja
Publication of JP2017034543A publication Critical patent/JP2017034543A/ja
Publication of JP2017034543A5 publication Critical patent/JP2017034543A5/ja
Application granted granted Critical
Publication of JP6406159B2 publication Critical patent/JP6406159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic

Description

本発明は、車両運転者に運転支援画像を提示するための表示制御技術に関する。
従来、車載カメラにより車両周囲の対象物を検出して、対象物を含む撮像画像を仮想視点から見た画像に変換し、この視点変換画像を運転支援画像として車載ディスプレイに出力する技術が知られている。
例えば、この技術においては、自車両の後方から自車両に接近する接近車両の位置を検出して、接近車両が自車両に近づくにつれて仮想視点の高さを上昇させたり、仮想視点の位置を接近車両の運転者の位置に設定したりすることが提案されている(特許文献1参照)。
特許第5681569号公報
しかしながら、従来提案されている技術では、対象物の検出位置と自車位置とに応じて仮想視点を設定するような複雑な処理を要するため、この処理負担が大きいことにより、例えば視点変換画像の生成に時間がかかってしまい、運転支援に関するリアルタイム性を損なうおそれが考えられるという問題があった。
本発明は、こうした問題にかんがみてなされたものであり、簡易な処理で視点変換画像を生成することにより、運転支援に関するリアルタイム性の確保に資する表示制御技術を提供することを目的としている。
本発明の一局面である車載表示制御装置は、画像認識部と、視点変換部と、画像強調部と、画像出力部と、を備える。画像認識部は、車両の周囲における各撮像領域をそれぞれ撮像するように車両に搭載された複数の撮像装置の撮像画像の中から予め定められた対象物を認識する。
視点変換部は、複数の撮像装置のうち、画像認識部により認識された対象物を含む画像を撮像した撮像装置を認識撮像装置として特定し、特定した認識撮像装置に予め対応づけられている仮想視点から見た視点変換画像に撮像画像を変換する。
画像強調部は、視点変換部により変換された視点変換画像に含まれている対象物の画像部分を強調させる。こうして画像強調部により対象物の画像部分が強調された視点変換画像を運転支援画像として、車両に搭載された表示装置へ画像出力部から運転支援画像が出力される。
このような構成によれば、対象物を撮像した撮像装置を特定するだけで仮想視点が設定され得るため、従来提案されている技術のような複雑な処理を伴うことなく、簡易な処理で視点変換画像を生成することが可能となり、これにより運転支援に関するリアルタイム性の確保に資することができる。
さらには、対象物が強調された視点変換画像が運転支援画像として出力されるため、例えば車両周囲に存在する歩行者や他車両等の存在をよりわかりやすく車両運転者に提示することができる。
また、本発明の一局面である車載表示制御方法によれば、上記同様の理由により、本発明の一局面である車載表示制御装置において既に述べた効果と同様の効果を得ることができる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
車載表示制御装置1の構成を例示するブロック図である。 自車両に搭載された複数のカメラ10の各撮像領域を例示する説明図である。 表示制御ユニット20の機能的構成を例示するブロック図である。 図4(A)は基本対応テーブルを例示する説明図、図4(B)は付加対応テーブルを例示する説明図である。 図5(A)は自車両に対する前後方向の仮想視点を例示する説明図であり、図5(B)は自車両に対する左右方向の仮想視点を例示する説明図である。 図6(A)は合成画像を例示するイメージ図であり、図6(B)は強調画像を付加した運転支援画像を例示するイメージ図である。 仮想視点設定処理を例示するフローチャートである。 テーブル簡易選択処理を例示するフローチャートである。 ブレンド率設定処理を例示するフローチャートである。 図10(A)は後方カメラ4の撮像画像に基づく対象物の視点変換画像部分を例示するイメージ図であり、図10(B)は右側方カメラ6の撮像画像に基づく対象物の視点変換画像部分を例示するイメージ図であり、図10(C)は両視点変換画像部分を50%のブレンド率で合成した重複画像部分を例示するイメージ図であり、図10(D)は両視点変換画像部分を70%対30%のブレンド率で合成した重複画像部分を例示するイメージ図である。
以下、本発明が適用された実施形態について、図面を用いて説明する。
[1.第1実施形態]
[1−1.全体構成]
図1に示す車載表示制御装置1は、複数のカメラ10と、表示制御ユニット20と、ディスプレイ30と、を備える。また、図示を省略しているが、車載表示制御装置1は、車内ローカルエリアネットワーク(以下「車内LAN」という)に接続されており、車内LANに接続された他の電子制御ユニット(以下「ECU」という)との間で、各種センサの検出情報等の車両情報を共有するように構成されている。以下の説明では、これらの構成要素が搭載された車両を自車両という。
なお、車内LANは、自車両の内部に配備されているローカルエリアネットワークであり、例えば、周知のCANやFlexRay、LIN、MOST、AVC−LAN等の通信プロトコルを利用して各種の車両情報を伝送するものである。本実施形態においては、例えば、自車両の運転方向を示す情報(例えば、シフトレバー位置、ステアリング操作方向及び操作量、アクセル踏込量、等)が車両情報として、他のECUから車載表示制御装置1に送信される。
各カメラ10は、自車両の周囲を撮像するように自車両に搭載された複数の撮像装置として、自車両の前後左右における各位置に設置されている。本実施形態において、各カメラ10は、自車両におけるそれぞれの設置位置及び撮像領域に応じて、前方カメラ2と、後方カメラ4と、右側方カメラ6と、左側方カメラ8と、に大別される。図2に示すように、前方カメラ2は、自車両の前部(例えば前部中央部)に搭載され、自車両の前方領域A1を撮像する。なお、後方カメラ4は、自車両の後部(例えば後部中央部)に搭載され、自車両の後方領域A2を撮像する。右側方カメラ6は、自車両の右側部(例えば右側バックミラー部)に搭載され、自車両の右側方領域A3を撮像する。左側方カメラ8は、自車両の左側部(例えば左側バックミラー部)に搭載され、自車両の左側方領域A4を撮像する。
また、各カメラ10は、各撮像領域の一部が他の少なくとも1つのカメラ10の撮像領域の一部と重複する領域(以下「重複領域」という)を有するように自車両に設置されている。例えば、図2に示すように、前方カメラ2の撮像領域である前方領域A1は、右側方カメラ6の撮像領域である右側方領域A3と一部が重複する右前重複領域OA1と、左側方カメラ8の撮像領域である左側方領域A4と一部が重複する左前重複領域OA2と、を有している。また、後方カメラ4の撮像領域である後方領域A2は、右側方カメラ6の撮像領域である右側方領域A3と一部が重複する右後重複領域OA3と、左側方カメラ8の撮像領域である左側方領域A4と一部が重複する左後重複領域OA4と、を有している。つまり、これらの重複領域は、二つのカメラ10の何れでも撮像可能な領域ということになる。
以下の説明では、図2に示すように、前方領域A1のうち、右前重複領域OA1及び左前重複領域OA2以外の領域を前方単領域SA1といい、後方領域A2のうち、右後重複領域OA3及び左後重複領域OA4以外の領域を後方単領域SA2という。また、右側方領域A3のうち、右前重複領域OA1及び右後重複領域OA3以外の領域を右側方単領域SA3、左側方領域A4のうち、左前重複領域OA2及び左後重複領域OA4以外の領域を左側方単領域SA4という。つまり、前方カメラ2だけが撮像可能な前方領域A1を前方単領域SA1、後方カメラ4だけが撮像可能な後方領域A2を後方単領域SA2、右側方カメラ6だけが撮像可能な右側方領域A3を右側方単領域SA3、左側方カメラ8だけが撮像可能な左側方領域A4を左側方単領域SA4ということになる。
ディスプレイ30は、自車両に搭載される表示装置として、車室内等に設置されるものである。例えば、ディスプレイ30は、液晶ディスプレイ、ヘッドアップディスプレイ、又はこれらの組合せ等によって構成され、自車両の運転者が視認しやすい位置に設置される。
[1−2.表示制御ユニット20の構成]
表示制御ユニット20は、CPU12と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下「メモリ」という)14と、を有する周知のマイクロコンピュータ及び車内LAN用の通信コントローラを中心に構成され、メモリ14に格納されているプログラムに基づいてCPU12により各種処理が実行されるものである。つまり、このプログラムが実行されることで、プログラムに対応する方法が実行されることになる。なお、表示制御ユニット20において、例えばマイクロコンピュータの数は1つでも複数でもよく、これら1ないし複数のマイクロコンピュータの各設置場所は自車両内部の何れでもよい。
表示制御ユニット20は、CPU12の各種処理の実行により実現される機能的構成として、図3に示すように、画像認識部21と、視点変換部22と、画像合成部23と、画像設定部24と、画像強調部25と、画像出力部26と、を備える。なお、表示制御ユニット20が実行するこれら機能の一部または全部を、一つあるいは複数の論理回路若しくはIC等の電子回路によりハードウェア的に構成してもよい。
画像認識部21は、複数のカメラ10の各撮像画像の中から予め定められた対象物を認識する機能を有している。対象物とは、例えば歩行者や他車両等、運転支援の観点から自車両の運転者にその存在を知らせることが望ましいと考えられるものである。この対象物の認識には、対象物の候補となる対象物候補の検出及び追跡を行うことにより、この対象物候補に関して対象物の確からしさを示す候補値や、対象物候補の動きの速さを示す移動値、等を算出する処理が含まれる。
対象物候補の検出においては、例えば撮像画像の中から対象物毎に予め定められた特徴的要素を満たす部分を対象物候補として検出するとともに、検出した対象物候補がその特徴的要素を質的及び量的に具備する程度を示す特徴量を候補値としてメモリ14に記憶する。また対象物候補の追跡においては、例えば時系列に沿って連続する複数の撮像画像を用い、こうした連続画像中の対象物候補の動きをベクトルで表すオプティカルフローのベクトル値を、対象物候補の移動値としてメモリ14に記憶する。つまり、これらの情報に基づく所定条件を満たす対象物候補が、対象物として認識されることになる。なお、こうした対象物の認識方法については当業者にとって周知なため、詳細な説明を省略する。
また、画像認識部21においては、認識された対象物を画像中に含む撮像画像を他の撮像画像と識別するための識別情報や、認識された対象物に関する画像中の位置を示す画像位置情報等がメモリ14に記憶される。なお、画像位置情報には、画像認識部21により認識された対象物を含む撮像領域として、単領域SA1〜SA4及び重複領域OA1〜OA4の中の何れか一つを特定する情報も含まれている。
視点変換部22は、画像認識部21により認識された対象物を画像中に含む撮像画像を撮像した1ないし複数のカメラ10を認識撮像装置(以下「認識カメラ」という)として特定し、この認識カメラに予め対応づけられている仮想視点から見た視点変換画像に対象となる撮像画像を変換する機能を有している。なお、こうした機能のうち、認識カメラを特定して仮想視点を設定する機能を実現するための処理(以下「仮想視点設定処理」という)の詳細については後述する。また、本実施形態において、視点変換部22は、全てのカメラ10の撮像画像を対象として視点変換画像に変換し、変換した各視点変換画像を画像合成部23に供給する。
視点変換画像は、カメラ10の視点から見た撮像画像を、仮想カメラの視点から見ているかのように座標変換した画像であるといえる。例えば、カメラ座標系の光軸を基準とすると、撮像画像上のあらゆる点の座標位置を光軸からの角度と距離とによって求め、これらの座標位置を仮想カメラの光軸に基づいて回転及び並進させることにより、画像を視点変換することができる。つまり、仮想カメラの光軸として、仮想視点の位置及び向きを設定すれば、所望の視点変換画像を得ることが可能となる。なお、画像の視点変換技術は当業者にとって周知のため、その詳細な説明については省略する。
また、仮想視点の位置及び向きの設定では、メモリ14に予め記憶されている対応テーブルが用いられる。この対応テーブルは、基本対応テーブルと付加対応テーブルとに大別される。基本対応テーブルは、図4(A)に例示するように、各カメラ10と仮想視点とが一対一に対応づけられたテーブルである。つまり、基本対応テーブルは、認識カメラとして特定したカメラ10が一つであれば、仮想視点を一意に設定することが可能となるテーブルである。
一方、付加対応テーブルは、図4(B)に例示するように、各カメラ10の組合せと仮想視点とが一対一に対応づけられたテーブルである。例えば、これらの各カメラ10の組合せは、前方カメラ2と右側方カメラ6との組合せ、前方カメラ2と左側方カメラ8との組合せ、後方カメラ4と右側方カメラ6との組合せ、後方カメラ4と左側方カメラ8との組合せ、の4つのパターンからなる。つまり、付加対応テーブルは、認識カメラとして特定したカメラ10がこれら何れかの組合せであれば、仮想視点を一意に設定することが可能となるテーブルである。なお、上記4つのパターンの各組合せは、重複領域の説明で用いた「二つのカメラ10」に相当している。
また具体的には、基本対応テーブルを用いた仮想視点の設定では、認識カメラとして特定したカメラ10が前方カメラ2だけである場合、自車両の後側斜め上方の位置から自車両を含む前側斜め下方を所定角度で向く仮想視点E1が設定される(図5(A)参照)。また認識カメラとして特定したカメラ10が後方カメラ4だけである場合は、自車両の前側斜め上方の位置から自車両を含む後側斜め下方を所定角度で向く仮想視点E2が設定される(図5(A)参照)。
同様に認識カメラとして特定したカメラ10が右側方カメラ6だけである場合は、自車両の左側方斜め上側の位置から自車両を含む右側方斜め下方を所定角度で向く仮想視点E3が設定され、認識カメラとして特定したカメラ10が左側方カメラ8だけである場合は、自車両の右側方斜め上方の位置から自車両を含む左側方斜め下方を所定角度で向く仮想視点E4が設定される(図5(B)参照)。
付加対応テーブルを用いた仮想視点の設定についても、この基本対応テーブルを用いた仮想視点の設定に準じて行われる。つまり、これらの対応テーブルを用いた仮想視点の設定では、認識カメラの位置の反対側斜め上方の位置から認識カメラ側斜め下方を所定角度で向く仮想視点E5〜E8が設定されることになる。
なお、仮想視点の向きついては、少なくとも自車両の車高方向(即ち垂直方向)とならない角度範囲(例えば0〜80°の範囲)のうち何れかの所定角度に予め設定されている。この理由は、仮想視点の向きを垂直方向(即ち90°)とした鳥瞰画像を視点変換画像として生成すると、鳥瞰画像の中央から離れるに従って画像中の物体が高さ方向に延びて変換されてしまう傾向が最も顕著になるためである。また、仮想視点の向きを自車両の水平方向(即ち0°)とすることも、合成画像中の自車両による死角領域が最も増大してしまう。このため、本実施形態において、仮想視点の向きに関する設定角度は、自車両の垂直方向及び水平方向とならない角度範囲(例えば10〜80°の範囲)のうち何れかとされている。
画像合成部23は、視点変換部22から供給された各視点変換画像を一部重ねて繋ぎ合わせた合成画像を生成する機能を有している。具体的に本実施形態では、合成画像における繋ぎ目部分を含む領域として、前方カメラ2の視点変換画像と右側方カメラ6の視点変換画像とが一部重なる重複画像領域、前方カメラ2の視点変換画像と左側方カメラ8の視点変換画像とが一部重なる重複画像領域、後方カメラ4の視点変換画像と右側方カメラ6の視点変換画像とが一部重なる重複画像領域、後方カメラ4の視点変換画像と左側方カメラ8の視点変換画像とが一部重なる重複画像領域、がそれぞれ形成されることになる。なお、これらの各重複画像領域は、各カメラ10の撮像領域における各重複領域OA1〜OA4(図2参照)にそれぞれ対応する領域であるといえる。
また、画像合成部23は、こうした合成画像を生成する際に、重複画像領域における各視点変換画像部分を予め設定されたブレンド率で合成する機能を有している。この理由は、合成画像において繋ぎ目部分を含む重複画像領域の各視点変換画像部分を合成することにより、合成画像において繋ぎ目部分を目立たなくし、これにより繋ぎ目部分の不自然さを緩和させるためである。なお、本実施形態では、各カメラ10の全ての視点変換画像を一部重ねて繋ぎ合わせた合成画像が形成されるため、繋ぎ目部分の不自然さを緩和させたアラウンドビュー画像が生成されることになる。アラウンドビュー画像とは、図6(A)に示すように、自車両を含むとともに自車両の全周囲を表示可能とする画像のことをいう。
画像設定部24は、画像認識部21による対象物の認識結果に基づき、重複画像領域における各視点変換画像部分(以下「重複画像領域部分」ともいう)のブレンド率を設定する機能を有している。画像設定部24により設定されたブレンド率は、画像合成部23による重複画像領域部分の合成に用いられる。なお、画像設定部24としての機能を実現するための処理(以下「ブレンド率設定処理」という)の詳細については後述する。
画像強調部25は、視点変換部22により変換された視点変換画像に含まれている対象物の画像部分(以下「対象物画像部分」という)を強調させる機能を有している。具体的に本実施形態では、画像合成部23により生成された合成画像の対象物画像部分を強調させる処理を実施する。この処理は、メモリ14に記憶されている画像位置情報に基づいて、対象物の画像位置を特定することにより実現される。対象物画像部分の強調方法については、対象物を囲う画像等、対象物を強調させるための強調画像(図6(B)参照)を合成画像に付加しても良いし、対象物画像部分の輝度を周囲の画像部分よりも高くする等、対象物画像部分及び合成画像のうち少なくとも一方のコントラストを変更しても良い。
画像出力部26は、画像設定部24により設定されたブレンド率で画像合成部23により重複画像領域部分が合成された合成画像を運転支援画像として、ディスプレイ30に出力する機能を有している。具体的に本実施形態では、画像強調部25により対象物画像部分が強調されたアラウンドビュー画像を運転支援画像として、ディスプレイ30に運転支援画像が出力される。運転支援画像とは、他車両や歩行者等の対象物の存在を運転者に知らせるための警告を行う等、自車両の運転支援を目的とする表示画像のことをいう。
[1−2.処理]
[1−2−1.仮想視点設定処理]
次に、視点変換部22の一部機能を実現させるためにCPU12が行う仮想視点設定処理について、図7のフローチャートを用いて説明する。なお、本処理は、例えば車載表示制御装置1のスイッチ(非図示)がオン状態である間、表示制御ユニット20内において機能毎に予め設定されたタイミングで繰り返し起動される。
本処理が起動すると、視点変換部22では、まず、S110において、全てのカメラ10の撮像画像を入力するとともに、これらの中で画像認識部21により認識された対象物を画像中に含む撮像画像が存在するか否かを判定する。この判定は、例えばメモリ14に記憶される識別情報の有無に基づいて行うことができる。対象物を画像中に含む撮像画像が存在すると判定した場合には、S120に移行し、こうした画像が存在しないと判定した場合には、S150に移行する。
S120では、仮想視点を設定するために用いられる基本対応テーブル及び付加対応テーブルのうち何れかの対応テーブルを簡易に選択するための処理(以下「テーブル簡易選択処理」という)を実施し、S130に移行する。なお、テーブル簡易選択処理では、基本対応テーブル又は付加対応テーブルが選択される際に、認識カメラも特定されることになる。このテーブル簡易選択処理の詳細については後述する。
S130では、S120のテーブル簡易選択処理によって基本対応テーブル及び付加対応テーブルのうち何れかを選択できたか否かを判定し、何れかを選択できた場合には、S140に移行し、何れも選択できなかった場合には、S150に移行する。
S140では、S120のテーブル簡易選択処理によって選択された対応テーブルを用いて仮想視点を設定し、本処理を終了する。なお、具体的に本実施形態では、前述したように、特定した認識カメラの位置の反対側斜め上方の位置から認識カメラ側斜め下方を所定角度で向く仮想視点が設定されることになる。
一方S150では、S120のテーブル簡易選択処理とは異なる方法で、複数のカメラ10の中から最も優先度の高いカメラ(以下「優先カメラ」という)を選択し、選択した優先カメラを認識カメラとみなして特定するための処理(以下「認識カメラ優先処理」という)を実施し、S160に移行する。具体的には、認識カメラを特定できなかった理由毎に異なる方法で、優先カメラが選択されることになる。
具体的に本実施形態では、例えば、S110において対象物を画像中に含む撮像画像が存在しないと判定した場合は、自車両の運転方向に対応する一ないし二つのカメラ10が優先カメラとして選択されることになる。なお、自車両の運転方向は、例えば他のECUから車内LANを介して送られてくる車両情報に基づいて特定することができる。また例えば、認識カメラが3つ以上である場合や、認識カメラが2つであっても後述する撮像領域条件が不成立である場合等は、最も多くの対象物を含む画像を撮像したカメラ10や、自車両の運転方向に対応する撮像領域の対象物を含む画像を撮像したカメラ10や、対象物を含む画像を撮像した3つのカメラ10のうち他の2つの何れにも隣接する1つのカメラ10等が、優先カメラとして選択されることになる。優先カメラは、メモリ14に記憶されている識別情報及び画像位置情報に基づいて特定することができる。
S160では、S150の認識カメラ優先処理によって特定した優先カメラに応じて、基本対応テーブル及び付加対応テーブルのうち何れかの対応テーブルを選択し、選択した対応テーブルを用いて仮想視点を設定して、本処理を終了する。具体的に本実施形態では、前述したように、特定した優先カメラが認識カメラとみなされるため、優先カメラの位置の反対側斜め上方の位置から優先カメラ側斜め下方を所定角度で向く仮想視点が設定されることになる。
[1−2−2.テーブル簡易選択処理]
次に、S120においてCPU12が実行するテーブル簡易選択処理について、図8のフローチャートを用いて説明する。
本処理が起動すると、視点変換部22では、まず、S210において、メモリ14に記憶されている識別情報に基づき認識カメラを特定し、特定できた認識カメラが1つだけであるか否かを判定する。認識カメラが1つだけであると判定した場合は、S220に移行して、基本対応テーブルを選択し、本処理を終了する。認識カメラが1つだけでない(本実施形態では認識カメラが2つ以上である)と判定した場合は、S230に移行して、特定できた認識カメラが2つであるか否かを判定する。認識カメラが2つであると判定した場合は、S240に移行し、認識カメラが3つ以上であると判定した場合は、本処理を終了する。
S240では、画像認識部21により認識された対象物を含む撮像領域を対象物撮像領域とし、この対象物撮像領域に関する所定の撮像領域条件が成立しているか否かを判定する。撮像領域条件が成立していると判定した場合は、S250に移行して、付加対応テーブルを選択し、本処理を終了する。撮像領域条件が不成立であると判定した場合は、対応テーブルを選択することなく、本処理を終了する。具体的に本実施形態では、メモリ14に記憶されている画像位置情報に基づいて対象物撮像領域が特定されることになる。
撮像領域条件は、対象物撮像領域が重複領域OA1〜OA4の中の何れか一つであることを、その成立要件の一つとすることができる。つまり、認識カメラが2つ特定されたとしても、画像認識部21により認識された対象物が重複領域OA1〜OA4の中の何れか一つだけに存在していれば、これら2つの認識カメラの何れもが対象物を撮像しているため、付加対応テーブルを選択することにより、これら2つの認識カメラの組合せに対応する仮想視点を設定することができる。
また、撮像領域条件は、対象物撮像領域が重複領域OA1〜OA4の中の何れか一つに隣接する単領域SA1〜SA4の中の二つであることを、その成立要件の一つとすることができる。つまり、画像認識部21により対象物が二つ以上認識され、かつ、これらの対象物が異なる撮像領域に重複領域OA1〜OA4の中の何れか一つを挟んだ二つの単領域SA1〜SA4に分散されていれば、上記のように2つの認識カメラの組合せに対応する仮想視点を設定することができる。なお、撮像領域条件は、これらの例示したもの限らず、予め複数決めておくことができる。
[1−2−3.ブレンド率設定処理]
次に、画像設定部24の機能を実現させるためにCPU12が行う仮想視点設定処理について、図9のフローチャートを用いて説明する。なお、本処理は、例えば車載表示制御装置1のスイッチ(非図示)がオン状態である間、表示制御ユニット20内において機能毎に予め設定されたタイミングで繰り返し起動される。
本処理が起動すると、画像設定部24では、まず、S310において、画像認識部21により認識された対象物が重複領域OA1〜OA4の中の何れかに存在するか否かを判定する。この判定は、例えばメモリ14に記憶される画像位置情報に基づいて行うことができる。対象物が重複領域OA1〜OA4の中の何れかに存在すると判定した場合には、S320に移行する。
一方、対象物が重複領域OA1〜OA4の中の何れにも存在しないと判定した場合には、S360に移行して、全ての重複画像領域における各視点変換画像部分のブレンド率を50%ずつに設定する初期設定を継続し、本処理を終了する。ブレンド率は、重複画像領域における各視点変換画像部分の画素値(例えばRGB値)の合成割合をいう。このため、ブレンド率が50%ずつに設定されると、重複画像領域における合成前の各視点変換画像部分をそれぞれ画像部分B1、画像部分C1とした場合、画像部分B1を構成する各画素値に50%を乗じた画像部分B2と、画像部分C1を構成する各画素値に50%を乗じた画像部分C2と、を加算することになる。
S320では、S310で存在すると判定した対象物の認識結果を取得し、S330に移行する。具体的に本実施形態では、メモリ14に記憶されている対象物に関する候補値やオプティカルフローのベクトル値等を読み出すことにより、対象物の認識結果を得ることができる。
S330では、重複領域OA1〜OA4のうちS310で判定した対象物が存在する領域を対象物重複領域とし、各対象物重複領域について、その領域を撮像した2つのカメラ10の各撮像画像における対象物の認識精度を比較し、両撮像画像における対象物の認識精度が異なるか否かを判定する。具体的に本実施形態では、S320で取得した認識結果のうち、対象物に関する候補値が大きいほど認識精度が高いものとみなして判定することができる。
こうして各撮像画像間で対象物の認識精度が異なると判定した場合には、S370に移行して、対象物が画像中に位置する重複画像領域部分のブレンド率を可変設定し、本処理を終了する。具体的には、重複画像領域における各視点変換画像部分のうち、認識精度が高い方の撮像画像を基にした視点変換画像部分に関するブレンド率を、他方の視点変換画像部分に関するブレンド率よりも高く設定する。例えば本実施形態では、両撮像画像部分における対象物のそれぞれの認識精度に応じて、認識精度が高いほどブレンド率が大きくなるように設定することができる。
ただし、この設定においては、両撮像画像部分のブレンド率を足し合わせると100%になるように設定する必要がある。例えば、重複画像領域における合成前の各視点変換画像部分のうち、認識精度が高い方の画像部分B1を構成する各画素値に70%を乗じた画像部分B2と、認識精度が低い方の画像部分C1を構成する各画素値に30%を乗じた画像部分C2と、を加算することができる。
一方で、各撮像画像間で対象物の認識精度が異ならないと判定した場合には、S340に移行して、各対象物重複領域について、その領域を撮像した2つのカメラ10の各撮像画像における対象物の警告優先度を比較し、両撮像画像における対象物の警告優先度が異なるか否かを判定する。具体的に本実施形態では、S320で取得した認識結果のうち、対象物に関するオプティカルフローのベクトル値が大きいほど警告優先度が高いものとみなして判定することができる。なお、警告優先度の比較方法では、上記例に限らず、例えば画像中の対象物の種別等、他の指標によって警告優先度を予め決めておくことができる。
こうして各撮像画像間で対象物の警告優先度が異なると判定した場合にも、S370に移行して、対象物が画像中に位置する重複画像領域部分のブレンド率を可変設定し、本処理を終了する。具体的には、重複画像領域における各視点変換画像部分のうち、警告優先度が高い方の撮像画像を基にした視点変換画像部分に関するブレンド率を、他方の視点変換画像部分に関するブレンド率よりも高く設定する。例えば本実施形態では、両撮像画像部分における対象物の各警告優先度に応じて、警告優先度が高いほどブレンド率が大きくなるように設定することができる。
一方で、各撮像画像間で対象物の認識精度が異ならないと判定した場合には、S350に移行して、各対象領域について、その領域を撮像した2つのカメラ10の各撮像画像部分における対象物の画像位置を比較し、両撮像画像部分のうち、対象物の位置に関する所定の対象物位置条件を満たす一方の撮像画像部分が存在するか否かを判定する。具体的に本実施形態では、メモリ14に記憶されている画像位置情報に基づいて、対象物に関する画像中の位置について各撮像画像の中心からの距離を比較し、例えばこの距離が所定の閾値よりも小さいことを対象物位置条件の成立要件として判定することができる。対象物位置条件の成立要件は、上記例示したものに限らず、対象物の実際の位置や画像中の位置に関する条件として予め規定しておくことができるが、画像中の位置に基づいて直接的に判定可能な条件である方が処理負担を軽減することができる。
こうして各撮像画像間で対象物位置条件を満たす一方の撮像画像部分が存在すると判定した場合にも、S370に移行して、対象物が画像中に位置する重複画像領域部分のブレンド率を可変設定し、本処理を終了する。具体的には、重複画像領域における各視点変換画像部分のうち、対象物位置条件が成立する方の撮像画像を基にした視点変換画像部分に関するブレンド率を、他方の視点変換画像部分に関するブレンド率よりも高く設定する。例えば本実施形態では、両撮像画像部分における対象物の画像位置に応じて、各撮像画像の中心からの距離が小さいほどブレンド率が大きくなるように設定することができる。
なお、各撮像画像間で対象物位置条件を満たす一方の撮像画像部分が存在しないと判定した場合には、S360に移行して、全ての重複画像領域における各視点変換画像部分のブレンド率を50%ずつに設定する初期設定を継続し、本処理を終了する。
このように本処理では、認識精度や警告優先度や対象物位置条件に応じて、重複画像領域における視点変換画像部分のブレンド率を設定するようにしている。図10は、対象物としての歩行者が後方カメラ4と右側方カメラ6とで撮像された両撮像画像部分が存在する場合であり、両撮像画像部分の認識精度について、後方カメラ4(図10(A)参照)の方が、右側方カメラ6(図10(B)参照)よりも高い場合を例示している。この場合、重複画像領域における各視点変換画像部分のブレンド率について、50%ずつに設定すると、両視点変換画像部分の歩行者が同程度に合成されて表示されるため、運転支援画像の視認性が悪化しやすくなる(図10(C)参照)。一方で、ブレンド率について、例えば、認識精度が高い後方カメラ4の方の視点変換画像部分を70%、認識精度が低い右側方カメラ6の方の視点変換画像部分を30%に設定すると、認識精度が高い方の歩行者が目立つように合成されて表示されるため、運転支援画像の視認性の悪化を抑制することが可能となる(図10(D)参照)。
[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)対象物を撮像した認識カメラを特定するだけで仮想視点が設定され得るため、複雑な処理を伴うことなく、簡易な処理で視点変換画像を生成することが可能となり、これにより運転支援画像の出力タイミングを早めることができ、ひいては運転支援に関するリアルタイム性の確保に資することができる。さらには、対象物が強調された視点変換画像が運転支援画像として出力されるため、自車両の周囲に存在する歩行者や他車両等の存在をよりわかりやすく運転者に提示することができる。
(2a)テーブル簡易選択処理では、認識カメラが一つである場合、カメラと仮想視点とが一対一に対応づけられた基本対応テーブルを用いて仮想視点を設定するので、仮想視点の設定に関する処理負担を好適に削減することができる。
(3a)また、テーブル簡易選択処理では、認識カメラが二つである場合、画像認識部21により認識された対象物を含む撮像領域に関する所定の撮像領域条件が成立しているときに、カメラの組合せパターンと仮想視点とが一対一に対応づけられた付加対応テーブルを用いて仮想視点を設定するので、仮想視点の設定に関する可用性を好適に高めることができる。
(4a)また、テーブル簡易選択処理では、画像認識部21により認識された対象物を含む撮像領域が二つのカメラの何れでも撮像可能な重複領域であることを、撮像領域条件の成立要件の一つとしているので、認識カメラが二つである場合にも、仮想視点の設定に関する処理負担を好適に削減することができる。
[2.他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されることなく、種々の形態を採り得る。
(2A)上記実施形態では、各カメラ10の撮像画像が視点変換された視点変換画像を合成し、合成画像を運転支援画像として出力しているが、これに限定されるものではない。例えば、各カメラ10のうち少なくとも1つの撮像画像が視点変換された視点変換画像を他の視点変換画像と合成することなく、運転支援画像として出力してもよい。
(2B)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(2C)上述した車載表示制御装置1の他、当該車載表示制御装置1を構成要素とするシステム、当該車載表示制御装置1としてコンピュータを機能させるための1ないし複数のプログラム、このプログラムの少なくとも一部を記録した1ないし複数の記録媒体(具体的には、半導体メモリ等の非遷移的実体的記録媒体)、車載表示制御方法など、種々の形態で本発明を実現することもできる。
1…車載表示制御装置、2…前方カメラ、4…後方カメラ、6…右側方カメラ、8…左側方カメラ、10…カメラ、12…CPU、14…メモリ、20…表示制御ユニット、21…画像認識部、22…視点変換部、23…画像合成部、24…画像設定部、25…画像強調部、26…画像出力部、30…ディスプレイ、A1…前方領域、A2…後方領域、A3…右側方領域、A4…左側方領域、E1〜E8…仮想視点、OA1…右前重複領域、OA2…左前重複領域、OA3…右後重複領域、OA4…左後重複領域、SA1…前方単領域、SA2…後方単領域、SA3…右側方単領域、SA4…左側方単領域。

Claims (3)

  1. 車両の周囲における各撮像領域をそれぞれ撮像するように前記車両に搭載された複数の撮像装置(10)の撮像画像の中から予め定められた対象物を認識する画像認識部(21)と、
    前記複数の撮像装置のうち、前記画像認識部により認識された対象物を含む画像を撮像した撮像装置を認識撮像装置として特定し、前記認識撮像装置に予め対応づけられている仮想視点から見た視点変換画像に前記撮像画像を変換する視点変換部(22)と、
    前記視点変換部により変換された視点変換画像に含まれている前記対象物の画像部分を強調させる画像強調部(25)と、
    前記画像強調部により前記対象物の画像部分が強調された前記視点変換画像を運転支援画像として、前記車両に搭載された表示装置(30)に前記運転支援画像を出力する画像出力部(26)と、
    を備える車載表示制御装置であって、
    前記視点変換部は、前記認識撮像装置が一つである場合、前記撮像装置と前記仮想視点とが一対一に対応づけられた基本対応テーブルを用いて前記仮想視点を設定し(S210−S220)、
    前記視点変換部は、前記認識撮像装置が二つである場合、前記画像認識部により認識された対象物を含む撮像領域に関する所定の撮像領域条件が成立しているときに、前記撮像装置の組合せパターンと前記仮想視点とが一対一に対応づけられた付加対応テーブルを用いて前記仮想視点を設定する(S230−S250)、
    ことを特徴とする車載表示制御装置。
  2. 請求項に記載の車載表示制御装置であって、
    前記視点変換部は、前記画像認識部により認識された対象物を含む撮像領域が二つの前記撮像装置の何れでも撮像可能な重複領域であることを、前記撮像領域条件の成立要件の一つとする、
    ことを特徴とする車載表示制御装置。
  3. 車両の周囲における各撮像領域をそれぞれ撮像するように前記車両に搭載された複数の撮像装置(10)の撮像画像の中から予め定められた対象物を認識する画像認識工程(21)と、
    前記複数の撮像装置のうち、前記画像認識工程により認識された対象物を含む画像を撮像した撮像装置を認識撮像装置として特定し、前記認識撮像装置に予め対応づけられている仮想視点から見た視点変換画像に前記撮像画像を変換する視点変換工程(22)と、
    前記視点変換工程により変換された視点変換画像に含まれている前記対象物の画像部分を強調させる画像強調工程(25)と、
    前記画像強調工程により前記対象物の画像部分が強調された前記視点変換画像を運転支援画像として、前記車両に搭載された表示装置(30)に前記運転支援画像を出力する画像出力工程(26)と、
    を備える車載表示制御方法であって、
    前記視点変換工程は、前記認識撮像装置が一つである場合、前記撮像装置と前記仮想視点とが一対一に対応づけられた基本対応テーブルを用いて前記仮想視点を設定し(S210−S220)、
    前記視点変換工程は、前記認識撮像装置が二つである場合、前記画像認識工程により認識された対象物を含む撮像領域に関する所定の撮像領域条件が成立しているときに、前記撮像装置の組合せパターンと前記仮想視点とが一対一に対応づけられた付加対応テーブルを用いて前記仮想視点を設定する(S230−S250)、
    ことを特徴とする車載表示制御方法。
JP2015154409A 2015-08-04 2015-08-04 車載表示制御装置、車載表示制御方法 Active JP6406159B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015154409A JP6406159B2 (ja) 2015-08-04 2015-08-04 車載表示制御装置、車載表示制御方法
DE112016003517.9T DE112016003517T5 (de) 2015-08-04 2016-07-21 Vorrichtung zum Darstellen von Unterstützungsbildern für einen Fahrer und Verfahren dazu
US15/749,631 US10464484B2 (en) 2015-08-04 2016-07-21 Apparatus for presenting support images to a driver and method thereof
CN201680045331.4A CN107852483B (zh) 2015-08-04 2016-07-21 向驾驶员提示辅助图像的装置及其方法
PCT/JP2016/071370 WO2017022496A1 (ja) 2015-08-04 2016-07-21 運転者に支援画像を提示する装置及びその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015154409A JP6406159B2 (ja) 2015-08-04 2015-08-04 車載表示制御装置、車載表示制御方法

Publications (3)

Publication Number Publication Date
JP2017034543A JP2017034543A (ja) 2017-02-09
JP2017034543A5 JP2017034543A5 (ja) 2017-07-13
JP6406159B2 true JP6406159B2 (ja) 2018-10-17

Family

ID=57942843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015154409A Active JP6406159B2 (ja) 2015-08-04 2015-08-04 車載表示制御装置、車載表示制御方法

Country Status (5)

Country Link
US (1) US10464484B2 (ja)
JP (1) JP6406159B2 (ja)
CN (1) CN107852483B (ja)
DE (1) DE112016003517T5 (ja)
WO (1) WO2017022496A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150101915A (ko) * 2014-02-27 2015-09-04 삼성전자주식회사 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스
JP6723820B2 (ja) * 2016-05-18 2020-07-15 株式会社デンソーテン 画像生成装置、画像表示システムおよび画像表示方法
WO2018020751A1 (ja) * 2016-07-26 2018-02-01 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6539253B2 (ja) * 2016-12-06 2019-07-03 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム
WO2018151280A1 (ja) * 2017-02-17 2018-08-23 住友重機械工業株式会社 作業機械用周辺監視システム
US10521963B1 (en) * 2018-06-08 2019-12-31 Verizon Patent And Licensing Inc. Methods and systems for representing a pre-modeled object within virtual reality data
KR20200005282A (ko) * 2018-07-06 2020-01-15 현대모비스 주식회사 미러리스 자동차의 측방 영상 처리 장치 및 방법
US11721005B2 (en) * 2018-08-31 2023-08-08 Mitsubishi Electric Corporation Automobile use video image recording device and automobile use graphical image recognition device
US10926715B1 (en) * 2019-06-13 2021-02-23 Vidal M. Soler Vehicle camera system
JP7243478B2 (ja) * 2019-06-24 2023-03-22 トヨタ自動車株式会社 車両用情報記録装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4252954A (en) 1979-10-25 1981-02-24 Eli Lilly And Company Salts of dihalo-3,4-dihydro-3-oxo-2-quinoxaline carboxylic acids and hindered amines
EP2309453A3 (en) * 1998-07-31 2012-09-26 Panasonic Corporation Image displaying apparatus and image displaying method
JP4196841B2 (ja) * 2004-01-30 2008-12-17 株式会社豊田自動織機 映像位置関係補正装置、該映像位置関係補正装置を備えた操舵支援装置、及び映像位置関係補正方法
JP4725233B2 (ja) 2005-08-02 2011-07-13 日産自動車株式会社 俯瞰画像表示システム
US8004394B2 (en) * 2006-11-07 2011-08-23 Rosco Inc. Camera system for large vehicles
JP5088669B2 (ja) * 2007-03-23 2012-12-05 株式会社デンソー 車両周辺監視装置
JP2009040107A (ja) * 2007-08-06 2009-02-26 Denso Corp 画像表示制御装置及び画像表示制御システム
JP5158063B2 (ja) * 2009-12-02 2013-03-06 株式会社デンソー 車両用表示装置
WO2011108198A1 (ja) * 2010-03-03 2011-09-09 本田技研工業株式会社 車両の周辺監視装置
JP5681569B2 (ja) 2011-05-31 2015-03-11 富士通テン株式会社 情報処理システム、サーバ装置、および、車載装置
JP5483120B2 (ja) * 2011-07-26 2014-05-07 アイシン精機株式会社 車両周辺監視システム
JP5904093B2 (ja) * 2012-10-30 2016-04-13 株式会社デンソー 車載画像生成装置
JP6310652B2 (ja) 2013-07-03 2018-04-11 クラリオン株式会社 映像表示システム、映像合成装置及び映像合成方法
CN103810686A (zh) * 2014-02-27 2014-05-21 苏州大学 无缝拼接全景辅助驾驶系统及方法

Also Published As

Publication number Publication date
JP2017034543A (ja) 2017-02-09
CN107852483A (zh) 2018-03-27
WO2017022496A1 (ja) 2017-02-09
US10464484B2 (en) 2019-11-05
US20180229656A1 (en) 2018-08-16
CN107852483B (zh) 2020-02-07
DE112016003517T5 (de) 2018-04-26

Similar Documents

Publication Publication Date Title
JP6406159B2 (ja) 車載表示制御装置、車載表示制御方法
WO2017022497A1 (ja) 運転者に支援画像を提示する装置及びその方法
WO2016002163A1 (ja) 画像表示装置、画像表示方法
JP6649738B2 (ja) 駐車区画認識装置、駐車区画認識方法
JP6524922B2 (ja) 運転支援装置、運転支援方法
JP6586849B2 (ja) 情報表示装置及び情報表示方法
JP6425991B2 (ja) 牽引車両周囲画像生成装置および牽引車両周囲画像生成方法
JP7263731B2 (ja) 画像処理装置
WO2019058585A1 (ja) 表示制御装置
JP6406175B2 (ja) 車載表示制御装置、車載表示制御方法
WO2015122124A1 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2018074411A (ja) 物体検出装置及び物体検出方法
WO2019155868A1 (ja) 画像生成装置および画像生成方法
JP6032141B2 (ja) 走行路面標示検知装置および走行路面標示検知方法
JP2007028443A (ja) 画像表示システム
WO2017188245A1 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2016002418A1 (ja) 情報処理装置
JP6809495B2 (ja) 画像作成装置
JP6781010B2 (ja) 画像表示装置及び画像処理方法
JP2020155792A (ja) 画像表示装置
JP7131327B2 (ja) 物標検知装置
JP2007028444A (ja) 画像表示システム
JP6673242B2 (ja) 画像表示装置
JP2009267924A (ja) 撮像システムおよび画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170531

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180903

R151 Written notification of patent or utility model registration

Ref document number: 6406159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250