JP6555195B2 - 画像生成装置 - Google Patents

画像生成装置 Download PDF

Info

Publication number
JP6555195B2
JP6555195B2 JP2016117010A JP2016117010A JP6555195B2 JP 6555195 B2 JP6555195 B2 JP 6555195B2 JP 2016117010 A JP2016117010 A JP 2016117010A JP 2016117010 A JP2016117010 A JP 2016117010A JP 6555195 B2 JP6555195 B2 JP 6555195B2
Authority
JP
Japan
Prior art keywords
image
vehicle
unit
image generation
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016117010A
Other languages
English (en)
Other versions
JP2017224881A (ja
JP2017224881A5 (ja
Inventor
匡之 雨谷
匡之 雨谷
宗昭 松本
宗昭 松本
昇幸 横田
昇幸 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016117010A priority Critical patent/JP6555195B2/ja
Priority to DE112017002951.1T priority patent/DE112017002951T5/de
Priority to US16/308,956 priority patent/US20190126827A1/en
Priority to PCT/JP2017/021855 priority patent/WO2017217422A1/ja
Priority to CN201780036175.XA priority patent/CN109314766A/zh
Publication of JP2017224881A publication Critical patent/JP2017224881A/ja
Publication of JP2017224881A5 publication Critical patent/JP2017224881A5/ja
Application granted granted Critical
Publication of JP6555195B2 publication Critical patent/JP6555195B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0275Parking aids, e.g. instruction means by overlaying a vehicle path based on present steering angle over an image without processing that image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両及び当該車両の周辺に応じた画像を生成する技術に関する。なお、本明細書において、透過性のある画像とは、当該画像の一部が透明化されるか、或いは当該画像の一部又は全部が半透明化されている画像を意味し、当該画像の全体が透明化されて当該画像が認識不能となった画像は含まないものとする。
従来、例えば特許文献1に記載のように、車両に搭載されたカメラを介して当該車両の周辺を撮影した画像と、予め用意された前記車両の屋根等の画像とに基づき、車両外部に設定された仮想視点から前記車両及び前記周辺を見た画像を生成する技術が知られている。前記仮想視点は、仮想的に設定された視点であり、例えば、前記車両全体を含む三次元空間における車両の斜め上などに設定されると、車両とその周辺の状況との関係が把握可能となる。
国際公開00/07373号
一方、車両の後退時などに、舵角等から予想される当該車両の走行軌跡を、車両の後方周辺を撮影した画像の上に重ねて表示する技術も知られている。しかしながら、前述のような仮想視点から車両及び当該車両の周辺を見た画像(以下、3Dビューともいう)を前記軌跡に単純に重ねて表示したのでは、分かりにくい画像となってしまうという課題があった。
本発明は、こうした問題にかんがみてなされたものであり、車両及び当該車両の周辺を仮想視点から見た画像と、予想される車両の走行軌跡との双方を認識可能とする技術を提供することを目的としている。
本発明の画像生成装置は、画像取得部(3A,3B,3C,3D)と、画像生成部(10,S9,S9A,S1,S1A)と、軌跡予想部(10,S5,S5A)と、画像合成部(10,S11)と、を備える。
画像取得部は、車両(1)の周辺を撮影した画像を取得するように構成されている。画像生成部は、前記画像取得部が取得した画像を用いて、前記車両の外部に設定された仮想視点(V)から前記車両及び前記周辺を見た画像を、生成するように構成されている。軌跡予想部は、前記車両の運転状態に基づき、前記車両の走行軌跡を予想するように構成されている。画像合成部は、前記画像生成部が生成した画像のうちの前記車両の画像(B,T)、又は、前記軌跡予想部が予想した走行軌跡の画像(K)のうち、いずれか一方を透過性のある画像として、他方の画像に上から重ね、更にそれらの画像を前記画像生成部が生成した画像のうちの前記周辺の画像(H)に上から重ねて得られた画像を、出力画像として生成するように構成されている。
このような構成によれば、前記仮想視点から前記車両及び前記周辺を見た画像のうちの前記車両を表す画像か、又は、前記予想された車両の走行軌跡の画像のうち、いずれか一方が透過性のある画像として他方の画像に上から重ねられる。そして、これらの画像は前記周辺の画像に上から重ねられるので、車両及び当該車両の周辺を仮想視点から見た画像と、予想される車両の走行軌跡との双方が認識可能となる。その結果、車両と周辺の状況との関係、及び、その車両に対して予想される走行軌跡と周辺の状況との関係が、いずれも良好に把握可能となる。
また、前記画像生成部は、前記画像取得部が取得した画像と、前記車両に応じて予め準備された透過性のある前記車両の画像(B,T)とを用いて、前記車両の外部に設定された仮想視点(V)から前記周辺及び擬似的に透過性を付与された前記車両を見た画像を、生成するように構成され、前記画像合成部は、前記画像生成部が生成した画像のうちの前記車両の画像を、前記軌跡予想部が予想した走行軌跡の画像(K)に上から重ね、更にそれらの画像を前記画像生成部が生成した画像のうちの前記周辺の画像(H)に上から重ねて得られた画像を、出力画像として生成するように構成されてもよい。
その場合も、透過性のある車両の画像を軌跡の画像に上から重ねた画像が、周辺の画像に上から重ねられるので、車両及び当該車両の周辺を仮想視点から見た画像と、予想される車両の走行軌跡との双方が認識可能となる。その結果、車両と周辺の状況との関係、及び、その車両に対して予想される走行軌跡と周辺の状況との関係が、いずれも良好に把握可能となる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
第1実施形態の画像生成装置の構成を表すブロック図である。 その画像生成装置のカメラの配置を模式的に表す説明図である。 その画像生成装置による表示処理を表すフローチャートである。 その表示処理による表示結果の一例を表す説明図である。 第2実施形態の画像生成装置の構成を表すブロック図である。 その画像生成装置における表示状態の一例を表す説明図である。 その画像生成装置による表示処理を表すフローチャートである。 その表示処理における仮想視点の変更例を表す説明図である。 その表示処理における仮想視点の他の変更例を表す説明図である。 各実施形態における走行軌跡表示の変形例を表す説明図である。 各実施形態における走行軌跡表示の他の変形例を表す説明図である。
以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.第1実施形態]
[1−1.構成]
図1に示す第1実施形態の画像生成装置は、カメラ3と、表示装置5と、ECU10とを備える。なお、カメラ3とは、図1に示す前カメラ3A,右カメラ3B,左カメラ3C,後カメラ3Dを総称した呼称である。この画像生成装置は、図2に示す車両1に搭載されるもので、前カメラ3Aは車両1の前方に、右カメラ3Bは車両1の右方に、左カメラ3Cは車両1の左方に、後カメラ3Dは車両1の後方に、それぞれ設置される。前カメラ3Aは、例えば、車両1のボンネットの前端中央に配置されてもよい。後カメラ3Dは、例えば、車両1の後方のナンバープレート上方に配置されてもよい。右カメラ3B及び左カメラ3Cは、例えば、それぞれ左右のドアミラー上方に配置されてもよい。各カメラ3は、いずれも広角カメラであってもよい。
表示装置5としては、液晶を利用したもの、有機EL素子を利用したものなど、各種表示装置が利用可能である。また、表示装置5は、モノクロの表示装置であっても、カラーの表示装置であってもよい。また、表示装置5は、表面に圧電素子等を備えることによりタッチパネルとして構成されたものであってもよい。また、表示装置5は、カーナビゲーション装置やオーディオ機器など、他の車載機器のために設けられた表示装置と兼用されてもよい。
ECU10は、図示省略したCPUと、RAM,ROM,フラッシュメモリ等の半導体メモリ(以下、メモリ20という)と、を有する周知のマイクロコンピュータを中心に構成される。ECU10の各種機能は、CPUが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ20が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、ECU10を構成するマイクロコンピュータの数は1つでも複数でもよい。また、ECU10は、メモリ20におけるRAMの記憶を維持したりCPUを駆動したりするための電源30を備える。
ECU10は、CPUがプログラムを実行することで実現される機能の構成として、カメラ映像入力処理部11と、画像処理部13と、映像出力信号処理部15と、車両情報信号処理部19と、を備える。ECU10を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。
カメラ映像入力処理部11は、各カメラ3が撮影した映像に応じた信号を各カメラ3から入力され、その信号を、ECU10において画像データとして取り扱い可能な信号に変換する。画像処理部13は、カメラ映像入力処理部11から入力された信号に対して後述のような加工処理(以下、表示処理という)を施して、映像出力信号処理部15へ出力する。映像出力信号処理部15は、画像処理部13から入力された信号に応じて、表示装置5の駆動信号を生成して、当該表示装置5へ出力する。車両情報信号処理部19は、図示省略した車内LAN等を介して、車両1のシフト位置,車速,舵角等のデータ(以下、車両情報ともいう)を取得し、画像処理部13へ出力する。メモリ20は、前記プログラムの他、車両1の屋根等の外形等を表す内部パラメータも格納している。
[1−2.処理]
次に、画像処理部13が実行する表示処理について、図3のフローチャートを用いて説明する。なお、この処理は、車両1の電源がオンであるときに運転者により所定の操作がなされたときに開始される。なお、所定の操作とは、シフト位置をR(すなわち後退)に入れる操作であってもよく、この表示処理を起動するためのスイッチ又はボタンを押下する操作であってもよく、その他の操作であってもよい。また、車両1の電源がオンであるとは、車両1が電気自動車又はハイブリッド車である場合は、文字通り電源スイッチがオンの状態にされた状態を指し、車両1が内燃機関によって走行する車両である場合は、キーがACC又はONの位置に配置された状態を指す。
図3に示すように、この処理が開始されると、S1の処理と、S3及びS5の処理と、S7及びS9の処理とが、並列処理として実行される。S1の処理では、車両1の屋根の形状などといった、更新の必要がない画像の準備がなされる。この処理は、メモリ20から適宜のデータを読み出すことによってなされる。例えば、本処理によって、車両1及びその周辺を、車両1の前方斜め上方に配置された仮想視点から見た3Dビューが表示装置5に表示される場合、車両1の車体Bの形状は、例えば図4に点線で例示したような形状であって更新の必要がない。S1では、そのような画像のデータが準備される。
S3,S5の処理では、先ず、S3にて、シフト位置,車速,舵角等の車両情報が取得され、続くS5にて、当該車両情報を元に車両1の軌跡が描画される。S5の処理では、S3にて取得された車両情報を元に、車両1の走行軌跡(以下、単に軌跡ともいう)が予想され、その軌跡が、例えばメモリ20に設けられたイメージバッファに描画される。なお、このS5にて描画される軌跡は、車両1の車体B全体の軌跡であってもよく、全ての車輪Tの軌跡であってもよく、図4に例示した軌跡Kのように後方の車輪Tの軌跡(すなわち、一部の車輪Tの軌跡)であってもよい。また、このS5では、S3にて車両情報として取得された舵角等を元に、各車輪Tの車体Bに対する角度(すなわち向き)が計算され、その角度で車輪Tが前記イメージバッファに描画されてもよい。
S7,S9の処理では、先ず、S7にて、4つのカメラ3A,3B,3C,3Dが撮影した映像に応じた画像データが入力され、続くS9にて、当該画像データに対する画像処理がなされることにより、車両1の周辺を前記仮想視点から見た3Dビューの画像が合成される。例えば、S9では、4つのカメラ3A,3B,3C,3Dが撮影した映像を変形して結合することにより、図4に背景Hとして例示したような画像が合成される。なお、このとき、車両1の側面等、カメラ3A〜3Dの撮影範囲に入る車体B又は車輪Tは、その撮影結果に基づいて画像が合成されてもよく、S1にて予め準備されたデータに応じた画像が次のS11にて使用されてもよい。
このように、S1の処理と、S3及びS5の処理と、S7及びS9の処理とが、それぞれ並列処理として実行されると、処理はS11へ移行し、並列処理として前記各処理で生成された画像が重ね合わされる。このとき、各画像を単純に重ね合わせてしまうと、軌跡Kの大部分が車体Bに覆われ、遠方の軌跡Kしか表示されないことになる。その場合、車両1の運転者は、近距離における車両1の動作を推測しにくい。
そこで、S11では、S5で描画された軌跡Kの画像はS9で生成された背景Hの画像の上にそのまま重ねられるものの、車輪T及び車体Bの画像は、半透明化又は部分的に透明化して背景H及び軌跡Kの画像に重ねられるようにしている。この半透明化又は透明化の形態としては、種々の形態が考えられる。
例えば、車輪T及び車体Bの画像は、図4に例示されたように、輪郭を点線で示した画像として背景H及び軌跡Kの画像に重ねられてもよい。すなわち、車輪T及び車体Bの画像は、輪郭以外の部分を完全に透明化した画像として重ね合わされてもよい。なお、輪郭は実線,一点鎖線等であってもよい。また、S11では、背景H及び軌跡Kの画像に車輪T及び車体Bの画像を重ね合わせ、車輪T及び車体Bを表す各画素毎に所定の透過度(すなわちアルファ値)設定して合成するいわゆるアルファブレンドがなされてもよい。この透過度の設定は、半透明化に対応する。また、このような半透明化又は透明化は、軌跡Kが分かる程度に車輪T及び車体Bの一部に対してなされてもよい。また、車体Bのみに透明化又は半透明化がなされ、車輪Tは透明化も半透明化もなされなくてもよい。また、S11の処理は、軌跡Kの画像に前述のような半透明化又は透明化を施して車輪T及び車体Bの画像に上から重ねる処理であってもよい。また、運転操作に影響を及ぼさない車体Bの一部は画像自体が省略されてもよい。
このようにして、S11による重ね合わせが終了した画像に対応したデータは、続くS13にて表示装置5へ映像出力信号処理部15を介して出力され、処理は前述の並列処理(すなわち、S1,S3,S7)へ移行する。
[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1A)本実施形態では、前記仮想視点から見た3Dビューの画像のうちの車体Bの画像か、又は、前記予想された車両の軌跡Kの画像のうち、いずれか一方の画像が少なくとも一部を半透明化又は透明化されて(すなわち透過性を付与されて)他方の画像に上から重ねられる。その結果、車体Bの画像と軌跡Kの画像との双方を、良好に認識可能な画像が表示装置5に表示される。そして、これらの画像は背景Hの画像に重ねられるので、車両1と周辺の状況との関係、及び、その車両1に対して予想される軌跡Kと周辺の状況との関係が、いずれも良好に把握可能となる。このため、車両1の運転者は、自車(すなわち車両1)の動作を容易に予想することができる。また、従来は困難であった近距離から遠距離に至る自車の予想動作を、運転者は良好に把握することができる。
(1B)また、図4に示した例では、車両1の前方斜め上方に配置された仮想視点から見た3Dビューが表示装置5に表示される。この場合、車両1の後退時における車両1と周辺の状況との関係、及び、その車両1に対して予想される軌跡Kと周辺の状況との関係が、いずれも極めて良好に把握可能となる。また、仮想視点が車両1の斜め上方に配置された場合、車両1の真上に配置された場合に比べて車体Bと軌跡Kとの重なりが大きくなる。このため、前述のように、車体B又は軌跡Kのいずれか一方を半透明化又は透明化する効果が一層顕著に表れる。
(1C)また、図4に例示したように、車輪T及び車体Bの3Dビューが表示され、少なくとも車体Bは半透明化又は透明化され、更に、各車輪Tの車体Bに対する角度が舵角に応じた角度とされる場合、舵角と軌跡Kとの関係が把握しやすくなる。このため、運転者は、舵角をどのように調整すれば予想される軌跡Kがどのように変化するかを良好に把握することができる。
[1−4.特許請求の範囲の要素との対応]
なお、前記実施形態において、前カメラ3A、右カメラ3B、左カメラ3C、及び、後カメラ3Dが画像取得部に対応し、ECU10が画像生成部、軌跡予想部、及び、画像合成部に対応する。また、ECU10の処理のうち、S1及びS9が画像生成部に、S5が軌跡予想部に、S10が画像合成部に、それぞれ対応する処理である。
[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第1実施形態では、表示装置5を、表示のみの機能を有するものであっても、タッチパネルであってもよいとした。これに対し、第2実施形態では、図5に示すように、表示装置5としてタッチパネル50を使用し、その操作状態を表す信号を画像処理部13に入力した点で、第1実施形態と相違する。
また、このタッチパネル50には、3Dビューの表示時に、図6に示すような矢印ボタン51〜54が表示される。矢印ボタン51は、仮想視点を上へ移動させるためのボタンである。矢印ボタン52は、仮想視点を右へ移動させるためのボタンである。矢印ボタン53は、仮想視点を下へ移動させるためのボタンである。矢印ボタン54は、仮想視点を左へ移動させるためのボタンである。矢印ボタン51〜54のいずれかが指Fにより押下されると、その情報が画像処理部13に入力される。
なお、図6では、矢印ボタン51〜54をタッチパネル50の右下隅に配置したが、これに限定されるものではなく、運転者が3Dビューを見るときに邪魔になりにくい態様であればどのように配置されてもよい。例えば、上下左右どちら側の隅に配置されてもよく、半透明化するなど3Dビューを隠さない態様の表示であればタッチパネル50の中央に表示されてもよい。
[2−2.処理]
次に、第2実施形態における画像処理部13が、図3に示した第1実施形態における表示処理に代えて実行する表示処理について、図7のフローチャートを用いて説明する。なお、図7に示す処理は、S101〜S107の処理を追加した点において図3の処理と異なり、それに応じて、S1,S5,S9の処理も、若干の変更がなされてS1A,S5A,S9Aとされている。以下、それらの変更点について説明する。
この表示処理では、処理の開始時及びS13の処理の終了時には、S101の処理が実行される。S101では、矢印ボタン51〜54のいずれかが押下されたか否かが判断さえれる。S101にて、矢印ボタン51〜54のいずれかが押下された(すなわちYes)と判断された場合は、処理はS103へ移行する。S103では、仮想視点の極座標であるθ又はφが、矢印ボタン51〜54のうち押下されたものに応じて変更される。
例えば、図8に示すように、車両1を支持する地面G(例えば路面)に対して垂直で、車両1の中心を通る上向きの軸をZ軸とし、そのZ軸に対する仮想視点Vの傾斜角(すなわち極角)をθとする。S103では、矢印ボタン51が押下されたときは、θを小さくするように仮想視点Vの位置を変更する処理がなされ、矢印ボタン53が押下されたときは、θを大きくするように仮想視点Vの位置を変更する処理がなされる。なお、θは、0°≦θ≦90°の範囲で変更可能であり、その範囲を超えてθを変更するような矢印ボタン51又は53の押下がなされた場合は、当該押下は無視される。
また、例えば、図9に示すように、車両1の中心を通って当該車両1の前方に向かう軸をX軸とし、そのX軸から平面視左回りに測った方位角をφとする。S103では、矢印ボタン52が押下されたときは、φを大きくするように仮想視点Vの位置を変更する処理がなされ、矢印ボタン54が押下されたときは、φを小さくするように仮想視点Vの位置を変更する処理がなされる。なお、φは、−180°≦φ≦+180°の範囲で変更可能であり、その範囲を超えてφを変更するような矢印ボタン52又は54の押下がなされた場合は、−180°と+180°とを同一視する処理がなされる。
S103の処理終了後、又は、S101にて矢印ボタン51〜54がいずれも押下されていない(すなわちNo)と判断された場合は、S1Aの処理と、S105及びS107及びS3及びS5Aの処理と、S7及びS9Aの処理とが、並列処理として実行される。
S1Aでは、第1実施形態におけるS1とは異なり、S103にて設定されたθ,φに基づき、その時点で設定されている仮想視点Vの位置に応じて、車両1の屋根の形状などといった更新の必要がない画像の準備がなされる。S9Aも同様で、第1実施形態におけるS9とは異なり、S103にて設定されたθ,φに基づき、その時点で設定されている仮想視点Vから見た3Dビューの画像を合成する画像処理がなされる。
また、第1実施形態におけるS3の1つ手前に挿入されたS105では、θが予め閾値として設定されたθ1以下であるか否かが判断される。このθ1は、軌跡Kの画像が表示されても上下方向の大きさがほとんどない画像となって、当該画像を表示する意味が少なくなる角度を表し、例えば図8に例示した角度に設定される。
そこで、S105にて、θがθ1より大きい(すなわちNo)と判断された場合は、それまで描画されていた軌跡Kの画像がS107にて消去されて、処理は前述のS11へ移行する。また、S105にて、θがθ1以下である(すなわちYes)と判断された場合は、処理は第1実施形態と同様のS3へ移行し、車両情報が取得される。S3に続くS5Aでは、第1実施形態におけるS5とは異なり、S103にて設定されたθ,φに基づき、その時点で設定されている仮想視点Vから見た形状の軌跡Kが描画される。
[2−3.効果]
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1A)〜(1C)に加え、以下の効果が得られる。
(2A)本実施形態では、矢印ボタン51〜54を押下することによって仮想視点Vの位置を自由に調整することができる。このため、車両1と周辺の状況との関係、及び、その車両1に対して予想される軌跡Kと周辺の状況との関係が、いずれも、運転者の所望の位置に配置された仮想視点Vから良好に表示可能となる。言い換えれば、車両1と周辺の状況との関係、及び、その車両1に対して予想される軌跡Kと周辺の状況との関係が、いずれも、運転者の見たい角度から良好に把握可能となる。
(2B)そして、仮想視点Vの位置が低く(すなわちθが大きく)、当該位置から見た軌跡Kを表示する意味が少ない場合は、軌跡Kが表示されない。このため、画像処理部13において無駄な処理がなされるのを抑制することができる。なお、このように軌跡Kを表示するか否かの閾値となるθ1は、製造時に適宜の角度に設定されても、運転者により所望の角度に設定されてもよいが、例えば、車両1における屋根の前端と後輪の中心とを結ぶ線の角度といったような基準により設定されてもよい。なお、前記第2実施形態において、矢印ボタン51〜54が視点設定部に対応する。
[3.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
(3A)図4の例では、軌跡Kがベタ塗りの単一色で描画されたが、これに限定されるものではない。軌跡Kの描画態様は、当該軌跡Kの信頼度等に応じて各部で変化してもよい。例えば、図10に例示するように、信頼度が低い部分(例えば車両1から遠い部分)では軌跡Kが破線で描画され、信頼度が低くなるほど破線の隙間が多くなってもよい。また、図11に例示するように、信頼度が低くなるほど色が薄くなるように、軌跡Kはグラデーションを有する画像として描画されてもよい。その場合、色の濃度が変化する代わりに、色合いが変化してもよい。このような処理は、S5又はS5Aにて軌跡が予想される際に、当該予想における信頼度も軌跡の部位毎に算出され、その信頼度に応じて軌跡Kの各部位の描画態様が変更されるようにすれば実現可能である。その場合、運転者は、軌跡Kの各部位の信頼度を良好に認識することができる。
(3B)第2実施形態では、矢印ボタン51〜54が押下されることによって仮想視点Vの位置が変更されたが、これに限定されるものではない。例えば、車両1の速度が大きいほど、θが大きくなるように仮想視点Vの位置が自動調整されてもよい。その場合、例えば、仮想視点Vが車両1の前方斜め上方に配置された場合、車両1の後退速度が大きいほど遠くの背景Hが表示可能となる。その場合、タッチパネル50が使用される必要はなく、ブロック図は第1実施形態と同様になる。また、このような処理は、図9におけるS101にて車速が変化したか否かが判断され、車速が変化した場合、S103にて車速に応じてθの値が変更されることによって実現できる。
(3C)前記各実施形態では、車輪T及び車体Bが表示され、かつ、車輪Tの車体Bに対する角度が舵角に応じた値とされたが、これに限定されるものではない。例えば、車輪Tの車体Bに対する角度は固定値であってもよく、車輪Tは表示されなくてもよい。また、車輪Tが表示されない場合、コンピュータグラフィックス等の方法により車輪Tが車体Bに隠れるような画像に変換するなど、運転者に違和感を与えない画像への変換がなされてもよい。
(3D)第1実施形態では、車両1の前方斜め上方に仮想視点が固定配置されたが、仮想視点が固定配置される場合の配置はこれに限定されるものではない。例えば、仮想視点は車両1の真上に固定配置されてもよく、車両1の後方斜め上方、右方斜め上方等、その他の位置に固定配置されてもよい。
(3E)前記各実施形態では、車両1に備えられた4つのカメラ3A〜3Dを用いて3Dビューの画像が生成されたが、これに限定されるものではない。例えば、使用されるカメラは5つ以上であってもよい。また、車両1に備えられたカメラが1つだけ使用される場合であっても、過去の撮影画像を利用することによって3Dビューの画像が生成可能な場合がある。また、次のような構成を採用すれば、車両1に備えられたカメラを全く使用しなくてもよい。例えば、インフラに備えられたカメラ、他車両に備えられたカメラ、他車両に搭載されたドライブレコーダ等に備えられたカメラなど、車両1以外に設けられたカメラを利用して3Dビューが生成されてもよい。その場合、画像処理部13は、通信等によって前記カメラの撮影画像を取得することになる。その場合、車両1の外部から通信等によって画像を取得する受信装置が、画像取得部に対応する。
(3F)前記各実施形態では、S11にて、3Dビューの画像のうちの車体Bの画像か、又は、前記予想された車両の軌跡Kの画像のうち、いずれか一方の画像が透過性を付与されて他方の画像に上から重ねられたが、これに限定されるものではない。例えば、S1又はS1Aにて準備される車体B等の画像が、メモリ20に格納されているときから既に十分に透過性を付与された画像(すなわち、元々透過性のある画像)であれば、そのような画像は、S11にて周辺Hの画像の上に単純に重ねられればよい。
(3G)前記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、前記実施形態の構成の一部を省略してもよい。また、前記実施形態の構成の少なくとも一部を、他の前記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(3H)上述した画像生成装置の他、当該画像生成装置を構成要素とするシステム、当該画像生成装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像生成方法など、種々の形態で本発明を実現することもできる。
[4.補足]
なお、以上説明した例示的な実施形態から明らかなように、本発明の画像生成装置は、更に以下に挙げるような構成を備えていてもよい。
(4A)前記画像生成部は、前記車両の斜め上に設定された仮想視点から前記車両の全体及び前記車両周辺を見た画像を生成するように構成されてもよい。その場合、車両の画像又は予想された走行軌跡のいずれか一方を透過性のある画像とした効果が一層顕著に表れる。
(4B)また、前記画像合成部によって前記周辺の画像に上から重ねられる前記車両の画像は、前記車両の各車輪の画像(T)に前記車両の車体の画像(B)を上から重ねた画像であり、前記車体の画像は透過性を付与された画像であってもよい。その場合、車体の画像が透過性のある画像とされたことにより車輪の向きが認識可能となり、舵角と走行軌跡との関係が把握しやすくなる。
(4C)また、前記仮想視点の位置を設定するように構成された視点設定部(51,52,53,54)を、更に備えてもよい。その場合、車両と周辺の状況との関係、及び、予想される走行軌跡と周辺の状況との関係が、所望の角度から良好に把握可能となる。
(4D)そして、(4C)の場合において、前記車両の真上方向に対する傾斜角が予め設定された所定値より大きい位置に前記仮想視点が前記視点設定部を介して設定された場合、前記軌跡予想部(10,5A)は、前記走行軌跡の予想を行わず、前記画像合成部は、前記画像生成部(10,S9A,S1)が生成した画像をそのまま出力画像とするように構成されてもよい。その場合、軌跡予想部及び画像合成部において無駄な処理がなされるのを抑制することができる。ここで、「真上方向」とは、厳密な意味で重力とは逆方向に限るものではなく、目的とする効果を奏するのであれば厳密に真上方向でなくてもよい。例えば、前記第2実施形態のように、地面Gに対する垂直方向であってもよく、それよりも更にいずれかの方向に若干傾斜した方向であってもよい。
(4E)また、前記軌跡予想部は、前記予想の信頼度を前記走行軌跡の部位毎に算出するように構成され、前記画像合成部は、前記走行軌跡におけるそれぞれの部位の画像を、前記信頼度に応じた態様の画像として、前記画像生成部が生成した画像と重ねるように構成されもよい。その場合、走行軌跡におけるそれぞれの部位の信頼度を良好に認識可能となる。
1…車両 3A…前カメラ
3B…右カメラ 3C…左カメラ
3D…後カメラ 5…表示装置
10…ECU 13…画像処理部
19…車両情報信号処理部 20…メモリ
30…電源 50…タッチパネル
51,52,53,54…矢印ボタン B…車体
H…背景 K…軌跡
T…車輪 V…仮想視点

Claims (10)

  1. 車両(1)の周辺を撮影した画像を取得するように構成された画像取得部(3A,3B,3C,3D)と、
    前記画像取得部が取得した画像と、予め記憶されている車両の外形を表す内部パラメータとを用いて、前記車両の外部に設定された仮想視点(V)から前記周辺を見た周辺画像及び前記仮想視点(V)から前記車両を見た姿勢の擬似的に透過性を付与された3次元車両画像を生成するように構成された画像生成部(10,S9,S9A,S1,S1A)と、
    前記車両の運転状態に基づき、前記車両の走行軌跡を予想するように構成された軌跡予想部(10,S5,S5A)と、
    前記画像生成部によって生成された前記周辺画像(H)における前記車両の位置に、前記3次元車両画像と前記軌跡予想部が予想した走行軌跡の画像(K)とを少なくとも一部重複させて前記周辺画像(H)に重ね出力画像として生成するように構成された画像合成部(10,S11)と、
    を備えた画像生成装置。
  2. 請求項1に記載の画像生成装置であって、
    前記軌跡予想部は、前記車両の各車輪の走行軌跡を予想するように構成された画像生成装置。
  3. 請求項1又は請求項に記載の画像生成装置であって、
    前記画像生成部は、前記車両の斜め上に設定された前記仮想視点から前記車両の全体を見た前記3次元車両画像及び前記車両の斜め上に設定された前記仮想視点から記周辺を見た前記周辺画像を生成するように構成された画像生成装置。
  4. 請求項1〜のいずれか1項に記載の画像生成装置であって、
    前記画像合成部によって前記周辺画像に上から重ねられる前記3次元両画像は、前記車両の各車輪の画像(T)に前記車両の車体の画像(B)を上から重ねた画像であり、
    前記車体の画像は透過性を付与された画像である画像生成装置。
  5. 請求項1〜のいずれか1項に記載の画像生成装置であって、
    前記仮想視点の位置を設定するように構成された視点設定部(51,52,53,54)を、
    更に備えた画像生成装置。
  6. 請求項に記載の画像生成装置であって、
    前記車両の真上方向に対する傾斜角が予め設定された所定値より大きい位置に前記仮想視点が前記視点設定部を介して設定された場合、前記軌跡予想部(10,5A)は、前記走行軌跡の予想を行わず、前記画像合成部は、前記画像生成部(10,S9A,S1A)が生成した画像をそのまま出力画像とするように構成された画像生成装置。
  7. 請求項1〜のいずれか1項に記載の画像生成装置であって、
    前記軌跡予想部は、前記予想の信頼度を前記走行軌跡の部位毎に算出するように構成され、
    前記画像合成部は、前記走行軌跡におけるそれぞれの部位の画像を、前記信頼度に応じた態様の画像として、前記画像生成部が生成した画像と重ねるように構成された画像生成装置。
  8. 車両(1)の周辺を撮影した画像を取得するように構成された画像取得部(3A,3B,3C,3D)と、
    前記画像取得部が取得した画像と、前記車両に応じて予め準備された透過性のある前記車両の画像(B,T)とを用いて、前記車両の外部に設定された仮想視点(V)から前記周辺及び擬似的に透過性を付与された前記車両を見た画像を、生成するように構成された画像生成部(10,S9,S9A,S1,S1A)と、
    前記車両の運転状態に基づき、前記車両の走行軌跡を予想するように構成された軌跡予想部(10,S5,S5A)と、
    前記画像生成部が生成した画像のうちの前記車両の画像を、前記軌跡予想部が予想した走行軌跡の画像(K)に上から重ね、更にそれらの画像を前記画像生成部が生成した画像のうちの前記周辺の画像(H)に上から重ねて得られた画像を、出力画像として生成するように構成された画像合成部(10,S11)と、
    を備え
    前記画像合成部によって前記周辺の画像に上から重ねられる前記車両の画像は、前記車両の各車輪の画像(T)に前記車両の車体の画像(B)を上から重ねた画像であり、
    前記車体の画像は透過性を付与された画像である
    画像生成装置。
  9. 車両(1)の周辺を撮影した画像を取得するように構成された画像取得部(3A,3B,3C,3D)と、
    前記画像取得部が取得した画像と、前記車両に応じて予め準備された透過性のある前記車両の画像(B,T)とを用いて、前記車両の外部に設定された仮想視点(V)から前記周辺及び擬似的に透過性を付与された前記車両を見た画像を、生成するように構成された画像生成部(10,S9,S9A,S1,S1A)と、
    前記車両の運転状態に基づき、前記車両の走行軌跡を予想するように構成された軌跡予想部(10,S5,S5A)と、
    前記画像生成部が生成した画像のうちの前記車両の画像を、前記軌跡予想部が予想した走行軌跡の画像(K)に上から重ね、更にそれらの画像を前記画像生成部が生成した画像のうちの前記周辺の画像(H)に上から重ねて得られた画像を、出力画像として生成するように構成された画像合成部(10,S11)と、
    前記仮想視点の位置を設定するように構成された視点設定部(51,52,53,54)と、
    を備え
    前記車両の真上方向に対する傾斜角が予め設定された所定値より大きい位置に前記仮想視点が前記視点設定部を介して設定された場合、前記軌跡予想部(10,5A)は、前記走行軌跡の予想を行わず、前記画像合成部は、前記画像生成部(10,S9A,S1A)が生成した画像をそのまま出力画像とするように構成された
    画像生成装置。
  10. 車両(1)の周辺を撮影した画像を取得するように構成された画像取得部(3A,3B,3C,3D)と、
    前記画像取得部が取得した画像と、前記車両に応じて予め準備された透過性のある前記車両の画像(B,T)とを用いて、前記車両の外部に設定された仮想視点(V)から前記周辺及び擬似的に透過性を付与された前記車両を見た画像を、生成するように構成された画像生成部(10,S9,S9A,S1,S1A)と、
    前記車両の運転状態に基づき、前記車両の走行軌跡を予想するように構成された軌跡予想部(10,S5,S5A)と、
    前記画像生成部が生成した画像のうちの前記車両の画像を、前記軌跡予想部が予想した走行軌跡の画像(K)に上から重ね、更にそれらの画像を前記画像生成部が生成した画像のうちの前記周辺の画像(H)に上から重ねて得られた画像を、出力画像として生成するように構成された画像合成部(10,S11)と、
    を備え
    前記軌跡予想部は、前記予想の信頼度を前記走行軌跡の部位毎に算出するように構成され、
    前記画像合成部は、前記走行軌跡におけるそれぞれの部位の画像を、前記信頼度に応じた態様の画像として、前記画像生成部が生成した画像と重ねるように構成された
    画像生成装置。
JP2016117010A 2016-06-13 2016-06-13 画像生成装置 Active JP6555195B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016117010A JP6555195B2 (ja) 2016-06-13 2016-06-13 画像生成装置
DE112017002951.1T DE112017002951T5 (de) 2016-06-13 2017-06-13 Bilderzeugungsgerät und -programm
US16/308,956 US20190126827A1 (en) 2016-06-13 2017-06-13 Image generating apparatus and program
PCT/JP2017/021855 WO2017217422A1 (ja) 2016-06-13 2017-06-13 画像生成装置及びプログラム
CN201780036175.XA CN109314766A (zh) 2016-06-13 2017-06-13 图像生成装置以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016117010A JP6555195B2 (ja) 2016-06-13 2016-06-13 画像生成装置

Publications (3)

Publication Number Publication Date
JP2017224881A JP2017224881A (ja) 2017-12-21
JP2017224881A5 JP2017224881A5 (ja) 2018-08-02
JP6555195B2 true JP6555195B2 (ja) 2019-08-07

Family

ID=60664619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016117010A Active JP6555195B2 (ja) 2016-06-13 2016-06-13 画像生成装置

Country Status (5)

Country Link
US (1) US20190126827A1 (ja)
JP (1) JP6555195B2 (ja)
CN (1) CN109314766A (ja)
DE (1) DE112017002951T5 (ja)
WO (1) WO2017217422A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021016101A (ja) * 2019-07-12 2021-02-12 トヨタ自動車株式会社 車両用周辺監視装置
JP7327171B2 (ja) * 2020-01-08 2023-08-16 トヨタ自動車株式会社 車両用電子ミラーシステム
JP7559535B2 (ja) 2020-12-14 2024-10-02 株式会社デンソー 車両用表示制御装置及び車両用表示制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2259220A3 (en) 1998-07-31 2012-09-26 Panasonic Corporation Method and apparatus for displaying image
JP4114292B2 (ja) * 1998-12-03 2008-07-09 アイシン・エィ・ダブリュ株式会社 運転支援装置
US7012548B2 (en) * 2000-04-05 2006-03-14 Matsushita Electric Industrial Co., Ltd. Driving operation assisting method and system
EP1158804A3 (en) * 2000-05-24 2003-12-17 Matsushita Electric Industrial Co., Ltd. Rendering device for generating a display image
JP3620647B2 (ja) * 2000-05-24 2005-02-16 松下電器産業株式会社 描画装置
JP4493885B2 (ja) * 2000-06-30 2010-06-30 パナソニック株式会社 運転支援システム
JP2005038225A (ja) * 2003-07-16 2005-02-10 Nissan Motor Co Ltd 車線追従装置
JP2005268847A (ja) * 2004-03-16 2005-09-29 Olympus Corp 画像生成装置、画像生成方法、および画像生成プログラム
JP4595649B2 (ja) * 2005-04-22 2010-12-08 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
JP4812510B2 (ja) * 2006-05-17 2011-11-09 アルパイン株式会社 車両周辺画像生成装置および撮像装置の測光調整方法
JP5302227B2 (ja) * 2010-01-19 2013-10-02 富士通テン株式会社 画像処理装置、画像処理システム、および、画像処理方法
EP2981077B1 (en) * 2013-03-28 2017-09-27 Aisin Seiki Kabushiki Kaisha Periphery monitoring device and program
US10475242B2 (en) * 2014-01-10 2019-11-12 Aisin Seiki Kabushiki Kaisha Image display control device and image display system including image superimposition unit that superimposes a mirror image and a vehicle-body image
JP6190352B2 (ja) 2014-12-19 2017-08-30 株式会社神戸製鋼所 流体流通装置及びその運転方法

Also Published As

Publication number Publication date
JP2017224881A (ja) 2017-12-21
WO2017217422A1 (ja) 2017-12-21
DE112017002951T5 (de) 2019-02-28
CN109314766A (zh) 2019-02-05
US20190126827A1 (en) 2019-05-02

Similar Documents

Publication Publication Date Title
JP6156486B2 (ja) 周辺監視装置、及びプログラム
JP6609970B2 (ja) 周辺監視装置
JP6565148B2 (ja) 画像表示制御装置および画像表示システム
JP6446925B2 (ja) 画像表示制御装置および画像表示システム
JP7151293B2 (ja) 車両周辺表示装置
JP5622986B2 (ja) 画像表示システム、画像処理装置及び画像表示方法
JP2014089513A (ja) 画像生成装置、および画像生成プログラム
JP2002374523A (ja) 監視システム
WO2018150642A1 (ja) 周辺監視装置
JP6998360B2 (ja) 車両用表示装置及び駐車支援システム
WO2017057006A1 (ja) 周辺監視装置
JP5067169B2 (ja) 車両用駐車支援装置および画像表示方法
JP6555195B2 (ja) 画像生成装置
JP6720729B2 (ja) 表示制御装置
JP2020042441A (ja) 表示制御装置
JP2012046124A (ja) 画像表示システム、画像処理装置、および、画像表示方法
US11072283B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
US11302076B2 (en) Periphery monitoring apparatus
JP2005212660A (ja) 駐車支援システム
JP7503995B2 (ja) 表示制御装置、表示装置及び表示制御プログラム
US12045945B2 (en) Control device, control method, and recording medium
US20230176396A1 (en) Control device, control method, and recording medium
US20230179757A1 (en) Control device, control method, and recording medium
WO2018225791A1 (ja) 画像作成装置
JP6601097B2 (ja) 表示制御装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190624

R151 Written notification of patent or utility model registration

Ref document number: 6555195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250