JPWO2018012299A1 - 画像生成装置、画像生成方法、及び、プログラム - Google Patents

画像生成装置、画像生成方法、及び、プログラム Download PDF

Info

Publication number
JPWO2018012299A1
JPWO2018012299A1 JP2018527511A JP2018527511A JPWO2018012299A1 JP WO2018012299 A1 JPWO2018012299 A1 JP WO2018012299A1 JP 2018527511 A JP2018527511 A JP 2018527511A JP 2018527511 A JP2018527511 A JP 2018527511A JP WO2018012299 A1 JPWO2018012299 A1 JP WO2018012299A1
Authority
JP
Japan
Prior art keywords
image
vehicle
unit
integrated
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018527511A
Other languages
English (en)
Other versions
JP7010221B2 (ja
Inventor
英史 大場
英史 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018012299A1 publication Critical patent/JPWO2018012299A1/ja
Application granted granted Critical
Publication of JP7010221B2 publication Critical patent/JP7010221B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • B60R1/081Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors avoiding blind spots, e.g. by using a side-by-side association of mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/02
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • B60R2300/8026Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views in addition to a rear-view mirror system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本技術は、ユーザの注意を、迅速に喚起することができるようにする画像生成装置、画像生成方法、及び、プログラムに関する。統合部は、第1の画像と第2の画像とを統合し、統合画像を生成する。重畳部は、第2の画像に映る物体が、第1の画像に映る物体よりも奥側にある場合に、警告マークを統合画像に重畳し、重畳画像を生成する。本技術は、例えば、サイドミラーや、ルームミラーで観察される画像に相当する画像を提供するCMS(Camera Monitor System)等に適用することができる。

Description

本技術は、画像生成装置、画像生成方法、及び、プログラムに関し、特に、例えば、ユーザの注意を、迅速に喚起することができるようにする画像生成装置、画像生成方法、及び、プログラムに関する。
例えば、特許文献1には、自車両において、車両後部に設置したカメラで撮影された画像と、車両左右のバックミラーに設置したカメラで撮影された画像を変形した画像とを組み合わせて、1つの仮想的な視点から車両後方を観察した様子が映った画像を生成して表示することで、リアリティがある画像を提供するCMS(Camera Monitor System)が提案されている。
ここで、以下、CMSが提供する画像を、CMS画像ともいう。
特許第4762698号公報
自車両において、車両後部に設置したカメラで撮影された画像と、車両左右のバックミラーに設置したカメラで撮影された画像を変形した画像とを組み合わせて、1つの仮想的な視点から車両後方を観察した様子が映った画像を、CMS画像として生成する場合、そのCMS画像では、例えば、車両後部に設置したカメラで撮影された画像に映る走行中の第1の車両に、車両左右のバックミラーに設置したカメラで撮影された画像に映る走行中の第2の車両が隠れ、第2の車両が認識しにくくなることがあり得る。
この場合、自車両を運転するユーザ(ドライバ)は、第2の車両が自車両に近づいてくることの発見が遅れることがあり得る。
本技術は、このような状況に鑑みてなされたものであり、ユーザの注意を、迅速に喚起することができるようにするものである。
本技術の画像生成装置、又は、プログラムは、第1の画像と第2の画像とを統合し、統合画像を生成する統合部と、前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にある場合に、警告マークを前記統合画像に重畳し、重畳画像を生成する重畳部とを備える画像生成装置、又は、そのような画像生成装置としてコンピュータを機能させるためのプログラムである。
本技術の画像生成方法は、第1の画像と第2の画像とを統合し、統合画像を生成することと、前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にある場合に、警告マークを前記統合画像に重畳し、重畳画像を生成することとを含む画像生成方法である。
本技術の画像生成装置、画像生成方法、及び、プログラムにおいては、第1の画像と第2の画像とが統合され、統合画像が生成される。そして、前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にある場合に、警告マークが前記統合画像に重畳され、重畳画像が生成される。
なお、画像生成装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術によれば、ユーザの注意を、迅速に喚起することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
車両としての自動車に搭載されるCMSの概要を説明する図である。 リア画像、Lサイド画像、及び、Rサイド画像を統合した統合画像の表示方法の例を示す図である。 車両が高速で走行する場合に表示するCMS画像となる画像を撮影するカメラの、車両への設置位置の例を示す平面図である。 リア画像及びL/Rサイド画像と、リア画像及びL/Rサイド画像を統合することにより生成される統合画像との例を示す図である。 リア画像及びL/Rサイド画像と、リア画像及びL/Rサイド画像を統合することにより生成される統合画像との他の例を示す図である。 リア画像及びL/Rサイド画像の例を示す図である。 L/Rサイド画像をアフィン変換し、アフィン変換後のL/Rサイド画像を、リア画像に合成することで得られる合成画像の例を示す図である。 L/Rサイド画像をアフィン変換し、アフィン変換後のL/Rサイド画像を、リア画像に合成することで得られる合成画像の他の例を示す図である。 合成画像の例を示す図である。 リア画像及びL/Rサイド画像を、CMS画像として表示する表示方法を説明する図である。 道路上の状況の一例を示す平面図である。 オクルージョンアラートとしての画像が表示された統合画像の表示例を示す図である。 オクルージョンアラートとしての画像が表示された統合画像の他の表示例を示す図である。 オクルージョンアラートとしての画像が表示された統合画像のさらに他の表示例を示す図である。 車両が低速で走行する場合に表示するCMS画像となる画像を撮影するカメラの、車両への設置位置の例を示す平面図である。 低速CMS画像となる画像を撮影するカメラの、車両への設置位置の例を示す斜視図である。 低速CMS画像としての統合画像の例を示す図である。 低速CMS画像としての統合画像の他の例を示す図である。 車両が低中速で走行する場合に表示するCMS画像となる画像を撮影するカメラの、車両への設置位置の例を示す斜視図である。 中速CMS画像としての統合画像の第1の例を示す図である。 中速CMS画像としての統合画像の第2の例を示す図である。 中速CMS画像としての統合画像の第3の例を示す図である。 中速CMS画像としての統合画像の第4の例を説明する図である。 中速CMS画像としての統合画像の第5の例を説明する図である。 中速CMS画像としての統合画像の第5の例を示す図である。 本技術を適用した車両の一実施の形態の外観の構成例の概要を示す平面図である。 車両100に搭載されたCMSの構成例を示すブロック図である。 CMS画像生成部165が設定する表示モードの例を示す図である。 CMS画像生成部165の構成例を示すブロック図である。 リア画像処理部211の構成例を示すブロック図である。 Lサイド画像処理部212の構成例を示すブロック図である。 Rサイド画像処理部213の構成例を示すブロック図である。 Lリアサイド画像処理部214の構成例を示すブロック図である。 Rリアサイド画像処理部215の構成例を示すブロック図である。 起立物検出部252での起立物の検出に行われるセグメンテーションの概要を説明する図である。 CMS画像生成部165が行うCMS画像生成処理の例を説明するフローチャートである。 ステップS103で行われる表示モード5,6,7の画像生成処理の例を説明するフローチャートである。 ステップS111−1でリア画像処理部211が行うリア画像処理の例を説明するフローチャートである。 ステップS111−2でLサイド画像処理部212が行うLサイド画像処理の例を説明するフローチャートである。 ステップS104で行われる表示モード4の画像生成処理の例を説明するフローチャートである。 ステップS181−1でリア画像処理部211が行うリア画像処理の例を説明するフローチャートである。 ステップS181−2でLリアサイド画像処理部214が行うLリアサイド画像処理の例を説明するフローチャートである。 ステップS105で行われる表示モード2,3の画像生成処理の例を説明するフローチャートである。 ステップS231−2でLサイド画像処理部212が行うLサイド画像処理の例を説明するフローチャートである。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
<車両に搭載されるCMSの概要>
図1は、車両としての自動車に搭載されるCMSの概要を説明する図である。
CMSでは、車両にカメラが設置され、そのカメラで撮影された画像が、後写鏡を用いて見ることができる画像に相当する画像として表示される。
後写鏡としては、いわゆるルームミラー(クラスIミラー)や、サイドミラー(クラスIIミラー、クラスIIIミラー)等がある。
CMSでは、例えば、車両の後部に、少なくとも車両の後方を撮影する1台のカメラが設置されるとともに、車両のサイドミラーが設置される位置(以下、サイドミラー位置ともいう)に、少なくとも車両の左後方、及び、右後方を撮影する2台のカメラが設置される。
ここで、車両の後部に設置され、車両の後方を撮影するカメラを、以下、リアカメラともいう。また、車両の左及び右のサイドミラー位置に設置されるカメラを、それぞれ、Lサイドカメラ及びRサイドカメラともいう。
さらに、リアカメラで撮影される画像を、リア画像ともいい、Lサイドカメラ及びRサイドカメラで撮影される画像を、それぞれ、Lサイド画像及びRサイド画像ともいう。
また、Lサイドカメラ及びRサイドカメラを、両方まとめて、L/Rサイドカメラとも記載する。同様に、Lサイド画像及びRサイド画像を、両方まとめて、L/Rサイド画像とも記載する。
図1は、リア画像、及び、L/Rサイド画像の表示例を示している。
図1では、リア画像は、ルームミラーを用いて見ることができる画像(ルームミラー画像)に相当する画像になっており、L/Rサイド画像は、サイドミラーを用いて見ることができる画像(サイドミラー画像)に相当する画像になっている。
図1では、車両のフロントウインドシールドガラスの下部のダッシュボードに、横長の表示パネルが設けられており、その表示パネルに、リア画像、及び、L/Rサイド画像が表示されている。
すなわち、図1の表示パネルにおいて、Lサイド画像は、左側のAピラーの近傍に表示され、Rサイド画像は、右側のAピラーの近傍に表示されている。リア画像は、表示パネルの中央よりやや運転席寄りの右側の位置(運転席は、(車両前方に向かって)右側にあることとする)に表示されている。
CMSでは、以上のように、リア画像、Lサイド画像、及び、Rサイド画像を、CMSで表示するCMS画像として、個別に表示する他、リア画像、Lサイド画像、及び、Rサイド画像を、1枚(1フレーム)の統合画像に統合し、その統合画像を、CMS画像として表示することができる。
ここで、(複数の)画像の統合には、画像どうしを、0以上1以下の範囲の重みαでアルファブレンディングする合成や、画像どうしを並べて1枚の画像にする結合、その他の、複数の画像を1枚の画像に変換することが含まれる。
図2は、リア画像、Lサイド画像、及び、Rサイド画像を統合した統合画像の表示方法の例を示す図である。
統合画像は、ルームミラーが設けられる位置P1や、ダッシュボードの中央の位置P2、ダッシュボードの運転席の前方の位置P3等に表示することができる。
CMSにおいて、CMS画像としての統合画像等の表示によって、車両を操縦(運転)するユーザ(ドライバ)に、車両の周辺の状況を提供する場合には、ドライバが、車両の周辺の状況(以下、周辺状況ともいう)を的確に把握することができるように、統合画像の表示を行う必要がある。
また、車両において、インスツルメンツパネル(インスツルメントクラスタ)による各種の情報の提供の他、統合画像の表示による周辺状況の提供等が行われると、ドライバに対して、画像として提供される情報が増加する。
ドライバに画像として提供される情報が増加すると、ドライバは、情報過多になって、ドライバの情報の認知、ひいては、その後の状況判断に影響することがあり得る。
また、車両において、多くの情報が、画像として表示される場合、ドライバは、その多くの情報としての画像を、同時に認識することが困難である。
そこで、ドライバが、例えば、車両を直進させるために、前方に注意して車両を運転している場合には、必要のない情報としての、例えば、車両の後方が映る統合画像については、輝度を低下させることができる。この場合、ドライバの周辺視界に入る統合画像に映る車両の後方の情報(がドライバの認知の対象になること)を抑制することができる。
車両を、進路変更せずに、直進させる場合には、ドライバは、特に、前方に注意すべきである。しかしながら、車両後方の様子が映る統合画像が高輝度で表示されると、その統合画像の表示によって、ドライバの視界周辺が照らされ続け、ドライバの注意が、輝度の高い統合画像に向いて、ドライバの前方への注意を妨害することがあり得る。
そこで、ドライバが、車両を直進させるために、前方に注意している場合には、統合画像の輝度を低下させることで、統合画像の表示がドライバの前方への注意を妨害することを防止することができる。
後写鏡としての光学的なミラーが装備された車両において、ドライバは、後写鏡に映る画像を、無意識に周辺視野で認知することはなく、必要な場合には、後方を確認する意思をもって、後写鏡に視線を向けて、その後写鏡に映る周辺状況を認知する。
一方、CMSが装備された車両において、ドライバの前方への注意を妨害することを防止するために、統合画像の輝度を低下させても、ドライバは、統合画像に視線を向けることで、統合画像に映る周辺状況を認知することができる。
すなわち、CMSが装備された車両において、統合画像の輝度を低下させても、ドライバは、後写鏡が装備された車両と同様の(認知)手順で、周辺状況を認知することができる。
以上から、統合画像等のCMS画像は、輝度を調整して表示することが望ましい。さらに、CMS画像は、視認性等の観点から、コントラストを調整して表示することが望ましいことがある。また、CMS画像は、ドライバの状態に応じて、輝度やコントラストを調整することができる。例えば、CMS画像については、ドライバの視線がCMS画像に向いていない場合には、輝度やコントラストを低くし、ドライバの視線がCMS画像に向いている場合には、輝度やコントラストを高くすることができる。
ところで、車両では、上述したリアカメラ、及び、L/Rサイドカメラの他、車両の様々な位置に、周辺状況を撮影するカメラを設けることができる。
CMSでは、車両に設けられた各カメラで撮影された画像のすべてを、個別に、又は、統合画像の形で、CMS画像として表示することができるが、CMS画像として表示する画像は、適宜、選択的に切り替えることができることが望ましい。
ここで、自車両が、高速(ある程度の速度)で走行する場合の後写鏡の主要な用途としては、例えば、自車両と後方の他の車両との相対関係の確認や、自車両が進路変更するときの、進路変更先側の後方の状況の把握等がある。
また、例えば、自車両が、市街地等を、低中速で走行する場合には、自車両の側方(左右方向)の、比較的近い位置から遠方までの状況を、ドライバが把握することができることが望ましいことがある。
さらに、例えば、自車両が、駐車状態から発進し、低速(徐行)で走行する場合や、駐車状態になるのに、低速で走行する場合、狭隘道路からの抜け出しや、T字路での左折や右折のために低速で走行する場合には、自車両の間近の後方(例えば、車両後部のバンパーの近傍等)や、車両の後部の間近の側方(例えば、車両の後輪の近傍)等の状況を、ドライバが把握することができることが望ましいことがある。
以下、例えば、車両が、高速で走行する場合、市街地等を低中速で走行する場合、及び、駐車等のために低速で走行する(徐行する)場合のそれぞれの場合を例に、それぞれの場合に表示することが適切なCMS画像の例について説明する。
<車両が高速で走行する場合に表示するCMS画像>
図3は、車両が高速で走行する場合に表示するCMS画像(以下、高速CMS画像ともいう)となる画像を撮影するカメラの、車両への設置位置の例を示す平面図である。
図3において、例えば、自動車等である(自)車両10では、その車両10の後部に、リアカメラ11が設置され、車両10の左及び右のサイドミラー位置に、Lサイドカメラ12及びRサイドカメラ13が、それぞれ設置されている。
ここで、サイドミラー位置は、水平方向(車両10の前方に対して左右の方向)については、リアカメラ11が設置された位置(車両10の後部の位置)から横方向にずれた位置であるということができる。
リアカメラ11は、車両10の後方(真後ろ)を撮影し、第1の画像の一例としてのリア画像を出力する。なお、リアカメラ11は、例えば、水平画角が比較的広角の150度以上のリア画像を撮影する。
Lサイドカメラ12は、車両10の左後方を撮影し、第2の画像の一例としてのLサイド画像を出力する。Rサイドカメラ13は、車両10の右後方を撮影し、第2の画像の他の一例としてのRサイド画像を出力する。
リアカメラ11、Lサイドカメラ12、及び、Rサイドカメラ13は、設置位置が異なるので、リア画像、Lサイド画像、及び、Rサイド画像は、それぞれ視点が異なる画像(異なる視点から見た画像)である。
なお、ここでは、説明を簡単にするため、リアカメラ11、Lサイドカメラ12、及び、Rサイドカメラ13は、中心射影の画像を撮影することとする。
ここで、図3において、車両10は、車線TL1,TL2,TL3を有する3車線の道路のうちの、左から2番目の車線TL2を走行している。
また、図3において、道路には、車線を区分する車線区分線LM1,LM2,LM3,LM4が、左から順に描かれている。
ここで、車線を区分する区画線には、車道中央線や、車線境界線、車道外側線があるが、ここでは、まとめて、車線区分線ということとする。
図3において、車線TL1は、車線区分線LM1とLM2との間の車線であり、車線TL2は、車線区分線LM2とLM3との間の車線である。車線TL3は、車線区分線LM3とLM4との間の車線である。
また、図3では、道路に、実際に描かれている区画線ではないが、後述する図において、リア画像とL/Rサイド画像との対応を分かりやすくするため、道路に、仮想的に描かれている区画線としての仮想ラインVL1が示されている。
図3において、仮想ラインVL1は、車両10の後方に位置しており、リアカメラ11、Lサイドカメラ12、及び、Rサイドカメラ13のすべてで撮影される。
ここで、本明細書では、特に断らない限り、自車両の前方を向いた状態で、方向を考える。
図4は、リア画像及びL/Rサイド画像と、リア画像及びL/Rサイド画像を統合することにより生成される統合画像との例を示す図である。
図4のリア画像及びL/Rサイド画像には、車両10の後方の車線TL1ないしTL3、車線区分線LM1ないしLM4、及び、仮想ラインVL1が映っている。なお、説明の便宜上、自車両10と道路の位置関係については、リアカメラ11では車線TL2が映り、Lサイドカメラ12では車線TL1が映り、Rサイドカメラ13では車線TL3が映る状態にて説明する。実際の車輌と道路の位置関係は自由に決まるので、本明細書にて記載する位置関係はこの仮想的位置関係に基づくのみであり、走行中に車線を識別して各該当の処理を行う必要は必ずしもない。
リア画像及びL/Rサイド画像を統合して統合画像を生成する方法としては、例えば、リア画像及びL/Rサイド画像のそれぞれに映る同一の被写体の大きさが一致し、かつ、リア画像及びL/Rサイド画像の無限遠点が一致するように、リア画像及びL/Rサイド画像のすべての画像又は一部の画像をアフィン変換し、リア画像及びL/Rサイド画像に映る同一の被写体が重なるように位置合わせを行って、リア画像及びL/Rサイド画像を合成する方法がある。ここで更にリア画像とL/Rサイド画像を違和感なく連続して合成する為には、自車両10の走行車線または車輛幅に沿った線、つまり上記車線位置関係の想定で線分LM2、線分LM3近傍の線を合成の境界線として合成を行うのが好ましい。
ここで、アフィン変換は、例えば、リア画像及びL/Rサイド画像のすべての画像を対象に行うこともできるし、例えば、L/Rサイド画像だけを対象に行うこともできる。例えば、任意の視点から見た統合画像を生成する場合には、その視点に対する無限遠点に、リア画像及びL/Rサイド画像の無限遠点が一致するように、リア画像及びL/Rサイド画像のすべてがアフィン変換される。また、例えば、リアカメラ11の設置位置を視点とする統合画像を生成する場合には、L/Rサイド画像の無限遠点が、リア画像の無限遠点に一致するように、L/Rサイド画像がアフィン変換される。
以下では、アフィン変換は、リア画像及びL/Rサイド画像のうちの、L/Rサイド画像を対象に行うこととする。さらに、アフィン変換は、例えば、L/Rサイド画像のそれぞれに映る被写体の大きさが、リア画像に映る同一の被写体に一致し、かつ、リア画像及びL/Rサイド画像の無限遠点IPL及びIPRが、リア画像の無限遠点IPCに一致するように行うこととする。かかるアフィン変換によれば、L/Rサイド画像は、リア画像を撮影するリアカメラ11の設置位置から見た(撮影された)画像、すなわち、リアカメラ11の設置位置を視点とする画像に変換される。このアフィン変換は、L/Rサイド画像とリア画像のカメラ焦点距離が同じとなり、且つ車体進行方向の設置位置の違いによる表示の配置を補正し、L/Rサイド画像はリア画像と同一焦点距離のカメラで、かつ、車両10の進行方向の配置位置が同一のカメラで撮影された画像に相当する画像となる。該当の変換を行う事で、リア画像及びアフィン変換後のL/Rサイド画像において、仮想ラインVL1が合致するように出来る。
なお、アフィン変換によって、被写体をどのような大きさにするかや、どの視点から見た画像に変換するかは、特に限定されるものではない。
また、以下では、説明を簡単にするため、アフィン変換前のリア画像及びL/Rサイド画像においては、同一の被写体の大きさが一致していることとし、したがって、L/Rサイド画像のアフィン変換は、Lサイド画像の無限遠点IPL、及び、Rサイド画像の無限遠点IPRのそれぞれが、リア画像の無限遠点IPCに一致するように行われることとする。
統合画像の生成においては、上述のように、L/Rサイド画像がアフィン変換され、アフィン変換後のL/Rサイド画像が、リア画像との間で位置合わせされて、リア画像と合成されることで、統合画像が生成される。L/Rサイド画像とリア画像との合成では、それぞれのカメラが主として取り込んだ車両後方の範囲を表示する画像として、L/Rサイド画像が、リア画像に上書きの形で合成される。
図4の統合画像において、リア画像に映る車線TL1ないしTL3、車線区分線LM1ないしLM4、及び、仮想ラインVL1と、アフィン変換後のL/Rサイド画像に映る車線TL1ないしTL3、車線区分線LM1ないしLM4、及び、仮想ラインVL1とは、それぞれ一致している。
図5は、リア画像及びL/Rサイド画像と、リア画像及びL/Rサイド画像を統合することにより生成される統合画像との他の例を示す図である。
なお、以下では、図が煩雑になるのを避けるため、車線TL1ないしTL3、車線区分線LM1ないしLM4、及び、仮想ラインVL1を表す符号TL1ないしTL3,LM1ないしLM4、及び、VL1の図示を、省略する。
図5では、道路上に、道路上に起立する起立物obj1,obj2,obj3それぞれとしての自動車、自動二輪車、歩行者が存在する。
そして、リア画像には、起立物obj1及びobj2が映っている。また、Lサイド画像には、起立物obj2が映っており、Rサイド画像には、起立物obj1及びobj3が映っている。
統合画像の生成において、L/Rサイド画像のアフィン変換は、L/Rサイド画像に映る被写体が、すべて、道路上の平面内に存在することを前提に行われる。そのため、アフィン変換の対象のL/Rサイド画像に、道路上の他の車両(自動車や自動二輪車等)や、歩行者、その他の、道路上に起立する起立物が、被写体として映っている場合、アフィン変換後のL/Rサイド画像に映る起立物は、道路に対して傾斜する。
図5では、アフィン変換後のLサイド画像に映る起立物obj2と、アフィン変換後のRサイド画像に映る起立物obj1及びobj3とが、傾斜している。
ここで、統合画像の生成においては、L/Rサイド画像をアフィン変換し、アフィン変換後のL/Rサイド画像を、リア画像との間で位置合わせし、リア画像に合成することで得られる合成画像を、統合画像とすることができる。
さらに、統合画像の生成においては、合成画像の左右に、アフィン変換前のLサイド画像及びRサイド画像(L/Rサイド画像)をそれぞれ並べて結合することにより得られる画像を、統合画像とすることができる。
上述のように、アフィン変換後のL/Rサイド画像に映る起立物は傾斜するので、そのようなアフィン変換後のL/Rサイド画像をリア画像に合成することで得られる合成画像でも、L/Rサイド画像に映っている起立物は傾斜する。
かかる合成画像を含む統合画像、すなわち、合成画像そのもの、又は、合成画像の左右にアフィン変換前のL/Rサイド画像が結合された画像が、CMS画像として表示される場合、ドライバは、不自然に傾いた起立物が映ったCMS画像を見ることになり、違和感を感じるおそれがある。
図6は、リア画像及びL/Rサイド画像の例を示す図である。
図6では、道路上に、起立物obj2及びobj11それぞれとしての自動二輪車及び大型の車両が存在する。
そして、リア画像には、起立物obj2及びobj11が映っており、Lサイド画像には、起立物obj2が映っている。Rサイド画像には、起立物は映っていない。
また、起立物obj2は、起立物obj11の左寄りの後方に位置しており、リア画像では、起立物obj2の一部は、起立物obj11に隠れて見えない状態になっている。
一方、Lサイド画像では、起立物obj2の全体が映っている。
図7は、図6のL/Rサイド画像をアフィン変換し、アフィン変換後のL/Rサイド画像を、図6のリア画像に合成することで得られる合成画像の例を示す図である。
統合画像の生成において、L/Rサイド画像をアフィン変換し、アフィン変換後のL/Rサイド画像を、リア画像との間で位置合わせし、リア画像に合成することで、合成画像を生成する場合には、L/Rサイド画像とリア画像とが重なる重なり部分については、例えば、L/Rサイド画像の重みを1.0とし、リア画像の重みを0.0として、L/Rサイド画像とリア画像とが合成される。
すなわち、アフィン変換後のL/Rサイド画像とリア画像との重なり部分は、L/Rサイド画像で上書きされる。
図7は、上述のように、重なり部分が、L/Rサイド画像で上書きされることで得られる合成画像の例を示している。
L/Rサイド画像とリア画像との重なり部分が、L/Rサイド画像で上書きされることで得られる合成画像では、リア画像において、リア画像の無限遠点IPCと、Lサイドカメラ12とRサイドカメラ13とを結ぶ線分に対応する、リア画像の下部の辺上の線分seg1の端点とを結んで構成される3角形の領域re1以外の領域は、L/Rサイド画像で上書きされる。つまり、リア画像は、L/Rサイド画像に大きく映るタイル状の領域で上書きされる。
以上のような、L/Rサイド画像の上書きにより、合成画像では、リア画像に映る起立物の全部や一部が消去されることがある。
図7では、合成画像において、リア画像に映る起立物obj11の一部が、L/Rサイド画像の上書きにより消去され、欠けている。
かかる合成画像を含む統合画像が、CMS画像として表示される場合、ドライバは、不自然に一部が欠けた起立物が映ったCMS画像を見ることになり、違和感を感じるおそれがある。
図8は、図6のL/Rサイド画像をアフィン変換し、アフィン変換後のL/Rサイド画像を、図6のリア画像に合成することで得られる合成画像の他の例を示す図である。
図8では、統合画像の生成において、図7と同様の合成画像が生成される一方で、その合成画像の生成に用いられたリア画像及びアフィン変換後のL/Rサイド画像それぞれから、そのリア画像及びアフィン変換後のL/Rサイド画像それぞれに映る起立物(の画像)が抽出される。
図6のリア画像及びL/Rサイド画像については、例えば、リア画像から、起立物obj11が抽出されるとともに、アフィン変換後のLサイド画像から、起立物obj2が抽出される。
さらに、リア画像から抽出された起立物obj11については、そのリア画像に映る起立物obj11の位置が検出されるとともに、アフィン変換後のLサイド画像から抽出された起立物obj2については、そのフィン変換後のLサイド画像に映る起立物obj2の位置が検出される。
また、リア画像から抽出された起立物obj11、及び、アフィン変換後のLサイド画像から抽出された起立物obj2については、自車両10からの距離が検出される。
そして、リア画像から抽出された起立物obj11、及び、Lサイド画像から抽出された起立物obj2は、その起立物obj11及びobj2それぞれまでの距離、並びに、起立物obj11及びobj2それぞれの位置に応じて、合成画像にレイヤ合成される。
ここで、画像のレイヤ合成とは、画像を、距離の遠い順に描画するような合成を意味する。したがって、レイヤ合成では、2つの起立物の少なくとも一部が重なる場合、その重なる部分については、2つの起立物のうちの奥側にある起立物は、手前側にある起立物で上書きされる。
また、起立物obj11の合成画像へのレイヤ合成では、起立物obj11は、リア画像に映る起立物obj11の位置に対応する、合成画像上の位置に合成される。同様に、起立物obj2の合成画像への合成では、起立物obj2は、アフィン変換後のLサイド画像に映る起立物obj2の位置に対応する、合成画像上の位置に合成される。
図6では、リア画像に映る起立物obj11は、Lサイド画像に映る起立物obj2よりも手前にある。さらに、リア画像から抽出された起立物obj11と、アフィン変換後のLサイド画像から抽出された起立物obj2とについては、一部が重なる。
そのため、レイヤ合成では、リア画像から抽出された起立物obj11、及び、Lサイド画像から抽出された起立物obj2の重なる部分については、奥側にある起立物obj2が、手前側にある起立物obj11で上書きされる。
以上のように、リア画像及びL/Rサイド画像から、図7と同様の合成画像を生成し、その合成画像に、リア画像及びアフィン変換後のL/Rサイド画像それぞれに映る起立物の抽出領域の画像をレイヤ合成することで、図7に示したような、不自然に一部が欠けた起立物が映ったCMS画像が得られることを防止することができる。
なお、リア画像及びL/Rサイド画像に映る起立物の検出は、例えば、ステレオカメラや、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging、laser radar)や、TOF(Time Of Flight)センサ等の距離センサを用い、距離センサによって得られる距離に応じて、起立物が一体的となった領域をセグメンテーションする方法により行うことができる。画像領域のセグメンテーションとは、画像内で一集合体をなす領域を囲う画像処理である。
また、リア画像及びL/Rサイド画像に映る起立物の検出は、例えば、リア画像及びL/Rサイド画像のオプティカルフロー解析やテクスチャ解析等の画像処理により、起立物の領域をセグメンテーションする方法により行うことができる。
さらに、リア画像及びL/Rサイド画像に映る起立物の検出では、例えば、モーションステレオ法を利用して、リア画像及びL/Rサイド画像上の路面(道路)を推定し、路面でない領域を、起立物の領域として検出することができる。
また、車両10に搭載されたCMSにおいて、リアカメラ11、Lサイドカメラ12、及び、Rサイドカメラ13、その他の車両10に設置されたカメラで撮影された画像等を用いて、車両10の上方から、車両10を含む、車両10の周辺を俯瞰した俯瞰画像を生成することができる場合には、その俯瞰画像を用いて、リア画像及びL/Rサイド画像に映る起立物の検出を行うことができる。
すなわち、俯瞰画像の、例えば、隣接する2フレームとしての時刻tのフレームと時刻t+1のフレームとについて、時刻t+1のフレームと、時刻tのフレームを車両10の1時刻分の移動に対応する動きベクトルだけ移動(動き補償)したフレームとの差分SSを求めた場合、路面(道路)の領域の差分SSは、(ほぼ)0になる。そこで、差分SSが閾値以上の領域を、起立物の領域として、俯瞰画像から検出し、その起立物を、リア画像及びL/Rサイド画像から検出することで、リア画像及びL/Rサイド画像に映る起立物の検出を行うことができる。
さらに、リア画像及びL/Rサイド画像に映る起立物までの距離の検出は、例えば、ステレオカメラや、LIDARや、TOFセンサ等の距離センサを用いる方法により行うことができる。
また、リア画像及びL/Rサイド画像に映る起立物までの距離は、例えば、リア画像及びL/Rサイド画像それぞれの複数フレームを対象とした画像処理を行う方法により推定することができる。
リア画像及びL/Rサイド画像に映る起立物の検出や、起立物までの距離の検出は、その他、上述の方法を含む任意の方法を組み合わせて行うことができる。
図9は、合成画像の例を示す図である。
図8で説明したように、合成画像に、リア画像及びアフィン変換後のL/Rサイド画像それぞれに映る起立物をレイヤ合成することで、起立物の一部が欠けることを防止することができる。
但し、図8では、リア画像及びアフィン変換後のL/Rサイド画像それぞれに映る起立物がレイヤ合成される。この場合、アフィン変換後のL/Rサイド画像それぞれに映る起立物は、図5で説明したように傾斜するので、ドライバに違和感を感じさせるおそれがある。
そこで、L/Rサイド画像それぞれに映る起立物については、アフィン変換後のL/Rサイド画像から起立物を抽出するのではなく、アフィン変換前のL/Rサイド画像から起立物を抽出し、そのアフィン変換前のL/Rサイド画像から抽出された起立物を、レイヤ合成に用いることができる。
図9は、アフィン変換前のL/Rサイド画像から抽出された起立物を、レイヤ合成に用いて得られる合成画像の例を示している。
図9では、図6と同様に、リア画像には、起立物obj2及びobj11が映っており、Lサイド画像には、起立物obj2が映っている。Rサイド画像には、起立物は映っていない。
図9では、図8の場合と同様に、図7と同様の合成画像が生成される一方で、リア画像から、起立物obj11が抽出されるとともに、アフィン変換後のLサイド画像から、起立物obj2'が抽出される。
ここで、アフィン変換後のLサイド画像に映る起立物obj2を、起立物obj2'とも記載する。
リア画像から抽出された起立物obj11については、そのリア画像に映る起立物obj11の位置が検出される。アフィン変換後のLサイド画像から抽出された起立物obj2'についても、同様に、そのアフィン変換後のLサイド画像に映る起立物obj2'の位置pos2'が検出される。
また、リア画像から抽出された起立物obj11、及び、アフィン変換後のLサイド画像から抽出された起立物obj2'については、自車両10からの距離が検出される。
さらに、アフィン変換前のLサイド画像から、起立物obj2が抽出される。
そして、リア画像から抽出された起立物obj11、及び、アフィン変換前のLサイド画像から抽出された起立物obj2が、図8と同様に、合成画像にレイヤ合成される。
すなわち、図9では、アフィン変換後のLサイド画像から抽出された起立物obj2'ではなく、アフィン変換前のLサイド画像から抽出された起立物obj2が、レイヤ合成の対象として、合成画像に合成される。
また、アフィン変換前のLサイド画像から抽出された起立物obj2は、アフィン変換前のLサイド画像に映る起立物obj2の接地位置pos2ではなく、アフィン変換後のLサイド画像に映る起立物obj2'の接地位置pos2'に対応する、合成画像上の接地位置pos2''に合成される。路面との接地位置に関しては以下断らない限り単に位置と記す。
以上のように、アフィン変換前のL/Rサイド画像から抽出された起立物を、アフィン変換後のL/Rサイド画像に映る起立物の位置に対応する、合成画像上の位置にレイヤ合成することで、起立物が不自然に傾斜したCMS画像が得られることを防止することができる。
図10は、リア画像及びL/Rサイド画像を、CMS画像として表示する表示方法を説明する図である。
リア画像及びL/Rサイド画像を、CMS画像として表示する表示方法は、個別表示と統合表示とに、大きく分けられる。
個別表示では、例えば、図1に示したように、リア画像及びL/Rサイド画像それぞれが、CMS画像として、個別に表示される。リア画像及びL/Rサイド画像それぞれを、CMS画像として、個別に表示する表示方法を、以下、第1の表示方法ともいう。
統合表示では、例えば、図7ないし図9に示したように、リア画像及びL/Rサイド画像を合成した合成画像を含む画像等の、リア画像及びL/Rサイド画像を統合した統合画像が、CMS画像として表示される。
統合表示には、例えば、第2の表示方法、第3の表示方法、及び、第4の表示方法がある。
第2の表示方法では、図7等で説明したように、アフィン変換後のL/Rサイド画像とリア画像とが、そのL/Rサイド画像とリア画像との重なり部分については、L/Rサイド画像で上書きする形で合成され、その結果得られる合成画像を含む統合画像が、CMS画像として表示される。
第2の表示方法では、図7で説明したように、L/Rサイド画像の上書きにより、合成画像では、リア画像に映る起立物の全部や一部が欠ける(消去される)ことがある。
第3の表示方法では、図8で説明したように、合成画像に、リア画像及びアフィン変換後のL/Rサイド画像それぞれに映る起立物がレイヤ合成され、その結果得られる合成画像を含む統合画像が、CMS画像として表示される。
第3の表示方法では、図8で説明したように、アフィン変換後のL/Rサイド画像それぞれに映る起立物が傾斜するので、その起立物がレイヤ合成される合成画像上の起立物も傾斜する。
第4の表示方法では、図9で説明したように、アフィン変換前のL/Rサイド画像から抽出された起立物が、アフィン変換後のL/Rサイド画像に映る起立物の位置に対応する、合成画像上の位置にレイヤ合成され、その結果得られる合成画像を含む統合画像が、CMS画像として表示される。
車両10に搭載されるCMSにおいて、合成画像を含む統合画像を、CMS画像として表示する場合には、第3の表示方法、又は、第4の表示方法が有用である。
以下では、合成画像を含む統合画像を、CMS画像として表示する場合には、第3の表示方法、又は、第4の表示方法を採用することとする。
ところで、合成画像は、例えば、リア画像を撮影するリアカメラ11の設置位置を視点とする画像になる。
したがって、サイドミラー位置を視点とする、アフィン変換前のL/Rサイド画像に、全体が映っている起立物であっても、合成画像では、リア画像に映る他の起立物によって、(L/Rサイド画像に全体が映る起立物の)一部又は全部が隠れて見えなくなることがある。
図11は、道路上の状況の一例を示す平面図である。
図11では、リアカメラ11、Lサイドカメラ12、及び、Rサイドカメラ13が設置された車両10に続くように、バス等の起立物obj21、自動二輪車等の起立物obj22、及び、小型車等の起立物obj23が走行している。
起立物obj21は、車両10の真後ろに位置している。起立物obj22は、起立物obj21の後部の左に位置し、起立物obj23は、起立物obj21の後部の右であって、起立物obj22よりも後ろに位置している。
したがって、(車両10から)起立物obj21,obj22,obj23までの距離を、L1,L2,L3とそれぞれ表すこととすると、距離L1ないしL3については、式L1<L2<L3の関係がある。
リアカメラ11で撮影されるリア画像には、起立物obj21ないしobj23が映る。但し、一番手前の起立物obj21については、その起立物obj21の全体が、リア画像に映るが、起立物obj21よりも奥側の起立物obj22及びobj23については、リア画像では、起立物obj22及びobj23の一部が、手前の起立物obj21に隠れ、見えない状態になる。
一方、Lサイドカメラ12で撮影されるLサイド画像には、起立物obj21及びobj22が映る。車両10では、Lサイドカメラ12は、リアカメラ11よりも左側に設置されているため、起立物obj21の後部の左に位置する起立物obj22については、その全体が(起立物obj21に隠れずに)、Lサイド画像に映る。
Rサイドカメラ13で撮影されるRサイド画像には、起立物obj21及びobj23が映る。車両10では、Rサイドカメラ13は、リアカメラ11よりも右側に設置されているため、起立物obj21の後部の右に位置する起立物obj23については、その全体が(起立物obj21に隠れずに)、Rサイド画像に映る。
以上のように、Lサイド画像には、起立物obj22の全体が映り、Rサイド画像には、起立物obj23の全体が映る。
しかしながら、かかるL/Rサイド画像をアフィン変換し、アフィン変換後のL/Rサイド画像と、リア画像とを合成し、リア画像に映る起立物obj21、並びに、アフィン変換前又はアフィン変換後のL/Rサイド画像に映る起立物obj22及びobj23をレイヤ合成することにより得られる合成画像は、リア画像を撮影するリアカメラ11の設置位置を視点とする画像になる。
そのため、合成画像では、リア画像と同様に、起立物obj22及びobj23の一部(又は全部)は、起立物obj21に隠れて、見えない状態になる。
したがって、合成画像を含む統合画像が、CMS画像として表示される場合には、車両10のドライバは、統合画像を見たときに、一部が起立物obj21に隠れる起立物obj22や起立物obj23に気づきにくいことがあり得る。
以上のように、合成画像において、L/Rサイド画像に全体が映る起立物の少なくとも一部が、リア画像に映る起立物に隠れて見えなくなることは、L/Rサイド画像に映る起立物までの距離が、リア画像に映る起立物までの距離よりも遠い場合、すなわち、L/Rサイド画像に映る起立物が、リア画像に映る起立物よりも奥側にある場合に生じ得る。
そこで、CMSでは、L/Rサイド画像に映る起立物が、リア画像に映る起立物よりも奥側にある場合には、起立物が他の起立物に隠れていることを警告するアラート(以下、オクルージョンアラートともいう)を出力することができる。
図11では、距離L1ないしL3が、式L1<L2や、式L1<L3を満たす場合に、オクルージョンアラートを出力することができる。
オクルージョンアラートとしては、ブザー音その他の音声の出力や、表示の点滅その他の画像の表示を採用することができる。なお、ブザー音は運転者がモニタに視線移動する事を察知してから鳴らす事で、不用意に頻繁に鳴り響くのを避ける事が出来る。
図12は、オクルージョンアラートとしての画像が表示された統合画像の表示例を示す図である。
図12では、合成画像そのものが、統合画像になっており、統合画像は、第3の表示方法(図8、図10)の統合画像になっている。
また、統合画像としての合成画像には、起立物obj1,obj2,obj3,obj11が映っている。
なお、合成画像の生成に用いられたリア画像には、起立物obj11の全体が映っている。また、合成画像の生成に用いられたLサイド画像には、起立物obj2の全体が映っており、合成画像の生成に用いられたRサイド画像には、起立物obj1及びobj3それぞれの全体が映っている。
また、起立物obj1及びobj2は、起立物obj11より奥側に位置し、起立物obj3は、起立物obj11より手前側に位置している。
そのため、合成画像では、起立物obj3については、その全体が映っているが、起立物obj1及びobj2については、それぞれの一部が、起立物obj11に隠れ、一部が見えなくなっている。
ここで、以下、リア画像に映る起立物を、リア起立物ともいい、L/Rサイド画像に映っている起立物をL/Rサイド起立物ともいう。
車両10に搭載されたCMSでは、L/Rサイド起立物が、リア起立物よりも奥側に位置している場合、合成画像において一部(又は全部)が見えなくなるL/Rサイド起立物の存在を警告するオクルージョンアラートとしての警告マークを、統合画像に重畳することができる。
図12では、リア起立物obj11の奥側のLサイド起立物obj2の位置に、オクルージョンアラートとしての警告マークAM2が重畳されるとともに、リア起立物obj11の奥側のRサイド起立物obj1の位置に、オクルージョンアラートとしての警告マークAM1が重畳されている。
警告マークの、統合画像への重畳は、例えば、警告マークの重みを1.0とし、統合画像の重みを0.0として、警告マークと統合画像とを合成することにより行うことができる。
警告マークAM1やAM2によれば、ドライバの注意を、迅速に喚起し、ドライバに、合成画像において一部が見えないRサイド起立物obj1やLサイド起立物obj2の存在を、迅速かつ確実に認識させることができる。
すなわち、警告マークAM1やAM2によれば、ドライバの周辺視野に存在する統合画像に、視線を向けるように、ドライバを促し、ドライバに、Rサイド起立物obj1やLサイド起立物obj2の存在を、迅速かつ確実に認識させることができる。
オクルージョンアラートとしての警告マークとしては、例えば、図12の警告マークAM1やAM2のような、2色(以上)の縞模様(ゼブラ模様)であって、2色のうちの1色(縞模様の一部)が透明の縞模様の画像を採用することができる。
警告マークとして、1色(一部)が透明の画像を採用することにより、警告マークが、合成画像上の、リア起立物の奥側のL/Rサイド起立物の位置に重畳されても、ドライバは、L/Rサイド起立物を、警告マークの透明な部分から確認することができる。
また、警告マークとしては、透明な部分が移動する画像を採用することができる。すなわち、例えば、見かけ上、理容店のサインポールのような形で、縞模様が移動する画像を、警告マークとして採用することができる。
警告マークとして、透明な部分が移動する画像を採用する場合には、合成画像において、警告マークが重畳された部分において、L/Rサイド起立物の見える部分が変化するので、警告マークが重畳されたL/Rサイド起立物が、どのような被写体であるかを、ドライバが認識しやすくなる。ここで、2色の縞模様の警告マークを統合画像に重畳する際に、半透かしでは無く、縞の有効部としての1色の重畳重みを1.0とし、縞の無効部としての透明な部分の他の1色では逆に統合画像の重みを1.0とする事で警告に注意しつつも背景(統合画像)を鮮明に見えるようにすることが出来るメリットがある。一方、警告マークとしての縞模様を、半透かしで、統合画像に重畳する場合には、統合画像と警告マークとの半透かしでの重畳部分が曖昧になる危険性があると同時に判別認知に知恵をもたらすリスクもある。
なお、統合画像に、警告マークを重畳する場合には、オクルージョンアラートとしての音を、同時に出力することができる。この場合、ユーザの注意を、より喚起することができる。ここで音による警告は、後方における状況が重要な状況、つまり運転者が自車の走行に重要と見なして、統合画像に視線を移して状況把握を開始したか、又は、状況把握を行っている状況で行うのが妥当である。そこで、音によるオクルージョンアラートは運転者の視線や頭部振る舞い解析を行い、運転者が後方確認シーケンスを開始した事に連動し実施する事が出来る。
また、警告マークの色としては、例えば、赤や黄色等の危険を想起させる色、その他の注意の色を採用することができる。
さらに、警告マークは、L/Rサイド起立物が、リア起立物よりも奥側に位置している場合に、常に、統合画像に重畳するのではなく、L/Rサイド起立物が、リア起立物よりも奥側に位置している場合であって、奥側のL/Rサイド起立物が、手前側のリア起立物に隠れる場合に、統合画像に重畳することができる。
また、警告マークは、車両10が、左又は右に進路変更したならば、L/Rサイド起立物と衝突するかどうかの衝突リスクを判定し、L/Rサイド起立物が、リア起立物よりも奥側に位置している場合であって、衝突リスクがある場合に、統合画像に重畳することができる。
さらに、警告マークは、L/Rサイド起立物が、リア起立物よりも奥側に位置しており、奥側のL/Rサイド起立物が、手前側のリア起立物に隠れる場合であって、衝突リスクがある場合に、統合画像に重畳することができる。
車両10が、左又は右に進路変更したならば、L/Rサイド起立物と衝突するかどうかの衝突リスクの判定は、例えば、車両10からL/Rサイド起立物までの距離、及び、車両10を基準とする(車両10に対する)L/R起立物の相対速度を用いて行うことができる。
すなわち、衝突リスクの判定は、例えば、L/Rサイド起立物までの距離、及び、L/R起立物の相対速度から、車両10が左又は右に進路変更したならば、L/Rサイド起立物と衝突するまでの衝突所要時間を推定し、その衝突所要時間に応じて行うことができる。
L/Rサイド起立物までの距離は、ミリ波レーダーや、LIDAR、TOFセンサ(TOF型二次元距離計測装置)、ソナー装置等の距離センサを用いて検出することや、L/Rサイド起立物が映るL/Rサイド画像から推定することができる。
L/R起立物の相対速度は、前記何れかの措置で直接または間接的にL/Rサイド起立物までの距離の時系列から検出(算出)することができる。
図13は、オクルージョンアラートとしての画像が表示された統合画像の他の表示例を示す図である。
図13では、図12の合成画像の左右に、(アフィン変換前の)Lサイド画像及びRサイド画像を、それぞれ並べて結合した画像が、統合画像になっている。
さらに、図13の統合画像は、合成画像とL/Rサイド画像との間に、その合成画像とL/Rサイド画像とを区切る、所定の幅の分離境界線を有する。
合成画像とL/Rサイド画像と間の分離境界線によれば、ドライバは、統合画像に配置された合成画像とL/Rサイド画像とのそれぞれを、容易に、意識的に分離して認知することができる。
図12で説明したように、警告マークが、一部が透明の画像である場合には、警告マークが、合成画像上のL/Rサイド起立物の位置に重畳されても、ドライバは、L/Rサイド起立物を、警告マークの透明な部分から確認することができるが、それでも、合成画像上のL/Rサイド起立物は、警告マークの透明でない部分によって隠れる。
合成画像に、L/Rサイド画像を結合して、統合画像を構成する場合には、ドライバは、警告マークが表示されたときに、統合画像の合成画像から、その統合画像に結合されたL/Rサイド画像に視線を移すことにより、L/Rサイド起立物を明確に確認することができる。
なお、合成画像とL/Rサイド画像との間の分離境界線の幅としては、人間工学的に、人が、合成画像とL/Rサイド画像とを意識的に分離して、合成画像からL/Rサイド画像に視線を移し、L/Rサイド画像に映る状況の把握の認知及び思考を行うのに適切な幅を採用することができる。例えば、ドライバの頭部から、(水平方向に)0.5度以上の角度に対応する幅を、分離境界線の幅として採用することができる。
図14は、オクルージョンアラートとしての画像が表示された統合画像のさらに他の表示例を示す図である。
図14の統合画像は、図13と同様に構成される。
但し、図14の統合画像では、合成画像の生成に用いるアフィン変換後のL/Rサイド画像の無限遠点がリア画像の無限遠点と一致する程度が変化する。
合成画像において、アフィン変換後のL/Rサイド画像の無限遠点がリア画像の無限遠点と一致する程度は、例えば、ドライバの状態に応じて変化させることができる。
例えば、ドライバの頭部の回転移動や平行移動(視点の移動)等に応じて、合成画像において、アフィン変換後のL/Rサイド画像の無限遠点がリア画像の無限遠点と一致する程度を、図14の両矢印で示すように、シームレスに変化させることができる。
例えば、ドライバが、前方に注意して運転しているときの、ドライバの頭部の状態を、デフォルトの状態ということとすると、デフォルトの状態からの、ドライバの頭部の回転移動や平行移動の移動量が大であるほど、合成画像において、アフィン変換後のL/Rサイド画像の無限遠点がリア画像の無限遠点と一致する程度を小にする(より一致しないようにする)ことができる。
この場合、ドライバの頭部の移動により、合成画像には、例えば、リア起立物obj11に隠れていない状態のLサイド起立物obj2が表示されるので、ドライバは、リア起立物obj11の後方に位置するLサイド起立物obj2を迅速かつ的確に認識することができる。Rサイド起立物obj1についても、同様である。
なお、合成画像では、ドライバの状態に応じて、アフィン変換後のL/Rサイド画像の無限遠点がリア画像の無限遠点と一致する程度を、シームレスに変化させる他、合成画像に用いるL/Rサイド画像を、無限遠点がリア画像の無限遠点と一致するようにアフィン変換したL/Rサイド画像(アフィン変換後のL/Rサイド画像)、又は、そのようなアフィン変換が施される前のL/Rサイド画像(アフィン変換前のL/Rサイド画像)に切り替えることができる。
すなわち、例えば、ドライバの頭部の位置に応じて、合成画像に合成されるL/Rサイド画像を、アフィン変換前のL/Rサイド画像、又は、アフィン変換後のL/Rサイド画像に切り替えることができる。
この場合、例えば、ドライバが、統合画像に、警告マークAM1やAM2が重畳されていることに気づいて、統合画像に視線を向けるように、頭部を移動させたときに、合成画像に合成されるL/Rサイド画像が、アフィン変換後のL/Rサイド画像から、アフィン変換前のL/Rサイド画像に切り替えられる。
したがって、ドライバは、合成画像に合成されたアフィン変換前のL/Rサイド画像により、L/Rサイド起立物を明確に確認することができる。
<車両が低速で走行する(徐行する)場合に表示するCMS画像>
図15は、車両が低速で走行する場合に表示するCMS画像(以下、低速CMS画像ともいう)となる画像を撮影するカメラの、車両への設置位置の例を示す平面図である。
図16は、低速CMS画像となる画像を撮影するカメラの、車両への設置位置の例を示す斜視図である。
なお、図15及び図16において、図3の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図15及び図16では、図3と同様に、車両10の後部に、リアカメラ11が設置されている。さらに、車両10では、車両10の後部の左側の位置に、Lリアサイドカメラ14が設置されているとともに、車両10の後部の右側の位置に、Rリアサイドカメラ15が設置されている。
なお、図15及び図16では、図3のLサイドカメラ12及びRサイドカメラ13の図示は、省略してある。
Lリアサイドカメラ14は、例えば、水平画角が90ないし100度程度の中心射影の画像を撮影して出力する。ここで、Lリアサイドカメラ14で撮影される画像を、Lリアサイド画像ともいう。
Lリアサイドカメラ14は、車両10の間近の右後方の様子を撮影するため、つまり、Lリアサイド画像に、車両10の間近の右後方の様子が映るようにするため、車両10の車幅方向の中心の幅方向中心線WCLに対して、撮影したい方向である右後方と反対側の、車両10の後部の左側の位置に、光軸を、撮影したい方向(右後方)に向けて設置されている。
なお、Lリアサイドカメラ14は、例えば、Lリアサイド画像に、車両10の後部(の一部)が映るように設置される。
Rリアサイドカメラ15は、例えば、Lリアサイドカメラ14と同様に、水平画角が90ないし100度程度の中心射影の画像を撮影して出力する。ここで、Rリアサイドカメラ15で撮影される画像を、Rリアサイド画像ともいう。
Rリアサイドカメラ15は、幅方向中心線WCLに対して、Lリアサイドカメラ14と線対称となるように設置されている。
すなわち、Rリアサイドカメラ15は、車両10の間近の左後方の様子を撮影するため、つまり、Rリアサイド画像に、車両10の間近の左後方の様子が映るようにするため、幅方向中心線WCLに対して、撮影したい方向である左後方と反対側の、車両10の後部の右側の位置に、光軸を、撮影したい方向(左後方)に向けて設置されている。
なお、Rリアサイドカメラ15は、例えば、Rリアサイド画像に、車両10の後部(の一部)が映るように設置される。
また、Lリアサイドカメラ14及びRリアサイドカメラ15の光軸は、幅方向中心線WCL上で交差する。
以上のように、Lリアサイドカメラ14及びRサイドカメラ15を、幅方向中心線WCLに対して、撮影したい方向と反対側の、車両10の後部の位置に、光軸を、撮影したい方向に向けて設置することで、そのLリアサイドカメラ14及びRリアサイドカメラ15の両方によって、車両10の間近の後方や、車両10の後部の左右(車両10の後輪の後ろ側付近等)を含む、車両10の後方の広角範囲の状況を撮影することができる。つまり、Lリアサイドカメラ14及びRサイドカメラ15を、車体後方の片側から斜め方向に設置する事で車輛進行方向後方無限遠方から車体後部を包含できる視野角となる範囲を撮像することができる。
その結果、車両10の後部について、死角の少ない結合画像を提供することができる。
ここで、図15及び図16において、SR1,SR2,SR3は、リアカメラ11、Lリアサイドカメラ14、Rリアサイドカメラ15の撮影範囲を、それぞれ表す。
撮影範囲SR2及びSR3によれば、Lリアサイドカメラ14及びRリアサイドカメラ15によって、車両10の間近の後方を含む、車両10の後方の広角範囲の状況を撮影することができることを確認することができる。
なお、以下、Lリアサイド画像及びRリアサイド画像を、まとめて、L/Rリアサイド画像ともいう。
図17は、低速CMS画像としての統合画像の例を示す図である。
図17では、CMS画像としての統合画像の左側の領域及び右側の領域に、Rリアサイド画像及びLリアサイド画像をそれぞれ配置することで、統合画像が構成される。
すなわち、図17の統合画像は、Rリアサイド画像及びLリアサイド画像を、それぞれ左右に並べて配置して結合することで生成される。
ここで、"R"リアサイド画像には、車両10の「左」後方の様子が映るため、Rリアサイド画像は、統合画像の「左」側に配置される。同様に、"L"リアサイド画像には、車両10の「右」後方の様子が映るため、Lリアサイド画像は、統合画像の「右」側に配置される。
以下、CMS画像としての統合画像のRリアサイド画像が配置される領域を、Rリアサイド画像表示領域ともいい、Lリアサイド画像が配置される領域を、Lリアサイド画像表示領域ともいう。
Rリアサイド画像表示領域には、Rリアサイドカメラ15で撮影されたRリアサイド画像から、Rリアサイド画像表示領域に対応する画角の範囲が切り出され、その範囲のRリアサイド画像が配置される。同様に、Lリアサイド画像表示領域には、Lリアサイドカメラ14で撮影されたLリアサイド画像から、Lリアサイド画像表示領域に対応する画角の範囲が切り出され、その範囲のLリアサイド画像が配置される。
Rリアサイド画像表示領域とLリアサイド画像表示領域との境界は、例えば、統合画像の水平方向の中点の位置に固定にすることができる。
また、Rリアサイド画像表示領域とLリアサイド画像表示領域との境界は、例えば、ドライバの頭部の位置や視線の向き等のドライバの状態に応じて、左右方向(水平方向)に移動することができる。
Rリアサイド画像表示領域とLリアサイド画像表示領域との境界が、右側に移動された場合、Rリアサイド画像表示領域は水平方向に拡張し、Lリアサイド画像表示領域は、水平方向に縮小する。
この場合、Rリアサイド画像表示領域に配置されるRリアサイド画像の水平方向の画角が大になり、ドライバは、そのようなRリアサイド画像に映る左後方の広い範囲の状況を確認することができる。
一方、Rリアサイド画像表示領域とLリアサイド画像表示領域との境界が、左側に移動された場合、Rリアサイド画像表示領域は水平方向に縮小し、Lリアサイド画像表示領域は、水平方向に拡張する。
この場合、Lリアサイド画像表示領域に配置されるLリアサイド画像の水平方向の画角が大になり、ドライバは、そのようなLリアサイド画像に映る右後方の広い範囲の状況を確認することができる。
図18は、低速CMS画像としての統合画像の他の例を示す図である。
図18では、CMS画像としての統合画像の左側の領域及び右側の領域に、Rリアサイド画像及びLリアサイド画像をそれぞれ配置するとともに、統合画像の中央の領域に、リア画像を配置することで、統合画像が構成される。
すなわち、図18の統合画像は、Rリアサイド画像及びLリアサイド画像を、それぞれ左右に配置して結合し、その結合により得られる画像の中央に、リア画像を合成(重畳)する生成される。
ここで、結合画像の、リア画像が配置される領域を、リア画像表示領域ともいう。
リア画像表示領域には、リアカメラ11で撮影されたリア画像から、リア画像表示領域に対応する画角の範囲が切り出され、その範囲のリア画像が配置される。
図18の結合画像では、図17の場合と同様に、Rリアサイド画像表示領域とLリアサイド画像表示領域との境界については、統合画像の水平方向の中点の位置に固定にすることもできるし、ドライバの状態に応じて、矢印AR1で示すように、左右方向に移動することもできる。
さらに、図18の結合画像では、リア画像表示領域を、固定の領域とすることもできるし、可変の領域とすることもできる。
リア画像表示領域を可変の領域とする場合には、例えば、ドライバの頭部の位置等のドライバの状態に応じて、リア画像表示領域の全体を、矢印AR2で示すように、拡張又は縮小することができる。
すなわち、例えば、ドライバの頭部がデフォルト状態から前方に移動した場合には、その移動の移動量に応じて、リア画像表示領域を拡張することができる。この場合、リア画像表示領域に配置されるリア画像の画角が大になり、ドライバは、そのようなリア画像に映る後方の広い範囲の状況を確認することができる。
また、例えば、ドライバの頭部がデフォルト状態から後方に移動した場合には、その移動の移動量に応じて、リア画像表示領域を縮小することができる。
図17及び図18の結合画像は、例えば、駐車場への出し入れのために、車両10を後進させる場合のCTA(Cross Traffic Alert)の用途等に、特に有用である。
<車両が低中速で走行する場合に表示するCMS画像>
図19は、車両が低中速で走行する場合に表示するCMS画像(以下、中速CMS画像ともいう)となる画像を撮影するカメラの、車両への設置位置の例を示す斜視図である。
なお、図19において、図3の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図19では、図3と同様に、車両10の後部に、リアカメラ11が設置されている。さらに、車両10では、車両10の左側のサイドミラー位置に、Lサイドカメラ22が設置されているとともに、車両10の右側のサイドミラー位置に、Rサイドカメラ23が設置されている。
Lサイドカメラ22は、例えば、魚眼カメラ等の、(ほぼ)全天の撮影が可能な全天球カメラで、光軸が車両10の左方向に向くように設置されている。
Lサイドカメラ22は、車両10の左方向に延びる軸回りの全方向(360度)の状況が映った画像を撮影し、Lサイド画像として出力する。Lサイド画像には、車両10の左前方から左方向、さらには、左方向から左後方に亘る広範囲の状況が映る。
Rサイドカメラ23は、例えば、Lサイドカメラ22と同様に、魚眼カメラ等の、全天の撮影が可能な全天球カメラで、光軸が車両10の右方向DR3に向くように設置されている。
Rサイドカメラ23は、車両10の右方向DR3に延びる軸回りの全方向の状況が映った画像を撮影し、Rサイド画像として出力する。Rサイド画像には、車両10の右前方から右方向、さらには、右方向から右後方に亘る広範囲の状況が映る。
ここで、リアカメラ11の光軸の方向(車両10の後方の方向)DR1の、リアカメラ11の設置位置から所定の距離だけ離れた位置に、方向DR1に垂直な所定サイズの平面を、投影面PPAとして想定する。
また、Rサイドカメラ23の設置位置から、車両10の右後方の方向DR2の、Rサイドカメラ23の設置位置から所定の距離だけ離れた位置に、方向DR2に垂直な所定サイズの平面を、投影面PPBとして想定する。ここで、投影面PPBの縦の長さは、投影面PPAの縦の長さと一致する。投影面PPBの横の長さは、投影面PPAの横の長さと一致するとは限らない。
さらに、Rサイドカメラ23の設置位置から、車両10の右方向DR3の、Rサイドカメラ23の設置位置から所定の距離だけ離れた位置に、曲面状の投影面PPCを想定する。
投影面PPCの縦の長さは、投影面PPA及びPPBの縦の長さと一致する。
投影面PPCは、Rサイドカメラ23の設置位置を中心とし、所定の距離を半径とする円柱の側面の一部である。
なお、投影面PPCは、例えば、車両10の右方向DR3が、投影面PPCの左右の端点とRサイドカメラ23の設置位置とがなす角度θを2等分する方向になるように想定することができる。
いま、リアカメラ11の設置位置から見て、投影面PPAに投影される中心射影の画像を、PPA画像ということとする。さらに、Rサイドカメラ23の設置位置から見て、投影面PPBに投影される中心射影の画像を、RPPB画像ということとする。また、Rサイドカメラ23の設置位置から見て、投影面PPCに投影される円筒射影の画像(円筒投影像)を、RPPC画像ということとする。
PPA画像には、車両10の後方の状況が映る。RPPB画像には、車両10の右後方の状況が映る。RPPC画像には、車両10の右方向DR3(を中心とする角度θに対応する水平方向の範囲)の状況が映る。
PPA画像は、リアカメラ11で撮影されるリア画像から得ることができる。RPPB画像及びRPPC画像は、Rサイドカメラ23で撮影されるRサイド画像から得ることができる。
同様に、Lサイドカメラ22で撮影されるLサイド画像からは、RPPB画像及びRPPC画像に対応する画像を得ることができる。
以下、Lサイド画像から得られる、RPPB画像に対応する画像を、LPPB画像といい、Lサイド画像から得られる、RPPC画像に対応する画像を、LPPC画像という。
RPPB画像には、上述のように、車両10の右後方の状況が映るので、RPPB画像は、例えば、図3のRサイドカメラ13で撮影されるRサイド画像に相当する。同様に、LPPB画像は、例えば、図3のLサイドカメラ12で撮影されるLサイド画像に相当する。
さらに、PPA画像は、リア画像であり、したがって、PPA画像、LPPB画像、及び、RPPB画像によれば、第3の表示方法(図8、図10)の統合画像や、第4の表示方法(図9、図10)の統合画像、警告マークが重畳された統合画像(図12等)、さらには、それらの統合画像に含まれる合成画像を生成することができる。
図20は、中速CMS画像としての統合画像の第1の例を示す図である。
図20の統合画像は、PPA画像(リア画像)、LPPB画像、及び、RPPB画像を用いて合成画像を生成し、その合成画像の左側に、LPPB画像及びLPPC画像を並べて結合するとともに、合成画像の右側に、RPPB画像及びRPPC画像を並べて結合することで生成することができる。
図20の統合画像によれば、ドライバは、車両10の後方(真後ろ)、左後方、右後方、左方、及び、右方の状況を確認することができる。
また、図20の結合画像によれば、LPPC画像及びRPPC画像は、円筒射影の画像であるので、車両の左方及び右方の広範囲を映すことができ、ドライバは、そのような広範囲を確認することができる。
なお、統合画像は、LPPB画像及びRPPB画像を配置せずに構成すること、すなわち、合成画像の左隣に、LPPC画像を配置するとともに、合成画像の右隣に、RPPC画像を配置して構成することができる。
また、図20の統合画像については、PPA画像が合成されている合成画像に代えて、PPA画像(リア画像)そのものを配置することができる。
図21は、中速CMS画像としての統合画像の第2の例を示す図である。
図21の統合画像では、図20の場合と比較して、LPPB画像とLPPC画像との配置位置が入れ替わり、RPPB画像とRPPC画像との配置位置が入れ替わっている。
図22は、中速CMS画像としての統合画像の第3の例を示す図である。
図22の統合画像では、合成画像とLPPB画像との間、合成画像とRPPB画像との間、LPPB画像とLPPC画像との間、及び、RPPB画像とRPPC画像との間のそれぞれに、図13で説明した分離境界線が配置されている。
これにより、ドライバは、統合画像に配置された合成画像、LPPB画像、RPPB画像、LPPC画像、及び、RPPC画像のそれぞれを、容易に、意識的に分離して認知することができる。
なお、図21の統合画像についても、分離境界線を配置することができる。
図23は、中速CMS画像としての統合画像の第4の例を説明する図である。
統合画像には、例えば、RPPB画像の下半分について、PPA画像に近い領域ほど、無限遠点が、PPA画像の無限遠点に近づくようにアフィン変換を施したRPPB画像を配置することができる。無限遠点の配置は、実際の車輌に設置されたカメラの視野角に応じて決まり、RPPB画像の「下半分」とは水平線の下部に該当する。
図23では、RPPB画像の下半分が、ほぼ短冊状に区切られ、PPA画像に近い短冊状の領域ほど、無限遠点がPPA画像の無限遠点に近づくようにアフィン変換(以下、短冊アフィン変換ともいう)が行われている。図示していないが、LPPB画像についても、同様である。
例えば、PPA画像、又は、PPA画像が合成された合成画像の左右に、LPPB画像及びRPPB画像をそれぞれ配置し、LPPB画像の左に、LPPC画像を配置するとともに、RPPB画像の右に、RPPC画像を配置して、統合画像を生成する場合には、PPA画像又は合成画像の左右にそれぞれ配置するLPPB画像及びRPPB画像として、短冊アフィン変換後のLPPB画像及びRPPB画像を採用することにより、LPPB画像及びRPPB画像それぞれからPPA画像又は合成画像にかけて、無限遠点が、PPA画像又は合成画像の無限遠点にシームレスに(徐々に)近づいていく、視覚的な違和感が抑制された統合画像を得ることができる。
図24は、中速CMS画像としての統合画像の第5の例を説明する図である。
中速CMS画像としての統合画像では、車両10の周囲を囲む仮想的な境界線である仮想境界線VL10,VL11,VL12,VL13を、円筒射影のLPPC画像及びRPPC画像に重畳することができる。
ここで、仮想境界線VL10は、車両10において、前方に最も突出している部分に接する左右方向に延びる仮想的な直線であり、仮想境界線VL11は、車両10において、後方に最も突出している部分に接する左右方向に延びる仮想的な直線である。
仮想境界線VL12は、車両10において、左方に最も突出している部分に接する前後方向に延びる仮想的な直線であり、仮想境界線VL13は、車両10において、右方に最も突出している部分に接する前後方向に延びる仮想的な直線である。
図25は、中速CMS画像としての統合画像の第5の例を示す図である。
図25の統合画像では、仮想境界線VL10ないしVL13が、円筒射影のLPPC画像及びRPPC画像に重畳されており、かかる点で、図25の統合画像は、図20の場合と異なる。
図25の統合画像によれば、ドライバは、仮想境界線VL10ないしVL13により、道路上にある物体と車両10との相対的な位置関係を把握することができる。
以上、高速CMS画像、中速CMS画像、及び、低速CMS画像について説明したが、車両10に搭載されたCMSでは、CMS画像の表示を、高速CMS画像、中速CMS画像、又は、低速CMS画像に、適宜切り替えることができる。
CMS画像の切り替えは、車両10の速度等の車両10の状態(車両状態)に応じて行うことができる。また、CMS画像の切り替えは、その他、例えば、ドライバ等による車両10の操作や、ドライバの頭部の位置や姿勢等のドライバの状態(ドライバ状態)に応じて行うことができる。
ここで、車両10の操作には、例えば、ステアリング(ハンドル)や、シフトレバー、その他の機械的な操作手段の操作の他、音声やジェスチャによる操作が含まれる。
例えば、ドライバは、狭隘道路から抜け出す場合や、駐車場から出庫する場合等においては、上半身を、安定して着座している姿勢(以下、安定姿勢ともいう)から、意識的に前に移動して、車両の前方の左右を確認する。
ドライバの上半身の前後への移動は、例えば、頭部を上下させる動作等の、ドライバが無意識に行ってしまう可能性が高い動作とは異なり、ドライバが車両の前方の左右を確認する等の明確な意識をもって行う可能性が高い動作である。
また、ドライバの上半身の前後への移動は、ステアリングを持った状態で行われる可能性が高く、動作のばらつきが少ない、いわば定型的な動作であり、比較的、精度良く検出することができる。
そこで、ドライバ状態として、ドライバの上半身の前への移動を検出し、ドライバの上半身の前への移動が検出された場合には、例えば、狭隘道路からの抜け出し時等において、車両の前方の左右の確認に有用な中速CMS画像や低速CMS画像に、CMS画像の表示を切り替えることができる。
なお、ドライバ状態としてのドライバの上半身の前後への移動を検出する方法としては、絶対的な移動量を検出する方法と、所定の短時間ごとに、その短時間内での相対的な移動量を検出する方法がある。CMS画像の表示を、中速CMS画像や低速CMS画像に切り替える場合の、ドライバの上半身の前後への移動の検出には、例えば、短時間ごとに、相対的な移動量を検出する方法を採用することができる。
<本技術を適用した車両の一実施の形態>
図26は、本技術を適用した車両の一実施の形態の外観の構成例の概要を示す平面図である。
例えば、自動車等である(自)車両100には、CMSが搭載されている。そして、車両100には、CMSを構成するリアカメラ111、Lサイドカメラ112、Rサイドカメラ113、Lリアサイドカメラ114、Rリアサイドカメラ115、フロントカメラ121、及び、室内カメラ122等が設置されている。
リアカメラ111は、例えば、図3のリアカメラ11と同様に、車両100の後部に設置されている。さらに、リアカメラ111は、例えば、図3のリアカメラと同様に、車両100の後方(真後ろ)を所定のフレームレートで撮影し、その後方の状況が映った中心射影のリア画像を出力する。
Lサイドカメラ112は、例えば、図19のLサイドカメラ22と同様に、車両100の左側のサイドミラー位置に設置されている。さらに、Lサイドカメラ112は、例えば、図19のLサイドカメラ22と同様に、全天の撮影が可能な全天球カメラで、光軸が車両100の左方向に向くように設置されている。したがって、Lサイドカメラ112は、図19のLサイドカメラ22と同様に、車両100の左方向に延びる軸回りの全方向の状況が映った画像を所定のフレームレートで撮影し、Lサイド画像として出力する。
Rサイドカメラ113は、例えば、図19のRサイドカメラ23と同様に、車両100の右側のサイドミラー位置に設置されている。さらに、Rサイドカメラ113は、例えば、図19のRサイドカメラ23と同様に、全天の撮影が可能な全天球カメラで、光軸が車両100の右方向に向くように設置されている。したがって、Rサイドカメラ113は、図19のLサイドカメラ23と同様に、車両100の右方向に延びる軸回りの全方向の状況が映った画像を所定のフレームレートで撮影し、Rサイド画像として出力する。
Lリアサイドカメラ114は、例えば、図15及び図16のLリアサイドカメラ14と同様に、Lリアサイドカメラ114で撮影したい方向である右後方と反対側の、車両100の後部の左側の位置に、光軸を、撮影したい方向(右後方)に向けて設置されている。そして、Lリアサイドカメラ114は、例えば、図15及び図16のLリアサイドカメラ14と同様に、水平画角が90ないし100度程度の中心射影の画像を所定のフレームレートで撮影し、その結果得られるLリアサイド画像を出力する。
Rリアサイドカメラ115は、例えば、図15及び図16のRリアサイドカメラ15と同様に、Rリアサイドカメラ115で撮影したい方向である左後方と反対側の、車両100の後部の右側の位置に、光軸を、撮影したい方向(左後方)に向けて設置されている。そして、Rリアサイドカメラ115は、例えば、図15及び図16のRリアサイドカメラ15と同様に、水平画角が90ないし100度程度の中心射影の画像を所定のフレームレートで撮影し、その結果得られるRリアサイド画像を出力する。
フロントカメラ121は、例えば、車両100の前部に設置されている。フロントカメラ121は、車両100の前方を所定のフレームレートで撮影し、その前方の状況が映ったフロント画像を出力する。
室内カメラ122は、例えば、バックミラーの位置やステアリングホイルの軸上部位置等に設置されている。室内カメラ122は、例えば、車両100を操縦(運転)するドライバを所定のフレームレートで撮影し、その結果得られる画像を出力する。
なお、車両100には、リアカメラ111、Lサイドカメラ112、Rサイドカメラ113、Lリアサイドカメラ114、Rリアサイドカメラ115、フロントカメラ121、及び、室内カメラ122以外にも、カメラを設置することができる。
<車両100に搭載されたCMSの構成例>
図27は、車両100に搭載されたCMSの構成例を示すブロック図である。
図27において、CMS150は、撮影部161、距離検出部162、車両状態検出部163、ドライバ状態検出部164、CMS画像生成部165、及び、表示部166を有する。
撮影部161は、リアカメラ111、Lサイドカメラ112、Rサイドカメラ113、Lリアサイドカメラ114、Rリアサイドカメラ115、フロントカメラ121、及び、室内カメラ122等を有する。
撮影部161において、リアカメラ111、Lサイドカメラ112、Rサイドカメラ113、Lリアサイドカメラ114、Rリアサイドカメラ115、フロントカメラ121、及び、室内カメラ122で撮影された画像(リア画像、Lサイド画像、Rサイド画像、Lリアサイド画像、Rリアサイド画像、フロント画像、ドライバを撮影した画像等)は、必要に応じて、ドライバ状態検出部164やCMS画像生成部165に供給される。
距離検出部162は、例えば、ソナーや、レーダー、ステレオカメラ、LIDAR、TOFセンサ、その他の測距が可能なセンサを有する。距離検出部162は、測距が可能なセンサの出力を用いて、車両100の周囲の起立物、その他の物体までの距離を検出し、その距離を表す距離情報を、CMS画像生成部165に供給する。また、画像処理によりカメラ単独で距離推定をしても良い。
車両状態検出部163には、操作部151から操作情報が供給されるとともに、センサ部162からセンサ信号が供給される。
ここで、操作部151は、例えば、ブレーキペダルや、ステアリング、ウインカーレバー、アクセルペダル、シフトレバー等の、ドライバ等が車両100の操縦等のために操作する、車両100に設けられた各種の操作手段である。また、図示していないが、その他スイッチャ―やジェスチャーセンサー等で運転者操作を検出・認識をしてもよい。
操作部151は、ドライバ等により操作され、その操作に対応する操作情報を、車両状態検出部163、及び、CMS画像生成部165に供給する。
センサ部152は、ジャイロセンサや加速度センサ等の、車両100に関する各種の物理量をセンシングする各種のセンサを有し、その各種のセンサが出力するセンサ信号を、車両状態検出部163に供給する。
車両状態検出部163は、操作部151からの操作情報や、センサ部152からのセンサ信号に基づき、車両100の車両状態を検出し、CMS画像生成部165に供給する。
車両100の車両状態としては、例えば、車両100が、低速、中速、及び、高速のうちのいずれの速度レンジで走行しているかや、車両100が前進しているか又は後進しているか等がある。
ドライバ状態検出部164には、撮影部161の室内カメラ122から、ドライバ(運転席)を撮影した画像が供給される。
ドライバ状態検出部164は、室内カメラ122の画像から、ドライバのドライバ状態、すなわち、例えば、ドライバの頭部の位置や、頭部の移動(回転)、視線、姿勢、上半身の位置や、上半身の移動等を検出し、CMS画像生成部165に供給する。その他、ジェスチャやToFセンサを用いてドライバの状態検出を行ってもよい。
CMS画像生成部165には、上述したように、操作部151から操作情報が、車両状態検出部163から車両状態が、ドライバ状態検出部164からドライバ状態が、それぞれ供給される。
さらに、CMS画像生成部165には、撮影部161のリアカメラ111、Lサイドカメラ112、Rサイドカメラ113、Lリアサイドカメラ114、Rリアサイドカメラ115、及び、フロントカメラ121から、リア画像、Lサイド画像、Rサイド画像、Lリアサイド画像、Rリアサイド画像、及び、フロント画像がそれぞれ供給される。
CMS画像生成部165は、操作部151からの操作情報や、車両状態検出部163からの車両状態、ドライバ状態検出部164からのドライバ状態に応じて、表示モードを設定する。
さらに、CMS画像生成部165は、撮影部161からのリア画像、Lサイド画像、Rサイド画像、Lリアサイド画像、Rリアサイド画像、及び、フロント画像を用いて、表示モードに応じたCMS画像としての統合画像を生成し、表示部166に供給する。
表示部166は、例えば、車両100のフロントガラスに画像を表示するHUD(Head Up Display)や、ダッシュボードに設けられたディスプレイ等であり、CMS画像生成部165からのCMS画像としての統合画像等を表示する。
<表示モード>
図28は、CMS画像生成部165が設定する表示モードの例を示す図である。
図28では、表示モードとして、例えば、駐車支援バックギア切り替えモード、市街地低速広域モード、市街地低速サイド分離可変モード、CTAモード、高速サイド分離表示モード、高速中間表示モード、及び、高速標準連続モードがある。
さらに、図28では、表示モードの遷移は、図中、矢印で表される遷移に制限される。但し、表示モードの遷移は、図28に矢印で示した遷移に限定されるものではない。すなわち、例えば、表示モードは、任意の表示モードから、他の任意の表示モードに遷移させることができる。
ここで、駐車支援バックギア切り替えモード、市街地低速広域モード、市街地低速サイド分離可変モード、CTAモード、高速サイド分離表示モード、高速中間表示モード、高速標準連続モードを、それぞれ、表示モード1,2,3,4,5,6,7ともいう。
表示モード1では、CMS画像生成部165は、車両100の上方から、車両100を含む、車両100の周辺を俯瞰した、いわゆるバードビュー又はサラウンドビューの画像(俯瞰画像)を、表示モード1の画像として生成し、その表示モード1の画像を、CMS画像として出力する。
表示モード2又は3では、CMS画像生成部165は、図19ないし図25で説明した中速CMS画像としての統合画像を生成して出力する。
すなわち、表示モード2では、CMS画像生成部165は、例えば、図25の統合画像を、表示モード2の統合画像として生成し、その表示モード2の統合画像を、CMS画像として出力する。
表示モード3では、CMS画像生成部165は、例えば、図22の統合画像を、表示モード3の統合画像として生成し、その表示モード3の統合画像を、CMS画像として出力する。
表示モード4では、CMS画像生成部165は、図15ないし図18で説明した低速CMS画像としての統合画像を生成して出力する。
すなわち、表示モード4では、CMS画像生成部165は、例えば、図18の統合画像を、表示モード4の統合画像として生成し、その表示モード4の統合画像を、CMS画像として出力する。
表示モード5,6、又は、7では、CMS画像生成部165は、図12ないし図14で説明した高速CMS画像としての統合画像を生成して出力する。
すなわち、表示モード5では、CMS画像生成部165は、例えば、図13の統合画像を、表示モード5の統合画像として生成し、その表示モード5の統合画像を、CMS画像として出力する。
表示モード6では、CMS画像生成部165は、例えば、図14の統合画像を、表示モード6の統合画像として生成し、その表示モード6の統合画像を、CMS画像として出力する。
表示モード7では、CMS画像生成部165は、例えば、図12の統合画像を、表示モード7の統合画像として生成し、その表示モード7の統合画像を、CMS画像として出力する。
CMS画像生成部165は、操作部151からの操作情報や、車両状態検出部163からの車両状態、ドライバ状態検出部164からのドライバ状態に応じて、表示モードを設定する。
例えば、操作部151からの操作情報が、操作部151(図27)のシフトレバーがバックギアになっていることを表す場合、CMS画像生成部165は、表示モードを表示モード1に設定することができる。
また、例えば、車両状態検出部163からの車両状態が、車両100が中速で走行していることを表す場合、CMS画像生成部165は、表示モードを、表示モード2又は3に設定することができる。
さらに、例えば、車両状態検出部163からの車両状態が、車両100が低速で走行していることを表す場合、CMS画像生成部165は、表示モードを、表示モード4に設定することができる。
また、例えば、車両状態検出部163からの車両状態が、車両100が高速で走行していることを表す場合、CMS画像生成部165は、表示モードを、表示モード5,6、又は、7に設定することができる。車両100が、例えば、パーキング等のために低速で走行している車両状態であることや、市街地走行等のために中速で走行している車両状態にあること、高速道路等で高速で走行している車両状態であることは、例えば、GNSS(Global Navigation Satellite System)やナビゲーション、ナビゲーションプラニング情報を適宜用いて検出することができる。
さらに、例えば、操作部151からの操作情報が、操作部151が所定の表示モードを指定するように操作されたことを表す場合、CMS画像生成部165は、表示モードを、操作部151の操作に従った所定の表示モードに設定することができる。
また、例えば、ドライバ状態検出部164からのドライバ状態が、ドライバが安定姿勢になっていることを表す場合、CMS画像生成部165は、表示モードを、表示モード5,6、又は、7に設定することができる。
さらに、例えば、ドライバ状態検出部164からのドライバ状態が、ドライバの上半身が前に移動していることを表す場合、CMS画像生成部165は、表示モードを、表示モード2,3、又は、4に設定することができる。
<CMS画像生成部165の構成例>
図29は、図27のCMS画像生成部165の構成例を示すブロック図である。
図29において、CMS画像生成部165は、表示モード設定部201、リア画像処理部211、Lサイド画像処理部212、Rサイド画像処理部213、Lリアサイド画像処理部214、Rリアサイド画像処理部215、記憶部216、距離情報取得部217、位置関係判定部218、衝突リスク判定部219、統合部220、及び、重畳部221等を有する。
表示モード設定部201には、操作部151(図27)から操作情報が供給される。さらに、表示モード設定部201には、車両状態検出部163(図27)から車両状態が供給されるとともに、ドライバ状態検出部164(図27)からドライバ状態が供給される。
表示モード設定部201は、操作部151からの操作情報、車両状態検出部163からの車両状態、及び、ドライバ状態検出部164からのドライバ状態のうちの少なくとも1つに応じて、統合画像の表示に関する表示モードを設定し、統合部220その他の必要なブロックに供給する。
リア画像処理部211には、リアカメラ111(図27)からリア画像が供給される。リア画像処理部211は、リアカメラ111から供給されるリア画像(の各フレーム)に、表示モードに応じた画像処理を施し、その画像処理後のリア画像や、リア画像に映る起立物(リア起立物)、及び、リア画像上のリア起立物の位置を表す位置情報を、記憶部216に供給する。
Lサイド画像処理部212には、Lサイドカメラ112(図27)からLサイド画像が供給される。Lサイド画像処理部212は、Lサイドカメラ112から供給されるLサイド画像(の各フレーム)に、表示モードに応じた画像処理を施し、その画像処理後のLサイド画像や、Lサイド画像に映る起立物(Lサイド起立物)、及び、Lサイド画像上のLサイド起立物の位置を表す位置情報を、記憶部216に供給する。
Rサイド画像処理部213には、Rサイドカメラ113(図27)からRサイド画像が供給される。Rサイド画像処理部213は、Rサイドカメラ113から供給されるRサイド画像(の各フレーム)に、表示モードに応じた画像処理を施し、その画像処理後のRサイド画像や、Rサイド画像に映る起立物(Rサイド起立物)、及び、Rサイド画像上のRサイド起立物の位置を表す位置情報を、記憶部216に供給する。
Lリアサイド画像処理部214には、Lリアサイドカメラ114(図27)からLリアサイド画像が供給される。Lサイド画像処理部214は、Lリアサイドカメラ114から供給されるLリアサイド画像(の各フレーム)に、表示モードに応じた画像処理を施し、その画像処理後のLリアサイド画像を、記憶部216に供給する。
Rリアサイド画像処理部215には、Rリアサイドカメラ115(図27)からRリアサイド画像が供給される。Rサイド画像処理部215は、Rリアサイドカメラ115から供給されるRリアサイド画像(の各フレーム)に、表示モードに応じた画像処理を施し、その画像処理後のRリアサイド画像を、記憶部216に供給する。
記憶部216は、リア像処理部211からのリア画像、リア起立物(の画像)、及び、リア起立物の位置情報を記憶する。さらに、記憶部216は、Lサイド画像処理部212からのLサイド画像、Lサイド起立物(の画像)、及び、Lサイド起立物の位置情報を記憶する。また、記憶部216は、Rサイド画像処理部213からのRサイド画像、Rサイド起立物(の画像)、及び、Rサイド起立物の位置情報を記憶する。さらに、記憶部216は、Lリアサイド画像処理部214からのLリアサイド画像、及び、Rリアサイド画像処理部215からのRリアサイド画像を記憶する。
距離情報取得部217には、距離検出部162(図27)から、車両100の周囲の物体までの距離を表す距離情報が供給される。距離情報取得部217は、距離検出部162から供給される距離情報から、記憶部216に記憶された位置情報が表す位置にある起立物(リア起立物、L/Rサイド起立物)の距離情報を取得し、位置関係判定部218、衝突リスク判定部219、及び、統合部220に供給する。
位置関係判定部218は、距離情報取得部217からの起立物の距離情報に基づいて、リア起立物とL/Rサイド起立物との前後関係を判定する前後関係判定を行う。さらに、位置関係判定部218は、距離情報取得部217からの起立物の距離情報、及び、記憶部216に記憶された起立物の位置情報に基づいて、合成画像において、L/Rサイド起立物が、リア起立物によって隠れるかどうかを判定するオクルージョン判定を行う。
そして、位置関係判定部218は、前後関係判定の判定結果、及び、オクルージョン判定の判定結果を、位置関係情報として、重畳部221に供給する。
衝突リスク判定部219は、距離情報取得部217からのL/Rサイド起立物の距離情報に基づいて、車両100が、左又は右に進路変更したならば、L/Rサイド起立物と衝突するかどうかの衝突リスクを判定する衝突リスク判定を行う。
すなわち、衝突リスク判定部219は、例えば、距離情報取得部217からのL/Rサイド起立物の距離情報から、L/Rサイド起立物の相対速度を求める。さらに、衝突リスク判定部219は、L/Rサイド起立物の距離情報が表すL/Rサイド起立物までの距離、及び、L/Rサイド起立物の相対速度から、車両100が左又は右に進路変更したならば、L/Rサイド起立物と衝突するまでの衝突所要時間を推定し、その衝突所要時間に応じて、衝突リスク判定を行う。
衝突リスク判定部219は、衝突リスク判定の判定結果を、重畳部221に供給する。
統合部220は、表示モードに応じて、記憶部216に記憶されたリア画像、L/Rサイド画像、L/Rリアサイド画像、リア起立物、及び、L/Rサイド起立物のうちの必要な画像を統合して、統合画像を生成し、重畳部221に供給(出力)する。
なお、統合部220は、統合画像(を構成する合成画像)の生成において、リア起立物、及び、L/Rサイド起立物のレイヤ合成を行う場合には、距離情報取得部217からの起立物の距離情報に応じて、リア起立物、及び、L/Rサイド起立物が重なる部分について、奥側にある起立物を、手前側にある起立物で上書きするように、リア起立物、及び、L/Rサイド起立物を合成する。
重畳部221は、表示モードに応じて、統合部220からの統合画像に、警告マークAM1やAM2(図12)のような警告マーク、又は、車両100の周囲を囲む仮想境界線VL10,VL11,VL12,VL13(図24、図25)を重畳し、その結果得られる重畳画像を、CMS画像として、表示部166(図27)に出力する。
すなわち、重畳部221は、表示モード(図28)が表示モード1,3、又は、4である場合、統合部220からの統合画像を、そのまま、CMS画像として出力する。
また、重畳部221は、表示モードが表示モード2である場合、車両100の周囲を囲む仮想境界線VL10,VL11,VL12,VL13(に対応する線)を重畳し、その結果得られる重畳画像を、CMS画像として出力する。
さらに、重畳部221は、表示モードが表示モード5,6、又は、7である場合、位置関係判定部218からの位置関係情報や、衝突リスク判定部219からの衝突リスク判定の判定結果に応じて、ドライバにL/Rサイド起立物の接近を警告するかどうかを判定する警告判定を行う。
そして、重畳部221は、警告判定において、警告が不要であると判定した場合、統合部220からの統合画像を、そのまま、CMS画像として出力する。
また、重畳部221は、警告判定において、警告が必要であると判定した場合、統合部220からの統合画像の、L/Rサイド起立物が存在する位置に、警告マークを重畳し、その結果得られる重畳画像を、CMS画像として出力する。
なお、重畳部221は、統合画像の、警告マークを重畳するL/Rサイド起立物が存在する位置を、記憶部216に記憶されたL/Rサイド起立物の位置情報から認識する。
図30は、図29のリア画像処理部211の構成例を示すブロック図である。
リア画像処理部211は、画像切り出し部251、及び、起立物検出部252を有する。
画像切り出し部251には、リアカメラ111(図27)からリア画像が供給される。
画像切り出し部251は、リアカメラ111から供給されるリア画像(以下、元リア画像ともいう)から、表示モードに応じて、その表示モードの統合画像の生成に必要な範囲を切り出し、その範囲のリア画像を、起立物検出部252、及び、記憶部216(図29)に供給する。
起立物検出部252は、画像切り出し部251からのリア画像のオプティカルフロー解析やテクスチャ解析等を行うことにより、リア画像に映るリア起立物の領域のセグメンテーションを行う。
起立物検出部252は、セグメンテーションによって、リア画像に映るリア起立物(の画像)、及び、そのリア起立物のリア画像上の位置を表す位置情報を検出し、記憶部216に供給する。ここで、セグメンテーションでは、非路面となる起立物の領域抽出が行われる。セグメンテーションで抽出される領域の境界の最下端部が路面接地点と見なせる。移動する起立物は必ず路面接地点をもつ。
図31は、図29のLサイド画像処理部212の構成例を示すブロック図である。
Lサイド画像処理部212は、画像切り出し部261、射影方式変換部262、起立物検出部263、アフィン変換部264、及び、変換後位置検出部265を有する。
画像切り出し部261には、Lサイドカメラ112(図27)からLサイド画像が供給される。
画像切り出し部261は、Lサイドカメラ112から供給されるLサイド画像(以下、元Lサイド画像ともいう)から、表示モードに応じて、その表示モードの統合画像の生成に必要な範囲を切り出し、その範囲のLサイド画像を、射影方式変換部262に供給する。
射影方式変換部262は、表示モードに応じて、画像切り出し部261からのLサイド画像を、中心射影のLサイド画像や、円筒射影のLサイド画像に変換する、射影方式の変換を行う。
ここで、本実施の形態では、Lサイドカメラ112は、全天球カメラであり、Lサイドカメラ112で撮影される(元)Lサイド画像は、例えば、等距離射影等の、全天の撮影で採用される射影方式の画像になっている。
射影方式変換部262は、以上のような等距離射影のLサイド画像を、中心射影のLサイド画像や、円筒射影のLサイド画像(の一方、又は、両方)に変換する。
射影方式変換部262は、中心射影のLサイド画像を、起立物検出部263、アフィン変換部264、及び、記憶部216(図29)に供給し、円筒射影のLサイド画像を、記憶部216に供給する。
起立物検出部263は、射影方式変換部262からのLサイド画像のオプティカルフロー解析やテクスチャ解析等を行うことにより、Lサイド画像に映るLサイド起立物の領域のセグメンテーションを行う。
起立物検出部263は、セグメンテーションによって、Lサイド画像に映るLサイド起立物(の画像)、及び、そのLサイド起立物のLサイド画像上の位置を表す位置情報を検出し、変換後位置検出部265、及び、記憶部216に供給する。
アフィン変換部264は、例えば、射影方式変換部262からのLサイド画像の無限遠点を、リア画像の無限遠点に一致させるように、射影方式変換部262からのLサイド画像をアフィン変換する。
そして、アフィン変換部264は、アフィン変換により得られるアフィン変換後のLサイド画像を、記憶部216に供給する。
なお、アフィン変換部264では、Lサイド画像の無限遠点を、リア画像の無限遠点に一致させるアフィン変換を行う他、例えば、ドライバの状態に応じて、アフィン変換後のLサイド画像の無限遠点がリア画像の無限遠点と一致する程度を調整したアフィン変換を行うことができる。
また、アフィン変換部264は、アフィン変換において、アフィン変換前のLサイド画像の各画素の位置と、アフィン変換後のLサイド画像の各画素の位置とを対応付けた変換テーブルを生成する。アフィン変換の変換テーブルは、アフィン変換部264から変換後位置検出部265に供給される。
変換後位置検出部265は、アフィン変換部264からの変換テーブルを用いて、起立物検出部263からのLサイド起立物の位置情報(アフィン変換前のLサイド画像に映る起立物の位置情報)から、アフィン変換後のLサイド画像に映るLサイド起立物の位置情報を検出し、記憶部216に供給する。
図32は、図29のRサイド画像処理部213の構成例を示すブロック図である。
Rサイド画像処理部213は、画像切り出し部271、射影方式変換部272、起立物検出部273、アフィン変換部274、及び、変換後位置検出部275を有する。
画像切り出し部271ないし変換後位置検出部275は、図31の画像切り出し部261ないし変換後位置検出部265とそれぞれ同様に構成される。
画像切り出し部271ないし変換後位置検出部275では、Rサイドカメラ113から供給されるRサイド画像(以下、元Rサイド画像ともいう)を対象とする点を除き、画像切り出し部261ないし変換後位置検出部265とそれぞれ同様の処理が行われる。
図33は、図29のLリアサイド画像処理部214の構成例を示すブロック図である。
Lリアサイド画像処理部214は、画像切り出し部281を有する。
画像切り出し部281には、Lリアサイドカメラ114(図27)からLリアサイド画像が供給される。
画像切り出し部281は、Lリアサイドカメラ114から供給されるLリアサイド画像(以下、元Lリアサイド画像ともいう)から、表示モードに応じて、その表示モードの統合画像の生成に必要な範囲を切り出し、その範囲のLリアサイド画像を、記憶部216(図29)に供給する。
図34は、図29のRリアサイド画像処理部215の構成例を示すブロック図である。
Rリアサイド画像処理部215は、画像切り出し部291を有する。
画像切り出し部291には、Rリアサイドカメラ115(図27)からRリアサイド画像が供給される。
画像切り出し部281は、Rリアサイドカメラ115から供給されるRリアサイド画像(以下、元Rリアサイド画像ともいう)から、表示モードに応じて、その表示モードの統合画像の生成に必要な範囲を切り出し、その範囲のRリアサイド画像を、記憶部216(図29)に供給する。
図35は、図30の起立物検出部252での起立物の検出に行われるセグメンテーションの概要を説明する図である。
すなわち、図35は、リア画像の一例を示している。
図35において、矢印は、リア画像のオプティカルフロー解析を行うことにより得られるOF(Optical Flow)(を表すベクトル)を表す。
リア画像において、リア画像に映る物体のOFは、その物体の、車両100に対する相対速度によって異なる。したがって、例えば、道路等の静止している物体のOFと、車両100以外の車両等の動いている起立物のOFとは異なる。
例えば、道路のOFは、車両100の速度に対応する大きさで、後方(リア画像の奥側)を向くベクトルになる。また、例えば、車両100に接近する起立物のOFは、前方(リア画像の手前側)を向くベクトルになり、車両100の後方を、車両100と同一速度で走行する起立物のOFは、0ベクトルになる。
したがって、リア画像において、OFが類似する連続した領域は、例えば、自動車や、自動二輪車、歩行者等の、類似するテクスチャを有する1つの物体(集合体)を構成する確率が極めて高い。
そこで、起立物検出部252は、リア画像において、車両100の速度に対応する大きさで、後方を向くOFを、道路のOFとして、リア画像を、道路のOFとは異なるOFであって、類似するOFが分布するひとまとまりの領域に区分するセグメンテーションを行う。
そして、起立物検出部252は、セグメンテーションにより得られるひとまとまりの領域を、起立物(の領域)として検出する。
図31の起立物検出部263、及び、図32の起立物検出部273でも、起立物検出部252と同様にセグメンテーションを行って、起立物を検出する。セグメンテーションにより抽出した起立物の領域については、自車両100との相対位置関係が重要であり、自車両100に最も近い点である最接近点が最も重要である。また、起立物は、その起立物の領域の境界の最下部の位置に直立していると仮定する事が出来る。なお、クレーン車などの特殊な形状の車輌については、車両の道路接地点がセグメンテーションにより検出された(起立物)領域より引き込んでいる事(起立物の領域の境界の最下部でないこと)がある。この場合、起立物の領域の境界の最下部を、車両の道路接地点とすると、その道路接地点は誤差を含む。そこで、車両の道路接地点の検出にあたっては、車両識別を行い、その識別結果に応じて、能動的に車両の道路接地点の誤差を低減するオフセットをはかせるなどの処理を行っても良い。
<CMS画像生成処理>
図36は、図29のCMS画像生成部165が行うCMS画像生成処理の例を説明するフローチャートである。
ステップS101において、表示モード設定部201は、操作部151からの操作情報、車両状態検出部163からの車両状態、及び、ドライバ状態検出部164からのドライバ状態に応じて、表示モードを設定し、統合部220その他の必要なブロックに供給して、処理は、ステップS102に進む。
ステップS102では、CMS画像生成部165(の各ブロック)は、表示モードを判定する。
ステップS102において、表示モードが、表示モード5,6、又は、7であると判定された場合、処理は、ステップS103に進み、CMS画像生成部165は、表示モード5,6,7の画像生成処理を行い、処理は、ステップS101に戻る。
ステップS102において、表示モードが、表示モード4であると判定された場合、処理は、ステップS104に進み、CMS画像生成部165は、表示モード4の画像生成処理を行い、処理は、ステップS101に戻る。
ステップS102において、表示モードが、表示モード2又は3であると判定された場合、処理は、ステップS105に進み、CMS画像生成部165は、表示モード2,3の画像生成処理を行い、処理は、ステップS101に戻る。
ステップS102において、表示モードが、表示モード1であると判定された場合、処理は、ステップS106に進み、CMS画像生成部165は、撮影部161から供給される画像を適宜用いて、表示モード1の画像、すなわち、サラウンドビューの画像を生成する。
そして、CMS画像生成部165は、サラウンドビューの画像を、CMS画像として(表示部166に)出力し、処理は、ステップS106からステップS101に戻る。
図37は、図36のステップS103で行われる表示モード5,6,7の画像生成処理の例を説明するフローチャートである。
ステップS111において、表示モード5,6,7の画像処理が行われ、処理は、ステップS112に進む。
ここで、表示モード5,6,7の画像処理としては、ステップS111−1において、リア画像処理部211が、リア画像処理を行う。さらに、ステップS111−2において、Lサイド画像処理部212、Lサイド画像処理を行い、ステップS111−3において、Rサイド画像処理部213、Rサイド画像処理を行う。
ステップS111−1では、リア画像処理部211は、リア画像処理を行うことにより、表示モード5,6、又は、7の統合画像(図13、図14、又は、図12の統合画像)の生成に用いられるリア画像、リア起立物、及び、リア起立物の位置情報を得て出力する。
ステップS111−2では、Lサイド画像処理部212は、Lサイド画像処理を行うことにより、表示モード5,6、又は、7の統合画像の生成に用いられるLサイド画像、Lサイド起立物、及び、Lサイド起立物の位置情報を得て出力する。
ステップS111−3では、Rサイド画像処理部213は、Rサイド画像処理を行うことにより、表示モード5,6、又は、7の統合画像の生成に用いられるRサイド画像、Rサイド起立物、及び、Rサイド起立物の位置情報を得て出力する。
ステップS112では、記憶部216が、直前のステップS111の表示モード5,6,7の画像処理により得られるリア画像、リア起立物、リア起立物の位置情報、L/Rサイド画像、L/Rサイド起立物、及び、L/Rサイド画像の位置情報を記憶し、処理は、ステップS113に進む。
ステップS113では、距離情報取得部217は、距離検出部162(図27)から供給される距離情報から、記憶部216に記憶された位置情報が表す位置にあるリア起立物、及び、L/Rサイド起立物の距離情報を取得する。そして、距離情報取得部217は、リア起立物、及び、L/Rサイド起立物の距離情報を、位置関係判定部218、衝突リスク判定部219、及び、統合部220に供給し、処理は、ステップS113からステップS114に進む。
ステップS114では、衝突リスク判定部219は、距離情報取得部217からのL/Rサイド起立物の距離情報(の変化)から、L/Rサイド起立物の相対速度(車両100に対する相対速度)を求める。さらに、衝突リスク判定部219は、L/Rサイド起立物の距離情報が表すL/Rサイド起立物までの距離、及び、L/Rサイド起立物の相対速度から、衝突リスク判定を行い、処理は、ステップS115に進む。
ステップS115では、位置関係判定部218は、距離情報取得部217からのリア起立物、及び、L/Rサイド起立物の距離情報、及び、記憶部216に記憶されたリア起立物、及び、L/Rサイド起立物の位置情報に基づいて、前後関係判定とオクルージョン判定とを行う。
そして、位置関係判定部218は、前後関係判定の判定結果、及び、オクルージョン判定の判定結果を、位置関係情報として、重畳部221に供給し、処理は、ステップS115からステップS116に進む。
ステップS116では、統合部220は、記憶部216に記憶されたリア画像、L/Rサイド画像、リア起立物、及び、L/Rサイド起立物を用いて、表示モード5,6、又は、7の統合画像(図13、図14、又は、図12の統合画像)を生成する。
すなわち、統合部220は、記憶部216に記憶されたリア画像、及び、アフィン変換後のL/Rサイド画像を合成し、その結果得られる合成画像に、記憶部216に記憶されたリア起立物、及び、L/Rサイド起立物を、距離情報取得部217からのリア起立物、及び、L/Rサイド起立物の距離情報に応じてレイヤ合成することで、合成画像を生成する。
なお、ここでは、図10で説明したCMS画像の表示方法として、第4の表示方法を採用することとする。この場合、レイヤ合成には、アフィン変換前のL/Rサイド起立物が、アフィン変換後のL/Rサイド起立物(アフィン変換後のL/Rサイド画像に映るL/Rサイド起立物)の位置情報が表す位置に合成される。
統合部220は、以上のようにして合成画像を生成した後、その合成画像に、必要に応じて、記憶部216に記憶されたアフィン変換前のL/Rサイド画像を結合することで、表示モード5,6、又は、7の統合画像を生成する。
そして、統合部220は、表示モード5,6、又は、7の統合画像を、重畳部221に供給し、処理は、ステップS116からステップS117に進む。
ステップS117では、重畳部221は、位置関係判定部218からの位置関係情報や、衝突リスク判定部219からの衝突リスク判定の判定結果に応じて、ドライバにL/Rサイド起立物の接近を警告するかどうかを判定する警告判定を行う。
警告判定において、警告が必要であると判定された場合、すなわち、例えば、L/R起立物が、リア起立物よりも奥側にあり、合成画像において、リア起立物の少なくとも一部が、リア起立物によって隠れ、かつ、車両100が、左又は右に進路変更したならば、所定の時間内に、L/Rサイド起立物と衝突する可能性が高い場合、重畳部221は、統合部220からの統合画像に警告マークを重畳する。
すなわち、重畳部221は、記憶部216に記憶された(アフィン変換後の)L/Rサイド起立物の位置情報に応じて、統合部220からの統合画像の、L/Rサイド起立物が存在する位置に、警告マークを重畳し、処理は、ステップS117からステップS118に進む。
ステップS118では、重畳部221は、警告マークの重畳により得られる重畳画像を、CMS画像としてに出力し、処理はリターンする。
なお、ステップS117の警告判定において、警告が不要であると判定された場合、処理は、ステップS118に進み、重畳部221は、統合部220からの統合画像を、そのまま、CMS画像として出力する。
図38は、図37のステップS111−1でリア画像処理部211が行うリア画像処理の例を説明するフローチャートである。
ステップS131において、リア画像処理部211(図30)の画像切り出し部251は、リアカメラ111から供給される元リア画像を取得する。
そして、画像切り出し部251は、リアカメラ111のカメラパラメータに応じて、元リア画像を修正し、処理は、ステップS132に進む。
ステップS132では、画像切り出し部251は、元リア画像から、表示モード5,6、又は、7の統合画像の生成に用いる範囲のリア画像を切り出し、起立物検出部252、及び、記憶部216(図29)に出力して、処理は、ステップS133に進む。
ステップS133では、起立物検出部252は、画像切り出し部251からのリア画像に、起立物の検出対象となる対象領域としてのROI(Region Of Interest)を設定し、処理は、ステップS134に進む。
ステップS134では、起立物検出部252は、画像切り出し部251からのリア画像の対象領域に対して、オプティカルフロー解析や、テクスチャ解析、トーン解析等を利用したセグメンテーションを行うことにより、リア画像の対象領域内に映るリア起立物の検出を行って(リア起立物の検出を試みて)、処理は、ステップS135に進む。
すなわち、ステップS134では、例えば、まず、ステップS134−1において、起立物検出部252は、リア画像の対象領域のオプティカルフロー解析を行う。
さらに、起立物検出部252は、対象領域を、オプティカルフロー解析により得られるOF(Optical Flow)を表すベクトルが類似する小領域にクラスタリングする。
また、起立物検出部252は、対象領域のクラスタリングにより得られた各小領域のテクスチャ解析やトーン解析等を行うことで、各小領域の特徴量を求め、特徴量が類似する、隣接する小領域どうしをマージすることで、小領域を拡張して、処理は、ステップS134−1からステップS134−2に進む。
ステップS134−2では、起立物検出部252は、ステップS134−1で得られた、小領域を拡張した拡張領域の中で、リア起立物であると推定される拡張領域の境界を検出し、処理は、ステップS134−3に進む。
ステップS134−3では、起立物検出部252は、対象領域から、ステップS134−2で境界が検出された拡張領域内の画像を、リア起立物の画像として抽出し、その画像の境界を滑らかにするエッジ処理を行って、ステップS134の処理は終了する。
ステップS135では、起立物検出部252は、リア画像にリア起立物が映っているかどうかを判定する。
すなわち、ステップS135では、起立物検出部252は、直前のステップS134のセグメンテーションによって、リア画像からリア起立物を検出することができたかどうかを判定する。
ステップS135において、リア起立物を検出することができなかったと判定された場合、処理は、ステップS136及びS137をスキップして、リターンする。
この場合、起立物検出部252は、リア起立物、及び、リア起立物の位置情報を出力しない(出力できない)。
一方、ステップS135において、リア起立物を検出することができたと判定された場合、処理は、ステップS136に進み、起立物検出部252は、リア画像上のリア起立物の位置を表す位置情報を検出し、処理は、ステップS137に進む。
ステップS137では、起立物検出部252は、ステップS134で検出したリア起立物と、ステップS136で検出したリア起立物の位置情報とを、記憶部216(図29)に出力して、処理はリターンする。
図39は、図37のステップS111−2でLサイド画像処理部212が行うLサイド画像処理の例を説明するフローチャートである。
ステップS151において、Lサイド画像処理部212(図31)の画像切り出し部261は、Lサイドカメラ112から供給される元Lサイド画像を取得する。
そして、画像切り出し部261は、Lサイドカメラ112のカメラパラメータに応じて、元Lサイド画像を修正し、処理は、ステップS152に進む。
ステップS152では、画像切り出し部261は、元Lサイド画像から、表示モード5,6、又は、7の統合画像の生成に用いる範囲のLサイド画像を切り出し、射影方式変換部262に供給して、処理は、ステップS153に進む。
ステップS153では、射影方式変換部262は、画像切り出し部261からの切り出し後のLサイド画像を、中心射影のLサイド画像に変換し、起立物検出部263、アフィン変換部264、及び、記憶部216(図29)に出力して、処理は、ステップS154に進む。
ステップS154では、アフィン変換部264は、射影方式変換部262からのLサイド画像の無限遠点を、リア画像の無限遠点に一致させるように、射影方式変換部262からのLサイド画像をアフィン変換するための、アフィン変換前のLサイド画像の各画素の位置と、アフィン変換後のLサイド画像の各画素の位置とを対応付けた変換テーブルを生成する。
さらに、アフィン変換部264は、変換テーブルにしたがって、射影方式変換部262からのLサイド画像をアフィン変換し、アフィン変換後のLサイド画像を、記憶部216(図29)に出力する。
さらに、アフィン変換部264は、変換テーブルを、変換後位置検出部265に供給して、処理は、ステップS154からステップS155に進む。
なお、表示モードが表示モード6に設定された場合において、図14で説明したように、ドライバの頭部の移動に応じて、合成画像において、アフィン変換後のL/Rサイド画像の無限遠点がリア画像の無限遠点と一致する程度を、シームレスに変化させるときには、アフィン変換部264は、ドライバ状態検出部164(図27)からCMS画像生成部165に供給されるドライバ状態に応じて、アフィン変換後のLサイド画像の無限遠点がリア画像の無限遠点と一致する程度を調整して、アフィン変換を行う。
ステップS155では、起立物検出部263は、射影方式変換部262からのLサイド画像に、起立物の検出対象となる対象領域としてのROIを設定し、処理は、ステップS156に進む。
ステップS156では、起立物検出部263は、射影方式変換部262からのLサイド画像の対象領域に対して、図38のステップS134と同様のセグメンテーションを行うことにより、Lサイド画像の対象領域内に映るLサイド起立物の検出を行って(Lサイド起立物の検出を試みて)、処理は、ステップS157に進む。
ステップS157では、起立物検出部263は、Lサイド画像にLサイド起立物が映っているかどうかを判定する。
すなわち、ステップS157では、起立物検出部263は、直前のステップS156のセグメンテーションによって、Lサイド画像からLサイド起立物を検出することができたかどうかを判定する。
ステップS157において、Lサイド起立物を検出することができなかったと判定された場合、処理は、ステップS158ないしS160をスキップして、ステップS161に進む。
この場合、起立物検出部263は、Lサイド起立物、及び、(アフィン変換前の)Lサイド起立物の位置情報を出力しない(出力できない)。さらに、変換後位置検出部265も、同様に、(アフィン変換後の)Lサイド起立物の位置情報を出力しない。
一方、ステップS157において、Lサイド起立物を検出することができたと判定された場合、処理は、ステップS158に進み、起立物検出部263は、Lサイド画像上のLサイド起立物の位置を表す位置情報を検出し、処理は、ステップS159に進む。
ステップS159では、起立物検出部263は、ステップS158で検出したLサイド起立物と、ステップS158で検出したLサイド起立物の位置情報とを、変換後位置検出部265、及び、記憶部216(図29)に出力して、処理は、ステップS160に進む。
ステップS160では、変換後位置検出部265は、アフィン変換部264からの変換テーブルを用いて、起立物検出部263からのLサイド起立物の位置情報(アフィン変換前のLサイド画像に映る起立物の位置情報)から、アフィン変換後のLサイド画像に映るLサイド起立物(アフィン変換後のLサイド起立物)の位置情報を検出する。そして、変換後位置検出部265は、アフィン変換後のLサイド起立物の位置情報を、記憶部216に出力して、処理は、ステップS161に進む。
ステップS161では、CMS画像生成部165は、撮影部161を構成するリアカメラ111ないし室内カメラ122のカメラパラメータを校正するカメラパラメータ校正タイミングになったか、又は、カメラパラメータを校正する校正トリガが、図示せぬブロックから発行されたかどうかを判定する。
ステップS161において、カメラパラメータ校正タイミングでもないし、校正トリガが発行されてもいないと判定された場合、処理は、ステップS162をスキップして、リターンする。
また、ステップS161において、カメラパラメータ校正タイミングであると判定されるか、又は、校正トリガが発行されたと判定された場合、処理は、ステップS162に進む。
ステップS163では、CMS画像生成部165は、撮影部161を構成するリアカメラ111ないし室内カメラ122のカメラパラメータの校正を所定の方法で行い、処理はリターンする。
なお、図37のステップS111−3でRサイド画像処理部213が行うRサイド画像処理は、Lサイド画像に代えて、Rサイド画像を対象として処理が行われる点を除き、図39のLサイド画像処理と同様であるため、その説明は省略する。
図40は、図36のステップS104で行われる表示モード4の画像生成処理の例を説明するフローチャートである。
ステップS181において、表示モード4の画像処理が行われ、処理は、ステップS182に進む。
ここで、表示モード4の画像処理としては、ステップS181−1において、リア画像処理部211が、リア画像処理を行う。さらに、ステップS181−2において、Lリアサイド画像処理部214が、Lリアサイド画像処理を行い、ステップS181−3において、Rリアサイド画像処理部215が、Rリアサイド画像処理を行う。
ステップS181−1では、リア画像処理部211は、リア画像処理を行うことにより、表示モード4の統合画像(図18の統合画像)の生成に用いられるリア画像を得て出力する。
ステップS181−2では、Lリアサイド画像処理部214は、Lリアサイド画像処理を行うことにより、表示モード4の統合画像の生成に用いられるLリアサイド画像を得て出力する。
ステップS181−3では、Rリアサイド画像処理部215は、Rリアサイド画像処理を行うことにより、表示モード4の統合画像の生成に用いられるRリアサイド画像を得て出力する。
ステップS182では、記憶部216が、直前のステップS181の表示モード4の画像処理により得られるリア画像、及び、L/Rリアサイド画像を記憶し、処理は、ステップS183に進む。
ステップS183では、統合部220は、記憶部216に記憶されたリア画像、L/Rリアサイド画像を統合し、表示モード4の統合画像(図18の統合画像)を生成する。
すなわち、統合部220は、図18で説明したように、記憶部216に記憶されたRリアサイド画像及びLリアサイド画像を、それぞれ左右に配置して結合することで結合画像を生成する。さらに統合部220は、結合画像の中央に、記憶部216に記憶されたリア画像を合成(重畳)することで、表示モード4の統合画像(図18の統合画像)を生成する。
そして、統合部220は、表示モード4の統合画像を、重畳部221に供給し、処理は、ステップS184に進む。
ステップS184では、重畳部221は、統合部220からの表示モード4の統合画像を、CMS画像としてに出力し、処理はリターンする。
図41は、図40のステップS181−1でリア画像処理部211が行うリア画像処理の例を説明するフローチャートである。
ステップS191において、リア画像処理部211(図30)の画像切り出し部251は、リアカメラ111から供給される元リア画像を取得する。
そして、画像切り出し部251は、リアカメラ111のカメラパラメータに応じて、元リア画像を修正し、処理は、ステップS192に進む。
ステップS192では、画像切り出し部251は、ドライバ状態検出部164(図27)からCMS画像生成部165に供給されるドライバ状態に応じて、表示モード4の統合画像(図18)のリア画像表示領域を設定し、処理は、ステップS193に進む。
ステップS193では、画像切り出し部251は、元リア画像から、直前のステップS192で設定したリア画像表示領域に表示する範囲のリア画像を切り出し、記憶部216(図29)に出力して、処理はリターンする。
図42は、図40のステップS181−2でLリアサイド画像処理部214が行うLリアサイド画像処理の例を説明するフローチャートである。
ステップS211において、Lリアサイド画像処理部214(図33)の画像切り出し部281は、Lリアサイドカメラ114から供給されるLリアサイド画像を取得する。
そして、画像切り出し部281は、Lリアサイドカメラ114のカメラパラメータに応じて、元Lリアサイド画像を修正し、処理は、ステップS212に進む。
ステップS212では、画像切り出し部281は、ドライバ状態検出部164(図27)からCMS画像生成部165に供給されるドライバ状態に応じて、表示モード4の統合画像(図18)のLリアサイド画像表示領域を設定し、処理は、ステップS213に進む。
ステップS213では、画像切り出し部281は、元Lリアサイド画像から、直前のステップS212で設定したLリアサイド画像表示領域に表示する範囲のLリアサイド画像を切り出し、記憶部216(図29)に出力して、処理はリターンする。
なお、図40のステップS181−3でRリアサイド画像処理部215(図35)が行うRリアサイド画像処理は、Lリアサイド画像に代えて、Rリアサイド画像を対象として処理が行われる点を除き、図42のLリアサイド画像処理と同様であるため、その説明は省略する。
図43は、図36のステップS105で行われる表示モード2,3の画像生成処理の例を説明するフローチャートである。
ステップS231において、表示モード2,3の画像処理が行われ、処理は、ステップS232に進む。
ここで、表示モード2,3の画像処理としては、ステップS231−1において、リア画像処理部211が、図38と同様のリア画像処理を行う。さらに、ステップS231−2において、Lサイド画像処理部212が、Lサイド画像処理を行い、ステップS231−3において、Rサイド画像処理部213が、Rサイド画像処理を行う。
ステップS231−1では、リア画像処理部211は、リア画像処理を行うことにより、表示モード2又は3の統合画像(図25又は図22の統合画像)に含まれる合成画像の生成に用いられるPPA画像(図19)としてのリア画像、リア起立物、及び、リア起立物の位置情報を得て出力する。
ステップS231−2では、Lサイド画像処理部212は、Lサイド画像処理を行うことにより、表示モード2又は3の統合画像の生成に用いられるLサイド画像、Lサイド起立物、及び、Lサイド起立物の位置情報を得て出力する。
ここで、表示モード2又は3の統合画像の生成に用いられるLサイド画像には、図19及び図20等で説明したLPPB画像とLPPC画像とが含まれる。また、表示モード2又は3の統合画像の生成に用いられるLサイド起立物は、LPPB画像に映る起立物を意味する。
ステップS231−3では、Rサイド画像処理部213は、Rサイド画像処理を行うことにより、表示モード2又は3の統合画像の生成に用いられるRサイド画像、Rサイド起立物、及び、Rサイド起立物の位置情報を得て出力する。
ここで、表示モード2又は3の統合画像の生成に用いられるRサイド画像には、図19及び図20等で説明したRPPB画像とRPPC画像とが含まれる。また、表示モード2又は3の統合画像の生成に用いられるRサイド起立物は、RPPB画像に映る起立物を意味する。
ステップS232では、記憶部216が、直前のステップS231の表示モード2,3の画像処理により得られるPPA画像としてのリア画像、リア起立物、リア起立物の位置情報、L/Rサイド画像(LPPB画像、LPPC画像、RPPB画像、RPPC画像)、L/Rサイド起立物、及び、L/Rサイド画像の位置情報を記憶し、処理は、ステップS233に進む。
ステップS233では、距離情報取得部217は、距離検出部162(図27)から供給される距離情報から、記憶部216に記憶された位置情報が表す位置にあるリア起立物、及び、L/Rサイド起立物の距離情報を取得する。そして、距離情報取得部217は、リア起立物、及び、L/Rサイド起立物の位置情報を、位置関係判定部218、及び、統合部220に供給し、処理は、ステップ233からステップS234に進む。
ステップS234では、統合部220は、記憶部216に記憶されたPPA画像としてのリア画像、L/Rサイド画像(LPPB画像、LPPC画像、RPPB画像、RPPC画像)、リア起立物、及び、L/Rサイド起立物を用いて、表示モード2又は3の統合画像(図25又は図22の統合画像)を生成する。
すなわち、統合部220は、表示モード5,6,7の画像生成処理(図37)と同様にして、合成画像を生成する。
具体的には、統合部220は、記憶部216に記憶されたPPA画像としてのリア画像、及び、アフィン変換後のLPPB画像及びRPPB画像を合成し、その結果得られる合成画像に、記憶部216に記憶されたリア起立物、及び、L/Rサイド起立物を、距離情報取得部217からのリア起立物、及び、L/Rサイド起立物の距離情報に応じてレイヤ合成することで、合成画像を生成する。
統合部220は、以上のようにして合成画像を生成した後、その合成画像に隣接する形で、記憶部216に記憶されたアフィン変換前のLPPB画像及びRPPB画像を結合し、さらに、その結合後のLPPB画像及びRPPB画像に隣接する形で、記憶部216に記憶されたLPPC画像及びRPPC画像を結合することで、表示モード2又は3の統合画像(図25又は図22の統合画像)を生成する。
そして、統合部220は、表示モード2又は3の統合画像を、重畳部221に供給し、処理は、ステップS234からステップS235に進む。
ステップS235では、重畳部221は、表示モードが表示モード2及び3のうちの表示モード2である場合に、車両100の周囲を囲む仮想境界線VL10,VL11,VL12,VL13に対応する線としての境界マーク(図24、図25)を、統合部220からの統合画像に重畳し、処理は、ステップS235からステップS236に進む。
ステップS236では、重畳部221は、境界マークの重畳により得られる重畳画像を、CMS画像としてに出力し、処理はリターンする。
なお、表示モードが表示モード3である場合、重畳部221は、ステップS235において、統合部220からの統合画像に、境界マークを重畳せず、ステップS236において、統合画像を、そのまま、CMS画像として出力する。
図44は、図43のステップS231−2でLサイド画像処理部212が行うLサイド画像処理の例を説明するフローチャートである。
ステップS251において、Lサイド画像処理部212(図31)の画像切り出し部261は、Lサイドカメラ112から供給される元Lサイド画像を取得する。
そして、画像切り出し部261は、Lサイドカメラ112のカメラパラメータに応じて、元Lサイド画像を修正し、処理は、ステップS252に進む。
ステップS252では、画像切り出し部261は、元Lサイド画像から、表示モード2又は3の統合画像の生成に用いるLPPB画像及びLPPC画像となる範囲の画像を、LPPB範囲画像及びLPPC範囲画像として切り出し、射影方式変換部262に供給して、処理は、ステップS253に進む。
ステップS253では、射影方式変換部262は、画像切り出し部261からのLPPB範囲画像を、中心射影のLPPB画像に変換し、起立物検出部263、及び、アフィン変換部264に供給して、処理は、ステップS254に進む。
ステップS254では、アフィン変換部264は、射影方式変換部262からのLPPB画像の無限遠点を、リア画像の無限遠点に一致させるように、射影方式変換部262からのLPPB画像をアフィン変換するための、アフィン変換前のLPPB画像の各画素の位置と、アフィン変換後のLPPB画像の各画素の位置とを対応付けた変換テーブルを生成する。
さらに、アフィン変換部264は、変換テーブルにしたがって、射影方式変換部262からのLPPB画像をアフィン変換し、アフィン変換後のLPPB画像を、Lサイド画像(の一種)として、記憶部216(図29)に出力する。
さらに、アフィン変換部264は、変換テーブルを、変換後位置検出部265に供給して、処理は、ステップS254からステップS255に進む。
ここで、ステップS254で、アフィン変換部264から記憶部216に出力されるアフィン変換後のLPPB画像は、図43のステップS234での合成画像の生成に用いられる。
ステップS255では、起立物検出部263は、射影方式変換部262からのLPPB画像に、起立物の検出対象となる対象領域としてのROIを設定し、処理は、ステップS256に進む。
ステップS256では、起立物検出部263は、射影方式変換部262からのLPPB画像の対象領域に対して、図38のステップS134と同様のセグメンテーションを行うことにより、LPPB画像の対象領域内に映るLサイド起立物の検出を行って(Lサイド起立物の検出を試みて)、処理は、ステップS257に進む。
ステップS257では、起立物検出部263は、LPPB画像にLサイド起立物が映っているかどうかを判定する。
すなわち、ステップS257では、起立物検出部263は、直前のステップS256のセグメンテーションによって、LPPB画像からLサイド起立物を検出することができたかどうかを判定する。
ステップS257において、Lサイド起立物を検出することができなかったと判定された場合、処理は、ステップS258ないしS260をスキップして、ステップS261に進む。
この場合、起立物検出部263は、Lサイド起立物、及び、(アフィン変換前の)Lサイド起立物の位置情報を出力しない(出力できない)。さらに、変換後位置検出部265も、同様に、(アフィン変換後の)Lサイド起立物の位置情報を出力しない。
一方、ステップS257において、Lサイド起立物を検出することができたと判定された場合、処理は、ステップS258に進み、起立物検出部263は、LPPB画像上のLサイド起立物の位置を表す位置情報を検出し、処理は、ステップS259に進む。
ステップS259では、起立物検出部263は、ステップS256で検出したLサイド起立物と、ステップS258で検出したLサイド起立物の位置情報とを、記憶部216(図29)に出力して、処理は、ステップS260に進む。
ステップS260では、変換後位置検出部265は、アフィン変換部264からの変換テーブルを用いて、起立物検出部264からのLサイド起立物の位置情報(アフィン変換前のLPPB画像に映る起立物の位置情報)から、アフィン変換後のLPPB画像に映るLサイド起立物(アフィン変換後のLサイド起立物)の位置情報を検出する。そして、変換後位置検出部265は、アフィン変換後のLサイド起立物の位置情報を、記憶部216に出力して、処理は、ステップS261に進む。
ここで、ステップS260で、変換後位置検出部265から記憶部216に出力されるアフィン変換後のLサイド起立物の位置情報は、図43のステップS234での合成画像の生成において、(アフィン変換前の)Lサイド起立物のレイヤ合成を行うときに用いられる。
ステップS261では、射影方式変換部262は、(アフィン変換前の)LPPB画像を、そのまま、Lサイド画像として、記憶部216に出力する。
又は、ステップS261では、射影方式変換部262は、アフィン変換部264に、LPPB画像を対象として、図23で説明した短冊アフィン変換(LPPB画像の下半分の、PPA画像に近い領域ほど、無限遠点がPPA画像の無限遠点に近づくようなアフィン変換)を行わせ、その短冊アフィン変換後のLPPB画像を、Lサイド画像として、記憶部216に出力させる。
ここで、ステップS261で、射影方式変換部262から記憶部216に出力されるアフィン変換前のLPPB画像、又は、アフィン変換部264から記憶部216に出力される短冊アフィン変換後のLPPB画像は、図43のステップS234での表示モード2又は3の統合画像(図25又は図22の統合画像)の生成において、合成画像に隣接して配置(結合)される。
ステップS261の後、処理は、ステップS262に進み、射影方式変換部262は、画像切り出し部261からのLPPC範囲画像を、円筒射影のLPPC画像に変換し、Lサイド画像(の他の一種)として、記憶部216に出力して、処理は、ステップS263に進む。
ここで、ステップS262で、射影方式変換部262から記憶部216に出力される円筒射影のLPPC画像は、図43のステップS234での表示モード2又は3の統合画像(図25又は図22の統合画像)の生成において、LPPB画像に隣接して配置(結合)される。
ステップS263及びS264では、図39のステップS161及びS162とそれぞれ同様の処理が行われ、処理はリターンする。
以上、本技術を、自動車(ガソリン車の他、電気自動車やハイブリッド車等を含む)である車両100に適用した場合について説明したが、本技術は、自動車の他、例えば、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体や、そのような移動体を操縦する装置等に適用することができる。また、距離や、起立物の検出には、ステレオカメラや、RADAR、LIDAR、TOFセンサ等を用いることができるが、ステレオカメラを用いる場合には、ステレオカメラを構成する、例えば、2台のカメラの光軸が垂直方向に離れるように、ステレオカメラを設置することができる。すなわち、すテレをカメラは、一般に、人の目の配置に準じて、ステレオカメラを構成する2台のカメラの光軸が水平方向に離れるように配置される。本技術に用いるステレオカメラは、ステレオカメラを構成する2台のカメラの光軸が水平方向に離れるように配置しても良いし、2台のカメラの光軸が垂直方向に離れるように配置しても良い。
<本技術を適用したコンピュータの説明>
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
図45は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク405やROM403に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブル記録媒体411に格納(記録)しておくことができる。このようなリムーバブル記録媒体411は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体411としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体411からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク405にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)402を内蔵しており、CPU402には、バス401を介して、入出力インタフェース410が接続されている。
CPU402は、入出力インタフェース410を介して、ユーザによって、入力部407が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)403に格納されているプログラムを実行する。あるいは、CPU402は、ハードディスク405に格納されたプログラムを、RAM(Random Access Memory)404にロードして実行する。
これにより、CPU402は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU402は、その処理結果を、必要に応じて、例えば、入出力インタフェース410を介して、出力部406から出力、あるいは、通信部408から送信、さらには、ハードディスク405に記録等させる。
なお、入力部407は、キーボードや、マウス、マイク等で構成される。また、出力部406は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
なお、本技術は、以下の構成をとることができる。
<1>
第1の画像と第2の画像とを統合し、統合画像を生成する統合部と、
前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にある場合に、警告マークを前記統合画像に重畳し、重畳画像を生成する重畳部と
を備える画像生成装置。
<2>
前記重畳部は、前記統合画像において、前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にあり、かつ、前記第2の画像に映る物体の少なくとも一部が、前記第1の画像に映る物体によって隠れる場合に、前記警告マークを、前記統合画像に重畳する
<1>に記載の画像生成装置。
<3>
前記警告マークは、一部が透明の画像である
<1>又は<2>に記載の画像生成装置。
<4>
前記警告マークは、前記透明の部分が移動する画像である
<3>に記載の画像生成装置。
<5>
前記警告マークは、縞模様の画像である
<3>又は<4>に記載の画像生成装置。
<6>
前記第1の画像と前記第2の画像とは、異なる視点の画像であり、
前記統合部は、前記第1の画像と、無限遠点が前記第1の画像と一致するようにアフィン変換が施された前記第2の画像とを合成した合成画像を含む画像を、前記統合画像として生成する
<1>ないし<5>のいずれかに記載の画像生成装置。
<7>
前記第1の画像と前記第2の画像とは、異なる視点の画像であり、
前記統合部は、前記合成画像と、アフィン変換前の前記第2の画像とが並んだ画像を、前記統合画像として生成する
<6>に記載の画像生成装置。
<8>
前記統合画像は、前記合成画像と、アフィン変換前の前記第2の画像との間に、所定の幅の境界線を有する
<7>に記載の画像生成装置。
<9>
前記第1の画像と前記第2の画像とは、異なる視点の画像であり、
前記統合部は、前記第1の画像と、前記第2の画像とを合成した合成画像を含む画像を、前記統合画像として生成し、
前記合成画像には、無限遠点が前記第1の画像と一致する程度が変化するアフィン変換が施された前記第2の画像が合成される
<1>ないし<5>のいずれかに記載の画像生成装置。
<10>
前記第1の画像、及び、前記第2の画像は、車両の後方を撮影した画像であり、
アフィン変換後の前記第2の画像の無限遠点が前記第1の画像と一致する程度は、前記車両を操縦するユーザの状態に応じて変化する
<9>に記載の画像生成装置。
<11>
前記第1の画像と前記第2の画像とは、異なる視点の画像であり、
前記統合部は、前記第1の画像と、前記第2の画像とを合成した合成画像を含む画像を、前記統合画像として生成し、
前記合成画像には、無限遠点が前記第1の画像と一致するようにアフィン変換が施された前記第2の画像、又は、アフィン変換前の前記第2の画像が合成される
<1>ないし<5>のいずれかに記載の画像生成装置。
<12>
前記第1の画像、及び、前記第2の画像は、車両の後方を撮影した画像であり、
前記車両を操縦するユーザの状態に応じて、前記合成画像には、無限遠点が前記第1の画像と一致するようにアフィン変換が施された前記第2の画像、又は、アフィン変換前の前記第2の画像が合成される
<11>に記載の画像生成装置。
<13>
前記第1の画像は、車両の後部の位置から、前記車両の後方を撮影した画像であり、
前記第2の画像は、前記後部の位置から横方向にずれた位置から、前記車両の後方を撮影した画像であり、
前記重畳部は、前記第2の画像に映る、前記車両が走行する道路上に起立する起立物が、前記第1の画像に映る、前記道路上に起立する起立物よりも奥側にある場合に、前記警告マークを前記統合画像に重畳する
<1>ないし<12>のいずれかに記載の画像生成装置。
<14>
前記統合部は、
前記第1の画像と、無限遠点が前記第1の画像と一致するようにアフィン変換が施された前記第2の画像とを合成し、
前記第1の画像と前記第2の画像とを合成した合成画像に、前記第1の画像から抽出される前記起立物と、前記第2の画像から抽出される前記起立物とを、前記車両から前記起立物までの距離に応じて合成する
ことにより、前記統合画像を生成する
<13>に記載の画像生成装置。
<15>
前記統合部は、前記第1の画像と前記第2の画像とを合成した合成画像の、アフィン変換後の前記第2の画像に映る前記起立物の位置に対応する位置に、アフィン変換前の前記第2の画像から抽出される前記起立物を合成する
<14>に記載の画像生成装置。
<16>
前記統合部は、前記車両の状態、前記車両を操縦するユーザの状態、及び、前記車両に対する操作に関する操作情報のうちの少なくとも1つに応じて設定される表示モードに応じて、
前記第1の画像と、前記第2の画像とを統合した画像、
前記車両の後部の左側の位置から、前記車両の右後方を撮影した画像と、前記車両の後部の右側の位置から、前記車両の左後方を撮影した画像とを統合した画像、
又は、前記第1の画像と、前記車両の横方向を撮影した円筒射影の画像とを統合した画像
を、前記統合画像として生成する
<13>ないし<15>のいずれかに記載の画像生成装置。
<17>
前記統合部は、前記車両の後部の左側の位置から、前記車両の右後方を撮影した画像を右側の領域に配置するとともに、前記車両の後部の右側の位置から、前記車両の左後方を撮影した画像を左側の領域に配置した画像を、前記統合画像として生成し、
前記左側の領域及び右側の領域の境界は、前記ユーザの状態に応じて、左右に移動する
<16>に記載の画像生成装置。
<18>
前記重畳部は、前記車両の周囲を囲む仮想的な境界線を、前記統合画像の前記円筒射影の画像に重畳する
<16>に記載の画像生成装置。
<19>
第1の画像と第2の画像とを統合し、統合画像を生成することと、
前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にある場合に、警告マークを前記統合画像に重畳し、重畳画像を生成することと
を含む画像生成方法。
<20>
第1の画像と第2の画像とを統合し、統合画像を生成する統合部と、
前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にある場合に、警告マークを前記統合画像に重畳し、重畳画像を生成する重畳部と
して、コンピュータを機能させるためのプログラム。
10 車両, 11 リアカメラ, 12 Lサイドカメラ, 13 Rサイドカメラ, 14 Lリアサイドカメラ, 15 Rリアサイドカメラ, 22 Lサイドカメラ, 23 Rサイドカメラ, 100 車両, 111 リアカメラ, 112 Lサイドカメラ, 113 Rサイドカメラ, 114 Lリアサイドカメラ, 115 Rリアサイドカメラ, 150 CMS, 151 操作部, 152 センサ部, 161 撮影部, 162 距離検出部, 163 車両状態検出部, 164 ドライバ状態検出部, 165 CMS画像生成部, 166 表示部, 201 表示モード設定部, 211 リア画像処理部, 212 Lサイド画像処理部, 213 Rサイド画像処理部, 214 Lリアサイド画像処理部, 215 Rリアサイド画像処理部, 216 記憶部, 217 距離情報取得部, 218 位置関係判定部, 219 衝突リスク判定部, 220 統合部, 221 重畳部, 251 画像切り出し部, 252 起立物検出部, 261 画像切り出し部, 262 射影方式変換部, 263 起立物検出部, 264 アフィン変換部, 265 変換後位置検出部, 271 画像切り出し部, 272 射影方式変換部, 273 起立物検出部, 274 アフィン変換部, 275 変換後位置検出部, 281,291 画像切り出し部, 401 バス, 402 CPU, 403 ROM, 404 RAM, 405 ハードディスク, 406 出力部, 407 入力部, 408 通信部, 409 ドライブ, 410 入出力インタフェース, 411 リムーバブル記録媒体

Claims (20)

  1. 第1の画像と第2の画像とを統合し、統合画像を生成する統合部と、
    前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にある場合に、警告マークを前記統合画像に重畳し、重畳画像を生成する重畳部と
    を備える画像生成装置。
  2. 前記重畳部は、前記統合画像において、前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にあり、かつ、前記第2の画像に映る物体の少なくとも一部が、前記第1の画像に映る物体によって隠れる場合に、前記警告マークを、前記統合画像に重畳する
    請求項1に記載の画像生成装置。
  3. 前記警告マークは、一部が透明の画像である
    請求項1に記載の画像生成装置。
  4. 前記警告マークは、前記透明の部分が移動する画像である
    請求項3に記載の画像生成装置。
  5. 前記警告マークは、縞模様の画像である
    請求項3に記載の画像生成装置。
  6. 前記第1の画像と前記第2の画像とは、異なる視点の画像であり、
    前記統合部は、前記第1の画像と、無限遠点が前記第1の画像と一致するようにアフィン変換が施された前記第2の画像とを合成した合成画像を含む画像を、前記統合画像として生成する
    請求項1に記載の画像生成装置。
  7. 前記第1の画像と前記第2の画像とは、異なる視点の画像であり、
    前記統合部は、前記合成画像と、アフィン変換前の前記第2の画像とが並んだ画像を、前記統合画像として生成する
    請求項6に記載の画像生成装置。
  8. 前記統合画像は、前記合成画像と、アフィン変換前の前記第2の画像との間に、所定の幅の境界線を有する
    請求項7に記載の画像生成装置。
  9. 前記第1の画像と前記第2の画像とは、異なる視点の画像であり、
    前記統合部は、前記第1の画像と、前記第2の画像とを合成した合成画像を含む画像を、前記統合画像として生成し、
    前記合成画像には、無限遠点が前記第1の画像と一致する程度が変化するアフィン変換が施された前記第2の画像が合成される
    請求項1に記載の画像生成装置。
  10. 前記第1の画像、及び、前記第2の画像は、車両の後方を撮影した画像であり、
    アフィン変換後の前記第2の画像の無限遠点が前記第1の画像と一致する程度は、前記車両を操縦するユーザの状態に応じて変化する
    請求項9に記載の画像生成装置。
  11. 前記第1の画像と前記第2の画像とは、異なる視点の画像であり、
    前記統合部は、前記第1の画像と、前記第2の画像とを合成した合成画像を含む画像を、前記統合画像として生成し、
    前記合成画像には、無限遠点が前記第1の画像と一致するようにアフィン変換が施された前記第2の画像、又は、アフィン変換前の前記第2の画像が合成される
    請求項1に記載の画像生成装置。
  12. 前記第1の画像、及び、前記第2の画像は、車両の後方を撮影した画像であり、
    前記車両を操縦するユーザの状態に応じて、前記合成画像には、無限遠点が前記第1の画像と一致するようにアフィン変換が施された前記第2の画像、又は、アフィン変換前の前記第2の画像が合成される
    請求項11に記載の画像生成装置。
  13. 前記第1の画像は、車両の後部の位置から、前記車両の後方を撮影した画像であり、
    前記第2の画像は、前記後部の位置から横方向にずれた位置から、前記車両の後方を撮影した画像であり、
    前記重畳部は、前記第2の画像に映る、前記車両が走行する道路上に起立する起立物が、前記第1の画像に映る、前記道路上に起立する起立物よりも奥側にある場合に、前記警告マークを前記統合画像に重畳する
    請求項1に記載の画像生成装置。
  14. 前記統合部は、
    前記第1の画像と、無限遠点が前記第1の画像と一致するようにアフィン変換が施された前記第2の画像とを合成し、
    前記第1の画像と前記第2の画像とを合成した合成画像に、前記第1の画像から抽出される前記起立物と、前記第2の画像から抽出される前記起立物とを、前記車両から前記起立物までの距離に応じて合成する
    ことにより、前記統合画像を生成する
    請求項13に記載の画像生成装置。
  15. 前記統合部は、前記第1の画像と前記第2の画像とを合成した合成画像の、アフィン変換後の前記第2の画像に映る前記起立物の位置に対応する位置に、アフィン変換前の前記第2の画像から抽出される前記起立物を合成する
    請求項14に記載の画像生成装置。
  16. 前記統合部は、前記車両の状態、前記車両を操縦するユーザの状態、及び、前記車両に対する操作に関する操作情報のうちの少なくとも1つに応じて設定される表示モードに応じて、
    前記第1の画像と、前記第2の画像とを統合した画像、
    前記車両の後部の左側の位置から、前記車両の右後方を撮影した画像と、前記車両の後部の右側の位置から、前記車両の左後方を撮影した画像とを統合した画像、
    又は、前記第1の画像と、前記車両の横方向を撮影した円筒射影の画像とを統合した画像
    を、前記統合画像として生成する
    請求項13に記載の画像生成装置。
  17. 前記統合部は、前記車両の後部の左側の位置から、前記車両の右後方を撮影した画像を右側の領域に配置するとともに、前記車両の後部の右側の位置から、前記車両の左後方を撮影した画像を左側の領域に配置した画像を、前記統合画像として生成し、
    前記左側の領域及び右側の領域の境界は、前記ユーザの状態に応じて、左右に移動する
    請求項16に記載の画像生成装置。
  18. 前記重畳部は、前記車両の周囲を囲む仮想的な境界線を、前記統合画像の前記円筒射影の画像に重畳する
    請求項16に記載の画像生成装置。
  19. 第1の画像と第2の画像とを統合し、統合画像を生成することと、
    前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にある場合に、警告マークを前記統合画像に重畳し、重畳画像を生成することと
    を含む画像生成方法。
  20. 第1の画像と第2の画像とを統合し、統合画像を生成する統合部と、
    前記第2の画像に映る物体が、前記第1の画像に映る物体よりも奥側にある場合に、警告マークを前記統合画像に重畳し、重畳画像を生成する重畳部と
    して、コンピュータを機能させるためのプログラム。
JP2018527511A 2016-07-13 2017-06-29 画像生成装置、画像生成方法、及び、プログラム Active JP7010221B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016138364 2016-07-13
JP2016138364 2016-07-13
PCT/JP2017/023918 WO2018012299A1 (ja) 2016-07-13 2017-06-29 画像生成装置、画像生成方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JPWO2018012299A1 true JPWO2018012299A1 (ja) 2019-05-16
JP7010221B2 JP7010221B2 (ja) 2022-01-26

Family

ID=60952382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527511A Active JP7010221B2 (ja) 2016-07-13 2017-06-29 画像生成装置、画像生成方法、及び、プログラム

Country Status (8)

Country Link
US (1) US10857942B2 (ja)
EP (1) EP3487172A4 (ja)
JP (1) JP7010221B2 (ja)
KR (1) KR102344171B1 (ja)
CN (1) CN109417611A (ja)
CA (1) CA3029410A1 (ja)
MX (1) MX2019000060A (ja)
WO (1) WO2018012299A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE539981C2 (en) * 2016-06-28 2018-02-20 Scania Cv Ab Method and control unit for a digital mirror
JP6711295B2 (ja) * 2017-02-08 2020-06-17 株式会社デンソー 車両用表示制御装置
US10726792B2 (en) * 2017-04-17 2020-07-28 Intel Corporation Glare and occluded view compensation for automotive and other applications
JP6686988B2 (ja) * 2017-08-28 2020-04-22 株式会社Soken 映像出力装置及び映像生成プログラム
JP6504529B1 (ja) * 2017-10-10 2019-04-24 マツダ株式会社 車両用表示装置
JP6733647B2 (ja) * 2017-12-05 2020-08-05 トヨタ自動車株式会社 画像表示装置
JP6939494B2 (ja) * 2017-12-11 2021-09-22 トヨタ自動車株式会社 画像表示装置
JP7069692B2 (ja) * 2017-12-20 2022-05-18 トヨタ自動車株式会社 画像表示装置
CN108510458B (zh) * 2018-03-29 2021-07-27 中国海洋大学 基于深度学习方法和非参数化采样的侧扫声呐图像合成方法
CN112055963A (zh) 2018-05-08 2020-12-08 索尼半导体解决方案公司 图像处理装置、移动装置、方法和程序
JP7147255B2 (ja) * 2018-05-11 2022-10-05 トヨタ自動車株式会社 画像表示装置
JP7047586B2 (ja) * 2018-05-15 2022-04-05 トヨタ自動車株式会社 車両用表示制御装置
EP3876516A4 (en) 2018-10-31 2021-12-15 Sony Group Corporation PHOTOGRAPHING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
EP3876515A4 (en) * 2018-10-31 2021-12-22 Sony Group Corporation IMAGING DEVICE, CONTROL PROCESS, AND PROGRAM
JP7159801B2 (ja) 2018-11-15 2022-10-25 トヨタ自動車株式会社 車両用電子ミラーシステム
JP7159802B2 (ja) * 2018-11-15 2022-10-25 トヨタ自動車株式会社 車両用電子ミラーシステム
WO2020122084A1 (ja) * 2018-12-11 2020-06-18 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム
CN113170081A (zh) 2018-12-11 2021-07-23 索尼集团公司 图像处理装置、图像处理方法和图像处理系统
CN109624858B (zh) * 2019-01-04 2021-02-02 斑马网络技术有限公司 外后视镜的图像显示方法及装置
US10896335B2 (en) 2019-01-07 2021-01-19 Ford Global Technologies, Llc Adaptive transparency of virtual vehicle in simulated imaging system
JP7163418B2 (ja) * 2019-01-31 2022-10-31 三菱電機株式会社 運転支援装置
US10981507B1 (en) 2019-11-07 2021-04-20 Focused Technology Solutions, Inc. Interactive safety system for vehicles
JP7018923B2 (ja) * 2019-12-13 2022-02-14 本田技研工業株式会社 駐車支援装置、駐車支援方法およびプログラム
JP2021153286A (ja) * 2020-03-23 2021-09-30 パナソニックIpマネジメント株式会社 画像合成装置、及び、画像合成方法
JP7347330B2 (ja) * 2020-05-27 2023-09-20 トヨタ自動車株式会社 車両周辺監視装置
KR20210147405A (ko) 2020-05-28 2021-12-07 삼성전자주식회사 객체 인식을 수행하는 전자 장치 및 이의 동작 방법
JP2021190981A (ja) * 2020-05-28 2021-12-13 パナソニックIpマネジメント株式会社 表示制御装置、車両及び表示制御方法
KR20210149374A (ko) * 2020-06-02 2021-12-09 현대자동차주식회사 전방 차량 브레이킹 레벨 제공 장치 및 그의 브레이킹 레벨 제공 방법
US11769412B2 (en) * 2020-06-10 2023-09-26 Hyundai Mobis Co., Ltd. Rear side warning system and method for vehicle
JP7314885B2 (ja) * 2020-09-01 2023-07-26 トヨタ自動車株式会社 車両用周辺監視装置
US11724692B2 (en) * 2020-09-25 2023-08-15 GM Global Technology Operations LLC Detection, warning and preparative action for vehicle contact mitigation
WO2022250117A1 (ja) * 2021-05-27 2022-12-01 株式会社デンソー 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP2023030856A (ja) * 2021-08-24 2023-03-08 株式会社東海理化電機製作所 車両用視認装置
JP2023066483A (ja) * 2021-10-29 2023-05-16 フォルシアクラリオン・エレクトロニクス株式会社 後方画像表示装置、及び後方画像表示方法
WO2023095340A1 (ja) * 2021-11-29 2023-06-01 日産自動車株式会社 画像処理方法、画像表示方法、画像処理装置、及び画像表示装置
US20230264697A1 (en) * 2022-02-22 2023-08-24 Toyota Research Institute, Inc. Varying extended reality content based on driver attentiveness

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10257482A (ja) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JP2006025086A (ja) * 2004-07-07 2006-01-26 Nissan Motor Co Ltd 障害物検出装置
JP2007158427A (ja) * 2005-11-30 2007-06-21 Alpine Electronics Inc 車両周辺画像表示装置
JP2007295357A (ja) * 2006-04-26 2007-11-08 Alpine Electronics Inc 車載周辺状況提示装置
JP2009081666A (ja) * 2007-09-26 2009-04-16 Nissan Motor Co Ltd 車両用周辺監視装置および映像表示方法
JP2009206747A (ja) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd 車両用周囲状況監視装置及び映像表示方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002316602A (ja) * 2001-04-24 2002-10-29 Matsushita Electric Ind Co Ltd 車載カメラの撮像画像表示方法及びその装置
JP2004159268A (ja) 2002-11-08 2004-06-03 Nissan Motor Co Ltd 車両周辺監視装置
JP2008077628A (ja) * 2006-08-21 2008-04-03 Sanyo Electric Co Ltd 画像処理装置並びに車両周辺視界支援装置及び方法
JP5172482B2 (ja) 2008-06-06 2013-03-27 本田技研工業株式会社 車両周辺監視装置
JP2010287029A (ja) 2009-06-11 2010-12-24 Konica Minolta Opto Inc 周辺表示装置
US9242602B2 (en) * 2012-08-27 2016-01-26 Fotonation Limited Rearview imaging systems for vehicle
US9743002B2 (en) * 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions
JP2015074436A (ja) * 2013-10-11 2015-04-20 富士通株式会社 画像処理装置、画像処理方法、及び、プログラム
JP6231345B2 (ja) * 2013-10-18 2017-11-15 クラリオン株式会社 車両用発進支援装置
JP6252316B2 (ja) * 2014-03-31 2017-12-27 株式会社デンソー 車両用表示制御装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10257482A (ja) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JP2006025086A (ja) * 2004-07-07 2006-01-26 Nissan Motor Co Ltd 障害物検出装置
JP2007158427A (ja) * 2005-11-30 2007-06-21 Alpine Electronics Inc 車両周辺画像表示装置
JP2007295357A (ja) * 2006-04-26 2007-11-08 Alpine Electronics Inc 車載周辺状況提示装置
JP2009081666A (ja) * 2007-09-26 2009-04-16 Nissan Motor Co Ltd 車両用周辺監視装置および映像表示方法
JP2009206747A (ja) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd 車両用周囲状況監視装置及び映像表示方法

Also Published As

Publication number Publication date
KR102344171B1 (ko) 2021-12-29
JP7010221B2 (ja) 2022-01-26
MX2019000060A (es) 2019-04-01
US10857942B2 (en) 2020-12-08
EP3487172A4 (en) 2019-07-10
EP3487172A1 (en) 2019-05-22
US20190248288A1 (en) 2019-08-15
KR20190028667A (ko) 2019-03-19
CN109417611A (zh) 2019-03-01
WO2018012299A1 (ja) 2018-01-18
CA3029410A1 (en) 2018-01-18

Similar Documents

Publication Publication Date Title
JP7010221B2 (ja) 画像生成装置、画像生成方法、及び、プログラム
JP6091586B1 (ja) 車両用画像処理装置および車両用画像処理システム
JP5669791B2 (ja) 移動体の周辺画像表示装置
JP5516998B2 (ja) 画像生成装置
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
JP2006338594A (ja) 歩行者認識装置
US11325470B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle
CN114764782A (zh) 多视图汽车和机器人系统中的图像合成
KR20150019182A (ko) 영상 표시 방법 및 이를 위한 위한 장치
CN105793909B (zh) 用于借助车辆周围环境的通过摄像机采集的两个图像产生警告的方法和设备
JP2014036326A (ja) 俯瞰画像表示装置
US20230373309A1 (en) Display control device
JP7310560B2 (ja) 表示制御装置及び表示制御プログラム
JP7318431B2 (ja) 表示制御装置及び表示制御プログラム
KR102599269B1 (ko) 증강현실 내비게이션 장치 및 그 제어 방법
US20190337455A1 (en) Mobile Body Surroundings Display Method and Mobile Body Surroundings Display Apparatus
JP2018019155A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP7342926B2 (ja) 表示制御装置及び表示制御プログラム
JP7276255B2 (ja) 画像処理装置、プログラム、及び画像処理システム
WO2022224754A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP2020158014A (ja) ヘッドアップディスプレイ装置、表示制御装置、及び表示制御プログラム
WO2023210682A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
WO2022250117A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
WO2020246114A1 (ja) 表示制御装置および表示制御プログラム
JP2022077138A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227