JPWO2007129582A1 - 車両周辺画像提供装置及び車両周辺画像提供方法 - Google Patents

車両周辺画像提供装置及び車両周辺画像提供方法 Download PDF

Info

Publication number
JPWO2007129582A1
JPWO2007129582A1 JP2008514434A JP2008514434A JPWO2007129582A1 JP WO2007129582 A1 JPWO2007129582 A1 JP WO2007129582A1 JP 2008514434 A JP2008514434 A JP 2008514434A JP 2008514434 A JP2008514434 A JP 2008514434A JP WO2007129582 A1 JPWO2007129582 A1 JP WO2007129582A1
Authority
JP
Japan
Prior art keywords
image
vehicle
edge
coordinate conversion
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008514434A
Other languages
English (en)
Other versions
JP4956799B2 (ja
Inventor
鈴木 政康
政康 鈴木
赤塚 健
健 赤塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008514434A priority Critical patent/JP4956799B2/ja
Publication of JPWO2007129582A1 publication Critical patent/JPWO2007129582A1/ja
Application granted granted Critical
Publication of JP4956799B2 publication Critical patent/JP4956799B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

車両周辺画像提供装置1では、画像変換部53が、複数のカメラモジュール10によって撮影された画像から俯瞰画像205を生成する。また、画像検出部54は、俯瞰画像205を対象にエッジ検出を行う。さらに、画像検出部54は、検出されたエッジ線のうち、俯瞰画像205のつなぎ目をまたぐエッジ線の連続性を判定し、俯瞰画像205のつなぎ目をまたぐエッジ線が不連続である場合、自車両から遠い側のエッジ線を自車両に近い側のエッジ線に合わせることによりエッジ線をつなぎ目において連続にする画像処理を行う。

Description

本発明は、車両周辺画像提供装置及び車両周辺画像提供方法に関する。
従来、車両周囲を複数のカメラにより撮影し、得られた画像を座標変換して仮想視点から車両を眺めたような画像を生成して運転者に提示する車両周辺画像提供装置が知られている。このような車両周辺画像提供装置は、座標変換の基準面を地面とし、俯瞰画像を生成するものが多く、俯瞰画像を運転者に提示することで、地面上の白線等と自車両との位置関係を運転者に客観的に認識させ、駐車運転や幅寄運転を支援するようになっている(例えば特許文献1参照)。
ところで一般に、エッジ位置が地面から離れている物体を斜め上方から撮影し、撮影された画像を座標変換すると、エッジ位置は実際の位置とは異なる位置にずれて提示される。そしてこのずれ量は物体の撮影位置によって異なる。従って、従来の車両周辺画像提供装置のように、複数のカメラにより物体を撮影し、座標変換後の複数の画像を合成した場合には、画像のつなぎ目においてエッジ線が不連続になり、運転者にとって見にくいものとなる。
本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、運転者の安全性を維持しながら複数の画像のつなぎ目部分の見にくさを解消可能な車両周辺画像提供装置及び車両周辺画像提供方法を提供することにある。
特開2003−169323号公報
本発明に係る車両周辺画像提供装置は、車両周辺の画像を運転者に提供するものである。この車両周辺画像提供装置は、複数の撮影手段と、画像処理手段と、エッジ検出手段と、判定手段と、画像処理手段とを備えている。複数の撮影手段は、自車両周辺を撮像すると共に、それぞれが異なる方向を撮像するものである。画像処理手段は、地面を基準面とし複数の撮影手段により撮影された車両周辺の画像それぞれを座標変換して座標変換画像を生成し、生成した各座標変換画像を合成して俯瞰画像を生成するものである。エッジ検出手段は、画像処理手段により生成された俯瞰画像に対してエッジ検出を行うものである。判定手段は、エッジ検出手段により検出されたエッジ線のうち、座標変換画像のつなぎ目をまたぐエッジ線の連続性を判定するものである。画像処理手段は、座標変換画像のつなぎ目をまたぐエッジ線が不連続である場合、自車両から遠い側のエッジ線を自車両に近い側のエッジ線に合わせることによりエッジ線をつなぎ目において連続にする画像処理を行うものである。
本発明では、座標変換画像のつなぎ目をまたぐエッジ線が不連続である場合、自車両から遠い側のエッジ線を自車両に近い側のエッジ線に合わせることによりエッジ線をつなぎ目において連続にする補正を行う。すなわち、本発明では、画像のつなぎ目においてエッジ線に連続性を持たせる補正を画像処理を用いて行うと共に、実際の位置と画像上の位置とのずれ量が自車両から見て比較的小さい自車両に近い側のエッジ線に他のエッジ線を合わせる。従って本発明によれば、運転者の安全性を維持しながら複数の画像のつなぎ目部分の見にくさを解消することができる。
本発明の第1実施形態に係る車両周辺画像提供装置の構成図である。 図1に示す画像変換部の座標変換によって得られる俯瞰画像の一例を示す図である。 図1に示す画像検出部のエッジ検出機能の詳細を示す図であり、俯瞰画像の一例を示している。 図1に示す画像検出部の立体判断機能による立体判断原理を示す図であり、(a)は地面から存在する立体物の判断原理を示し、(b)は空中に存在する立体物の判断原理を示している。 第1実施形態に係る車両周辺画像提供装置の詳細動作を示すフローチャートである。 図5に示したステップST2の処理によって検出された立体物を示す図である。 図5に示した第1画像補正処理(ST5)の処理の詳細を示すフローチャートである。 図7に示したステップST52の処理の詳細を示す図であり、(a)はステップST52の処理の前の画像イメージを示し、(b)はステップST52の処理を実行する際の画像イメージを示し、(c)はステップST52の処理を実行した後の画像イメージを示している。 図7に示したステップST53及びステップST54の処理の詳細を示す図であり、(a)はステップST53の処理の前の画像イメージを示し、(b)はステップST53の処理を実行した後の画像イメージを示し、(c)はステップST54の処理を実行した後の画像イメージを示している。 図5に示した第2画像補正処理(ST7)の処理の詳細を示すフローチャートである。 図10に示すフローチャートの詳細を示す図であり、(a)は図10に示す処理を実行する前のガードレールの画像イメージであり、(b)はステップST71の処理を実行した後のガードレールの画像イメージであり、(c)はステップST71の処理を実行した後のガードレールの第1画像イメージであり、(d)はステップST71の処理を実行した後のガードレールの第2画像イメージである。 第3画像補正処理の様子を示す図であり、(a)は第3画像補正処理前の画像イメージを示し、(b)は第3画像補正処理後の画像イメージを示している。 図5に示した第3画像補正処理(ST8)の処理の詳細を示すフローチャートである。 図13に示すフローチャートの詳細を示す図であり、(a)はステップST81の詳細を示す画像イメージであり、(b)はステップST82の処理を実行した後の他車両の画像イメージであり、(c)はステップST84の処理を実行した後の他車両の画像イメージである。 図5に示す処理を実行した後の俯瞰画像を示す図であり、(a)は第1の俯瞰画像の例を示し、(b)は第2の俯瞰画像の例を示している。 第1実施形態に係る車両周辺画像提供装置の変形例を説明する図であり、(a)は立体物の厚みを求める原理を示し、(b)は厚みに応じた補正処理が施された俯瞰画像の例を示している。 第2実施形態に係る車両周辺画像提供装置の処理を説明する図であり、図5に示したステップST3の処理に代えて実行される処理を説明するものである。 第2実施形態に係る車両周辺画像提供装置のエッジ検出方法を示す第1の図である。 第2実施形態に係る車両周辺画像提供装置のエッジ検出方法を示す第2の図である。
以下、本発明の好適な実施形態を図面に基づいて説明する。
図1は、本発明の第1実施形態に係る車両周辺画像提供装置の構成図である。同図に示すように、本実施形態に係る車両周辺画像提供装置1は、車両周辺の画像を運転者に提供するものであって、複数のカメラモジュール10と、車速センサ20と、操舵角センサ30と、シフト信号センサ40と、画像処理装置50と、モニタ60と、スピーカ70とを備えている。
複数のカメラモジュール10は、自車両周辺を撮影するものであり、例えばCCDカメラやCMOSカメラが用いられる。このカメラモジュール10は、図1に示すように、第1カメラモジュール10aと第2カメラモジュール10bとの2つからなっており、それぞれが異なる方向を撮像して得られた画像データを画像処理装置50に送信する構成となっている。なお、カメラモジュール10は2つに限ることなく、少なくとも2つ設けられていればよく、3つ以上設けられていてもよい。
車速センサ20は、自車両の車速を検出するものである。操舵角センサ30は、自車両の操舵角を検出するものである。シフト信号センサ40は、自車両のシフト位置(ギヤポジションの位置)を検出するものである。これら各部20,30,40は、画像処理装置50に検出結果を出力するようになっている。
画像処理装置50は、カメラモジュール10により撮影された車両周辺の画像を処理するものであり、第1入力バッファ51aと、第2入力バッファ51bと、テーブル記憶部52と、画像変換部53と、画像検出部54と、CPU55と、出力バッファ56とからなっている。
第1入力バッファ51aは、第1カメラモジュール10aからの画像データを入力して記憶しておくものである。また、第2入力バッファ51bも第1入力バッファ51aと同様に、第2カメラモジュール10bからの画像データを入力して記憶しておくものである。
テーブル記憶部52は、カメラモジュール10により撮影された車両周辺の画像を地面を基準面として座標変換するアドレス変換テーブルを記憶したものである。画像変換部53は、テーブル記憶部52に記憶されるアドレス変換テーブルを用いて、複数のカメラモジュール10により撮影された車両周辺の画像それぞれを座標変換して座標変換画像を生成するものである。また、画像変換部53は、生成した座標変換画像を合成して自車両を上空から眺めたような俯瞰画像を生成することとなる。
ここで、俯瞰画像の生成についてより詳しく説明する。図2は、図1に示す画像変換部53の座標変換によって得られる俯瞰画像の一例を示す図である。なお、図2の説明において、カメラモジュール10は車両前方、両側方および後方にそれぞれ1つずつ設けられて4方向を撮影可能となっているものとする。
まず、車両が駐車枠内に停車している場合、まず、前方側のカメラモジュール10によって、フロント画像101が得られる。フロント画像101には、自車両の車体101aと前側の駐車枠101bとが映っている。また、後方側のカメラモジュール10によって、リア画像102が得られる。リア画像102には、自車両の車体102aと前側の駐車枠102bとが映っている。
また、右側方側のカメラモジュール10によって右サイド画像103が得られ、左側方側のカメラモジュール10によって左サイド画像104が得られる。右サイド画像103には、自車両の車体103aと前側の駐車枠103bとが映っており、左サイド画像104には、自車両の車体104aと前側の駐車枠104bとが映っている。
画像変換部53は、このような画像101〜104をテーブル記憶部52に記憶されるアドレス変換テーブルに基づいてそれぞれ座標変換する。すなわち、画像変換部5は、フロント画像101を座標変換して自車両前方側を上空から眺めた座標変換画像201を生成し、同様に、リア画像102から自車両後方側を上空から眺めた座標変換画像202を生成する。また、右サイド画像103から自車両右側方側を上空から眺めた座標変換画像203を生成し、左サイド画像104から自車両左側方側を上空から眺めた座標変換画像204を生成する。
そして、画像変換部53は、生成した各座標変換画像201〜204を合成し、自車両周辺を上空から眺めた俯瞰画像205を生成する。なお、画像変換部53は、俯瞰画像205の中央部に自車両のオブジェクト206を配置することとする。
再度、図1を参照する。画像検出部54は、エッジ検出機能、および立体判断機能を備えたものである。エッジ検出機能は、画像変換部53により生成された俯瞰画像に対してエッジ検出を行う機能である。このエッジ検出機能では、俯瞰画像上の各画素の色情報または明るさ情報からエッジ検出を行うようになっている。
図3は、図1に示す画像検出部54のエッジ検出機能の詳細を示す図であり、俯瞰画像の一例を示している。同図に示すように、俯瞰画像205のうちのフロント側の座標変換画像201には、壁301とポール302と縁石303とが映っている。これらのうち縁石303については、右サイドの座標変換画像203にも映っている。また、リア側の座標変換画像202には、白線304とガードレール305と他車両306とが映っている。これらのうちガードレール305については右サイドの座標変換画像203にも映っており、白線304と他車両306については、左サイドの座標変換画像204にも映っている。
エッジ検出機能は、図3に示すような俯瞰画像205を対象にエッジ検出を行うこととなる。ここで、縁石303、ガードレール305及び他車両306について俯瞰画像205のつなぎ目a〜dにおいてズレが生じている。
再度図1を参照する。立体判断機能は、エッジ検出機能により検出されたエッジの状態などに基づいて、立体物の存在とその種別とを判断する機能である。より詳しくは、エッジ検出機能により検出されたエッジのズレの状態に基づいて、立体物の存在を検出すると共に種別を判断するようになっている。
図4は、図1に示す画像検出部54の立体判断機能による立体判断原理を示す図であり、(a)は地面から存在する立体物の判断原理を示し、(b)は空中に存在する立体物の判断原理を示している。一般的に複数のカメラモジュール10を車両に設置する場合、設置個所に制約を受ける。このため、複数のカメラモジュール10をそれぞれ同一の高さに設置することが困難となる。この結果、複数のカメラモジュール10は、それぞれ高さが異なることとなる。
図4(a)に示すように、第1カメラモジュール10aが第2カメラモジュール10bよりも上方に設置されているとする。このとき、地面から存在する立体物、例えば縁石303については、各カメラモジュール10a,10bによって認識のされ方が異なってくる。すなわち、各カメラモジュール10a,10bは、縁石303の下端位置を点303−1として認識するが、上端位置の認識が異なっている。第1カメラモジュール10aは、縁石303の上端位置を、自己10aと縁石303の上端位置とを結ぶライン1が地面と接触する地点303−2であると認識する。これに対して第2カメラモジュール10bは、縁石303の上端位置を、自己10bと縁石303の上端位置とを結ぶライン2が地面と接触する地点303−3であると認識する。
そして、上記のような認識の相違のまま、画像変換部53により座標変換が行われるため、俯瞰画像205のつなぎ目aにおいて、縁石303は図3に示したようにエッジにズレが生じてしまう。すなわち、図4(a)に示したように、一方の座標変換画像では縁石303が点303−1から点303−2までの距離L1の物体として表現され、他方の座標変換画像では縁石303が点303−1から点303−3までの距離L2(>L1)の物体として表現されてしまう。そして、このような状態で各座標変換画像が合成されるため、俯瞰画像205のつなぎ目において縁石303のエッジにズレが生じてしまう。なお、縁石303の下端位置303−1は地面に接しているため、エッジのズレは生じない。
また、図4(b)に示すように、空中に存在する立体物、例えばガードレール305についても、各カメラモジュール10a,10bによって認識のされ方が異なってくる。すなわち、各カメラモジュール10a,10bは、ガードレール305の下端位置及び上端位置の認識が異なっている。第1カメラモジュール10aは、ガードレール305の下端位置を、自己10aとガードレール305の下端位置とを結ぶライン1が地面と接触する地点305−1であると認識し、ガードレール305の上端位置を、自己10aとガードレール305の上端位置とを結ぶライン2が地面と接触する地点305−2であると認識する。これに対して第2カメラモジュール10bは、ガードレール305の下端位置を、自己10bとガードレール305の下端位置とを結ぶライン3が地面と接触する地点305−3であると認識し、ガードレール305の上端位置を、自己10bとガードレール305の上端位置とを結ぶライン4が地面と接触する地点305−4であると認識する。
そして、上記のような認識の相違のまま、画像変換部53により座標変換が行われるため、俯瞰画像205のつなぎ目bにおいて、ガードレール305は図3に示したようにエッジにズレが生じてしまう。すなわち、図4(a)に示したように、一方の座標変換画像ではガードレール305が点305−1から点305−2までの距離L3の物体として表現され、他方の座標変換画像ではガードレール305が点305−3から点305−4までの距離L4(>L3)の物体として表現されてしまう。そして、このような状態で合成されるため、俯瞰画像205のつなぎ目において双方のエッジのズレが生じてしまう。
立体判断機能は、以上のように、エッジ検出機能により検出されたエッジのうち、各座標変換画像201〜204を合成したことによる俯瞰画像205のつなぎ目a〜dをまたぐエッジの状態から、そのエッジが立体物のものであるか否かを判断する。さらに、立体判断機能は、エッジが立体物のものであると判断した場合には、図4(a)及び(b)のような相違から、立体物が地面から存在するものであるか、空中に存在するものであるか、又は双方の混在するものかを判断するようになっている。
再度、図1を参照する。CPU55は、画像処理装置50の全体を制御するものであり、画像変換部53および画像検出部54を制御するものであり、例えばASIC(Application Specific Integrated Circuit)や、LSI(Large Scale Integrated Circuit)や、FPGA(Field Programmable Gate Array)や、DSP(Digital Signal Processor)等のデバイスから構成されている。
出力バッファ56は、画像変換部53によって座標変換された俯瞰画像を記憶するものである。この出力バッファ56は、記憶した俯瞰画像の情報をモニタ60に出力する構成となっている。
モニタ60は、座標変換して得られた俯瞰画像を表示するものである。また、モニタ60は、画像検出部54によりつなぎ目a〜dでのエッジが立体物のものであると判断された場合、その立体物について強調表示する構成となっている。この際、モニタ60は、例えば俯瞰画像上の立体物にオーバレイ画像を重畳し、立体物を強調して表示する。
スピーカ70は、画像検出部54によりつなぎ目a〜dでのエッジが立体物のものであると判断された場合、その立体物の存在を所定の音声にて運転者に知らせる構成となっている。具体的にスピーカ70は、「ピッ、ピッ、ピッ」といったピープ音や、「左側方に障害物があります」などの会話音で立体物の存在を運転者に知らせる。
次に、本実施形態に係る車両周辺画像提供装置1の動作の概略を説明する。まず、複数のカメラモジュール10は、自車両周辺を撮影する。次いで、画像変換部53は、カメラモジュール10によって撮影された画像を座標変換して複数の座標変換画像を生成し、生成した座標変換画像を合成して俯瞰画像を作成する。
その後、画像検出部54は、エッジ検出機能によって、俯瞰画像205に対してエッジ検出を行う。エッジ検出を行った後、画像検出部54は、つなぎ目a〜dをまたぐエッジを抽出する。次に、画像検出部54は、つなぎ目a〜dをまたぐエッジのうちズレがあるものを抽出する。すなわち、画像検出部54は、つなぎ目a〜dをまたぐエッジのうちズレがあるものを抽出することで、エッジが立体物のものであるか否かを判断している。
そして、画像検出部54は、抽出したエッジ、すなわち立体物のエッジであると判断したものについて、同一物体か否かを判断する。異なる立体物のエッジが偶然につなぎ目a〜dをまたぐように俯瞰画像205で表現されている場合があり得るため、画像検出部54は、同一物体か否かを判断する。この際、画像検出部54は、エッジがまたがるつなぎ目a〜dを構成している座標変換画像201〜204を抽出し、これら座標変換画像201〜204での立体物の輝度または色情報を比較して、各座標変換画像201〜204での立体物が同一物体であるか判断する。
同一物体であると判断した場合、画像検出部54は、立体物が地面から存在するものであるか、空中に存在するものであるか、又は双方の混在するものかを判断する。画像検出部54は、これらの種別を以下を基準にして判断する。
まず、画像検出部54は、つなぎ目a〜dをまたぐエッジが立体物のものであると判断した場合、その立体物について座標変換画像毎の自車両から近い側のエッジがつなぎ目a〜dにおいて連続するときに、立体物が地面から存在するものであると判断する。
ここで、座標変換画像毎の自車両から近い側のエッジがつなぎ目a〜dにおいて連続するということは、自車両から近い側のエッジが地面に存在することを示している。すなわち、図3の縁石303に示すように、地面を基準面として座標変換するため、地面に存在するエッジについてはズレが生じない。よって、画像検出部54は、上記場合、立体物が地面から存在するものであると判断する。
また、画像検出部54は、つなぎ目a〜dでのエッジが立体物のものであると判断した場合、その立体物について座標変換画像毎の自車両から近い側のエッジがつなぎ目a〜dにおいて連続せず、且つ、自車両から近い側のエッジが屈折点のない直線または曲線であるときに、立体物が空中に存在するものであると判断する。
ここで、座標変換画像毎の自車両から近い側のエッジがつなぎ目a〜dにおいて連続しないということは、自車両から近い側のエッジが地面に存在しないことを示している。すなわち、本装置1は地面を基準面として座標変換するため、図3の縁石303に示すように地面に存在するものについてはズレが生じず、つなぎ目a〜dにおいてズレが生じているということは、図3のガードレール305のようにエッジが空中に存在することを示している。また、自車両から近い側のエッジそれぞれが屈折点のない直線または曲線であるということは、図3に示す他車両306のタイヤと車体などのように2つ以上の物体によりエッジが構成されているのではなく、1つの物体によりエッジが構成される可能性が高い。故に、地面に存在する立体物(例えばタイヤ)と空中に存在する立体物(例えば車体)との混在である可能性も少ない。よって、画像検出部54は、上記場合、立体物が空中に存在するものであると判断する。
また、画像検出部54は、つなぎ目a〜dでのエッジが立体物のものであると判断した場合、その立体物について座標変換画像毎の自車両から近い側のエッジがつなぎ目a〜dにおいて連続せず、且つ、自車両から近い側のエッジのうち少なくとも1つが屈折点を有しているときに、立体物が地面から存在するものと空中に存在するものとの双方の混在するもの(以下混在物と称する)であると判断する。
ここで、座標変換画像毎の自車両から近い側のエッジがつなぎ目a〜dにおいて連続しないということは、自車両から近い側のエッジが地面に存在しないことを示している。すなわち、図3の他車両306の車体部分のように、つなぎ目a〜dにおいてズレが生じているということはエッジが空中に存在することを示している。また、自車両から近い側のエッジのうち少なくとも1つが屈折点を有しているということは、他車両306のタイヤと車体などのように2つ以上の物体によりエッジが構成されている可能性が高く、立体物が地面に存在する立体物(タイヤ)と空中に存在する立体物(車体)との混在である可能性も高い。このような場合、車体部分のエッジがつなぎ目a〜dをまたぎ、屈折点の存在からタイヤによって車体が支えられていると考えられ、画像検出部54は、立体物が混在物であると判断する。
以上のように、画像検出部54が立体物の種別を判断した後、画像変換部53は、立体物の種別に応じて俯瞰画像205を補正する。このとき、画像変換部53は、つなぎ目a〜dをまたぐエッジのズレを解消するように画像補正する。さらに、モニタ60は立体物について強調表示し、スピーカ70は立体物の存在を所定の音声で運転者に通知することとなる。
次に、本実施形態に係る車両周辺画像提供装置1の詳細動作を説明する。図5は、第1実施形態に係る車両周辺画像提供装置1の詳細動作を示すフローチャートである。画像変換部53が俯瞰画像205を生成した後、画像検出部54は、図5に示すように、俯瞰画像205を対象にエッジ検出を行う(ST1)。なお、上記と別に各カメラモジュール10によって撮影された画像に対してエッジ検出を行い、それら画像を座標変換するようにしてもよい。
次に、画像検出部54は、つなぎ目a〜dをまたいで連続しないエッジ(ズレが生じているエッジ)を検出する(ST2)。これにより、画像検出部54は、立体物を検出することとなる。
図6は、図5に示したステップST2の処理によって検出された立体物を示す図である。同図に示すように、ステップST2の処理によって、縁石303、ガードレール305、及び他車両306が検出される。なお、図3に示す俯瞰画像205と比較すると明らかなように、壁301及びポール302は、つなぎ目a〜dをまたいでいないため、ステップST2の処理では検出されず、白線304は、つなぎ目cをまたいでいるが、エッジにズレが生じていないため、ステップST2の処理では検出されていない。
再度、図5を参照する。ステップST2の後、画像検出部54は、立体物のうち1つを指定する。すなわち、画像検出部54は、図6の例でいうと、縁石303、ガードレール305、及び他車両306のうちいずれか1つを選択して、後のステップST3〜ステップST9の処理を実行していくこととなる。
立体物のうちいずれか1つを選択した後、画像検出部54は、その立体物がまたがる各座標変換画像201〜204において立体物の輝度又は色情報を比較して、各座標変換画像201〜204での立体物が同一物体であるか否かを判断する(ST3)。これにより、異なる立体物のエッジが偶然につなぎ目a〜dをまたぐように俯瞰画像205で表現されていたとしても、異なる立体物を同一物体と判定してしまうことを防止することとなる。
ここで、各座標変換画像201〜204での立体物が同一物体でないと判断した場合(ST3:NO)、処理はステップST9に移行する。一方、各座標変換画像201〜204での立体物が同一物体であると判断した場合(ST3:YES)、画像検出部54は、その立体物について自車両に近い側のエッジが連続するか否かを判断する(ST4)。
その立体物について自車両に近い側のエッジが連続すると判断した場合(ST4:YES)、画像検出部54は、立体物が地面から存在するものであると判断する。すなわち、図6に示す縁石303のように、立体物でありながら自車両に近い側のエッジ303a,303bが連続しているため、立体物が地面から存在するものであると判断する。
その後、画像変換部53は、第1画像補正処理を実行し、俯瞰画像を補正する(ST5)。そして、処理はステップST9に移行する。一方、その立体物について自車両に近い側のエッジが連続しないと判断した場合(ST4:NO)、画像検出部54は、その立体物について自車両に近い側のエッジそれぞれが屈折点のない直線又は曲線であるか否かを判断する(ST6)。
その立体物について自車両に近い側のエッジそれぞれが屈折点のない直線又は曲線であると判断した場合(ST6:YES)、画像検出部54は、立体物が空中に存在するものであると判断する。すなわち、図6に示すガードレール305のように、立体物でありながら自車両に近い側のエッジ305a,305bが連続していないため、立体物が空中に存在するものであると判断する。特に、エッジ305a,305bの双方が屈折点のない直線又は曲線であるため、混在物であるとも考え難い。これにより、画像検出部54は、立体物が空中に存在するものであると判断する。
その後、画像変換部53は、第2画像補正処理を実行し、俯瞰画像を補正する(ST7)。そして、処理はステップST9に移行する。一方、その立体物について自車両に近い側のエッジそれぞれが屈折点のある直線又は曲線であると判断した場合(ST6:NO)、画像検出部54は、立体物が混在物であると判断する。すなわち、図6に示す他車両306のように、立体物でありながら自車両に近い側のエッジ306a,306bが連続していないため、立体物が空中に存在するものであると判断できる。ところが、エッジ306a,306bに屈折点が存在しているため、2以上の立体物からなる混在物である可能性が高い。よって、画像検出部54は、立体物が混在物であると判断する。
その後、画像変換部53は、第3画像補正処理を実行し、俯瞰画像を補正する(ST8)。そして、処理はステップST9に移行する。ステップST9において、画像検出部54は、立体物すべてを対象に処理をしたか否かを判断する(ST9)。ここで、立体物すべてを対象に処理をしていないと判断した場合(ST9:NO)、画像検出部54は未処理の立体物を選択し、処理はステップST3に移行する。一方、立体物すべてを対象に処理をしたと判断した場合(ST9:YES)、図5に示す処理は終了する。
次に、図5に示した第1画像補正処理(ST5)の処理の詳細を説明する。図7は、図5に示した第1画像補正処理(ST5)の処理の詳細を示すフローチャートである。まず、第1画像補正処理において、画像変換部53は、立体物が各座標変換画像のいずれかで俯瞰画像205の端にまで達しているか否かを判断する(ST51)。
立体物が各座標変換画像のいずれかで俯瞰画像205の端に達していると判断した場合(ST51:YES)、画像変換部53は、俯瞰画像205の端部まで達していない座標変換画像の立体物についても俯瞰画像205の端部まで達するように拡張処理をする(ST52)。その後、処理は図5に示したステップST9に移行する。
図8は、図7に示したステップST52の処理の詳細を示す図であり、(a)はステップST52の処理の前の画像イメージを示し、(b)はステップST52の処理を実行する際の画像イメージを示し、(c)はステップST52の処理を実行した後の画像イメージを示している。また、図8では縁石303について処理したときの画像イメージを示すものとする。
同図(a)に示すように、縁石303は自車両から近い側のエッジ303a,303bが連続し、遠い側のエッジ303c,303dが連続していない。しかも、一方の座標変換画像201の縁石303については自車両から遠い側のエッジ303cが俯瞰画像205の端部まで達している。このため、画像変換部53は、ステップST52の処理において、俯瞰画像205の端部まで達していない座標変換画像203の縁石303についても俯瞰画像205の端部まで達するように拡張処理する。
この際、画像変換部53は、俯瞰画像205の端部まで達していない座標変換画像203の自車両から遠い側のエッジ303dから、俯瞰画像205の端部まで画素をプロットしていく処理を行う。このとき、画像変換部53は、自車両から近い側のエッジ303bと垂直の方向に向かって画素をプロットする。
また、上記処理に代えて、画像変換部53は、座標(Xb,Yb)と座標(Xc,Yc)とを通過する直線と、エッジ303dと、つなぎ目aと、俯瞰画像205の端部とによって囲まれる領域400を求め、この領域400を塗りつぶす処理を行う。
さらに、上記処理に代えて、画像変換部53は、つなぎ目aの座標(Xa,Ya)と座標(Xe,Ye)とを結ぶ線分と、つなぎ目aの座標(Xa,Ya)と座標(Xd,Yd)とを結ぶ線分との長さの比を求める。そして、画像変換部53は、長さの比に応じて座標変換画像203の縁石303の画素を、自車両から近い側のエッジ303bと垂直の方向に拡大する処理を行う。
以上のいずれかの処理により、図8(b)に示す領域400を塗りつぶすように俯瞰画像205が処理されることとなり、図8(c)に示すように双方の座標変換画像201,203の縁石303を俯瞰画像205の端部まで到達させ、運転者がモニタ60で俯瞰画像205を参照したときに同一物体であると認識させ易くすることができる。
再度、図7を参照する。立体物が各座標変換画像のいずれでも俯瞰画像205の端に達していないと判断した場合(ST51:NO)、画像変換部53は、その立体物について座標変換画像毎の自車両から遠い側のエッジそれぞれがつなぎ目a〜dにおいて連続するように俯瞰画像を処理する(ST53)。その後、画像変換部53は、ステップST53の処理によって俯瞰画像205のうち画素情報が無くなった部分に、予め定められた色で塗りつぶす処理を実行する(ST54)。その後、処理は図5に示したステップST9に移行する。
図9は、図7に示したステップST53及びステップST54の処理の詳細を示す図であり、(a)はステップST53の処理の前の画像イメージを示し、(b)はステップST53の処理を実行した後の画像イメージを示し、(c)はステップST54の処理を実行した後の画像イメージを示している。また、図9では縁石303について処理したときの画像イメージを示すものとする。
まず、図9(a)に示すように、縁石303は自車両から近い側のエッジ303a,303bが連続し、遠い側のエッジ303c,303dが連続していない。このため、画像変換部53は、ステップST53において、遠い側のエッジ303c,303dをつなぎ目aにおいて連続させる。
このとき、画像変換部53は、俯瞰画像中のエッジを移動させるシフト処理を実行する。すなわち、画像変換部53は、座標(Xe,Ye)から座標(Xd,Yd)までの距離を計算し、座標変換画像201の自車両から遠い側のエッジ303cを上記距離分だけシフトさせる(図9(b))。そして、画像変換部53は、シフト後のエッジ303cより遠い立体部分、すなわち図9(c)に示す破棄領域の画素データを破棄する。
また、上記処理に代えて、画像変換部53は、座標変換画像中の立体物の画素を間引く間引き処理、及び、座標変換画像中の立体物を圧縮する圧縮処理の少なくとも一方を実行する。すなわち、画像変換部53は、つなぎ目aの座標(Xa,Ya)と座標(Xe,Ye)とを結ぶ線分と、つなぎ目aの座標(Xa,Ya)と座標(Xd,Yd)とを結ぶ線分との長さの比を求める。そして、画像変換部53は、長さの比に応じて座標変換画像201の縁石303の画素を間引く間引き処理を行い、又は、座標変換画像201の縁石303を圧縮する圧縮処理を行う。
以上のいずれかの処理により、図9(c)に示すように、双方の座標変換画像201,203の遠い側のエッジ303c,303dをつなぎ目aにおいて連続させ、俯瞰画像205を視認した利用者に縁石303を認識させやすくして、運転者がモニタ60で俯瞰画像205を参照したときに縁石303との距離感を喪失しないようにすることができる。
その後、画像変換部53は、シフト処理、間引き処理、圧縮処理のいずれかを実行し、俯瞰画像205において画素情報が無くなった部分(図9(c)の破棄領域)に、予め定められた色で塗りつぶす処理を実行する。このとき、画像変換部53は、地面と同じ色を着色することにより、俯瞰画像205を違和感無く表現することができる。また、画像変換部53は、地面に存在しない色(例えば赤や青)を着色することにより、俯瞰画像205を視認した利用者に画像補正が行われたことを知らせることができる。
なお、上記では、座標変換画像毎の遠い側のエッジ303c,303dのうち、遠い方のエッジ303cを近い方のエッジ303dに連続させるように処理を行っているが、これに限らず、近い方のエッジ303dを遠い方のエッジ303cに連続させるように処理を行ってもよい。この処理を行うと、縁石303が俯瞰画像205において大きく表示されるが、ステップST54のように画素情報を失った部分に着色をせずともよく、着色により俯瞰画像205が却って不自然になってしまう可能性を減じることができる。また、ステップST54の処理が不要となり、処理を簡素化することができる。
次に、図5に示した第2画像補正処理(ST7)の処理の詳細を説明する。図10は、図5に示した第2画像補正処理(ST7)の処理の詳細を示すフローチャートである。まず、第2画像補正処理において、画像変換部53は、座標変換画像毎の自車両から近い側のエッジを連続させる(ST71)。このとき、画像変換部53は、立体物について座標変換画像毎の自車両から近い側のエッジを比較する。そして、画像変換部53は、比較したエッジのうち自車両から遠い方のエッジが自車両から近い方のエッジとつなぎ目a〜dにおいてに連続するように座標変換画像上の立体物を移動させる。
図11は、図10に示すフローチャートの詳細を示す図であり、(a)は図10に示す処理を実行する前のガードレール305の画像イメージであり、(b)はステップST71の処理を実行した後のガードレール305の画像イメージであり、(c)はステップST71の処理を実行した後のガードレール305の第1画像イメージであり、(d)はステップST71の処理を実行した後のガードレール305の第2画像イメージである。
図11(a)に示すように、ガードレール305のように空中に存在する立体物は、自車両から近い側のエッジ305a,305bが連続しない。このため、画像変換部53は、ステップST71の処理において、自車両から近い側のエッジ305a,305bを連続させる。
このとき、画像変換部53は、図11(a)に示す座標(Xb,Yb)から座標(Xa,Ya)までの距離を計算し、この距離の分だけ座標変換画像203のガードレール305シフトさせる(図11(b))。これにより、自車両から近い側のエッジ305a,305bのうち、遠い方のエッジ305aが近い方のエッジ305bに合わさることとなり、両エッジ305a,305bはつなぎ目bにおいて連続することとなる。
なお、遠い方のエッジ305aを近い方のエッジ305bに合わせることにより、より適切な表現を行うようにしている。すなわち、近い方のエッジ305bを遠い方のエッジ305aに合わせてしまうと、ガードレール305の実際の存在位置よりも遠くにガードレール305が存在するかのように俯瞰画像205で表現されてしまう。このため、予期せず車両との接触を起こしてしまう場合があり得る。そこで、遠い方のエッジ305aを近い方のエッジ305bに合わせることにより、ガードレール305がより自車両に近くに存在するように俯瞰画像205において表現させ、予期しない車両との接触を防止するようにしている。
再度、図10を参照する。上記の如く、座標変換画像毎の自車両から近い側のエッジを連続させた後、画像変換部53は、立体物が各座標変換画像のいずれかで俯瞰画像205の端に達しているか否かを判断する(ST72)。ここで、立体物が各座標変換画像のいずれかで俯瞰画像205の端に達していると判断した場合(ST72:YES)、画像変換部53は、俯瞰画像205の端部まで達していない座標変換画像の立体物についても俯瞰画像205の端部まで達するように拡張処理をする(ST73)。その後、処理は図5に示したステップST9に移行する。なお、このステップST73の処理は、図7に示したステップST52の処理と同じであるため、詳細説明を省略する。
一方、立体物が各座標変換画像のいずれかで俯瞰画像205の端に達していないと判断した場合(ST72:NO)、画像変換部53は、自車両から近い方のエッジ305a,305bの連続状態を維持したまま、その立体物について座標変換画像毎の自車両から遠い側のエッジそれぞれがつなぎ目a〜dにおいて連続するように俯瞰画像を処理する(ST74)。その後、画像変換部53は、ステップST74の処理によって俯瞰画像205において画素情報が無くなった部分に、予め定められた色で塗りつぶす処理を実行する(ST75)。その後、処理は図5に示したステップST9に移行する。
図11を参照する。図11(b)に示すように座標変換画像203のガードレール305を移動させて自車両から近い側のエッジ305a,305bを連続させたとしても、自車両から遠い側のエッジ305c,305dは連続しない。具体的に述べると、座標変換画像203においてガードレール305を移動させた場合のエッジ305cとつなぎ目bとの接点座標は(Xd,Yd)である。一方、座標変換画像202において自車両から遠い側のエッジ305dとつなぎ目bとの接点座標は(Xc,Yc)である。このように、ステップST71の処理を行ったとしても、自車両から遠い側のエッジ305c,305dは連続しない。
よって、画像変換部53は、ステップST74において自車両から遠い側のエッジ305c,305dは連続させる処理を実行する。このとき、画像変換部53は、図7に示したステップST53と同様にして、遠い側のエッジ305c,305dをつなぎ目bにおいて連続させる。
そして、画像変換部53は、ステップST75においてシフト処理、間引き処理、圧縮処理のいずれかを実行し、俯瞰画像205において画素情報が無くなった部分(図11(c)の斜線部)に、予め定められた色で塗りつぶす処理を実行する。このステップST75の処理は図5に示したステップST54の処理と同様である。
なお、上記処理に限らず、画像変換部53は図11(d)に示すように処理を行ってもよい。すなわと、画像変換部53は、座標変換画像毎の近い側のエッジ305a,305bのうち、遠い方のエッジ305aを近い方のエッジ305bに連続させ、且つ、座標変換画像毎の遠い側のエッジ305c,305dのうち、近い方のエッジ305dを遠い方のエッジ305cに連続させる。この処理を行うと、ガードレール305が俯瞰画像205において大きく表示されるが、ステップST75のように画素情報を失った部分に着色をせずともよく、着色により俯瞰画像205が却って不自然になってしまう可能性を減じることができる。また、ステップST75の処理が不要となり、処理を簡素化することができる。
次に、図5に示した第3画像補正処理(ST8)の処理の詳細を説明する。第3画像補正処理では、混在物について画像処理を行っていくこととなる。図12は、第3画像補正処理の様子を示す図であり、(a)は第3画像補正処理前の画像イメージを示し、(b)は第3画像補正処理後の画像イメージを示している。
同図(a)に示すように、混在物は地面から存在する立体物(タイヤ)と空中に存在する立体物(車体)とからなっている。一方の座標変換画像204の自車両に近い側のエッジ306aは前輪と車体とを含むものとなり、他方の座標変換画像202の自車両に近い側のエッジ306bは後輪と車体とを含むものとなっている。
ここで、第1及び第2画像補正処理の如く、例えばエッジ306aを移動させるなどの処理をすると、前輪と地面との接触点αよりも自車両側にエッジ306aが存在し得ることとなってしまう。すなわち、混在物の場合、地面から存在する立体物についてはエッジを移動させず、空中に存在する立体物についてのみエッジを移動させるなどの処理を行う必要がある。より詳しくは、前輪と地面との接触点αと、後輪と地面との接触点βとを結ぶ接線よりも自車両側にエッジ306a,306bが存在しないようにしなければならない。よって、第3画像補正処理では、図12(a)に示す座標変換画像204の車体のみのエッジを移動させて、図12(b)に示すように、各座標変換画像202,204のエッジ306a,306bを連続させる必要がある。
図13は、図5に示した第3画像補正処理(ST8)の処理の詳細を示すフローチャートである。まず、第3画像補正処理において、画像変換部53は、混在物の接線を求める(ST81)。
図14は、図13に示すフローチャートの詳細を示す図であり、(a)はステップST81の詳細を示す画像イメージであり、(b)はステップST82の処理を実行した後の他車両306の画像イメージであり、(c)はステップST84の処理を実行した後の他車両306の画像イメージである。
同図(a)に示すように、画像変換部53は、前輪と地面との接触点の座標値(Xc,Yc)と、後輪と地面との接触点の座標値(Xd,Yd)とを求め、求めた座標値を通過する接線を求める。
再度、図13を参照する。接線を求めた後、画像変換部53は、座標変換画像毎の自車両から近い側のエッジを連続させる(ST82)。このとき、画像変換部53は、立体物について座標変換画像毎の自車両から近い側のエッジを比較し、比較したエッジのうち自車両から遠い方のエッジが自車両から近い方のエッジとつなぎ目a〜dにおいてに連続するように座標変換画像上の立体物を圧縮処理する。
図14(b)に示すように、他車両306のうち車体は空中に存在するため、自車両から近い側のエッジ306a,306bが連続しない。具体的には、これらのエッジ306a,306bのうち、自車両から遠い方のエッジ306aとつなぎ目cとは座標(Xa,Ya)で接触しており、自車両から近い方のエッジ306bとつなぎ目cとは座標(Xb,Yb)で接触している。このため、画像変換部53は、ステップST82の処理において、車体のエッジが連続するように座標変換画像204の他車両306を圧縮する。このとき、画像変換部53は、他車両306が接線を超えないように圧縮処理を行う。
圧縮処理にあたり画像変換部53は、接線と他車両306のエッジとの距離を求める。ここで、図14(a)に示すように、座標変換画像204において接線と他車両306のエッジとの距離がAであり、座標変換画像202において接線と他車両306のエッジとの距離がB(<A)であるとする。この場合、画像変換部53は、座標変換画像204の他車両306をB/A倍に圧縮する。これにより、図14(b)に示すように、各座標変換画像202,204の車体のエッジと接線との距離は共にBとなる。そして、双方のエッジ306a,306bはつなぎ目cと座標(Xb,Yb)で接触し、これらエッジ306a,306bは連続することとなる。
再度、図13を参照する。上記の如く、座標変換画像毎の自車両から近い側のエッジを連続させた後、画像変換部53は、ステップST83〜ST86の処理を実行する。この処理は、図7に示したステップST51〜ST54の処理と同様であるため、詳細説明を省略する。
なお、座標変換画像204の他車両306は、ステップST82の圧縮処理によって接線側に近寄ることとなり画素情報を失う部分が存在するが(図14(b))、座標変換画像202の他車両306が画像端部に達しているため、ステップST84の処理が実行され、座標変換画像204の他車両306が俯瞰画像205の画像端部まで拡張されて、図14(c)に示すように表現される。また、他車両306が画像端部に達していない場合であっても、ステップST86の処理が実行されて、画素情報を失った部分に着色されることとなる。
図15は、図5に示す処理を実行した後の俯瞰画像205を示す図であり、(a)は第1の俯瞰画像205の例を示し、(b)は第2の俯瞰画像205の例を示している。図15(a)に示すように、縁石303、ガードレール305及び他車両306のエッジは連続しており、図3に示した俯瞰画像205と比較して、立体物を同一物と認識しやすくなっている。また、図15(b)に示すように、画素情報を失った部分に着色を行わない場合においても同様に、縁石303、ガードレール305及び他車両306のエッジは連続しており、立体物を認識しやすくなっている。
以上のように、車両周辺画像提供装置1は、車両周辺の立体物について種別を判断し、俯瞰画像205を対象に適切な画像補正処理を施して、運転者に車両周囲の立体物を認識させやすくして、距離感の喪失等の問題を解消するようにしている。
図16は、第1実施形態に係る車両周辺画像提供装置1の変形例を説明する図であり、(a)は立体物の厚みを求める原理を示し、(b)は厚みに応じた補正処理が施された俯瞰画像205の例を示している。変形例に掛かる車両周辺画像提供装置1は、立体物が地面から存在するものであると判断した場合、その厚みを求め、その厚みに応じて俯瞰画像205に画像補正処理を施し、モニタ60にて表示するようになっている。なお、図16では立体物のうち縁石303を例に説明する。
例えば、図16(a)に示すように、カメラモジュール10からの距離Sの位置に縁石303の1つ目のエッジが存在し、距離S+Iの位置に2つ目のエッジが存在し、距離S+I+Lの位置に3つ目のエッジが存在するとする。ここで、カメラモジュール10の高さHは既知の値である。故に、立体物の高さhは、h=I×H/(I+S)となり、立体物の厚みlは、l={(H−h)×(S+I+L)/H}−Sとなる。画像検出部54の立体判断機能は、上記演算式から立体物の厚みlを検出する。
そして、画像変換部53は、縁石303を厚みlとなるように補正処理を施す。このとき、自車両に近い側のエッジは地面と接触するため、画像変換部53は自車両に近い側のエッジを基準とし、縁石303の厚みがlとなるよう自車両に近い側のエッジと遠い方のエッジとの間隔を調整し、各エッジをつなぎ目aにおいて連続させる。この間隔調整にあたり、画像変換部53はシフト処理、間引き処理、圧縮処理などを実行し、画素情報が失われた部分には予め定められた色で着色する。以上の変形例により、俯瞰画像205の立体物を正確な厚みで表現することができ、一層立体物を分かり易く表示して、運転者の距離感の喪失を防止することができる。
このようにして、第1実施形態に係る車両周辺画像提供装置1によれば、検出したエッジのうち、各座標変換画像201〜204を合成したことによる俯瞰画像205のつなぎ目a〜dをまたぐエッジの状態から、そのエッジが立体物のものであるか否かを判断する。ここで、つなぎ目a〜dをまたぐエッジが立体物のものであれば、複数のカメラモジュール10の設置位置の関係から、エッジはつなぎ目a〜dにおいてズレが生じる。このように、つなぎ目a〜dをまたぐエッジの状態から、そのエッジが立体物のものであるか判断することができる。
また、つなぎ目a〜dをまたぐエッジが立体物のものである場合には、そのエッジの状態から、立体物が地面から存在するものであるか、空中に存在するものであるか、又は双方が混在するものかを判断する。ここで、立体物が地面から存在するものである場合、その立体物について座標変換画像毎の自車両から近い側のエッジはつなぎ目a〜dにおいて連続する。また、立体物が空中に存在するものである場合、その立体物について座標変換画像毎の自車両から近い側のエッジはつなぎ目においてズレが生じる。双方が混在するものである場合、その立体物について座標変換画像毎の自車両から近い側のエッジはつなぎ目a〜dにおいてズレが生じるうえに、近い側のエッジは直線等のように構成されず、1つ以上の屈折点を含むこととなる。このように、つなぎ目をまたぐエッジの状態から、立体物が地面から存在するものか、空中に存在するものか、または双方が混在するものかを判断することができる。
従って、車両周辺の立体物について種別を判断することができる。
また、つなぎ目a〜dをまたぐエッジが立体物のものであると判断した場合、つなぎ目a〜dを構成する各座標変換画像201〜204での立体物の輝度または色情報を比較して、各座標変換画像201〜204での立体物が同一物体であるか判断し、同一物体であると判断した場合に、立体物の種別を判断する。これにより、異なる立体物のエッジが偶然につなぎ目a〜dをまたぐように俯瞰画像205で表現されていたとしても、異なる立体物を同一物体と判定して種別を判断してしまう頻度を低減させることができる。
また、つなぎ目a〜dをまたぐエッジが立体物のものであると判断した場合、その立体物について座標変換画像毎の自車両から近い側のエッジがつなぎ目a〜dにおいて連続するときに、立体物が地面から存在するものであると判断する。ここで、座標変換画像毎の自車両から近い側のエッジがつなぎ目a〜dにおいて連続するということは、自車両から近い側のエッジが地面に存在することを示している。すなわち、地面を基準面として座標変換するため、地面に存在するものについてはズレが生じない。よって、上記場合に、立体物が地面から存在するものであると判断することができる。
また、立体物が地面から存在するものであると判断された場合、その立体物について座標変換画像毎の遠い側のエッジそれぞれがつなぎ目において連続するように俯瞰画像を処理する。ここで、立体物が地面から存在するものである場合、図4(a)に示すように、立体物は複数のカメラモジュール10の設置位置の関係から、倒れ込んで認識される量が異なってくる。この結果、立体物の上端側、すなわち遠い側のエッジは俯瞰画像205のつなぎ目a〜dにおいてズレて表現され、運転者は車両から立体物までの距離の喪失し易くなる。よって、このズレを解消するように遠い側のエッジそれぞれがつなぎ目a〜dにおいて連続するように処理することで、距離の喪失を抑制することができる。
また、つなぎ目a〜dでのエッジが立体物のものであると判断した場合、その立体物について座標変換画像毎の自車両から近い側のエッジがつなぎ目a〜dにおいて連続せず、且つ、自車両から近い側のエッジが屈折点のない直線または曲線であるときに、立体物が空中に存在するものであると判断する。ここで、座標変換画像毎の自車両から近い側のエッジがつなぎa〜d目において連続しないということは、自車両から近い側のエッジが地面に存在しない部分を含むことを示している。すなわち、地面を基準面として座標変換するため、地面に存在するものについてはズレが生じないはずであるが、つなぎ目a〜dにおいてズレが生じているということはエッジが空中に存在する部分を含むことを示している。また、自車両から近い側のエッジそれぞれが屈折点のない直線または曲線であるということは、車両のタイヤと車体などのように2つ以上の物体によりエッジが構成されているのではなく、1つの物体によりエッジが構成される可能性が高い。故に、地面に存在する立体物と空中に存在する立体物との混在である可能性も少ない。よって、上記場合に、立体物が空中に存在するものであると判断することができる。
また、立体物が空中に存在するものであると判断された場合、その立体物について座標変換画像毎の自車両から近い側のエッジを比較し、比較したエッジのうち自車両から遠い方のエッジが近い方のエッジとつなぎ目a〜dにおいて連続するように座標変換画像上の立体物を移動させる。これにより、座標変換画像毎の自車両から近い側のエッジが連続することとなる。このとき、座標変換画像毎の自車両から遠い側のエッジは、未だズレを生じている可能性がある。
また、移動後に、自車両から近い側のエッジの連続状態を維持したまま、その立体物について座標変換画像毎の自車両から遠い側のエッジそれぞれがつなぎ目において連続するように俯瞰画像205を処理する。これにより、自車両から遠い側及び近い側のエッジの双方が連続することとなり、運転者に立体物を認識させやすくして、距離の喪失を抑制することができる。
また、つなぎ目a〜dでのエッジが立体物のものであると判断した場合、その立体物について座標変換画像毎の自車両から近い側のエッジがつなぎ目a〜dにおいて連続せず、且つ、自車両から近い側のエッジのうち少なくとも1つが屈折点を有しているときに、立体物が空中に存在するものであると判断する。ここで、座標変換画像毎の自車両から近い側のエッジがつなぎ目において連続しないということは、自車両から近い側のエッジが少なくとも地面に存在しない部分を含むことを示している。すなわち、地面を基準面として座標変換するため、地面に存在するものについてはズレが生じないはずであるが、つなぎ目a〜dにおいてズレが生じているということはエッジが空中に存在する部分を含むことを示している。また、自車両から近い側のエッジのうち少なくとも1つが屈折点を有しているということは、車両のタイヤと車体などのように2つ以上の物体によりエッジが構成されている可能性が高く、立体物が地面に存在する立体物と空中に存在する立体物との混在である可能性も高い。よって、上記場合に、立体物が地面に存在する立体物と空中に存在する立体物との混在であると判断することができる。
また、立体物が地面から存在するものと空中に存在するものとの双方の混在するものであると判断された場合、その立体物について座標変換画像毎に最も自車両に近い側の点の座標値を求め、求めた各座標値を通過する接線を求める。これにより、地面から存在するものと空中に存在するものとの双方の混在する立体物について地面との接触地点の座標値を求め、その接触地点を結ぶラインを求めることとなる。
また、その立体物について座標変換画像毎の自車両から近い側のエッジを比較し、比較したエッジのうち自車両から遠い方のエッジが近い方のエッジとつなぎ目において連続するように且つ立体物が上記接点を超えないように座標変換画像上の立体物を処理する。これにより、座標変換画像毎の自車両から近い側のエッジが連続することとなる。しかも、立体物が接線を超えないため、地面から存在するものと空中に存在するものとの双方が混在する立体物について地面との接触地点を結ぶラインを超えて処理されることなく、俯瞰画像205においてラインより自車両側に立体物が表現されないようになる。なお、この場合において、座標変換画像毎の自車両から遠い側のエッジは、未だズレを生じている可能性がある。
また、処理後に、その立体物について各座標変換画像201〜204のうち自車両から遠い側のエッジそれぞれがつなぎ目a〜dにおいて連続するように俯瞰画像205を処理する。これにより、自車両から遠い側及び近い側のエッジの双方が連続することとなり、運転者に立体物を認識させやすくすることができる。
以上より、俯瞰画像205においてラインより自車両側に立体物が表現されないようにすると共に自車両から近い側と遠い側とのエッジを連続させて、運転者に立体物を認識させやすくし、距離の喪失を抑制することができる。
また、シフト処理、間引き処理、及び圧縮処理の少なくとも1つを実行して、俯瞰画像205において画素情報が無くなった部分に、予め定められた色で塗りつぶす処理を実行する。これにより、画像処理された様子を運転者に示すことができる。特に、通常では地面に存在しない色(赤色など)を予め定められた色とした場合には、画像処理された様子を一層運転者に示すことができる。
また、つなぎ目a〜dをまたぐ立体物が座標変換画像201〜204のいずれかで俯瞰画像205の端部まで達している場合、俯瞰画像205の端部まで達していない座標変換画像201〜204の立体物についても俯瞰画像205の端部まで達するように処理をする。これにより、自車両から遠い側のエッジを連続させる処理を行うことなく、つなぎ目a〜dをまたぐ立体物を簡易に同一物体と認識させるように表示することができる。
また、つなぎ目a〜dでのエッジが立体物のものであると判断された場合、その立体物について強調表示する。このため、表示される俯瞰画像中の立体物を運転者に対して分かり易く通知することができる。
また、つなぎ目a〜dでのエッジが立体物のものであると判断された場合に、その立体物の存在を所定の音声にて運転者に知らせるため、立体物の有無を運転者に聴覚的に通知することができる。
また、第1実施形態に係る車両周辺画像提供装置1の変形例によれば、立体物が地面から存在するものであると判断した場合、立体物の厚みを求め、求めた厚みに応じて、立体物について座標変換画像毎に自車両から近い側のエッジと遠い側のエッジとの間隔を調整し、遠い側のエッジそれぞれをつなぎ目a〜dにおいて連続させる。このように、立体物の厚みに応じて各座標変換画像201〜204のうち近い側のエッジと遠い側のエッジとの間隔を調整するので、俯瞰画像205の立体物の厚みを的確に表現でき、実際に立体物を真上から見たように表示することができる。従って、運転者に立体物を分かり易く提示することができる。さらに、遠い側のエッジそれぞれをつなぎ目において連続させるため、エッジ間のズレを解消し、距離の喪失を抑制することができる。
次に、本発明の第2実施形態を説明する。第2実施形態に係る車両周辺画像提供装置2は、第1実施形態のものと同様であるが、処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
第2実施形態に車両周辺画像提供装置2は、図5に示したステップST3の処理が第1実施形態のものと異なっている。また、第2実施形態に係る車両周辺画像提供装置2は、俯瞰画像205の全体に対してエッジ検出を行うのでなく、俯瞰画像205のうち一部からエッジ検出を行う点で第1実施形態のものと異なっている。
図17は、第2実施形態に係る車両周辺画像提供装置2の処理を説明する図であり、図5に示したステップST3の処理に代えて実行される処理を説明するものである。複数のカメラモジュール10は、撮像領域がそれぞれ他のカメラモジュール10と重複しており、画像変換部53は俯瞰画像205の生成時には重複部分データを破棄するようになっている。
具体的に説明する。図17に示すように、俯瞰画像205には縁石303が映っている。この縁石303は、つなぎ目aをまたがっているため、このつなぎ目aを構成する座標変換画像201,203の座標変換前の画像であるフロント画像101及び右サイド画像103にも映っている。
座標変換にあたり画像変換部53は、フロント画像101のすべてを座標変換するのでなく、フロント画像101の一部を破棄する。故に、フロント画像101に映る縁石303についても全て座標変換されるのはなく、一部(図17に示す符号303’の部分)は破棄されることとなる。また、同様に、右サイド画像103に映る縁石303についても全て座標変換されるのはなく、一部(図17に示す符号303’の部分)は破棄されることとなる。
ここで、破棄される部分は、フロント画像101と右サイド画像103とで重複する部分である。すなわち、フロント画像101と右サイド画像103とには同じ箇所が映っており、同じ箇所を重複して座標変換して俯瞰画像205を得ないようにするために、重複箇所の破棄を行っている。
第2実施形態に係る画像検出部54は、この重複部分に存在する立体物の輝度または色情報を比較して、立体物が同一物体であるか否かを判断する。これにより、立体物が同一物体であれば同じ箇所の輝度または色情報を比較することとなり、より正確に同一物体か否かを判断することができる。
次に、第2実施形態に係るエッジ検出方法について説明する。図18は、第2実施形態に係る車両周辺画像提供装置2のエッジ検出方法を示す第1の図であり、図19は、第2実施形態に係る車両周辺画像提供装置2のエッジ検出方法を示す第2の図である。
例えば、図18に示すように、第2実施形態では自車両から一定距離内を第1の領域401とし第1の領域401の外側の領域を第2の領域402としており、画像検出部54は、自車両の車速が所定速度未満である場合、第2の領域402を対象にエッジ検出せず、第1の領域401を対象にエッジ検出する。また、画像検出部54は、所定速度以上である場合、第1の領域401を対象にエッジ検出せず、第2の領域402を対象にエッジ検出する。このように、第2実施形態において画像検出部54のエッジ検出機能は、自車両の速度が所定速度以上である場合、自車両の速度が所定速度未満である場合よりも自車両から離れた箇所を対象にエッジ検出する。
ここで、自車両の速度が速い場合、運転者は自車両から比較的離れた箇所を視認する必要がある。一方、自車両の速度が遅い場合、運転者は自車両近傍を視認する必要がある。このため、自車両の速度が所定速度以上である場合、自車両の速度が所定速度未満である場合よりも自車両から離れた箇所を対象にエッジ検出することで、運転者の視認すべき箇所を対象にエッジ検出することとなる。
なお、図18に示すように、第1および第2の領域401,402のように固定の領域が予め設定される場合に限らず、領域の大きさは可変とされてもよい。
また、図19に示すように、第2実施形態では操舵角センサ30およびシフト信号センサ40の情報に基づいて自車両の進行方向側(特に車体が通過する領域)をエッジ検出領域403として決定し、この領域403を対象にエッジ検出し、他の領域ではエッジ検出しないようにしてもよい。これにより、自車両と接触する可能性がある立体物についてエッジ検出を行うことができる。なお、図19に示す例では、車速が低いときに、エッジ検出領域403のうち遠方側をカットするようにしてもよいし、車速が高い場合にはより遠方までを対象にエッジ検出するようにしてもよい。
このようにして、第2実施形態に係る車両周辺画像提供装置2によれば、第1実施形態と同様に、車両周辺の立体物について種別を判断することができる。また、立体物が地面から存在するものであると判断することができ、距離の喪失を抑制することができる。また、立体物が空中に存在するものであると判断することができ、立体物が地面に存在する立体物と空中に存在する立体物との混在であると判断することができる。また、画像処理された様子を一層運転者に示すことができ、つなぎ目a〜dをまたぐ立体物を簡易に同一物体と認識させるように表示することができる。また、表示される俯瞰画像中の立体物を運転者に対して分かり易く通知することができ、立体物の有無を運転者に聴覚的に通知することができる。
さらに、第2実施形態によれば、つなぎ目a〜dをまたぐエッジが立体物のものであると判断した場合、このつなぎ目a〜dを構成する座標変換画像の座標変換前の画像のうち、俯瞰画像205を生成したときに破棄される部分に存在する立体物の輝度または色情報を比較することによって、各座標変換画像201〜204での立体物が同一物体であるか判断し、同一物体であると判断した場合に、立体物の種別を判断する。ここで、複数のカメラモジュール10は、撮像領域がそれぞれ他のカメラモジュール10と重複しており、画像変換部53は俯瞰画像205の生成時には重複部分データを破棄するようになっている。各カメラモジュール10は、この重複部分において他のカメラモジュール10と同一箇所を撮像している。故に、俯瞰画像205を生成したときに破棄される部分に存在する立体物の輝度または色情報を比較することによって、同一箇所の輝度または色情報を比較することとなり、より正確に立体物が同一物体であるか否かを判断することができる。
また、自車両の速度が所定速度以上である場合、自車両の速度が所定速度未満である場合よりも俯瞰画像上で自車両から離れた領域を対象にエッジ検出を行う。ここで、自車両の速度が速い場合、運転者は自車両から比較的離れた箇所を視認する必要がある。一方、自車両の速度が遅い場合、運転者は自車両近傍を視認する必要がある。このため、自車両の速度が所定速度以上である場合、自車両の速度が所定速度未満である場合よりも俯瞰画像上で自車両から離れた領域を対象にエッジ検出を行うことで、運転者の視認すべき箇所の立体物を対象にエッジ検出を行うことができる。さらには、エッジ検出を行う領域を限定でき、処理負荷を軽減することができる。
また、俯瞰画像上で自車両の進行方向側の領域を対象にエッジ検出を行うため、自車両と接触する可能性がある立体物についてエッジ検出を行うことができる。さらには、エッジ検出を行う領域を限定でき、処理負荷を軽減することができる。
以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で、変更を加えてもよいし、各実施形態を組み合わせるようにしてもよい。
本発明は、車両周辺の画像を運転者に提供する車両周辺画像提供装置に適用することができる。

Claims (10)

  1. 車両周辺の画像を運転者に提供する車両周辺画像提供装置であって、
    自車両周辺を撮像すると共に、それぞれが異なる方向を撮像する複数の撮影手段と、
    地面を基準面とし前記複数の撮影手段により撮影された車両周辺の画像それぞれを座標変換して座標変換画像を生成し、生成した各座標変換画像を合成して俯瞰画像を生成する画像処理手段と、
    前記画像処理手段により生成された俯瞰画像に対してエッジ検出を行うエッジ検出手段と、
    エッジ検出手段により検出されたエッジ線のうち、座標変換画像のつなぎ目をまたぐエッジ線の連続性を判定する判定手段と、
    座標変換画像のつなぎ目をまたぐエッジ線が不連続である場合、自車両から遠い側のエッジ線を自車両に近い側のエッジ線に合わせることによりエッジ線をつなぎ目において連続にする画像処理を行う画像処理手段と
    を備えることを特徴とする車両周辺画像提供装置。
  2. 前記画像処理手段は、座標変換画像のつなぎ目をまたぐエッジ線が複数存在する場合において、複数のエッジ線のうち自車両から遠い側のエッジ線が不連続である場合には、自車両から近い側のエッジ線の連続性を維持しながら自車両から遠い側のエッジ線をつなぎ目において連続にすることを特徴とする請求項1に記載の車両周辺画像提供装置。
  3. 前記画像処理手段は、座標変換画像のつなぎ目をまたぐエッジ線が不連続である場合において、エッジ線が屈曲点を有する場合には、つなぎ目をまたぐ屈曲したエッジ線同士を結ぶ接線を超えないようにエッジ線をつなぎ目において連続にすることを特徴とする請求項1に記載の車両周辺画像提供装置。
  4. 前記画像処理手段は、座標変換画像のつなぎ目をまたぐエッジ線が複数存在する場合において、複数のエッジ線のうち自車両から近い側のエッジ線が連続である場合には、自車両から近い側のエッジ線の位置を維持しながら自車両から遠い側の各エッジ線をつなぎ目において連続にすることを特徴とする請求項1に記載の車両周辺画像提供装置。
  5. 座標変換画像のつなぎ目をまたぐ複数のエッジ線が同一物体を構成するか否かを判定する手段を備え、同一物体を構成していると判定された場合、前記画像処理手段は、自車両から近い側に存在するエッジ線と自車両から遠い側に存在するエッジ線を特定することを特徴とする請求項2に記載の車両周辺画像提供装置。
  6. 前記画像処理手段は、つなぎ目においてエッジを連続させるために、エッジを移動させるシフト処理、画素を間引く間引き処理、及び画像を圧縮する圧縮処理の少なくとも1つを実行することを特徴とする請求項1乃至請求項5のうち、いずれか1項に記載の車両周辺画像提供装置。
  7. 前記画像処理手段は、前記シフト処理、前記間引き処理、及び前記圧縮処理の少なくとも1つを実行して俯瞰画像において画素情報が無くなった部分に、予め定められた色で塗りつぶす処理を実行することを特徴とする請求項6に記載の車両周辺画像提供装置。
  8. 前記エッジ検出手段は、自車両の速度が所定速度以上である場合、自車両の速度が所定速度未満である場合よりも俯瞰画像上で自車両から離れた領域を対象にエッジ検出を行うことを特徴とする請求項1乃至請求項7のうち、いずれか1項に記載の車両周辺画像提供装置。
  9. 前記エッジ検出手段は、俯瞰画像上で自車両の進行方向側の領域を対象にエッジ検出を行うことを特徴とする請求項1乃至請求項8のうち、いずれか1項に記載の車両周辺画像提供装置。
  10. 車両周辺の画像を運転者に提供する車両周辺画像提供方法であって、
    自車両周辺の異なる方向を撮像するステップと、
    地面を基準面とし撮影された自車両周辺の画像それぞれを座標変換して座標変換画像を生成し、生成した各座標変換画像を合成して俯瞰画像を生成するステップと、
    生成された俯瞰画像に対してエッジ検出を行うステップと、
    検出されたエッジ線のうち、座標変換画像のつなぎ目をまたぐエッジ線の連続性を判定するステップと、
    座標変換画像のつなぎ目をまたぐエッジ線が不連続である場合、自車両から遠い側のエッジ線を自車両に近い側のエッジ線に合わせることによりエッジ線をつなぎ目において連続にする画像処理を行うステップと
    を有することを特徴とする車両周辺画像提供方法。
JP2008514434A 2006-05-09 2007-04-25 車両周辺画像提供装置及び車両周辺画像提供方法 Active JP4956799B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008514434A JP4956799B2 (ja) 2006-05-09 2007-04-25 車両周辺画像提供装置及び車両周辺画像提供方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006130269 2006-05-09
JP2006130269 2006-05-09
PCT/JP2007/058961 WO2007129582A1 (ja) 2006-05-09 2007-04-25 車両周辺画像提供装置及び車両周辺画像提供方法
JP2008514434A JP4956799B2 (ja) 2006-05-09 2007-04-25 車両周辺画像提供装置及び車両周辺画像提供方法

Publications (2)

Publication Number Publication Date
JPWO2007129582A1 true JPWO2007129582A1 (ja) 2009-09-17
JP4956799B2 JP4956799B2 (ja) 2012-06-20

Family

ID=38667690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008514434A Active JP4956799B2 (ja) 2006-05-09 2007-04-25 車両周辺画像提供装置及び車両周辺画像提供方法

Country Status (5)

Country Link
US (1) US8243994B2 (ja)
EP (1) EP2018066B1 (ja)
JP (1) JP4956799B2 (ja)
CN (1) CN101438590B (ja)
WO (1) WO2007129582A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110576796A (zh) * 2019-08-28 2019-12-17 浙江合众新能源汽车有限公司 一种标清360全景系统ui布局方法

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5163165B2 (ja) * 2008-02-05 2013-03-13 日産自動車株式会社 車両周辺画像処理装置及び車両周辺状況提示方法
JP4557041B2 (ja) * 2008-04-18 2010-10-06 株式会社デンソー 車両用画像処理装置
JP5344227B2 (ja) * 2009-03-25 2013-11-20 アイシン精機株式会社 車両用周辺監視装置
DE102009029439A1 (de) * 2009-09-14 2011-03-24 Robert Bosch Gmbh Verfahren und Vorrichtung zur Darstellung von Hindernissen in einem Einparkhilfesystem von Kraftfahrzeugen
JP5235843B2 (ja) * 2009-11-16 2013-07-10 アルパイン株式会社 車両周辺監視装置および車両周辺監視方法
EP2372637B1 (en) * 2010-03-02 2013-07-03 Autoliv Development AB A driver assistance system and method for a motor vehicle
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
DE102010010912A1 (de) * 2010-03-10 2010-12-02 Daimler Ag Fahrerassistenzvorrichtung mit optischer Darstellung erfasster Objekte
JP2011205513A (ja) * 2010-03-26 2011-10-13 Aisin Seiki Co Ltd 車両周辺監視装置
CN102653260B (zh) * 2012-05-09 2014-08-13 邝君 汽车定点定位引导系统
WO2014019132A1 (en) 2012-07-31 2014-02-06 Harman International Industries, Incorporated System and method for detecting obstacles using a single camera
US9150156B2 (en) 2012-08-30 2015-10-06 Nissan North America, Inc. Vehicle mirror assembly
US9288446B2 (en) 2012-09-10 2016-03-15 Nissan North America, Inc. Vehicle video system
US9057833B2 (en) 2012-09-28 2015-06-16 Nissan North America, Inc. Vehicle mirror assembly
CN104469135B (zh) * 2013-09-18 2017-11-28 株式会社理光 图像处理系统
JP6167824B2 (ja) * 2013-10-04 2017-07-26 アイシン精機株式会社 駐車支援装置
JP6232994B2 (ja) * 2013-12-16 2017-11-22 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2015098107A1 (ja) * 2013-12-24 2015-07-02 京セラ株式会社 画像処理装置、警報装置、および画像処理方法
JP6307895B2 (ja) * 2014-01-23 2018-04-11 トヨタ自動車株式会社 車両用周辺監視装置
JP6303090B2 (ja) * 2014-03-24 2018-04-04 アルパイン株式会社 画像処理装置および画像処理プログラム
US9403491B2 (en) 2014-08-28 2016-08-02 Nissan North America, Inc. Vehicle camera assembly
US9725040B2 (en) 2014-10-28 2017-08-08 Nissan North America, Inc. Vehicle object detection system
US9880253B2 (en) 2014-10-28 2018-01-30 Nissan North America, Inc. Vehicle object monitoring system
US9834141B2 (en) 2014-10-28 2017-12-05 Nissan North America, Inc. Vehicle object detection system
JP6485160B2 (ja) * 2015-03-27 2019-03-20 セイコーエプソン株式会社 インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法
JP2016225865A (ja) * 2015-06-01 2016-12-28 東芝アルパイン・オートモティブテクノロジー株式会社 俯瞰画像生成装置
KR101709009B1 (ko) * 2015-08-18 2017-02-21 주식회사 와이즈오토모티브 어라운드 뷰 왜곡 보정 시스템 및 방법
US20170132476A1 (en) * 2015-11-08 2017-05-11 Otobrite Electronics Inc. Vehicle Imaging System
EP3293717B1 (en) * 2016-09-08 2021-11-10 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH An electronically controlled braking system
DE112017006840B4 (de) * 2017-01-16 2023-11-02 Fujitsu Limited Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung
US10482626B2 (en) * 2018-01-08 2019-11-19 Mediatek Inc. Around view monitoring systems for vehicle and calibration methods for calibrating image capture devices of an around view monitoring system using the same
CN109163707B (zh) * 2018-09-06 2019-11-26 百度在线网络技术(北京)有限公司 障碍物感知方法、系统、计算机设备、计算机存储介质
US11748920B2 (en) * 2019-08-02 2023-09-05 Nissan Motor Co., Ltd. Image processing device, and image processing method
KR102343052B1 (ko) * 2021-06-17 2021-12-24 주식회사 인피닉 3d 데이터를 기반으로 2d 이미지에서의 객체의 이동 경로를 식별하는 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
TWI826119B (zh) * 2022-11-15 2023-12-11 瑞昱半導體股份有限公司 影像處理方法、系統以及非暫態電腦可讀取記錄媒體

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07236113A (ja) * 1994-02-24 1995-09-05 Canon Inc 画像記録再生方法および画像記録再生装置
JPH0973545A (ja) * 1995-09-07 1997-03-18 Fujitsu Ten Ltd 白線認識装置
EP1115250B1 (en) * 1998-07-31 2012-06-06 Panasonic Corporation Method and apparatus for displaying image
JP2001186512A (ja) * 1999-12-27 2001-07-06 Toshiba Corp X線検査装置
JP3584194B2 (ja) * 2000-02-22 2004-11-04 株式会社ホンダエレシス 白線検出方法および白線検出装置
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
ATE311725T1 (de) * 2001-09-07 2005-12-15 Matsushita Electric Ind Co Ltd Vorrichtung zum anzeigen der umgebung eines fahrzeuges und system zur bildbereitstellung
JP3819284B2 (ja) 2001-11-29 2006-09-06 クラリオン株式会社 車両周囲監視装置
JP4744823B2 (ja) * 2004-08-05 2011-08-10 株式会社東芝 周辺監視装置および俯瞰画像表示方法
JP4639753B2 (ja) * 2004-10-25 2011-02-23 日産自動車株式会社 運転支援装置
JP4934308B2 (ja) * 2005-10-17 2012-05-16 三洋電機株式会社 運転支援システム
JP4832321B2 (ja) * 2007-01-26 2011-12-07 三洋電機株式会社 カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110576796A (zh) * 2019-08-28 2019-12-17 浙江合众新能源汽车有限公司 一种标清360全景系统ui布局方法

Also Published As

Publication number Publication date
CN101438590B (zh) 2011-07-13
EP2018066B1 (en) 2019-10-02
WO2007129582A1 (ja) 2007-11-15
EP2018066A4 (en) 2017-04-19
CN101438590A (zh) 2009-05-20
US8243994B2 (en) 2012-08-14
JP4956799B2 (ja) 2012-06-20
US20090257659A1 (en) 2009-10-15
EP2018066A1 (en) 2009-01-21

Similar Documents

Publication Publication Date Title
JP4956799B2 (ja) 車両周辺画像提供装置及び車両周辺画像提供方法
JP5068779B2 (ja) 車両周囲俯瞰画像表示装置及び方法
KR101519209B1 (ko) Avm 영상 제공 장치 및 방법
JP4404103B2 (ja) 車両外部撮影表示システムおよび画像表示制御装置
JP4816923B2 (ja) 車両周辺画像提供装置および方法
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP5171723B2 (ja) 障害物検知装置、および当該装置を搭載した車両
JP6699427B2 (ja) 車両用表示装置および車両用表示方法
JP2012040883A (ja) 車両周囲画像生成装置
JP2012136206A (ja) 駐車制御システム、及び、駐車制御方法
JP6167824B2 (ja) 駐車支援装置
JP5083443B2 (ja) 運転支援装置および方法、ならびに演算装置
JP2009188635A (ja) 車両周辺画像処理装置及び車両周辺状況提示方法
JP2014106740A (ja) 車載用駐車枠認識装置
JP2010183234A (ja) 描画装置
JP5906696B2 (ja) 車両周辺撮影装置および車両周辺画像の処理方法
JP5235843B2 (ja) 車両周辺監視装置および車両周辺監視方法
KR102177878B1 (ko) 영상 처리 장치 및 방법
JP2007249814A (ja) 画像処理装置及び画像処理プログラム
JP4945315B2 (ja) 運転支援システム及び車両
WO2018146997A1 (ja) 立体物検出装置
JP2009077022A (ja) 運転支援システム及び車両
JP4736611B2 (ja) 画像処理装置および画像処理方法
JP2008230358A (ja) 表示装置
JP2007166442A (ja) 撮像装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4956799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150