JP6316161B2 - 車載用画像処理装置 - Google Patents

車載用画像処理装置 Download PDF

Info

Publication number
JP6316161B2
JP6316161B2 JP2014199017A JP2014199017A JP6316161B2 JP 6316161 B2 JP6316161 B2 JP 6316161B2 JP 2014199017 A JP2014199017 A JP 2014199017A JP 2014199017 A JP2014199017 A JP 2014199017A JP 6316161 B2 JP6316161 B2 JP 6316161B2
Authority
JP
Japan
Prior art keywords
vehicle
image
vehicle body
unit
recognition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014199017A
Other languages
English (en)
Other versions
JP2016068712A (ja
Inventor
玲 宇田川
玲 宇田川
健 志磨
健 志磨
彰二 村松
彰二 村松
雅男 坂田
雅男 坂田
吉孝 内田
吉孝 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2014199017A priority Critical patent/JP6316161B2/ja
Priority to US15/500,120 priority patent/US9953227B2/en
Priority to PCT/JP2015/067250 priority patent/WO2016051885A1/ja
Priority to EP15847777.8A priority patent/EP3202626A4/en
Publication of JP2016068712A publication Critical patent/JP2016068712A/ja
Application granted granted Critical
Publication of JP6316161B2 publication Critical patent/JP6316161B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、例えば自動車の駐車支援に用いられる車載用画像処理装置に関する。
近年、車載カメラの画像に基づいて駐車可能な領域が存在しているかどうかを判断することのできる車載用画像処理装置が開発されている。このような装置の一例として、車両の車幅を推定するための装置が知られている(例えば、下記特許文献1を参照)。
特許文献1に記載された装置では、駐車可能な領域が存在しているかどうかを判断するために、以下の手順によって車両の車幅を推定している。まず、車両を撮像し、撮像された画像から、車両のホイールおよびナンバープレートを認識する。次に、路面に平行な仮想平面上に、認識されたナンバープレート上の第1の点を投影する。次に、認識されたホイール上の、車両の車両長方向に沿った第2および第3の点を投影し、該第2および第3の点を結ぶよう第1の線を設定する。次に、第1の線に直交するよう第1の点から伸長する第2の線を設定して、第1の線および第2の線の交点を算出する。そして、この交点と、認識されたナンバープレートの車幅方向における中心との間の距離に基づいて、車両の車幅を推定する。
特開2010−19752号公報
特許文献1に記載された装置では、駐車可能な領域が存在しているかどうかを判断するために、車両のナンバープレートを認識することが前提となる。したがって、例えば、ナンバープレートを装着する前の車両を移動させて駐車する場合や、何らかの原因でナンバープレートを認識することができない場合等には、駐車可能な領域が存在しているかどうかを判断することができない。
本発明は、前記課題に鑑みてなされたものであり、その目的とするところは、ナンバープレートの認識を前提とすることなく、車両に搭載されたカメラの画像を処理して車両の周辺の駐車可能な領域を認識することができる車載用画像処理装置を提供することにある。
前記目的を達成すべく、本発明の車載用画像処理装置は、車両周辺の駐車可能な領域を認識するための車載用画像処理装置であって、前記車両に搭載されたカメラで撮影した周辺車両と路面の画像を視点変換して該路面を基準とする俯瞰画像を生成する俯瞰画像生成部と、前記画像又は前記俯瞰画像から前記周辺車両のタイヤを認識するタイヤ認識部と、前記画像又は前記俯瞰画像から前記周辺車両の車体を含む立体物を認識する立体物認識部と、前記タイヤの接地位置と、該接地位置から前記車体までの地上高とを算出し、該地上高に基づいて前記俯瞰画像で前記車体下方に位置する前記路面の車体下領域を認識する車体下領域認識部と、前記車体が存在する領域と前記車体下領域とを駐車不能領域として認識し、該駐車不能領域に基づいて前記路面上の駐車可能領域を認識する駐車可能領域認識部と、を備えることを特徴とする。
本発明の車載用画像処理装置によれば、カメラの画像を処理して車両の周辺の俯瞰画像を生成し、周辺車両の車体と車体下領域とを俯瞰画像で認識することで、ナンバープレートの認識を前提とすることなく、車両の周辺の駐車可能領域を認識することができ、駐車枠線がない場合でも、目標駐車位置を適切に認識することができる。
車両が周辺車両の間の駐車スペースに駐車する場面を想定した平面図。 車載用画像処理装置及びその周辺装置の構成を示すブロック図。 図2に示す車体下領域認識部のさらに詳細な構成を示すブロック図。 車体下領域認識部の画像処理を説明する画像図。 車体認識部が車体を認識する処理の一例を説明する画像図。 車載用画像処理装置の処理のステップを示すフロー図。
以下、図面を参照して本発明の車載用画像処理装置の実施の形態を説明する。
図1(a)及び(b)は、車両100が周辺車両Vの間の駐車スペースに駐車する場面を想定した平面図である。図2は、車載用画像処理装置1及びその周辺装置の構成を示すブロック図である。
車両100には、車載用画像処理装置1と、車載カメラ2と、車載センサ3と、画像表示部4と、車両制御部5が搭載されている。本実施形態の車載用画像処理装置1は、車載カメラ2の画像を処理して周辺車両Vを含む車両100周辺の立体物の間の駐車可能領域PAを判定する装置である。以下、車両100に搭載される車載用画像処理装置1及びその他の装置の構成について詳細に説明する。
車載カメラ2は、レンズ及び撮像素子を介して撮影した映像をデジタル変換し、画像データを出力する撮像装置である。車載カメラ2としては、例えば、CCDカメラが用いられる。車載カメラ2は、通常、カメラモジュールとしてモジュール化され、例えば、車両100の側部のサイドミラーに設けられて、車両100の斜め前方から斜め後方までの車両100側方を広角で撮影する。なお、車載カメラ2を車両100の側部だけでなく前部及び後部にも設け、複数の車載カメラ2によって車両100の側方に加えて前方及び後方を撮影するようにしてもよい。
車載センサ3は、例えば、速度センサ、加速度センサ、角速度センサ、ジャイロスコープ、全地球測位システム(GPS)等を含み、車両100の速度、加速度、角速度、位置等を計測して計測データとして出力する。また、車載センサ3は、計測データとして、例えば、車両100の走行経路、移動距離等を出力することができる。
画像表示部4は、車両100のドライバーの運転の支障にならず、ドライバーに視認可能な位置に配置された画像表示装置である。画像表示部4としては、例えば、液晶表示装置、有機ELディスプレイ、ヘッドアップディスプレイ、その他、公知の画像表示装置を用いることができる。画像表示部4は、車載用画像処理装置1によって処理された画像を、車載用画像処理装置1の設定に基づいて表示する。
車両制御部5は、車載用画像処理装置1から出力される制御信号に基づいて車両を制御する。具体的には、車両制御部5は、車載用画像処理装置1からの制御信号に含まれる、例えば、車両100の現在位置と、駐車可能領域PAの車両100を駐車すべき位置との差分に基づいて、例えば、車両100のステアリング、ギア、アクセル、ブレーキ等を操作して、自動運転によって車両100を駐車可能領域PAに駐車する。
本実施形態の車載用画像処理装置1は、例えば、中央演算処理装置(CPU)と、CPUが直接アクセス可能な記憶装置と、該記憶装置に記憶されたプログラム等によって実現されている。車載用画像処理装置1は、主に、俯瞰画像生成部11としての画像変換部11aと、タイヤ認識部12と、立体物認識部13と、車体下領域認識部14と、駐車可能領域認識部16と、によって構成されている。また、本実施形態の車載用画像処理装置1は、さらに、俯瞰画像生成部11の一部としての画像取得部11bと、センサ出力取得部15と、画面設定部17と、制御信号生成部18とを備えている。
画像取得部11bは、CPUの制御の下、車両100に搭載された車載カメラ2から画像データを取得し、取得した画像データを記憶装置に格納する。同様に、センサ出力取得部15は、CPUの制御の下、車両100に搭載された車載センサ3から車両100の速度及び加速度を含む計測データを取得し、取得した計測データを記憶装置に格納する。また、センサ出力取得部15は、車載センサ3から取得した計測データから車両100の走行経路、総移動距離をCPUによって算出し、算出した走行経路、総移動距離を計測データとして記憶装置に格納するようにしてもよい。
画像変換部11aは、画像取得部11bが取得して記憶装置に記憶された車載カメラ2の画像データを視点変換して、車両100の上方に想定した仮想の視点から見下ろした車両100周辺の俯瞰画像を生成する。ここで、画像変換部11aは、CPUの制御の下、車載カメラ2の画像データから路面Rを認識し、画像データに対して路面Rを基準とする座標変換を行って車両100周辺の俯瞰画像を生成し、俯瞰画像データとして記憶装置に格納する。ここで、座標変換は、カメラパラメータを基に作成した座標変換テーブルを用いて行う。カメラパラメータは、焦点距離、画素ピッチ、レンズ歪、車両100における車載カメラ2の取り付け位置及び姿勢である。
画像変換部11aは、カメラパラメータを用いて車両100から所定の距離までの範囲の映像を変換し、俯瞰画像を生成することができる。車載カメラ2の画像から俯瞰画像を生成する技術は、車両周辺のモニタリングシステムとして実用化されている公知の技術であるため、ここでは詳細な処理方法についての説明を省略する。画像変換部11aが生成した俯瞰画像は、立体物認識部13及びタイヤ認識部12で用いられ、最終的に画像表示部4に表示させる画像の元になる。
以上のように、本実施形態の俯瞰画像生成部11は、画像取得部11bと画像変換部11aとを備え、車両100に搭載された車載カメラ2で撮影した周辺車両Vと路面Rの画像を視点変換して、路面Rを基準とする俯瞰画像を生成する。
立体物認識部13は、車載カメラ2がモノラルカメラである場合には、以下のデータに基づいて、周辺車両Vの車体及びタイヤを含む立体物が存在する領域を認識する。一つは、画像取得部11bが異なる時間に取得した複数の画像から画像変換部11aが生成した複数の俯瞰画像のデータである。もう一つは、画像取得部11bが前記複数の画像を取得する間にセンサ出力取得部15が取得した車載センサ3の計測データである。
立体物認識部13は、例えば、ある時間に撮影された第1の画像から生成した第1の俯瞰画像と、第1の画像の撮影から所定時間経過後に撮影された第2の画像から生成した第2の俯瞰画像とを取得する。このとき、立体物認識部13は、画像取得部11bが第1の画像及び第2の画像を取得した時刻であるタイムスタンプと、第1の俯瞰画像及び第2の俯瞰画像とを、それぞれ対応付けて記憶装置に格納する。
さらに、立体物認識部13は、車載センサ3から取得した例えば移動距離とヨー角の計測データに基づいて、第1の俯瞰画像を並行移動又は回転移動させ、その移動後の第1の俯瞰画像から第2の俯瞰画像を減算処理して差分画像を取得する。ここで、第1の俯瞰画像の路面パターンと第2の俯瞰画像の路面パターンが重なるように、第1の俯瞰画像を並行移動又は回転移動して減算処理を行うことで、路面Rでは差分が小さくなり、路面R以外の立体物が存在する領域では差分が大きくなる。立体物認識部13は、前記差分画像に対してラベリング処理を行い、ラベル画像を生成する。
ラベリング処理は、前記差分画像に含まれる各画素について、近傍点との濃淡差を計算し、その濃淡差の大きさが所定の範囲内であった場合に、同じ番号を各領域固有の番号として付与したラベル画像として出力する処理である。ラベリング処理で、前記差分画像の濃淡差が所定値よりも低い部分は、路面R又は不明領域として扱うが、自車近傍の不明領域は、路面Rとみなしてもよい。すなわち、前記ラベル画像は、車両100周辺の路面Rと、車両100周辺に駐車している周辺車両Vの車体を含む立体物が存在する領域とが認識された画像である。
なお、立体物認識部13によって周辺車両Vの車体を含む立体物を認識する画像処理は、俯瞰画像ではなく、画像取得部11bが取得した車載カメラ2の複数の画像を用いて行ってもよい。以上のように、立体物認識部13は、車載カメラ2の画像又は俯瞰画像から、周辺車両Vの車体を含む立体物を認識する。
タイヤ認識部12は、画像取得部11bが取得した車載カメラ2の画像、又は、画像変換部11aが生成した俯瞰画像に、周辺車両Vが撮影されている場合に、カメラ画像又は俯瞰画像に対して、例えば、周辺車両Vの車体のエッジを抽出する処理や、パターンマッチング等の画像処理を行う。このような画像処理によって、タイヤ認識部12は、周辺車両Vのタイヤを俯瞰画像上で直接認識し、又は、車載カメラ2の画像から周辺車両Vのタイヤを認識してタイヤの位置と領域を俯瞰画像上での位置と領域に変換し、俯瞰画像上でのタイヤの位置と領域を認識する。画像からタイヤを認識する技術は公知であるため、ここでは、これ以上の詳細な説明を省略する。以上のように、タイヤ認識部12は、車載カメラ2の画像又は俯瞰画像から周辺車両Vのタイヤを認識する。
図3は、図2に示す車体下領域認識部14のさらに詳細な構成を示すブロック図である。車体下領域認識部14は、接地位置算出部14aと、車体認識部14bと、地上高算出部14cと、車体下領域算出部14dと、を備えている。これにより、車体下領域認識部14は、周辺車両Vのタイヤの接地位置と、その接地位置から周辺車両Vの車体までの地上高とを算出し、その地上高に基づいて俯瞰画像で車体下方に位置する路面Rの領域である車体下領域を認識することができる。以下、車体下領域認識部14の各構成について詳細に説明する。
図4は、車体下領域認識部14の画像処理を説明する画像図である。図4(a)は、画像取得部11bが取得した車載カメラ2の画像の一例を示している。図4(b)から(e)は、画像変換部11aが生成した俯瞰画像に基づいて、車体下領域Rdを認識する手順を示している。図4(f)は、図4(e)に示す車体下領域Rdに対応する、車載カメラ2の画像内での車体下領域Rdを示している。
接地位置算出部14aは、図4(a)に示すカメラ画像から画像変換部11aが生成した図4(b)に示す俯瞰画像を用いて、タイヤVtの接地位置Tgを認識する。カメラ画像及び俯瞰画像には、それぞれ、周辺車両Vの車体VbとタイヤVtが含まれている。
まず、接地位置算出部14aは、立体物認識部13から俯瞰画像内で立体物が存在する領域を取得する。ここで、俯瞰画像上で立体物が存在する領域は、車体Vbが存在する領域とタイヤVtが存在する領域とを併せた領域として認識されている。また、接地位置算出部14aは、タイヤ認識部12から俯瞰画像上でのタイヤVtの位置と領域を取得する。
次に、接地位置算出部14aは、俯瞰画像上でのタイヤVtの位置及び領域に基づいて、タイヤVtの輪郭計算を行い、タイヤVtの接地位置Tgを認識する。より具体的には、接地位置算出部14aは、タイヤVt全体を含む領域を選択し、その領域に対して、例えば、エッジ抽出処理、輝度補正処理、円検知処理等を実行してタイヤVtの外周部分すなわち外周輪郭を認識する。そして、外周輪郭に対して、エッジ方向抽出処理を実行して接線方向を算出し、その接線方向すなわちエッジ方向が路面Rに対して平行か否かを判定する。外周輪郭のエッジ方向が路面Rに対して平行であった点のうち、画面下部に最も近い点をタイヤVtの接地位置Tgとして認識する。
図4(b)に示す例において、周辺車両VのタイヤVtの接地点又は接地位置Tgは、タイヤVtの外周輪郭上で車載カメラ2の位置Pcまでの距離が最短となる点又は位置である。すなわち、車載カメラ2の位置PcからタイヤVtの外周輪郭に交差する直線Lを引いたときに、外周輪郭と直線Lとの交点から車載カメラ2の位置Pcまでの距離が最短となる交点の位置が、タイヤVtの接地点又は接地位置Tgである。なお、接地位置算出部14aは、俯瞰画像ではなく、車載カメラ2の画像に基づいてタイヤVtの接地点又は接地位置Tgを算出してもよい。以上のように、接地位置算出部14aは、車載カメラ2の画像又は俯瞰画像上でのタイヤVtの位置及び領域に基づいて、タイヤVtの接地点又は接地位置Tgを算出する。
車体認識部14bは、立体物認識部13が認識した周辺車両Vの車体Vb及びタイヤVtを含む立体物から周辺車両Vの車体Vbを認識する。ここで、車体認識部14bは、タイヤ認識部12が認識したタイヤVtに隣接している立体物を車体Vbとして認識する。
例えば、立体物認識部13が生成したラベル画像の一つのラベルが、一つの立体物と1対1で対応付けられている場合に、車体認識部14bは、ラベル画像からタイヤVtの位置に対応するラベルを読み出す。そして、車体認識部14bは、タイヤVtの位置に対応するラベル番号と同一のラベルを付され、タイヤVtに隣接している立体物を車体Vbとして認識する。一方、立体物認識部13が生成したラベル画像のラベルと立体物とが1対1で対応付けられていない場合に、車体認識部14bは、立体物の路面Rに沿って延びる輪郭線Lp1,Lp2を認識する。そして、車体認識部14bは、路面Rに沿って延びる輪郭線Lp1,Lp2を有し、タイヤVtに隣接している立体物を車体Vbとして認識する。
図5は、立体物認識部13が認識した立体物から、車体認識部14bが車体Vbを認識する処理の一例を説明する画像図である。ここで、図5に示す立体物は、車載カメラ2に撮影された周辺車両Vであり、車体VbとタイヤVtとを含んでいる。車体認識部14bは、タイヤ認識部12によって認識されたタイヤVtの位置及び範囲を囲み、かつ路面Rよりも上方の領域を、例えば、前方領域A1、後方領域A2、及び上方領域A3の三つの領域に分割する。ここで、分割する領域の数は、特に限定されない。
車体認識部14bは、立体物認識部13によって認識した立体物の位置に基づいて、各領域における立体物の有無を判定する。また、車体認識部14bは、各領域A1,A2,A3において、画像取得部11bが取得した画像に対してエッジ抽出を行って輪郭を強調する。この輪郭情報を所定の方向に斜方投影し、得られた頻度ヒストグラムを参考にして、車体Vb全体を覆う外接矩形を算出する。
すなわち、車体認識部14bは、周辺車両Vの車体VbとタイヤVtの位置関係から車体Vbの位置を算出し、車体Vbの輪郭情報を任意の方向に斜方投影して、輪郭情報の頻度ヒストグラムを算出し、図4(c)及び(d)に示す車体Vb側面の下端の輪郭線Lp1とその延長線L1を算出する。同様に、車体認識部14bは、図4(d)に示す車体Vbの前部又は後部の下端の輪郭線Lp2とその延長線L2を算出する。以上のように、車体認識部14bは、立体物認識部13が認識した立体物から周辺車両Vの車体Vbを認識する。
地上高算出部14cは、接地位置算出部14aが算出したタイヤVtの接地位置Tgと、車体認識部14bが認識した車体Vbの位置とに基づいて、接地位置Tgから車体Vbまでの高さである周辺車両Vの地上高Vhを算出する。より具体的には、地上高算出部14cは、タイヤVtの接地位置Tgから、車体Vbの輪郭線Lp1の延長線L1までの距離を地上高Vhとして算出する。すなわち、地上高算出部14cは、路面Rに垂直な垂線を設定し、接地位置Tgと車体Vbの輪郭線Lp1の延長線L1との距離、又は、接地位置Tgと車体Vbの外接矩形の下辺との距離を、設定した垂線に沿って計測することで、地上高Vhを算出する。
例えば、地上高算出部14cは、図4(c)に示すように、車載カメラ2の位置Pc及びタイヤVtの接地位置Tgを通る直線Lと、車体Vb側面の下端の輪郭線Lp1の延長線L1との交点Px1を算出し、この交点Px1と接地点又は接地位置Tgとの距離を、周辺車両VのタイヤVtの接地位置Tgから車体Vbまでの地上高Vhとして算出する。以上のように、地上高算出部14cは、周辺車両VのタイヤVtの接地位置Tgから車体Vbまでの距離に基づいて、周辺車両Vの地上高Vhを算出する。
車体下領域算出部14dは、地上高算出部14cが算出した車体Vbの下端の輪郭線Lp1と地上高Vhとに基づいて、車体Vbの下方に位置する路面R上の領域である車体下領域Rdを算出する。車体下領域算出部14dは、図4(d)に示すように、車体認識部14bによって算出された車体Vb側面の下端の輪郭線Lp1の延長線L1と、車体Vb前部又は後部の下端の輪郭線Lp2の延長線L2との交点Px2を算出する。車体下領域算出部14dは、この交点Px2を、図4(c)及び(e)に示すように、路面Rに対する垂線すなわち車載カメラ2の位置及びタイヤVtの接地位置Tgを通る直線Lと平行に、地上高Vhと同じ距離だけ移動した点Px3を算出する。
さらに、車体下領域算出部14dは、交点Px2を移動した点Px3を基準として、車体下領域Rdを算出する。例えば、車体下領域算出部14dは、図4(d)及び(e)に示すように、車体Vb側面の下端の輪郭線Lp1の延長線L1と平行でかつ点Px3を通る直線L1aと、車体Vb前部又は後部の下端の輪郭線Lp2の延長線L2と平行でかつ点Px3を通る直線L2aとを算出する。そして、車体下領域算出部14dは、例えば、輪郭線Lp1,Lp2と直線L1a,L2aとの間の領域を、車体下領域Rdとして算出する。
また、車体下領域算出部14dは、俯瞰画像で算出した車体下領域Rd上の各点を、高さ0mの基準面である路面R又は地表面上に座標変換してもよい。これにより、図4(f)に示すように、画像取得部11bが取得した車載カメラ2の画像において、車体Vbの下方に位置する路面R上の領域を車体下領域Rdとして認識し、出力することができる。
以上のように、車体下領域認識部14は、接地位置算出部14aと、車体認識部14bと、車体下領域算出部14dと、地上高算出部14cと、を用い、タイヤVtの接地位置Tgと、その接地位置Tgから車体Vbの下端までの地上高Vhとを算出し、その地上高Vhに基づいて俯瞰画像で車体Vb下方に位置する路面Rの車体下領域Rdを認識する。
図2に示すように、駐車可能領域認識部16は、車体下領域認識部14によって認識した車体Vbが存在する領域と車体下領域Rdとを取得し、これらの領域を駐車不能領域NPAとして認識する。また、駐車可能領域認識部16は、タイヤ認識部12が認識したタイヤVtの位置及び範囲についても、駐車不能領域NPAとして認識する。そして、駐車可能領域認識部16は、駐車不能領域NPAに基づいて路面R上の駐車可能領域PAを認識する。
駐車可能領域認識部16は、例えば、周辺車両V以外の立体物が存在する領域、及び、駐車不能領域NPA以外の路面R上の領域を駐車可能領域PAとして認識する。なお、駐車可能領域認識部16は、例えば、周辺車両V以外の立体物が存在する領域、及び、駐車不能領域NPAを除いた路面R上の領域から駐車対象車両である車両100の大きさ等を考慮して駐車可能領域PAを認識するようにしてもよい。この場合、例えば、周辺車両Vの間の領域の大きさが車両100の大きさよりも大きい場合には、当該領域を駐車可能領域PAとして認識する。また、例えば、周辺車両Vの間の領域の大きさが車両100の大きさよりも小さい場合には、当該領域を駐車不能領域NPAとして認識する。
画面設定部17は、車両100に搭載された画像表示部4に駐車可能領域PAを表示させる画面設定を行う。例えば、画面設定部17は、駐車可能領域認識部16が認識した駐車可能領域PAを、画像変換部11aが生成した俯瞰画像上に表示する画面設定を行う。また、画面設定部17によって、画像取得部11bが取得した車載カメラ2の画像上に駐車可能領域PAを表示する画面設定を行うこともできる。
制御信号生成部18は、駐車可能領域PAを目標とする制御信号を生成して車両制御部5に対して出力する。より具体的には、制御信号生成部18は、例えば、車両100の現在位置と駐車可能領域PAの車両100の将来の駐車位置とを比較して位置の差分を算出し、その位置の差分に基づいて車両制御部5が車両100と周辺車両Vとの衝突を回避して車両100を移動させることができるように、制御信号を生成する。
以下、本実施形態の車載用画像処理装置1の作用について説明する。
図6は、車載用画像処理装置1の処理のステップS1〜S15を示すフロー図である。図1に示すように、車両100が周辺車両Vの間の駐車スペースPの側方に差し掛かると、例えば車両100のサイドミラーに設けられた車載カメラ2は、車両100の斜め前方から斜め後方までの路面Rと、路面R上の周辺車両Vの画像を撮影する(ステップS1)。また、車載センサ3は、例えば、車両100の速度、加速度、移動距離、ヨー角等を計測する(ステップS2)。画像取得部11bは、車載カメラ2が撮影した画像を画像データとして取得する(ステップS3)。センサ出力取得部15は、車載センサ3によって計測された計測データを取得する(ステップS4)。
画像変換部11aは、画像取得部11bから取得した画像データを視点変換して、路面Rを基準とする俯瞰画像を生成する(ステップS5)。このように、本実施形態の車載用画像処理装置1は、俯瞰画像生成部11として、画像取得部11bと画像変換部11aとを備えている。そのため、俯瞰画像生成部11は、画像取得部11bによって車載カメラ2から画像を取得し、画像変換部11aによって画像取得部11bが取得した複数の画像を視点変換することができる。これにより、俯瞰画像生成部11は、車両100に搭載された車載カメラ2で撮影した周辺車両Vと路面Rの画像を視点変換して路面Rを基準とする俯瞰画像を生成することができる。
立体物認識部13は、画像変換部11aから取得した複数の俯瞰画像と、センサ出力取得部15から取得した計測データに基づいて、差分画像を生成する(ステップS6)。さらに、立体物認識部13は、差分画像に基づいて、周辺車両Vの車体Vb及びタイヤVtを含む立体物の抽出を行う(ステップS7)。このように、本実施形態の車載用画像処理装置1は、立体物認識部13が、複数の画像の差分又は複数の俯瞰画像の差分を計算することで、立体物を認識することができる。また、車載用画像処理装置1がセンサ出力取得部15を備えることで、車両100の速度、加速度、移動距離、角速度等を計測する車載センサ3から計測データを取得することができる。
また、立体物認識部13は、車載カメラ2で異なる時間に撮影された第1の画像と第2の画像に基づいて前記画像変換部11aが生成した第1の俯瞰画像と第2の俯瞰画像を取得する。さらに、立体物認識部13は、センサ出力取得部15から取得した計測データに基づいて並行移動又は回転移動させた第1の俯瞰画像から第2の俯瞰画像を減算処理することで、立体物を認識する。したがって、本実施形態の車載用画像処理装置1によれば、車載カメラ2としてモノラルカメラを用いた場合でも、車載カメラ2の画像又は俯瞰画像から立体物を認識することができる。
立体物認識部13による立体物の認識の後、又はそれと並行して、タイヤ認識部12は、画像取得部11bが取得した車載カメラ2の画像、又は、画像変換部11aが視点変換した俯瞰画像から、周辺車両VのタイヤVtを検知して認識する(ステップS8)。
次に、車体下領域認識部14は、例えば、接地位置算出部14aによって、車載カメラ2の画像又は俯瞰画像上でのタイヤVtの位置及び領域に基づいて、タイヤVtの接地点又は接地位置Tgを算出する(ステップS9)。次に、車体下領域認識部14は、例えば、車体認識部14bによって、立体物認識部13が認識した周辺車両Vの車体Vb及びタイヤVtを含む立体物から車体Vbが存在する車体領域を検知し、周辺車両Vの車体Vbを認識する(ステップS10)。次に、車体下領域認識部14は、例えば、地上高算出部14cによって、接地位置算出部14aが算出したタイヤVtの接地位置Tgと、車体認識部14bが認識した車体Vbの位置とに基づいて、接地位置Tgからの車体高さである周辺車両Vの地上高Vhを算出する(ステップS11)。
次に、車体下領域認識部14は、例えば、車体下領域算出部14dによって、地上高算出部14cが算出した車体Vbの下端の輪郭線と地上高Vhとに基づいて、車体Vbの下方に位置する路面R上の領域である車体下領域Rdを算出する(ステップS12)。このように、本実施形態の車載用画像処理装置1は、タイヤVtの接地位置Tgと、該接地位置Tgから前記車体Vbまでの地上高Vhとを算出し、地上高Vhに基づいて俯瞰画像で車体Vb下方に位置する路面Rの車体下領域Rdを認識する車体下領域認識部14を備えている。したがって、俯瞰画像で車体Vb下方に位置する路面R上の領域を誤って駐車可能領域PAと判断することがない。
一方、車体下領域認識部14を備えない場合には、図4(e)に示すように、俯瞰画像において周辺車両Vの車体Vb下方に位置する路面R上の駐車不能領域NPAが、駐車可能領域PAと判定される。これは、周辺車両Vが路面Rから車体Vbまで所定の地上高Vhを有し、車載カメラ2の画像に周辺車両Vの真下に位置する路面Rが撮影され、そこには立体物である車体Vb及びタイヤVtが存在しないからである。すなわち、車体下領域認識部14を備えない場合には、路面Rを基準として車載カメラ2の画像を視点変換して俯瞰画像を生成すると、実際には車両100の駐車が不可能な周辺車両Vの真下の路面Rと、周辺車両Vの周囲の駐車可能な路面Rとが区別できない。そのため、周辺車両Vが存在する駐車不能領域NPAが実際よりも小さく判定され、駐車の際に車両100が周辺車両Vに衝突する可能性がある。
これに対し、本実施形態の車載用画像処理装置1は、タイヤVtの接地位置Tgと、該接地位置Tgから前記車体Vbまでの地上高Vhとを算出し、地上高Vhに基づいて俯瞰画像で車体Vb下方に位置する路面Rの車体下領域Rdを認識する車体下領域認識部14を備えている。したがって、本実施形態の車載用画像処理装置1によれば、車両100を駐車することができない周辺車両Vの真下の路面Rと、周辺車両Vの周囲の駐車可能な路面Rとを区別し、駐車可能領域PAを正確に判断することができ、仮に駐車枠線がない場所でも、目標駐車位置を適切に認識することができる。また、ナンバープレートの認識を必要としないので、例えば、ナンバープレートを装着する前の車両100を移動させて駐車する場合や、何らかの原因でナンバープレートを認識することができない場合でも、駐車可能領域PAを正確に判断することができる。
また、本実施形態の車載用画像処理装置1は、周辺車両VのタイヤVtを認識する手法を採用するため、周辺車両Vの大きさや、種類(例えば、小型自動車等の軽自動車、通常の乗用車、大型車等)によらずに適切に駐車可能領域PAを認識することができる。さらには、一部のバスやトラックのように、後輪が2つのタイヤになっている場合であっても、最も外側のタイヤを認識するため、内側のタイヤの存在に関わらず、適切に駐車可能領域PAを認識することができる。
なお、図1(a)に示すように、車両100を駐車可能領域PAに駐車する際に、車両100を進行方向と交差する方向に向けて駐車する並列駐車では、車両100の進行方向の前後に隣接する周辺車両V,Vの側面の間隔から、駐車スペースの幅を求め、駐車可能領域とすることができる。また、図1(b)に示すように、車両100を駐車可能領域PAに駐車する際に、車両100を進行方向に沿う方向に向けて駐車する縦列駐車では、車両100の進行方向の前後に隣接する周辺車両V,Vの背面と前面から駐車スペースの幅を求め、駐車可能領域PAとすることができる。
ここで、車体下領域認識部14は、接地位置算出部14aと、車体認識部14bと、地上高算出部14cと、車体下領域算出部14dと、を備えている。そのため、車体下領域認識部14は、接地位置算出部14aによって車載カメラ2の画像又は俯瞰画像に基づいて周辺車両VのタイヤVtの接地位置Tgを算出することができる。また、車体下領域認識部14は、車体認識部14bによって立体物から車体Vbを認識し、地上高算出部14cによって車体Vbの下端の輪郭線Lp1と地上高Vhとに基づいて車体下領域Rdを算出することができる。そして、車体下領域認識部14は、車体下領域算出部14dによって、車体Vbの下端の輪郭線Lp1,Lp2と地上高Vhとに基づいて車体下領域Rdを算出することができる。また、車体認識部14bが、タイヤ認識部12が認識したタイヤVtに隣接している立体物を車体Vbとして認識することで、立体物から周辺車両Vの車体Vbを抽出して認識することができる。
以上のように、車体下領域認識部14が車体下領域Rdを判定した後、駐車可能領域認識部16は、周辺車両Vの車体Vbが存在する領域と、車体下領域Rdとを、駐車不能領域NPAとして認識し、駐車不能領域NPAに基づいて路面R上の駐車可能領域PAを認識する(ステップS13)。このように、周辺車両Vの車体Vbが存在する領域と車体下領域Rdとを駐車不能領域NPAとして認識する駐車可能領域認識部16を備えることで、駐車不能領域NPAが実際よりも小さく認識されることがなく、駐車の際に車両100が周辺車両Vに衝突することを防止できる。
さらに、画面設定部17は、車両100に搭載された画像表示部4に駐車可能領域PAを表示させる画面設定を行う(ステップS14)。これにより、画像表示部4に車載カメラ2の画像又は俯瞰画像と共に駐車可能領域PAを表示することが可能になる。最後に、画像表示部4は、画面設定部17の設定に基づいて、画面に車載カメラ2の画像又は俯瞰画像と共に駐車可能領域PAを表示する(ステップS15)。これにより、車両100のドライバーの駐車を支援し、又は、駐車可能領域PAに基づいて制御信号生成部18が制御信号を生成し、車両制御部5によって車両100を制御することで、車両100を自動駐車させることが可能になる。
以上説明したように、本実施形態の車載用画像処理装置1によれば、ナンバープレートの認識を前提とすることなく、駐車枠線がない場所でも、車載カメラ2の画像を処理して駐車可能領域PAを正確に判断することができる。
以上、図面を用いて本発明の実施の形態を詳述してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲における設計変更等があっても、それらは本発明に含まれるものである。
例えば、前述の実施の形態では、車載用画像処理装置、車載カメラ、車載センサ及び画像表示部とは、別の構成として説明した。しかし、画像処理装置、車載カメラ、車載センサ及び画像表示部の少なくとも一つを画像処理装置の構成に含めてもよい。また、前述の実施の形態では、車載カメラがモノカメラである場合について説明したが、車載カメラはステレオカメラであってもよい。この場合、立体物認識部は、ステレオカメラによって同時に撮影された2つの画像に基づいて、立体物が存在する領域を認識することができる。
1 車載用画像処理装置、2 車載カメラ、3 車載センサ、4 画像表示部、11 俯瞰画像生成部、11a 画像変換部、11b 画像取得部、12 タイヤ認識部、13 立体物認識部、14 車体下領域認識部、14a 接地位置算出部、14b 車体認識部、14c 地上高算出部、14d 車体下領域算出部、15 センサ出力取得部、16 駐車可能領域認識部、17 画面設定部、100 車両、NPA 駐車不能領域、PA 駐車可能領域、R 路面、Rd 車体下領域、Tg 接地位置、V 周辺車両、Vb 車体(立体物)、Vh 地上高、Vt タイヤ

Claims (7)

  1. 車両周辺の駐車可能な領域を認識するための車載用画像処理装置であって、
    前記車両に搭載されたカメラで撮影した周辺車両と路面の画像を視点変換して該路面を基準とする俯瞰画像を生成する俯瞰画像生成部と、
    前記画像又は前記俯瞰画像から前記周辺車両のタイヤを認識するタイヤ認識部と、
    前記画像又は前記俯瞰画像から前記周辺車両の車体を含む立体物を認識する立体物認識部と、
    前記タイヤの接地位置と、該接地位置から前記車体までの地上高とを算出し、該地上高に基づいて前記俯瞰画像で前記車体下方に位置する前記路面の車体下領域を認識する車体下領域認識部と、
    前記車体が存在する領域と前記車体下領域とを駐車不能領域として認識し、該駐車不能領域に基づいて前記路面上の駐車可能領域を認識する駐車可能領域認識部と、
    を備えることを特徴とする車載用画像処理装置。
  2. 前記車体下領域認識部は、
    前記画像又は前記俯瞰画像に基づいて前記接地位置を算出する接地位置算出部と、
    前記立体物から前記車体を認識する車体認識部と、
    前記接地位置から前記車体までの距離に基づいて前記地上高を算出する地上高算出部と、
    前記車体の輪郭線と前記地上高とに基づいて前記車体下領域を算出する車体下領域算出部と、
    を備えることを特徴とする請求項1に記載の車載用画像処理装置。
  3. 前記車体認識部は、前記タイヤ認識部が認識した前記タイヤに隣接している前記立体物を前記車体として認識することを特徴とする請求項2に記載の車載用画像処理装置。
  4. 前記車両に搭載された画像表示部に前記駐車可能領域を表示させる画面設定を行う画面設定部をさらに備えることを特徴とする請求項1に記載の車載用画像処理装置。
  5. 前記俯瞰画像生成部は、
    前記カメラから画像を取得する画像取得部と、
    前記画像取得部が取得した複数の前記画像を視点変換する画像変換部と、
    を備えることを特徴とする請求項1から請求項4のいずれか一項に記載の車載用画像処理装置。
  6. 前記立体物認識部は、複数の前記画像の差分又は複数の前記俯瞰画像の差分から前記立体物を認識することを特徴とする請求項1から請求項4のいずれか一項に記載の車載用画像処理装置。
  7. 前記車両の速度及び角速度を計測する車載センサから計測データを取得するセンサ出力取得部をさらに備え、
    前記立体物認識部は、前記カメラで異なる時間に撮影された第1の画像と第2の画像に基づいて前記俯瞰画像生成部が生成した第1の俯瞰画像と第2の俯瞰画像を取得すると共に、前記センサ出力取得部から取得した前記計測データに基づいて並行移動又は回転移動させた前記第1の俯瞰画像から前記第2の俯瞰画像を減算処理することで、前記立体物を認識することを特徴とする請求項6に記載の車載用画像処理装置。
JP2014199017A 2014-09-29 2014-09-29 車載用画像処理装置 Expired - Fee Related JP6316161B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014199017A JP6316161B2 (ja) 2014-09-29 2014-09-29 車載用画像処理装置
US15/500,120 US9953227B2 (en) 2014-09-29 2015-06-16 In-vehicle image processing device
PCT/JP2015/067250 WO2016051885A1 (ja) 2014-09-29 2015-06-16 車載用画像処理装置
EP15847777.8A EP3202626A4 (en) 2014-09-29 2015-06-16 In-vehicle image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014199017A JP6316161B2 (ja) 2014-09-29 2014-09-29 車載用画像処理装置

Publications (2)

Publication Number Publication Date
JP2016068712A JP2016068712A (ja) 2016-05-09
JP6316161B2 true JP6316161B2 (ja) 2018-04-25

Family

ID=55629938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014199017A Expired - Fee Related JP6316161B2 (ja) 2014-09-29 2014-09-29 車載用画像処理装置

Country Status (4)

Country Link
US (1) US9953227B2 (ja)
EP (1) EP3202626A4 (ja)
JP (1) JP6316161B2 (ja)
WO (1) WO2016051885A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015112289A1 (de) * 2015-07-28 2017-02-02 Valeo Schalter Und Sensoren Gmbh Verfahren zum Identifizieren eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
JP6838340B2 (ja) * 2016-09-30 2021-03-03 アイシン精機株式会社 周辺監視装置
US10684625B2 (en) * 2017-08-30 2020-06-16 Robert Bosch Gmbh Automated parking for virtual parking spot
US10647282B2 (en) * 2017-11-06 2020-05-12 Magna Electronics Inc. Vehicle vision system with undercarriage cameras
US10380440B1 (en) * 2018-10-23 2019-08-13 Capital One Services, Llc Method for determining correct scanning distance using augmented reality and machine learning models
KR102164702B1 (ko) * 2019-04-26 2020-10-14 주식회사 켐트로닉스 자동 주차 장치 및 자동 주차 방법
KR102621257B1 (ko) * 2019-06-03 2024-01-08 현대자동차주식회사 차량 및 그 제어방법
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
KR20220026154A (ko) * 2020-08-25 2022-03-04 현대자동차주식회사 차량 및 그 제어방법
JP2022053086A (ja) * 2020-09-24 2022-04-05 トヨタ自動車株式会社 自己位置推定システム及び自己位置推定方法
JP7511992B2 (ja) 2020-12-25 2024-07-08 アルプスアルパイン株式会社 車両支援装置
CN112912895B (zh) * 2021-01-29 2022-07-22 华为技术有限公司 一种检测方法、装置和车辆

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020033816A (ko) * 2000-07-19 2002-05-07 마츠시타 덴끼 산교 가부시키가이샤 감시시스템
US7145519B2 (en) * 2002-04-18 2006-12-05 Nissan Motor Co., Ltd. Image display apparatus, method, and program for automotive vehicle
JP4561456B2 (ja) * 2005-04-21 2010-10-13 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
JP2007030700A (ja) * 2005-07-27 2007-02-08 Aisin Seiki Co Ltd 駐車支援装置
JP4815993B2 (ja) * 2005-10-19 2011-11-16 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
JP4432930B2 (ja) * 2006-04-25 2010-03-17 トヨタ自動車株式会社 駐車支援装置及び駐車支援方法
JP5132249B2 (ja) * 2007-10-23 2013-01-30 アルパイン株式会社 車載用撮像装置
JP2010019752A (ja) 2008-07-11 2010-01-28 Honda Motor Co Ltd 車両の車幅を推定するための装置
JP5500369B2 (ja) * 2009-08-03 2014-05-21 アイシン精機株式会社 車両周辺画像生成装置
KR101283792B1 (ko) * 2009-11-17 2013-07-08 주식회사 만도 주차공간 인식 방법 및 장치
JP2012017021A (ja) * 2010-07-08 2012-01-26 Panasonic Corp 駐車支援装置および車両
CN103148183B (zh) * 2011-12-07 2017-10-24 舍弗勒技术股份两合公司 用于连续牵引机构的板簧张紧器
JP5786775B2 (ja) * 2012-03-16 2015-09-30 株式会社デンソー 駐車支援装置
US8698896B2 (en) * 2012-08-06 2014-04-15 Cloudparc, Inc. Controlling vehicle use of parking spaces and parking violations within the parking spaces using multiple cameras
JP2015064797A (ja) * 2013-09-25 2015-04-09 日産自動車株式会社 駐車場判定装置、駐車場判定方法

Also Published As

Publication number Publication date
WO2016051885A1 (ja) 2016-04-07
US9953227B2 (en) 2018-04-24
US20170270370A1 (en) 2017-09-21
EP3202626A4 (en) 2018-05-16
JP2016068712A (ja) 2016-05-09
EP3202626A1 (en) 2017-08-09

Similar Documents

Publication Publication Date Title
JP6316161B2 (ja) 車載用画像処理装置
US10147323B2 (en) Driver assistance system with path clearance determination
US8289189B2 (en) Camera system for use in vehicle parking
JP4847051B2 (ja) 車両周囲監視方法およびシステム
JP5172314B2 (ja) ステレオカメラ装置
JP2013232091A (ja) 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
JP2009205191A (ja) 駐車スペース認識装置
JP5516988B2 (ja) 駐車支援装置
JP2017220760A (ja) 車両用画像処理装置
JP6554866B2 (ja) 画像表示制御装置
CN111936364B (zh) 停车辅助装置
JP6493000B2 (ja) 路面標示検出装置及び路面標示検出方法
JP7147784B2 (ja) 画像処理装置と画像処理方法およびプログラム
US10864856B2 (en) Mobile body surroundings display method and mobile body surroundings display apparatus
JP5832850B2 (ja) 車線監視システム及び車線監視方法
JP2011003117A (ja) 後方視認支援システム
JP4768499B2 (ja) 車載周辺他車検出装置
JP2012156903A (ja) 車両周辺監視装置
JP2010148058A (ja) 運転支援装置及び運転支援方法
JP2005030968A (ja) 車載用距離算出装置
JP7554699B2 (ja) 画像処理装置および画像処理方法、車両用制御装置、プログラム
JP7511992B2 (ja) 車両支援装置
KR20200014366A (ko) 주차 지원 방법 및 주차 지원 장치
JP5182589B2 (ja) 障害物検出装置
WO2015045567A1 (ja) 予測進路提示装置及び予測進路提示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180327

R150 Certificate of patent or registration of utility model

Ref document number: 6316161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees