JP7499606B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP7499606B2
JP7499606B2 JP2020084007A JP2020084007A JP7499606B2 JP 7499606 B2 JP7499606 B2 JP 7499606B2 JP 2020084007 A JP2020084007 A JP 2020084007A JP 2020084007 A JP2020084007 A JP 2020084007A JP 7499606 B2 JP7499606 B2 JP 7499606B2
Authority
JP
Japan
Prior art keywords
parking
parking space
edge
line
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020084007A
Other languages
English (en)
Other versions
JP2021180382A (ja
Inventor
貴之 金子
陽亮 羽下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2020084007A priority Critical patent/JP7499606B2/ja
Priority to CN202110513120.1A priority patent/CN113657141A/zh
Priority to US17/318,183 priority patent/US11967158B2/en
Priority to EP21173482.7A priority patent/EP3910542A1/en
Publication of JP2021180382A publication Critical patent/JP2021180382A/ja
Application granted granted Critical
Publication of JP7499606B2 publication Critical patent/JP7499606B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両の周囲を撮像する撮像装置から出力される画像信号に基づいて、駐車枠を推定する画像処理装置及び画像処理方法に関するものである。
車両を所定の駐車区画に駐車する際に、駐車目標とする駐車枠を自動的に検出して、車両の駐車支援を行う駐車支援装置が実用化されている(例えば、特許文献1参照)。この特許文献1に開示の技術では、撮像部で撮像された撮像画像等に基づいて駐車枠を検出し、検出した駐車枠の形状等の特性に応じた駐車支援を実行可能としている。
特開2017-21747号公報
ところで、駐車枠には、誰でも駐車可能な一般的な駐車枠のほかに、車両の立ち入りや駐停車を禁止する駐停車禁止領域、車椅子使用者等が優先して使用する優先駐車枠、電気自動車が充電するための電気自動車用駐車枠等、様々な種類がある。このため、このような駐車枠の種類(属性)に対応した適切な駐車支援が行われることが望まれている。しかしながら、従来技術では、このような駐車枠の属性等を考慮して駐車枠を検出することは開示がなかった。
そこで、本発明は、駐車枠の属性に応じて、駐車枠を適切に検出することが可能な画像処理装置及び画像処理方法を提供することを目的としている。
前記目的を達成するために、本発明の画像処理装置は、車両の周囲を撮像する撮像装置が取得した画像信号に基づく画像を用いて区画線を検出する区画線検出部と、検出した前記区画線を用いて駐車枠を検出する駐車枠検出部と、前記駐車枠を構成する前記区画線の向かい合う一対の辺のそれぞれについて、所定の割合で分割する分割点を取得し、取得した前記分割点を通るように前記画像を走査してエッジを検出する駐車枠内走査部と、エッジの状態と、駐車枠の属性とが対応して記憶されている記憶部と、検出した前記エッジの状態と、前記記憶部に記憶されている前記エッジの状態に対応した前記駐車枠の属性と、を用いて、前記駐車枠の属性を判定する判定部と、を備えたことを特徴とする。
このように構成された本発明の画像処理装置では、駐車枠検出部が検出した駐車枠内を、駐車枠内走査部が走査してエッジを検出する。検出したエッジの状態と、記憶部に記憶されているエッジの状態に対応した駐車枠の属性と、を用いて、判定部が駐車枠の属性を判定する。したがって、駐車枠の属性に応じて、駐車枠を適切に検出することが可能となる。
本発明の実施の形態である画像処理装置が適用される駐車支援装置の概略構成を示すブロック図である。 実施の形態である駐車支援装置の撮像装置の配置位置の一例を示す図である。 実施の形態である画像処理装置の概略構成を示す機能ブロック図である。 実施の形態である画像処理装置の動作の一例を説明するためのフローチャートである。 実施の形態である画像処理装置の動作の一例を説明するための図であり、車両と、駐車場の路面上に描かれた区画線及び駐車禁止マーカーの一例を示す。 実施の形態である画像処理装置の動作の一例を説明するための図であり、俯瞰画像に、検出されたエッジの線分を模式的に示した図である。 実施の形態である画像処理装置の動作の一例を説明するための図であり、俯瞰画像に、検出された駐車枠を模式的に示した図である。 実施の形態である画像処理装置の動作の一例を説明するための図であり、俯瞰画像に、駐車枠アイコンと駐車禁止アイコンと重畳した状態を模式的に示した図である。 実施の形態である画像処理装置の動作の一例を説明するための図であり、(a)~(c)はそれぞれ第1~第3駐車禁止マーカーの具体例を示す図である。 実施の形態である画像処理装置の動作の一例を説明するための図であり、駐車枠走査部による駐車枠の走査手順を説明するための図である。 実施の形態である画像処理装置の動作の一例を説明するための図であり、判定部による駐車禁止マーカーの判定手順を説明するための図である。 実施の形態である画像処理装置の動作の一例を説明するための図であり、パラメータデータのデータ構造を説明するための説明図である。 属性及び状態の異なる駐車枠が設けられた駐車場の例であり、(a)は縦列駐車用であって優先駐車枠が設けられた駐車場の一例を示し、(b)は縦列駐車用であって電気自動車用駐車枠が設けられた駐車場の一例を示し、(c)は並列駐車用であって駐車禁止領域、優先駐車枠が設けられた駐車場の一例を示し、(d)は並列かつ斜め駐車用であって駐車禁止領域、優先駐車枠が設けられた駐車場の一例を示す。
(駐車支援装置の概略構成)
以下、この発明の実施の形態を図面に基づいて説明する。図1は、本発明の実施の形態である画像処理装置が適用される駐車支援装置の概略構成を示すブロック図である。図2は駐車支援装置の撮像装置の配置位置の一例を示す図である。
図1に示すように、駐車支援装置1は、車両V(図2参照)に搭載され、駐車支援動作を行う。具体的には、駐車支援装置1は、この車両Vが駐車可能な駐車枠を認識する。そして、駐車支援装置1は、認識した駐車枠に車両Vを駐車させるようにこの車両Vを制御する。
車両Vの前後左右には、図2に示すように複数の小型カメラ(撮像装置)が備えられている。具体的には、車両Vのフロントバンパまたはフロントグリルには、車両Vの前方に向けて前方カメラ20aが装着されている。車両Vのリアバンパまたはリアガーニッシュには、車両Vの後方に向けて後方カメラ20bが装着されている。車両Vの左ドアミラーには、車両Vの左側方に向けて左側方カメラ20cが装着されている。車両Vの右ドアミラーには、車両Vの右側方に向けて右側方カメラ20dが装着されている。
前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dには、それぞれ、広範囲を観測可能な広角レンズや魚眼レンズが装着されており、4台のカメラ20a~20dで車両Vの周囲の路面を含む領域を漏れなく観測できるようになっている。これらカメラ20a~20dにより、車両Vの周囲の状況(本実施の形態では、車両Vの周囲の路面R)を撮像する撮像装置が構成されている。なお、以下の説明において、個々のカメラ(撮像装置)20a~20dを区別せずに説明する場合は単にカメラ20として説明する。
図1に戻って、駐車支援装置1は、前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dと、カメラECU21と、ナビゲーション装置30と、車輪速センサ32と、操舵角センサ33とを有する。
カメラECU21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成されたマイコンを主体として構成される。カメラECU21は、カメラ20を制御するとともに、カメラ20が検知した情報を用いて、俯瞰画像の生成処理や、駐車枠を検出する検出処理や、検出した駐車枠の属性を判定したり、検出した駐車枠に車両Vを駐車できるか否かを判定したりする判定処理等を行う。
ナビゲーション装置(表示装置)30は画像表示機能を有するモニター31を有する。ナビゲーション装置30は、経路案内用の地図データ等が格納された記憶部を有する。ナビゲーション装置30は、この地図データ等及び図略のGPS装置等により検出された車両Vの現在位置に基づいて、ナビゲーション装置30の操作者が設定した目標地点までの経路案内を行う。経路案内動作中の各種画像はモニター31に表示される。
車輪速センサ32は、車両Vの車輪速を検知するセンサである。車輪速センサ32で検知された検知情報(車輪速)は、車両制御ECU40に入力される。
操舵角センサ33は、車両Vのステアリングの操舵角を検知する。車両Vが直進状態で走行するときの操舵角を中立位置(0度)とし、その中立位置からの回転角度を操舵角として出力する。操舵角センサ33で検知された検知情報(操舵角)は、車両制御ECU40に入力される。
さらに、駐車支援装置1は、車両制御ECU40と、ステアリング制御ユニット50と、スロットル制御ユニット60と、ブレーキ制御ユニット70とを有する。
車両制御ECU40は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成されたマイコンを主体として構成される。車両制御ECU40は、カメラECU21、車輪速センサ32及び操舵角センサ33から入力された各検知情報に基づいて、車両Vの駐車を支援する各種処理を実行する。
すなわち、例えば図略の自動駐車開始スイッチを運転手がオン操作して駐車支援装置1を作動させると、車両制御ECU40は、カメラECU21が駐車可と判定した駐車枠、又はカメラECU21が検出した駐車枠及びその属性に基づいて車両制御ECU40が駐車可能と判定した駐車枠に、車両Vを自動で駐車させる自動駐車処理を実行する。
ステアリング制御ユニット50は、車両制御ECU40で決定した車両制御情報に基づいて、パワーステアリングアクチュエータ51を駆動して、車両Vの操舵角を制御する。
スロットル制御ユニット60は、車両制御ECU40で決定した車両制御情報に基づいて、スロットルアクチュエータ61を駆動して、車両Vのスロットルを制御する。
ブレーキ制御ユニット70は、車両制御ECU40で決定した車両制御情報に基づいて、ブレーキアクチュエータ71を駆動して、車両Vのブレーキを制御する。
なお、カメラECU21、車輪速センサ32及び操舵角センサ33と、車両制御ECU40との間は、車内LAN(Local Area Network)であるセンサ情報CAN(Controller Area Network)80によって接続される(「CAN」は登録商標)。
また、ステアリング制御ユニット50、スロットル制御ユニット60及びブレーキ制御ユニット70と、車両制御ECU40との間は、車内LANである車両情報CAN81によって接続される。
以上の構成を有する駐車支援装置1において、本実施の形態の画像処理装置100は、カメラECU21を含んでいる。
(画像処理装置の機能構成)
図3は、本実施の形態である画像処理装置100の概略構成を示す機能ブロック図である。本実施の形態である画像処理装置100は、制御部110及び記憶部120を有する。制御部110は、カメラECU21のCPUから主に構成されており、記憶部120は、カメラECU21のROM、RAM、フラッシュメモリ等から主に構成されている。
制御部110は、画像処理装置100全体の制御を行う。加えて、制御部110は、後述する駐車枠検出部113により検出された駐車枠や、駐車枠内走査部114及び判定部115により検出された駐車枠の属性に基づいて、車両Vを駐車可と判定した駐車枠にこの車両Vを自動で駐車させる自動駐車処理を車両制御ECU40に実行させるために、自動駐車処理に必要な情報(駐車スペース、駐車枠の位置情報、属性、形状等)をこの車両制御ECU40に送出する。
車両制御ECU40は、制御部110から提供された情報に基づいて、さらに、車輪速センサ32及び操舵角センサ33(図3ではセンサとのみ図示している)が検知した検知情報に基づいて、パワーステアリングアクチュエータ51、スロットルアクチュエータ61及びブレーキアクチュエータ71(図3ではアクチュエータとのみ図示している)を駆動制御する。
制御部110はCPU、FPGAなどのプログラマブルロジックデバイス、ASIC等の集積回路に代表される演算素子を有する。
記憶部120には、駐車枠登録データ121、パラメータデータ122、条件データ123が格納(記憶)される。駐車枠登録データ121は、検出した駐車枠の位置情報、属性、その他の情報である。パラメータデータ122は、画像処理装置100が使用する各種パラメータである。条件データ123は、エッジの状態を判定するための条件に関する情報であり、エッジの状態と、駐車枠の属性とを対応させた情報である。
パラメータデータ122は、図11に示すように、探索パラメータテーブル122aと、状態判定パラメータテーブル122bに格納されたデータを含んでいる。探索パラメータテーブル122aには、駐車枠内の走査時に用いるパラメータt1~t3が予め格納されている。t1はエッジの検出時の輝度差の閾値であり、t2はプラスエッジとマイナスエッジで構成される線幅の最小値であり、t3は線幅の最大値である。
状態判定パラメータテーブル122bには、エッジの状態に基づく駐車枠の属性判定時に用いるパラメータs1~s6が予め格納されている。s1は第1の駐車禁止マーカーの線幅差の許容範囲であり、s2は第1の駐車区禁止マーカーの探索ライン上で検出される線の本数であり、s3は第2の駐車禁止マーカーの探索ライン上で検出される線の本数であり、s4は第2、第3の駐車禁止マーカーの探索ライン上で検出される線の本数である。s5は第1の駐車禁止マーカーの線間隔の最小値であり、s6は第2、第3の駐車禁止マーカーの線間隔差の許容範囲である。これらのパラメータs1~s6は、本実施の形態では、縦列駐車用の駐車枠に適した数値が格納されているが、駐車枠の駐車形態に応じて、適宜の数値を設定できる。例えば、駐車形態が、並列駐車や斜め駐車である場合は、並列駐車枠、斜め駐車枠に描かれるマーカーのエッジの状態に適した数値を格納できる。また、これら複数の駐車形態ごとに、パラメータs1~s6を格納しておくこともできる。
上記以外にも、記憶部120にはパラメータデータ122として、区画線のエッジの走査時に用いる輝度又は色のパラメータの閾値、区画線の基準長さ、駐車スペース幅及びその閾値等を変更可能に格納してもよい。さらに、区画線の幅、延在方向の角度等、画像処理装置100が使用する様々なパラメータを変更可能に格納してもよい。また、駐車支援装置1が使用される国、地域、駐車スペース(駐車枠)の形状や大きさ等に対応して、複数のパラメータを格納し、適切なパラメータを選択する構成とすることもできる。
条件データ123は、図11に示すように、条件データテーブル123aに格納されたデータを含んでいる。条件データテーブル123aには、複数の条件(線幅差ΔL、線の本数N、線間隔差ΔW等)に関する条件式が、マーカーの種類別に設定されている。なお、これらの条件式は、条件データ123として記憶部120に記憶することなく、プログラムに組み込んでもよい。図11の例では、条件データテーブル123aに第1の駐車禁止マーカー、第2の駐車禁止マーカー、第3の駐車禁止マーカーの条件式が設定されているが、これらに限定されることはない。他のマーカー(例えば、優先駐車マーカー、充電器案内マーカー等)の条件式を格納しておくこともできる。条件式に用いられるパラメータは、パラメータデータ122の状態判定パラメータテーブル122bの各パラメータs1~s6が用いられる。よって、条件データテーブル123aの条件式を変更することなく、駐車枠の状態に応じて状態判定パラメータテーブル122bを適宜変更するだけで、本実施の形態の画像処理装置100を、何れのマーカーが描かれ、かつ、何れの駐車形態の駐車枠及びその属性の検出にも適用できる。
また、記憶部120には図略の制御用プログラムが格納されている。この制御用プログラムが画像処理装置100の起動時に制御部110により実行されて、画像処理装置100は図3に示すような機能構成を備えたものとなる。特に、本実施の形態の画像処理装置100は、後述するように高速の画像処理を行うので、高速演算可能な演算素子、例えばFPGAなどを有することが好ましい。
この図3に示すように、制御部110は、エッジ検出部111、区画線検出部112、駐車枠検出部113、駐車枠内走査部114、判定部115、駐車枠登録部116及び表示制御部117を有する。
エッジ検出部111は、車両Vの周囲の路面Rを撮像するカメラ20から出力される画像信号に基づいて、エッジ検出により駐車場P等の路面R上に描かれた区画線200のエッジを検出する。ここでいう区画線200とは、主に路面R上に設けられた駐車領域を区画する境界線(直線)として描かれた線のことである。図5に、車両Vと、この車両Vが駐車を行おうとしている駐車場Pの路面R上に描かれた区画線200の一例を示す。区画線200の間が、駐車スペースを表す駐車枠201である。図5の例では、区画線200は、縦列駐車用の駐車枠201を示す線である。また、図5には、駐車禁止領域であることを示す第1の駐車禁止マーカー300も描かれている。
また、図6は、カメラ20で撮影された画像信号を合成して生成された俯瞰画像Gと、この俯瞰画像Gから検出されたエッジを模式的に示した図である。図6に示される俯瞰画像Gは、カメラ20a~20dで撮影された画像信号に基づいて、それぞれ車両Vを真上から見下ろした俯瞰画像g1,g2,g3,g4に変換して、さらに各俯瞰画像g1~g4を合成して生成された画像である。俯瞰画像Gの中心部分には、車両Vを真上から見下ろした状態を示すアイコンIが表示される。
区画線200は、一般的には白線で示されるが、白線以外の、例えば黄色線等、白以外の色の線で描かれている場合もある。このため、エッジ検出部111によってエッジが検出される区画線200は、「白線」に限定されるものではなく、一般に、路面Rとの間にコントラストを有する境界線を、区画線200として検出すればよい。
エッジ検出部111は、画像を所定方向に走査(スキャン)して、画像信号に含まれる輝度値又は色のパラメータ情報(例えば、RGB、RGBA等)が、閾値よりも大きく変化する画素を検出し、検出した画素の並びが所定以上の長さとなっている部分をエッジとして検出する。ここでいう走査とは、所定方向に向かって1つずつ画素を選択し、隣り合った画素間で、輝度又は色のパラメータを比較していくことをいう。検出したエッジは、輝度又は色のパラメータの変化の方向(傾向)に応じて、プラスエッジ又はマイナスエッジとする。
なお、走査の方向は、路面Rに描かれた区画線200に直交する方向に設定するのが望ましい。すなわち、図5に示すように、区画線200が車両Vの進行方向(図5の矢印参照)と直交する方向に延在しているときには、俯瞰画像G(図6参照)上で車両Vの進行方向に沿って走査するのが望ましい。これに対して、区画線200が車両Vの進行方向に沿って延在しているときは、俯瞰画像G上で進行方向と直交する方向に走査するのが望ましい。一般には、区画線200が延びている方向は未知であるため、エッジ検出部111は、俯瞰画像G上で車両Vの進行方向及びこれに直交する方向にそれぞれ沿って、2回に分けて走査することが望ましい。
輝度値に基づいてエッジを抽出する場合は、エッジ検出部111は、輝度が低く暗い画素(例えば黒い画素)から、閾値よりも大きな差を持って輝度が高く明るい画素(例えば白い画素)に変化するエッジ、つまり隣り合った画素の輝度差がプラス方向に所定値よりも大きくなるエッジを、プラスエッジ(「立上りエッジ」ともいう)として検出する。このプラスエッジの検出は、走査位置が路面Rの像から区画線200の像と推定されるものに切替わったことを示す。
また、エッジ検出部111は、輝度が高く明るい画素から、閾値よりも大きな差を持って輝度が低く暗い画素に変化したエッジ、つまり隣り合った画素の輝度差がマイナス方向に所定値よりも大きくなるエッジを、マイナスエッジ(「立下がりエッジ」ともいう)として検出する。このマイナスエッジの検出は、走査位置が区画線200の像と推定されるものから路面Rの像に切替わったことを示す。
これに対して、色のパラメータに基づいてエッジを抽出する場合は、路面Rの像の色のパラメータと、区画線200の像の色のパラメータとを比較する。エッジ検出部111は、色のパラメータの値が大きくなる方向に変化(マイナス方向に変化)した画素の並びをマイナスエッジとして検出し、色のパラメータの値が小さくなる方向に変化(プラス方向に変化)した画素の並びをプラスエッジとして検出する。また、路面Rの画像よりも区画線200の画像の輝度が低い(或いは色のパラメータが大きい)場合は、輝度値や色のパラメータの変化は逆転する。いずれの場合でも区画線200の像では、その両側縁にプラスエッジとマイナスエッジが検出されるため、後述のペアの抽出が可能である。
上記走査を複数ライン(行)分繰り返すことで、走査方向と交差する方向に連続するプラスエッジで構成される線分(画素列)を、プラスエッジの線分として抽出する。さらに連続するマイナスエッジで構成される線分(画素列)を、マイナスエッジの線分として抽出する。
図6の例では、俯瞰画像Gにおける車両Vの走行方向に沿う方向であって区画線200の延在方向に直交する方向(図6の紙面上下方向)をX軸とし、区画線200の延在方向(図の紙面左右方向)をY軸とする。エッジ検出部111は、車両Vの走行方向に直交する方向であってX軸正方向(図中の下から上)に向けて俯瞰画像Gを走査し、プラスエッジ及びマイナスエッジを検出していく。なお、図中の上から下、つまりX軸負方向に画素を走査した場合、プラスエッジとマイナスエッジは逆転する。また、画像信号に含まれる色のパラメータ(例えば、RGB、RGBA等)の情報に基づいてプラスエッジ、マイナスエッジを検出してもよい。この場合、所定の色の大きさ(階調)の変化に基づいてこれらを検出する。
区画線検出部112は、エッジ検出部111が検出したエッジに基づいて、区画線を検出する。より詳細には、区画線検出部112は、検出したプラスエッジの線分及びマイナスエッジの線分に対して、予め決められた基準長さ以上の長さを有し、かつ予め決められた方向(角度)に延びるプラスエッジの線分及びマイナスエッジの線分を抽出する。これに対して、基準長さより短いエッジや、垂直方向以外に延びるエッジの線分は抽出しない。これにより、路面R上での光の反射や、ゴミや汚れ等によるノイズのエッジが除去される。
基準長さは、例えば、図5に示すように縦列駐車用の駐車枠を区画する区画線200の場合は車両Vの車幅分(例えば2~3m)の長さとすることができる。また、並列駐車用の駐車枠を区画する区画線200の場合は車両Vの車長分(例えば5m)の長さとすることができる。なお、カメラ20による撮影範囲や撮影状況に応じて、基準長さは、車長や車幅よりも短い長さとすることもできる。角度は、車両Vの走行方向、画像を撮影したカメラ20の向き等を考慮した角度としている。図5の場合は、区画線200は、走行方向に対して駐車スペースに向かって略直角に延びる直線であるため、角度=90°±閾値としている。
区画線検出部112は、抽出された複数のプラスエッジの線分及びマイナスエッジの線分の各々の始点及び終点の位置情報(座標値)を算出し、この位置情報に基づいて、所定間隔で隣り合うプラスエッジの線分とマイナスエッジの線分を抽出し、区画線を構成するエッジのペアであると判定する。例えば、プラスエッジとマイナスエッジの距離が、区画線の線幅±閾値の範囲内であるときに、これらをペアと判定する。
図6の俯瞰画像G上に、抽出された基準長さ以上で、かつ所定の角度で延びるプラスエッジの線分Ep(太実線)と、マイナスエッジの線分Em(太破線)を模式的に示す。この図6の例では、区画線200の像(以下、「区画線像」という。)K(K1~K4)の両側縁部分に、それぞれプラスエッジの線分Epとマイナスエッジの線分Emのペア(Ep1とEm1、Ep2とEm2、Ep3とEm3及びEp4とEm4)が抽出された。言い換えれば、これらのエッジの線分のペアで構成される線が、区画線像K1~K4として検出される。
駐車枠検出部113は、区画線検出部112により検出された区画線像K(K1~K4)を構成するエッジのペアに基づいて、俯瞰画像G上で駐車枠(駐車スペース)を検出する。まず、駐車枠検出部113は、複数のペアのプラスエッジの線分Ep及びマイナスエッジの線分Emの中から、駐車スペースを構成する可能性のある向かい合う2本のエッジ(プラスエッジとマイナスエッジ)の線分を選択する。ここで選択される2本のエッジの線分は、駐車スペースを仕切る一対の区画線像Kの両側縁を構成する線である。
そして、駐車枠検出部113は、選択された2本のエッジの線の距離(隣り合う区画線像Kの内法寸法)を、各エッジの端点の座標値に基づいて算出し、算出された距離が所定範囲内にあるか判定する。この距離が所定の駐車スペース幅±閾値の範囲内であれば、2本のエッジの線で仕切られた領域を駐車スペースとして検出し、この駐車スペースを囲む枠を駐車枠とする。駐車スペース幅としては、縦列駐車用であって普通自動車や小型貨物車用の駐車スペースであれば2m~3mが望ましく、大型貨物車やバス用の駐車スペースであれば、10m以上が望ましい。また、並列駐車用であって普通自動車や小型貨物車用の駐車スペースであれば2m~3mが望ましく、大型貨物車やバス用の駐車スペースであれば、3.3m以上が望ましい。
駐車枠検出部113は、検出した駐車枠の駐車枠情報を、一時記憶部124に一時的に格納(記憶)する。駐車枠情報としては、駐車枠の位置情報、例えば、駐車枠を構成する向かい合うプラスエッジの線分Epとマイナスエッジの線分Emの少なくとも各々の始点の座標値が望ましく、各々の始点及び終点の座標値がより望ましいが、これらに限定されない。
図7Aに仮想線で示すように、俯瞰画像Gでは、区画線像K2とK3との間に駐車枠p1が検出され、さらに区画線像K3とK4との間の駐車禁止領域にも、駐車枠q1が検出される。このように、駐車禁止領域が駐車枠q1として検出されると、その駐車枠登録データ121を取得した車両制御ECU40が、駐車枠q1を駐車支援に用いることがある。
これを回避すべく、本実施の形態の画像処理装置100は、検出した各駐車枠p1,q1の属性(駐車枠、駐車禁止領域、等)を判定している。すなわち、駐車枠内走査部114が、駐車枠内を走査してエッジを検出し、判定部115が、検出したエッジの状態に基づいて、駐車枠の属性(種類)を判定する。
駐車枠の属性としては、例えば、駐車枠、駐車禁止領域、優先駐車枠、電気自動車用駐車枠、等が挙げられるが、これらに限定されることはない。駐車枠は、何れの車両Vでも(つまり、誰でも)利用できる駐車枠である。この駐車枠は、例えば、図5の駐車枠201のように、区画線200や、区画線200を含む矩形の枠で仕切られた領域(駐車スペース)内に、特殊なマーカー(駐車枠の番号等以外のマーカー)の表示(ペイント)がない駐車枠である。駐車禁止領域は、車両Vの駐停車や侵入を禁止する領域であって、所定の駐車禁止マーカー(例えば、図5の第1の駐車禁止マーカー300等)が表示(ペイント)されている。
優先駐車枠(「障がい者用駐車枠」等とも呼ばれることがある。)は、車椅子使用者、身体の不自由な人、妊婦、高齢者等が優先して駐車できる駐車枠であって、所定の優先駐車マーカー(例えば、図12の優先駐車マーカー330、「障がい者マーカー」等とも呼ばれる。)が表示されている。この他にも、優先駐車枠として、軽自動車を優先して駐車するための軽自動車優先マーカーが表示された軽自動車用駐車枠や、貨物車を優先して駐車するための貨物車優先マーカーが表示された貨物車用駐車枠等も挙げられる。電気自動車用駐車枠は、電気自動車が充電するために駐車する駐車枠であって充電器の所在を示す充電器案内マーカー(例えば、図12の充電器案内マーカー340)が表示されている。
本実施の形態では、判定部115は、属性として、駐車禁止領域か、駐車可能な駐車枠かを判定している。すなわち、駐車可能な駐車枠は、何れの車両Vでも駐車可能な駐車枠、優先駐車枠、電気自動車用駐車枠を区別することなく、単に「駐車枠」と判定する。
図8(a)~図8(c)に、駐車禁止マーカーの具体例を示す。これらの図に示す第1~第3の駐車禁止マーカー300,300A,300Bは、駐車禁止領域を囲むように設けられた2本の短辺301及び2本の長辺302を有する矩形状の区画部303と、この区画部303内に設けられた斜線304を有する斜線部305と、から構成される。図8(a)に示す第1の駐車禁止マーカー300の斜線部305は、いわゆるバツ(×)状に交差した2本の斜線304からなる。図8(b)に示す第2の駐車禁止マーカー300Aの斜線部305は、平行に配置された複数の斜線304からなる。図8(c)に示す第3の駐車禁止マーカー300Bの斜線部305は、ジグザク状(W状)に配置された複数の斜線304からなる。
このような駐車禁止マーカー300~300Bでは、縦列駐車の場合は2本の短辺301が区画線200として機能し、並列駐車の場合は2本の長辺302が、区画線200として機能する。なお、駐車禁止マーカーが、これらの例に限定されることはなく、車両Vの侵入や駐停車を禁止するためのマーカーであれば、他の何れのマーカーであってもよい。また、図8(a)~図8(c)の各例では、区画部303は2本の短辺301及び2本の長辺302を有する矩形状であるが、この形状に限定されない。例えば、区画部303が2本の短辺301のみからなる場合や、2本の長辺302のみからなる場合もある。
以下、本実施の形態における駐車枠内走査部114及び判定部115の処理の詳細を説明する。駐車枠内走査部114は、駐車枠内を走査すべく、まず走査(スキャン)するライン(以下、「探索ライン」という。)を設定する。この探索ラインの設定手順を、図9を参照しながら説明する。図9には、第1の駐車禁止マーカーが表示された駐車枠(駐車禁止領域)を走査する例を示している。この図9に示すように、駐車枠内走査部114は、駐車枠を構成する向かい合う2本の区画線像Kの向かい合う辺であるプラスエッジの線分Epとマイナスエッジの線分Emを、それぞれ一方の線分L1及び他方の線分L2とする。駐車枠内走査部114は、一方及び他方の線分L1,L2のそれぞれについて、所定の割合で分割する分割点を取得する。図9の例では、駐車枠内走査部114は、一方及び他方の線分L1,L2を25%(1/4)の割合で分割し、線分L1,L2の各端点d1~d4から25%の位置にある4つの分割点を取得し、これらを探索点D1~D4としている。そして、駐車枠内走査部114は、これらの探索点D1~D4の俯瞰画像G上における位置座標を算出する。
なお、本実施の形態では、分割時の割合を25%としているが、これに限定されることはなく、駐車枠の矩形の縦横比、駐車禁止マーカーの種類、カメラ20の撮影範囲や分解能等に応じて、適宜に設定できる。また、この比率をパラメータデータ122として、記憶部120に変更自在に格納しておくこともできる。
そして、駐車枠内走査部114は、区画線像Kに交差する方向において向かい合う一方の探索点D1とD2、他方の探索点D3とD4とを互いに結んで、探索ラインTL1,TL2を設定する。ここで、探索点D1,D3側を、走査を開始する「始点」とし、探索点D2,D4側を、走査を終了する「終点」とする。なお、探索ラインの本数は1本とすることもできるが、複数本として複数個所を走査することで、マーカーの線に掠れや影等があっても、エッジの状態の検出精度を向上できる。そして、本実施の形態のように探索ラインTL1,TL2の本数を2本とすることで、エッジの状態の検出精度の向上を可能としつつ、さらに演算効率やロバスト性に優れるエッジの検出が可能となる。
次に、駐車枠内走査部114は、設定した探索ラインTL1,TL2に沿って、始点から終点に向かって画像を走査(スキャン)し、プラスエッジとマイナスエッジとを検出する。このとき、隣り合う画素の輝度(又は色のパラメータ)がプラス方向に閾値よりも大きく変化する部分をプラスエッジとして検出し、隣り合う画素の輝度(又は色のパラメータ)がマイナス方向に閾値よりも大きく変化する部分をマイナスエッジとして検出する。
この閾値は、記憶部120において、パラメータデータ122の探索パラメータテーブル122aにパラメータt1として格納されている。本実施の形態では、輝度差の閾値のパラメータt1=90[pix]が格納されているが、この数値又は輝度差に限定されない。図9には、探索ラインTL1の走査イメージと、走査によって検出されたプラスエッジ(+エッジ)とマイナスエッジ(-エッジ)のイメージ示す。プラスエッジとマイナスエッジとの間がマーカーの線と推定される。
次に、駐車枠内走査部114は、検出したプラスエッジ及びマイナスエッジ分に対して、プラスエッジとマイナスエッジとの間の距離、つまりマーカーと推測される部分の線幅が、マーカーを表す線として許容範囲内か否かを判定する。駐車枠内走査部114は、線幅が許容範囲内であると判定した場合は、これらを有効なエッジとし、許容範囲外であれば、これらを破棄する。許容範囲は、探索パラメータテーブル122aに格納されているパラメータt2からt3の間である。本実施の形態では、t2=5[pix]、t3=23[pix]が設定されている。線幅の許容範囲を5~23[pix]とすることで、マーカーの線幅や形状、俯瞰画像Gの歪み等によらず、マーカー部分を適切に検出できる。なお、パラメータt2、t3が、これらの数値に限定されることはなく、適宜に設定できる。
判定部115は、駐車枠内走査部114が検出したプラスエッジ及びマイナスエッジの状態が、条件データテーブル123aの条件式を満たすか否かを判定する。判定手順の具体例を、図9、図10の説明図、及び図11のパラメータデータのデータ構造を参照しながら説明する。
エッジの状態が、下記条件式(図11参照)を満たす場合は、判定部115は、駐車枠の属性が第1の駐車禁止マーカー300が表示された駐車禁止領域(図10(a)参照)であると判定する。
・線幅差ΔLが許容範囲か(ΔL≧s1(6[pix]))。
・線の本数Nが所定本数か(N=s2(2[本])。
・線間隔Wが最小線間隔を超えているか(W>s5((38[pix])。
線幅差ΔLは、探索ライン上で検出された隣接する線どうしの線幅Lの差である。線幅Lは、図9に示すように、プラスエッジとマイナスエッジとの間の距離である。図10(a)に、検出された線を四角で囲って示したが、線幅差ΔLは、例えば1番目の線の線幅Lと2番目の線の線幅Lとの差である。線の本数Nは、探索ライン上で検出された線(斜線)の数であり、図10(a)に示すように、第1の駐車禁止マーカー300の場合は、探索ラインTL1,TL2上で各々2つ検出される。線間隔Wは、図10(a)に矢印で示すように、隣接する線どうしの間隔(より具体的には一方の線のマイナスエッジと他方の線のプラスエッジとの間隔)である。
エッジの状態が、下記条件式を満たす場合は、判定部115は、駐車枠の属性が第2の駐車禁止マーカー300Aが表示された駐車禁止領域(図10(b)参照)であると判定する。
・線の本数Nが所定本数か(N=s2(3[本])又はN=s3(4[本])。
・線間隔差ΔWが許容範囲か(ΔW<s6(3[pix])。
第2の駐車禁止マーカー300Aは、複数の平行な斜線304を有するので、探索ラインTL1,TL2上で検出される線は複数本(3又は4本)である。斜線304の線間隔は、ほぼ等間隔であるため、探索ラインTL1,TL2上で検出される線の線間隔W1もほぼ等間隔となり、線間隔差ΔWも小さい(3[pix]未満)。
エッジの状態が、下記条件式を満たす場合は、判定部115は、駐車枠の属性が第3の駐車禁止マーカー300Bが表示された駐車禁止領域(図10(c)参照)であると判定する。
・線の本数Nが所定本数か(N=s[本]))。
・線間隔差ΔWが許容範囲か(ΔW≧s6(3[pix])。
第2の駐車禁止マーカー300Aは、ジグザグに(W状に)配置された複数の斜線304を有するので、探索ラインTL1,TL2上で検出される線は複数本(本)である。画像中の探索ラインTL1,TL2上では、広い線間隔W1と狭い線間隔W2とが交互に検出されるため、隣接する線間隔どうしの差ΔWは、第2の駐車禁止マーカー300Aの場合よりも大きい(3[pix]以上)。
そして、条件データテーブル123aの何れの条件をも満たさない場合は、判定部115は、当該駐車枠の属性を、車両Vを駐車可能な「駐車枠」であると判定する。このため、駐車禁止マーカー300等とは異なるマーカー(例えば、優先駐車マーカー等)の線は、上記条件を満たさないため、当該マーカーを有する駐車枠は、「駐車枠」と判定される。もちろん、条件データテーブル123aに、優先駐車マーカー等の他のマーカーの条件を格納しておき、判定部115がこれらの条件を満たすか判定し、判定結果に応じて駐車枠の属性(優先駐車枠、電気自動車用駐車枠等)を判定してもよい。
判定部115は、駐車枠の属性が「駐車禁止領域」である場合は、駐車枠検出部113が一時記憶部124に一時的に格納した駐車枠情報を、記憶部120から削除する。なお、この削除処理に限定されることはなく、他の異なる実施形態として、記憶部120の駐車枠登録データ121の格納領域に、位置情報等を格納する領域に加えて、フラグ領域を設けてもよい。そして、判定部115は、当該駐車枠が駐車可能な駐車枠であると判定したときは、フラグ領域を初期状態のままとし(フラグオフ)、当該駐車枠が駐車禁止領域であると判定したときは、フラグをオンにするようにしてもよい。
駐車枠登録部116は、一時記憶部124に一時的に格納されていた駐車枠情報を、駐車枠登録データ121として記憶部120に登録する。この記憶部120に記憶された駐車枠登録データ121は、車両制御ECU40に送出され、駐車支援に用いられる。これに対して、駐車禁止領域に検出された駐車枠情報は、一時記憶部124から削除されているため、記憶部120の駐車枠登録データ121の記憶領域に記憶されない。このため、車両制御ECU40が駐車禁止領域を駐車枠と認識するのを抑制できる。
また、判定部115が、駐車禁止領域の駐車枠情報を削除せず、フラグ領域のフラグをオンにする態様の場合は、駐車枠登録部116は、フラグ領域を参照してフラグがオフになっている駐車枠、すなわち、車両Vを駐車可能な駐車枠情報を、駐車枠登録データ121として記憶部120に記憶する。これに対して、フラグがオンになっている駐車枠、すなわち駐車禁止領域に検出された駐車枠の場合は、駐車枠登録部116は、当該駐車枠の駐車枠登録データ121を記憶部120に記憶しないようにする。また、他の異なる実施形態として、駐車枠登録部116は、駐車可能な駐車枠及び駐車禁止領域の駐車枠の双方の駐車枠情報を登録するものとし、その際に各駐車枠の属性を、駐車枠登録データ121に含めて記憶部120に記憶してもよい。
表示制御部117は、モニター31に画像を表示させるための表示制御信号を、ナビゲーション装置30に送出し、モニター31を制御する。具体的には、カメラ20により撮像された車両V周辺の路面画像又はこれらを合成した俯瞰画像Gをモニター31に表示させるための表示制御信号を送出する。また、表示制御部117は、判定部115によって駐車枠と判定された駐車枠を示す識別子を、路面画像又は俯瞰画像Gに重畳して表示させるための表示制御信号を送出してもよい。さらに、表示制御部117は、駐車禁止領域を示す識別子を路面画像又は俯瞰画像Gに重畳して表示させるための表示制御信号を送出してもよい。
図7Bに、モニター31に表示される俯瞰画像Gに、識別子として、駐車枠アイコンPIと、駐車禁止アイコンNIを重畳した例を示す。これらの表示により、ドライバは、駐車支援装置1が駐車枠を検出するとともに駐車禁止領域を識別していることを認識でき、ドライバに安心感を与えられる。なお、本実施の形態では、駐車禁止領域の駐車枠情報を削除しているので、俯瞰画像Gには駐車枠アイコンPIのみが表示され、駐車禁止アイコンNIは表示されない。
(画像処理装置の動作)
次に、本実施の形態である画像処理装置100の動作の一例を図4のフローチャートに従って説明する。
図4は画像処理装置100の動作を説明するためのフローチャートである。図4のフローチャートに示す動作は、運転者が図略の自動駐車開始スイッチを操作して自動駐車開始の指示入力を行うことにより開始する。
ステップS1では、画像処理装置100の制御部110が、カメラ20により撮像された車両Vの周囲の画像信号を取得する。
ステップS2では、ステップS1により取得された画像信号に基づき、制御部110がこれら画像信号を合成した信号を生成する。ステップS2において合成される信号は、あたかも車両Vの上方にカメラを設置して真下を見下ろしたような画像(俯瞰画像G)をナビゲーション装置30に表示させるための信号である。このような俯瞰画像を生成する技術は公知であり、一例として、特開平3-99952号公報や特開2003-118522号公報に開示された技術が知られている。
なお、ステップS2において画像合成作業を行わず、あるいは、次のステップS3におけるプラスエッジとマイナスエッジの抽出の後にステップS2における画像合成作業を行うこともできる。しかしながら、俯瞰画像Gを生成してからプラスエッジとマイナスエッジの抽出作業を行うほうが画像処理装置100の処理負担が低減できる。
ステップS3(エッジ検出工程)では、前述したように、エッジ検出部111がステップS2で合成した俯瞰画像Gを所定方向に走査し、画像信号に含まれる輝度に基づいて、画像中のプラスエッジ及びマイナスエッジを抽出する。
図5に示す例では、エッジ検出部111は、俯瞰画像Gを、X軸正方向に向けて走査し、画像中のプラスエッジ及びマイナスエッジを検出していく。この結果、図6に太実線で示すプラスエッジの線分Ep(Ep1~Ep4)と、太破線で示すマイナスエッジの線分Em(Em1~Em4)が検出された。
次のステップS4では、エッジ検出部111は、ステップS3で検出したプラスエッジの線分Ep及びマイナスエッジの線分Emについて、前述したように基準長さに基づいてフィルタリングを行う。これにより、路面上での光の反射や、ゴミや汚れ等によるノイズとなる短いエッジが破棄される。このフィルタリングは、次のステップS5のペアの抽出の後に行うこともできるが、ペアの抽出の前に行ってノイズを除去することで、画像処理を高速化できる。
次のステップS5(区画線検出工程)で、区画線検出部112は、ステップS4で検出された複数のエッジの線分から、隣接するプラスエッジの線分Epとマイナスエッジの線分Emのペアを抽出する。このとき、区画線検出部112は、俯瞰画像Gに基づき路面上で隣り合うプラスエッジの線分Epとマイナスエッジの線分Emの距離を算出し、この距離が所定の線幅±閾値の範囲内であれば、区画線を構成するエッジのペアと判定する。図6に示す例では、Ep1とEm1、Ep2とEm2、Ep3とEm3及びEp4とEm4のペア間に、区画線(区画線像K1~K4)が検出された。
次のステップS6(駐車枠検出工程)では、駐車枠検出部113が、ステップS5で検出した区画線を構成するプラスエッジの線分Epとマイナスエッジの線分Emのペアに基づいて、前述したような手順で駐車枠及び駐車スペースを検出する。図7Aに示す例では、実際の駐車枠に対応する駐車枠p1と、駐車禁止領域に対応する駐車枠q1が検出された。駐車枠検出部113は、検出した駐車枠の位置情報(エッジの始点及び/又は終点の座標値)を、駐車枠情報として一時記憶部124に一時的に記憶する。
次のステップS7~S14の駐車枠ループ処理により、駐車枠内走査部114が、検出した駐車枠内を走査してエッジを検出する駐車枠内走査工程を実行し、判定部115が、エッジの状態に基づいて駐車枠の属性を判定する判定工程を実行する。このステップS7~S14の処理は、ステップS6で検出したすべての駐車枠に対して処理を行ったと判定した場合に終了する。
まず、駐車枠内走査工程では、ステップS8(探索ライン設定工程)で、駐車枠内走査部114は、前述したように、処理対象の駐車枠を構成する区画線の向かい合うプラスエッジの線分Emとマイナスエッジの線分Ep(線分L1,L2)のそれぞれについて、所定の割合で分割する探索点(分割点)D1~D4を取得する。次いで、駐車枠内走査部114は、向かい合う一方の探索点D1とD2、他方の探索点D3とD4とを互いに結んで、探索ラインTL1,TL2を設定する(図9参照)。
次に、ステップS9(エッジ検出工程)で、駐車枠内走査部114は、ステップS8で設定した探索ラインTL1,TL2に沿って俯瞰画像Gを走査し、探索パラメータテーブル122aの閾値(t1)、線幅の許容範囲(t2~t3)に基づいて、有効なプラスエッジとマイナスエッジとを検出する。
次の判定工程において、ステップS10(エッジの状態比較工程)では、判定部115は、前述したように、ステップS9で検出したプラスエッジ及びマイナスエッジの状態と、条件データテーブル123aに格納された条件データに基づくエッジの状態とを比較する。ステップS11で、判定部115は、比較結果に基づいて駐車枠の属性を判定する。図7Aの例では、駐車枠p1は、条件を何ら満たさないため「駐車枠」と判定され、駐車枠q1は第1の駐車禁止マーカー300が表示された「駐車禁止領域」と判定される。
次のステップS12では、判定部115は、駐車枠の属性が駐車禁止領域であるか判定する。駐車禁止領域であると判定したときは(YES)、ステップS13へ進み、判定部115は当該駐車枠(図7Aでは駐車枠q1)の情報を、一時記憶部124から削除し、プログラムはステップS14へ進む。これに対して、駐車枠が駐車禁止領域でないと判定したときは(NO)、プログラムはステップS13をスキップしてステップS14へ進む。
ステップS14では、制御部110は、次に処理すべき駐車枠があるか判定し、駐車枠があると判定したときはステップS7へ戻り、次の駐車枠に対する処理を行う。処理すべき駐車枠がないと判定したときは、ループを終了して、ステップS15へと進む。
ステップS15(駐車枠登録工程)では、駐車枠登録部116が、一時記憶部124に登録されている駐車枠(駐車スペース)の情報を記憶部120に登録する。具体的には、駐車枠登録部116は、駐車枠を構成する向かい合うプラスエッジの線分の端点とマイナスエッジの線分の端点の座標値を、駐車枠の始点又は終点の座標値として、駐車枠登録データ121として記憶部120に登録する。このとき、駐車枠の少なくとも2つの始点の座標値を登録すれば、記憶容量をできるだけ少なくしつつ、駐車枠を特定できるが、4点の座標値を登録してもよい。図7Aの例では、駐車枠p1の駐車枠情報のみが登録される。一方、駐車枠の属性を登録する態様の場合は、駐車枠登録部116はフラグ情報(つまり、属性)も駐車枠登録データ121に含めて記憶部120に登録してもよいし、駐車枠q1の駐車枠情報も記憶部120に記憶してもよい。また、駐車枠登録部116は、区画線200の角度(延在方向)、その他自動駐車処理に必要な情報を駐車枠登録データ121に加えて登録してもよい。
ステップS16(表示制御工程)では、表示制御部117が、記憶部120に登録された駐車枠を示す駐車枠アイコンPI(図7B参照)を、俯瞰画像Gに重畳して表示させるための表示制御信号を生成する。一方、駐車禁止領域を示す駐車禁止アイコンNI(図7B参照)を表示させる態様では、駐車禁止アイコンNIも含めた表示制御信号を生成する。表示制御部117は、生成した表示制御信号をナビゲーション装置30に送出する。これにより、図7Bに示すように、駐車枠アイコンPI(さらには駐車禁止アイコンNI)が俯瞰画像Gに重畳された画像がモニター31に表示される。
また、記憶部120に登録された駐車枠登録データ121が、車両制御ECU40に送出され、車両Vの駐車を支援する各種処理が実行される。このとき、駐車禁止領域を示すフラグ情報も駐車枠登録データ121に含めて登録する態様の場合は、車両制御ECU40は、このフラグ情報を参照することで、当該駐車枠を駐車目標から外したり、駐車禁止を表す識別子表示をしたりするなど、属性に応じた駐車支援を行うことができる。
(画像処理装置の効果)
以上のように構成された本実施の形態である画像処理装置100では、区画線検出部112が、車両Vの周囲を撮像する撮像装置(カメラ20)が取得した画像信号に基づく画像(俯瞰画像G)から、区画線(区画線像K)を検出する(区画線検出工程)。駐車枠検出部113が、検出した区画線に基づいて、駐車枠(例えば、駐車枠p1,p2)を検出する(駐車枠検出工程)。駐車枠内走査部114が、駐車枠を構成する区画線の向かい合う一対の辺(一方の線分L1及び他方の線分L2)のそれぞれについて、所定の割合で分割する分割点(探索点D1~D4)を取得し、取得した分割点を通るように画像を走査してエッジを検出する(駐車枠内走査工程)。記憶部120には、エッジの状態と、駐車枠の属性とが対応して記憶されている(記憶工程)。そして、判定部115が、検出したエッジの状態と、記憶部120に記憶されているエッジの状態に対応した駐車枠の属性と、を用いて、駐車枠の属性を判定する(判定工程)。
これにより、駐車枠の属性に応じて、駐車枠を適切に検出することが可能な画像処理装置100及び画像処理方法を提供できる。また、この画像処理装置100又は画像処理方法を備えることで、駐車枠の属性に応じた適切な駐車支援が可能な駐車支援装置1及び駐車支援方法を提供できる。
また、本実施の形態では、駐車枠内走査部114は、隣り合った画素の輝度又は色のパラメータが閾値よりもプラス方向に変化する部分をプラスエッジとして検出し、隣り合った画素の輝度又は色のパラメータが閾値よりもマイナス方向に変化する部分をマイナスエッジとして検出する。判定部115は、プラスエッジ及びマイナスエッジの状態と、駐車枠の属性ごとに予め設定されたエッジの状態とを比較し、比較結果に基づいて属性を判定する。これにより、画像処理装置100は、駐車枠の属性をより詳細かつより適切に判定できる。
また、記憶部120に記憶されているエッジの状態と、駐車枠の属性とは、駐車枠の駐車形態(例えば、縦列駐車、並列駐車、斜め駐車、等)に応じて設定されるものとすれば、駐車形態に応じた適切な属性の判定が可能となる。また、本実施の形態では、属性に応じて駐車枠内に表示されたマーカー(例えば、駐車禁止マーカー300~300A)の線のエッジに基づく線の線幅差、本数、線間隔、及び線間隔差の何れかである。これにより、駐車枠内に描かれた様々なマーカー(例えば、駐車禁止マーカー、優先駐車マーカー、充電器案内マーカー等)をより適切に検出し、属性のバリエーションが広がるとともに、属性に応じたより適切な処理を行える。
また、駐車枠の属性が、何れの車両Vでも駐車可能な駐車枠、駐車禁止マーカー300~300Bが表示された駐車禁止領域、優先駐車マーカー330が表示された優先駐車枠及び充電器案内マーカー340が表示された電気自動車用駐車枠の何れかであれば、これらの属性に好適な駐車支援等が可能となる。例えば、駐車禁止領域であれば、駐車目標から除外し、優先駐車枠であれば、車椅子使用者等が乗車又は運転する車両Vの場合のみ、当該駐車枠を駐車目標に含め、電気自動車用駐車枠であれば、車両Vが電気自動車の場合のみ、当該駐車枠を駐車目標に含めることができる。
また、上記実施の形態の画像処理装置100では、駐車枠内走査部114は、駐車枠を構成する区画線の向かい合う一対の辺(線分L1,L2)のそれぞれについて、所定の割合で分割する分割点(D1~D4)を複数取得し、取得した複数の分割点を通るように画像(俯瞰画像G)を走査してエッジを検出している。これにより、マーカーの線に掠れや影等による途切れがあっても、エッジの状態を高精度に検出でき、属性の判定をより適切かつ高精度に行える。
また、本実施の形態の画像処理装置100は、画像(俯瞰画像G)と、駐車枠の属性を示す識別子(例えば、駐車枠アイコンPI、駐車禁止アイコンNI)とを重畳して表示するように表示部(モニター31)を制御する表示制御部117を備えている。このため、ドライバはモニター31を視認することで、駐車枠の属性(例えば、駐車可能な駐車枠か、駐車禁止か等)を明確に認識できる。また、駐車支援が適切に行われていることをドライバに示すことができ、ドライバに信頼感や安心感を与えられる。
以上、図面を参照して、本発明の実施の形態を詳述してきたが、具体的な構成は、この実施の形態及び実施例に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。
例えば、上記実施の形態では、縦列駐車枠における駐車可能な駐車枠及び駐車禁止領域の検出の動作を説明している。これに対して、前述したように、本実施の形態の画像処理装置100は、駐車禁止領域以外の駐車枠の属性の判定にも適用できるとともに、並列駐車や斜め駐車等の縦列駐車以外の駐車形態の駐車枠の属性の判定にも適用できる。図12に属性及び駐車形態の異なる駐車枠の例を示す。
図12(a)は縦列駐車用であって、優先駐車マーカー330が描かれた優先駐車枠が設けられた駐車場の一例を示す。図12(b)は縦列駐車用であって、充電器案内マーカー340が描かれた電気自動車用駐車枠を有する駐車場の一例を示す。また、図12(c)は並列駐車用であって、第2の駐車禁止マーカー300Aが描かれた駐車禁止領域、優先駐車マーカー330が描かれた優先駐車枠を有する駐車場の一例を示す。図12(d)は並列かつ斜め駐車用であって、第2の駐車禁止マーカー300Aが描かれた駐車禁止領域、優先駐車マーカー330が描かれた優先駐車枠を有する駐車場の一例を示す。図12(a)~図12(d)に示す矢印は、駐車枠内走査部114が各駐車枠を走査する際の探索ラインと走査方向とを表している。探索ラインの位置及び本数、走査により検出したエッジの状態を判定する際の条件等は、特に限定されることはなく、駐車枠の属性、マーカーの位置、駐車形態等に応じて適切に設定できる。
また、図12のように、様々なマーカーが描かれた駐車枠を検出する場合、例えば、判定部115は、一時記憶部124に駐車枠情報を登録する際に、フラグ領域に駐車枠の属性に応じたデータ、例えば、何れの車両Vでも駐車可能な駐車枠であれば「1」、駐車禁止領域であれば「2」、優先駐車枠であれば「3」、電気自動車用駐車枠であれば「4」等を設定する。さらに、駐車禁止領域の場合は、第1~第3の駐車禁止マーカー300~300Bを区別する数値を設定してもよいし、優先駐車枠の場合は、障がい者用駐車枠、軽自動車用駐車枠、貨物車用駐車枠を区別する数値を設定してもよい。
そして、駐車枠登録部116は、駐車枠登録データ121を記憶部120に登録する際に、駐車枠の属性が駐車禁止領域であれば、当該駐車枠情報を記憶部120に登録しないようにするか、又は駐車禁止領域のフラグ情報を付加して記憶部120に記憶してもよい。また、駐車枠の属性が優先駐車枠や電気自動車用駐車枠である場合は、当該駐車枠情報に、属性に対応したフラグ情報を付加して記憶部120に登録する。これにより、車両制御ECU40は、車両Vの状態(一般人が運転する車両Vか、車椅子使用者等が乗車又は運転する車両Vか、等)と、駐車枠の属性とに基づいて、目標とする駐車枠を選択し、駐車支援を適切に行うことができる。
また、上記実施の形態では、画像の輝度や色のパラメータ(例えば、RGB、RGBA等)の情報の変化の大きさ及び変化の方向(プラス方向又はマイナス方向)に基づいてエッジを検出しているが、これらに限定されることはなく、画像信号に含まれる他の情報の変化の大きさ及び変化の方向に基づいてエッジを検出してもよい。
20 カメラ(撮像装置) 20a 前方カメラ(撮像装置)
20b 後方カメラ(撮像装置) 20c 左側方カメラ(撮像装置)
20d 右側方カメラ(撮像装置) 100 画像処理装置
112 区画線検出部 113 駐車枠検出設定部
114 駐車枠内走査部 115 判定部
116 駐車枠登録部 117 表示制御部
120 記憶部 200 区画線
D1~D4 探索点(分割点) G 俯瞰画像(画像)
L 線幅 L1,L2 線分(辺)
V 車両 W,W1,W2 線間隔
ΔL 線幅差 ΔW 線間隔差

Claims (8)

  1. 車両の周囲を撮像する撮像装置が取得した画像信号に基づく画像を用いて区画線を検出する区画線検出部と、
    検出した前記区画線を用いて駐車枠を検出する駐車枠検出部と、
    前記駐車枠検出部が検出した第1の駐車枠を構成する前記区画線の向かい合う一対の辺のそれぞれについて、所定の割合で分割する分割点を複数取得し、取得した複数の前記分割点の向かい合う一方の分割点と他方の分割点とを互いに結んで複数の探索ラインを設定し、各探索ラインに沿って、一方の分割点から他方の分割点に向かって前記画像における前記第1の駐車枠の中を走査してエッジを検出する駐車枠内走査部と、
    エッジの状態と、駐車枠の属性とが対応して記憶されている記憶部と、
    検出した前記エッジの状態と、前記記憶部に記憶されている前記エッジの状態に対応した前記駐車枠の属性と、を用いて、前記第1の駐車枠の属性を判定する判定部と、
    を備えたことを特徴とする画像処理装置。
  2. 前記記憶部は、エッジの状態を判定するための各種パラメータが前記属性に応じて格納されたパラメータデータ、及び前記エッジの状態と、駐車枠の属性とが対応したデータであって前記属性に応じて前記駐車枠内に表示されたマーカーの線のエッジに基づく線幅差、本数、線間隔、及び線間隔差に関して前記パラメータを用いて設定された複数の条件式が、前記マーカーの種類ごとに格納された条件データが記憶され、
    前記判定部は、前記駐車枠内走査部が検出した前記エッジの状態が、前記複数の条件式を満たすかどうか判定し、前記エッジの状態が満たす条件式に基づいて前記第1の駐車枠の属性を判定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像を表示部に表示させる表示制御部を備え、
    前記判定部は、
    前記駐車枠内走査部が検出した前記エッジの状態が、前記複数の条件式をいずれも満たさなかった場合、前記第1の駐車枠の属性が、何れの車両でも駐車可能な駐車枠であると判定し、
    前記表示制御部は、
    前記第1の駐車枠を示す識別子を、前記画像に重畳させて前記表示部に表示させる
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記記憶部に記憶されている前記エッジの状態と、前記駐車枠の属性とは、前記駐車枠の駐車形態に応じて設定されており、
    前記駐車形態は、縦列駐車、並列駐車及び斜め駐車の何れかであることを特徴とする請求項1~3の何れかに記載の画像処理装置。
  5. 前記記憶部に記憶されている前記エッジの状態が、前記属性に応じて前記駐車枠内に表示されたマーカーの線のエッジに基づく線幅差、本数、線間隔、及び線間隔差の少なくとも何れかであることを特徴とする請求項1~4の何れかに記載の画像処理装置。
  6. 前記駐車枠の属性が、何れの車両でも駐車可能な駐車枠、駐車禁止領域、優先駐車枠及び電気自動車用駐車枠の何れかであることを特徴とする請求項1~の何れか一項に記載の画像処理装置。
  7. 前記駐車枠検出部が検出した前記第1の駐車枠の位置情報と、前記判定部が判定した前記属性とを、前記記憶部に登録する駐車枠登録部を、備えたことを特徴とする請求項1~6の何れか一項に記載の画像処理装置。
  8. 車両の周囲を撮像する撮像装置が取得した画像信号に基づく画像を用いて区画線を検出する区画線検出工程と、
    検出した前記区画線を用いて駐車枠を検出する駐車枠検出工程と、
    前記駐車枠検出工程で検出した第1の駐車枠を構成する前記区画線の向かい合う一対の辺のそれぞれについて、所定の割合で分割する分割点を複数取得し、取得した複数の前記分割点の向かい合う一方の分割点と他方の分割点とを互いに結んで複数の探索ラインを設定し、各探索ラインに沿って、一方の分割点から他方の分割点に向かって前記画像における前記第1の駐車枠の中を走査してエッジを検出する駐車枠内走査工程と、
    エッジの状態と、駐車枠の属性とを対応して記憶部に記憶する記憶工程と、
    検出した前記エッジの状態と、前記記憶部に記憶されている前記エッジの状態に対応した前記駐車枠の属性と、を用いて、前記第1の駐車枠の属性を判定する判定工程と、
    を含むことを特徴とする画像処理方法。
JP2020084007A 2020-05-12 2020-05-12 画像処理装置及び画像処理方法 Active JP7499606B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020084007A JP7499606B2 (ja) 2020-05-12 2020-05-12 画像処理装置及び画像処理方法
CN202110513120.1A CN113657141A (zh) 2020-05-12 2021-05-11 图像处理装置以及图像处理方法
US17/318,183 US11967158B2 (en) 2020-05-12 2021-05-12 Image processor and image processing method
EP21173482.7A EP3910542A1 (en) 2020-05-12 2021-05-12 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020084007A JP7499606B2 (ja) 2020-05-12 2020-05-12 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2021180382A JP2021180382A (ja) 2021-11-18
JP7499606B2 true JP7499606B2 (ja) 2024-06-14

Family

ID=75914346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020084007A Active JP7499606B2 (ja) 2020-05-12 2020-05-12 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US11967158B2 (ja)
EP (1) EP3910542A1 (ja)
JP (1) JP7499606B2 (ja)
CN (1) CN113657141A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7229804B2 (ja) * 2019-02-14 2023-02-28 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
JP2022059958A (ja) * 2020-10-02 2022-04-14 フォルシアクラリオン・エレクトロニクス株式会社 ナビゲーション装置
JP2023017462A (ja) * 2021-07-26 2023-02-07 株式会社Subaru 駐車支援装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007052730A (ja) 2005-08-19 2007-03-01 Toyota Motor Corp 走行路認識装置
JP2017021747A (ja) 2015-07-15 2017-01-26 クラリオン株式会社 車両用駐車支援装置
JP2019128607A (ja) 2018-01-19 2019-08-01 株式会社デンソーテン 画像処理装置及び画像処理方法
JP2020040441A (ja) 2018-09-07 2020-03-19 本田技研工業株式会社 自動駐車装置及び自動駐車方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0399952A (ja) 1989-09-12 1991-04-25 Nissan Motor Co Ltd 車両用周囲状況モニタ
JP2971694B2 (ja) 1993-03-05 1999-11-08 三菱電機株式会社 車線区分ライン認識装置
US6285297B1 (en) * 1999-05-03 2001-09-04 Jay H. Ball Determining the availability of parking spaces
DE60009000T2 (de) * 1999-10-21 2005-03-10 Matsushita Electric Industrial Co., Ltd., Kadoma System zur Einparkhilfe
JP3943363B2 (ja) 2001-10-18 2007-07-11 クラリオン株式会社 駐車支援装置
JP4940168B2 (ja) * 2008-02-26 2012-05-30 日立オートモティブシステムズ株式会社 駐車スペース認識装置
TWI464085B (zh) * 2011-07-22 2014-12-11 Automotive Res & Testing Ct Parking space detection method
US9418552B2 (en) * 2011-12-14 2016-08-16 Hi-Park Solutions Ltd. Method and system for automatically locating vacant parking places
JP2013154730A (ja) * 2012-01-30 2013-08-15 Fujitsu Ten Ltd 画像処理装置、画像処理方法、及び、駐車支援システム
KR101438941B1 (ko) * 2012-12-11 2014-11-03 현대자동차주식회사 주차 지원 제어 장치 및 방법
US9330570B2 (en) * 2013-07-05 2016-05-03 Xerox Corporation Image assisted parking space availability searching and reservation method and system
US9323993B2 (en) * 2013-09-05 2016-04-26 Xerox Corporation On-street parking management methods and systems for identifying a vehicle via a camera and mobile communications devices
KR20150028492A (ko) * 2013-09-06 2015-03-16 현대모비스 주식회사 조향 휠 제어 방법 및 이를 위한 시스템
JP6086368B2 (ja) * 2013-10-04 2017-03-01 アイシン精機株式会社 駐車支援装置
US9870707B2 (en) * 2014-06-23 2018-01-16 Hi-Park Solutions Ltd. Method and system for locating vacant parking places
KR101583998B1 (ko) * 2014-10-17 2016-01-19 현대자동차주식회사 주차지원장치 및 방법
US10872241B2 (en) * 2015-04-17 2020-12-22 Ubicquia Iq Llc Determining overlap of a parking space by a vehicle
WO2017068698A1 (ja) * 2015-10-22 2017-04-27 日産自動車株式会社 駐車支援方法及び駐車支援装置
MY191078A (en) * 2015-10-22 2022-05-30 Nissan Motor Parking space detection method and device
US10703360B2 (en) * 2015-12-17 2020-07-07 Nissan Motor Co., Ltd. Parking support method and device
US9987983B2 (en) * 2016-02-11 2018-06-05 GM Global Technology Operations LLC Parking assist system for a vehicle and method of using the same
KR101979694B1 (ko) * 2016-11-04 2019-05-17 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 그의 제어방법
JP6759143B2 (ja) * 2017-04-07 2020-09-23 クラリオン株式会社 駐車支援装置
US10926701B2 (en) * 2017-07-07 2021-02-23 Nissan Motor Co., Ltd. Parking assistance method and parking assistance device
US10839686B2 (en) * 2018-02-15 2020-11-17 Robert Bosch Gmbh System and method for distributed parking area map generation and parking area service using in-vehicle sensors
EP3534295A1 (en) * 2018-03-02 2019-09-04 Parkbob GmbH System and method for identifying parking spaces and parking occupancy based on satellite and/or aerial images
US11501572B2 (en) * 2018-03-26 2022-11-15 Nvidia Corporation Object behavior anomaly detection using neural networks
JP2019174975A (ja) * 2018-03-27 2019-10-10 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体
JP2020095623A (ja) * 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP7203586B2 (ja) * 2018-12-14 2023-01-13 株式会社デンソーテン 画像処理装置および画像処理方法
JP7122589B2 (ja) * 2018-12-26 2022-08-22 パナソニックIpマネジメント株式会社 駐車支援装置、駐車支援方法、及び、コンピュータプログラム
JP2020166758A (ja) * 2019-03-29 2020-10-08 株式会社デンソーテン 画像処理装置および画像処理方法
JP7296768B2 (ja) * 2019-04-22 2023-06-23 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
JP7288793B2 (ja) * 2019-04-25 2023-06-08 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
JP6990686B2 (ja) * 2019-06-24 2022-01-12 本田技研工業株式会社 駐車支援システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007052730A (ja) 2005-08-19 2007-03-01 Toyota Motor Corp 走行路認識装置
JP2017021747A (ja) 2015-07-15 2017-01-26 クラリオン株式会社 車両用駐車支援装置
JP2019128607A (ja) 2018-01-19 2019-08-01 株式会社デンソーテン 画像処理装置及び画像処理方法
JP2020040441A (ja) 2018-09-07 2020-03-19 本田技研工業株式会社 自動駐車装置及び自動駐車方法

Also Published As

Publication number Publication date
US11967158B2 (en) 2024-04-23
EP3910542A1 (en) 2021-11-17
CN113657141A (zh) 2021-11-16
US20210357666A1 (en) 2021-11-18
JP2021180382A (ja) 2021-11-18

Similar Documents

Publication Publication Date Title
JP7499606B2 (ja) 画像処理装置及び画像処理方法
JP7229804B2 (ja) 画像処理装置及び画像処理方法
EP3872697B1 (en) Image processor and image processing method
CN113212352B (zh) 图像处理装置以及图像处理方法
CN111824129B (zh) 图像处理装置及图像处理方法
JP6947566B2 (ja) 画像処理装置及び画像処理方法
EP3933684A1 (en) Image based detection of parking space marked by dashed lines
EP3866059A1 (en) Image processor and image processing method
JP7246167B2 (ja) 画像処理装置及び画像処理方法
JP7341730B2 (ja) 画像処理装置及び画像処理方法
EP3731138A1 (en) Image processing device and image processing method
JP7141940B2 (ja) 画像処理装置および画像処理方法
JP7446851B2 (ja) 画像処理装置及び画像処理方法
JP7446830B2 (ja) 画像処理装置及び画像処理方法
JP7453008B2 (ja) 画像処理装置及び画像処理方法
JP2005079966A (ja) 車両用周囲監視装置および車両用周囲表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240604

R150 Certificate of patent or registration of utility model

Ref document number: 7499606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150