JP6799030B2 - 画像認識装置、画像認識方法、及び駐車支援システム - Google Patents

画像認識装置、画像認識方法、及び駐車支援システム Download PDF

Info

Publication number
JP6799030B2
JP6799030B2 JP2018101443A JP2018101443A JP6799030B2 JP 6799030 B2 JP6799030 B2 JP 6799030B2 JP 2018101443 A JP2018101443 A JP 2018101443A JP 2018101443 A JP2018101443 A JP 2018101443A JP 6799030 B2 JP6799030 B2 JP 6799030B2
Authority
JP
Japan
Prior art keywords
recognition
captured image
image
vehicle
parking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018101443A
Other languages
English (en)
Other versions
JP2019206208A (ja
Inventor
山本 徹夫
徹夫 山本
卓也 伊藤
卓也 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Toyota Motor Corp
Original Assignee
Denso Ten Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Toyota Motor Corp filed Critical Denso Ten Ltd
Priority to JP2018101443A priority Critical patent/JP6799030B2/ja
Priority to US16/270,038 priority patent/US20190362164A1/en
Publication of JP2019206208A publication Critical patent/JP2019206208A/ja
Application granted granted Critical
Publication of JP6799030B2 publication Critical patent/JP6799030B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、区画線を認識する画像認識技術に関する。
近年、カメラ画像から白線等の区画線を認識し、認識した区画線に基づいて駐車枠を構築する技術が開発されている(例えば特許文献1参照)。
特許文献1で開示されている駐車枠構築技術は、車両の後方を撮影する後方カメラで得られた撮影画像のみで区画線を認識し、その認識した区画線に基づいて駐車枠を構築する。換言すると、特許文献1で開示されている駐車枠構築技術は、車両の後方を撮影する後方カメラで得られた撮影画像のみで区画線を認識し、その認識した区画線に基づいて所定の駐車位置を設定する。
特開2010−195224号公報
通常、後方カメラには広角カメラが採用される。広角カメラで得られた撮影画像の端部は中央部に比べて歪みが大きいため解像度が悪い。
したがって、図8に示すように自車両V1が区画線LNの前を横切るとき、自車両V1の側方に位置する区画線LNは後方カメラで得られた撮影画像上の端部になり、区画線LNの認識精度が低くなる。その結果、駐車枠が正しい位置からずれて構築されるおそれがあった。
本発明は、上記の課題に鑑み、区画線の誤認識を低減できる画像認識技術を提供することを目的とする。
本発明に係る画像認識装置は、車両の周辺を撮影する第1カメラで得られた第1撮影画像に基づき駐車区画を示す区画線を探索する探索部と、前記探索部の探索結果に基づき駐車すべき駐車位置を決定する決定部と、前記決定部による決定の後、前記車両の周辺を撮影する第2カメラで得られた第2撮影画像に基づき前記区画線を認識する認識部と、を備え、前記認識部は、前記探索部において得られる前記第1撮影画像の認識結果に基づき前記第2撮影画像の前記区画線の認識を補正する構成(第1の構成)である。
また、上記第1の構成の画像認識装置において、前記認識部は、前記車両の少なくとも一部が前記駐車区画内に入ったことを推定した後、前記第1撮影画像に基づき前記区画線を認識する構成(第2の構成)であってもよい。
また、上記第1又は第2の構成の画像認識装置において、前記第1カメラは前記車両の側方を撮影するカメラであり、前記第2カメラは前記車両の後方または前方を撮影するカメラである構成(第3の構成)であってもよい。
また、上記第1〜第3いずれかの構成の画像認識装置において、前記認識部は、前記第1撮影画像から認識された前記区画線の形状に基づき前記第2撮影画像の前記区画線の認識を補正する構成(第4の構成)であってもよい。
また、上記第第4の構成の画像認識装置において、前記認識部は、前記第1撮影画像から認識された前記区画線の形状と前記第2撮影画像から認識された前記区画線の形状とが所定量以上ずれている場合、前記第1撮影画像から認識された前記区画線の形状を採用し、採用した前記区画線の形状に基づき前記第2撮影画像の前記区画線の認識を補正する構成(第5の構成)であってもよい。
また、上記第1〜第5いずれかの構成の画像認識装置において、前記認識部は、前記第1撮影画像から認識された前記区画線の色に基づき前記第2撮影画像の前記区画線の認識を補正する構成(第6の構成)であってもよい。
また、上記第1〜第6いずれかの構成の画像認識装置において、前記認識部は、前記第1撮影画像から認識された前記区画線の方向に基づき前記第2撮影画像の前記区画線の認識を補正する構成(第7の構成)であってもよい。
また、上記第1〜第7いずれかの構成の画像認識装置において、前記認識部は、前記第1撮影画像から認識された前記区画線の太さに基づき前記第2撮影画像の前記区画線の認識を補正する構成(第8の構成)であってもよい。
また、上記第1〜第8いずれかの構成の画像認識装置において、前記認識部は、前記第1撮影画像から認識された前記駐車区画の幅に基づき前記第2撮影画像の前記区画線の認識を補正する構成(第9の構成)であってもよい。
本発明に係る画像認識方法は、車両の周辺を撮影する第1カメラで得られた第1撮影画像に基づき駐車区画を示す区画線を探索する探索工程と、前記探索工程の探索結果に基づき駐車すべき駐車位置を決定する決定工程と、前記決定工程による決定の後、前記車両の周辺を撮影する第2カメラで得られた第2撮影画像に基づき前記区画線を認識する認識工程と、を備え、前記認識工程は、前記探索工程において得られる前記第1撮影画像の認識結果に基づき前記第2撮影画像の前記区画線の認識を補正する構成(第10の構成)である。
本発明に係る駐車支援システムは、上記第1〜第9いずれかの構成の画像認識装置と、前記画像認識装置の認識結果に基づき前記車両の制御量を算出する駐車制御装置と、を備える構成(第11の構成)である。
本発明の画像認識技術によれば、区画線の誤認識を低減できる。
駐車支援システムの一構成例を示す図 駐車場における自車両の位置を示す図 駐車場における自車両の位置を示す図 駐車場における自車両の位置を示す図 駐車場における自車両の位置を示す図 画像処理ECU及び駐車制御ECUの動作例を示すフローチャート 目標駐車位置の算出手順を示すフローチャート 端点座標と目標駐車位置の座標候補との関係を示す上面図 区画線の形状例を示す図 口型形状の区画線を示す図 駐車場における自車両の位置を示す図
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方向」と呼ぶ。また、車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」と呼ぶ。また、駐車支援システムを搭載している車両を「自車両」と呼ぶ。
<1.駐車支援システムの構成>
図1は、駐車支援システムの一構成例を示す図である。図1に示す駐車支援システムは、画像処理ECU(Electronic Control Unit)1と、撮影部2と、駐車制御ECU3と、EPS(Electric Power Steering)−ECU4と、車載ネットワーク5と、表示装置6と、を備える。
画像処理ECU1は、撮影部2及び表示装置6に接続されるとともに、駐車制御ECU3及びEPS−ECU4にCAN(Controller Area Network)などの車載ネットワーク5を介して接続される。
撮影部2は、4つのカメラ20〜23を備える。カメラ20は自車両の前端に設けられる。このため、カメラ20をフロントカメラ20とも呼ぶ。カメラ21は自車両の後端に設けられる。このため、カメラ21をバックカメラ21とも呼ぶ。フロントカメラ20及びバックカメラ21の光軸は上面視で自車両の前後方向に沿っている。フロントカメラ20は自車両の前方向を撮影し、バックカメラ21は自車両の後方向を撮影する。フロントカメラ20及びバックカメラ21の取付位置は、自車両の左右中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
カメラ22は自車両の左側ドアミラーに設けられる。このため、カメラ22を左サイドカメラ22とも呼ぶ。また自車両がいわゆるドアミラーレス車である場合には、左サイドカメラ22は、左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。左サイドカメラ22の光軸は上面視で自車両の左右方向に沿っている。左サイドカメラ22は自車両の左方向を撮影する。カメラ23は自車両の右側ドアミラーに設けられる。このため、カメラ23を右サイドカメラ23とも呼ぶ。また自車両がいわゆるドアミラーレス車である場合には、右サイドカメラ23は、右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。右サイドカメラ23の光軸は上面視で自車両の左右方向に沿っている。右サイドカメラ23は自車両の右方向を撮影する。
画像処理ECU1は、映像取得部10と、探索部11と、決定部12と、認識部13と、表示制御部14と、を備える。画像処理ECU1は、画像を認識する画像認識装置であるとともに、表示装置6の表示を制御する表示制御装置でもある。
画像処理ECU1は、例えば制御部と記憶部とによって構成することができる。制御部は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータである。記憶部は、画像処理ECU1が映像取得部10、探索部11、決定部12、認識部13、及び表示制御部14として動作するために必要なコンピュータプログラム及びデータを不揮発的に記憶する。記憶部としては、例えば、EEPROM、フラッシュメモリ等を用いることができる。
映像取得部10は、各カメラ20〜23からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した時間的に連続した撮影画像(取得した映像)がアナログの場合には、映像取得部10は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。
探索部11は、映像取得部10から出力される左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像に基づき駐車区画を示す区画線を探索する。探索部11は、例えば自車両の車速が所定速度以下になった場合に駐車区画を示す区画線の探索を開始する。本実施形態では、探索部11は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から駐車区画を示す区画線をエッジ抽出などの画像処理を利用して例えば100ms周期で認識し、認識した区画線に基づき駐車枠を認識する。なお、区画線は駐車場の舗装面に白線や黄線などで描かれている。決定部12は、認識した駐車枠に基づき駐車すべき駐車位置を決定する。本実施形態では、決定部12は、自車両が停車した時点で自車両に最も近い空き駐車区画を駐車すべき駐車位置として決定する。
認識部13は、決定部12による決定の後、バックカメラ21の撮影画像から駐車すべき駐車位置の区画線をエッジ抽出などの画像処理を利用して例えば100ms周期で認識し、認識した区画線に基づき駐車枠を認識する。
認識部13は、決定部12によって決定された駐車位置に対応する目標駐車位置を算出する。さらに、認識部13は、目標駐車位置を駐車制御ECU3に送信し、その後、駐車制御ECU3によって推定された目標駐車位置を受信する。
認識部13は、探索部11において得られる左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像の認識結果に基づきバックカメラ21の撮影画像の認識を補正する。当該補正の具体例については後述する。
表示制御部14は、表示装置6の表示を制御する。例えば、表示制御部14は、映像取得部10から出力される撮影画像に目標駐車位置を示す指標を重畳した表示画像を生成する。
駐車制御ECU3は、画像処理ECU1から受信した目標駐車位置と不図示のクリアランスソナーセンサの出力とに基づいて、駐車可能な目標駐車位置を推定する。なお、駐車制御ECU3は、車載ネットワーク5から取得した自車両の舵角、車速、シフトなどの情報に基づいて自車両の移動量を推定し、推定した自車両の移動量に対応する目標駐車位置を、推定した自車両の移動量と画像処理ECU1から受信した目標駐車位置とに基づいて推定してもよい。駐車制御ECU3は、推定した目標駐車位置を画像処理ECU1に送信する。さらに、駐車制御ECU3は、不図示のクリアランスソナーセンサの出力と目標駐車位置とに基づいてステアリング操舵量を算出し、ステアリング操舵量に関する情報をEPS−ECU4に送信する。なお、ステアリング制御できない目標駐車位置は、目標駐車位置の推定の時に削除する。
EPS−ECU4は、駐車制御ECU3から受け取ったステアリング操舵量に関する情報に基づいて自車両の駐車動作時に自動操舵を行う。なお、アクセル操作及びブレーキ操作はドライバーが担う。
<2.駐車支援システムの概略動作>
駐車支援システムの概略動作について駐車シーンを参照して説明する。図2A〜図2Dは駐車場における自車両の位置を示す図である。駐車シーンは、図2A、図2B、図2C、図2Dの順に推移する。
自車両V1が所定速度以下で図2Aに示すように直進前進している期間(以下、期間Aという)では、探索部11は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像に基づき空き駐車区画の区画線を認識する。認識部13は、探索部11による区画線の認識結果から空き駐車区画の目標駐車位置を算出する。図2A中の黒丸が空き駐車区画の目標駐車位置である。
自車両V1が所定速度以下で図2Bに示すように旋回前進している期間(以下、期間Bという)では、探索部11は、旋回外側のサイドカメラ(図2Bでは左サイドカメラ22)の撮影画像及びバックカメラ21の撮影画像に基づき空き駐車区画の区画線を認識する。認識部13は、探索部11による区画線の認識結果から空き駐車区画の目標駐車位置を算出する。図2B中の黒丸が空き駐車区画の目標駐車位置である。
図2Cに示すように自車両V1が停車又は駐車すべき駐車区画の駐車枠FM外を後退している期間(以下、期間Cという)では、認識部13は、バックカメラ21の撮影画像に基づき駐車すべき駐車区画の区画線を認識する。ここでは、認識部13は、バックカメラ21の撮影画像全体を用いずに、前回までに認識した区画線の端点周囲領域のみを用いる。認識部13は、区画線の認識結果から駐車すべき駐車区画の目標駐車位置を算出する。図2C中の黒丸が駐車すべき駐車区画の目標駐車位置である。
図2Dに示すように自車両V1の少なくとも一部が駐車すべき駐車区画の駐車枠FM内に入った状態で自車両V1が後退している期間(以下、期間Dという)では、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像に基づき駐車すべき駐車区画の区画線を認識する。ここでは、認識部13は、左サイドカメラ22の撮影画像全体及び右サイドカメラ23の撮影画像全体を用いずに、前回までに認識した区画線の端点周囲領域のみを用いる。認識部13は、区画線の認識結果から駐車すべき駐車区画の目標駐車位置を算出する。図2D中の黒丸が駐車すべき駐車区画の目標駐車位置である。期間Dではバックカメラ21の撮影画像を用いずに区画線を認識するので、バックカメラ21の撮影画像の端部に区画線が位置していても、空き駐車区画に対応する駐車枠及び目標駐車位置が正しい位置からずれることを抑制することができる。
探索部11は、期間Aで得られる左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像の認識結果、及び、期間Bで得られる旋回外側サイドカメラの撮影画像の認識結果に基づき、期間Bで得られるバックカメラ21の撮影画像の認識を補正する。これにより、期間Bで得られるバックカメラ21の撮影画像に基づく区画線の認識精度が向上する。したがって、空き駐車区画に対応する駐車枠及び目標駐車位置が正しい位置からずれることを抑制することができる。
認識部13は、期間Aで得られる左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像の認識結果、及び、期間Bで得られる旋回外側サイドカメラの撮影画像の認識結果に基づき、期間Cで得られるバックカメラ21の撮影画像の認識を補正する。これにより、期間Cで得られるバックカメラ21の撮影画像に基づく区画線の認識精度が向上する。したがって、駐車すべき駐車区画に対応する駐車枠及び目標駐車位置が正しい位置からずれることを抑制することができる。
<3.画像処理ECU及び駐車制御ECUの動作>
次に、画像処理ECU1及び駐車制御ECU3の動作について説明する。図3は、画像処理ECU1及び駐車制御ECU3の動作例を示すフローチャートである。なお、区画線認識及び駐車枠認識動作に関する動作主体は画像処理ECU1の探索部11又は認識部13である。
図3に示すフロー動作では、まず始めに画像処理ECU1が区画線の認識を試みる(ステップS1)。
区画線が認識されると、画像処理ECU1は、カメラ画像の座標系を、車両の特定点を原点とした座標系(ワールド座標系)に変換する(ステップS2)。本実施形態では、車両の特定点は、車両の前端から後方向に有効長(車両の全長からリアオーバーハングを引いた長さ)離れており、且つ、車両の左右方向の中央である点としている。そして、ワールド座標系では、車両の前後方向をZ軸方向(後方向がZ軸の正方向)とし、車両の左右方向をX軸方向(左方向がX軸の正方向)としている。
ステップS2に続くステップS3において、画像処理ECU1は、カメラ画像に基づき駐車枠を認識する。
次に、決定部12は、認識した駐車枠に基づき駐車すべき駐車位置を決定する(ステップS4)。次に、認識部13は、決定部12によって決定された駐車位置に対応する目標駐車位置を算出し(ステップS5)、目標駐車位置に関する情報を駐車制御ECU3に送信する(ステップS6)。
駐車制御ECU3は、画像処理ECU1から目標駐車位置に関する情報を受信する(ステップS41)次に、駐車制御ECU3は、受信した目標駐車位置に関する情報とクリアランスソナーセンサの出力とに基づき、目標駐車位置を推定する(ステップS42)。なお、駐車制御ECU3は、受信した目標駐車位置に関する情報に基づき、自車両の移動量に対応する目標駐車位置を推定してもよい。そして、駐車制御ECU3は、推定した目標駐車位置に関する情報を画像処理ECU1に送信する(ステップS43)。
決定部12は、駐車制御ECU3によって推定された目標駐車位置に関する情報を受信する(ステップS7)。認識部13は、既に算出した目標駐車位置(ステップS5)に代えて、駐車制御ECU3によって推定された目標駐車位置を新たな目標駐車位置として認識する。次に、画像処理ECU1は、ワールド座標系をカメラ画像の座標系に戻す(ステップS8)。そして、表示制御部14は、認識部13が新たに認識した目標駐車位置に基づき、映像取得部10から出力される撮影画像に目標駐車位置を示す指標を重畳した表示画像を生成し、目標駐車位置を表示装置6の表示画面に描画する(ステップS9)。
なお、画像処理ECU1は、終了イベントが発生しているか否かを図3に示すフローチャートの動作中常時監視し、終了イベントが発生すれば直ちに図3に示すフローチャートの動作を終了する。終了イベントとしては、例えば、ワールド座標系において目標駐車位置の座標と原点との距離が略零である所定値以下になったこと、自車両の車速が所定速度より速くなったこと等を挙げることができる。
<4.目標駐車位置の算出>
次に、画像処理ECU1によって実行される目標駐車位置の算出について説明する。図4は、目標駐車位置の算出手順を示すフローチャートである。図5は、端点座標と目標駐車位置の座標候補との関係を示す上面図である。
目標駐車位置の算出において、まず、画像処理ECU1は、一方の区画線の端点座標EP1から車両とは逆側に向かって有効長L0(車両の全長からリアオーバーハングを引いた長さ)離れている第1の座標A1を算出する(ステップS11)。次に、画像処理ECU1は、他方の区画線の端点座標EP2から車両とは逆側に向かって有効長L0離れている第2の座標A2を算出する(ステップS12)。駐車枠検知結果は、区画線の端点座標EP1及びEP2に関する情報を含んでいる。
次に、画像処理ECU1は、一方の区画線の長手方向と垂直な方向に第1の座標A1から他方の区画線に向かって第1の端点座標EP1と他方の区画線との距離Wの半分離れている第3の座標A3を算出し、一方の区画線の長手方向と垂直な方向に第1の座標A1から他方の区画線とは逆側に向かって距離Wの半分離れている第4の座標A4を算出する(ステップS13)。さらに、画像処理ECU1は、他方の区画線の長手方向と垂直な方向に第2の座標A2から一方の区画線側に向かって距離Wの半分離れている第5の座標A5を算出し、他方の区画線の方向と垂直な方向に第2の座標A2から一方の区画線とは逆側に向かって距離Wの半分離れている第6の座標A6を算出する(ステップS14)。
そして、画像処理ECU1は、第3の座標A3〜第6の座標A6のうち2点間距離が最小になる2つの座標を選択し(ステップS15)、選択した2つの座標のうち車両に近い方の座標(原点との距離が小さい方の座標)を目標駐車位置の座標とし(ステップS16)、目標駐車位置の座標の算出処理を終了する。
図4に示すフローチャートの処理によって、目標駐車位置の座標を一方の区画線及び他方の区画線の車両側の端部(駐車区画の入り口)から駐車区画の奥行き方向に有効長L0だけ奥に入り、且つ一方の区画線及び他方の区画線の中央である位置にすることができる。
<5.補正の具体例>
次に、認識部13が実行する補正の具体例について説明する。なお、駐車シーンが図2A、図2B、図2C、図2Dの順に推移する際、一度認識された区画線や一度認識された駐車枠は座標管理によって追尾され、認識部13が実行する補正は、各区画線単位や各駐車枠単位で実行される。また、後述する第1〜第5の補正例のうちの複数を組み合わせ実施してもよい。
(第1の補正例)
例えば、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の形状に基づきバックカメラ21の撮影画像の認識を補正する。区画線の形状例として図6(a)に示すI型形状、図6(b)に示すU型形状、図6(c)に示す口型形状等がある。
区画線の形状が図6(c)に示す口型形状であれば、期間Cにおいて「前回までに認識した区画線の端点周囲領域」は図7に示す領域Rとなる。ここで、認識部13が区画線の形状として図6(c)に示す口型形状を正しく認識していなければ、認識部13が領域R内の区画線端部の出っ張り部分Pのエッジによって区間線の方向を誤認識してしまうおそれがある。
そこで、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の形状とバックカメラ21の撮影画像から認識された区画線の形状とが一致しない場合、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の形状を採用し、その採用した区画線の形状に基づきバックカメラ21の撮影画像の認識(区画線の形状以外の認識)を実行する。これにより、認識部13が区間線の方向を認識する精度が向上し、駐車すべき駐車区画に対応する駐車枠及び目標駐車位置が正しい位置からずれることを抑制することができる。すなわち、バックカメラ21で斜めかつ遠方から区画線の形状を認識する場合、認識した区画線のエッジの位置がずれて検出される場合があるからである。区画線のエッジの位置がずれると、区画線が実際より斜めに検出されることとなる。このため、バックカメラ21で認識した区画線のエッジの位置が、左サイドカメラ22又は右サイドカメラ23が認識した区画線のエッジの位置より所定量以上ずれている場合は、左サイドカメラ22又は右サイドカメラ23で検出した位置を使うことが好ましい。
(第2の補正例)
例えば、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の色に基づきバックカメラ21の撮影画像の認識を補正する。
探索部11及び認識部13は、映像取得部10によって取得された撮影画像を基本的にはグレースケールの画像に変換してから画像処理を行っている。ただし、コンクリート舗装上に黄線で描画された区画線はグレースケールの画像上でコンクリートとのコントラストが小さいため、探索部11及び認識部13は、撮影画像の黄色領域を検出し、黄色領域のエッジを検出することで黄色の区画線を認識している。しかしながら、撮影画像上で黄色の区画線の解像度が悪ければ、認識部13において黄色の区画線の誤認識や認識漏れが発生するおそれがある。
そこで、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の色とバックカメラ21の撮影画像から認識された区画線の色とが所定レベル以上ずれている場合、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の色を採用し、その採用した区画線の色に基づきバックカメラ21の撮影画像の認識(区画線の色以外の認識)を実行する。これにより、認識部13が区間線の色を認識する精度が向上し、駐車すべき駐車区画に対応する駐車枠及び目標駐車位置が正しい位置からずれることを抑制することができる。
(第3の補正例)
例えば、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の方向に基づきバックカメラ21の撮影画像の認識を補正する。
上述した第1の補正例において説明したように認識部13が区間線の方向を誤認識してしまうおそれがある。
そこで、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の方向とバックカメラ21の撮影画像から認識された区画線の方向とが所定レベル以上ずれている場合、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の方向を採用し、その採用した区画線の方向に基づきバックカメラ21の撮影画像の認識(区画線の方向以外の認識)を実行する。これにより、認識部13が区間線の方向を認識する精度が向上し、駐車すべき駐車区画に対応する駐車枠及び目標駐車位置が正しい位置からずれることを抑制することができる。
(第4の補正例)
例えば、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の太さに基づきバックカメラ21の撮影画像の認識を補正する。
区画線の太さは一般的に10cm〜15cm程度であるのに対して、グレーチングの太さ(幅)は一般的に30cm〜50cm程度である。したがって、撮影画像から認識された区画線の太さに関して閾値判定を行い、閾値以上であれば撮影画像から認識された区画線として取り扱わないようにすることが望ましい。
しかしながら、撮影画像上で区画線の解像度が悪ければ、認識部13での閾値判定に誤りが生じるおそれがある。
そこで、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の太さとバックカメラ21の撮影画像から認識された区画線の太さとが所定レベル以上ずれている場合、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された区画線の太さを採用し、その採用した区画線の太さに基づきバックカメラ21の撮影画像の認識(上述した区画線の太さに関する閾値判定)を実行する。これにより、認識部13が区間線を認識する精度が向上し、駐車すべき駐車区画に対応する駐車枠及び目標駐車位置が正しい位置からずれることを抑制することができる。
(第5の補正例)
例えば、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された駐車枠の幅(図5中の距離W参照)に基づきバックカメラ21の撮影画像の認識を補正する。
駐車枠の幅は一般的に2m程度である。したがって、撮影画像から認識された駐車枠線の幅に関して閾値判定を行い、閾値以上であれば撮影画像から認識された駐車枠として取り扱わないようにすることが望ましい。
しかしながら、撮影画像上で区画線の解像度が悪ければ、認識部13での閾値判定に誤りが生じるおそれがある。
そこで、認識部13は、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された駐車枠の幅とバックカメラ21の撮影画像から認識された駐車枠の幅とが所定レベル以上ずれている場合、左サイドカメラ22の撮影画像及び右サイドカメラ23の撮影画像から認識された駐車枠の幅を採用し、その採用した駐車枠の幅に基づきバックカメラ21の撮影画像の認識(上述した駐車枠の幅に関する閾値判定)を実行する。これにより、認識部13が誤った駐車枠を認識することを抑制し、駐車すべき駐車区画に対応する駐車枠及び目標駐車位置が正しい位置からずれることを抑制することができる。
<6.留意事項>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。
例えば上述した実施形態では、1つのECU(画像処理ECU)が画像認識装置と表示制御装置とを備える構成であったが、画像認識装置と表示制御装置とは互いに異なるECUであってもよい。
また例えば上述した実施形態では、後退駐車を行う駐車支援システムについて説明したが、駐車場によっては近隣住民への配慮等の理由から前進駐車が推奨されている場合がある。したがって、上述した実施形態での後退を前進に置き換え、上述した実施形態でのバックカメラ21の撮影画像をフロントカメラ20の撮影画像に置き換えた形態での駐車支援が可能な駐車支援システムであってもよい。
また例えば上述した実施形態では、撮影部2が4つのカメラ20〜23を備える構成であった。しかしながら、カメラの数は4つに限られることなく、複数のカメラであればよい。一例として、各カメラの水平方向の画角が比較的広い場合は、撮影部2が4つよりも少ない3つのカメラを備える構成であってもよい。さらに、別の例として、各カメラの水平方向の画角が比較的狭い場合は、撮影部2が4つよりも多い5つのカメラを備える構成であってもよい。このような変形例においても上述した実施形態と同様に、探索部11が第1カメラで得られた第1撮影画像に基づき駐車区画を示す区画線を探索し、認識部13が第2カメラで得られた第2撮影画像に基づき区画線を認識し、探索部11において得られる上記第1撮影画像の認識結果に基づき上記第2撮影画像の区画線の認識を補正するようにすればよい。
1 画像処理ECU
10 映像取得部
11 探索部
12 決定部
13 認識部
14 表示制御部
2 撮影部
20〜23 カメラ
3 駐車制御ECU
4 EPS−ECU
5 車載ネットワーク
6 表示装置

Claims (9)

  1. 車両の周辺を撮影する第1カメラで得られた第1撮影画像に基づき駐車区画を示す区画線を探索する探索部と、
    前記探索部の探索結果に基づき駐車すべき駐車位置を決定する決定部と、
    前記決定部による決定の後、前記車両の周辺を撮影する第2カメラで得られた第2撮影画像に基づき前記区画線を認識する認識部と、
    を備え、
    前記認識部は、前記探索部において得られる前記第1撮影画像の認識結果に基づき前記第2撮影画像の前記区画線の認識を補正する、画像認識装置。
  2. 前記認識部は、前記車両の少なくとも一部が前記駐車区画内に入ったことを推定する前に、前記探索部において得られる前記第1撮影画像の認識結果に基づき前記第2撮影画像の前記区画線の認識を補正し、前記車両の少なくとも一部が前記駐車区画内に入ったことを推定した後、前記第1撮影画像に基づき前記区画線を認識する、請求項1に記載の画像認識装置。
  3. 前記第1カメラは前記車両の側方を撮影するカメラであり、前記第2カメラは前記車両の後方または前方を撮影するカメラである、請求項1又は請求項2に記載の画像認識装置。
  4. 前記認識部は、前記車両の少なくとも一部が前記駐車区画内に入ったことを推定する前に、前記第1撮影画像から前記探索部によって認識された区画線の形状に基づき前記第2撮影画像に関して前記区画線の形状以外の認識を実行することによって、前記第2撮影画像の前記区画線の認識を補正する、請求項1〜3のいずれか一項に記載の画像認識装置。
  5. 前記認識部は、前記車両の少なくとも一部が前記駐車区画内に入ったことを推定する前に、前記第1撮影画像から前記探索部によって認識された区画線のエッジの位置と前記第2撮影画像から前記認識部によって認識された区画線のエッジの位置とが所定量以上ずれている場合、前記第1撮影画像から前記探索部によって認識された区画線の形状を採用し、採用した前記区画線の形状に基づき前記第2撮影画像に関して前記区画線の形状以外の認識を実行することによって、前記第2撮影画像の前記区画線の認識を補正する、請求項4に記載の画像認識装置。
  6. 前記認識部は、前記車両の少なくとも一部が前記駐車区画内に入ったことを推定する前に、前記第1撮影画像から前記探索部によって認識された区画線の方向に基づき前記第2撮影画像に関して前記区画線の方向以外の認識を実行することによって、前記第2撮影画像の前記区画線の認識を補正する、請求項1〜3のいずれか一項に記載の画像認識装置。
  7. 前記認識部は、前記車両の少なくとも一部が前記駐車区画内に入ったことを推定する前に、前記第1撮影画像から前記探索部によって認識された区画線の太さに基づき前記第2撮影画像に関して前記区画線の太さ以外の認識を実行することによって、前記第2撮影画像の前記区画線の認識を補正する、請求項1〜3のいずれか一項に記載の画像認識装置。
  8. 車両の周辺を撮影する第1カメラで得られた第1撮影画像に基づき駐車区画を示す区画線を探索する探索工程と、
    前記探索工程の探索結果に基づき駐車すべき駐車位置を決定する決定工程と、
    前記決定工程による決定の後、前記車両の周辺を撮影する第2カメラで得られた第2撮影画像に基づき前記区画線を認識する認識工程と、
    を備え、
    前記認識工程は、前記探索工程において得られる前記第1撮影画像の認識結果に基づき前記第2撮影画像の前記区画線の認識を補正する、画像認識方法。
  9. 請求項1〜7のいずれか一項に記載の画像認識装置と、
    前記画像認識装置の認識結果に基づき前記車両の制御量を算出する駐車制御装置と、
    を備える、駐車支援システム。
JP2018101443A 2018-05-28 2018-05-28 画像認識装置、画像認識方法、及び駐車支援システム Active JP6799030B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018101443A JP6799030B2 (ja) 2018-05-28 2018-05-28 画像認識装置、画像認識方法、及び駐車支援システム
US16/270,038 US20190362164A1 (en) 2018-05-28 2019-02-07 Image recognition device, image recognition method, and parking assist system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018101443A JP6799030B2 (ja) 2018-05-28 2018-05-28 画像認識装置、画像認識方法、及び駐車支援システム

Publications (2)

Publication Number Publication Date
JP2019206208A JP2019206208A (ja) 2019-12-05
JP6799030B2 true JP6799030B2 (ja) 2020-12-09

Family

ID=68613719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018101443A Active JP6799030B2 (ja) 2018-05-28 2018-05-28 画像認識装置、画像認識方法、及び駐車支援システム

Country Status (2)

Country Link
US (1) US20190362164A1 (ja)
JP (1) JP6799030B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7466324B2 (ja) * 2020-02-12 2024-04-12 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
CN112734856A (zh) * 2021-01-05 2021-04-30 恒信东方文化股份有限公司 一种服装的拍摄角度的确定方法及系统
WO2022222047A1 (zh) * 2021-04-20 2022-10-27 Oppo广东移动通信有限公司 文档扫描方法及装置、存储介质及电子设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3698039B2 (ja) * 2000-09-18 2005-09-21 日産自動車株式会社 駐車支援装置
JP2008285083A (ja) * 2007-05-18 2008-11-27 Toyota Motor Corp 駐車支援装置

Also Published As

Publication number Publication date
US20190362164A1 (en) 2019-11-28
JP2019206208A (ja) 2019-12-05

Similar Documents

Publication Publication Date Title
JP6541590B2 (ja) カメラキャリブレーション装置
JP5966747B2 (ja) 車両走行制御装置及びその方法
JP6799030B2 (ja) 画像認識装置、画像認識方法、及び駐車支援システム
CN113602260B (zh) 车辆向后行驶辅助装置及其控制方法
JP6642906B2 (ja) 駐車位置検出システム及びそれを用いた自動駐車システム
JP6302519B2 (ja) 車両の運転支援装置
JP2003063340A (ja) 運転補助装置
JP7077910B2 (ja) 区画線検出装置及び区画線検出方法
JP2017143417A (ja) キャリブレーションシステム、キャリブレーション装置
US20160251030A1 (en) Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system
JP6778620B2 (ja) 区画線検出装置、区画線検出システム、及び区画線検出方法
US20170259830A1 (en) Moving amount derivation apparatus
JP6376354B2 (ja) 駐車支援システム
JP7426174B2 (ja) 車両周囲画像表示システム及び車両周囲画像表示方法
JP2007220013A (ja) 車両用白線検出装置
JP6622664B2 (ja) 自車位置特定装置、及び自車位置特定方法
JP7164172B2 (ja) 駐車枠構築装置及び駐車枠構築方法
JP2016149613A (ja) カメラパラメータ調整装置
US20200193184A1 (en) Image processing device and image processing method
JP6407596B2 (ja) 画像処理装置、及び、運転支援システム
US20210190509A1 (en) Position estimating apparatus and position estimating method
JP2003036500A (ja) 車両の走行区分線認識装置
KR101424636B1 (ko) 자동 후진 주차시스템
JP2007251880A (ja) 車両用画像表示装置および画像合成方法
JP2007018451A (ja) 道路区画線検出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180611

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201119

R150 Certificate of patent or registration of utility model

Ref document number: 6799030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250