JP7116613B2 - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP7116613B2 JP7116613B2 JP2018136603A JP2018136603A JP7116613B2 JP 7116613 B2 JP7116613 B2 JP 7116613B2 JP 2018136603 A JP2018136603 A JP 2018136603A JP 2018136603 A JP2018136603 A JP 2018136603A JP 7116613 B2 JP7116613 B2 JP 7116613B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- management
- parking frame
- update type
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置および画像処理方法に関し、詳細には画像処理により駐車枠の認識および管理を行う技術に関する。 TECHNICAL FIELD The present invention relates to an image processing device and an image processing method, and more particularly to technology for recognizing and managing parking frames by image processing.
特許文献1には、カメラが撮影して得られた画像から白線を検出し、2つの白線間の領域を駐車スペースとして検知することが開示される。また、特許文献1には、検知した駐車スペースの情報を、車両運動取得部により出力された直前の処理周期から現在の処理周期までの車両の移動量を用いて更新することが開示される。
特許文献1に開示される手法では、CANバスを介して車両の進行方向や速度に関する情報を取得して、当該情報により車両の移動量を求めて駐車スペースの現在位置を推定する。この構成では、車両の移動量の推定誤差が蓄積した場合に、駐車スペースの位置が適切な位置からずれる可能性がある。また、レンズの歪等の影響により、カメラから離れた位置において、撮影画像から白線の検出を適切に行うことができず、適切な駐車スペースを検知できないことがある。
In the method disclosed in
本発明は、上記課題に鑑みて、カメラの撮影画像に基づき得られる駐車枠に関する情報の信頼度を向上することができる技術を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide a technique capable of improving the reliability of information regarding a parking frame obtained based on an image captured by a camera.
上記目的を達成するために本発明の画像処理装置は、車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識部と、過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理部と、を備え、前記管理部は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する構成(第1の構成)になっている。 In order to achieve the above object, the image processing apparatus of the present invention includes a recognition unit that recognizes a parking frame based on a captured image obtained by a camera that captures the surroundings of a vehicle, and position information of the parking frame that has been recognized in the past. Based on the observation information including the position information of the parking frame obtained from the current captured image, the management unit updates management information including, based on the management information and the observation information, An update type is classified for each division line that constitutes the parking frame to be managed, and the management information is updated based on the classification (first configuration).
上記第1の構成の画像処理装置において、前記管理部は、前記車両の移動情報と前記管理情報とに基づき前記駐車枠の位置情報を含む推定情報を求める処理を行い、前記更新種別の分類は、前記推定情報と前記観測情報とに基づいて行われる構成(第2の構成)であることが好ましい。 In the image processing apparatus having the first configuration, the management unit performs a process of obtaining estimation information including position information of the parking frame based on the movement information of the vehicle and the management information, and classifies the update type as: , the configuration (second configuration) performed based on the estimation information and the observation information.
上記第2の構成の画像処理装置において、前記管理部は、前記観測情報と前記推定情報との両方に位置情報が含まれる前記区画線を第1更新種別に分類し、前記観測情報にのみ位置情報が含まれる前記区画線を第2更新種別に分類し、前記推定情報にのみ位置情報が含まれる前記区画線を第3更新種別に分類する構成(第3の構成)であることが好ましい。 In the image processing apparatus having the second configuration, the management unit classifies the lane markings whose position information is included in both the observation information and the estimation information into a first update type, It is preferable that the lane markings containing information are classified into a second update type, and the lane markings containing position information only in the estimated information are classified into a third update type (third structure).
上記第3の構成の画像処理装置において、前記管理情報の更新に際して、前記第1更新種別の前記区画線の位置情報は、前記観測情報の値に更新され、前記第2更新種別の前記区画線の位置情報は、前記観測情報の値で仮登録され、前記第3更新種別の前記区画線の位置情報は、前記推定情報の値を、前記観測情報と前記推定情報とに基づき得られる補正値で補正した値に更新される構成(第4の構成)であることが好ましい。 In the image processing apparatus having the third configuration, when updating the management information, the position information of the lane marking of the first update type is updated to the value of the observation information, and the lane marking of the second update type is updated to the value of the observation information. is provisionally registered with the value of the observation information, and the position information of the lane marking of the third update type is a correction value obtained based on the observation information and the estimation information. It is preferable that the configuration (fourth configuration) is updated to the value corrected by .
上記第4の構成の画像処理装置において、前記管理部は、複数の前記第3更新種別の前記区画線の位置情報を含む前記推定情報の値を同一の前記補正値で一括して補正する構成(第5の構成)であることが好ましい。 In the image processing apparatus having the fourth configuration, the management unit collectively corrects the values of the estimated information including the position information of the lane markings of the third update type with the same correction value. (Fifth configuration) is preferable.
上記第1から第5のいずれかの構成の画像処理装置において、前記カメラは、前記車両の側方に設けられるサイドカメラであり、前記認識部は、前記撮影画像の一部の領域を用いて前記駐車枠を認識する構成(第6の構成)であることが好ましい。 In the image processing device having any one of the first to fifth configurations, the camera is a side camera provided on the side of the vehicle, and the recognition unit uses a partial area of the captured image to It is preferable that it is the structure (6th structure) which recognizes the said parking frame.
上記目的を達成するために本発明の画像処理方法は、画像処理装置で実行される画像処理方法であって、車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識工程と、過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理工程と、を備え、前記管理工程は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する処理を含む構成(第7の構成)になっている。 In order to achieve the above object, an image processing method of the present invention is an image processing method executed by an image processing device, which recognizes a parking frame based on a photographed image obtained by a camera that photographs the surroundings of a vehicle. and a management step of updating management information including the position information of the parking frame recognized in the past based on observation information including the position information of the parking frame obtained from the currently captured image, wherein the management The step includes a process of classifying an update type for each lane line constituting the parking frame to be managed based on the management information and the observation information, and updating the management information based on the classification (second 7 configuration).
本発明によれば、カメラの撮影画像に基づき得られる駐車枠に関する情報の信頼度を向上することができる。 ADVANTAGE OF THE INVENTION According to this invention, the reliability of the information regarding a parking frame obtained based on the picked-up image of a camera can be improved.
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方向」と呼ぶ。また、車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」と呼ぶ。また、本発明の画像処理装置を含む駐車支援システムを搭載している車両を「自車両」と呼ぶ。 Exemplary embodiments of the invention are described in detail below with reference to the drawings. In the following description, the straight traveling direction of the vehicle, which is the direction from the driver's seat to the steering wheel, is referred to as the "forward direction." Also, the direction in which the vehicle travels straight ahead and is directed from the steering wheel toward the driver's seat is called the "rearward direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and directed from the right side to the left side of the driver who is facing forward is referred to as the "left direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and directed from the left side to the right side of the driver who is facing forward is referred to as the "right direction." A vehicle equipped with a parking assistance system including the image processing device of the present invention is referred to as "own vehicle".
<1.駐車支援システム>
本発明の画像処理装置は、例えば駐車支援システムに適用できる。図1は、本発明の画像処理装置1が適用される駐車支援システムの一構成例を示す図である。図1に示すように、駐車支援システムは、画像処理装置1と、撮影部2と、駐車制御ECU(Electronic Control Unit)3と、EPS(Electric Power Steering)-ECU4と、車載ネットワーク5と、を備える。
<1. Parking assistance system>
The image processing device of the present invention can be applied to, for example, a parking assistance system. FIG. 1 is a diagram showing a configuration example of a parking assistance system to which an
画像処理装置1は、撮影部2に接続されるとともに、駐車制御ECU3およびEPS-ECU4にCAN(Controller Area Network)などの車載ネットワーク5を介して接続される。画像処理装置1は、撮影部2で撮影される撮影画像に基づき駐車枠の認識と、認識した駐車枠の管理とを行う。すなわち、画像処理装置1は駐車枠管理装置として機能する。その他、画像処理装置1は、例えば、自車両が停止した時点で自車両に最も近い空き駐車枠を駐車すべき場所として目標駐車位置の算出を行う。画像処理装置1の詳細については後述する。
The
なお、画像処理装置1には、例えば、液晶ディスプレイ等の表示装置が接続されてよい。画像処理装置1は、撮影画像に目標駐車位置を示す指標を重畳した表示画像を生成して、表示装置に表示させる処理を行ってよい。
A display device such as a liquid crystal display may be connected to the
撮影部2は、自車両の周辺を撮影するカメラを備える。本実施形態では、カメラは魚眼レンズを有する。撮影部2は、自車両の側方に設けられるサイドカメラ20を備える。サイドカメラ20は、自車両の周辺を撮影するカメラに含まれ、例えば自車両のドアミラー等に設けられる。サイドカメラ20は、左サイドカメラと右サイドカメラとを含むことが好ましい。左サイドカメラは、光軸が自車両の左右方向に沿っており、自車両の左方向を撮影する。右サイドカメラは、光軸が自車両の左右方向に沿っており、自車両の右方向を撮影する。なお、撮影部2は、サイドカメラ20の他に、自車両の前方を撮影するフロントカメラや、自車両の後方を撮影するバックカメラを備えることが好ましい。
The photographing
駐車制御ECU3は、画像処理装置1から受信した目標駐車位置と、不図示のクリアランスソナーセンサの出力とに基づいてステアリング操舵量を算出し、ステアリング操舵量に関する情報をEPS-ECU4に送信する。
The
EPS-ECU4は、駐車制御ECU3から受け取ったステアリング操舵量に関する情報に基づいて自車両の駐車動作時に自動操舵を行う。なお、本実施形態では、アクセル操作及びブレーキ操作はドライバーが担う。
The EPS-ECU 4 performs automatic steering during parking operation of the own vehicle based on the information regarding the steering amount received from the
<2.画像処理装置>
図1に示すように、画像処理装置1は、制御部11と記憶部12とを備える。制御部11は、画像処理装置1の全体を制御する。制御部11は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、及び、ROM(Read Only Memory)などを備えるコンピュータで構成される。記憶部12は、制御部11が動作するために必要なコンピュータプログラムおよびデータを不揮発的に記憶する。記憶部12としては、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ等を用いることができる。
<2. Image processing device>
As shown in FIG. 1 , the
図1に示す映像取得部111、探索部112、認識部113、および、管理部114は、記憶部12に記憶されるコンピュータプログラムの実行により実現される制御部11の機能である。換言すると、画像処理装置1は、映像取得部111と、探索部112と、認識部113と、管理部114とを備える。
The
なお、制御部11が備える各機能部111~114の少なくともいずれか1つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、制御部11が備える各機能部111~114は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてよい。
At least one of the
映像取得部111は、サイドカメラ20を含む撮影部2が備える各カメラからアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した時間的に連続した撮影画像(取得した映像)がアナログの場合には、映像取得部111は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。
The
探索部112は、映像取得部111から出力されるサイドカメラ20の撮影画像に基づき駐車枠を構成する区画線を探索する。なお、サイドカメラ20が左サイドカメラと右サイドカメラとを含む場合、探索部112は、各カメラの撮影画像に対して区画線の探索を行う。
The
探索部112は、例えば自車両の車速が所定速度以下になった場合に区画線の探索を開始する。本実施形態では、探索部112は、サイドカメラ20の撮影画像から、エッジ抽出などの画像処理を利用して例えば100ms周期で区画線を検出する。なお、区画線は駐車場の舗装面に白線や黄線などで描かれる。
The searching
図2は、区画線の探索領域について説明するための模式図である。図2は、自車両Vが駐車場内に進入し、自車両Vの左側方に複数の区画線SLが存在する状態を示す。各区画線SLは左右方向に延びる。すなわち、各区画線SLは、左サイドカメラ20Lの光軸と平行な方向に延びる。複数の区画線SLは、前後方向に所定間隔をあけて並ぶ。図2において、破線で囲まれる領域Rは、自車両Vの左サイドカメラ20Lの撮影領域を模式的に示す。
FIG. 2 is a schematic diagram for explaining a search area for lane markings. FIG. 2 shows a state in which a vehicle V has entered a parking lot and a plurality of lane markings SL are present on the left side of the vehicle V. As shown in FIG. Each partition line SL extends in the left-right direction. That is, each partition line SL extends in a direction parallel to the optical axis of the
左サイドカメラ20Lの撮影画像は、左サイドカメラ20Lの光軸に沿う正面方向において解像度が高く、光軸から前後方向に離れるにつれてレンズ歪の影響等により解像度が低下する。このために、図2にグラフで示すように、左サイドカメラ20Lの撮影画像の全領域から区画線SLを検出する場合、正面方向から検出される区画線SLの情報は信頼度が高いが、光軸から前後方向に離れた位置から検出される区画線SLの情報は信頼度が低くなる。このような傾向は、右サイドカメラの場合にも当てはまる。すなわち、サイドカメラ20の撮影画像の全領域から区画線SLを検出する構成では、信頼度の高い区画線SLの情報と、信頼度の低い区画線SLの情報とが混じる可能性がある。
The image captured by the
この点を考慮して、本実施形態では、探索部112は、サイドカメラ20の撮影画像のうち、信頼度の高い区画線情報を取得することができる領域に絞って区画線SLの探索を行う構成としている。探索部112は、サイドカメラ20の撮影画像のうち、サイドカメラ20の光軸に沿う正面方向を中心とする狭い領域を探索領域として区画線SLの探索を行う。探索領域は、例えば、駐車枠Pを構成する区画線SLが3本程度入る広さを有する。
In consideration of this point, in the present embodiment, the
図1に戻って、認識部113は、探索部112で検出した区画線SLに関する情報に基づき駐車枠Pを認識する。換言すると、認識部113は、サイドカメラ20で得られた撮影画像に基づき駐車枠Pを認識する。認識部113は、2つの区画線SL間の平行度や区画線SL間の幅等を求め、これらの結果に基づき駐車枠を認識する。例えば、認識部113は、所定間隔をあけて平行配置される2本の区画線SL間の領域を駐車枠Pとして認識する。所定間隔は、例えば、駐車場に関する法令等で規定される一般公共用の標準的な駐車領域の幅である。
Returning to FIG. 1 , the
本実施形態では、上述のように、探索部112が、サイドカメラ20の撮影画像のうち、画像の信頼度の高い狭領域に絞って区画線SLの探索を行う。このために、認識部113は、サイドカメラ20の撮影画像の中心部を含む一部の領域を用いて駐車枠Pを認識する。詳細には、認識部113は、サイドカメラ20の撮影画像のうち、サイドカメラ20の光軸に沿う正面方向を中心とする狭領域の画像を用いて駐車枠Pの認識を行う。狭領域は、例えば、駐車枠Pが1枠から2枠程度入る広さを有する領域としてよく、本実施形態では、狭領域は駐車枠Pが2枠程度入る広さを有する領域である。これによれば、認識部113は、撮影画像のうち、画像の信頼度の高い領域から得られる区画線SLに絞って駐車枠Pを認識することができる。このために、認識部113によって認識される駐車枠Pの信頼度を向上することができる。
In the present embodiment, as described above, the
管理部114は、認識部113で認識された駐車枠Pに関する情報を管理情報121として時系列で管理する。管理情報121は、記憶部12に記憶され、適宜更新される。なお、管理部114は、過去に認識部113で認識された駐車枠の全てを管理する必要はなく、例えば、時間的に直近に認識された複数の駐車枠Pのみを管理し、古い駐車枠Pの情報は管理対象から適宜除外する構成としてよい。これにより、記憶部12に要求される記憶容量を低く抑えることができる。
The
本実施形態では、管理部114は、過去に認識された駐車枠Pの位置情報を含む管理情報121を、サイドカメラ20の現在の撮影画像から得られる駐車枠Pの位置情報を含む観測情報に基づき更新する。なお、駐車枠Pの位置情報には、駐車枠Pを構成する区画線SLの位置情報が含まれる。管理情報121は、駐車枠Pおよび区画線SLに関する位置情報を、例えば、複数の頂点座標の組み合わせとして有する。各駐車枠Pは、当該駐車枠Pを構成する区画線SLの頂点座標の組み合わせとして管理されてよい。
In this embodiment, the
詳細には、管理部114は、管理情報121と観測情報とに基づき、管理対象となる駐車枠Pを構成する区画線SLごとに更新種別を分類する。管理部114は、更新種別の分類に基づき管理情報121を更新する。これによると、管理対象となる駐車枠Pを構成する各区画線SLに対して、分類に応じた適切な手法で更新処理を行うことができ、管理情報121の信頼度を向上することができる。
Specifically, based on the
より詳細には、管理部114は、自車両Vの移動情報と管理情報121とに基づき駐車枠Pの位置情報を含む推定情報を求める処理を行う。推定情報は、自車両Vの移動により、管理情報121に含まれる各駐車枠Pの位置がいずれの位置に移動したかを推定するものである。推定情報には、駐車枠Pを構成する区画線SLに関する情報が含まれる。自車両Vの移動情報は、例えば、車載ネットワーク5から取得される自車両Vの舵角、車速、シフトなどの情報である。この場合、管理部114は、自車両Vの移動情報から自車両Vの移動量を推定し、当該推定移動量と管理情報121とに基づき、過去に認識した各駐車枠Pの現在位置を推定する。管理情報121に複数の駐車枠Pの情報が含まれている場合には、管理部114は、複数の駐車枠Pのそれぞれに対して現在位置の推定を行う。
More specifically, the
なお、自車両Vの移動情報は、舵角や車速等の実測情報に限らず、例えば、自車両Vの推定移動量等の実測情報を加工した情報であってもよい。この場合、自車両Vの推定移動量は、例えば駐車制御ECU3によって求められてよい。そして、管理部114は、駐車制御ECU3から取得される自車両Vの推定移動量と、管理情報121として過去に記憶された駐車枠Pの情報とに基づき、現在の駐車枠Pの位置を推定してよい。
The movement information of the own vehicle V is not limited to the measured information such as steering angle and vehicle speed, and may be information obtained by processing the measured information such as the estimated amount of movement of the own vehicle V, for example. In this case, the estimated amount of movement of the own vehicle V may be obtained by the
本実施形態では、駐車枠Pを構成する区画線SLの更新種別の分類は、推定情報と観測情報とに基づいて行われる。これによると、信頼度の高い観測情報の結果を優先して管理情報121の更新を行うことができ、管理情報121の信頼度を向上することができる。
In the present embodiment, the classification of the update type of the lane marking SL forming the parking stall P is performed based on the estimation information and the observation information. According to this, it is possible to update the
図3は、駐車枠Pを構成する区画線SLの更新種別例を示す表である。図3において、観測値が「○」とは、観測情報の中に区画線情報が存在する区画線SLが対応する。図3において、観測値が「×」とは、観測情報の中に区画線情報が存在しない区画線SLが対応する。図3において、推定値が「○」とは、推定情報の中に区画線情報が存在する区画線SLが対応する。図3において、推定値が「×」とは、推定情報の中に区画線情報が存在しない区画線SLが対応する。 FIG. 3 is a table showing an example of the update type of the lane marking SL forming the parking frame P. As shown in FIG. In FIG. 3 , the observation value “◯” corresponds to the lane marking SL for which the lane marking information exists in the observation information. In FIG. 3, the observation value "x" corresponds to the lane marking SL for which the lane marking information does not exist in the observation information. In FIG. 3 , an estimated value of “◯” corresponds to a lane marking SL for which lane marking information exists in the estimated information. In FIG. 3, an estimated value of "x" corresponds to a lane marking SL for which lane marking information does not exist in the estimated information.
観測情報および推定情報の中に区画線情報が存在する区画線SLは、観測値「○」且つ推定値「○」となり、第1更新種別に分類される。観測情報の中に区画線情報が存在し、推定情報の中に区画線情報が存在しない区画線SLは、観測値「○」且つ推定値「×」となり、第2更新種別に分類される。観測情報の中に区画線情報が存在せず、推定情報の中に区画線情報が存在する区画線SLは、観測値「×」且つ推定値「○」となり、第3更新種別に分類される。なお、観測情報および推定情報の中に区画線情報が存在しない区画線SLは、処理対象とできないために更新種別が与えられない。 A lane marking SL for which lane marking information exists in the observed information and estimated information has an observed value of "o" and an estimated value of "o", and is classified as the first update type. A lane marking SL for which the observation information contains the lane marking information but the estimation information does not contain the lane marking information has an observed value of "o" and an estimated value of "x", and is classified into the second update type. A lane marking SL with no lane marking information in the observation information but with lane marking information in the estimated information has an observed value of "x" and an estimated value of "○", and is classified as the third update type. . Note that a lane marking SL for which lane marking information does not exist in the observation information and the estimation information cannot be processed and therefore is not given an update type.
すなわち、管理部114は、観測情報と推定情報との両方に位置情報が含まれる区画線SLを第1更新種別に分類し、観測情報にのみ位置情報が含まれる区画線SLを第2更新種別に分類し、推定情報にのみ位置情報が含まれる区画線SLを第3更新種別に分類する。これによると、時系列で取得される複数の区画線SLの位置情報を適切に分類することができ、駐車枠Pの管理情報121を適切に更新することができる。
That is, the
本実施形態では、管理部114は、これら3つの更新種別に基づき管理情報121の更新を行う。図4は、管理部114によって実行される管理処理を例示するフローチャートである。なお、図4に示す管理処理の説明に際し、理解を容易にするために、図5に示す模式的な例を適宜参照しながら説明を行う。
In this embodiment, the
図5は、管理処理を説明するための模式図である。駐車場内に進入した自車両Vは、第1区画線SL1、第2区画線SL2、第3区画線SL3・・・という順番で各区画線SL1~SL10を通過する。自車両Vの前進に伴い、認識部113は、各区画線SL1~SL10を、左サイドカメラ20Lから順次取得される撮影画像に基づき駐車枠Pを構成する区画線として順次認識する。
FIG. 5 is a schematic diagram for explaining management processing. The own vehicle V which has entered the parking lot passes through the respective lane marking lines SL1 to SL10 in the order of the first lane marking SL1, the second lane marking SL2, the third lane marking SL3, . . . . As the host vehicle V moves forward, the
図5に示す例では、第1区画線SL1から第9区画線SL9までは、認識部113によって駐車枠Pを構成する区画線SLとして既に認識され、これらの区画線情報は管理情報121に含まれている。すなわち、管理部114は、第1区画線SL1から第9区画線SL9について推定情報を求めることができる。また、第8区画線SL8から第10区画線SL10は、左サイドカメラ20Lの現在の撮影画像から駐車枠Pを構成する区画線として認識されている。
In the example shown in FIG. 5, the first lane marking SL1 to the ninth lane marking SL9 are already recognized as the lane marking SL forming the parking frame P by the
管理部114による管理処理(管理工程)は、例えば、認識部113によって現在の撮影画像に対する駐車枠Pの認識処理が完了した時点で開始される。まず、管理部114は観測情報を取得する(ステップS1)。図5に示す例では、管理部114は、ステップS1により第8~第10の3つの区画線SL8~SL10の情報を取得する。
The management processing (management process) by the
次に、管理部114は推定情報を取得する(ステップS2)。管理部114は、現在の撮影画像より1つ前の撮影画像を取得した時点から現在の撮影画像を取得した時点までの自車両Vの推定移動量を算出する。そして、管理部114は、当該推定移動量と、現時点で記憶部12に記憶される管理情報121とに基づいて推定情報を求める。図5に示す例では、管理部114は、ステップS2により、第1~第9の9つの区画線SL1~SL9の推定位置を求める。なお、ステップS2は、ステップS1より先に行われてもよいし、ステップS1と並行して行われてもよい。
Next, the
管理部114は、観測情報と推定情報とを取得すると、各区画線SLに対して更新種別の分類を行う(ステップS3)。詳細には、管理部114は、各区画線SLが、第1更新種別と、第2更新種別と、第3更新種別とのうちのいずれに属するかを判断する。
After acquiring the observation information and the estimation information, the
図5に示す例では、第8区画線SL8および第9区画線SL9は、観測情報および推定情報の中に区画線情報が存在する区画線に該当する。このために、第8区画線SL8および第9区画線SL9は、第1更新種別に分類される。第10区画線SL10は、観測情報の中に区画線情報が存在し、推定情報の中に区画線情報が存在しない区画線に該当する。このために、第10区画線SL10は、第2更新種別に分類される。第1~第7区画線SL1~SL7は、観測情報の中に区画線情報が存在せず、推定情報の中に区画線情報が存在する区画線に該当する。このために、第1~第7区画線SL1~SL7は、第3更新種別に分類される。 In the example shown in FIG. 5, the eighth lane marking SL8 and the ninth lane SL9 correspond to lane markings for which lane marking information exists in the observation information and the estimation information. Therefore, the eighth lane marking SL8 and the ninth lane marking SL9 are classified into the first update type. The tenth lane line SL10 corresponds to a lane line for which lane line information exists in the observation information but does not exist in the estimated information. Therefore, the tenth lane marking SL10 is classified as the second update type. The first to seventh lane markings SL1 to SL7 correspond to lane markings for which the observation information has no lane marking information but the estimation information has lane marking information. Therefore, the first to seventh lane marking lines SL1 to SL7 are classified into the third update type.
なお、管理部114は、観測情報に含まれる各区画線SLが過去に認識した区画線SLのいずれかと同じであるか否かは、観測情報から得られる位置と、推定情報から得られる位置とを比較することにより判断する。本実施形態では、観測情報から得られる位置と、推定情報から得られる位置とが完全に一致していなくても、位置の差が所定の閾値内であれば、同一の区画線SLであると判断する。
Note that the
管理部114は、各区画線SLの更新種別を分類すると、当該分類結果に基づき記憶部12に現在記憶される管理情報121を更新する(ステップS4)。管理情報121の更新に際して、第1更新種別の区画線SLの位置情報は、観測情報の値に更新される(観測更新)。また、第2更新種別の区画線SLの位置情報は、観測情報の値で仮登録される(新規登録)。なお、仮登録の段階では、当該区画線SLは、更新種別の分類において過去に認識された区画線SLとして取り扱われず、後述の補正値の算出にも使用されない。仮登録が複数回されると、当該区画線SLは本登録となる。これにより、管理情報121の信頼度を更に向上することができる。ただし、1回目の観測で仮登録とすることなく本登録とする構成としてもよい。この場合には、第1更新種別と第2更新種別とを2つに分けず、同じ分類としてよい。更に、第3更新種別の区画線SLの位置情報は、推定情報の値を、観測情報と推定情報とに基づき得られる補正値で補正した値に更新される。
After classifying the update type of each lane marking SL, the
図5に示す例では、管理部114は、第8区画線SL8と第9区画線SL9の位置情報を観測情報の値に更新する。管理部114は、第10区画線SL10の位置情報を観測情報の値で仮登録する。管理部114は、第1~第7の7つの区画線SL1~SL7の位置情報について、各推定値を補正値で補正した値で更新する。これらの更新により、駐車枠Pの情報を含む管理情報121の更新が完了する。
In the example shown in FIG. 5, the
本実施形態では、撮影画像の信頼度の高い領域を用いて観測情報が得られるために、観測情報に含まれる区画線情報の信頼度を高くすることができる。すなわち、観測値で更新される第1更新種別および第2更新種別の区画線の更新情報の信頼度を向上することができる。そして、撮影画像によって認識できず、自車両Vの移動量から推定した結果で更新する必要がある第3更新種別の区画線SLの位置情報について、観測情報から得られる補正値で推定値の補正を行って更新情報を得る構成になっている。このために、第3更新種別の区画線について、更新処理の際に車両の移動量推定の誤差が蓄積して本来の位置からずれることを抑制することができる。すなわち、本実施形態によれば、駐車枠Pの管理情報121の信頼度を向上することができる。
In the present embodiment, observation information can be obtained using a highly reliable region of the captured image, so the reliability of the lane marking information included in the observation information can be increased. That is, it is possible to improve the reliability of the update information of the lane markings of the first update type and the second update type that are updated with the observed values. Then, regarding the position information of the lane marking SL of the third update type that cannot be recognized from the captured image and needs to be updated with the result estimated from the movement amount of the own vehicle V, the estimated value is corrected with the correction value obtained from the observation information. to obtain update information. For this reason, it is possible to prevent the lane markings of the third update type from deviating from their original positions due to accumulation of errors in estimating the amount of movement of the vehicle during the updating process. That is, according to this embodiment, the reliability of the
図4に示す更新処理(ステップS4)の具体例について説明する。図6は、図4に示す更新処理の具体例を例示するフローチャートである。管理部114は、各区画線SLの更新種別を分類すると、分類された更新種別の中に第1更新種別が存在するか否かを確認する(ステップS41)。図5に示す例では、2つの区画線SL8、SL9が第1更新種別に分類されるために、管理部114は、第1更新種別が存在すると判断する。
A specific example of the update process (step S4) shown in FIG. 4 will be described. FIG. 6 is a flowchart illustrating a specific example of the update processing shown in FIG. 4; After classifying the update types of each lane marking SL, the
第1更新種別が存在すると判断すると(ステップS41Yes)、管理部114は、補正値の算出を行う(ステップS42)。補正値は、推定情報を補正するために用いられる。補正値の算出方法について、図7および図8を参照して説明する。
When determining that the first update type exists (step S41 Yes), the
図7は、区画線SLの現在の認識イメージI(t)と、過去の認識イメージI(t-1)とを比較して示す模式図である。図7において、実線は現在の認識イメージI(t)であり、破線は過去の認識イメージI(t-1)である。現在の認識イメージI(t)は、自車両V(t)の左サイドカメラ20Lの撮影画像から取得されるものであり、過去の認識イメージI(t-1)は、自車両V(t-1)の左サイドカメラ20Lの撮影画像から取得されるものである。図7における過去とは、現在より1周期(カメラの撮影周期)前の時間を指す。図7に示すように、自車両Vの移動により、撮影画像によって認識される区画線SLの位置も移動している。また、自車両Vの移動により撮影画像によって認識される区画線SLの種類も変化している。すなわち、過去の認識イメージI(t-1)は、第7~第9の3つの区画線SL7~SL9が認識されていたが、現在の認識イメージI(t)では、第8~第10の3つの区画線SL8~SL10が認識されている。
FIG. 7 is a schematic diagram showing a comparison between the current recognition image I(t) of the lane marking SL and the past recognition image I(t−1). In FIG. 7, the solid line is the current recognition image I(t), and the dashed line is the past recognition image I(t-1). The current recognition image I(t) is acquired from the image captured by the
図8は、補正値の算出方法を説明するための模式図である。図8は、図7の現在の認識イメージI(t)のみを抽出し、補正値の算出方法の説明に必要となる事項を書き加えた図である。管理部114は、補正値の算出に際して、観測情報に含まれる区画線情報と、推定情報に含まれる区画線情報とを比較する。
FIG. 8 is a schematic diagram for explaining a method of calculating correction values. FIG. 8 is a diagram obtained by extracting only the current recognition image I(t) of FIG. 7 and adding items necessary for explaining the method of calculating the correction values. When calculating the correction value, the
図8に示す例で具体的に説明する。管理部114は、第8区画線SL8および第9区画線SL9について、現在(t)の位置と、1周期前(t-1)の位置から推定される推定位置(一点鎖線で示す位置)とを比較し、位置の差分値Δを算出する。管理部14は、この差分値Δを補正値とする。
The example shown in FIG. 8 will be described specifically. The
なお、第8区画線SL8を用いて求められる差分値Δと、第9区画線SL9を用いて求められる差分値Δとは同じである場合もあるし、同じとならない場合もある。値の異なる複数の差分値Δが取得された場合には、例えば、複数の差分値の平均値を補正値としてよい。また、別の手法として、複数の差分値Δのうち、信頼性が高いと判断される差分値Δを補正値としてもよい。例えば、撮影画像の中央で認識される区画線情報は中央からずれた位置で認識される区画線情報より信頼度が高いと推定される。このために、撮影画像の中央位置により近い位置から認識された区画線情報を信頼度が高いとして、当該区画線情報から得られる差分値Δを補正値としてよい。なお、本例では、求められる差分値の数が2つであるが、この数は適宜変わり、1つのこともあるし、3つ以上のこともある。 The difference value Δ obtained using the eighth marking line SL8 and the difference value Δ obtained using the ninth marking line SL9 may or may not be the same. When a plurality of difference values Δ having different values are acquired, for example, the average value of the plurality of difference values may be used as the correction value. As another method, a difference value Δ that is determined to be highly reliable among a plurality of difference values Δ may be used as the correction value. For example, it is estimated that the lane marking information recognized at the center of the captured image is more reliable than the lane marking information recognized at a position shifted from the center. For this reason, the lane marking information recognized from a position closer to the central position of the captured image may be regarded as having a high degree of reliability, and the difference value Δ obtained from the lane marking information may be used as the correction value. In this example, the number of difference values to be obtained is two, but this number may be changed as appropriate, and may be one or three or more.
管理部114は、補正値を算出すると、補正処理を行う(ステップS43)。詳細には、管理部114は、第3更新種別の区画線SLの位置情報について、推定情報の値を補正値で補正した値とする。図8に示す例では、自車両Vの推定移動量Mが実際より小さく推定されていると判断され、推定移動量Mを大きくする補正が行われることになる。
After calculating the correction value, the
なお、本実施形態では、管理部114は、複数の第3更新種別の区画線SLの位置情報を含む推定情報の値を同一の補正値で一括して補正する。図5に示す例では、管理部114は、第1~第7の7つの区画線SL1~SL7の位置情報について、各推定情報の値を同一の補正値で一括して補正した値とする。これによると、予測更新が行われる第3更新種別の区画線SLについて、効率良く信頼度の高い値に補正して更新を行うことができる。
Note that in the present embodiment, the
管理部114は、補正処理を行うと、各区画線情報を各更新種別に応じて決まる更新値に更新し、駐車枠Pに関する管理情報121の更新登録を行う(ステップS44)。各更新種別に応じて決まる更新値の求め方は上述したので、ここでは省略する。
After performing the correction process, the
ところで、ステップS41で第1更新種別の区画線SLが存在しないと判断される場合、観測情報に基づいて補正値を算出することができない。このために、管理部114は、第1更新種別の区画線SLが存在しないと判断される場合(ステップS41でNo)には、補正値をゼロとしステップS43に移行する。換言すると、管理部114は、第1更新種別の区画線SLが存在しないと判断される場合には、推定情報の補正処理を実質的に行わない。
By the way, if it is determined in step S41 that the lane marking SL of the first update type does not exist, the correction value cannot be calculated based on the observation information. Therefore, when it is determined that the lane marking SL of the first update type does not exist (No in step S41), the
なお、第1更新種別の区画線SLが存在しない状態は、観測情報の中に区画線SLの認識情報がない場合の他、観測情報の中に新規に認識された区画線情報のみが存在する場合がある。前者は、例えば、自車両Vが駐車枠Pの存在する領域を通り過ぎた場合や、区画線SLとサイドカメラ20との間に物体(静止物又は移動物)が存在したり、区画線SLが影に覆われたり、区画線SLが消えかかったりして区画線SLの認識ができない場合等が挙げられる。後者は、例えば、自車両Vが駐車枠Pの存在領域に接近し始めたばかりのタイミングである場合や、区画線SLとサイドカメラ20との間に物体が存在したり、区画線SLが影に覆われたり、区画線SLが消えかかったりして一部の区画線SLの認識ができない場合等が挙げられる。
Note that a state in which no lane marking SL of the first update type exists is a case where there is no recognition information of the lane marking SL in the observation information, or only newly recognized lane marking information exists in the observation information. Sometimes. The former is, for example, when the own vehicle V passes through the area where the parking frame P exists, when an object (stationary object or moving object) exists between the lane marking SL and the
また、第1更新種別の区画線SLが存在すると判断された場合でも、例えば物体や影等の存在によって、現在の撮影画像において認識されるべき区画線SLが認識されていない状態が起り得る。ただし、このような区画線SLは、第1更新種別の区画線SLの存在により、車両の移動量推定から求められる推定値を補正値で補正した値で更新登録することができる。 Further, even if it is determined that the lane marking SL of the first update type exists, the lane marking SL that should be recognized in the current captured image may not be recognized due to the presence of an object, shadow, or the like. However, due to the presence of the lane marking SL of the first update type, such a lane marking SL can be updated and registered with a value obtained by correcting the estimated value obtained by estimating the movement amount of the vehicle with a correction value.
<3.留意事項>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
<3. Notes>
Various modifications can be made to the various technical features disclosed in this specification without departing from the gist of the technical creation in addition to the above-described embodiments. That is, the above embodiments should be considered as examples in all respects and not restrictive, and the technical scope of the present invention is not defined by the description of the above embodiments, but by the scope of claims. All changes that come within the meaning and range of equivalency of the claims are to be understood. In addition, multiple embodiments and modifications shown in this specification may be implemented in combination to the extent possible.
以上においては、認識部113がサイドカメラ20を用いて駐車枠Pの認識を行う場合を例に説明したが、本発明は、認識部113がサイドカメラ20以外のカメラ(例えばバックカメラ)を用いて駐車枠の認識を行う構成にも適用可能である。
In the above, the case where the
1・・・画像処理装置
20・・・サイドカメラ(カメラの一例)
113・・・認識部
114・・・管理部
121・・・管理情報
P・・・駐車枠
SL・・・区画線
V・・・自車両(車両)
1
113...
Claims (7)
過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理部と、
を備え、
前記管理部は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する、画像処理装置。 A recognition unit that recognizes a parking frame based on a captured image obtained by a camera that captures the surroundings of the vehicle;
A management unit that updates management information including position information of the parking frame recognized in the past based on observation information including position information of the parking frame obtained from a currently captured image;
with
The management unit classifies an update type for each lane line forming the parking frame to be managed based on the management information and the observation information, and updates the management information based on the classification. .
前記更新種別の分類は、前記推定情報と前記観測情報とに基づいて行われる、請求項1に記載の画像処理装置。 The management unit performs a process of obtaining estimated information including position information of the parking frame based on the movement information of the vehicle and the management information,
2. The image processing apparatus according to claim 1, wherein said update type classification is performed based on said estimation information and said observation information.
前記観測情報と前記推定情報との両方に位置情報が含まれる前記区画線を第1更新種別に分類し、
前記観測情報にのみ位置情報が含まれる前記区画線を第2更新種別に分類し、
前記推定情報にのみ位置情報が含まれる前記区画線を第3更新種別に分類する、請求項2に記載の画像処理装置。 The management department
Classifying the lane markings for which position information is included in both the observation information and the estimation information as a first update type;
classifying the lane markings for which position information is included only in the observation information into a second update type;
3. The image processing apparatus according to claim 2, wherein said lane markings whose position information is included only in said estimation information are classified into a third update type.
前記第1更新種別の前記区画線の位置情報は、前記観測情報の値に更新され、
前記第2更新種別の前記区画線の位置情報は、前記観測情報の値で仮登録され、
前記第3更新種別の前記区画線の位置情報は、前記推定情報の値を、前記観測情報と前記推定情報とに基づき得られる補正値で補正した値に更新される、請求項3に記載の画像処理装置。 When updating the management information,
the position information of the lane marking of the first update type is updated to the value of the observation information;
the position information of the lane marking of the second update type is provisionally registered with the value of the observation information;
The position information of the lane marking of the third update type according to claim 3, wherein the value of the estimated information is updated to a value obtained by correcting the value of the estimated information with a correction value obtained based on the observation information and the estimated information. Image processing device.
前記認識部は、前記撮影画像の中心部を含む一部の領域を用いて前記駐車枠を認識する、請求項1から5のいずれか1項に記載の画像処理装置。 The camera is a side camera provided on the side of the vehicle,
The image processing device according to any one of claims 1 to 5, wherein the recognition unit recognizes the parking frame using a partial area including a central portion of the captured image.
車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識工程と、
過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理工程と、
を備え、
前記管理工程は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する処理を含む、画像処理方法。 An image processing method executed by an image processing device,
A recognition step of recognizing a parking frame based on a captured image obtained by a camera that captures the surroundings of the vehicle;
A management step of updating management information including position information of the parking frame recognized in the past based on observation information including position information of the parking frame obtained from a currently captured image;
with
In the management step, based on the management information and the observation information, an update type is classified for each lane line that constitutes the parking frame to be managed, and the management information is updated based on the classification. Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018136603A JP7116613B2 (en) | 2018-07-20 | 2018-07-20 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018136603A JP7116613B2 (en) | 2018-07-20 | 2018-07-20 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020011675A JP2020011675A (en) | 2020-01-23 |
JP7116613B2 true JP7116613B2 (en) | 2022-08-10 |
Family
ID=69169215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018136603A Active JP7116613B2 (en) | 2018-07-20 | 2018-07-20 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7116613B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013001366A (en) | 2011-06-22 | 2013-01-07 | Nissan Motor Co Ltd | Parking support device and parking support method |
WO2017104164A1 (en) | 2015-12-17 | 2017-06-22 | 日産自動車株式会社 | Parking support method and device |
JP2017222309A (en) | 2016-06-17 | 2017-12-21 | 日産自動車株式会社 | Parking support method and apparatus |
JP2018036878A (en) | 2016-08-31 | 2018-03-08 | アイシン精機株式会社 | Parking support device |
JP2018074411A (en) | 2016-10-31 | 2018-05-10 | 株式会社デンソーテン | Object detection device and object detection method |
-
2018
- 2018-07-20 JP JP2018136603A patent/JP7116613B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013001366A (en) | 2011-06-22 | 2013-01-07 | Nissan Motor Co Ltd | Parking support device and parking support method |
WO2017104164A1 (en) | 2015-12-17 | 2017-06-22 | 日産自動車株式会社 | Parking support method and device |
JP2017222309A (en) | 2016-06-17 | 2017-12-21 | 日産自動車株式会社 | Parking support method and apparatus |
JP2018036878A (en) | 2016-08-31 | 2018-03-08 | アイシン精機株式会社 | Parking support device |
JP2018074411A (en) | 2016-10-31 | 2018-05-10 | 株式会社デンソーテン | Object detection device and object detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2020011675A (en) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9794543B2 (en) | Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method | |
JP6649738B2 (en) | Parking lot recognition device, parking lot recognition method | |
Fossati et al. | Real-time vehicle tracking for driving assistance | |
US10007998B2 (en) | Image processor, apparatus, and control system for correction of stereo images | |
JP6458384B2 (en) | Lane detection device and lane detection method | |
US10929986B2 (en) | Techniques for using a simple neural network model and standard camera for image detection in autonomous driving | |
US10896336B2 (en) | Parking compartment recognition apparatus | |
CN110167813B (en) | Travel route recognition device and travel route recognition method | |
US20200082181A1 (en) | Method and system for sensing an obstacle, and storage medium | |
CN105405319A (en) | Approaching object detection apparatus for a vehicle and approaching object detection method for the same | |
JP2018060422A (en) | Object detection device | |
JP7426174B2 (en) | Vehicle surrounding image display system and vehicle surrounding image display method | |
JP2007293672A (en) | Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle | |
US8213684B2 (en) | Motion estimating device | |
JP2009139324A (en) | Travel road surface detecting apparatus for vehicle | |
JP6799030B2 (en) | Image recognition device, image recognition method, and parking support system | |
JP7116613B2 (en) | Image processing device and image processing method | |
JP7247772B2 (en) | Information processing device and driving support system | |
JP5559650B2 (en) | Lane estimation device | |
JP2015158418A (en) | Self position calculation apparatus and self position calculation method | |
JP2019015570A (en) | Parking position information acquisition device and automatic parking controller | |
US11157755B2 (en) | Image processing apparatus | |
JP7134780B2 (en) | stereo camera device | |
JP2006036048A (en) | Vehicle light controlling device | |
JP2020042715A (en) | Movement information estimation device, abnormality detection device, and movement information estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7116613 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |