JP7116613B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7116613B2
JP7116613B2 JP2018136603A JP2018136603A JP7116613B2 JP 7116613 B2 JP7116613 B2 JP 7116613B2 JP 2018136603 A JP2018136603 A JP 2018136603A JP 2018136603 A JP2018136603 A JP 2018136603A JP 7116613 B2 JP7116613 B2 JP 7116613B2
Authority
JP
Japan
Prior art keywords
information
management
parking frame
update type
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018136603A
Other languages
Japanese (ja)
Other versions
JP2020011675A (en
Inventor
康貴 岡田
純 金武
裕明 佐野
寛紀 森永
徹夫 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018136603A priority Critical patent/JP7116613B2/en
Publication of JP2020011675A publication Critical patent/JP2020011675A/en
Application granted granted Critical
Publication of JP7116613B2 publication Critical patent/JP7116613B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置および画像処理方法に関し、詳細には画像処理により駐車枠の認識および管理を行う技術に関する。 TECHNICAL FIELD The present invention relates to an image processing device and an image processing method, and more particularly to technology for recognizing and managing parking frames by image processing.

特許文献1には、カメラが撮影して得られた画像から白線を検出し、2つの白線間の領域を駐車スペースとして検知することが開示される。また、特許文献1には、検知した駐車スペースの情報を、車両運動取得部により出力された直前の処理周期から現在の処理周期までの車両の移動量を用いて更新することが開示される。 Patent Literature 1 discloses detecting white lines from an image captured by a camera and detecting an area between two white lines as a parking space. Japanese Patent Laid-Open No. 2004-100000 discloses updating detected parking space information using the amount of movement of the vehicle from the immediately preceding processing cycle to the current processing cycle, which is output by the vehicle motion acquisition unit.

特開2017-87758号公報JP 2017-87758 A

特許文献1に開示される手法では、CANバスを介して車両の進行方向や速度に関する情報を取得して、当該情報により車両の移動量を求めて駐車スペースの現在位置を推定する。この構成では、車両の移動量の推定誤差が蓄積した場合に、駐車スペースの位置が適切な位置からずれる可能性がある。また、レンズの歪等の影響により、カメラから離れた位置において、撮影画像から白線の検出を適切に行うことができず、適切な駐車スペースを検知できないことがある。 In the method disclosed in Patent Document 1, information about the traveling direction and speed of the vehicle is acquired via the CAN bus, the amount of movement of the vehicle is obtained from the information, and the current position of the parking space is estimated. With this configuration, the position of the parking space may deviate from the appropriate position when estimation errors in the amount of movement of the vehicle accumulate. Also, due to the effects of lens distortion and the like, white lines cannot be properly detected from a captured image at a position distant from the camera, and a suitable parking space may not be detected.

本発明は、上記課題に鑑みて、カメラの撮影画像に基づき得られる駐車枠に関する情報の信頼度を向上することができる技術を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide a technique capable of improving the reliability of information regarding a parking frame obtained based on an image captured by a camera.

上記目的を達成するために本発明の画像処理装置は、車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識部と、過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理部と、を備え、前記管理部は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する構成(第1の構成)になっている。 In order to achieve the above object, the image processing apparatus of the present invention includes a recognition unit that recognizes a parking frame based on a captured image obtained by a camera that captures the surroundings of a vehicle, and position information of the parking frame that has been recognized in the past. Based on the observation information including the position information of the parking frame obtained from the current captured image, the management unit updates management information including, based on the management information and the observation information, An update type is classified for each division line that constitutes the parking frame to be managed, and the management information is updated based on the classification (first configuration).

上記第1の構成の画像処理装置において、前記管理部は、前記車両の移動情報と前記管理情報とに基づき前記駐車枠の位置情報を含む推定情報を求める処理を行い、前記更新種別の分類は、前記推定情報と前記観測情報とに基づいて行われる構成(第2の構成)であることが好ましい。 In the image processing apparatus having the first configuration, the management unit performs a process of obtaining estimation information including position information of the parking frame based on the movement information of the vehicle and the management information, and classifies the update type as: , the configuration (second configuration) performed based on the estimation information and the observation information.

上記第2の構成の画像処理装置において、前記管理部は、前記観測情報と前記推定情報との両方に位置情報が含まれる前記区画線を第1更新種別に分類し、前記観測情報にのみ位置情報が含まれる前記区画線を第2更新種別に分類し、前記推定情報にのみ位置情報が含まれる前記区画線を第3更新種別に分類する構成(第3の構成)であることが好ましい。 In the image processing apparatus having the second configuration, the management unit classifies the lane markings whose position information is included in both the observation information and the estimation information into a first update type, It is preferable that the lane markings containing information are classified into a second update type, and the lane markings containing position information only in the estimated information are classified into a third update type (third structure).

上記第3の構成の画像処理装置において、前記管理情報の更新に際して、前記第1更新種別の前記区画線の位置情報は、前記観測情報の値に更新され、前記第2更新種別の前記区画線の位置情報は、前記観測情報の値で仮登録され、前記第3更新種別の前記区画線の位置情報は、前記推定情報の値を、前記観測情報と前記推定情報とに基づき得られる補正値で補正した値に更新される構成(第4の構成)であることが好ましい。 In the image processing apparatus having the third configuration, when updating the management information, the position information of the lane marking of the first update type is updated to the value of the observation information, and the lane marking of the second update type is updated to the value of the observation information. is provisionally registered with the value of the observation information, and the position information of the lane marking of the third update type is a correction value obtained based on the observation information and the estimation information. It is preferable that the configuration (fourth configuration) is updated to the value corrected by .

上記第4の構成の画像処理装置において、前記管理部は、複数の前記第3更新種別の前記区画線の位置情報を含む前記推定情報の値を同一の前記補正値で一括して補正する構成(第5の構成)であることが好ましい。 In the image processing apparatus having the fourth configuration, the management unit collectively corrects the values of the estimated information including the position information of the lane markings of the third update type with the same correction value. (Fifth configuration) is preferable.

上記第1から第5のいずれかの構成の画像処理装置において、前記カメラは、前記車両の側方に設けられるサイドカメラであり、前記認識部は、前記撮影画像の一部の領域を用いて前記駐車枠を認識する構成(第6の構成)であることが好ましい。 In the image processing device having any one of the first to fifth configurations, the camera is a side camera provided on the side of the vehicle, and the recognition unit uses a partial area of the captured image to It is preferable that it is the structure (6th structure) which recognizes the said parking frame.

上記目的を達成するために本発明の画像処理方法は、画像処理装置で実行される画像処理方法であって、車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識工程と、過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理工程と、を備え、前記管理工程は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する処理を含む構成(第7の構成)になっている。 In order to achieve the above object, an image processing method of the present invention is an image processing method executed by an image processing device, which recognizes a parking frame based on a photographed image obtained by a camera that photographs the surroundings of a vehicle. and a management step of updating management information including the position information of the parking frame recognized in the past based on observation information including the position information of the parking frame obtained from the currently captured image, wherein the management The step includes a process of classifying an update type for each lane line constituting the parking frame to be managed based on the management information and the observation information, and updating the management information based on the classification (second 7 configuration).

本発明によれば、カメラの撮影画像に基づき得られる駐車枠に関する情報の信頼度を向上することができる。 ADVANTAGE OF THE INVENTION According to this invention, the reliability of the information regarding a parking frame obtained based on the picked-up image of a camera can be improved.

駐車支援システムの一構成例を示す図A diagram showing a configuration example of a parking assistance system 区画線の探索領域について説明するための模式図Schematic diagram for explaining the search area for lane markings 駐車枠を構成する区画線の更新種別例を示す表Table showing examples of update types of lane markings that make up parking spaces 管理処理を例示するフローチャートFlowchart illustrating management processing 管理処理を説明するための模式図Schematic diagram for explaining management processing 図4に示す更新処理の具体例を示すフローチャートFlowchart showing a specific example of update processing shown in FIG. 区画線の現在の認識イメージと、過去の認識イメージとを比較して示す模式図Schematic diagram showing a comparison between the current recognition image of the lane marking and the past recognition image 補正値の算出方法を説明するための模式図Schematic diagram for explaining the calculation method of the correction value

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方向」と呼ぶ。また、車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」と呼ぶ。また、本発明の画像処理装置を含む駐車支援システムを搭載している車両を「自車両」と呼ぶ。 Exemplary embodiments of the invention are described in detail below with reference to the drawings. In the following description, the straight traveling direction of the vehicle, which is the direction from the driver's seat to the steering wheel, is referred to as the "forward direction." Also, the direction in which the vehicle travels straight ahead and is directed from the steering wheel toward the driver's seat is called the "rearward direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and directed from the right side to the left side of the driver who is facing forward is referred to as the "left direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and directed from the left side to the right side of the driver who is facing forward is referred to as the "right direction." A vehicle equipped with a parking assistance system including the image processing device of the present invention is referred to as "own vehicle".

<1.駐車支援システム>
本発明の画像処理装置は、例えば駐車支援システムに適用できる。図1は、本発明の画像処理装置1が適用される駐車支援システムの一構成例を示す図である。図1に示すように、駐車支援システムは、画像処理装置1と、撮影部2と、駐車制御ECU(Electronic Control Unit)3と、EPS(Electric Power Steering)-ECU4と、車載ネットワーク5と、を備える。
<1. Parking assistance system>
The image processing device of the present invention can be applied to, for example, a parking assistance system. FIG. 1 is a diagram showing a configuration example of a parking assistance system to which an image processing device 1 of the present invention is applied. As shown in FIG. 1, the parking assistance system includes an image processing device 1, an imaging unit 2, a parking control ECU (Electronic Control Unit) 3, an EPS (Electric Power Steering)-ECU 4, and an in-vehicle network 5. Prepare.

画像処理装置1は、撮影部2に接続されるとともに、駐車制御ECU3およびEPS-ECU4にCAN(Controller Area Network)などの車載ネットワーク5を介して接続される。画像処理装置1は、撮影部2で撮影される撮影画像に基づき駐車枠の認識と、認識した駐車枠の管理とを行う。すなわち、画像処理装置1は駐車枠管理装置として機能する。その他、画像処理装置1は、例えば、自車両が停止した時点で自車両に最も近い空き駐車枠を駐車すべき場所として目標駐車位置の算出を行う。画像処理装置1の詳細については後述する。 The image processing device 1 is connected to the imaging unit 2, and is also connected to the parking control ECU 3 and the EPS-ECU 4 via an in-vehicle network 5 such as a CAN (Controller Area Network). The image processing device 1 recognizes a parking frame based on an image captured by the imaging unit 2 and manages the recognized parking frame. That is, the image processing device 1 functions as a parking frame management device. In addition, the image processing device 1 calculates the target parking position, for example, assuming that the vehicle should be parked in an empty parking space that is closest to the vehicle when the vehicle stops. Details of the image processing apparatus 1 will be described later.

なお、画像処理装置1には、例えば、液晶ディスプレイ等の表示装置が接続されてよい。画像処理装置1は、撮影画像に目標駐車位置を示す指標を重畳した表示画像を生成して、表示装置に表示させる処理を行ってよい。 A display device such as a liquid crystal display may be connected to the image processing device 1, for example. The image processing device 1 may generate a display image in which an index indicating the target parking position is superimposed on the captured image, and display the image on the display device.

撮影部2は、自車両の周辺を撮影するカメラを備える。本実施形態では、カメラは魚眼レンズを有する。撮影部2は、自車両の側方に設けられるサイドカメラ20を備える。サイドカメラ20は、自車両の周辺を撮影するカメラに含まれ、例えば自車両のドアミラー等に設けられる。サイドカメラ20は、左サイドカメラと右サイドカメラとを含むことが好ましい。左サイドカメラは、光軸が自車両の左右方向に沿っており、自車両の左方向を撮影する。右サイドカメラは、光軸が自車両の左右方向に沿っており、自車両の右方向を撮影する。なお、撮影部2は、サイドカメラ20の他に、自車両の前方を撮影するフロントカメラや、自車両の後方を撮影するバックカメラを備えることが好ましい。 The photographing unit 2 includes a camera for photographing the surroundings of the own vehicle. In this embodiment, the camera has a fisheye lens. The imaging unit 2 includes a side camera 20 provided on the side of the own vehicle. The side camera 20 is included in a camera that captures an image of the surroundings of the vehicle, and is provided, for example, in a door mirror of the vehicle. The side cameras 20 preferably include a left side camera and a right side camera. The left side camera has an optical axis along the left-right direction of the vehicle, and photographs the left direction of the vehicle. The right side camera has an optical axis along the left and right direction of the own vehicle, and photographs the right direction of the own vehicle. In addition to the side cameras 20, the photographing unit 2 preferably includes a front camera for photographing the front of the vehicle and a back camera for photographing the rear of the vehicle.

駐車制御ECU3は、画像処理装置1から受信した目標駐車位置と、不図示のクリアランスソナーセンサの出力とに基づいてステアリング操舵量を算出し、ステアリング操舵量に関する情報をEPS-ECU4に送信する。 The parking control ECU 3 calculates the steering amount based on the target parking position received from the image processing device 1 and the output of a clearance sonar sensor (not shown), and transmits information on the steering amount to the EPS-ECU 4 .

EPS-ECU4は、駐車制御ECU3から受け取ったステアリング操舵量に関する情報に基づいて自車両の駐車動作時に自動操舵を行う。なお、本実施形態では、アクセル操作及びブレーキ操作はドライバーが担う。 The EPS-ECU 4 performs automatic steering during parking operation of the own vehicle based on the information regarding the steering amount received from the parking control ECU 3 . In addition, in this embodiment, the driver is in charge of the accelerator operation and the brake operation.

<2.画像処理装置>
図1に示すように、画像処理装置1は、制御部11と記憶部12とを備える。制御部11は、画像処理装置1の全体を制御する。制御部11は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、及び、ROM(Read Only Memory)などを備えるコンピュータで構成される。記憶部12は、制御部11が動作するために必要なコンピュータプログラムおよびデータを不揮発的に記憶する。記憶部12としては、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ等を用いることができる。
<2. Image processing device>
As shown in FIG. 1 , the image processing apparatus 1 includes a control section 11 and a storage section 12 . The control unit 11 controls the entire image processing apparatus 1 . The control unit 11 is configured by a computer including, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory). The storage unit 12 nonvolatilely stores computer programs and data necessary for the operation of the control unit 11 . As the storage unit 12, for example, an EEPROM (Electrically Erasable Programmable Read-Only Memory), a flash memory, or the like can be used.

図1に示す映像取得部111、探索部112、認識部113、および、管理部114は、記憶部12に記憶されるコンピュータプログラムの実行により実現される制御部11の機能である。換言すると、画像処理装置1は、映像取得部111と、探索部112と、認識部113と、管理部114とを備える。 The video acquisition unit 111, search unit 112, recognition unit 113, and management unit 114 shown in FIG. In other words, the image processing device 1 includes a video acquisition unit 111 , a search unit 112 , a recognition unit 113 and a management unit 114 .

なお、制御部11が備える各機能部111~114の少なくともいずれか1つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、制御部11が備える各機能部111~114は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてよい。 At least one of the functional units 111 to 114 included in the control unit 11 may be configured by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). Each functional unit 111 to 114 included in the control unit 11 is a conceptual component. A function performed by one component may be distributed to a plurality of components, or a function possessed by a plurality of components may be integrated into one component.

映像取得部111は、サイドカメラ20を含む撮影部2が備える各カメラからアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した時間的に連続した撮影画像(取得した映像)がアナログの場合には、映像取得部111は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。 The video acquisition unit 111 temporally continuously acquires analog or digital captured images from each camera of the imaging unit 2 including the side camera 20 at a predetermined cycle (for example, 1/30 second cycle). Then, when the acquired temporally continuous captured images (acquired video) are analog, the video acquisition unit 111 converts the analog captured images into digital captured images (A/D conversion).

探索部112は、映像取得部111から出力されるサイドカメラ20の撮影画像に基づき駐車枠を構成する区画線を探索する。なお、サイドカメラ20が左サイドカメラと右サイドカメラとを含む場合、探索部112は、各カメラの撮影画像に対して区画線の探索を行う。 The search unit 112 searches for a lane marking that forms a parking frame based on the image captured by the side camera 20 output from the image acquisition unit 111 . When the side cameras 20 include a left side camera and a right side camera, the search unit 112 searches for lane markings in the images captured by each camera.

探索部112は、例えば自車両の車速が所定速度以下になった場合に区画線の探索を開始する。本実施形態では、探索部112は、サイドカメラ20の撮影画像から、エッジ抽出などの画像処理を利用して例えば100ms周期で区画線を検出する。なお、区画線は駐車場の舗装面に白線や黄線などで描かれる。 The searching unit 112 starts searching for lane markings, for example, when the vehicle speed of the own vehicle becomes equal to or lower than a predetermined speed. In the present embodiment, the search unit 112 detects the lane markings from the image captured by the side camera 20 at intervals of 100 ms, for example, using image processing such as edge extraction. In addition, the division lines are drawn on the paved surface of the parking lot with white lines or yellow lines.

図2は、区画線の探索領域について説明するための模式図である。図2は、自車両Vが駐車場内に進入し、自車両Vの左側方に複数の区画線SLが存在する状態を示す。各区画線SLは左右方向に延びる。すなわち、各区画線SLは、左サイドカメラ20Lの光軸と平行な方向に延びる。複数の区画線SLは、前後方向に所定間隔をあけて並ぶ。図2において、破線で囲まれる領域Rは、自車両Vの左サイドカメラ20Lの撮影領域を模式的に示す。 FIG. 2 is a schematic diagram for explaining a search area for lane markings. FIG. 2 shows a state in which a vehicle V has entered a parking lot and a plurality of lane markings SL are present on the left side of the vehicle V. As shown in FIG. Each partition line SL extends in the left-right direction. That is, each partition line SL extends in a direction parallel to the optical axis of the left side camera 20L. The plurality of demarcation lines SL are arranged at predetermined intervals in the front-rear direction. In FIG. 2, a region R surrounded by a dashed line schematically shows a photographing region of the left side camera 20L of the own vehicle V. As shown in FIG.

左サイドカメラ20Lの撮影画像は、左サイドカメラ20Lの光軸に沿う正面方向において解像度が高く、光軸から前後方向に離れるにつれてレンズ歪の影響等により解像度が低下する。このために、図2にグラフで示すように、左サイドカメラ20Lの撮影画像の全領域から区画線SLを検出する場合、正面方向から検出される区画線SLの情報は信頼度が高いが、光軸から前後方向に離れた位置から検出される区画線SLの情報は信頼度が低くなる。このような傾向は、右サイドカメラの場合にも当てはまる。すなわち、サイドカメラ20の撮影画像の全領域から区画線SLを検出する構成では、信頼度の高い区画線SLの情報と、信頼度の低い区画線SLの情報とが混じる可能性がある。 The image captured by the left side camera 20L has high resolution in the front direction along the optical axis of the left side camera 20L, and the resolution decreases as the distance from the optical axis increases in the front-rear direction due to the effects of lens distortion and the like. For this reason, as shown in the graph in FIG. 2, when the marking line SL is detected from the entire area of the image captured by the left side camera 20L, the reliability of the information on the marking line SL detected from the front direction is high. Information on the marking line SL detected from a position away from the optical axis in the front-rear direction is less reliable. Such a tendency also applies to the case of the right side camera. That is, in the configuration in which the lane marking SL is detected from the entire area of the image captured by the side camera 20, information on the lane marking SL with high reliability and information on the lane marking SL with low reliability may be mixed.

この点を考慮して、本実施形態では、探索部112は、サイドカメラ20の撮影画像のうち、信頼度の高い区画線情報を取得することができる領域に絞って区画線SLの探索を行う構成としている。探索部112は、サイドカメラ20の撮影画像のうち、サイドカメラ20の光軸に沿う正面方向を中心とする狭い領域を探索領域として区画線SLの探索を行う。探索領域は、例えば、駐車枠Pを構成する区画線SLが3本程度入る広さを有する。 In consideration of this point, in the present embodiment, the search unit 112 searches for the lane marking SL by narrowing down the region from the image captured by the side camera 20 where highly reliable lane marking information can be obtained. It is configured. The search unit 112 searches for the lane marking SL using a narrow area centered in the front direction along the optical axis of the side camera 20 in the image captured by the side camera 20 as a search area. The search area has a size that can contain about three lane markings SL forming the parking frame P, for example.

図1に戻って、認識部113は、探索部112で検出した区画線SLに関する情報に基づき駐車枠Pを認識する。換言すると、認識部113は、サイドカメラ20で得られた撮影画像に基づき駐車枠Pを認識する。認識部113は、2つの区画線SL間の平行度や区画線SL間の幅等を求め、これらの結果に基づき駐車枠を認識する。例えば、認識部113は、所定間隔をあけて平行配置される2本の区画線SL間の領域を駐車枠Pとして認識する。所定間隔は、例えば、駐車場に関する法令等で規定される一般公共用の標準的な駐車領域の幅である。 Returning to FIG. 1 , the recognition unit 113 recognizes the parking frame P based on the information regarding the lane marking SL detected by the search unit 112 . In other words, the recognition unit 113 recognizes the parking frame P based on the captured image obtained by the side camera 20 . The recognition unit 113 obtains the parallelism between the two lane markings SL, the width between the lane markings SL, and the like, and recognizes the parking frame based on these results. For example, the recognition unit 113 recognizes, as the parking frame P, an area between two partition lines SL arranged in parallel with a predetermined interval. The predetermined interval is, for example, the width of a standard parking area for general public use, which is stipulated by laws and regulations related to parking lots.

本実施形態では、上述のように、探索部112が、サイドカメラ20の撮影画像のうち、画像の信頼度の高い狭領域に絞って区画線SLの探索を行う。このために、認識部113は、サイドカメラ20の撮影画像の中心部を含む一部の領域を用いて駐車枠Pを認識する。詳細には、認識部113は、サイドカメラ20の撮影画像のうち、サイドカメラ20の光軸に沿う正面方向を中心とする狭領域の画像を用いて駐車枠Pの認識を行う。狭領域は、例えば、駐車枠Pが1枠から2枠程度入る広さを有する領域としてよく、本実施形態では、狭領域は駐車枠Pが2枠程度入る広さを有する領域である。これによれば、認識部113は、撮影画像のうち、画像の信頼度の高い領域から得られる区画線SLに絞って駐車枠Pを認識することができる。このために、認識部113によって認識される駐車枠Pの信頼度を向上することができる。 In the present embodiment, as described above, the search unit 112 searches for the lane marking SL by narrowing down the image captured by the side camera 20 to narrow areas with high image reliability. For this reason, the recognition unit 113 recognizes the parking frame P using a partial area including the central portion of the image captured by the side camera 20 . Specifically, the recognition unit 113 recognizes the parking frame P using an image of a narrow area centered on the front direction along the optical axis of the side camera 20 among the images captured by the side camera 20 . The narrow area may be, for example, an area wide enough to accommodate about one to two parking frames P, and in the present embodiment, the narrow area is an area wide enough to fit about two parking lots P. According to this, the recognition part 113 can recognize the parking frame P narrowing down to the lane marking SL obtained from the area|region where the reliability of an image is high among picked-up images. Therefore, the reliability of the parking frame P recognized by the recognition unit 113 can be improved.

管理部114は、認識部113で認識された駐車枠Pに関する情報を管理情報121として時系列で管理する。管理情報121は、記憶部12に記憶され、適宜更新される。なお、管理部114は、過去に認識部113で認識された駐車枠の全てを管理する必要はなく、例えば、時間的に直近に認識された複数の駐車枠Pのみを管理し、古い駐車枠Pの情報は管理対象から適宜除外する構成としてよい。これにより、記憶部12に要求される記憶容量を低く抑えることができる。 The management unit 114 manages the information regarding the parking frame P recognized by the recognition unit 113 as management information 121 in chronological order. The management information 121 is stored in the storage unit 12 and updated as appropriate. Note that the management unit 114 does not need to manage all the parking spaces recognized by the recognition unit 113 in the past. The information of P may be appropriately excluded from the management targets. As a result, the required storage capacity of the storage unit 12 can be kept low.

本実施形態では、管理部114は、過去に認識された駐車枠Pの位置情報を含む管理情報121を、サイドカメラ20の現在の撮影画像から得られる駐車枠Pの位置情報を含む観測情報に基づき更新する。なお、駐車枠Pの位置情報には、駐車枠Pを構成する区画線SLの位置情報が含まれる。管理情報121は、駐車枠Pおよび区画線SLに関する位置情報を、例えば、複数の頂点座標の組み合わせとして有する。各駐車枠Pは、当該駐車枠Pを構成する区画線SLの頂点座標の組み合わせとして管理されてよい。 In this embodiment, the management unit 114 converts the management information 121 including the position information of the parking frame P recognized in the past into the observation information including the position information of the parking frame P obtained from the currently captured image of the side camera 20. Update based on. Note that the position information of the parking stall P includes the position information of the lane marking SL forming the parking stall P. The management information 121 has position information about the parking frame P and the lane marking SL, for example, as a combination of a plurality of vertex coordinates. Each parking frame P may be managed as a combination of vertex coordinates of the partition lines SL forming the parking frame P.

詳細には、管理部114は、管理情報121と観測情報とに基づき、管理対象となる駐車枠Pを構成する区画線SLごとに更新種別を分類する。管理部114は、更新種別の分類に基づき管理情報121を更新する。これによると、管理対象となる駐車枠Pを構成する各区画線SLに対して、分類に応じた適切な手法で更新処理を行うことができ、管理情報121の信頼度を向上することができる。 Specifically, based on the management information 121 and the observation information, the management unit 114 classifies the update type for each lane line SL that constitutes the parking frame P to be managed. The management unit 114 updates the management information 121 based on the update type classification. According to this, it is possible to update each lane marking SL constituting the parking frame P to be managed by an appropriate method according to the classification, and to improve the reliability of the management information 121. .

より詳細には、管理部114は、自車両Vの移動情報と管理情報121とに基づき駐車枠Pの位置情報を含む推定情報を求める処理を行う。推定情報は、自車両Vの移動により、管理情報121に含まれる各駐車枠Pの位置がいずれの位置に移動したかを推定するものである。推定情報には、駐車枠Pを構成する区画線SLに関する情報が含まれる。自車両Vの移動情報は、例えば、車載ネットワーク5から取得される自車両Vの舵角、車速、シフトなどの情報である。この場合、管理部114は、自車両Vの移動情報から自車両Vの移動量を推定し、当該推定移動量と管理情報121とに基づき、過去に認識した各駐車枠Pの現在位置を推定する。管理情報121に複数の駐車枠Pの情報が含まれている場合には、管理部114は、複数の駐車枠Pのそれぞれに対して現在位置の推定を行う。 More specifically, the management unit 114 performs a process of obtaining estimated information including position information of the parking frame P based on the movement information of the own vehicle V and the management information 121 . The estimated information is for estimating to which position the position of each parking frame P included in the management information 121 has moved due to the movement of the host vehicle V. FIG. The estimated information includes information about the lane marking SL that forms the parking frame P. As shown in FIG. The movement information of the own vehicle V is, for example, information such as the steering angle, vehicle speed, and shift of the own vehicle V acquired from the in-vehicle network 5 . In this case, the management unit 114 estimates the amount of movement of the vehicle V from the movement information of the vehicle V, and estimates the current position of each parking frame P recognized in the past based on the estimated amount of movement and the management information 121. do. When information on a plurality of parking spaces P is included in the management information 121, the management unit 114 estimates the current position of each of the plurality of parking spaces P. FIG.

なお、自車両Vの移動情報は、舵角や車速等の実測情報に限らず、例えば、自車両Vの推定移動量等の実測情報を加工した情報であってもよい。この場合、自車両Vの推定移動量は、例えば駐車制御ECU3によって求められてよい。そして、管理部114は、駐車制御ECU3から取得される自車両Vの推定移動量と、管理情報121として過去に記憶された駐車枠Pの情報とに基づき、現在の駐車枠Pの位置を推定してよい。 The movement information of the own vehicle V is not limited to the measured information such as steering angle and vehicle speed, and may be information obtained by processing the measured information such as the estimated amount of movement of the own vehicle V, for example. In this case, the estimated amount of movement of the own vehicle V may be obtained by the parking control ECU 3, for example. Then, the management unit 114 estimates the current position of the parking frame P based on the estimated movement amount of the own vehicle V acquired from the parking control ECU 3 and the information on the parking frame P stored in the past as the management information 121. You can

本実施形態では、駐車枠Pを構成する区画線SLの更新種別の分類は、推定情報と観測情報とに基づいて行われる。これによると、信頼度の高い観測情報の結果を優先して管理情報121の更新を行うことができ、管理情報121の信頼度を向上することができる。 In the present embodiment, the classification of the update type of the lane marking SL forming the parking stall P is performed based on the estimation information and the observation information. According to this, it is possible to update the management information 121 by giving priority to the results of observation information with high reliability, and the reliability of the management information 121 can be improved.

図3は、駐車枠Pを構成する区画線SLの更新種別例を示す表である。図3において、観測値が「○」とは、観測情報の中に区画線情報が存在する区画線SLが対応する。図3において、観測値が「×」とは、観測情報の中に区画線情報が存在しない区画線SLが対応する。図3において、推定値が「○」とは、推定情報の中に区画線情報が存在する区画線SLが対応する。図3において、推定値が「×」とは、推定情報の中に区画線情報が存在しない区画線SLが対応する。 FIG. 3 is a table showing an example of the update type of the lane marking SL forming the parking frame P. As shown in FIG. In FIG. 3 , the observation value “◯” corresponds to the lane marking SL for which the lane marking information exists in the observation information. In FIG. 3, the observation value "x" corresponds to the lane marking SL for which the lane marking information does not exist in the observation information. In FIG. 3 , an estimated value of “◯” corresponds to a lane marking SL for which lane marking information exists in the estimated information. In FIG. 3, an estimated value of "x" corresponds to a lane marking SL for which lane marking information does not exist in the estimated information.

観測情報および推定情報の中に区画線情報が存在する区画線SLは、観測値「○」且つ推定値「○」となり、第1更新種別に分類される。観測情報の中に区画線情報が存在し、推定情報の中に区画線情報が存在しない区画線SLは、観測値「○」且つ推定値「×」となり、第2更新種別に分類される。観測情報の中に区画線情報が存在せず、推定情報の中に区画線情報が存在する区画線SLは、観測値「×」且つ推定値「○」となり、第3更新種別に分類される。なお、観測情報および推定情報の中に区画線情報が存在しない区画線SLは、処理対象とできないために更新種別が与えられない。 A lane marking SL for which lane marking information exists in the observed information and estimated information has an observed value of "o" and an estimated value of "o", and is classified as the first update type. A lane marking SL for which the observation information contains the lane marking information but the estimation information does not contain the lane marking information has an observed value of "o" and an estimated value of "x", and is classified into the second update type. A lane marking SL with no lane marking information in the observation information but with lane marking information in the estimated information has an observed value of "x" and an estimated value of "○", and is classified as the third update type. . Note that a lane marking SL for which lane marking information does not exist in the observation information and the estimation information cannot be processed and therefore is not given an update type.

すなわち、管理部114は、観測情報と推定情報との両方に位置情報が含まれる区画線SLを第1更新種別に分類し、観測情報にのみ位置情報が含まれる区画線SLを第2更新種別に分類し、推定情報にのみ位置情報が含まれる区画線SLを第3更新種別に分類する。これによると、時系列で取得される複数の区画線SLの位置情報を適切に分類することができ、駐車枠Pの管理情報121を適切に更新することができる。 That is, the management unit 114 classifies the lane marking SL whose position information is included in both the observation information and the estimation information into the first update type, and classifies the lane marking SL whose position information is included only in the observation information into the second update type. , and the lane marking SL whose position information is included only in the estimated information is classified into the third update type. According to this, the position information of the plurality of lane markings SL acquired in time series can be appropriately classified, and the management information 121 of the parking frame P can be updated appropriately.

本実施形態では、管理部114は、これら3つの更新種別に基づき管理情報121の更新を行う。図4は、管理部114によって実行される管理処理を例示するフローチャートである。なお、図4に示す管理処理の説明に際し、理解を容易にするために、図5に示す模式的な例を適宜参照しながら説明を行う。 In this embodiment, the management unit 114 updates the management information 121 based on these three update types. FIG. 4 is a flowchart illustrating management processing executed by management unit 114 . It should be noted that the management processing shown in FIG. 4 will be explained with appropriate reference to the schematic example shown in FIG. 5 in order to facilitate understanding.

図5は、管理処理を説明するための模式図である。駐車場内に進入した自車両Vは、第1区画線SL1、第2区画線SL2、第3区画線SL3・・・という順番で各区画線SL1~SL10を通過する。自車両Vの前進に伴い、認識部113は、各区画線SL1~SL10を、左サイドカメラ20Lから順次取得される撮影画像に基づき駐車枠Pを構成する区画線として順次認識する。 FIG. 5 is a schematic diagram for explaining management processing. The own vehicle V which has entered the parking lot passes through the respective lane marking lines SL1 to SL10 in the order of the first lane marking SL1, the second lane marking SL2, the third lane marking SL3, . . . . As the host vehicle V moves forward, the recognition unit 113 sequentially recognizes the lane markings SL1 to SL10 as lane markings forming the parking frame P based on the captured images sequentially acquired from the left side camera 20L.

図5に示す例では、第1区画線SL1から第9区画線SL9までは、認識部113によって駐車枠Pを構成する区画線SLとして既に認識され、これらの区画線情報は管理情報121に含まれている。すなわち、管理部114は、第1区画線SL1から第9区画線SL9について推定情報を求めることができる。また、第8区画線SL8から第10区画線SL10は、左サイドカメラ20Lの現在の撮影画像から駐車枠Pを構成する区画線として認識されている。 In the example shown in FIG. 5, the first lane marking SL1 to the ninth lane marking SL9 are already recognized as the lane marking SL forming the parking frame P by the recognition unit 113, and the lane marking information of these lane markings is included in the management information 121. is That is, the management unit 114 can obtain estimated information about the first lane marking SL1 to the ninth lane marking SL9. Further, the eighth lane SL8 to the tenth lane SL10 are recognized as the lane markings forming the parking frame P from the image currently captured by the left side camera 20L.

管理部114による管理処理(管理工程)は、例えば、認識部113によって現在の撮影画像に対する駐車枠Pの認識処理が完了した時点で開始される。まず、管理部114は観測情報を取得する(ステップS1)。図5に示す例では、管理部114は、ステップS1により第8~第10の3つの区画線SL8~SL10の情報を取得する。 The management processing (management process) by the management unit 114 is started, for example, when the recognition unit 113 completes the recognition processing of the parking frame P for the current captured image. First, the management unit 114 acquires observation information (step S1). In the example shown in FIG. 5, the management unit 114 acquires information on three lane markings SL8 to SL10, 8th to 10th, in step S1.

次に、管理部114は推定情報を取得する(ステップS2)。管理部114は、現在の撮影画像より1つ前の撮影画像を取得した時点から現在の撮影画像を取得した時点までの自車両Vの推定移動量を算出する。そして、管理部114は、当該推定移動量と、現時点で記憶部12に記憶される管理情報121とに基づいて推定情報を求める。図5に示す例では、管理部114は、ステップS2により、第1~第9の9つの区画線SL1~SL9の推定位置を求める。なお、ステップS2は、ステップS1より先に行われてもよいし、ステップS1と並行して行われてもよい。 Next, the management unit 114 acquires estimation information (step S2). The management unit 114 calculates an estimated amount of movement of the own vehicle V from the time when the captured image immediately before the current captured image is obtained to the time when the current captured image is obtained. Then, the management unit 114 obtains estimated information based on the estimated amount of movement and the management information 121 currently stored in the storage unit 12 . In the example shown in FIG. 5, the management unit 114 obtains the estimated positions of the first to ninth lane markings SL1 to SL9 in step S2. Note that step S2 may be performed prior to step S1, or may be performed in parallel with step S1.

管理部114は、観測情報と推定情報とを取得すると、各区画線SLに対して更新種別の分類を行う(ステップS3)。詳細には、管理部114は、各区画線SLが、第1更新種別と、第2更新種別と、第3更新種別とのうちのいずれに属するかを判断する。 After acquiring the observation information and the estimation information, the management unit 114 classifies each lane marking SL according to the update type (step S3). Specifically, the management unit 114 determines to which of the first update type, the second update type, and the third update type each lane marking SL belongs.

図5に示す例では、第8区画線SL8および第9区画線SL9は、観測情報および推定情報の中に区画線情報が存在する区画線に該当する。このために、第8区画線SL8および第9区画線SL9は、第1更新種別に分類される。第10区画線SL10は、観測情報の中に区画線情報が存在し、推定情報の中に区画線情報が存在しない区画線に該当する。このために、第10区画線SL10は、第2更新種別に分類される。第1~第7区画線SL1~SL7は、観測情報の中に区画線情報が存在せず、推定情報の中に区画線情報が存在する区画線に該当する。このために、第1~第7区画線SL1~SL7は、第3更新種別に分類される。 In the example shown in FIG. 5, the eighth lane marking SL8 and the ninth lane SL9 correspond to lane markings for which lane marking information exists in the observation information and the estimation information. Therefore, the eighth lane marking SL8 and the ninth lane marking SL9 are classified into the first update type. The tenth lane line SL10 corresponds to a lane line for which lane line information exists in the observation information but does not exist in the estimated information. Therefore, the tenth lane marking SL10 is classified as the second update type. The first to seventh lane markings SL1 to SL7 correspond to lane markings for which the observation information has no lane marking information but the estimation information has lane marking information. Therefore, the first to seventh lane marking lines SL1 to SL7 are classified into the third update type.

なお、管理部114は、観測情報に含まれる各区画線SLが過去に認識した区画線SLのいずれかと同じであるか否かは、観測情報から得られる位置と、推定情報から得られる位置とを比較することにより判断する。本実施形態では、観測情報から得られる位置と、推定情報から得られる位置とが完全に一致していなくても、位置の差が所定の閾値内であれば、同一の区画線SLであると判断する。 Note that the management unit 114 determines whether each lane marking SL included in the observation information is the same as any of the lane marking SL recognized in the past based on the position obtained from the observation information and the position obtained from the estimated information. is determined by comparing In the present embodiment, even if the position obtained from the observation information and the position obtained from the estimation information do not completely match, if the position difference is within a predetermined threshold, it is determined to be the same lane marking SL. to decide.

管理部114は、各区画線SLの更新種別を分類すると、当該分類結果に基づき記憶部12に現在記憶される管理情報121を更新する(ステップS4)。管理情報121の更新に際して、第1更新種別の区画線SLの位置情報は、観測情報の値に更新される(観測更新)。また、第2更新種別の区画線SLの位置情報は、観測情報の値で仮登録される(新規登録)。なお、仮登録の段階では、当該区画線SLは、更新種別の分類において過去に認識された区画線SLとして取り扱われず、後述の補正値の算出にも使用されない。仮登録が複数回されると、当該区画線SLは本登録となる。これにより、管理情報121の信頼度を更に向上することができる。ただし、1回目の観測で仮登録とすることなく本登録とする構成としてもよい。この場合には、第1更新種別と第2更新種別とを2つに分けず、同じ分類としてよい。更に、第3更新種別の区画線SLの位置情報は、推定情報の値を、観測情報と推定情報とに基づき得られる補正値で補正した値に更新される。 After classifying the update type of each lane marking SL, the management unit 114 updates the management information 121 currently stored in the storage unit 12 based on the classification result (step S4). When updating the management information 121, the position information of the lane marking SL of the first update type is updated to the value of the observation information (observation update). Also, the position information of the lane marking SL of the second update type is provisionally registered with the value of the observation information (new registration). At the stage of provisional registration, the lane marking SL is not treated as a lane marking SL recognized in the past in the classification of the update type, nor is it used to calculate a correction value, which will be described later. When provisional registration is performed multiple times, the lane marking SL is officially registered. Thereby, the reliability of the management information 121 can be further improved. However, a configuration may be adopted in which the first observation is not temporarily registered but is officially registered. In this case, the first update type and the second update type may not be divided into two, but may be classified as the same. Furthermore, the position information of the lane marking SL of the third update type is updated to a value obtained by correcting the value of the estimation information with a correction value obtained based on the observation information and the estimation information.

図5に示す例では、管理部114は、第8区画線SL8と第9区画線SL9の位置情報を観測情報の値に更新する。管理部114は、第10区画線SL10の位置情報を観測情報の値で仮登録する。管理部114は、第1~第7の7つの区画線SL1~SL7の位置情報について、各推定値を補正値で補正した値で更新する。これらの更新により、駐車枠Pの情報を含む管理情報121の更新が完了する。 In the example shown in FIG. 5, the management unit 114 updates the position information of the eighth lane marking SL8 and the ninth lane SL9 to the value of the observation information. The management unit 114 provisionally registers the position information of the tenth lane marking SL10 with the value of the observation information. The management unit 114 updates the position information of the first to seventh lane marking lines SL1 to SL7 with values obtained by correcting each estimated value with a correction value. By these updates, the update of the management information 121 including the information of the parking frame P is completed.

本実施形態では、撮影画像の信頼度の高い領域を用いて観測情報が得られるために、観測情報に含まれる区画線情報の信頼度を高くすることができる。すなわち、観測値で更新される第1更新種別および第2更新種別の区画線の更新情報の信頼度を向上することができる。そして、撮影画像によって認識できず、自車両Vの移動量から推定した結果で更新する必要がある第3更新種別の区画線SLの位置情報について、観測情報から得られる補正値で推定値の補正を行って更新情報を得る構成になっている。このために、第3更新種別の区画線について、更新処理の際に車両の移動量推定の誤差が蓄積して本来の位置からずれることを抑制することができる。すなわち、本実施形態によれば、駐車枠Pの管理情報121の信頼度を向上することができる。 In the present embodiment, observation information can be obtained using a highly reliable region of the captured image, so the reliability of the lane marking information included in the observation information can be increased. That is, it is possible to improve the reliability of the update information of the lane markings of the first update type and the second update type that are updated with the observed values. Then, regarding the position information of the lane marking SL of the third update type that cannot be recognized from the captured image and needs to be updated with the result estimated from the movement amount of the own vehicle V, the estimated value is corrected with the correction value obtained from the observation information. to obtain update information. For this reason, it is possible to prevent the lane markings of the third update type from deviating from their original positions due to accumulation of errors in estimating the amount of movement of the vehicle during the updating process. That is, according to this embodiment, the reliability of the management information 121 of the parking frame P can be improved.

図4に示す更新処理(ステップS4)の具体例について説明する。図6は、図4に示す更新処理の具体例を例示するフローチャートである。管理部114は、各区画線SLの更新種別を分類すると、分類された更新種別の中に第1更新種別が存在するか否かを確認する(ステップS41)。図5に示す例では、2つの区画線SL8、SL9が第1更新種別に分類されるために、管理部114は、第1更新種別が存在すると判断する。 A specific example of the update process (step S4) shown in FIG. 4 will be described. FIG. 6 is a flowchart illustrating a specific example of the update processing shown in FIG. 4; After classifying the update types of each lane marking SL, the management unit 114 confirms whether or not the first update type exists in the classified update types (step S41). In the example shown in FIG. 5, since the two lane markings SL8 and SL9 are classified into the first update type, the management unit 114 determines that the first update type exists.

第1更新種別が存在すると判断すると(ステップS41Yes)、管理部114は、補正値の算出を行う(ステップS42)。補正値は、推定情報を補正するために用いられる。補正値の算出方法について、図7および図8を参照して説明する。 When determining that the first update type exists (step S41 Yes), the management unit 114 calculates a correction value (step S42). A correction value is used to correct the estimated information. A method of calculating the correction value will be described with reference to FIGS. 7 and 8. FIG.

図7は、区画線SLの現在の認識イメージI(t)と、過去の認識イメージI(t-1)とを比較して示す模式図である。図7において、実線は現在の認識イメージI(t)であり、破線は過去の認識イメージI(t-1)である。現在の認識イメージI(t)は、自車両V(t)の左サイドカメラ20Lの撮影画像から取得されるものであり、過去の認識イメージI(t-1)は、自車両V(t-1)の左サイドカメラ20Lの撮影画像から取得されるものである。図7における過去とは、現在より1周期(カメラの撮影周期)前の時間を指す。図7に示すように、自車両Vの移動により、撮影画像によって認識される区画線SLの位置も移動している。また、自車両Vの移動により撮影画像によって認識される区画線SLの種類も変化している。すなわち、過去の認識イメージI(t-1)は、第7~第9の3つの区画線SL7~SL9が認識されていたが、現在の認識イメージI(t)では、第8~第10の3つの区画線SL8~SL10が認識されている。 FIG. 7 is a schematic diagram showing a comparison between the current recognition image I(t) of the lane marking SL and the past recognition image I(t−1). In FIG. 7, the solid line is the current recognition image I(t), and the dashed line is the past recognition image I(t-1). The current recognition image I(t) is acquired from the image captured by the left side camera 20L of the vehicle V(t), and the past recognition image I(t−1) is the image of the vehicle V(t− This is obtained from the captured image of the left side camera 20L in 1). The past in FIG. 7 refers to the time one cycle (the imaging cycle of the camera) before the present. As shown in FIG. 7, due to the movement of the own vehicle V, the position of the lane marking SL recognized by the captured image also moves. Also, the type of lane marking SL recognized by the photographed image changes as the vehicle V moves. That is, in the past recognition image I(t−1), the 7th to 9th division lines SL7 to SL9 were recognized, but in the present recognition image I(t), the 8th to 10th division lines Three demarcation lines SL8-SL10 are recognized.

図8は、補正値の算出方法を説明するための模式図である。図8は、図7の現在の認識イメージI(t)のみを抽出し、補正値の算出方法の説明に必要となる事項を書き加えた図である。管理部114は、補正値の算出に際して、観測情報に含まれる区画線情報と、推定情報に含まれる区画線情報とを比較する。 FIG. 8 is a schematic diagram for explaining a method of calculating correction values. FIG. 8 is a diagram obtained by extracting only the current recognition image I(t) of FIG. 7 and adding items necessary for explaining the method of calculating the correction values. When calculating the correction value, the management unit 114 compares the lane marking information included in the observation information with the lane marking information included in the estimated information.

図8に示す例で具体的に説明する。管理部114は、第8区画線SL8および第9区画線SL9について、現在(t)の位置と、1周期前(t-1)の位置から推定される推定位置(一点鎖線で示す位置)とを比較し、位置の差分値Δを算出する。管理部14は、この差分値Δを補正値とする。 The example shown in FIG. 8 will be described specifically. The management unit 114 calculates the current position (t) and the estimated position (position indicated by the dashed-dotted line) estimated from the position of the current (t) and the position of one cycle before (t−1) for the eighth lane SL8 and the ninth lane SL9. are compared to calculate the positional difference value Δ. The management unit 14 uses this difference value Δ as a correction value.

なお、第8区画線SL8を用いて求められる差分値Δと、第9区画線SL9を用いて求められる差分値Δとは同じである場合もあるし、同じとならない場合もある。値の異なる複数の差分値Δが取得された場合には、例えば、複数の差分値の平均値を補正値としてよい。また、別の手法として、複数の差分値Δのうち、信頼性が高いと判断される差分値Δを補正値としてもよい。例えば、撮影画像の中央で認識される区画線情報は中央からずれた位置で認識される区画線情報より信頼度が高いと推定される。このために、撮影画像の中央位置により近い位置から認識された区画線情報を信頼度が高いとして、当該区画線情報から得られる差分値Δを補正値としてよい。なお、本例では、求められる差分値の数が2つであるが、この数は適宜変わり、1つのこともあるし、3つ以上のこともある。 The difference value Δ obtained using the eighth marking line SL8 and the difference value Δ obtained using the ninth marking line SL9 may or may not be the same. When a plurality of difference values Δ having different values are acquired, for example, the average value of the plurality of difference values may be used as the correction value. As another method, a difference value Δ that is determined to be highly reliable among a plurality of difference values Δ may be used as the correction value. For example, it is estimated that the lane marking information recognized at the center of the captured image is more reliable than the lane marking information recognized at a position shifted from the center. For this reason, the lane marking information recognized from a position closer to the central position of the captured image may be regarded as having a high degree of reliability, and the difference value Δ obtained from the lane marking information may be used as the correction value. In this example, the number of difference values to be obtained is two, but this number may be changed as appropriate, and may be one or three or more.

管理部114は、補正値を算出すると、補正処理を行う(ステップS43)。詳細には、管理部114は、第3更新種別の区画線SLの位置情報について、推定情報の値を補正値で補正した値とする。図8に示す例では、自車両Vの推定移動量Mが実際より小さく推定されていると判断され、推定移動量Mを大きくする補正が行われることになる。 After calculating the correction value, the management unit 114 performs a correction process (step S43). Specifically, the management unit 114 sets the position information of the lane marking SL of the third update type to a value obtained by correcting the value of the estimated information with a correction value. In the example shown in FIG. 8, it is determined that the estimated movement amount M of the host vehicle V is estimated to be smaller than the actual amount, and the estimated movement amount M is corrected to be increased.

なお、本実施形態では、管理部114は、複数の第3更新種別の区画線SLの位置情報を含む推定情報の値を同一の補正値で一括して補正する。図5に示す例では、管理部114は、第1~第7の7つの区画線SL1~SL7の位置情報について、各推定情報の値を同一の補正値で一括して補正した値とする。これによると、予測更新が行われる第3更新種別の区画線SLについて、効率良く信頼度の高い値に補正して更新を行うことができる。 Note that in the present embodiment, the management unit 114 collectively corrects the values of the estimated information including the position information of the plurality of lane markings SL of the third update type with the same correction value. In the example shown in FIG. 5, the management unit 114 collectively corrects the estimated information values with the same correction value for the position information of the first to seventh marking lines SL1 to SL7. According to this, the lane marking SL of the third update type for which predictive updating is performed can be efficiently corrected to a highly reliable value and updated.

管理部114は、補正処理を行うと、各区画線情報を各更新種別に応じて決まる更新値に更新し、駐車枠Pに関する管理情報121の更新登録を行う(ステップS44)。各更新種別に応じて決まる更新値の求め方は上述したので、ここでは省略する。 After performing the correction process, the management unit 114 updates each lane marking information to an update value determined according to each update type, and updates and registers the management information 121 regarding the parking frame P (step S44). Since the method of obtaining the update value determined according to each update type has been described above, the description is omitted here.

ところで、ステップS41で第1更新種別の区画線SLが存在しないと判断される場合、観測情報に基づいて補正値を算出することができない。このために、管理部114は、第1更新種別の区画線SLが存在しないと判断される場合(ステップS41でNo)には、補正値をゼロとしステップS43に移行する。換言すると、管理部114は、第1更新種別の区画線SLが存在しないと判断される場合には、推定情報の補正処理を実質的に行わない。 By the way, if it is determined in step S41 that the lane marking SL of the first update type does not exist, the correction value cannot be calculated based on the observation information. Therefore, when it is determined that the lane marking SL of the first update type does not exist (No in step S41), the management unit 114 sets the correction value to zero and proceeds to step S43. In other words, the management unit 114 does not substantially perform the estimation information correction process when it is determined that the lane marking SL of the first update type does not exist.

なお、第1更新種別の区画線SLが存在しない状態は、観測情報の中に区画線SLの認識情報がない場合の他、観測情報の中に新規に認識された区画線情報のみが存在する場合がある。前者は、例えば、自車両Vが駐車枠Pの存在する領域を通り過ぎた場合や、区画線SLとサイドカメラ20との間に物体(静止物又は移動物)が存在したり、区画線SLが影に覆われたり、区画線SLが消えかかったりして区画線SLの認識ができない場合等が挙げられる。後者は、例えば、自車両Vが駐車枠Pの存在領域に接近し始めたばかりのタイミングである場合や、区画線SLとサイドカメラ20との間に物体が存在したり、区画線SLが影に覆われたり、区画線SLが消えかかったりして一部の区画線SLの認識ができない場合等が挙げられる。 Note that a state in which no lane marking SL of the first update type exists is a case where there is no recognition information of the lane marking SL in the observation information, or only newly recognized lane marking information exists in the observation information. Sometimes. The former is, for example, when the own vehicle V passes through the area where the parking frame P exists, when an object (stationary object or moving object) exists between the lane marking SL and the side camera 20, or when the lane marking SL is For example, the lane marking SL cannot be recognized because it is covered with shadows or the lane marking SL is about to disappear. The latter is, for example, when the vehicle V has just started approaching the existing area of the parking frame P, when an object exists between the lane marking SL and the side camera 20, or when the lane marking SL is in the shadow. For example, a part of the marking lines SL cannot be recognized because they are covered or the marking lines SL are about to disappear.

また、第1更新種別の区画線SLが存在すると判断された場合でも、例えば物体や影等の存在によって、現在の撮影画像において認識されるべき区画線SLが認識されていない状態が起り得る。ただし、このような区画線SLは、第1更新種別の区画線SLの存在により、車両の移動量推定から求められる推定値を補正値で補正した値で更新登録することができる。 Further, even if it is determined that the lane marking SL of the first update type exists, the lane marking SL that should be recognized in the current captured image may not be recognized due to the presence of an object, shadow, or the like. However, due to the presence of the lane marking SL of the first update type, such a lane marking SL can be updated and registered with a value obtained by correcting the estimated value obtained by estimating the movement amount of the vehicle with a correction value.

<3.留意事項>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
<3. Notes>
Various modifications can be made to the various technical features disclosed in this specification without departing from the gist of the technical creation in addition to the above-described embodiments. That is, the above embodiments should be considered as examples in all respects and not restrictive, and the technical scope of the present invention is not defined by the description of the above embodiments, but by the scope of claims. All changes that come within the meaning and range of equivalency of the claims are to be understood. In addition, multiple embodiments and modifications shown in this specification may be implemented in combination to the extent possible.

以上においては、認識部113がサイドカメラ20を用いて駐車枠Pの認識を行う場合を例に説明したが、本発明は、認識部113がサイドカメラ20以外のカメラ(例えばバックカメラ)を用いて駐車枠の認識を行う構成にも適用可能である。 In the above, the case where the recognition unit 113 uses the side camera 20 to recognize the parking frame P has been described as an example. It can also be applied to a configuration in which the parking frame is recognized by using the parking frame.

1・・・画像処理装置
20・・・サイドカメラ(カメラの一例)
113・・・認識部
114・・・管理部
121・・・管理情報
P・・・駐車枠
SL・・・区画線
V・・・自車両(車両)
1 image processing device 20 side camera (an example of a camera)
113... Recognition part 114... Management part 121... Management information P... Parking slot SL... Section line V... Own vehicle (vehicle)

Claims (7)

車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識部と、
過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理部と、
を備え、
前記管理部は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する、画像処理装置。
A recognition unit that recognizes a parking frame based on a captured image obtained by a camera that captures the surroundings of the vehicle;
A management unit that updates management information including position information of the parking frame recognized in the past based on observation information including position information of the parking frame obtained from a currently captured image;
with
The management unit classifies an update type for each lane line forming the parking frame to be managed based on the management information and the observation information, and updates the management information based on the classification. .
前記管理部は、前記車両の移動情報と前記管理情報とに基づき前記駐車枠の位置情報を含む推定情報を求める処理を行い、
前記更新種別の分類は、前記推定情報と前記観測情報とに基づいて行われる、請求項1に記載の画像処理装置。
The management unit performs a process of obtaining estimated information including position information of the parking frame based on the movement information of the vehicle and the management information,
2. The image processing apparatus according to claim 1, wherein said update type classification is performed based on said estimation information and said observation information.
前記管理部は、
前記観測情報と前記推定情報との両方に位置情報が含まれる前記区画線を第1更新種別に分類し、
前記観測情報にのみ位置情報が含まれる前記区画線を第2更新種別に分類し、
前記推定情報にのみ位置情報が含まれる前記区画線を第3更新種別に分類する、請求項2に記載の画像処理装置。
The management department
Classifying the lane markings for which position information is included in both the observation information and the estimation information as a first update type;
classifying the lane markings for which position information is included only in the observation information into a second update type;
3. The image processing apparatus according to claim 2, wherein said lane markings whose position information is included only in said estimation information are classified into a third update type.
前記管理情報の更新に際して、
前記第1更新種別の前記区画線の位置情報は、前記観測情報の値に更新され、
前記第2更新種別の前記区画線の位置情報は、前記観測情報の値で仮登録され、
前記第3更新種別の前記区画線の位置情報は、前記推定情報の値を、前記観測情報と前記推定情報とに基づき得られる補正値で補正した値に更新される、請求項3に記載の画像処理装置。
When updating the management information,
the position information of the lane marking of the first update type is updated to the value of the observation information;
the position information of the lane marking of the second update type is provisionally registered with the value of the observation information;
The position information of the lane marking of the third update type according to claim 3, wherein the value of the estimated information is updated to a value obtained by correcting the value of the estimated information with a correction value obtained based on the observation information and the estimated information. Image processing device.
前記管理部は、複数の前記第3更新種別の前記区画線の位置情報を含む前記推定情報の値を同一の前記補正値で一括して補正する、請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein the management unit collectively corrects the values of the estimated information including the position information of the lane markings of the third update type with the same correction value. 前記カメラは、前記車両の側方に設けられるサイドカメラであり、
前記認識部は、前記撮影画像の中心部を含む一部の領域を用いて前記駐車枠を認識する、請求項1から5のいずれか1項に記載の画像処理装置。
The camera is a side camera provided on the side of the vehicle,
The image processing device according to any one of claims 1 to 5, wherein the recognition unit recognizes the parking frame using a partial area including a central portion of the captured image.
画像処理装置で実行される画像処理方法であって、
車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識工程と、
過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理工程と、
を備え、
前記管理工程は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する処理を含む、画像処理方法。
An image processing method executed by an image processing device,
A recognition step of recognizing a parking frame based on a captured image obtained by a camera that captures the surroundings of the vehicle;
A management step of updating management information including position information of the parking frame recognized in the past based on observation information including position information of the parking frame obtained from a currently captured image;
with
In the management step, based on the management information and the observation information, an update type is classified for each lane line that constitutes the parking frame to be managed, and the management information is updated based on the classification. Image processing method.
JP2018136603A 2018-07-20 2018-07-20 Image processing device and image processing method Active JP7116613B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018136603A JP7116613B2 (en) 2018-07-20 2018-07-20 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018136603A JP7116613B2 (en) 2018-07-20 2018-07-20 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020011675A JP2020011675A (en) 2020-01-23
JP7116613B2 true JP7116613B2 (en) 2022-08-10

Family

ID=69169215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018136603A Active JP7116613B2 (en) 2018-07-20 2018-07-20 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7116613B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001366A (en) 2011-06-22 2013-01-07 Nissan Motor Co Ltd Parking support device and parking support method
WO2017104164A1 (en) 2015-12-17 2017-06-22 日産自動車株式会社 Parking support method and device
JP2017222309A (en) 2016-06-17 2017-12-21 日産自動車株式会社 Parking support method and apparatus
JP2018036878A (en) 2016-08-31 2018-03-08 アイシン精機株式会社 Parking support device
JP2018074411A (en) 2016-10-31 2018-05-10 株式会社デンソーテン Object detection device and object detection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001366A (en) 2011-06-22 2013-01-07 Nissan Motor Co Ltd Parking support device and parking support method
WO2017104164A1 (en) 2015-12-17 2017-06-22 日産自動車株式会社 Parking support method and device
JP2017222309A (en) 2016-06-17 2017-12-21 日産自動車株式会社 Parking support method and apparatus
JP2018036878A (en) 2016-08-31 2018-03-08 アイシン精機株式会社 Parking support device
JP2018074411A (en) 2016-10-31 2018-05-10 株式会社デンソーテン Object detection device and object detection method

Also Published As

Publication number Publication date
JP2020011675A (en) 2020-01-23

Similar Documents

Publication Publication Date Title
US9794543B2 (en) Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
JP6649738B2 (en) Parking lot recognition device, parking lot recognition method
Fossati et al. Real-time vehicle tracking for driving assistance
US10007998B2 (en) Image processor, apparatus, and control system for correction of stereo images
JP6458384B2 (en) Lane detection device and lane detection method
US10929986B2 (en) Techniques for using a simple neural network model and standard camera for image detection in autonomous driving
US10896336B2 (en) Parking compartment recognition apparatus
CN110167813B (en) Travel route recognition device and travel route recognition method
US20200082181A1 (en) Method and system for sensing an obstacle, and storage medium
CN105405319A (en) Approaching object detection apparatus for a vehicle and approaching object detection method for the same
JP2018060422A (en) Object detection device
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP2007293672A (en) Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle
US8213684B2 (en) Motion estimating device
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
JP6799030B2 (en) Image recognition device, image recognition method, and parking support system
JP7116613B2 (en) Image processing device and image processing method
JP7247772B2 (en) Information processing device and driving support system
JP5559650B2 (en) Lane estimation device
JP2015158418A (en) Self position calculation apparatus and self position calculation method
JP2019015570A (en) Parking position information acquisition device and automatic parking controller
US11157755B2 (en) Image processing apparatus
JP7134780B2 (en) stereo camera device
JP2006036048A (en) Vehicle light controlling device
JP2020042715A (en) Movement information estimation device, abnormality detection device, and movement information estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220729

R150 Certificate of patent or registration of utility model

Ref document number: 7116613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150