JP2017076275A - Parking section recognition device and parking section recognition method - Google Patents

Parking section recognition device and parking section recognition method Download PDF

Info

Publication number
JP2017076275A
JP2017076275A JP2015203725A JP2015203725A JP2017076275A JP 2017076275 A JP2017076275 A JP 2017076275A JP 2015203725 A JP2015203725 A JP 2015203725A JP 2015203725 A JP2015203725 A JP 2015203725A JP 2017076275 A JP2017076275 A JP 2017076275A
Authority
JP
Japan
Prior art keywords
line
vehicle
unit
parking
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015203725A
Other languages
Japanese (ja)
Other versions
JP6649738B2 (en
Inventor
前田 優
Masaru Maeda
優 前田
下村 修
Osamu Shimomura
修 下村
博彦 柳川
Hirohiko Yanagawa
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2015203725A priority Critical patent/JP6649738B2/en
Publication of JP2017076275A publication Critical patent/JP2017076275A/en
Application granted granted Critical
Publication of JP6649738B2 publication Critical patent/JP6649738B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To facilitate a specification of a parking section, and improve recognition accuracy of a parking section line.SOLUTION: A broad recognition unit 22 is configured to conduct detection processing of detecting candidate lines from a broad image area, and recognize each parking section line on the basis of a pair of detected candidate lines to specify a parking section upon a forward movement of a vehicle. A forward movement tracking unit 32 is configured to, upon the forward movement of the vehicle, use each parking section line recognized by the broad recognition unit 22 as an object section line to track a location of each object section line on the basis of a recognition result recognized by the broad recognition unit 22. A rearward movement tracking unit 34 is configured to, upon rearward movement of the vehicle, track the location of each object section line on the basis of a tracking result by the forward movement tracking unit 32 and behavior information on the vehicle. An area setting unit 40 is configured to set a narrow image area on the basis of the location of each object section line recognized by the broad recognition unit 22. When detecting one candidate line from the narrow image area set by the area setting unit 40, a narrow recognition unit 24 is configured to recognize each object section line on the basis of the detected one candidate line and the tracking result by the rearward movement tracking unit 34.SELECTED DRAWING: Figure 3

Description

本発明は、車載カメラの撮影画像を用いて駐車区画線を認識し、駐車区画を特定する技術に関する。   The present invention relates to a technique for recognizing a parking lot line using a captured image of an in-vehicle camera and specifying the parking lot.

従来、駐車時の運転操作を支援する駐車支援システムにおいて、車載カメラの撮影画像を基に駐車区画線の候補となる一対の候補線を検出することにより各駐車区画線を認識し、認識した各駐車区画線から駐車区画を特定する技術が知られている。駐車支援システムでは、この種の技術を用いて特定した駐車区画の枠内に車両が収まるように、案内画像の表示制御や車両の駆動制御等の駐車支援制御を行っている。   Conventionally, in a parking support system that supports driving operation at the time of parking, each parking lot line is recognized by detecting a pair of candidate lines that are candidates for a parking lot line based on a captured image of an in-vehicle camera. A technique for identifying a parking lot from a parking lot line is known. In the parking assistance system, parking assistance control such as guide image display control and vehicle drive control is performed so that the vehicle fits within the frame of the parking section identified using this type of technology.

こうした駐車区画認識技術においては、前回認識結果と、車両の挙動に関するデッドレコニング結果と、に基づいて、今回認識における撮影画像上の各駐車区画線の位置を予測し、この予測結果を基に、駐車区画線の途切れや一部かすれによって今回撮影画像からは検出できなかった候補線(ひいては、駐車区画線)を認識する技術が提案されている(特許文献1参照)。   In such parking area recognition technology, based on the previous recognition result and the dead reckoning result on the behavior of the vehicle, the position of each parking line on the captured image in the current recognition is predicted, and based on this prediction result, There has been proposed a technique for recognizing a candidate line (and thus a parking lot line) that could not be detected from a captured image this time due to a break or part of the parking lot line (see Patent Document 1).

特開2014−106731号公報JP, 2014-106731, A

しかしながら、従来技術では、車両を後進させて駐車区画のスペースに駐車する場合、車両の後進時に得られた撮影画像を基に駐車区画線の認識を開始するため、例えば後進開始時の車両と駐車区画との間に別の車両が駐車しているシーン等、車載カメラから見た死角に駐車区画が存在する場合に例えば以下のような問題があった。すなわち、上記シーンにおいては、車両を駐車区画に相当近づけなければ、一対の候補線を検出することができないため、駐車区画線を認識するまでに時間がかかり、ひいては駐車区画を特定しにくいという問題があった。その結果、例えば駐車支援制御の開始タイミングが遅れることにより、駐車支援の便利さを損なう可能性が考えられた。   However, in the conventional technology, when the vehicle is moved backward and parked in the parking space, the parking line is recognized based on the captured image obtained when the vehicle is moving backward. For example, the vehicle is parked with the vehicle when starting backward. For example, when there is a parking section in a blind spot as viewed from the in-vehicle camera, such as a scene in which another vehicle is parked between the sections, there are the following problems. That is, in the above scene, a pair of candidate lines cannot be detected unless the vehicle is considerably close to the parking area, so it takes time to recognize the parking area line, and it is difficult to identify the parking area. was there. As a result, for example, the start timing of parking support control may be delayed, which may impair the convenience of parking support.

また従来技術では、撮影画像において候補線を検出するための画像処理領域が固定されているため、候補線の検出精度を上げることによって駐車区画線の認識精度を上げようとすると、画像処理の負担を容易に増大させてしまうという問題もあった。   In the prior art, the image processing area for detecting the candidate line in the photographed image is fixed. Therefore, if it is attempted to increase the recognition accuracy of the parking lot line by increasing the detection accuracy of the candidate line, the image processing burden is increased. There was also a problem that it was easily increased.

本発明は、こうした問題に鑑みてなされたものであり、駐車開始時に車載カメラから見た死角に駐車区画が存在する場合であっても駐車区画を特定しやすくし、なお且つ、駐車区画線の認識精度を向上させることが可能な技術を提供することを目的としている。   The present invention has been made in view of such problems, and makes it easy to identify a parking area even when the parking area exists in a blind spot as viewed from the in-vehicle camera at the start of parking, and the parking line The object is to provide a technique capable of improving the recognition accuracy.

本発明の一局面である駐車区画認識装置は、画像取得部と、挙動情報取得部と、広域認識部と、前進時追跡部と、後進時追跡部と、領域設定部と、広域認識部と、を備える。画像取得部は、車両に搭載されて車両の周辺を撮影する車載カメラの撮影画像を取得する。挙動情報取得部は、車両の挙動を示す挙動情報を取得する。   A parking area recognition device according to one aspect of the present invention includes an image acquisition unit, a behavior information acquisition unit, a wide area recognition unit, a forward tracking unit, a backward tracking unit, an area setting unit, and a wide area recognition unit. . An image acquisition part acquires the picked-up image of the vehicle-mounted camera mounted in a vehicle and image | photographs the periphery of a vehicle. The behavior information acquisition unit acquires behavior information indicating the behavior of the vehicle.

広域認識部は、画像取得部により取得された撮影画像において予め定められた広域画像領域から、駐車区画線の候補となる候補線を検出する検出処理を行い、その検出処理により検出された一対の候補線を含む複数の候補線を基に各駐車区画線を認識し、認識した各駐車区画線を含んで構成される駐車区画を車両の前進時に特定する。   The wide area recognition unit performs a detection process of detecting candidate lines that are candidates for the parking lot lines from a predetermined wide area image area in the captured image acquired by the image acquisition unit, and a pair of detected by the detection process Each parking lot line is recognized based on a plurality of candidate lines including the candidate line, and a parking lot configured to include each recognized parking lot line is specified when the vehicle moves forward.

前進時追跡部は、車両の前進時に、広域認識部により特定された駐車区画を構成する各駐車区画線のそれぞれを対象区画線とし、少なくとも広域認識部による認識結果を基に、各対象区画線の位置を追跡する。一方、後進時追跡部は、車両の後進時に、少なくとも前進時追跡部による追跡結果と、挙動情報取得部により取得された挙動情報とを基に各対象区画線の位置を追跡する。   The forward tracking unit sets each parking lot line constituting the parking lot specified by the wide area recognition unit as a target division line when the vehicle moves forward, and each target division line based on the recognition result by at least the wide area recognition unit. Keep track of the location. On the other hand, the backward tracking unit tracks the position of each target lane line based on at least the tracking result of the forward tracking unit and the behavior information acquired by the behavior information acquisition unit when the vehicle is moving backward.

領域設定部は、広域認識部により認識された各対象区画線の位置を基に、画像取得部により取得された撮影画像において少なくとも広域画像領域よりも小さい狭域画像領域を設定する。そして、狭域認識部は、領域設定部により設定された狭域画像領域から、既述の検出処理を行い、その検出処理により検出された少なくとも1つの候補線と、後進時追跡部による追跡結果とを基に各対象区画線を認識し、認識した各駐車区画線を含んで構成される駐車区画を車両の後進時に特定する。   The area setting unit sets a narrow area image area that is at least smaller than the wide area image area in the captured image acquired by the image acquisition section based on the position of each target marking line recognized by the wide area recognition section. Then, the narrow area recognition unit performs the above-described detection process from the narrow area image region set by the area setting unit, and at least one candidate line detected by the detection process and the tracking result by the backward tracking unit Based on the above, each target lane line is recognized, and a parking lane including the recognized parking lane lines is specified when the vehicle is going backward.

このような構成によれば、駐車区画のスペースに駐車するために車両を後進させる前に、予め車両の前進時に撮像画像から一対の候補線を検出することにより駐車区画線を認識しておき、さらに車両の挙動を基に駐車区画線の位置を追跡しているため、車両の後進時には、一対の候補線を検出できなくても、その追跡結果を基に駐車区画線を認識することができるようになる。   According to such a configuration, before reversing the vehicle to park in the parking space, the parking space is recognized in advance by detecting a pair of candidate lines from the captured image when the vehicle moves forward, Furthermore, since the position of the parking lot line is tracked based on the behavior of the vehicle, the parking lot line can be recognized based on the tracking result even when the pair of candidate lines cannot be detected when the vehicle is going backward. It becomes like this.

また、車両の後進時には、撮像画像から少なくとも1つの候補線を検出し、検出した少なくとも1つの候補線と、既述の追跡結果とを基に、駐車区画線を認識しているため、一対の候補線を検出するまでもなく駐車区画線を認識できるようになり、なお且つ、撮像画像から検出した少なくとも1つの候補線により、追跡結果と実際の駐車区画線の位置とのずれを補正できるようになる。これにより、駐車区画線の認識精度を保ちつつ、駐車支援制御の開始タイミングをより早めることが可能になる。   Further, when the vehicle is moving backward, at least one candidate line is detected from the captured image, and the parking lot line is recognized based on the detected at least one candidate line and the tracking result described above. The parking lot line can be recognized without detecting the candidate line, and the deviation between the tracking result and the actual parking lot line position can be corrected by at least one candidate line detected from the captured image. become. Thereby, it becomes possible to advance the start timing of parking assistance control, maintaining the recognition accuracy of a parking lot line.

また、車両の後進時には、既に一対の候補線によって駐車区画線の位置を検出できていれば、その駐車区画線の位置を基に画像処理領域を小さくするようにしたため、候補線の検出精度を高くしても、その処理負担が画像処理領域の狭域化によって相殺され、ひいては画像処理の負担を緩和できるようにもなる。   Also, when the vehicle is moving backward, if the position of the parking lot line has already been detected by a pair of candidate lines, the image processing area is reduced based on the position of the parking lot line, so that the detection accuracy of candidate lines is improved. Even if it is increased, the processing load is offset by the narrowing of the image processing area, and the image processing load can be alleviated.

したがって、本発明の一局面によれば、駐車開始時に車載カメラから見た死角に駐車区画が存在する場合であっても駐車区画を特定しやすくし、なお且つ、駐車区画線の認識精度を向上させやすくすることができる。   Therefore, according to one aspect of the present invention, it is easy to specify the parking area even when the parking area exists in the blind spot viewed from the in-vehicle camera at the start of parking, and the recognition accuracy of the parking area line is improved. It can be made easy.

また、本発明の一局面である駐車区画認識方法によれば、上記同様の理由により、本発明の一局面である駐車区画認識装置において既に述べた効果と同様の効果を得ることができる。   Moreover, according to the parking area recognition method which is one aspect of the present invention, the same effects as those already described in the parking area recognition apparatus which is one aspect of the present invention can be obtained for the same reason as described above.

駐車区画認識装置1を含む駐車支援システム100の全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of a parking assistance system 100 including a parking section recognition device 1. FIG. 認識制御ユニット10の機能的構成を示すブロック図である。2 is a block diagram showing a functional configuration of a recognition control unit 10. FIG. 駐車区画認識部16の機能的構成を示すブロック図である。3 is a block diagram showing a functional configuration of a parking section recognition unit 16. FIG. 広域画像領域及び狭域画像領域を説明するための模式図である。It is a schematic diagram for demonstrating a wide area | region image area and a narrow area image area. 車両を後進させて駐車区画のスペースに駐車する第1のシーンを示す模式図である。It is a schematic diagram which shows the 1st scene which reversely drives a vehicle and parks in the space of a parking area. 図5に示す第1のシーンにおいて後進開始時の位置まで車両を前進させるときの様子を示す模式図である。It is a schematic diagram which shows a mode when a vehicle is advanced to the position at the time of a reverse start in the 1st scene shown in FIG. 車両を後進させて駐車区画のスペースに駐車する第2のシーンを示す模式図である。It is a schematic diagram which shows the 2nd scene which reverses a vehicle and parks in the space of a parking area. 図7に示す第2のシーンにおいて駐車区画の構成例を示す模式図である。It is a schematic diagram which shows the structural example of a parking area in the 2nd scene shown in FIG. 認識制御処理のフローチャートである。It is a flowchart of a recognition control process. 広域認識処理のフローチャートである。It is a flowchart of a wide area recognition process. 狭域認識処理のフローチャートである。It is a flowchart of a narrow area recognition process.

以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.第1実施形態]
[1−1.全体構成]
図1に示す駐車区画認識装置1は、前方カメラ2と、後方カメラ4と、認識制御ユニット10と、を備える。また、駐車区画認識装置1は、駐車支援ECU50を介して車内ローカルエリアネットワーク(以下、車内LAN8)に接続されている。なお、車内LAN8には、駐車支援ECU50、エンジンECU60、ステアリングECU70、ブレーキECU80及びHMI−ECU90等が接続されている。そして、各ECU50〜90には、それぞれに対応する不図示の各制御対象及び各センサが接続されている。以下、これらの構成要素を備える駐車支援システム100が搭載された車両を自車両という。
Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.
[1. First Embodiment]
[1-1. overall structure]
A parking section recognition device 1 shown in FIG. 1 includes a front camera 2, a rear camera 4, and a recognition control unit 10. Further, the parking section recognition device 1 is connected to an in-vehicle local area network (hereinafter referred to as an in-vehicle LAN 8) via a parking assistance ECU 50. The in-vehicle LAN 8 is connected with a parking assist ECU 50, an engine ECU 60, a steering ECU 70, a brake ECU 80, an HMI-ECU 90, and the like. And each control object and each sensor which are not illustrated corresponding to each ECU50-90 are connected, respectively. Hereinafter, a vehicle equipped with a parking assistance system 100 including these components is referred to as a host vehicle.

各ECU50〜90と、各ECU50〜90に対応する各制御対象及び各センサとは、駐車支援システム100以外にも、それぞれ不図示の各車載制御システムを構成するものである。なお、各車載制御システムは、自車両に予め搭載されている周知のネットワークシステムであり、各ECU50〜90によって、エンジン制御、ステアリング制御、ブレーキ制御及びヒューマンマシンインターフェース(以下、HMI)制御等を行うシステムである。   Each ECU 50 to 90 and each control object and each sensor corresponding to each ECU 50 to 90 constitute an in-vehicle control system (not shown) in addition to the parking support system 100. Each in-vehicle control system is a well-known network system that is pre-installed in the host vehicle, and performs engine control, steering control, brake control, human machine interface (hereinafter, HMI) control, and the like by each ECU 50-90. System.

各制御対象は、各ECU50〜90によって制御される構成物であり、例えば、エンジンを構成する点火機構や燃料系統、吸排気系統、動弁機構、始動機構、ステアリングを構成するポンプやモータ、ブレーキを構成するアクチュエータ、HMIを構成する表示装置や音響装置等がある。各センサは、各ECU50〜90の制御に必要な情報を検出するものであり、例えば、アクセルペダル踏込量や、ステアリング操舵量、ブレーキペダル踏込量、各種スイッチ操作状態、自車両の速度・加速度・操舵角・ヨーレート、シフトレバー位置等をそれぞれ検出するものがある。   Each control object is a component controlled by each of the ECUs 50 to 90. For example, an ignition mechanism, a fuel system, an intake / exhaust system, a valve mechanism, a start mechanism, a steering pump, a motor, and a brake are included in the engine. There are actuators that constitute the HMI, display devices and acoustic devices that constitute the HMI. Each sensor detects information necessary for control of each ECU 50 to 90. For example, the accelerator pedal depression amount, the steering steering amount, the brake pedal depression amount, various switch operation states, the speed / acceleration of the host vehicle, Some of them detect the steering angle, yaw rate, shift lever position, etc.

各ECU50〜90は、周知のマイクロコンピュータや車載ネットワーク用の通信コントローラを中心に構成され、各センサから取得した検出情報や、車内LAN8から受け取った車両情報を基に、予め割り当てられた制御対象の駆動ないしは出力を制御するものである。なお、車両情報は、車載制御システム全体の最適化を図るためにECU50〜90間で共有される情報であり、例えば、既述した各センサの検出情報や、ECU50〜90に制御対象の駆動ないしは出力を行わせるための指令情報等がある。   Each of the ECUs 50 to 90 is configured around a well-known microcomputer or a communication controller for an in-vehicle network, and based on detection information acquired from each sensor and vehicle information received from the in-vehicle LAN 8, a control object assigned in advance It controls the drive or output. The vehicle information is information shared between the ECUs 50 to 90 in order to optimize the entire in-vehicle control system. For example, the detection information of each sensor described above, the driving of the control target to the ECUs 50 to 90, or There is command information for output.

例えば、駐車支援システム100では、駐車支援ECU50から車内LAN8を介して受信した指令情報に応じて、指定された駐車区画の枠内に自車両が収まるように、エンジンECU60がエンジン制御によって自車両を後進させ、ステアリングECU70がステアリング制御によって自車両を操舵させ、ブレーキECU80がブレーキ制御によって自車両を減速させながら停止させることが可能である。なお、ここでのエンジン制御及びブレーキ制御のうち少なくとも1つの制御を運転者の操作に基づいて行うようにしてもよい。   For example, in the parking support system 100, the engine ECU 60 controls the host vehicle by engine control so that the host vehicle fits within the frame of the designated parking section according to the command information received from the parking support ECU 50 via the in-vehicle LAN 8. The vehicle can be moved backward, the steering ECU 70 can steer the host vehicle by steering control, and the brake ECU 80 can be stopped while decelerating the host vehicle by brake control. Note that at least one of the engine control and the brake control here may be performed based on the operation of the driver.

また例えば、駐車支援システム100では、駐車支援ECU50から車内LAN8を介して受信した指令情報に応じて、HMI−ECU90がHMI制御を行うことにより、1ないし複数の駐車区画から1つの駐車区画を運転者に指定させるための開始画像や、指定された駐車区画の枠内に自車両が収まるように、運転者にとってステアリング操作の参考となるガイド線を示す案内画像を表示する。なお、ここでのガイド線は、指定された駐車区画の枠を表示させる区画枠線、指定された駐車区画と自車両との距離の目安を表示させる距離目安線、自車両の車幅を表示させる車幅延長線、自車両の予想進路を表示させる予想進路線、あるいはこれらを適宜組み合わせた線のいずれでもよい。   In addition, for example, in the parking support system 100, one HMI-ECU 90 operates one parking section from one or a plurality of parking sections by performing HMI control according to the command information received from the parking support ECU 50 via the in-vehicle LAN 8. A start image for the driver to specify and a guide image indicating a guide line that is a reference for steering operation for the driver are displayed so that the host vehicle fits within the frame of the specified parking section. In addition, the guide line here displays the block frame line that displays the frame of the designated parking block, the distance guide line that displays the guideline of the distance between the specified parking block and the vehicle, and the vehicle width of the vehicle Any of a vehicle width extension line to be displayed, an expected course line for displaying the expected course of the host vehicle, or a line appropriately combining these may be used.

駐車支援ECU50は、認識制御ユニット10に接続されており、自車両のシフトレバーがリバース位置に切り替わったことを検出すると、認識制御ユニット10によって特定された1ないし複数の駐車区画に関する後述の特定区画情報を取得し、取得した特定区画情報に基づいて既述の開始画像を表示させるための指令情報を生成してHMI−ECU90に送信する。   The parking assist ECU 50 is connected to the recognition control unit 10 and detects that the shift lever of the host vehicle has been switched to the reverse position. Information is acquired, based on the acquired specific section information, command information for displaying the above-described start image is generated and transmitted to the HMI-ECU 90.

また、駐車支援ECU50は、開始画像を基に運転者が指定した駐車区画に関する操作情報を受信すると、受信した操作情報に基づいて既述の案内画像を表示させるための指令情報を生成してHMI−ECU90に送信する。さらに、不図示の超音波ソナー等により車両周囲の駐車車両等の位置を検出しながら、こうした障害物にぶつからないように駐車可能な自車両の進路を計算し、計算した進路に沿って自車両を後進させるための指令情報を生成してECU60〜80に送信することも可能である。   In addition, when the parking assistance ECU 50 receives operation information related to the parking area designated by the driver based on the start image, the parking assistance ECU 50 generates command information for displaying the above-described guidance image based on the received operation information, and generates an HMI. -It transmits to ECU90. Further, while detecting the position of a parked vehicle or the like around the vehicle using an ultrasonic sonar (not shown) or the like, the course of the own vehicle that can be parked so as not to hit such an obstacle is calculated, and the own vehicle along the calculated course is calculated. It is also possible to generate command information for reversing the engine and transmit it to the ECUs 60-80.

なお、車内LAN8は、自車両の内部に配備されているローカルエリアネットワークであり、例えば、周知のCANやFlexRay、LIN、MOST、AVC−LAN等の通信プロトコルを利用して各種の車両情報を伝送するものである。また、不図示の表示装置は、運転者が表示画像を視認しやすい位置に設置されており、液晶ディスプレイやヘッドアップディスプレイ、電子ミラー、あるいはこれらを適宜組み合わせたものである。また、不図示の音響装置は、例えば駐車支援の開始を示すアナウンスを出力したり、自車両が障害物にぶつかりそうな場合に警告音や警告メッセージを出力したりするために用いられる。   The in-vehicle LAN 8 is a local area network provided in the host vehicle. For example, various in-vehicle information is transmitted using a communication protocol such as a well-known CAN, FlexRay, LIN, MOST, or AVC-LAN. To do. A display device (not shown) is installed at a position where a driver can easily view a display image, and is a liquid crystal display, a head-up display, an electronic mirror, or a combination thereof as appropriate. An acoustic device (not shown) is used, for example, to output an announcement indicating the start of parking assistance, or to output a warning sound or a warning message when the vehicle is likely to hit an obstacle.

前方カメラ2及び後方カメラ4は、自車両に搭載されて自車両の周辺を撮影する車載カメラに相当するものであり、例えば、レンズが風雨等に晒されず、且つ、運転者の視界の妨げとならないように、車室内においてウインドシールドの上端部との接着により固定される。なお、この場合、前方カメラ2はフロントウインド、後方カメラ4はリアウインドに設けられることになる。   The front camera 2 and the rear camera 4 correspond to an in-vehicle camera that is mounted on the host vehicle and photographs the periphery of the host vehicle. For example, the lens is not exposed to wind and rain, and the driver's view is obstructed. In order to prevent this, it is fixed in the passenger compartment by bonding to the upper end of the windshield. In this case, the front camera 2 is provided on the front window, and the rear camera 4 is provided on the rear window.

また、前方カメラ2及び後方カメラ4は、例えばCMOSやCCD等の周知の撮像素子を有し、それぞれ自車両前方及び自車両後方へ向けてやや水平下向きに光軸を有し所定角範囲で広がる領域を撮影する。こうした撮影領域から入射した光は撮像素子により光電変換され、蓄積された電荷の電圧として読み出された信号が増幅され、A/D変換により所定の輝度階調のデジタル画像に変換される。以下では、前方カメラ2により生成されるデジタル画像を前方画像、後方カメラ4により生成されるデジタル画像を後方画像という。   Further, the front camera 2 and the rear camera 4 have known imaging elements such as CMOS and CCD, for example, have an optical axis slightly horizontally downward toward the front of the host vehicle and the rear of the host vehicle, and spread in a predetermined angular range. Shoot the area. Light incident from such an imaging region is photoelectrically converted by an image sensor, and a signal read out as a stored charge voltage is amplified and converted into a digital image having a predetermined luminance gradation by A / D conversion. Hereinafter, a digital image generated by the front camera 2 is referred to as a front image, and a digital image generated by the rear camera 4 is referred to as a rear image.

[1−2.認識制御ユニット10の構成]
認識制御ユニット10は、CPU5と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ6)と、を有する周知のマイクロコンピュータ及び車載ネットワーク用の通信コントローラを中心に構成され、メモリ6に格納されているプログラムに基づいてCPU5により各種処理が実行されるものである。つまり、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、認識制御ユニット10において、マイクロコンピュータの数は1つでも複数でもよく、1ないし複数のマイクロコンピュータの各設置場所は車両内部の何れでもよい。
[1-2. Configuration of recognition control unit 10]
The recognition control unit 10 is composed of a known microcomputer having a CPU 5 and a semiconductor memory (hereinafter referred to as a memory 6) such as a RAM, a ROM, and a flash memory, and a communication controller for an in-vehicle network, and is stored in the memory 6. Various processes are executed by the CPU 5 based on the programmed program. That is, by executing this program, a method corresponding to the program is executed. In the recognition control unit 10, the number of microcomputers may be one or plural, and each installation location of the one or more microcomputers may be any inside the vehicle.

認識制御ユニット10は、CPU5の各種処理の実行により実現される機能の構成として、図2に示すように、画像取得部12と、挙動情報取得部14と、駐車区画認識部16と、駐車区画出力部18と、を備える。なお、認識制御ユニット10が提供するこれらの機能の一部または全部を、一つあるいは複数の論理回路やIC等の電子回路によりハードウェア的に構成してもよい。つまり、認識制御ユニット10においては、ソフトウェアに限らず、ハードウェアあるいはそれらの組合せによっても上記機能を提供することができる。   As shown in FIG. 2, the recognition control unit 10 is configured as a function realized by executing various processes of the CPU 5. As shown in FIG. 2, the image acquisition unit 12, the behavior information acquisition unit 14, the parking section recognition unit 16, and the parking section And an output unit 18. Note that some or all of these functions provided by the recognition control unit 10 may be configured by hardware using one or a plurality of electronic circuits such as logic circuits and ICs. That is, the recognition control unit 10 can provide the above function not only by software but also by hardware or a combination thereof.

画像取得部12は、前方カメラ2及び後方カメラ4によりそれぞれ生成された前方画像及び後方画像を取得する。本実施形態では、自車両のシフトレバーがドライブ位置である等、自車両の前進時には前方画像及び後方画像の双方を取得し、自車両のシフトレバーがリバース位置である場合、すなわち自車両の後進時には後方画像を取得する。そして、こうして取得した撮影画像は、駐車区画認識部16に出力される。なお、自車両の前進時に前方画像を取得し、自車両の後進時に後方画像を取得するようにしてもよい。   The image acquisition unit 12 acquires a front image and a rear image generated by the front camera 2 and the rear camera 4, respectively. In the present embodiment, both the front image and the rear image are acquired when the host vehicle is moving forward, such as when the shift lever of the host vehicle is in the drive position, and when the shift lever of the host vehicle is in the reverse position, that is, the host vehicle is moving backward. Sometimes a back image is acquired. The captured image acquired in this way is output to the parking section recognition unit 16. Note that the front image may be acquired when the host vehicle is moving forward, and the rear image may be acquired when the host vehicle is moving backward.

挙動情報取得部12は、自車両の挙動を示す挙動情報を取得する。本実施形態での挙動情報は、自車両の速度・加速度・操舵角・ヨーレート等並びにシフトレバー位置の検出情報であり、例えば、車内LAN8から駐車支援ECU50を介して他のECU60〜80から受け取ることができる。そして、こうして取得した挙動情報は、駐車区画認識部16に出力される。なお、ここでの挙動とは、停止、加速、減速、等速等の基本的な動きに、ヨーイング等の付随的な動きを加えたものをいう。   The behavior information acquisition unit 12 acquires behavior information indicating the behavior of the host vehicle. The behavior information in the present embodiment is the detection information of the speed, acceleration, steering angle, yaw rate, etc. of the host vehicle and the shift lever position, and is received from the other ECUs 60 to 80 from the in-vehicle LAN 8 via the parking assist ECU 50, for example. Can do. The behavior information acquired in this way is output to the parking section recognition unit 16. The behavior here means a basic motion such as stop, acceleration, deceleration, constant speed, etc. plus an additional motion such as yawing.

駐車区画出力部18は、駐車区画認識部16によって特定された1ないし複数の駐車区画に関する情報を後述の特定区画情報として、車内LAN8を介して駐車支援ECU50に送信する。   The parking area output unit 18 transmits information on one or more parking areas specified by the parking area recognition unit 16 to the parking assist ECU 50 via the in-vehicle LAN 8 as specific area information described later.

[1−3.駐車区画認識部16の構成]
駐車区画認識部16は、図3に示すように、画像処理部20と、対象追跡部30と、領域設定部40と、を備える。
[1-3. Configuration of parking section recognition unit 16]
As shown in FIG. 3, the parking section recognition unit 16 includes an image processing unit 20, a target tracking unit 30, and an area setting unit 40.

画像処理部20は、画像取得部12により取得された撮影画像を処理することにより、撮影画像の中から駐車区画線の候補となる候補線を検出する。具体的には、画像処理部20は、例えば画像データの輝度に基づき、所定のしきい値以上の輝度を有する領域をフレームにおける所定の画像処理領域の底部から上方に向けて探索しエッジを検出する。白線は両端に高周波成分たるエッジを有するので、画像データの輝度値を水平方向に微分すると、白線の両端にピークが得られる。水平方向の輝度の勾配または差分が所定値以上の画素がエッジである。   The image processing unit 20 processes the captured image acquired by the image acquisition unit 12 to detect a candidate line that is a candidate for a parking lot line from the captured image. Specifically, the image processing unit 20 detects an edge by searching an area having a luminance equal to or higher than a predetermined threshold value from the bottom of the predetermined image processing area in the frame based on the luminance of the image data, for example. To do. Since the white line has edges that are high-frequency components at both ends, if the luminance value of the image data is differentiated in the horizontal direction, peaks are obtained at both ends of the white line. A pixel having a horizontal luminance gradient or difference of a predetermined value or more is an edge.

このエッジを撮影画像の上下方向に結ぶと白線部分を推定でき、推定した白線部分について、白線幅のしきい値、線状の形状である等の特徴からマッチング等の手法を適用して白線を決定する。この特徴は白線らしさを示す指標として定量的に評価され、メモリ6に記憶される。なお、画像データの輝度の重みを例えばRGB等の画素色毎に可変設定することで、黄色線や青色線等、他の色の候補線を白線の場合と同様の方法により決定することができる。   If this edge is connected in the vertical direction of the photographed image, the white line portion can be estimated, and the white line is estimated by applying a matching method to the estimated white line portion based on features such as the threshold of the white line width and the linear shape. decide. This feature is quantitatively evaluated as an index indicating the likelihood of white lines and stored in the memory 6. Note that, by variably setting the luminance weight of image data for each pixel color such as RGB, candidate lines of other colors such as a yellow line and a blue line can be determined by the same method as in the case of a white line. .

こうして決定された白線等の候補線が有する複数のエッジを抽出し例えばハフ変換や最小メジアン法(以下、LMedS)を用いることにより、候補線のモデル式が得られる。このモデル式は、自車両に対する候補線の位置を示すものであり、候補線の長さや幅、曲率等の情報も含まれる。こうして画像処理部20の検出処理により各候補線のモデル式で示される候補線情報が得られる。   A model expression of the candidate line is obtained by extracting a plurality of edges of the candidate line such as the white line determined in this way and using, for example, the Hough transform or the minimum median method (hereinafter, LMedS). This model formula indicates the position of the candidate line with respect to the host vehicle, and includes information such as the length, width, and curvature of the candidate line. In this way, candidate line information indicated by the model expression of each candidate line is obtained by the detection processing of the image processing unit 20.

また、画像処理部20は、候補線を検出する検出処理を行う際の既述の画像処理領域の大きさの違い、及び、駐車区画線の認識方法の違いから、広域認識部22と、狭域認識部24と、に大別される。具体的には、画像処理領域の大きさは、図4に示すように、広域認識部22が例えば撮影画像のフレームのうち路面が映し出される部分を含む領域として予め定められた広域画像領域を画像処理領域とするのに対し、狭域認識部24が撮影画像のフレームにおいて少なくとも広域画像領域よりも小さい狭域画像領域を画像処理領域とする点で異なる。一方、駐車区画線の認識方法は、広域認識部22が検出処理により検出された一対の候補線を含む複数の候補線を基に駐車区画線を認識するのに対し、狭域認識部24が検出処理により検出された少なくとも1つの候補線と、後述するように対象追跡部30による駐車区画線の追跡結果とを基に、駐車区画線を認識する点で異なる。   In addition, the image processing unit 20 is narrower than the wide area recognition unit 22 due to the difference in the size of the image processing area described above when performing the detection process for detecting the candidate line and the difference in the recognition method of the parking lot line. The area recognition unit 24 is roughly divided. Specifically, as shown in FIG. 4, the size of the image processing area is an image of a wide area image area that is determined in advance by the wide area recognition unit 22 as an area including a portion where a road surface is projected in a frame of a captured image, for example. The processing area is different from the processing area in that the narrow area recognition unit 24 sets a narrow area image area smaller than at least the wide area image area in the frame of the captured image as an image processing area. On the other hand, in the parking line recognition method, the wide area recognition unit 22 recognizes the parking line based on a plurality of candidate lines including a pair of candidate lines detected by the detection process, whereas the narrow area recognition unit 24 The difference is that the parking lot line is recognized based on at least one candidate line detected by the detection process and the tracking result of the parking lot line by the target tracking unit 30 as described later.

領域設定部40は、広域認識部22により検出された一対の候補線について駐車区画線であると推測される尤もらしさを表す尤度に応じて、広域認識部22により認識された駐車区画線の位置を基に狭域画像領域を設定することにより、画像処理部20における機能を広域認識部22から狭域認識部24に切り替える。なお、ここでの狭域画像領域は、例えば、図4に示すように、広域認識部22により認識された駐車区画線の長さ及び幅に対して上下左右方向に所定のマージンを加えることによって設定される。また、ここでの「広域認識部22により認識された駐車区画線の位置」には、撮影画像から認識された駐車区画線の位置の他、撮影画像から認識された駐車区画線の位置を基に対象追跡部30により追跡された駐車区画線の位置も含まれる。また、本実施形態において「駐車区画線の位置」とは、自車両の位置に対する相対位置をいう。また、ここでの「自車両の位置」とは、例えば自車両の後部中央位置等、自車両において予め定められた基準位置をいう。   The area setting unit 40 determines the likelihood of the parking lot line recognized by the wide area recognition unit 22 according to the likelihood that represents the likelihood that the pair of candidate lines detected by the wide area recognition unit 22 are estimated to be parking lot lines. By setting the narrow area image region based on the position, the function of the image processing unit 20 is switched from the wide area recognition unit 22 to the narrow area recognition unit 24. The narrow-area image area here is obtained by adding a predetermined margin in the vertical and horizontal directions to the length and width of the parking lot line recognized by the wide-area recognition unit 22, for example, as shown in FIG. Is set. Further, the “position of the parking lot line recognized by the wide area recognition unit 22” here is based on the position of the parking lot line recognized from the captured image in addition to the position of the parking lot line recognized from the captured image. The position of the parking lot tracked by the target tracking unit 30 is also included. Further, in the present embodiment, the “position of the parking lot line” refers to a relative position with respect to the position of the host vehicle. Further, the “position of the host vehicle” here refers to a reference position that is predetermined in the host vehicle, such as a rear center position of the host vehicle.

対象追跡部30は、広域認識部22により特定された駐車区画を構成する各駐車区画線をそれぞれ対象区画線とし、各対象区画線の位置を追跡する機能を有しており、自車両の進行方向の違いから、前進時追跡部32と、後進時追跡部34と、に大別される。具体的には、例えば図5に示すように、自車両を後進させて駐車区画のスペースに駐車する場合、後進開始時の自車両と駐車スペースとの間に別の車両が駐車しているシーンにおいては、自車両を駐車区画に相当近づけなければ一対の候補線を検出できないことがある。   The target tracking unit 30 has a function of tracking the position of each target lane line with each parking lane line constituting the parking lane identified by the wide area recognition unit 22 as a target lane line. From the difference in direction, the vehicle is roughly divided into a forward tracking unit 32 and a backward tracking unit 34. Specifically, for example, as shown in FIG. 5, when the host vehicle is moved backward and parked in the parking space, another vehicle is parked between the host vehicle and the parking space when starting reverse. In this case, the pair of candidate lines may not be detected unless the host vehicle is considerably close to the parking area.

こうしたシーン等に対処すべく、対象追跡部30では、例えば図6に示すように、自車両を後進させる前に、広域認識部22によって予め自車両の前進時に一対の候補線を検出することにより認識された駐車区画線を対象区画線とし、前進時追跡部32が少なくともこの広域認識部22による認識結果を基に、各対象区画線の位置を追跡するようにしている。一方で、自車両のシフトレバーがリバース位置に切り替わると、後進時追跡部34が少なくとも前進時追跡部32による追跡結果と、挙動情報取得部12により取得された挙動情報とを基に、各対象区画線の位置を追跡するようにもしている。   In order to deal with such scenes, the target tracking unit 30 detects a pair of candidate lines in advance when the host vehicle moves forward by the wide area recognition unit 22 before moving the host vehicle backward as shown in FIG. The recognized parking lane line is set as the target lane line, and the forward tracking unit 32 tracks the position of each target lane line based on at least the recognition result by the wide area recognition unit 22. On the other hand, when the shift lever of the host vehicle is switched to the reverse position, the backward tracking unit 34 is based on at least the tracking result by the forward tracking unit 32 and the behavior information acquired by the behavior information acquiring unit 12. It also tracks the location of the lane markings.

本実施形態では、前進時追跡部32は、自車両のシフトレバーがドライブ位置である場合、すなわち自車両の前進時に、広域認識部22により前方画像から特定された駐車区画を構成する各対象区画線の位置をメモリ6に記憶し、各対象区画線の位置が前方カメラ2の撮影領域から外れると、挙動情報取得部12により取得された挙動情報に基づくデッドレコニング結果を用いて、各対象区画線の位置を算出してメモリ6に記憶していく。さらに、各対象区画線の位置が後方カメラ4の撮影領域に入ると、広域認識部22により後方画像から認識された各対象区画線の位置をメモリ6に記憶し、各対象区画線の位置が後方カメラ4の撮影領域から外れると、再び挙動情報取得部12により取得された挙動情報に基づくデッドレコニング結果を用いて、各対象区画線の位置を算出してメモリ6に記憶していくようにしてもよい。こうして前進時追跡部32では、前方カメラ2や後方カメラ4等の車載カメラの撮影領域から外れた各対象区画線の位置も追跡されることになる。なお、ここでの「デッドレコニング」は、自車両の速度・加速度・操舵角・ヨーレート等を組み合せて使用し、各対象区画線に対する自車両の相対位置を推定する自己位置推定方法である。このため、デッドレコニング結果を用いることにより、自車両に対する各対象区画線の相対位置を推定することができる。   In the present embodiment, the forward tracking unit 32 is configured so that each target section constituting the parking section identified from the front image by the wide area recognition unit 22 when the shift lever of the own vehicle is at the drive position, that is, when the own vehicle is moving forward. The position of the line is stored in the memory 6, and when the position of each target partition line deviates from the imaging area of the front camera 2, each target partition is used using the dead reckoning result based on the behavior information acquired by the behavior information acquisition unit 12. The position of the line is calculated and stored in the memory 6. Further, when the position of each target lane line enters the imaging area of the rear camera 4, the position of each target lane line recognized from the rear image by the wide area recognition unit 22 is stored in the memory 6, and the position of each target lane line is determined. When the rear camera 4 is out of the shooting area, the dead reckoning result based on the behavior information acquired by the behavior information acquisition unit 12 is used again to calculate the position of each target lane line and store it in the memory 6. May be. Thus, the forward tracking unit 32 also tracks the position of each target lane marking that is out of the imaging region of the in-vehicle camera such as the front camera 2 or the rear camera 4. Here, “dead reckoning” is a self-position estimation method that uses a combination of the speed, acceleration, steering angle, yaw rate, and the like of the host vehicle to estimate the relative position of the host vehicle with respect to each target lane marking. For this reason, by using the dead reckoning result, it is possible to estimate the relative position of each target marking line with respect to the host vehicle.

一方、後進時追跡部34は、自車両のシフトレバーがリバース位置に切り替わると、前進時追跡部32による各対象区画線の位置の追跡結果を引き継いで、広域認識部22または狭域認識部24により撮影画像から認識された各対象区画線の位置を追跡する。具体的には、後進時追跡部34は、自車両のシフトレバーがリバース位置である場合、すなわち自車両の後進時に、各対象区画線の位置が後方カメラ4の撮影領域から外れている場合には、前進時追跡部32により追跡された各対象区画線の位置を起点とし、挙動情報取得部12により取得された挙動情報に基づくデッドレコニング結果を用いて、各対象区画線の位置を算出してメモリ6に記憶する。また、各対象区画線の位置が後方カメラ4の撮影領域に入っている場合には、広域認識部22または狭域認識部24により後方画像から特定された駐車区画を構成する各対象区画線の位置をメモリ6に記憶する。さらに、各対象区画線の位置が後方カメラ4の撮影領域から外れると、直前に後方画像から認識した対象区画線の位置を起点とし、既述のデッドレコニング結果を用いて各対象区画線の位置を算出してメモリ6に記憶する。こうして後進時追跡部34では、後方カメラ4の撮影領域から外れた各対象区画線の位置も追跡されることになる。   On the other hand, when the shift lever of the host vehicle is switched to the reverse position, the backward tracking unit 34 takes over the result of tracking the position of each target lane line by the forward tracking unit 32, and the wide area recognition unit 22 or the narrow area recognition unit 24. To track the position of each target marking line recognized from the captured image. Specifically, the backward tracking unit 34 is used when the shift lever of the host vehicle is in the reverse position, that is, when the position of each target lane line is out of the imaging area of the rear camera 4 when the host vehicle is moving backward. Calculates the position of each target lane line using the dead reckoning result based on the behavior information acquired by the behavior information acquisition unit 12 with the position of each target lane line tracked by the forward tracking unit 32 as a starting point. And stored in the memory 6. In addition, when the position of each target lane line is within the imaging area of the rear camera 4, each of the target lane lines constituting the parking area identified from the rear image by the wide area recognition unit 22 or the narrow area recognition unit 24 is displayed. The position is stored in the memory 6. Further, when the position of each target lane line deviates from the shooting area of the rear camera 4, the position of each target lane line is determined using the dead reckoning result described above, starting from the position of the target lane line recognized from the rear image immediately before. Is calculated and stored in the memory 6. In this way, the backward tracking unit 34 also tracks the position of each target lane line that is out of the imaging area of the rear camera 4.

このようにすることで、例えば後進時の自車両の位置に対して手前側に駐車している別の車両との衝突を避けるために自車両が大回りに後進することで、各対象区画線の位置が後方カメラ4の撮影領域から外れることがあっても、例えば自車両の位置に対して奥側の駐車区画線に相当する1本の候補線が少なくとも検出できれば、駐車区画線を構成する2本の駐車区画線を認識できるようになる。   In this way, for example, when the host vehicle moves backward in order to avoid a collision with another vehicle parked on the near side with respect to the position of the host vehicle when moving backward, Even if the position may deviate from the shooting area of the rear camera 4, for example, if at least one candidate line corresponding to the parking lot line on the back side with respect to the position of the host vehicle can be detected, the parking lot line 2 is formed. The parking lot line of the book can be recognized.

なお、車載カメラから見た死角に駐車区画が存在するシーンとしては、図5及び図6に示す既述のシーンに限らず、例えば図7に示すように、自車両を後進させて縦列駐車用の駐車区画のスペースに駐車する場合に、後進開始時の自車両が駐車区画に対してかなり近くに位置しているシーンも想定される。こうしたシーンにおいては、自車両を一旦駐車区画から遠ざけないと一対の候補線を検出できないことがある。これに対し、同様に、予め自車両の前進時に前方画像から一対の候補線を検出することにより1つの駐車区画を構成する例えば3本の駐車区画線を認識しておき、さらに自車両の挙動を基に3本の駐車区画線の位置を追跡しておくことにより、自車両の後進時に、例えば自車両の位置に対して奥側の駐車区画線に相当する1本の候補線が少なくとも検出できれば、駐車区画線を構成する残り2本(すなわち、計3本)の駐車区画線を認識することができる。ちなみに、図8に示すように、2本の駐車区画線によって構成される縦列駐車用の駐車区画のスペースについても同様に、奥側の駐車区画線に相当する1本の候補線が少なくとも検出できれば、駐車区画線を構成する計2本の駐車区画線を認識することができる。   The scene where the parking area is present in the blind spot as viewed from the in-vehicle camera is not limited to the above-described scenes shown in FIGS. 5 and 6. For example, as shown in FIG. When the vehicle is parked in the parking space, a scene in which the host vehicle at the start of reverse driving is located quite close to the parking space is also assumed. In such a scene, a pair of candidate lines may not be detected unless the vehicle is once moved away from the parking section. On the other hand, similarly, for example, three parking lot lines constituting one parking lot are recognized in advance by detecting a pair of candidate lines from the front image when the host vehicle moves forward, and further the behavior of the host vehicle. By tracking the positions of the three parking lot lines based on the vehicle, for example, at least one candidate line corresponding to the parking lot line on the back side with respect to the position of the own vehicle is detected when the host vehicle moves backward If possible, the remaining two (that is, a total of three) parking lot lines constituting the parking lot line can be recognized. By the way, as shown in FIG. 8, similarly for a parking space for parallel parking constituted by two parking lot lines, if at least one candidate line corresponding to the rear parking lot line can be detected, A total of two parking lot lines constituting the parking lot line can be recognized.

[1−4.処理]
[1−4−1.認識制御処理]
次に、認識制御ユニット10のCPU5が実行する処理(以下、認識制御処理)について、図9のフローチャートを用いて説明する。なお、本処理は、例えば車速が基準値以下になると起動し、車速が基準値を超えるか、あるいは自車両のシフトレバーがパーキング位置に切り替わると終了する。
[1-4. processing]
[1-4-1. Recognition control process]
Next, processing executed by the CPU 5 of the recognition control unit 10 (hereinafter, recognition control processing) will be described with reference to the flowchart of FIG. This process is started when the vehicle speed becomes equal to or lower than a reference value, for example, and ends when the vehicle speed exceeds the reference value or the shift lever of the host vehicle is switched to the parking position.

本処理が起動すると、まず、S110において、CPU5は、挙動情報取得部14により取得した挙動情報に基づき、自車両のシフトレバーがドライブ位置、すなわち自車両が前進中であるか否かを判断する。自車両が前進中であると判断した場合は、S120に移行し、自車両が前進中でないと判断した場合は、S140に移行する。   When this process is started, first, in S110, the CPU 5 determines, based on the behavior information acquired by the behavior information acquisition unit 14, whether the shift lever of the host vehicle is in the drive position, that is, whether the host vehicle is moving forward. . If it is determined that the host vehicle is moving forward, the process proceeds to S120. If it is determined that the host vehicle is not moving forward, the process proceeds to S140.

次に、S120において、CPU5は、領域設定部40が広域画像領域を設定することにより、画像処理部20における機能を広域認識部22として駐車区画線を認識する処理(以下、広域認識処理)を開始する。なお、ここでの広域認識処理では、前方画像において予め定められた広域画像領域から駐車区画線の候補となる候補線を検出する検出処理を行い、この検出処理により検出された一対の候補線を含む複数の候補線を基に駐車区画線を認識し、認識した各駐車区画線を含んで構成される駐車区画を特定する。   Next, in S120, the CPU 5 performs a process of recognizing a parking lot line (hereinafter, a wide area recognition process) with the function in the image processing unit 20 as the wide area recognition unit 22 by the area setting unit 40 setting the wide area image area. Start. In the wide area recognition process here, a detection process for detecting a candidate line that is a candidate for a parking lot line from a predetermined wide area image area in a front image is performed, and a pair of candidate lines detected by this detection process is detected. A parking lot line is recognized based on a plurality of candidate lines included, and a parking lot including each recognized parking lot line is specified.

また、S130において、CPU5は、S120の広域認識処理の開始に伴い、対象追跡部30における機能を前進時追跡部32として対象区画線の位置を追跡する処理(以下、前進時追跡処理)を開始する。なお、ここでの前進時追跡処理では、S120の広域認識処理により特定された駐車区画を構成する各駐車区画線をそれぞれ対象区画線とし、既述した方法で各対象区画線の位置を追跡する。   In S130, with the start of the wide area recognition process in S120, the CPU 5 starts processing for tracking the position of the target lane line using the function in the target tracking unit 30 as the forward tracking unit 32 (hereinafter referred to as forward tracking processing). To do. In the forward tracking process here, each parking lot line constituting the parking lot identified by the wide area recognition process in S120 is set as a target division line, and the position of each target division line is tracked by the method described above. .

次に、S140において、CPU5は、挙動情報取得部14により取得した挙動情報に基づき、自車両のシフトレバーがリバース位置、すなわち自車両が後進中であるか否かを判断する。自車両が後進中であると判断した場合は、S150に移行し、自車両が後進中でないと判断した場合は、S110に移行する。   Next, in S140, based on the behavior information acquired by the behavior information acquisition unit 14, the CPU 5 determines whether the shift lever of the host vehicle is in the reverse position, that is, whether the host vehicle is moving backward. If it is determined that the host vehicle is moving backward, the process proceeds to S150. If it is determined that the host vehicle is not moving backward, the process proceeds to S110.

そして、S150において、CPU5は、S140でシフトレバー位置がリバース位置に切り替わったことに伴い、前進時追跡処理を解除し、対象追跡部30における機能を後進時追跡部34として対象区画線の位置を追跡する処理(以下、後進時追跡処理)を開始する。なお、ここでの後進時追跡処理では、S130の前進時追跡処理による各対象区画線の位置の追跡結果が引き継がれる。   In S150, the CPU 5 cancels the forward tracking process in accordance with the shift lever position being switched to the reverse position in S140, and sets the position of the target lane line as the backward tracking unit 34 using the function in the target tracking unit 30. The tracking process (hereinafter referred to as backward tracking process) is started. In the backward tracking process here, the tracking result of the position of each target lane line by the forward tracking process of S130 is taken over.

続くS160において、CPU5は、S120又は後述のS170の広域認識処理により検出された一対の候補線について駐車区画線であると推測される尤もらしさを表す尤度が予め定められた閾値よりも高いか否かを判断する。尤度が閾値よりも高いと判断した場合は、S180に移行し、尤度が閾値以下であると判断した場合は、S170に移行して、広域認識処理を継続しながら、S160を続行する。なお、ここでの広域認識処理では、後方画像において予め定められた広域画像領域から駐車区画線の候補となる候補線を検出する検出処理を行い、この検出処理により検出された一対の候補線を含む複数の候補線を基に駐車区画線を認識し、認識した各駐車区画線を含んで構成される駐車区画を特定する。また、ここでの尤度は、後述するようにS120又S170の広域認識処理によって定量的に算出される。   In subsequent S160, CPU 5 has a likelihood that represents the likelihood that the pair of candidate lines detected by the wide area recognition process in S120 or S170, which will be described later, being a parking lot line is higher than a predetermined threshold value. Judge whether or not. If it is determined that the likelihood is higher than the threshold, the process proceeds to S180, and if it is determined that the likelihood is equal to or less than the threshold, the process proceeds to S170, and S160 is continued while continuing the wide area recognition process. In the wide area recognition process here, a detection process for detecting a candidate line that is a candidate for a parking lot line from a predetermined wide area image area in the rear image is performed, and a pair of candidate lines detected by this detection process is detected. A parking lot line is recognized based on a plurality of candidate lines included, and a parking lot including each recognized parking lot line is specified. The likelihood here is quantitatively calculated by the wide area recognition process of S120 or S170 as will be described later.

次に、S180において、CPU5は、S120又は後述のS170の広域認識処理を解除し、領域設定部40が狭域画像領域を設定することにより、画像処理部20における機能を狭域認識部24として駐車区画線を認識する処理(以下、狭域認識処理)を開始する。なお、ここでの狭域認識処理では、領域設定部40により後方画像において設定された狭域画像領域から駐車区画線の候補となる候補線を検出する検出処理を行い、この検出処理により検出された少なくとも1つの候補線と、後進時追跡処理による追跡結果とを基に各対象区画線を認識し、認識した各対象区画線を含んで構成される駐車区画を特定する。   Next, in S180, the CPU 5 cancels the wide area recognition process in S120 or S170 described later, and the area setting unit 40 sets the narrow area image area, whereby the function in the image processing unit 20 is set as the narrow area recognition unit 24. A process for recognizing a parking lot line (hereinafter, narrow area recognition process) is started. In the narrow area recognition process here, a detection process for detecting a candidate line that is a candidate for a parking lot line from the narrow area image area set in the rear image by the area setting unit 40 is performed, and is detected by this detection process. Further, each target lane line is recognized based on at least one candidate line and a tracking result obtained by the backward tracking process, and a parking area including each recognized target lane line is specified.

そして、S180において、CPU5は、S180の狭域認識処理により特定された駐車区画を構成する各駐車区画線の位置、長さ及び幅等を示す情報を、特定区画情報として駐車区画出力部18が出力することにより、車内LAN8を介して駐車支援ECU50に送信する。なお、ここでの特定区画情報は、S180の狭域認識処理により駐車区画が特定される毎に、その駐車区画の識別情報と共に送信される。   In S180, the CPU 5 uses the information indicating the position, length, width, and the like of each parking lot line constituting the parking lot specified by the narrow area recognition process in S180 as the specific zone information. By outputting, it transmits to parking assistance ECU50 via in-vehicle LAN8. The specific section information here is transmitted together with the identification information of the parking section every time the parking section is specified by the narrow area recognition processing of S180.

[1−4−2.広域認識処理]
次に、S120及びS170においてCPU5が実行する広域認識処理について、図10のフローチャートを用いて説明する。
[1-4-2. Wide area recognition processing]
Next, the wide area recognition process executed by the CPU 5 in S120 and S170 will be described with reference to the flowchart of FIG.

本処理が開始すると、まず、S210において、CPU5は、画像取得部12により取得された撮影画像における広域画像領域から既述の方法でエッジ検出及び白線抽出を行い、抽出した白線のモデル式を計算する。なお、ここでのモデル式の計算には、周知のハフ変換が用いられる。   When this processing starts, first, in S210, the CPU 5 performs edge detection and white line extraction from the wide-area image region in the captured image acquired by the image acquisition unit 12 by the method described above, and calculates the model formula of the extracted white line. To do. Note that the well-known Hough transform is used for the calculation of the model formula here.

続くS220において、CPU5は、S210により計算した各白線のモデル式で示される候補線情報に基づいて、白線ペアを抽出する。なお、ここでの白線ペアは一対の候補線に相当する。また、ここでの白線ペアの抽出では、例えば、各白線の幅や曲率等から互いに類似する一対の白線が選択される。   In subsequent S220, the CPU 5 extracts a white line pair based on the candidate line information indicated by the model formula of each white line calculated in S210. The white line pair here corresponds to a pair of candidate lines. Further, in the extraction of the white line pair here, for example, a pair of white lines that are similar to each other are selected based on the width and curvature of each white line.

次に、S230において、CPU5は、S220により抽出した白線ペアについて、各長さ、間隔及び平行度の少なくとも1つの指標を基に既述の尤度を算出する。なお、ここでの尤度は、各白線の長さが近い値であるほど大きく、また一方の白線と他方の白線との間隔が一般的な車両の車幅に所定マージンを加えた値に近い値であるほど大きく、また一方の白線と他方の白線とのなす角が0°に近い値であるほど大きく設定される。また、ここでの尤度の算出においては、各白線の白線らしさを示す指標値が大きい値であるほど尤度も大きい値となる。   Next, in S230, the CPU 5 calculates the above-described likelihood for the white line pair extracted in S220 based on at least one index of each length, interval, and parallelism. The likelihood here is larger as the length of each white line is closer, and the distance between one white line and the other white line is closer to a value obtained by adding a predetermined margin to the vehicle width of a general vehicle. The larger the value, the larger the angle formed by one white line and the other white line is closer to 0 °. Further, in the calculation of the likelihood here, the larger the index value indicating the white line-likeness of each white line, the larger the likelihood.

続くS240において、CPU5は、S230により算出した尤度に基づいて、駐車区画線を認識する。本実施形態では、S160の閾値を第1の閾値とし、この第1の閾値よりも小さい値として予め設定された第2の閾値と尤度を比較し、この尤度が第2の閾値よりも高い場合に、S220により抽出した白線ペアをそれぞれ駐車区画線として認識する。また、例えば、これらの一対の駐車区画線の短部を互いに結ぶ白線が存在する場合は、その白線も駐車区画線として認識する。   In subsequent S240, the CPU 5 recognizes the parking lot line based on the likelihood calculated in S230. In this embodiment, the threshold value of S160 is set as the first threshold value, the likelihood is compared with a second threshold value set in advance as a value smaller than the first threshold value, and the likelihood is higher than the second threshold value. When it is high, the white line pair extracted in S220 is recognized as a parking lot line. In addition, for example, when there is a white line connecting the short portions of the pair of parking lot lines, the white line is also recognized as a parking lot line.

そして、CPU5は、S250において、S240により認識した各駐車区画線によって駐車区画を特定し、S260において、この駐車区画を構成する各駐車区画線をそれぞれ対象区画線として設定し、S210に移行する。   In S250, the CPU 5 identifies the parking lot by each parking lot recognized in S240. In S260, the CPU 5 sets each parking lot constituting the parking lot as a target lot, and proceeds to S210.

[1−4−3.狭域認識処理]
次に、S180においてCPU5が実行する狭域認識処理について、図11のフローチャートを用いて説明する。
[1-4-3. Narrow area recognition processing]
Next, the narrow area recognition process executed by the CPU 5 in S180 will be described using the flowchart of FIG.

本処理が開始すると、まず、S310において、CPU5は、画像取得部12により取得された撮影画像における狭域画像領域から既述の方法でエッジ検出及び白線抽出を行い、抽出した白線のモデル式を計算する。なお、ここでのモデル式の計算には、S210のハフ変換よりも精細な計算方法としてLMedSが用いられる。   When this processing starts, first, in S310, the CPU 5 performs edge detection and white line extraction from the narrow area image region in the captured image acquired by the image acquisition unit 12 by the above-described method, and obtains the model formula of the extracted white line. calculate. Note that LMedS is used for calculation of the model formula here as a finer calculation method than the Hough transform of S210.

続くS320において、CPU5は、S310により計算した各白線のモデル式で示される候補線情報に基づいて、少なくとも1つの候補線を抽出する。そして、S330において、S220のように一対の候補線に相当する白線ペアを抽出できたか否かを判断し、白線ペアを抽出できた場合には、S340に移行して、S230〜S250と同様の方法(以下、通常処理)によって駐車区画を特定し、S310に移行する。一方、白線ペアを抽出できなかった場合には、S350に移行する。   In subsequent S320, the CPU 5 extracts at least one candidate line based on the candidate line information indicated by the model formula of each white line calculated in S310. In S330, it is determined whether or not a white line pair corresponding to a pair of candidate lines can be extracted as in S220. If a white line pair can be extracted, the process proceeds to S340 and the same as S230 to S250. A parking section is specified by a method (hereinafter, normal processing), and the process proceeds to S310. On the other hand, if the white line pair cannot be extracted, the process proceeds to S350.

次に、S350において、CPU5は、S150の後進時追跡処理によりメモリ6に直前に記憶された各対象区画線の位置と、S320により抽出した1つの候補線の位置とを比較することで、S320により抽出した1つの候補線と共に白線ペアとなる他方の候補線の位置を推定することにより、白線ペアを抽出する。またこの際、後進時追跡処理により追跡された各対象区画線の位置を、S320により抽出した1つの候補線の位置を用いて補正する。そして、こうして抽出した白線ペアを駐車区画線として認識する。   Next, in S350, the CPU 5 compares the position of each target lane line stored immediately before in the memory 6 by the backward tracking process in S150 and the position of one candidate line extracted in S320, so that S320 A white line pair is extracted by estimating the position of the other candidate line that forms a white line pair together with one candidate line extracted by the above. At this time, the position of each target lane line tracked by the backward tracking process is corrected using the position of one candidate line extracted in S320. And the white line pair extracted in this way is recognized as a parking lot line.

また、CPU5は、S360において、S250により認識した駐車区画線によって駐車区画を特定し、S370において、この駐車区画を構成する各駐車区画線をそれぞれ対象区画線として設定し、S310に移行する。   In S360, the CPU 5 specifies a parking lot by the parking lot recognized in S250, sets each parking lot constituting the parking lot as a target lot in S370, and proceeds to S310.

[1−5.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)自車両を後進させる前に、予め車両の前進時に撮影画像から一対の候補線を検出することにより駐車区画線を認識しておき、さらに自車両の挙動を基に駐車区画線の位置を追跡しているため、車両の後進時には一対の候補線を検出できなくても、その追跡結果を基に駐車区画線を認識することができる。
[1-5. effect]
According to the first embodiment described in detail above, the following effects can be obtained.
(1a) Before moving the host vehicle backward, the parking lot line is recognized in advance by detecting a pair of candidate lines from the photographed image when the vehicle moves forward, and the position of the parking lot line based on the behavior of the host vehicle. Therefore, even if the pair of candidate lines cannot be detected when the vehicle moves backward, the parking lot line can be recognized based on the tracking result.

(2a)車両の後進時には、後方画像から1つの候補線を検出し、検出した1つの候補線と、対象区画線の追跡結果とを基に駐車区画線を認識しているため、一対の候補線を検出するまでもなく駐車区画線を認識でき、なお且つ、後方画像から検出した1つの候補線により、対象区画線の追跡結果と実際の駐車区画線の位置とのずれを補正できる。   (2a) When the vehicle moves backward, a candidate line is detected from the rear image, and the parking lot line is recognized based on the detected candidate line and the tracking result of the target lot line, so a pair of candidates The parking lot line can be recognized without detecting the line, and the deviation between the tracking result of the target parcel line and the actual position of the parking lot line can be corrected by one candidate line detected from the rear image.

(3a)また車両の後進時には、既に一対の候補線によって駐車区画線の位置を検出できていれば、その駐車区画線の位置を基に画像処理領域を小さくするため、候補線の検出処理に精細な計算方法を用いても、その処理負担が画像処理領域の狭小化によって相殺され、ひいては画像処理の負担を緩和できる。   (3a) When the vehicle is moving backward, if the position of the parking lot line has already been detected by a pair of candidate lines, the image processing area is reduced based on the position of the parking lot line. Even if a fine calculation method is used, the processing load is offset by the narrowing of the image processing area, and the image processing load can be reduced.

(4a)したがって、上記(1a)〜(3a)により、駐車区画のスペースに駐車するために車両を後進させる際に、その後進開始時に車載カメラから見た死角に駐車区画が存在する場合であっても、駐車区画を特定しやすくし、なお且つ、駐車区画線の認識精度を向上させやすくすることができる。   (4a) Therefore, according to the above (1a) to (3a), when the vehicle is moved backward in order to park in the parking space, there is a parking space at the blind spot as seen from the in-vehicle camera at the start of the backward movement. However, it is possible to easily identify the parking lot and to improve the recognition accuracy of the parking lot line.

(5a)また、後進時追跡処理では、前進時追跡処理による各対象区画線の位置の追跡結果を引き継いで、後方画像を基に認識された各対象区画線の位置を追跡するため、駐車区画線を認識するまでの時間を短縮でき、その結果、駐車支援制御の開始タイミングを早めることが可能となり、運転者にとっての使い勝手を向上させることができる。   (5a) Further, in the backward tracking process, the tracking area is used to track the position of each target lane line recognized based on the rear image by taking over the result of tracking the position of each target lane line by the forward tracking process. The time until the line is recognized can be shortened. As a result, the start timing of the parking assistance control can be advanced, and the usability for the driver can be improved.

(6a)また、前進時追跡処理では、前方カメラ2と後方カメラ4の撮影画像を基に認識された各対象区画線の位置を追跡するため、前方画像と後方画像のいずれか一方から駐車区画線が認識されれば、その認識結果が反映されることになり、ひいては追跡精度を向上させることができる。   (6a) Further, in the forward tracking process, since the position of each target partition line recognized based on the captured images of the front camera 2 and the rear camera 4 is tracked, the parking section is determined from either the front image or the rear image. If the line is recognized, the recognition result is reflected, and as a result, the tracking accuracy can be improved.

(7a)また、後進時追跡処理では、広域認識処理または狭域認識処理により認識された各対象区画線の位置を追跡するため、仮に自車両の前進時に広域認識処理によって駐車区画線を認識できなかった場合であっても、自車両の後進時に広域認識処理によって駐車区画線が認識されれば、その認識結果を反映させることができる。   (7a) In the backward tracking process, the position of each target lane line recognized by the wide area recognition process or the narrow area recognition process is tracked, so that the parking lane line can be recognized by the wide area recognition process when the host vehicle moves forward. Even if it is not, if the parking lot line is recognized by the wide area recognition process when the host vehicle is moving backward, the recognition result can be reflected.

(8a)また、認識制御処理では、広域認識処理により検出された一対の候補線について駐車区画線であると推測される尤もらしさを表す尤度が第1の閾値よりも高い場合に、狭域画像領域を設定するため、狭域認識処理における駐車区画線の認識精度を向上させることができる。   (8a) In the recognition control process, when the likelihood representing the likelihood that the pair of candidate lines detected by the wide area recognition process is a parking lot line is higher than the first threshold, the narrow area Since the image area is set, the recognition accuracy of the parking lot line in the narrow area recognition process can be improved.

(9a)また、認識制御処理では、一対の候補線の各長さ、間隔及び平行度の少なくとも1つの基に尤度を算出するため、適切に駐車区画線の尤もらしさを求めることができる。   (9a) In the recognition control process, since the likelihood is calculated based on at least one of the length, the interval, and the parallelism of the pair of candidate lines, the likelihood of the parking lot line can be appropriately obtained.

[2.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other Embodiments]
As mentioned above, although the form for implementing this invention was demonstrated, this invention is not limited to the above-mentioned embodiment, It can implement in various deformation | transformation.

(2A)上記実施形態では、前進時追跡処理において、前方カメラ2と後方カメラ4の撮影画像を基に認識された各対象区画線の位置を追跡し、後進時追跡処理において、後方カメラ4の撮影画像を基に認識された各対象区画線の位置を追跡しているが、これに限定されるものではない。例えば、前進時追跡処理において、前方カメラ2の撮影画像を基に認識された各対象区画線の位置を追跡し、後進時追跡処理において、後方カメラ4の撮影画像を基に認識された各対象区画線の位置を追跡するようにしてもよい。こうすることで、処理負担を軽減することができる。   (2A) In the above embodiment, in the forward tracking process, the position of each target lane line recognized based on the captured images of the front camera 2 and the rear camera 4 is tracked, and in the backward tracking process, the rear camera 4 Although the position of each target division line recognized based on the captured image is tracked, the present invention is not limited to this. For example, in the forward tracking process, the position of each target lane line recognized based on the captured image of the front camera 2 is tracked, and in the backward tracking process, each target recognized based on the captured image of the rear camera 4 The position of the lane marking may be tracked. By doing so, the processing burden can be reduced.

(2B)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   (2B) The functions of one component in the above embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

(2C)上述した駐車区画認識装置1の他、当該駐車区画認識装置1を構成要素とする駐車支援システム100、当該駐車区画認識装置1としてコンピュータを機能させるための1ないし複数のプログラム、このプログラムの少なくとも一部を記録した1ないし複数の半導体メモリ等の非遷移的実体的記録媒体、駐車区画認識方法など、種々の形態で本発明を実現することもできる。   (2C) In addition to the parking area recognition device 1 described above, the parking assistance system 100 having the parking area recognition device 1 as a constituent element, one or more programs for causing the computer to function as the parking area recognition device 1, this program The present invention can also be realized in various forms such as a non-transitional tangible recording medium such as one or a plurality of semiconductor memories in which at least a part of the memory is recorded, and a parking section recognition method.

1…駐車区画認識装置、2…前方カメラ、4…後方カメラ、5…CPU、6…メモリ、8…車内LAN、10…認識制御ユニット、12…画像取得部、12…挙動情報取得部、14…挙動情報取得部、16…駐車区画認識部、18…駐車区画出力部、20…画像処理部、22…広域認識部、24…狭域認識部、30…対象追跡部、32…前進時追跡部、34…後進時追跡部、40…領域設定部、50…駐車支援ECU、60…エンジンECU、70…ステアリングECU、80…ブレーキECU、90…HMI−ECU、100…駐車支援システム。   DESCRIPTION OF SYMBOLS 1 ... Parking area recognition apparatus, 2 ... Front camera, 4 ... Back camera, 5 ... CPU, 6 ... Memory, 8 ... In-vehicle LAN, 10 ... Recognition control unit, 12 ... Image acquisition part, 12 ... Behavior information acquisition part, 14 ... behavior information acquisition unit, 16 ... parking zone recognition unit, 18 ... parking zone output unit, 20 ... image processing unit, 22 ... wide area recognition unit, 24 ... narrow zone recognition unit, 30 ... target tracking unit, 32 ... tracking when moving forward Reference numeral 34: Reverse tracking unit 40: Area setting unit 50: Parking assist ECU 60: Engine ECU 70: Steering ECU 80: Brake ECU 90: HMI-ECU 100: Parking assist system

Claims (6)

車両に搭載されて前記車両の周辺を撮影する車載カメラの撮影画像を取得する画像取得部と、
前記車両の挙動を示す挙動情報を取得する挙動情報取得部と、
前記画像取得部により取得された撮影画像において予め定められた広域画像領域から、駐車区画線の候補となる候補線を検出する検出処理を行い、該検出処理により検出された一対の候補線を含む複数の候補線を基に前記各駐車区画線を認識し、認識した前記各駐車区画線を含んで構成される駐車区画を前記車両の前進時に特定する広域認識部と、
前記車両の前進時に、前記広域認識部により特定された駐車区画を構成する前記各駐車区画線をそれぞれ対象区画線とし、少なくとも前記広域認識部による認識結果を基に、前記各対象区画線の位置を追跡する前進時追跡部と、
前記車両の後進時に、少なくとも前記前進時追跡部による追跡結果と、前記挙動情報取得部により取得された挙動情報とを基に、前記各対象区画線の位置を追跡する後進時追跡部と、
前記広域認識部により認識された前記各対象区画線の位置を基に、前記画像取得部により取得された撮影画像において少なくとも前記広域画像領域よりも小さい狭域画像領域を設定する領域設定部と、
前記領域設定部により設定された狭域画像領域から、前記検出処理を行い、該検出処理により検出された少なくとも1つの前記候補線と、前記後進時追跡部による追跡結果とを基に前記各対象区画線を認識し、認識した前記各対象区画線を含んで構成される前記駐車区画を前記車両の後進時に特定する狭域認識部と、
を備える駐車区画認識装置。
An image acquisition unit that acquires a captured image of an in-vehicle camera that is mounted on a vehicle and captures the periphery of the vehicle;
A behavior information acquisition unit for acquiring behavior information indicating the behavior of the vehicle;
A detection process for detecting a candidate line that is a candidate for a parking lot line is performed from a predetermined wide-area image area in the captured image acquired by the image acquisition unit, and the pair of candidate lines detected by the detection process is included. A wide area recognition unit that recognizes each parking lot line based on a plurality of candidate lines and identifies a parking lot that includes each recognized parking lot line when the vehicle moves forward;
When the vehicle moves forward, each parking lot line constituting the parking lot specified by the wide area recognition unit is set as a target division line, and at least the position of each target division line based on the recognition result by the wide area recognition unit A forward tracking unit to track,
A backward tracking unit that tracks the position of each target lane line based on at least the tracking result of the forward tracking unit and the behavior information acquired by the behavior information acquiring unit when the vehicle is moving backward;
Based on the position of each target lane line recognized by the wide area recognition unit, an area setting unit that sets a narrow area image area smaller than at least the wide area image area in the captured image acquired by the image acquisition unit;
The detection processing is performed from the narrow area image region set by the region setting unit, and each of the targets is based on at least one of the candidate lines detected by the detection processing and a tracking result by the backward tracking unit. A narrow area recognizing unit that recognizes a lane marking and identifies the parking lane that includes each of the recognized lane markings when the vehicle is moving backward;
A parking area recognition device.
請求項1に記載の駐車区画認識装置であって、
前記後進時追跡部は、前記前進時追跡部による前記各対象区画線の位置の追跡結果を引き継いで、前記車載カメラの撮影画像を基に前記広域認識部または前記狭域認識部により認識された前記各対象区画線の位置を追跡する、
ことを特徴とする駐車区画認識装置。
The parking area recognition device according to claim 1,
The backward tracking unit takes over the tracking result of the position of each target lane line by the forward tracking unit, and is recognized by the wide area recognition unit or the narrow area recognition unit based on the captured image of the in-vehicle camera. Tracking the location of each of the target lane markings;
A parking area recognition apparatus characterized by the above.
請求項1又は請求項2に記載の駐車区画認識装置であって、
前記画像取得部は、前記車載カメラとして、前記車両の前方を撮影する前方カメラと、前記車両の後方を撮影する後方カメラと、の撮影画像をそれぞれ取得可能であり、
前記前進時追跡部は、前記前方カメラ又は前記後方カメラの撮影画像を基に前記広域認識部により認識された前記各対象区画線の位置を追跡し、
前記後進時追跡部は、前記後方カメラの撮影画像を基に前記広域認識部又は前記狭域認識部により認識された前記各対象区画線の位置を追跡する、
ことを特徴とする駐車区画認識装置。
The parking area recognition device according to claim 1 or 2,
The image acquisition unit can acquire captured images of a front camera that captures the front of the vehicle and a rear camera that captures the rear of the vehicle, respectively, as the in-vehicle camera.
The forward tracking unit tracks the position of each target lane line recognized by the wide area recognition unit based on a captured image of the front camera or the rear camera,
The backward tracking unit tracks the position of each target lane line recognized by the wide area recognition unit or the narrow area recognition unit based on a captured image of the rear camera.
A parking area recognition apparatus characterized by the above.
請求項1から請求項3までの何れか1項に記載の駐車区画認識装置であって、
前記領域設定部は、前記広域認識部により検出された一対の候補線について前記駐車区画線であると推測される尤もらしさを表す尤度が予め定められた閾値よりも高い場合に、前記狭域画像領域を設定する、
ことを特徴とする駐車区画認識装置。
The parking area recognition device according to any one of claims 1 to 3,
The region setting unit, when the likelihood representing the likelihood that the pair of candidate lines detected by the wide area recognition unit is the parking lot line is higher than a predetermined threshold, Set the image area,
A parking area recognition apparatus characterized by the above.
請求項4に記載の駐車区画認識装置であって、
前記領域設定部は、前記一対の候補線の各長さ、間隔及び平行度の少なくとも1つを基に前記尤度を算出する、
ことを特徴とする駐車区画認識装置。
The parking area recognition device according to claim 4,
The region setting unit calculates the likelihood based on at least one of the length, interval, and parallelism of the pair of candidate lines.
A parking area recognition apparatus characterized by the above.
車両に搭載されて前記車両の周辺を撮影する車載カメラの撮影画像を取得する画像取得工程と、
前記車両の挙動を示す挙動情報を取得する挙動情報取得工程と、
前記画像取得工程により取得された撮影画像において予め定められた広域画像領域から、駐車区画線の候補となる候補線を検出する検出処理を行い、該検出処理により検出された一対の候補線を含む複数の候補線を基に前記各駐車区画線を認識し、認識した前記各駐車区画線を含んで構成される駐車区画を前記車両の前進時に特定する広域認識工程と、
前記車両の前進時に、前記広域認識部により特定された駐車区画を構成する前記各駐車区画線をそれぞれ対象区画線とし、少なくとも前記広域認識部による認識結果を基に、前記各対象区画線の位置を追跡する前進時追跡工程と、
前記車両の後進時に、少なくとも前記前進時追跡工程による追跡結果と、前記挙動情報取得工程により取得された挙動情報とを基に、前記各対象区画線の位置を追跡する後進時追跡工程と、
前記広域認識工程により認識された前記各対象区画線の位置を基に、前記画像取得工程により取得された撮影画像において少なくとも前記広域画像領域よりも小さい狭域画像領域を設定する領域設定工程と、
前記領域設定工程により設定された狭域画像領域から、前記検出処理を行い、該検出処理により検出された少なくとも1つの前記候補線と、前記後進時追跡工程による追跡結果とを基に前記各対象区画線を認識し、認識した前記各対象区画線を含んで構成される前記駐車区画を前記車両の後進時に特定する狭域認識工程と、
を備える駐車区画認識装置。
An image acquisition step of acquiring a photographed image of an in-vehicle camera mounted on a vehicle and photographing the periphery of the vehicle;
A behavior information acquisition step of acquiring behavior information indicating the behavior of the vehicle;
A detection process for detecting a candidate line that is a candidate for a parking lot line from a predetermined wide-area image area in the captured image acquired by the image acquisition process is performed, and the pair of candidate lines detected by the detection process A wide area recognition step of recognizing each parking lot line based on a plurality of candidate lines and specifying a parking lot including the recognized parking lot lines when the vehicle moves forward,
When the vehicle moves forward, each parking lot line constituting the parking lot specified by the wide area recognition unit is set as a target division line, and at least the position of each target division line based on the recognition result by the wide area recognition unit Tracking process during advance tracking,
A backward tracking step of tracking the position of each target lane line based on at least the tracking result of the forward tracking step and the behavior information acquired by the behavior information acquisition step when the vehicle is moving backward;
Based on the position of each target lane line recognized by the wide area recognition step, an area setting step for setting a narrow area image region smaller than at least the wide area image area in the captured image acquired by the image acquisition step;
The target processing is performed from the narrow area image region set by the region setting step, and each of the objects is based on at least one candidate line detected by the detection processing and a tracking result by the backward tracking step. A narrow area recognition step of recognizing a lane line and identifying the parking lane that includes the recognized lane markings when the vehicle is moving backward;
A parking area recognition device.
JP2015203725A 2015-10-15 2015-10-15 Parking lot recognition device, parking lot recognition method Active JP6649738B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015203725A JP6649738B2 (en) 2015-10-15 2015-10-15 Parking lot recognition device, parking lot recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015203725A JP6649738B2 (en) 2015-10-15 2015-10-15 Parking lot recognition device, parking lot recognition method

Publications (2)

Publication Number Publication Date
JP2017076275A true JP2017076275A (en) 2017-04-20
JP6649738B2 JP6649738B2 (en) 2020-02-19

Family

ID=58550324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015203725A Active JP6649738B2 (en) 2015-10-15 2015-10-15 Parking lot recognition device, parking lot recognition method

Country Status (1)

Country Link
JP (1) JP6649738B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095619A (en) * 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
US10796172B2 (en) 2018-12-14 2020-10-06 Denso Ten Limited Image processing device and image processing method
JP2020175828A (en) * 2019-04-19 2020-10-29 公立大学法人岩手県立大学 Guidance device
US10896336B2 (en) 2018-06-25 2021-01-19 Denso Ten Limited Parking compartment recognition apparatus
US10949686B2 (en) 2018-12-14 2021-03-16 Denso Ten Limited Image processing device and image processing method
JP2021064868A (en) * 2019-10-11 2021-04-22 アイシン精機株式会社 Parking support device
US11100342B2 (en) 2018-12-14 2021-08-24 Denso Ten Limited Image processing device and image processing method
US11138450B2 (en) 2018-12-14 2021-10-05 Denso Ten Limited Image processing device and image processing method
US11145041B2 (en) 2018-12-14 2021-10-12 Denso Ten Limited Image processing device and method predicting areas in which to search for parking space delimiting lines
US11157757B2 (en) 2018-12-14 2021-10-26 Denso Ten Limited Image processing device and image processing method
US11182627B2 (en) 2018-12-14 2021-11-23 Denso Ten Limited Image processing device and image processing method
US11195032B2 (en) 2018-12-14 2021-12-07 Denso Ten Limited Image processing device and image processing method detecting vehicle parking space
US11250290B2 (en) 2018-12-14 2022-02-15 Denso Ten Limited Image processing device and image processing method
US11256933B2 (en) 2018-12-14 2022-02-22 Denso Ten Limited Image processing device and image processing method
US11373416B2 (en) 2018-12-14 2022-06-28 Denso Ten Limited Image processing device and image processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048295A (en) * 2002-07-10 2004-02-12 Toyota Motor Corp Image processor, parking assist apparatus, and image processing method
JP2011188275A (en) * 2010-03-09 2011-09-22 Aisin Seiki Co Ltd Vehicle periphery monitoring device
JP2013186663A (en) * 2012-03-07 2013-09-19 Toyota Motor Corp Crosswalk recognition device and crosswalk recognition method
JP2013193545A (en) * 2012-03-19 2013-09-30 Nippon Soken Inc Parking support device
JP2015064795A (en) * 2013-09-25 2015-04-09 日産自動車株式会社 Determination device and determination method for parking place
JP2015104982A (en) * 2013-11-29 2015-06-08 日産自動車株式会社 Vehicular acceleration suppression apparatus and vehicular acceleration suppression method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048295A (en) * 2002-07-10 2004-02-12 Toyota Motor Corp Image processor, parking assist apparatus, and image processing method
JP2011188275A (en) * 2010-03-09 2011-09-22 Aisin Seiki Co Ltd Vehicle periphery monitoring device
JP2013186663A (en) * 2012-03-07 2013-09-19 Toyota Motor Corp Crosswalk recognition device and crosswalk recognition method
JP2013193545A (en) * 2012-03-19 2013-09-30 Nippon Soken Inc Parking support device
JP2015064795A (en) * 2013-09-25 2015-04-09 日産自動車株式会社 Determination device and determination method for parking place
JP2015104982A (en) * 2013-11-29 2015-06-08 日産自動車株式会社 Vehicular acceleration suppression apparatus and vehicular acceleration suppression method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10896336B2 (en) 2018-06-25 2021-01-19 Denso Ten Limited Parking compartment recognition apparatus
US11145041B2 (en) 2018-12-14 2021-10-12 Denso Ten Limited Image processing device and method predicting areas in which to search for parking space delimiting lines
US11256933B2 (en) 2018-12-14 2022-02-22 Denso Ten Limited Image processing device and image processing method
US11157757B2 (en) 2018-12-14 2021-10-26 Denso Ten Limited Image processing device and image processing method
US10949686B2 (en) 2018-12-14 2021-03-16 Denso Ten Limited Image processing device and image processing method
US11170235B2 (en) 2018-12-14 2021-11-09 Denso Ten Limited Image processing device and image processing method
US11100342B2 (en) 2018-12-14 2021-08-24 Denso Ten Limited Image processing device and image processing method
US11138450B2 (en) 2018-12-14 2021-10-05 Denso Ten Limited Image processing device and image processing method
US11182627B2 (en) 2018-12-14 2021-11-23 Denso Ten Limited Image processing device and image processing method
US10796172B2 (en) 2018-12-14 2020-10-06 Denso Ten Limited Image processing device and image processing method
JP7141940B2 (en) 2018-12-14 2022-09-26 株式会社デンソーテン Image processing device and image processing method
JP2020095619A (en) * 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
US11195032B2 (en) 2018-12-14 2021-12-07 Denso Ten Limited Image processing device and image processing method detecting vehicle parking space
US11250290B2 (en) 2018-12-14 2022-02-15 Denso Ten Limited Image processing device and image processing method
US11373416B2 (en) 2018-12-14 2022-06-28 Denso Ten Limited Image processing device and image processing method
JP2020175828A (en) * 2019-04-19 2020-10-29 公立大学法人岩手県立大学 Guidance device
JP2021064868A (en) * 2019-10-11 2021-04-22 アイシン精機株式会社 Parking support device
JP7383973B2 (en) 2019-10-11 2023-11-21 株式会社アイシン parking assist device

Also Published As

Publication number Publication date
JP6649738B2 (en) 2020-02-19

Similar Documents

Publication Publication Date Title
JP6649738B2 (en) Parking lot recognition device, parking lot recognition method
JP4530060B2 (en) Parking support apparatus and method
JP6564346B2 (en) Parking assistance device and parking assistance method
JP6393189B2 (en) In-vehicle image processing device
JP6406159B2 (en) In-vehicle display control device, in-vehicle display control method
US11046307B2 (en) Parking control method and parking control device
CN103786644B (en) Apparatus and method for following the trail of peripheral vehicle location
JP2016016820A (en) Drive assist system
WO2011048718A1 (en) Sign recognition device and sign recognition method
JP7296768B2 (en) Image processing device and image processing method
US20170136962A1 (en) In-vehicle camera control device
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP2020052647A (en) Object detection device, object detection method, computer program for object detection, and vehicle control system
JP6185367B2 (en) Driving assistance device
JP5541099B2 (en) Road marking line recognition device
JP2018074411A (en) Object detection device and object detection method
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
JP7117922B2 (en) Perimeter recognition device and in-vehicle camera system
JP7151511B2 (en) Vehicle peripheral monitoring device
JP2006036048A (en) Vehicle light controlling device
CN113661700A (en) Image forming apparatus and image forming method
WO2018088263A1 (en) Parking frame recognition device
WO2018088262A1 (en) Parking frame recognition device
JP7322651B2 (en) Obstacle recognition device
JP2013168737A (en) Exposure control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200117

R150 Certificate of patent or registration of utility model

Ref document number: 6649738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250