JP7245640B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7245640B2
JP7245640B2 JP2018234806A JP2018234806A JP7245640B2 JP 7245640 B2 JP7245640 B2 JP 7245640B2 JP 2018234806 A JP2018234806 A JP 2018234806A JP 2018234806 A JP2018234806 A JP 2018234806A JP 7245640 B2 JP7245640 B2 JP 7245640B2
Authority
JP
Japan
Prior art keywords
parking frame
vehicle
image processing
parking
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018234806A
Other languages
Japanese (ja)
Other versions
JP2020095629A (en
Inventor
康貴 岡田
純 金武
裕明 佐野
亮 吉村
篤 吉原
徹夫 山本
知騎 倭文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018234806A priority Critical patent/JP7245640B2/en
Publication of JP2020095629A publication Critical patent/JP2020095629A/en
Application granted granted Critical
Publication of JP7245640B2 publication Critical patent/JP7245640B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

開示の実施形態は、画像処理装置および画像処理方法に関する。 The disclosed embodiments relate to an image processing apparatus and an image processing method.

近年、自動運転技術の発展に伴い、車両の周囲を撮像した画像から車両を駐車させる駐車枠を検出する画像処理装置が普及しつつある。この種の画像処理装置では、画像から駐車枠を区画する区画線を検出し、検出した区画線に基づいて駐車枠を検出する(例えば、特許文献1参照)。 2. Description of the Related Art In recent years, with the development of automatic driving technology, an image processing device that detects a parking frame for parking a vehicle from an image captured around the vehicle is becoming popular. In this type of image processing device, a marking line that defines a parking frame is detected from an image, and the parking frame is detected based on the detected marking line (see Patent Document 1, for example).

かかる画像処理装置は、自動運転によって車両を駐車させる場合、駐車枠内に駐車車両が存在するか否かを判定する必要がある。 When the vehicle is parked by automatic driving, such an image processing device needs to determine whether the parked vehicle exists within the parking frame.

特開2017-87758号公報JP 2017-87758 A

しかしながら、従来技術では、駐車枠内の駐車車両の有無を判定するために、例えば、単眼カメラとソナーやステレオカメラ等の他のセンサとを併用する必要があり、単眼カメラによって撮像される画像だけでは駐車枠内の駐車車両の有無を判定することが困難である。 However, in the prior art, in order to determine whether or not there is a parked vehicle in the parking frame, for example, it is necessary to use a monocular camera together with other sensors such as a sonar or a stereo camera. Therefore, it is difficult to determine whether or not there is a parked vehicle in the parking frame.

実施形態の一態様は、上記に鑑みてなされたものであって、単眼カメラによって撮像された画像から駐車枠内の駐車車両の有無を判定することができる画像処理装置および画像処理方法を提供することを目的とする。 One aspect of the embodiments has been made in view of the above, and provides an image processing device and an image processing method that can determine the presence or absence of a parked vehicle in a parking frame from an image captured by a monocular camera. for the purpose.

実施形態の一態様に係る画像処理装置は、検出部と、判定部とを備える。検出部は、画像から駐車枠を区画する区画線を検出する。判定部は、移動しながら連続して撮像された複数の前記画像から前記検出部によって順次検出される一対の前記区画線の長さの変化に基づいて、前記一対の区画線によって区画された前記駐車枠内に駐車車両が存在するか否かを判定する。 An image processing apparatus according to an aspect of an embodiment includes a detection unit and a determination unit. The detection unit detects a partition line that partitions the parking frame from the image. The judging unit determines, based on a change in the length of the pair of demarcation lines sequentially detected by the detection unit from a plurality of the images captured continuously while moving, the image demarcated by the pair of demarcation lines. It is determined whether or not there is a parked vehicle within the parking frame.

実施形態の一態様に係る画像処理装置および画像処理方法は、単眼カメラによって撮像された画像から駐車枠内の駐車車両の有無を判定することができる。 An image processing device and an image processing method according to an aspect of an embodiment can determine the presence or absence of a parked vehicle in a parking frame from an image captured by a monocular camera.

図1Aは、画像処理装置の搭載例を示す図である。FIG. 1A is a diagram showing an example of mounting an image processing device. 図1Bは、画像処理方法の概要を示す図である。FIG. 1B is a diagram showing an overview of the image processing method. 図2は、画像処理装置のブロック図である。FIG. 2 is a block diagram of the image processing device. 図3は、駐車枠検出部のブロック図である。FIG. 3 is a block diagram of a parking frame detection unit. 図4Aは、駐車車両の有無の判定手順を示す説明図である。FIG. 4A is an explanatory diagram showing a procedure for determining the presence or absence of a parked vehicle. 図4Bは、駐車車両の有無の判定手順を示す説明図である。FIG. 4B is an explanatory diagram showing a procedure for determining the presence or absence of a parked vehicle. 図4Cは、駐車車両の有無の判定手順を示す説明図である。FIG. 4C is an explanatory diagram showing a procedure for determining the presence or absence of a parked vehicle. 図5は、区画線検出部が実行する処理の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of processing executed by a marking line detection unit.

以下、添付図面を参照して、実施形態に係る画像処理装置および画像処理方法について詳細に説明する。なお、本実施形態によりこの発明が限定されるものではない。 An image processing apparatus and an image processing method according to embodiments will be described in detail below with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment.

まず、図1Aおよび図1Bを用いて実施形態に係る画像処理装置の概要について説明する。図1Aは、画像処理装置の搭載例を示す図である。また、図1Bは、画像処理方法の概要を示す図である。なお、かかる画像処理方法は、図1Aに示す画像処理装置1によって実行される。 First, an outline of an image processing apparatus according to an embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a diagram showing an example of mounting an image processing device. FIG. 1B is a diagram showing an overview of the image processing method. This image processing method is executed by the image processing apparatus 1 shown in FIG. 1A.

図1Aに示すように、実施形態に係る画像処理装置1は、車載カメラ10が搭載された自車両(以下、車両Cと記載する)に搭載され、車載カメラ10によって撮像された撮像画像(以下、単に画像と記載する)から駐車枠PSを検出する。 As shown in FIG. 1A, the image processing apparatus 1 according to the embodiment is mounted on a vehicle (hereinafter referred to as vehicle C) equipped with an on-vehicle camera 10, and an image captured by the on-vehicle camera 10 (hereinafter , simply referred to as an image) to detect the parking frame PS.

車載カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、車両Cの周囲を撮像する単眼式の撮像装置である。また、車載カメラ10のレンズには、例えば、魚眼レンズなどの広角レンズが採用される。これにより、車載カメラ10は、図1Aに示すような広角の撮像領域R内に存在する駐車枠PSを撮像することができる。 The in-vehicle camera 10 is a monocular imaging device that has an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) and captures an image of the surroundings of the vehicle C, for example. A wide-angle lens such as a fisheye lens is adopted as the lens of the vehicle-mounted camera 10, for example. Thereby, the in-vehicle camera 10 can image the parking frame PS existing in the wide-angle imaging area R as shown in FIG. 1A.

なお、図1Aに示す例では、車載カメラ10が、車両Cの左側方を撮像する左サイドカメラである場合について示したが、車載カメラ10には、車両Cの前方を撮像する前方カメラ、車両Cの後方を撮像するバックカメラ、車両Cの右側方を撮像する右サイドカメラが含まれる。 In the example shown in FIG. 1A, the vehicle-mounted camera 10 is a left-side camera that captures the left side of the vehicle C, but the vehicle-mounted camera 10 includes a front camera that captures the front of the vehicle C, A back camera that captures an image behind the vehicle C and a right side camera that captures an image of the right side of the vehicle C are included.

画像処理装置1は、駐車枠PSの検出を行う場合、まず、画像から各駐車枠PSを区画する区画線の候補となる区画線候補を検出し、検出した区画線候補に基づいて各駐車枠PSを検出する。このとき、例えば、区画線候補が離散して検出される場合や、不連続的に検出される場合、駐車枠PSを検出できないおそれがある。 When detecting the parking frame PS, the image processing device 1 first detects, from the image, a lane line candidate that is a candidate for the lane line that divides each parking stall PS, and based on the detected lane line candidate, each parking stall. Detect PS. At this time, for example, when the marking line candidates are detected discretely or discontinuously, the parking frame PS may not be detected.

そこで、実施形態に係る画像処理装置1は、検出した区画線候補を所定の統合条件に基づいて統合する。これにより、実施形態に係る画像処理装置1では、駐車枠の検出精度を向上させることが可能となる。 Therefore, the image processing apparatus 1 according to the embodiment integrates the detected marking line candidates based on a predetermined integration condition. As a result, the image processing device 1 according to the embodiment can improve the detection accuracy of the parking frame.

具体的には、図1Bに示すように、画像処理装置1は、まず、画像Iから区画線候補Lcを検出する(ステップS1)。例えば、画像処理装置1は、画像Iに対してエッジ処理を行うことで得られるエッジ点を繋いだエッジ線に基づいて区画線候補Lcを検出する。 Specifically, as shown in FIG. 1B, the image processing apparatus 1 first detects marking line candidates Lc from the image I (step S1). For example, the image processing device 1 detects the marking line candidates Lc based on edge lines connecting edge points obtained by performing edge processing on the image I. FIG.

そして、画像処理装置1は、画像Iにおいて、区画線と路面との境界に対応するエッジ線を区画線候補Lcとして検出する。すなわち、区画線候補Lcは、区画線の幅方向の左右両端に対応するエッジ線のペアである。 Then, the image processing device 1 detects an edge line corresponding to the boundary between the marking line and the road surface in the image I as a marking line candidate Lc. That is, the marking line candidate Lc is a pair of edge lines corresponding to the left and right ends of the marking line in the width direction.

続いて、画像処理装置1は、ステップS1において検出した区画線候補Lcを所定の統合条件に基づいて統合し、区画線Li1,Li2を検出する(ステップS2)。これにより、画像処理装置1では、一対の区画線Li1,Li2によって挟まれた領域を駐車枠PSとして検出することができる。 Subsequently, the image processing apparatus 1 integrates the lane marking candidates Lc detected in step S1 based on a predetermined integration condition, and detects lane markings Li1 and Li2 (step S2). As a result, the image processing device 1 can detect the area sandwiched between the pair of marking lines Li1 and Li2 as the parking frame PS.

こうして検出された駐車枠PSに車両Cを自動運転によって駐車させる場合、画像処理装置1は、駐車枠PS内に駐車車両が存在するか否かを判定して、自動運転制御を行う後述の上位ECU(Electronic Control Unit)へ通知する必要がある。 When the vehicle C is parked in the parking frame PS thus detected by automatic operation, the image processing device 1 determines whether or not there is a parked vehicle in the parking frame PS, and performs automatic operation control. It is necessary to notify the ECU (Electronic Control Unit).

このとき、一般的な画像処理装置は、例えば、単眼カメラとソナーやステレオカメラ等の他のセンサとを併用しなければ、駐車枠PS内に駐車車両が存在しているか否かを判定することが困難であった。つまり、一般的な画像処理装置は、単眼カメラによって撮像される画像だけでは駐車枠PS内の駐車車両の有無を判定することが困難であった。 At this time, a general image processing device cannot determine whether or not a parked vehicle exists within the parking frame PS unless, for example, a monocular camera and other sensors such as a sonar or a stereo camera are used together. was difficult. In other words, it is difficult for a general image processing device to determine whether or not there is a parked vehicle in the parking frame PS only with an image captured by a monocular camera.

そこで、実施形態に係る画像処理装置1は、単眼カメラ(例えば、車載カメラ10)によって撮像される画像から駐車枠PS内の駐車車両の有無を判定可能とした。 Therefore, the image processing device 1 according to the embodiment can determine whether or not there is a parked vehicle in the parking frame PS from an image captured by a monocular camera (for example, the vehicle-mounted camera 10).

具体的には、画像処理装置1は、駐車車両が存在しない駐車枠PSの前を移動しながら、連続して撮像された画像から一対の区画線Li1,Li2を検出する場合、連続して各区画線Li1,Li2の全体像を検出することができる。かかる場合、画像処理装置1は、画像を解析することで、各画像から検出する各区画線Li1,Li2の長さに変化がないと判定することができる。 Specifically, when the image processing device 1 detects a pair of marking lines Li1 and Li2 from images that are continuously captured while moving in front of a parking frame PS where no parked vehicle exists, each A whole image of the division lines Li1 and Li2 can be detected. In such a case, the image processing apparatus 1 can determine that there is no change in the lengths of the marking lines Li1 and Li2 detected from each image by analyzing the images.

一方、画像処理装置1は、駐車車両Cxが存在する駐車枠PSの前を移動しながら、連続して撮像された画像から一対の区画線Li1,Li2を検出する場合、区画線Li1,Li2の一部が駐車車両Cxによって隠されるため全体像を検出することができない。 On the other hand, when the image processing device 1 detects a pair of lane markings Li1 and Li2 from images captured continuously while moving in front of the parking frame PS in which the parked vehicle Cx exists, The whole image cannot be detected because part of it is hidden by the parked vehicle Cx.

そして、画像処理装置1によって検出が可能となる区画線Li1,Li2の長さは、車両Cの移動に伴って変化する車載カメラ10と、駐車車両Cxと、一対の区画線Li1,Li2との相対位置によって変わる。 The lengths of the lane markings Li1 and Li2 that can be detected by the image processing device 1 are the lengths of the vehicle-mounted camera 10 that changes as the vehicle C moves, the parked vehicle Cx, and the pair of lane markings Li1 and Li2. Varies with relative position.

そこで、画像処理装置1は、移動しながら連続して撮像される複数の画像から順次検出する一対の区画線Li1,Li2の長さの変化パターンに基づき駐車車両Cxの有無を判定する(ステップS3)。 Therefore, the image processing device 1 determines the presence or absence of the parked vehicle Cx based on the change pattern of the length of the pair of marking lines Li1 and Li2 sequentially detected from a plurality of images continuously captured while moving (step S3). ).

これにより、画像処理装置1は、単眼カメラ(例えば、車載カメラ10)によって撮像される画像から駐車枠PS内に駐車車両Cxが存在するか否かを判定することができる。なお、実施形態に係る駐車車両の有無の具体的な判定手順については、図4A~図4Cを参照して後述する。 Thereby, the image processing device 1 can determine whether or not the parked vehicle Cx exists within the parking frame PS from the image captured by the monocular camera (for example, the vehicle-mounted camera 10). A specific procedure for determining the presence or absence of a parked vehicle according to the embodiment will be described later with reference to FIGS. 4A to 4C.

次に、図2を用いて実施形態に係る画像処理装置1の構成例について説明する。図2は、画像処理装置1のブロック図である。なお、図2には、画像処理装置1を含む駐車支援システム100を示す。 Next, a configuration example of the image processing apparatus 1 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram of the image processing device 1. As shown in FIG. 2 shows a parking assistance system 100 including the image processing device 1. As shown in FIG.

図2に示すように、駐車支援システム100は、画像処理装置1と、車載カメラ10と、センサ群Scと、上位ECU50とを備える。また、図2に示すように、画像処理装置1と、センサ群Scと、上位ECU50とは、それぞれCAN(Control Area Network)通信の通信規格の通信バスBによって相互に通信することができる。 As shown in FIG. 2, the parking assistance system 100 includes an image processing device 1, an on-vehicle camera 10, a sensor group Sc, and a host ECU 50. As shown in FIG. Further, as shown in FIG. 2, the image processing apparatus 1, the sensor group Sc, and the host ECU 50 can communicate with each other via a communication bus B that conforms to a CAN (Control Area Network) communication standard.

センサ群Scは、車両Cの走行状態を検出する各種センサであり、検出したセンサ値を画像処理装置1へ通知する。センサ群Scは、車両Cの車輪の回転数を検出する車速センサや、車両Cの舵角を検出する舵角センサ等を含む。 The sensor group Sc is various sensors that detect the running state of the vehicle C, and notifies the image processing device 1 of detected sensor values. The sensor group Sc includes a vehicle speed sensor that detects the number of rotations of the wheels of the vehicle C, a steering angle sensor that detects the steering angle of the vehicle C, and the like.

上位ECU50は、例えば、車両Cの自動駐車を支援するECUであり、例えば、画像処理装置1によって検出された駐車枠PSに基づいて車両Cを駐車枠PSへ駐車させる。例えば、上位ECU50は、車両Cの操舵角を制御するEPS(Electric Power Steering)-ECUであり、画像処理装置1によって検出された駐車枠PSへの操舵角を制御することができる。なお、上位ECU50は、アクセル制御やブレーキ制御を行うECUを含むようにすることにしてもよい。 The host ECU 50 is, for example, an ECU that assists automatic parking of the vehicle C, and parks the vehicle C in the parking frame PS based on the parking frame PS detected by the image processing device 1, for example. For example, the host ECU 50 is an EPS (Electric Power Steering)-ECU that controls the steering angle of the vehicle C, and can control the steering angle to the parking frame PS detected by the image processing device 1 . Note that the host ECU 50 may include an ECU that performs accelerator control and brake control.

図2に示すように、画像処理装置1は、制御部2と、記憶部3とを備える。制御部2は、線分抽出部21と、不適領域判定部22と、区画線候補検出部23と、除外判定部24と、駐車枠検出部25と、駐車枠管理部26と、停車位置決定部27とを備える。 As shown in FIG. 2 , the image processing device 1 includes a control section 2 and a storage section 3 . The control unit 2 includes a line segment extraction unit 21, an inappropriate area determination unit 22, a lane line candidate detection unit 23, an exclusion determination unit 24, a parking frame detection unit 25, a parking frame management unit 26, and a stop position determination unit. a portion 27;

制御部2は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control unit 2 includes, for example, a computer having a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), HDD (Hard Disk Drive), input/output ports, and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の線分抽出部21、不適領域判定部22、区画線候補検出部23、除外判定部24、駐車枠検出部25、駐車枠管理部26および停車位置決定部27として機能する。 The CPU of the computer, for example, by reading and executing programs stored in the ROM, the line segment extraction unit 21, the unsuitable area determination unit 22, the marking line candidate detection unit 23, the exclusion determination unit 24, the parking It functions as a frame detection unit 25 , a parking frame management unit 26 and a stop position determination unit 27 .

また、制御部2の線分抽出部21、不適領域判定部22、区画線候補検出部23、除外判定部24、駐車枠検出部25、駐車枠管理部26および停車位置決定部27の少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 In addition, at least one of the line segment extraction unit 21, the inappropriate area determination unit 22, the marking line candidate detection unit 23, the exclusion determination unit 24, the parking frame detection unit 25, the parking frame management unit 26, and the stop position determination unit 27 of the control unit 2 Alternatively, part or all of it can be configured by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).

また、記憶部3は、例えば、RAMやHDDに対応する。RAMやHDDは、各種情報や各種プログラムの情報を記憶することができる。なお、画像処理装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 Also, the storage unit 3 corresponds to, for example, a RAM or an HDD. The RAM and HDD can store various information and information of various programs. Note that the image processing apparatus 1 may acquire the above-described programs and various information via another computer or a portable recording medium connected via a wired or wireless network.

制御部2は、例えば、車両Cが駐車場を走行していると想定される場合(例えば、車速30Km/h以内)に、後述する駐車枠の検出処理を行うことにしてもよいし、あるいは、車両Cが走行している全ての期間でかかる検出処理を行うことにしてもよい。 For example, when it is assumed that the vehicle C is traveling in a parking lot (for example, the vehicle speed is within 30 km/h), the control unit 2 may perform a parking frame detection process described later, or , the detection process may be performed during the entire period in which the vehicle C is running.

線分抽出部21は、車載カメラ10から入力される画像から各画素の輝度に基づくエッジ点を繋いだエッジ線を検出する。具体的には、線分抽出部21は、車載カメラ10から入力される画像をグレースケール化することでグレースケール画像へ変換する。グレースケール画像とは、画像における各画素を輝度に応じて白から黒までの各階調(例えば256階調)で表現するように変換する処理である。 The line segment extraction unit 21 detects edge lines connecting edge points based on the luminance of each pixel from the image input from the vehicle-mounted camera 10 . Specifically, the line segment extraction unit 21 grayscales the image input from the vehicle-mounted camera 10 to convert it into a grayscale image. A grayscale image is a process of converting each pixel in the image so that it is expressed in each gradation from white to black (for example, 256 gradations) according to the luminance.

続いて、線分抽出部21は、グレースケール画像に対して例えば、ソベルフィルタを適用することで、各画素のエッジ強度および輝度勾配を求めることができる。続いて、線分抽出部21は、エッジ強度が所定値を超える画素を抽出することで、上記のエッジ点を抽出し、隣接するエッジ点を繋ぐことで、エッジ線を抽出することができる。線分抽出部21は、抽出したエッジ点およびエッジ線に関するエッジ情報を不適領域判定部22へ通知する。 Subsequently, the line segment extraction unit 21 can obtain the edge strength and the luminance gradient of each pixel by applying, for example, a Sobel filter to the grayscale image. Subsequently, the line segment extraction unit 21 can extract the edge points by extracting pixels whose edge strength exceeds a predetermined value, and can extract edge lines by connecting adjacent edge points. The line segment extraction unit 21 notifies the unsuitable region determination unit 22 of edge information regarding the extracted edge points and edge lines.

不適領域判定部22は、線分抽出部21によって抽出されたエッジ点およびエッジ線に基づき、駐車枠を構築する区画線の検出が困難となる不適領域の有無を判定する。例えば、不適領域判定部22は、舗装された路面に比べて、エッジ点が多く抽出される舗装されていない路面領域(例えば、砂利)や、グレーチング領域を不適領域として判定することができる。 Based on the edge points and edge lines extracted by the line segment extraction unit 21, the unsuitable area determination unit 22 determines whether or not there is an unsuitable area in which it is difficult to detect the lane markings forming the parking frame. For example, the unsuitable area determining unit 22 can determine an unpaved road surface area (e.g., gravel) from which more edge points are extracted than a paved road surface, or a grating area as an unsuitable area.

具体的には、不適領域判定部22は、各エッジ点の密度が所定値以上であり、各エッジ点の輝度勾配が不均一である領域について、不適領域として判定することができる。不適領域判定部22は、判定した不適領域に基づいて上記のエッジ情報から不適領域に関するエッジ情報を除去して後段の処理へ回す。 Specifically, the unsuitable area determination unit 22 can determine an area in which the density of each edge point is equal to or greater than a predetermined value and the luminance gradient of each edge point is uneven as an unsuitable area. Based on the determined inappropriate area, the inappropriate area determination unit 22 removes the edge information related to the inappropriate area from the above edge information, and transfers the edge information to subsequent processing.

区画線候補検出部23は、線分抽出部21によって抽出されたエッジ線に基づいて駐車枠を区画する区画線の候補となる区画線候補を検出する。具体的には、区画線候補検出部23は、互いに略平行であり、その間隔が区画線の幅に応じた所定範囲に収まるエッジ線同士を区画線候補として検出する。 The lane marking candidate detection unit 23 detects lane line candidates that are candidates for lane markings that divide the parking frame based on the edge lines extracted by the line segment extraction unit 21 . Specifically, the marking line candidate detection unit 23 detects, as marking line candidates, edge lines that are substantially parallel to each other and whose spacing falls within a predetermined range according to the width of the marking line.

すなわち、区画線候補検出部23は、各区画線の幅方向の左右両端に対応するエッジ線を区画線候補として検出する。区画線候補検出部23は、検出した区画線候補に関する区画線情報を生成し、除外判定部24へ通知する。 That is, the marking line candidate detection unit 23 detects edge lines corresponding to the left and right ends of each marking line in the width direction as marking line candidates. The marking line candidate detection unit 23 generates marking line information regarding the detected marking line candidates, and notifies the exclusion determination unit 24 of the generated marking line information.

なお、区画線候補検出部23は、不適領域判定部22によって検出された不適領域を除いて、区画線候補の検出処理を行うことができる。言い換えれば、区画線候補検出部23は、不適領域について区画線候補の検出処理を行わない。これにより、制御部2の処理負荷の抑えることが可能となる。 Note that the marking line candidate detection unit 23 can perform the marking line candidate detection process except for the unsuitable area detected by the unsuitable area determination unit 22 . In other words, the marking line candidate detection unit 23 does not perform the marking line candidate detection process on the inappropriate area. This makes it possible to suppress the processing load on the control unit 2 .

除外判定部24は、区画線候補検出部23によって検出された区画線候補に基づいて車両Cの駐車が認められていない駐車不可領域の有無を判定する。例えば、除外判定部24は、駐車不可領域として、ゼブラゾーン(導流帯)などの駐車不可領域の有無を判定する。 The exclusion determination unit 24 determines whether or not there is a no-parking area where the vehicle C is not permitted to park, based on the lane marking candidates detected by the lane marking candidate detection unit 23 . For example, the exclusion determination unit 24 determines whether or not there is a parking-impossible area such as a zebra zone (traffic zone) as the parking-impossible area.

具体的には、ゼブラゾーンが、互いに略平行な区画線候補を区画線(支持区画線と記載する)と仮定した場合に、支持区画線に対して傾斜した区画線候補が所定の間隔をあけて3本以上存在する場合に、支持区画線に挟まれた領域を駐車不可領域と判定する。 Specifically, when the zebra zone assumes that substantially parallel lane markings are lane markings (referred to as supporting lanes), lane lane candidates that are inclined with respect to the supporting lanes are spaced apart by a predetermined interval. If there are three or more support division lines, the area sandwiched by the support division lines is determined to be a non-parking area.

また、除外判定部24は、路面標識等の駐車枠の検出に不要な区画線候補の有無を判定することも可能である。例えば、除外判定部24は、区画線候補検出部23によって検出された区画線候補と、各路面標識のテンプレートモデルとのマッチング処理を行うことで画像に含まれる各路面標識を検出することができる。 The exclusion determining unit 24 can also determine whether or not there is a marking line candidate that is unnecessary for detection of a parking frame such as a road sign. For example, the exclusion determining unit 24 can detect each road sign included in the image by performing matching processing between the marking line candidate detected by the marking line candidate detection unit 23 and the template model of each road sign. .

除外判定部24は、区画線情報から不要な区画線候補を除去するとともに、区画線情報に駐車不可領域に関する情報を付与して、駐車枠検出部25へ通知する。 The exclusion determining unit 24 removes unnecessary marking line candidates from the marking line information, adds information about the parking prohibited area to the marking line information, and notifies the parking frame detection unit 25 of the information.

駐車枠検出部25は、区画線候補検出部23によって検出された区画線候補に基づき、駐車枠を検出する。具体的には、駐車枠検出部25は、所定間隔をあけて配置される区画線候補について駐車枠として検出する。 The parking frame detection unit 25 detects a parking frame based on the marking line candidates detected by the marking line candidate detection unit 23 . Specifically, the parking frame detection unit 25 detects lane marking candidates arranged at predetermined intervals as parking frames.

ここで、所定間隔とは、駐車場に関する法令等で規定される一般公共用の標準的な駐車領域の幅である。また、このとき、駐車枠検出部25は、除外判定部24によって駐車不可領域として判定された領域を避けて、駐車枠を検出することができる。 Here, the predetermined interval is the width of a standard parking area for general public use, which is stipulated by laws and regulations concerning parking lots. Also, at this time, the parking frame detection unit 25 can detect the parking frame while avoiding the area determined by the exclusion determination unit 24 to be a non-parking area.

すなわち、ゼブラゾーン等を避けて駐車枠を検出することができる。駐車枠検出部25は、駐車枠を検出すると、駐車枠に関する駐車枠情報を駐車枠管理部26へ通知する。なお、以下では、駐車枠検出部25によって駐車枠を区画する区画線候補として検出された区画線候補について、区画線と記載する。また、駐車枠情報には、車両Cを基準とする各区画線の頂点座標が含まれる。 That is, the parking frame can be detected while avoiding the zebra zone or the like. When the parking frame is detected, the parking frame detection unit 25 notifies the parking frame management unit 26 of parking frame information related to the parking frame. In addition, below, the marking line candidate detected by the parking frame detection part 25 as a marking line candidate which divides a parking frame is described as a marking line. Moreover, the vertex coordinates of each lane marking with the vehicle C as a reference are included in the parking space information.

かかる駐車枠検出部25は、検出した駐車枠内に駐車車両が存在するか否かを判定する処理も行う。駐車枠検出部25は、移動しながら連続して撮像された複数の画像から順次検出する一対の区画線の長さの変化に基づいて、一対の区画線によって区画された駐車枠内に駐車車両が存在するか否かを判定する。 The parking frame detection unit 25 also performs processing for determining whether or not a parked vehicle exists within the detected parking frame. The parking frame detection unit 25 detects the vehicle parked in the parking frame defined by the pair of marking lines based on the change in the length of the pair of marking lines sequentially detected from a plurality of images captured continuously while moving. exists.

そして、駐車枠検出部25は、駐車枠内に駐車車両が存在するか否かの判定結果を駐車枠情報に含めて駐車枠管理部26へ通知する。なお、駐車枠検出部25の構成および動作の具体例については、図3、および図4A~図4Cを用いて後述する。 Then, the parking frame detection unit 25 notifies the parking frame management unit 26 of the determination result as to whether or not the parked vehicle is present in the parking frame in the parking frame information. A specific example of the configuration and operation of the parking frame detection unit 25 will be described later with reference to FIGS. 3 and 4A to 4C.

駐車枠管理部26は、駐車枠検出部25によって検出された駐車枠を時系列で管理する。駐車枠管理部26は、センサ群Scから入力されるセンサ値に基づいて車両Cの移動量を推定し、かかる移動量に基づいて過去の駐車枠情報に基づく実際の各区画線の頂点座標を推定することができる。 The parking frame management unit 26 manages the parking frames detected by the parking frame detection unit 25 in chronological order. The parking space management unit 26 estimates the amount of movement of the vehicle C based on the sensor values input from the sensor group Sc, and calculates the actual vertex coordinates of each lane line based on the past parking space information based on the amount of movement. can be estimated.

また、駐車枠管理部26は、新たに入力される駐車枠情報に基づいて、過去の駐車枠情報における区画線の座標情報を更新することも可能である。すなわち、駐車枠管理部26は、車両Cとの駐車枠との相対的な位置関係を車両Cの移動に伴って随時更新する。 The parking space management unit 26 can also update the coordinate information of the lane markings in the past parking space information based on the newly input parking space information. That is, the parking space management unit 26 updates the relative positional relationship between the vehicle C and the parking space as the vehicle C moves.

また、駐車枠管理部26は、複数の駐車枠がそれぞれ連続して配置されると仮定して、駐車枠の検出範囲を設定することも可能である。例えば、駐車枠管理部26は、駐車枠検出部25によって検出された1つの駐車枠を基準とし、かかる駐車枠と連続して複数の駐車枠が存在すると仮定する。 The parking frame management unit 26 can also set the detection range of the parking frames on the assumption that a plurality of parking frames are arranged in succession. For example, the parking frame management unit 26 uses one parking frame detected by the parking frame detection unit 25 as a reference, and assumes that there are a plurality of parking spaces that are continuous with the parking frame.

そして、駐車枠管理部26は、仮定した駐車枠の位置を検出範囲として設定する。これにより、上記の線分抽出部21は、駐車枠管理部26によって設定された検出範囲においてのみ、エッジ線の検出処理を行えばよいので、制御部2の処理負荷を抑えることが可能となる。 Then, the parking frame management unit 26 sets the position of the assumed parking frame as the detection range. As a result, the line segment extraction unit 21 needs to perform edge line detection processing only in the detection range set by the parking frame management unit 26, so the processing load on the control unit 2 can be suppressed. .

停車位置決定部27は、線分抽出部21によって検出されたエッジ線に基づき、車両Cが駐車枠へ駐車する際の停車位置を決定する。例えば、停車位置決定部27は、線分抽出部21によって検出されたエッジ線に基づき、輪留めや縁石、壁、車幅方向に延びる白線などを検出することで、車両Cの停車位置を決定する。 The stop position determination unit 27 determines the stop position when the vehicle C is parked in the parking frame based on the edge lines detected by the line segment extraction unit 21 . For example, the stop position determination unit 27 determines the stop position of the vehicle C by detecting wheel chocks, curbs, walls, white lines extending in the vehicle width direction, etc. based on the edge lines detected by the line segment extraction unit 21. do.

停車位置決定部27は、輪留めを検出した場合、車両Cの後輪が輪留めの手前に来るように停車位置を決定し、輪留めに代えて、白線や壁等を検出した場合、白線の手前に車両Cの後端(例えば、リアバンパの先端)がくるように停車位置を決定する。 When the wheel chock is detected, the stop position determination unit 27 determines the stop position so that the rear wheels of the vehicle C come in front of the wheel chock. The stop position is determined so that the rear end of the vehicle C (for example, the front end of the rear bumper) is positioned in front of the vehicle.

次に、図3、および図4A~図4Cを用いて、実施形態に係る駐車枠検出部25について具体的に説明する。図3は、駐車枠検出部25のブロック図である。図4A~図4Cは、駐車車両の有無の判定手順を示す説明図である。 Next, the parking frame detection unit 25 according to the embodiment will be specifically described with reference to FIGS. 3 and 4A to 4C. FIG. 3 is a block diagram of the parking frame detection unit 25. As shown in FIG. 4A to 4C are explanatory diagrams showing the procedure for determining whether or not there is a parked vehicle.

図3に示すように、駐車枠検出部25は、検出部251と、判定部252とを備える。また、駐車枠検出部25が駐車枠内に駐車車両が存在するか否かを判定するにあたり、記憶部3は、特定変化パターン情報31を記憶する。 As shown in FIG. 3 , the parking frame detection section 25 includes a detection section 251 and a determination section 252 . Further, the storage unit 3 stores specific change pattern information 31 when the parking frame detection unit 25 determines whether or not a parked vehicle exists in the parking frame.

特定変化パターン情報31は、移動しながら駐車枠を連続で撮像した複数の画像において、駐車枠内に駐車車両が存在している場合に起こる一対の区画線の長さの変化を示す特定の変化パターンの特徴を示す情報である。 The specific change pattern information 31 is a specific change indicating a change in the length of a pair of lane markings that occurs when a parked vehicle is present in a parking frame in a plurality of images obtained by continuously capturing the parking frame while moving. This is information indicating characteristics of the pattern.

検出部251は、画像から駐車枠を区画する一対の区画線を検出する処理部である。また、判定部252は、移動しながら撮像された複数の画像から検出部251によって順次検出される一対の区画線の長さの変化に基づいて、一対の区画線によって区画された駐車枠内に駐車車両が存在するか否かを判定する処理部である。 The detection unit 251 is a processing unit that detects a pair of partition lines that partition the parking frame from the image. Further, the determination unit 252 determines whether the vehicle is positioned within the parking frame demarcated by the pair of demarcation lines based on changes in the length of the pair of demarcation lines sequentially detected by the detection unit 251 from a plurality of images captured while moving. It is a processing unit that determines whether or not there is a parked vehicle.

かかる判定部252は、特定変化パターン情報31に基づいて、一対の区間線の長さの変化パターンが、駐車枠内に駐車車両が存在するときに特有の特定の変化パターンであると判定した場合に、駐車枠内に駐車車両が存在すると判定する。 When the determining unit 252 determines that the pattern of change in the length of the pair of section lines is a specific pattern of change peculiar to the presence of the parked vehicle in the parking frame, based on the specific change pattern information 31. First, it is determined that a parked vehicle exists within the parking frame.

このように、判定部252は、検出部251によって検出される一対の区画線の長さの変化パターンと、特定の変化パターンとを比較するという簡易な手順により、単眼カメラによって撮像される画像から駐車枠内の駐車車両の有無を判定することができる。 In this way, the determination unit 252 performs a simple procedure of comparing the pattern of change in the length of the pair of marking lines detected by the detection unit 251 with a specific pattern of change from the image captured by the monocular camera. It is possible to determine whether or not there is a parked vehicle in the parking frame.

例えば、図4Aに示す位置を車両Cが走行している場合、駐車枠SPを区画する一対の区画線Li1,Li2のうち、図中に白抜き矢印で示す車両Cの移動方向における手前側の区画線Li1の長手方向延長線上に車載カメラ10が位置している。 For example, when the vehicle C is traveling in the position shown in FIG. 4A, the front side of the pair of partition lines Li1 and Li2 that partition the parking frame SP in the moving direction of the vehicle C indicated by the white arrows in the figure. An in-vehicle camera 10 is positioned on the longitudinal extension of the division line Li1.

かかる場合、検出部251は、車載カメラ10と手前側の区画線Li1との間に遮るものがないため、手前側の区画線Li1の全体像(区画線Li1におけるハッチングを付した部分)を検出することができる。 In this case, the detection unit 251 detects the entire image of the front marking line Li1 (the hatched portion of the marking line Li1) because there is nothing blocking the space between the vehicle-mounted camera 10 and the front marking line Li1. can do.

しかし、検出部251は、駐車枠SPを区画する一対の区画線Li1,Li2のうち、車両Cの移動方向における奥側の区画線Li2については、駐車車両Cxと被らない部分(区画線Li2におけるハッチングを付した部分)しか検出することができない。 However, the detection unit 251 does not overlap the parking vehicle Cx (the partition line Li2 Only the hatched part in ) can be detected.

その後、図4Bに示す位置まで車両Cが前進した場合、駐車車両Cxの正面に位置している。かかる場合、検出部251は、手前側の区画線Li1の一部が駐車車両Cxと被るため、手前側の区画線Li1における検出部分(区画線Li1におけるハッチングを付した部分)の長さが図4Aに示す場合よりも短くなる。 After that, when the vehicle C moves forward to the position shown in FIG. 4B, it is located in front of the parked vehicle Cx. In such a case, the detection unit 251 detects that a portion of the front marking line Li1 overlaps the parked vehicle Cx. shorter than that shown in 4A.

一方、奥側の区画線Li2は、駐車車両Cxと被る部分が小さくなる。このため、検出部251は、奥側の区画線Li2における検出部分(区画線Li2におけるハッチングを付した部分)の長さが図4Aに示す場合よりも長くなる。 On the other hand, the section line Li2 on the far side has a smaller portion that overlaps with the parked vehicle Cx. For this reason, in the detection unit 251, the length of the detection portion (the hatched portion of the partition line Li2) at the partition line Li2 on the far side is longer than in the case shown in FIG. 4A.

そして、図4Cに示す位置まで車両Cが前進した場合、奥側の区画線Li2の長手方向延長線上に車載カメラ10が位置している。かかる場合、検出部251は、車載カメラ10と奥側の区画線Li2との間に遮るものがないため、奥側の区画線Li2の全体像(区画線Li2におけるハッチングを付した部分)を検出することができる。 Then, when the vehicle C moves forward to the position shown in FIG. 4C, the vehicle-mounted camera 10 is positioned on the longitudinal extension line of the compartment line Li2 on the far side. In this case, the detection unit 251 detects the entire image of the rear marking line Li2 (the hatched portion of the marking line Li2) because there is nothing blocking the space between the vehicle-mounted camera 10 and the rear marking line Li2. can do.

しかし、検出部251は、手前側の区画線Li1については、手前側の区画線Li1における検出部分(区画線Li1におけるハッチングを付した部分)の長さが図4Bに示す場合よりもさらに短くなる。 However, the detection unit 251 determines that the length of the detection portion (the hatched portion of the marking line Li1) of the marking line Li1 on the front side is shorter than that in the case shown in FIG. 4B. .

このように、駐車枠PS内に駐車車両が存在する場合、車両Cが駐車枠PSの前を走行すると、検出部251によって検出される手前側の区画線Li1の長さが徐々に短くなり、奥側の区画線Li2の長さが徐々に長くなる。 In this way, when a vehicle is parked within the parking frame PS, when the vehicle C runs in front of the parking frame PS, the length of the demarcation line Li1 on the near side detected by the detection unit 251 gradually becomes shorter, The length of the compartment line Li2 on the far side gradually increases.

そこで、判定部252は、車両Cの移動に伴って、一対の区画線Li1,Li2のうち、車両Cの移動方向における手前側の区画線Li1の長さが徐々に短くなり、奥側の区画線Li2の長さが徐々に長くなる場合に、特定の変化パターンであると判定する。 Therefore, the determination unit 252 determines that, of the pair of lane markings Li1 and Li2, the length of the lane marking Li1 on the front side in the moving direction of the vehicle C gradually becomes shorter, and the lane marking on the far side becomes shorter. When the length of the line Li2 gradually increases, it is determined to be a specific change pattern.

そして、判定部252は、検出部251によって検出される一対の区画線Li1,Li2の長さの変化パターンが特定の変化パターンであると判定した場合に、駐車枠PS内に駐車車両Cxが存在すると判定する。 Then, when the determination unit 252 determines that the change pattern of the length of the pair of partition lines Li1 and Li2 detected by the detection unit 251 is a specific change pattern, the parked vehicle Cx is present in the parking frame PS. Then judge.

また、判定部51は、検出部251によって検出される一対の区画線Li1,Li2の長さの変化パターンが特定の変化パターンでないと判定した場合に、駐車枠PS内に駐車車両Cxが存在しないと判定する。 Further, when the determination unit 51 determines that the change pattern of the length of the pair of partition lines Li1 and Li2 detected by the detection unit 251 is not a specific change pattern, the parked vehicle Cx does not exist within the parking frame PS. I judge.

これにより、判定部252は、単眼カメラ(例えば、車載カメラ10)によって撮像される画像から、駐車枠PS内に駐車車両Cxが存在するか否かを正確に判定することができる。 Thereby, the determination unit 252 can accurately determine whether or not the parked vehicle Cx exists within the parking frame PS from the image captured by the monocular camera (for example, the vehicle-mounted camera 10).

次に、図5を参照し、駐車枠検出部25が実行する処理について説明する。図5は、駐車枠検出部25が実行する処理の一例を示すフローチャートである。駐車枠検出部25は、例えば、車両Cが駐車場を走行していると想定される場合(例えば、車速30Km/h以内)に、図5に示す処理を繰り返し実行する。 Next, with reference to FIG. 5, processing executed by the parking frame detection unit 25 will be described. FIG. 5 is a flowchart showing an example of processing executed by the parking frame detection unit 25. As shown in FIG. The parking frame detection unit 25 repeatedly executes the processing shown in FIG. 5, for example, when it is assumed that the vehicle C is traveling in the parking lot (for example, the vehicle speed is within 30 Km/h).

具体的には、図5に示すように、駐車枠検出部25は、移動しながら連続して撮像された画像から一対の区画線を順次検出し(ステップS101)、画像毎に一対の区画線の長さを順次算出する(ステップS102)。 Specifically, as shown in FIG. 5, the parking frame detection unit 25 sequentially detects a pair of marking lines from images captured continuously while moving (step S101), and detects a pair of marking lines for each image. are sequentially calculated (step S102).

続いて、駐車枠検出部25は、一対の区画線の長さの変化パターンが特定の変化パターンか否かを判定する(ステップS103)。そして、駐車枠検出部25は、特定の変化パターンであると判定した場合(ステップS103,Yes)、駐車枠内に駐車車両なしと判定し(ステップS104)する。その後、駐車枠検出部25は、処理を終了して再度ステップS101から処理を開始する。 Subsequently, the parking frame detection unit 25 determines whether or not the change pattern of the length of the pair of marking lines is a specific change pattern (step S103). And when it determines with it being a specific change pattern (step S103, Yes), the parking frame detection part 25 determines that there is no parked vehicle in a parking frame (step S104). After that, the parking frame detection unit 25 terminates the processing and restarts the processing from step S101.

また、駐車枠検出部25は、特定の変化パターンでないと判定した場合(ステップS103,No)、駐車枠内に駐車車両なしと判定する(ステップS105)。その後、駐車枠検出部25は、駐車車両なしと判定した駐車枠を検出して処理を終了し、再度ステップS101から処理を開始する。 Moreover, the parking frame detection part 25 determines with no parked vehicle in a parking frame, when it determines with it not being a specific change pattern (step S103, No) (step S105). After that, the parking frame detection unit 25 detects the parking frame determined to have no parked vehicle, ends the process, and starts the process from step S101 again.

なお、上述した実施形態に記載した特定の変化パターンは、一例であり種々の変形が可能である。例えば、車両Cの移動に伴い、図4A~図4Cに示す手前側の区画線Li1の長さが徐々に長くなった後に徐々に短くなり、奥側の区画線Li2の長さが徐々に長くなる変化パターンを特定の変化パターンとしてもよい。 It should be noted that the specific change pattern described in the above-described embodiment is an example, and various modifications are possible. For example, as the vehicle C moves, the front section line Li1 shown in FIGS. 4A to 4C gradually becomes longer and then gradually becomes shorter, and the rear section line Li2 gradually becomes longer. It is good also considering a change pattern as a specific change pattern.

これにより、判定部252は、例えば、図4Aに示す駐車車両Cxの右隣の駐車枠に他の駐車車両が存在している場合にも、図4Aに示す駐車枠PSに駐車車両Cxが存在しているか否かを正確に判定することができる。 Thereby, for example, even when another parked vehicle exists in the parking frame on the right side of the parked vehicle Cx shown in FIG. It is possible to accurately determine whether or not

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

100 駐車支援システム
10 車載カメラ
1 画像処理装置
2 制御部
21 線分抽出部
22 不適領域判定部
23 区画線候補検出部
24 除外判定部
25 駐車枠検出部
26 駐車枠管理部
27 停車位置決定部
251 検出部
252 判定部
3 記憶部
31 特定変化パターン情報
50 上位ECU
Sc センサ群
REFERENCE SIGNS LIST 100 parking support system 10 in-vehicle camera 1 image processing device 2 control unit 21 line segment extraction unit 22 inappropriate area determination unit 23 lane line candidate detection unit 24 exclusion determination unit 25 parking frame detection unit 26 parking frame management unit 27 stop position determination unit 251 Detection unit 252 Determination unit 3 Storage unit 31 Specific change pattern information 50 Upper ECU
Sc sensor group

Claims (2)

車両の移動に伴い撮像された複数の撮像画像から駐車枠を区画する一対の区画線を検出し、
前記検出された一対の区画線のうち、前記車両の移動方向における手前側の区画線の長さが徐々に短くなり、奥側の区画線の長さが徐々に長くなる場合に、
前記一対の区画線で区画された前記駐車枠内に駐車車両が存在すると判定する
制御部を備えた画像処理装置。
Detecting a pair of demarcation lines demarcating a parking frame from a plurality of captured images captured as the vehicle moves,
Of the pair of detected lane markings, when the length of the lane marking on the front side in the moving direction of the vehicle gradually becomes shorter and the length of the lane marking on the far side gradually becomes longer,
It is determined that a parked vehicle exists within the parking frame partitioned by the pair of partition lines.
An image processing device having a control unit .
車両の移動に伴い撮像された複数の撮像画像から駐車枠を区画する一対の区画線を検出し、
前記検出された一対の区画線のうち、前記車両の移動方向における手前側の区画線の長さが徐々に短くなり、奥側の区画線の長さが徐々に長くなる場合に、
前記一対の区画線で区画された前記駐車枠内に駐車車両が存在すると判定する
画像処理方法。
Detecting a pair of demarcation lines demarcating a parking frame from a plurality of captured images captured as the vehicle moves ,
Of the pair of detected lane markings, when the length of the lane marking on the front side in the moving direction of the vehicle gradually becomes shorter and the length of the lane marking on the far side gradually becomes longer,
It is determined that a parked vehicle exists within the parking frame partitioned by the pair of partition lines.
Image processing method.
JP2018234806A 2018-12-14 2018-12-14 Image processing device and image processing method Active JP7245640B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018234806A JP7245640B2 (en) 2018-12-14 2018-12-14 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018234806A JP7245640B2 (en) 2018-12-14 2018-12-14 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020095629A JP2020095629A (en) 2020-06-18
JP7245640B2 true JP7245640B2 (en) 2023-03-24

Family

ID=71086328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018234806A Active JP7245640B2 (en) 2018-12-14 2018-12-14 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7245640B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198440A (en) 2009-02-26 2010-09-09 Nissan Motor Co Ltd Parking support device and obstacle detection method
JP2011114467A (en) 2009-11-25 2011-06-09 Alpine Electronics Inc Vehicle display device and display method
JP2012001081A (en) 2010-06-16 2012-01-05 Nissan Motor Co Ltd Parking support system
JP2018078479A (en) 2016-11-10 2018-05-17 株式会社デンソー Parking frame recognition device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198440A (en) 2009-02-26 2010-09-09 Nissan Motor Co Ltd Parking support device and obstacle detection method
JP2011114467A (en) 2009-11-25 2011-06-09 Alpine Electronics Inc Vehicle display device and display method
JP2012001081A (en) 2010-06-16 2012-01-05 Nissan Motor Co Ltd Parking support system
JP2018078479A (en) 2016-11-10 2018-05-17 株式会社デンソー Parking frame recognition device

Also Published As

Publication number Publication date
JP2020095629A (en) 2020-06-18

Similar Documents

Publication Publication Date Title
JP7203586B2 (en) Image processing device and image processing method
US20150324649A1 (en) Method and Device for Analyzing Trafficability
EP3708466B1 (en) Parking assistance device and parking assistance method
JP7259309B2 (en) Image processing device and image processing method
JPWO2018123641A1 (en) RUNNING AREA DETECTION DEVICE AND RUNNING SUPPORT SYSTEM
US11138450B2 (en) Image processing device and image processing method
JP7236857B2 (en) Image processing device and image processing method
JP7203587B2 (en) Image processing device and image processing method
JP7141940B2 (en) Image processing device and image processing method
JP2020095623A (en) Image processing device and image processing method
US10796172B2 (en) Image processing device and image processing method
JP7226986B2 (en) Image processing device and image processing method
JP2020166758A (en) Image processing device and image processing method
JP7195131B2 (en) Image processing device and image processing method
JP7245640B2 (en) Image processing device and image processing method
JP7359541B2 (en) Image processing device and image processing method
JP7252750B2 (en) Image processing device and image processing method
US11250290B2 (en) Image processing device and image processing method
JP7166096B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R150 Certificate of patent or registration of utility model

Ref document number: 7245640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150