JP7166096B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7166096B2
JP7166096B2 JP2018137882A JP2018137882A JP7166096B2 JP 7166096 B2 JP7166096 B2 JP 7166096B2 JP 2018137882 A JP2018137882 A JP 2018137882A JP 2018137882 A JP2018137882 A JP 2018137882A JP 7166096 B2 JP7166096 B2 JP 7166096B2
Authority
JP
Japan
Prior art keywords
line
edge line
image processing
edge
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018137882A
Other languages
Japanese (ja)
Other versions
JP2020016952A (en
Inventor
純 金武
康貴 岡田
寛紀 森永
裕明 佐野
徹夫 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018137882A priority Critical patent/JP7166096B2/en
Publication of JP2020016952A publication Critical patent/JP2020016952A/en
Application granted granted Critical
Publication of JP7166096B2 publication Critical patent/JP7166096B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置および画像処理方法に関する。 The present invention relates to an image processing device and an image processing method.

従来、車両に搭載され、カメラにより撮影して得られた画像から駐車枠線を認識する装置が知られている。例えば、特許文献1に開示される車載用駐車枠認識装置の演算処理部は、線抽出部、曲線判定部および駐車場判定部を備える。線抽出部は、カメラの撮影画像に基づいて車両の走行面に描かれた標示線を抽出する。曲線判定部は、線抽出部により抽出された標示線において所定の条件を満たす曲線部分の有無を判定することにより、標示線が車道外側線であるか否かを判定する。駐車場判定部は、曲線判定部による判定結果に基づいて車両が駐車場を走行中であるか否かを判定し、駐車場を走行中であると判定した場合に、撮影画像に基づく駐車枠の認識結果を出力する。 2. Description of the Related Art Conventionally, there is known a device mounted on a vehicle and recognizing a parking closing line from an image obtained by photographing with a camera. For example, the arithmetic processing unit of the in-vehicle parking frame recognition device disclosed in Patent Document 1 includes a line extraction unit, a curve determination unit, and a parking lot determination unit. The line extracting unit extracts a marking line drawn on the running surface of the vehicle based on the image captured by the camera. The curve determination unit determines whether or not the marking line is an outside roadway line by determining whether or not the marking line extracted by the line extracting unit has a curved portion that satisfies a predetermined condition. The parking lot determination unit determines whether or not the vehicle is traveling in the parking lot based on the determination result of the curve determination unit. output the recognition result.

なお、標示線には、道路上に描かれた各種の道路標示線(車道中央線、車線境界線、車道外側線、横断歩道等)や、駐車場に描かれた駐車枠線等が含まれる。 In addition, the marking lines include various road marking lines drawn on the road (roadway center line, lane boundary line, roadway outer line, crosswalk, etc.) and parking frame lines drawn in the parking lot. .

特開2014-106740号公報JP 2014-106740 A

撮影画像から路面上に描かれる駐車枠線等の標示線を抽出する場合、まず、撮影画像から、標示線の輪郭線の候補となる複数のエッジ線を検出する。そして、検出した複数のエッジ線を用いて、例えば所定間隔をあけて互いに平行に並ぶ2つのエッジ線の組み合わせであること等を条件として標示線を抽出する。 When extracting a marking line such as a parking closing line drawn on a road surface from a photographed image, first, a plurality of edge lines, which are candidates for the outline of the marking line, are detected from the photographed image. Then, using a plurality of detected edge lines, a marker line is extracted under a condition such as a combination of two edge lines arranged parallel to each other with a predetermined interval, for example.

従来においては、検出されたエッジ線が曲線を含む場合に、エッジ線が延びる方向を誤認識することがあり、不適切な駐車枠線等を抽出することがあった。例えば駐車枠線の抽出が不適切であると、駐車枠を誤認したり、駐車枠を認識できなかったりすることがあった。 Conventionally, when the detected edge line includes a curved line, the direction in which the edge line extends may be erroneously recognized, and an inappropriate parking frame line or the like may be extracted. For example, if the parking frame line is not properly extracted, the parking frame may be misidentified or the parking frame may not be recognized.

本発明は、上記課題に鑑みて、撮影画像から検出されたエッジ線の形状を適切に捉えることができる技術を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to provide a technique that can appropriately capture the shape of an edge line detected from a captured image.

上記目的を達成するために本発明の画像処理装置は、撮影画像からエッジ線を検出するエッジ線検出部と、前記エッジ線上において、前記エッジ線に近似する近似線を組になって構成する複数の直線線分の取得を可能とする分割点を求める分割部と、前記分割点に基づき前記直線線分を抽出する抽出部と、を備える構成(第1の構成)になっている。 In order to achieve the above object, the image processing apparatus of the present invention comprises: an edge line detection unit for detecting an edge line from a photographed image; and an extraction unit for extracting the straight line segment based on the dividing point (first configuration).

上記第1の構成において、前記分割部は、前記エッジ線のうち曲率が所定値以上となる位置で前記分割点を求める構成(第2の構成)が好ましい。 In the first configuration described above, it is preferable that the dividing section obtains the dividing point at a position where the curvature of the edge line is equal to or greater than a predetermined value (second configuration).

上記第1又は第2の構成の画像処理装置において、前記分割部は、前記エッジ線を所定位置で複数に区分けした区分毎に求められる方向情報に基づいて前記分割点を求める構成(第3の構成)であることが好ましい。 In the image processing apparatus having the first or second configuration, the dividing unit obtains the dividing point based on direction information obtained for each division obtained by dividing the edge line into a plurality of divisions at a predetermined position (third configuration).

上記第1又は第2の構成の画像処理装置において、前記分割部は、前記エッジ線の2つの端点を結んだ直線と前記エッジ線とに基づき前記分割点を求める構成(第4の構成)であってよい。 In the image processing apparatus having the first or second configuration, the dividing unit obtains the dividing point based on the edge line and a straight line connecting two end points of the edge line (fourth configuration). It's okay.

上記第3又は第4の構成の画像処理装置において、前記分割部は、先に求めた前記分割点に応じて設定される仮直線と前記エッジ線とに基づき前記エッジ線を更に分割するか否かを判断する構成(第5の構成)であることが好ましい。 In the image processing apparatus having the third or fourth configuration, the dividing unit determines whether or not to further divide the edge line based on the provisional straight line and the edge line set according to the division points obtained in advance. It is preferable that the configuration (fifth configuration) determines whether the

上記第1から第5のいずれかの構成の画像処理装置は、前記抽出部で抽出された前記直線線分に基づき路面上に設けられる標示線を検出する標示線検出部を更に備える構成(第6の構成)であることが好ましい。 The image processing device having any one of the first to fifth configurations above further includes a marking line detection unit that detects a marking line provided on the road surface based on the straight line segment extracted by the extraction unit (first 6) is preferable.

上記第6の構成の画像処理装置において、前記撮影画像は、車両の周辺を撮影するカメラによって撮影され、前記標示線は、駐車枠を構成する区画線である構成(第7の構成)であってよい。 In the image processing device of the sixth configuration, the captured image is captured by a camera that captures the surroundings of the vehicle, and the marking line is a partition line forming a parking frame (seventh configuration). you can

上記目的を達成するために本発明の画像処理方法は、撮影画像を処理する画像処理装置で実行される画像処理方法であって、前記撮影画像からエッジ線を検出するエッジ線検出工程と、前記エッジ線上において、前記エッジ線に近似する近似線を組になって構成する複数の直線線分の取得を可能とする分割点を求める分割工程と、前記分割点に基づき前記直線線分を抽出する抽出工程と、を備える構成(第8の構成)になっている。 To achieve the above object, an image processing method of the present invention is an image processing method executed by an image processing apparatus for processing a photographed image, comprising an edge line detection step of detecting an edge line from the photographed image; a dividing step of determining dividing points on an edge line that enable acquisition of a plurality of straight line segments forming a set of approximation lines approximating the edge line; and extracting the straight line segments based on the dividing points. and an extraction step (eighth configuration).

本発明によれば、撮影画像から検出されたエッジ線の形状を適切に捉えることができる。 According to the present invention, it is possible to appropriately capture the shape of edge lines detected from a captured image.

本発明の実施形態に係る画像処理装置の構成を示すブロック図1 is a block diagram showing the configuration of an image processing apparatus according to an embodiment of the present invention; FIG. 直線線分抽出処理の大まかな流れを示すフローチャートFlowchart showing a rough flow of straight line segment extraction processing エッジ線検出工程の流れの一例を示すフローチャートFlowchart showing an example of the flow of the edge line detection process エッジ線検出について説明するための図Diagram for explaining edge line detection 分割工程の流れの一例を示すフローチャートFlowchart showing an example of the flow of the division process 第1分割処理の流れを例示するフローチャートFlowchart illustrating the flow of the first division process 第1分割処理について説明するための図Diagram for explaining the first division process 第2分割処理の流れを例示するフローチャートFlowchart illustrating the flow of the second division process 第2分割処理について説明するための図Diagram for explaining the second division process 本発明の画像処理装置が適用された駐車支援システムの一構成例を示す図FIG. 1 shows a configuration example of a parking assistance system to which the image processing device of the present invention is applied; 駐車支援システムの動作について説明するための模式図Schematic diagram for explaining the operation of the parking assistance system

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。 Exemplary embodiments of the invention are described in detail below with reference to the drawings.

<1.画像処理装置>
図1は、本発明の実施形態に係る画像処理装置1の構成を示すブロック図である。画像処理装置1には、カメラで撮影された撮影画像が入力される。本実施形態では、カメラは、移動体に搭載され、当該移動体の周辺を撮影するカメラである。カメラは、例えば、移動体の前方、側方、後方等を撮影する。移動体は、例えば車両やロボット等である。画像処理装置1は移動体に搭載される。
<1. Image processing device>
FIG. 1 is a block diagram showing the configuration of an image processing apparatus 1 according to an embodiment of the invention. An image captured by a camera is input to the image processing apparatus 1 . In this embodiment, the camera is a camera mounted on a mobile body and capturing an image of the surroundings of the mobile body. The camera captures, for example, the front, sides, rear, etc. of the moving object. The moving body is, for example, a vehicle, a robot, or the like. The image processing apparatus 1 is mounted on a moving body.

図1に示すように、画像処理装置1は、制御部11と記憶部12とを備える。制御部11は、画像処理装置1の全体を制御する。制御部11は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、及び、ROM(Read Only Memory)などを備えるコンピュータで構成される。記憶部12は、制御部11が動作するために必要なコンピュータプログラムおよびデータを不揮発的に記憶する。記憶部12としては、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ等を用いることができる。 As shown in FIG. 1 , the image processing apparatus 1 includes a control section 11 and a storage section 12 . The control unit 11 controls the entire image processing apparatus 1 . The control unit 11 is configured by a computer including, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory). The storage unit 12 nonvolatilely stores computer programs and data necessary for the operation of the control unit 11 . As the storage unit 12, for example, an EEPROM (Electrically Erasable Programmable Read-Only Memory), a flash memory, or the like can be used.

図1に示す映像取得部111、エッジ線検出部112、分割部113、および、抽出部114は、記憶部12に記憶されるコンピュータプログラムの実行により実現される制御部11の機能である。換言すると、画像処理装置1は、映像取得部111と、エッジ線検出部112と、分割部113と、抽出部114とを備える。 The image acquisition unit 111, the edge line detection unit 112, the division unit 113, and the extraction unit 114 shown in FIG. In other words, the image processing device 1 includes an image acquisition unit 111 , an edge line detection unit 112 , a division unit 113 and an extraction unit 114 .

なお、制御部11が備える各機能部111~114の少なくともいずれか1つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、制御部11が備える各機能部111~114は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてよい。 At least one of the functional units 111 to 114 included in the control unit 11 may be configured by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). Each functional unit 111 to 114 included in the control unit 11 is a conceptual component. A function performed by one component may be distributed to a plurality of components, or a function possessed by a plurality of components may be integrated into one component.

映像取得部111は、カメラからアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した時間的に連続した撮影画像(取得した映像)がアナログの場合には、映像取得部111は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。本実施形態では、映像取得部111は、撮影画像を濃淡画像(グレースケール画像)に変換する。 The video acquisition unit 111 temporally continuously acquires analog or digital captured images from the camera at a predetermined cycle (for example, 1/30 second cycle). Then, when the acquired temporally continuous captured images (acquired video) are analog, the video acquisition unit 111 converts the analog captured images into digital captured images (A/D conversion). In this embodiment, the video acquisition unit 111 converts the captured image into a grayscale image (grayscale image).

エッジ線検出部112は、撮影画像からエッジ線を検出する。詳細には、エッジ線検出部112は、映像取得部111で処理された撮影画像からエッジ線を検出する。エッジ線は、撮影画像における明暗の境界線をいい、撮影画像に映る被写体の輪郭線がエッジ線に対応する。本実施形態では、エッジ線は、撮影画像中に映る路面上の標示線の輪郭線を含む。標示線は、道路上に描かれた各種の道路標示線(車道中央線、車線境界線、車道外側線、横断歩道等)や、駐車場に描かれた駐車枠線等が含まれる。エッジ線を検出する範囲は、撮影画像の全範囲でもよいが、撮影画像の一部の範囲であってもよい。 The edge line detection unit 112 detects edge lines from the captured image. Specifically, the edge line detection unit 112 detects edge lines from the captured image processed by the video acquisition unit 111 . An edge line refers to a boundary line between light and dark in a captured image, and the contour line of a subject appearing in the captured image corresponds to the edge line. In this embodiment, the edge line includes the outline of the marking line on the road surface in the captured image. The marking lines include various road marking lines drawn on the road (roadway center line, lane boundary line, roadway outer line, pedestrian crossing, etc.), parking frame lines drawn in the parking lot, and the like. The edge line detection range may be the entire range of the captured image, or may be a partial range of the captured image.

分割部113は、エッジ線上において、エッジ線に近似する近似線を組になって構成する複数の直線線分の取得を可能とする分割点を求める。本実施形態において、分割部113は、エッジ線のうち曲率が所定値以上となる位置で分割点を求める。エッジ線のうち曲率が所定値以上となる位置とは、エッジ線の傾きの変化量が所定値より大きくなる区間(曲線区間)に含まれる位置である。これにより、曲線区間と直線区間とを分割し、直線区間を精度良く検出することができる。分割部113は、エッジ線が曲線を含む場合に、少なくとも1つの分割点を求める。分割部113は、エッジ線が直線のみで構成される場合には分割点を求めない。 The dividing unit 113 obtains dividing points on the edge line that enable acquisition of a plurality of straight line segments forming a set of approximate lines that approximate the edge line. In this embodiment, the dividing unit 113 obtains dividing points at positions where the curvature of the edge line is equal to or greater than a predetermined value. A position where the curvature of the edge line is equal to or greater than a predetermined value is a position included in a section (curved section) where the amount of change in the slope of the edge line is greater than the predetermined value. As a result, the curved section and the straight section can be divided, and the straight section can be detected with high accuracy. The dividing unit 113 obtains at least one dividing point when the edge line includes a curved line. The dividing unit 113 does not obtain a dividing point when the edge line is composed only of straight lines.

抽出部114は、分割部113により求めた分割点に基づき直線線分を抽出する。エッジ線上の少なくとも1つの分割点に基づき抽出した複数の直線線分によって、エッジ線に近似する近似線が得られる。近似線は、複数の直線線分の組み合わせで構成され、曲線は含まない。本実施形態では、抽出部114で抽出された複数の直線線分は、記憶部12に記憶され、標示線を検出するために利用される。ただし、これは例示であり、抽出部114で抽出された複数の直線線分は、例えば立体物の検出等に利用されてもよい。 The extraction unit 114 extracts straight line segments based on the division points obtained by the division unit 113 . An approximation line approximating the edge line is obtained by a plurality of straight line segments extracted based on at least one dividing point on the edge line. The approximation line is composed of a combination of straight line segments and does not include curved lines. In this embodiment, the plurality of straight line segments extracted by the extraction unit 114 are stored in the storage unit 12 and used to detect the marking line. However, this is an example, and the plurality of straight line segments extracted by the extracting unit 114 may be used, for example, for detecting a three-dimensional object.

本実施形態によれば、エッジ線が曲線部分を有する場合に、エッジ線の端点間を直線で結んでエッジ線の近似線を求める場合に比べて、エッジ線の形状を適切に捉えることができる。また、本実施形態によれば、エッジ線が曲線部分を有する場合に、最小二乗法によってエッジ線の近似線を求める場合に比べて、エッジ線の形状を適切に捉えることができる。これらの効果については、後述の内容によってより明らかにされる。 According to the present embodiment, when an edge line has a curved portion, the shape of the edge line can be captured more appropriately than in the case where an approximate line of the edge line is obtained by connecting the endpoints of the edge line with straight lines. . Moreover, according to the present embodiment, when the edge line has a curved portion, the shape of the edge line can be properly captured as compared with the case where the approximation line of the edge line is obtained by the method of least squares. These effects will be made clearer by the contents described later.

なお、画像処理装置1は、抽出部114で抽出された直線線分に基づき路面上に設けられる標示線を検出する標示線検出部を更に備えてよい。このような画像処理装置においては、エッジ線の形状を適切に捉えて標示線の検出を行うことができるために、精度良く標示線の検出を行うことができる。 Note that the image processing apparatus 1 may further include a marking line detection unit that detects marking lines provided on the road surface based on the straight line segments extracted by the extraction unit 114 . In such an image processing apparatus, since the shape of the edge line can be properly captured and the marking line can be detected, the marking line can be detected with high accuracy.

図2は、本発明の画像処理装置1によって実行される直線線分抽出処理の大まかな流れを示すフローチャートである。本実施形態においては、直線線分抽出処理は、撮影画像から標示線を検出するために利用される直線線分群を抽出するために行われる。 FIG. 2 is a flow chart showing a rough flow of straight line segment extraction processing executed by the image processing apparatus 1 of the present invention. In this embodiment, straight line segment extraction processing is performed to extract a straight line segment group that is used to detect a marking line from a captured image.

まず、エッジ線検出部112によって、単一のカメラにより取得された撮影画像からエッジ線を検出するエッジ線検出工程が行われる(ステップS1)。なお、本実施形態では、エッジ線検出部112は、濃淡画像に変換された撮影画像からエッジ線を検出する。エッジ線は、通常、複数検出される。ただし、エッジ線は、検出されなかったり、1本しか検出されなかったりする場合も有り得る。エッジ線検出工程の詳細については後述する。 First, the edge line detection unit 112 performs an edge line detection step of detecting edge lines from a photographed image acquired by a single camera (step S1). Note that in the present embodiment, the edge line detection unit 112 detects edge lines from the captured image converted into a grayscale image. A plurality of edge lines are usually detected. However, it is possible that no edge line is detected or only one edge line is detected. Details of the edge line detection process will be described later.

次に、分割部113によって、エッジ線検出工程で検出されたエッジ線上において、分割点を求める分割工程が行われる(ステップS2)。分割点は、エッジ線に近似する近似線を組になって構成する複数の直線線部を得るために求められる。上述のように、エッジ線が曲線を含まない場合(直線である場合)には、分割点は求められない。分割工程は、エッジ線検出部112によって検出された各エッジ線に対して行われる。分割工程の詳細については後述する。 Next, the dividing unit 113 performs a dividing step of obtaining dividing points on the edge lines detected in the edge line detecting step (step S2). The dividing points are obtained in order to obtain a plurality of straight line portions forming pairs of approximate lines that approximate edge lines. As described above, if the edge line does not contain a curve (if it is a straight line), no dividing point is found. A division process is performed for each edge line detected by the edge line detection unit 112 . Details of the dividing step will be described later.

最後に、抽出部114によって、分割工程によって求められた分割点に基づき直線線分を抽出する抽出工程が行われる。直線線分は、エッジ線に近似する近似線を構成する。なお、分割点が求められなかったエッジ線は、直線であると推定されるために、当該エッジ線そのものが直線線分として抽出される。抽出された直線線分は、例えば記憶部12に記憶される。 Finally, the extraction unit 114 performs an extraction step of extracting straight line segments based on the division points obtained in the division step. A straight line segment constitutes an approximation line that approximates an edge line. An edge line for which no dividing point has been found is estimated to be a straight line, so the edge line itself is extracted as a straight line segment. The extracted straight line segments are stored in the storage unit 12, for example.

なお、本実施形態では、抽出工程で抽出された直線線分について、選別が行われる。抽出された直線線分のうち、路面と直交する方向に延びる直線線分を除いた直線線分が標示線を検出するために利用される直線線分群として選別される。 In addition, in the present embodiment, the straight line segments extracted in the extraction step are sorted. Of the extracted straight line segments, straight line segments excluding straight line segments extending in a direction perpendicular to the road surface are selected as a straight line segment group used for detecting marking lines.

図3は、エッジ線検出工程の流れの一例を示すフローチャートである。エッジ線検出用の撮影画像の取得により、予め設定された処理範囲に含まれる各画素に対して同様の処理が繰り返し行われる。換言すると、各画素に対して同じ処理を繰り返すループ処理が行われる。画素毎のループ処理の開始(ステップS11)により、処理対象画素からエッジ点が抽出されるか否かが確認される(ステップS12)。処理対象画素について隣接画素との濃度階調の差が求められることにより画像の明暗の変化が求められ、一定以上の明暗差の変化点がエッジ点として抽出される。 FIG. 3 is a flow chart showing an example of the flow of the edge line detection process. By obtaining a photographed image for edge line detection, the same processing is repeatedly performed for each pixel included in a preset processing range. In other words, loop processing is performed to repeat the same processing for each pixel. By starting loop processing for each pixel (step S11), it is confirmed whether or not an edge point is extracted from the pixel to be processed (step S12). A change in the brightness of the image is obtained by obtaining the difference in density gradation between the pixel to be processed and the adjacent pixel, and points of change in the difference in brightness above a certain level are extracted as edge points.

処理対象画素からエッジ点が抽出された場合(ステップS12でYes)、隣接画素に抽出されたエッジ点があるか否かが確認される(ステップS13)。隣接画素にエッジ点がある場合(ステップS13でYes)、処理対象画素のエッジ点と、隣接画素のエッジ点とを連結する処理が行われ、当該連結処理によって連結された線がエッジ線として登録される(ステップS14)。なお、隣接画素のエッジ点との連結には、例えば輝度勾配の方向等の所定条件に基づき制限が加えられてよい。また、隣接画素のエッジ点が既に登録されたエッジ線を構成している場合、処理対象画素のエッジ点の連結により、既に登録されたエッジ線データが、新たなデータに更新されることになる。 If an edge point is extracted from the pixel to be processed (Yes in step S12), it is checked whether or not there is an extracted edge point in the adjacent pixel (step S13). If there is an edge point in the adjacent pixel (Yes in step S13), processing is performed to connect the edge point of the pixel to be processed and the edge point of the adjacent pixel, and the line connected by the connection processing is registered as an edge line. (step S14). Note that the connection of adjacent pixels with edge points may be restricted based on predetermined conditions such as the direction of the luminance gradient. Further, when the edge points of adjacent pixels form already registered edge lines, the already registered edge line data is updated to new data by connecting the edge points of the pixels to be processed. .

エッジ線の登録処理が行われると、画素毎のループ処理を終了してよいか否かが確認される(ステップS15)。処理範囲に含まれる全ての画素に対してループ処理が完了した場合に、ループ処理を終了すると判断され(ステップS15でYes)、エッジ線検出工程が終了する。一方、処理範囲に含まれる全ての画素に対してループ処理が完了していない場合には、ループ処理を終了しないと判断され(ステップS15でNo)、ステップS12に戻ってループ処理が続けられる。この際、処理対象画素は変更される。 When the edge line registration processing is performed, it is confirmed whether or not the loop processing for each pixel can be terminated (step S15). When the loop processing is completed for all pixels included in the processing range, it is determined that the loop processing is finished (Yes in step S15), and the edge line detection process is finished. On the other hand, if the loop processing has not been completed for all the pixels included in the processing range, it is determined that the loop processing should not end (No in step S15), and the loop processing is continued by returning to step S12. At this time, the pixel to be processed is changed.

なお、画素毎のループ処理中において、処理対象画素からエッジ点が抽出されない場合(ステップS12でNo)、および、隣接画素にエッジ点がない場合(ステップ13でNo)には、エッジ線を形成できない。このために、エッジ線登録が行われることなくステップS15の処理が行われる。 During loop processing for each pixel, if no edge point is extracted from the pixel to be processed (No in step S12) or if there is no edge point in the adjacent pixel (No in step S13), an edge line is formed. Can not. Therefore, the process of step S15 is performed without performing edge line registration.

図4は、エッジ線検出について説明するための図である。例えば、撮影画像中の処理範囲に、図4(a)に示すようなU字状の標示線MLが映っていたとする。この場合、エッジ線検出部112によって実行されるエッジ線検出工程によって、例えば、図4(b)に示すような、一方側端点aと他方側端点bとを有する略L字状のエッジ線ELを検出することができる。 FIG. 4 is a diagram for explaining edge line detection. For example, it is assumed that a U-shaped marking line ML as shown in FIG. 4A appears in the processing range in the captured image. In this case, the edge line detection process executed by the edge line detection unit 112 detects a substantially L-shaped edge line EL having one side end point a and the other side end point b, as shown in FIG. 4B, for example. can be detected.

なお、図4(b)に示すエッジ線ELは、標示線MLから検出されるエッジ線の一例にすぎない。図4(a)に示す標示線MLからは、通常、図4(b)に示すエッジ線ELの他に複数のエッジ線が検出される。また、図4(a)に示す標示線MLから、図4(b)に示すエッジ線ELと異なる形状(例えばU字状)のエッジ線が検出されてもよい。 Note that the edge line EL shown in FIG. 4B is merely an example of the edge line detected from the marking line ML. In addition to the edge line EL shown in FIG. 4(b), a plurality of edge lines are normally detected from the marking line ML shown in FIG. 4(a). Further, an edge line having a shape (for example, U-shaped) different from the edge line EL shown in FIG. 4B may be detected from the marking line ML shown in FIG. 4A.

図5は、分割工程の流れの一例を示すフローチャートである。分割工程では、エッジ線検出工程で検出された各エッジ線に対して同様の処理が繰り返し行われる。換言すると、各エッジ線に対して同様の処理を繰り返すループ処理が行われる。エッジ線毎のループ処理の開始(ステップS21)により、第1分割処理(ステップS22)と第2分割処理(ステップS23)とがこの順番で実行される。 FIG. 5 is a flow chart showing an example of the flow of the division process. In the dividing step, similar processing is repeatedly performed on each edge line detected in the edge line detecting step. In other words, loop processing is performed to repeat the same processing for each edge line. By starting the loop processing for each edge line (step S21), the first division processing (step S22) and the second division processing (step S23) are executed in this order.

第2分割処理が終了すると、エッジ線毎のループ処理を終了してよいか否かが確認される(ステップS24)。エッジ線検出工程で検出した全てのエッジ線に対してループ処理が完了した場合に、ループ処理を終了すると判断され(ステップS24でYes)、分割工程が終了する。一方、エッジ線検出工程で検出した全てのエッジ線に対してループ処理が完了していない場合には、ループ処理を終了しないと判断され(ステップS24でNo)、ステップS22に戻ってループ処理が続けられる。この際、処理対象となるエッジ線は変更される。 When the second division processing is finished, it is checked whether or not the loop processing for each edge line can be finished (step S24). When the loop processing is completed for all the edge lines detected in the edge line detection step, it is determined that the loop processing is finished (Yes in step S24), and the dividing step is finished. On the other hand, if the loop processing has not been completed for all the edge lines detected in the edge line detection step, it is determined that the loop processing is not to end (No in step S24), and the process returns to step S22 to complete the loop processing. can continue. At this time, the edge line to be processed is changed.

図6は、第1分割処理の流れを例示するフローチャートである。図7は、第1分割処理について説明するための図である。図6に示すフローチャートを説明するに際し、理解を容易にするために、図7に示す模式的な例を適宜参照しながら説明を行う。 FIG. 6 is a flowchart illustrating the flow of the first division process. FIG. 7 is a diagram for explaining the first division processing. When explaining the flowchart shown in FIG. 6, the explanation will be made with appropriate reference to the schematic example shown in FIG. 7 in order to facilitate understanding.

図6に示すように、第1分割処理においては、まず、エッジ線の区分化が行われる(ステップS221)。図7を参照して説明する。図7(a)は、エッジ線検出工程で検出されたエッジ線ELの一例を示す。なお、図7(a)に示すエッジ線ELは、図4(b)に示すエッジ線ELと同じものを想定している。図7(a)に示すエッジ線ELに対して区分化が行われるとする。図7(b)に示すように、エッジ線ELの一方側端点aから所定間隔dで区分けが行われ、エッジ線ELが複数の区分に分けられる。図7に示す例では、区分S1から区分S10の10個の区分に分けられる。なお、上述のエッジ線ELの区分けは、例示にすぎない。例えば、エッジ線ELの区分けは、一方側端点aでなく他方側端点bを基準として行われてもよい。 As shown in FIG. 6, in the first division process, edge lines are first segmented (step S221). Description will be made with reference to FIG. FIG. 7A shows an example of edge lines EL detected in the edge line detection process. It is assumed that the edge line EL shown in FIG. 7(a) is the same as the edge line EL shown in FIG. 4(b). Suppose segmentation is performed for the edge line EL shown in FIG. 7(a). As shown in FIG. 7(b), the edge line EL is divided into a plurality of sections from the one end point a of the edge line EL at a predetermined interval d. In the example shown in FIG. 7, it is divided into 10 sections from section S1 to section S10. Note that the division of the edge lines EL described above is merely an example. For example, the division of the edge line EL may be performed based on the other side end point b instead of the one side end point a.

図6に戻って、エッジ線の区分化が行われると、区分毎の方向が算出される(ステップS222)。区分毎の方向は、例えば、各区分において、エッジ線の区分一方側端点と区分他方側端点とを結ぶ直線の方向として求められる。図7(c)には、区分毎の方向が矢印で示されている。なお、区分毎の方向は、別の手法で求められた方向であってよい。例えば、区分毎の方向は、各区分において撮影画像から求められる輝度勾配の方向等であってもよい。 Returning to FIG. 6, once the edge lines are segmented, the direction of each segment is calculated (step S222). The direction of each section is obtained, for example, as the direction of a straight line that connects the end point of the edge line on one side of the section and the end point of the other side of the section. In FIG. 7(c), the direction of each section is indicated by an arrow. Note that the direction for each section may be a direction obtained by another method. For example, the direction of each section may be the direction of the luminance gradient obtained from the captured image in each section.

区分毎の方向が求められると、代表方向が算出される(ステップS223)。代表方向は、例えば、区分毎の方向を統計処理して得られるヒストグラムの最頻値である。ヒストグラムは、区分毎の方向を、一定の角度幅を有する複数の方向階級のいずれかに分類することによって得られる。最も度数が多い方向階級が最頻値であり、代表方向になる。図7に示す例では、区分S1~S8が同一の方向階級に分類され、区分S9、S10はそれぞれ別の方向階級に分類される。このために、区分S1~S8が分類される方向階級が、度数が最も多くなり代表方向になる。 After obtaining the direction for each section, a representative direction is calculated (step S223). The representative direction is, for example, the mode of a histogram obtained by statistically processing the directions of each section. The histogram is obtained by classifying the direction of each segment into one of multiple direction classes with a constant angular width. The direction class with the highest frequency is the mode and becomes the representative direction. In the example shown in FIG. 7, sections S1 to S8 are classified into the same directional class, and sections S9 and S10 are classified into different directional classes. For this reason, the direction class into which the sections S1 to S8 are classified has the highest frequency and becomes the representative direction.

代表方向が求められると、以下、各区分に対して同様の処理が繰り返し行われる。換言すると、各区分に対して同様の処理を繰り返すループ処理が行われる。区分毎のループ処理の開始(ステップS224)により、処理対象区分の方向と代表方向との方向比較が行われる(ステップS225)。本実施形態では、比較により、処理対象区分の方向が代表方向と一致するか否かが確認される。詳細には、代表方向は一定の角度幅を有するために、処理対象区分の方向が代表方向を示す角度範囲内である場合に、処理対象区分の方向が代表方向と一致すると判断される。処理対象区分の方向が代表方向を示す角度範囲外である場合に、処理対象区分の方向が代表方向と一致しないと判断される。 After obtaining the representative direction, the same processing is repeated for each segment. In other words, loop processing is performed to repeat the same processing for each segment. By starting the loop processing for each section (step S224), direction comparison between the direction of the section to be processed and the representative direction is performed (step S225). In the present embodiment, it is checked whether or not the direction of the section to be processed matches the representative direction by comparison. Specifically, since the representative direction has a certain angular width, it is determined that the direction of the processing target section matches the representative direction when the direction of the processing target section is within the angle range indicating the representative direction. If the direction of the section to be processed is outside the angle range indicating the representative direction, it is determined that the direction of the section to be processed does not match the representative direction.

方向比較の結果、代表方向との関係が、先(直前)に処理を行った区分の比較結果と比べて変化したか否かが判断される(ステップS226)。例えば、先に処理を行った区分の方向が代表方向と一致すると判断され、処理対象区分の方向が代表方向と一致すると判断された場合には、代表方向との関係が変化しないと判断される。一方、先に処理を行った区分の方向が代表方向と一致すると判断され、処理対象区分の方向が代表方向と一致しないと判断された場合には、代表方向との関係が変化したと判断される。 As a result of direction comparison, it is determined whether or not the relationship with the representative direction has changed compared to the comparison result of the previously (immediately) processed segment (step S226). For example, if it is determined that the direction of the previously processed section matches the representative direction, and if it is determined that the direction of the section to be processed matches the representative direction, it is determined that the relationship with the representative direction does not change. . On the other hand, if it is determined that the direction of the previously processed section matches the representative direction and the direction of the section to be processed does not match the representative direction, it is determined that the relationship with the representative direction has changed. be.

代表方向との関係が変化したと判断される場合には(ステップS226でYes)、当該処理対象区分でエッジ線を分割する(ステップS227)。詳細には、先(直前)に判断を行った区分と、処理対象区分との境界に分割点を設定する。一方、代表方向との関係が変化しないと判断される場合には(ステップS226でNo)、分割点を設定することなく、後述のステップS228に進む。 If it is determined that the relationship with the representative direction has changed (Yes in step S226), the edge line is divided in the processing target section (step S227). Specifically, a dividing point is set at the boundary between the previously (immediately) determined section and the processing target section. On the other hand, if it is determined that the relationship with the representative direction does not change (No in step S226), the process proceeds to step S228, which will be described later, without setting a division point.

分割点を設定した場合、又は、分割点を設定しないと判断した場合には、区分毎のループ処理を終了してよいか否かが確認される(ステップS228)。全ての区分に対してループ処理が完了した場合に、ループ処理を終了すると判断され(ステップS228でYes)、第1分割処理は終了する。一方、全ての区分に対してループ処理が完了していない場合には、ループ処理を終了しないと判断され(ステップS228でNo)、ステップS225に戻ってループ処理が続けられる。この際、処理対象となる区分は変更される。 When the dividing point is set, or when it is determined that the dividing point is not set, it is confirmed whether or not the loop processing for each segment can be terminated (step S228). When the loop processing is completed for all segments, it is determined that the loop processing is to be terminated (Yes in step S228), and the first division processing is terminated. On the other hand, if the loop processing has not been completed for all segments, it is determined that the loop processing should not be terminated (No in step S228), and the loop processing is continued by returning to step S225. At this time, the classification to be processed is changed.

図7に示す例では、区分S1~S8は、方向が代表方向と一致すると判断される。このために、これらの区分の処理中に代表方向との関係が変化したと判断されることはなく、分割点Pは設定されない。一方、区分S9は、方向が代表方向と一致しないと判断される。このために、区分S9の処理において、代表方向との関係が変化したと判断され、図7(d)に示すように区分S8と区分S9との境界に分割点Pが設定される。なお、区分S10は、方向が代表方向と一致しないと判断される。このために、区分S10の処理において、代表方向との関係は変化していないと判断され、分割点Pの設定は行われない。 In the example shown in FIG. 7, the directions of sections S1 to S8 are determined to match the representative direction. For this reason, it is not determined that the relationship with the representative direction has changed during the processing of these divisions, and the dividing point P is not set. On the other hand, in section S9, it is determined that the direction does not match the representative direction. For this reason, in the processing of section S9, it is determined that the relationship with the representative direction has changed, and a dividing point P is set at the boundary between section S8 and section S9 as shown in FIG. 7(d). Note that the direction of section S10 is determined not to match the representative direction. Therefore, in the processing of section S10, it is determined that the relationship with the representative direction has not changed, and the division point P is not set.

以上のように、分割部113は、エッジ線ELを所定位置で複数に区分けした区分毎に求められる方向情報に基づいて分割点Pを求める。これによると、例えば直線と曲線とが含まれるエッジ線ELに対して、直線部分と曲線部分との境界近傍に分割点を設定することができ、エッジ線から直線部分だけを取り出すことが可能になる。また、方向情報に応じてエッジ線に対して細かく分割点を設定することにより、エッジ線に近似する近似線を直線線分の組み合わせで適切に得ることが可能になる。 As described above, the dividing unit 113 obtains the dividing point P based on the direction information obtained for each section obtained by dividing the edge line EL into a plurality of sections at predetermined positions. According to this, for example, for an edge line EL including a straight line and a curved line, a dividing point can be set near the boundary between the straight line and the curved line, and only the straight line can be extracted from the edge line. Become. Further, by finely setting dividing points for the edge line according to the direction information, it is possible to appropriately obtain an approximation line that approximates the edge line by combining straight line segments.

なお、以上においては、処理対象区分の方向と代表方向との比較(ステップS225)において、方向が一致するか否かのみを判断する構成としたが、これは例示である。当該比較において、方向が一致するか否かに加えて方向のずれの大きさも判断してよい。この場合には、次のステップS226で、方向のずれの大きさを考慮して代表方向との関係変化を判断することができ、分割点をより細かく設定することが可能になる。例えば、図7に示す例では、区分S8と区分S9との境界だけでなく、区分S9と区分S10との境界にも分割点Pを設定することが可能になる。 In the above description, it is determined only whether or not the directions match in the comparison between the direction of the section to be processed and the representative direction (step S225), but this is an example. In the comparison, the magnitude of the orientation deviation may also be determined in addition to whether the orientations match. In this case, in the next step S226, it is possible to determine a change in the relationship with the representative direction by considering the magnitude of the deviation of the direction, and it becomes possible to set the dividing points more finely. For example, in the example shown in FIG. 7, it is possible to set the division point P not only at the boundary between the sections S8 and S9, but also at the boundary between the sections S9 and S10.

また、以上においては、区分S1から代表方向との関係を比較する構成について説明したが、これは例示にすぎず、例えば、区分S10から代表方向との関係を比較する構成等としてもよい。 In the above description, the configuration for comparing the relationship from section S1 to the representative direction has been described, but this is merely an example. For example, the configuration may be such that the relationship from section S10 to the representative direction is compared.

図8は、第2分割処理の流れを例示するフローチャートである。図9は、第2分割処理について説明するための図である。図8に示すフローチャートを説明するに際し、理解を容易にするために、図9に示す模式的な例を適宜参照しながら説明を行う。 FIG. 8 is a flowchart illustrating the flow of the second division process. FIG. 9 is a diagram for explaining the second division processing. When explaining the flowchart shown in FIG. 8, the explanation will be made with appropriate reference to the schematic example shown in FIG. 9 in order to facilitate understanding.

図8に示すように、第2分割処理は、各分割点に対して同様の処理が繰り返し行われる。換言すると、各分割点に対して同じ処理を繰り返すループ処理が行われる。なお、本実施形態では、分割点は、第1分割処理によって求められた分割点だけでなく、第2分割処理の途中で得られた分割点もループ処理の対象になる。 As shown in FIG. 8, in the second division processing, similar processing is repeatedly performed for each division point. In other words, loop processing is performed to repeat the same processing for each division point. Note that, in the present embodiment, not only the division points obtained by the first division processing, but also the division points obtained during the second division processing are subjected to the loop processing.

分割点毎のループ処理の開始(ステップS230)により、処理対象分割点に基づき仮直線を設定する(ステップS231)。仮直線は、処理対象分割点と、処理対象分割点と隣り合う所定の点とを結ぶ直線である。所定の点は、エッジ線の端点又は分割点である。仮直線は2つ設定される。 By starting loop processing for each division point (step S230), provisional straight lines are set based on the division points to be processed (step S231). A provisional straight line is a straight line that connects a dividing point to be processed and a predetermined point adjacent to the dividing point to be processed. The predetermined point is the end point or division point of the edge line. Two temporary straight lines are set.

図9(a)において、実線はエッジ線ELである。図9(a)に示すエッジ線ELは、図4(b)および図7(a)に示すエッジ線ELと同じものを想定している。分割点Pは、図6に示すフローチャートによって求められた分割点である。図9に示す例では、図9(a)に破線で示すように、分割点Pに基づき2つの仮直線VLが設定される。一方は、分割点Pとエッジ線ELの一方側端点aと結ぶ第1仮直線VL1であり、他方は、分割点Pとエッジ線ELの他方側端点bと結ぶ第2仮直線VL2である。 In FIG. 9A, the solid line is the edge line EL. The edge line EL shown in FIG. 9(a) is assumed to be the same as the edge line EL shown in FIGS. 4(b) and 7(a). A division point P is a division point determined by the flow chart shown in FIG. In the example shown in FIG. 9, two provisional straight lines VL are set based on the dividing point P, as indicated by broken lines in FIG. 9(a). One is a first provisional straight line VL1 connecting the dividing point P and one end point a of the edge line EL, and the other is a second provisional straight line VL2 connecting the dividing point P and the other end point b of the edge line EL.

仮直線を設定すると、図8に示すように、各仮直線に対して同様の処理が繰り返し行われる。換言すると、各仮直線に対して同じ処理を繰り返すループ処理が行われる。仮直線毎のループ処理の開始(ステップS232)により、エッジ線上の点から仮直線までの最大垂線長さを探索する処理が行われる(ステップS233)。 Once the provisional lines are set, similar processing is repeatedly performed for each provisional line, as shown in FIG. In other words, loop processing is performed to repeat the same processing for each provisional line. When the loop processing for each provisional line is started (step S232), a process of searching for the maximum perpendicular length from a point on the edge line to the provisional line is performed (step S233).

探索処理の一例について、図9(b)を参照して説明する。探索処理に際しては、仮直線VLに対して垂線PLが設定される。この垂線PLの位置を仮直線VLに沿って動かす。垂線PLの位置の移動に合わせて、仮直線VLと垂線PLとの交点と、エッジ線ELと垂線PLとの交点との距離を適宜求める。そして、例えば山登り法等の手法を用いて、当該距離の最大値を求める。 An example of search processing will be described with reference to FIG. In the search process, a perpendicular line PL is set with respect to the temporary straight line VL. The position of this perpendicular PL is moved along the provisional straight line VL. In accordance with the movement of the position of the perpendicular PL, the distance between the intersection of the temporary straight line VL and the perpendicular PL and the intersection of the edge line EL and the perpendicular PL is obtained as appropriate. Then, the maximum value of the distance is obtained using a technique such as a hill-climbing method.

最大垂線長が求められると、最大垂線長が予め設定された第1閾値以上であるか否かが確認される(ステップS234)。第1閾値は、エッジ線に分割点を設定することが必要であるか否かを判断するための指標の一つとして設定される。最大垂線長が第1閾値より小さい場合(ステップS234でNo)、分割点の設定が不要であると判断されて後述のステップS238に進む。一方、最大垂線長が第1閾値以上である場合(ステップS234でYes)、垂線の位置が最大垂線長となる位置でエッジ線が区分化される(ステップS235)。すなわち、最大垂線長となる垂線とエッジ線との交点を境にエッジ線が区分けされる。 After obtaining the maximum perpendicular length, it is checked whether the maximum perpendicular length is equal to or greater than a preset first threshold (step S234). The first threshold is set as one of the indices for determining whether it is necessary to set the dividing point on the edge line. If the maximum perpendicular length is smaller than the first threshold (No in step S234), it is determined that setting of division points is unnecessary, and the process proceeds to step S238, which will be described later. On the other hand, if the maximum perpendicular length is greater than or equal to the first threshold (Yes in step S234), the edge line is segmented at the position of the maximum perpendicular length (step S235). That is, the edge lines are divided at the intersection of the perpendicular line having the maximum length of the perpendicular line and the edge line.

図9に示す例では、第1仮直線VL1はエッジ線ELと重なり、最大垂線長が第1閾値より小さくなる。このために、第1仮直線VL1の処理によってエッジ線ELの区分けは行われない。一方、第2仮直線VL2については、最大垂線長が第1閾値以上になる。このために、図9(b)に示すように、最大垂線長となる垂線PLとエッジ線ELとの交点CPでエッジ線ELが区分けされる。 In the example shown in FIG. 9, the first temporary straight line VL1 overlaps the edge line EL, and the maximum perpendicular length is smaller than the first threshold. For this reason, the edge line EL is not divided by processing the first provisional straight line VL1. On the other hand, the maximum perpendicular length of the second provisional straight line VL2 is greater than or equal to the first threshold. For this reason, as shown in FIG. 9(b), the edge line EL is divided at the intersection point CP between the perpendicular line PL having the maximum length of the perpendicular line and the edge line EL.

エッジ線の区分けが行われると、区分けされた2つの区分間のなす角が第2閾値以下であるか否かが確認される(ステップS236)。2つの区分のうちの一方は、エッジ線の区分けが行われた点と、仮直線の一方端点とで挟まれるエッジ線の区間である。2つの区分のうちの他方は、エッジ線の区分けが行われた点と、仮直線の他方端点とで挟まれるエッジ線の区間である。2つの区分間のなす角は、一方側区分の2つの端点間を結ぶ直線と、他方側区分の2つの端点間を結ぶ直線とのなす角である。図9に示す例において、処理対象仮直線が第2仮直線VL2であるとする。この場合、一方側区分の2つの端点間を結ぶ直線は、交点CPと分割点Pとを結ぶ直線である。また、他方側区分の2つの端点間を結ぶ直線は、交点CPと他方側端点bとを結ぶ直線である。これら2つの直線のなす角が第2閾値以下であるか否かが確認される。 After the edge line is segmented, it is checked whether or not the angle formed between the two segmented segments is equal to or less than a second threshold (step S236). One of the two segments is an edge line segment sandwiched between the edge line segmentation point and one end point of the provisional straight line. The other of the two segments is the segment of the edge line sandwiched between the point at which the edge line was segmented and the other end point of the provisional straight line. The angle formed between two sections is the angle formed by a straight line connecting two end points of one side section and a straight line connecting two end points of the other side section. In the example shown in FIG. 9, it is assumed that the temporary straight line to be processed is the second temporary straight line VL2. In this case, the straight line connecting the two end points of the one-side section is the straight line connecting the intersection point CP and the division point P. Also, the straight line that connects the two end points of the other-side section is the straight line that connects the intersection point CP and the other-side end point b. It is checked whether the angle formed by these two straight lines is less than or equal to a second threshold.

第2閾値も、第1閾値と同様に、エッジ線に分割点を設定することが必要であるか否かを判断するための指標の一つとして設定される。ただし、第2閾値は第1閾値とは別の視点で設定されるものであり、第1閾値とは異なる値である。2つの区分間のなす角が第2閾値より大きい場合(ステップS236でNo)、分割点の設定が不要であると判断されて後述のステップS238に進む。一方、2つの区分間のなす角が第2閾値以下である場合(ステップS236でYes)、区分けを行った位置に分割点を設定してエッジ線の分割を行う(ステップS237)。なお、ステップS236は、省略されてもよい。 Like the first threshold, the second threshold is also set as one of the indices for determining whether or not it is necessary to set the dividing point on the edge line. However, the second threshold is set from a viewpoint different from that of the first threshold, and is a value different from that of the first threshold. If the angle formed between the two sections is greater than the second threshold (No in step S236), it is determined that setting of division points is unnecessary, and the process proceeds to step S238, which will be described later. On the other hand, if the angle formed between the two sections is equal to or less than the second threshold (Yes in step S236), a division point is set at the division position to divide the edge line (step S237). Note that step S236 may be omitted.

分割点を設定した場合、又は、分割点を設定しないと判断した場合には、仮直線毎のループ処理を終了してよいか否かが確認される(ステップS238)。全ての仮直線に対してループ処理が完了した場合に、ループ処理を終了すると判断される。一方、全ての仮直線に対してループ処理が完了していない場合に、ループ処理を終了しないと判断され(ステップS238でNo)、ステップS233に戻って仮直線毎のループ処理が続けられる。この際、処理対象となる仮直線は変更される。 When the dividing point is set, or when it is determined that the dividing point is not set, it is confirmed whether or not the loop processing for each provisional straight line can be terminated (step S238). When the loop processing is completed for all provisional straight lines, it is determined that the loop processing is finished. On the other hand, if the loop processing has not been completed for all provisional lines, it is determined that the loop processing is not to end (No in step S238), and the process returns to step S233 to continue the loop processing for each provisional line. At this time, the provisional straight line to be processed is changed.

仮直線毎のループ処理を終了すると判断された場合(ステップS238でYes)、分割点毎のループ処理を終了してよいか否かが確認される(ステップS238)。設定された全ての分割点に対してループ処理が完了した場合に、ループ処理を終了すると判断され(ステップS239でYes)、第2分割処理が終了する。なお、ステップS237で分割点が追加された場合には、当該分割点もループ処理の対象になる。一方、全ての分割点に対してループ処理が完了していない場合に、ループ処理を終了しないと判断され(ステップS239でNo)、ステップS231に戻って分割点毎のループ処理が続けられる。この際、処理対象となる分割点は変更される。 If it is determined that the loop processing for each provisional line should be terminated (Yes in step S238), it is confirmed whether or not the loop processing for each division point may be terminated (step S238). When the loop processing is completed for all the set division points, it is determined that the loop processing is finished (Yes in step S239), and the second division processing is finished. Note that if a division point is added in step S237, the division point is also subject to loop processing. On the other hand, if the loop processing has not been completed for all division points, it is determined that the loop processing should not end (No in step S239), and the process returns to step S231 to continue the loop processing for each division point. At this time, the division point to be processed is changed.

図9に示す例では、対象仮直線が第1仮直線である場合には、図8のステップS234で最大垂線長が第1閾値より小さいと判断されるために、分割点Pは設定されない。一方、対象仮直線が第2仮直線VL2である場合に、新たに分割点Pが設定される。すなわち、図9(c)に示すように、エッジ線ELには、第1分割点P1と第2分割点P2とが設定される。なお、第2分割点P2の設定により、新たに仮直線の設定が行われて、分割点の更なる設定に関する処理が行われるが、この処理では、更なる分割点の設定を行わないと判断される。 In the example shown in FIG. 9, if the target provisional line is the first provisional line, the division point P is not set because it is determined in step S234 in FIG. 8 that the maximum perpendicular length is smaller than the first threshold. On the other hand, when the target provisional straight line is the second provisional straight line VL2, a new dividing point P is set. That is, as shown in FIG. 9(c), a first dividing point P1 and a second dividing point P2 are set on the edge line EL. By setting the second dividing point P2, a new provisional straight line is set, and processing for further setting of dividing points is performed. be done.

2つの分割点P1、P2の設定により、図9(d)に示すように、エッジ線ELを近似する近似線を組になって構成する3つの直線線分LSが抽出される。詳細には、エッジ線ELの一方側端点aと第1分割点P1とを結ぶ第1直線線分LS1と、第1分割点P1と第2分割点P2とを結ぶ第2直線線分LS2と、第2分割点P2とエッジ線ELの他方側端点bとを結ぶ第3直線線分LS3とが抽出される。抽出された3つの直線線分LS1~LS3は、標示線の検出に利用される。 By setting the two dividing points P1 and P2, as shown in FIG. 9(d), three straight line segments LS are extracted as a set of approximation lines that approximate the edge line EL. Specifically, a first straight line segment LS1 connecting one end point a of the edge line EL and the first dividing point P1, and a second straight line segment LS2 connecting the first dividing point P1 and the second dividing point P2. , and a third straight line segment LS3 connecting the second dividing point P2 and the end point b on the other side of the edge line EL are extracted. The three extracted straight line segments LS1 to LS3 are used to detect the marking line.

以上のように、分割部113は、先に求めた分割点Pに応じて設定される仮直線とエッジ線ELとに基づきエッジ線ELを更に分割するか否かを判断する。これによると、複数の直線線分で構成されるエッジ線ELに近似する近似線を、よりエッジ線の形状に近づけることが可能である。このために、直線線分を利用した標示線の検出精度を向上することができる。 As described above, the dividing unit 113 determines whether or not to further divide the edge line EL based on the provisional straight line and the edge line EL set according to the dividing point P previously obtained. According to this, it is possible to make the approximation line that approximates the edge line EL composed of a plurality of straight line segments closer to the shape of the edge line. For this reason, it is possible to improve the detection accuracy of the indicating line using the straight line segment.

<2.駐車支援システム>
次に、本発明の画像処理装置が適用される駐車支援システムについて説明する。なお、以下の説明では、車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方向」と呼ぶ。また、車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」と呼ぶ。また、本発明の画像処理装置を含む駐車支援システムを搭載している車両を「自車両」と呼ぶ。
<2. Parking assistance system>
Next, a description will be given of a parking assistance system to which the image processing device of the present invention is applied. In the following description, the straight traveling direction of the vehicle, which is the direction from the driver's seat toward the steering wheel, is referred to as the "forward direction." Also, the direction in which the vehicle travels straight ahead and is directed from the steering wheel toward the driver's seat is called the "rearward direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and directed from the right side to the left side of the driver who is facing forward is referred to as the "left direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and from the left side to the right side of the driver who is facing forward is referred to as the "right direction." A vehicle equipped with a parking assistance system including the image processing device of the present invention is referred to as "own vehicle".

図10は、本発明の画像処理装置が適用された駐車支援システムの一構成例を示す図である。図10に示すように、駐車支援システムは、画像処理装置1Aと、撮影部2と、駐車制御ECU(Electronic Control Unit)3と、EPS(Electric Power Steering)-ECU4と、車載ネットワーク5と、を備える。 FIG. 10 is a diagram showing one configuration example of a parking assistance system to which the image processing device of the present invention is applied. As shown in FIG. 10, the parking assistance system includes an image processing device 1A, an imaging unit 2, a parking control ECU (Electronic Control Unit) 3, an EPS (Electric Power Steering)-ECU 4, and an in-vehicle network 5. Prepare.

画像処理装置1Aは、撮影部2に接続されるとともに、駐車制御ECU3およびEPS-ECU4にCAN(Controller Area Network)などの車載ネットワーク5を介して接続される。なお、画像処理装置1Aには、例えば、液晶ディスプレイ等の表示装置が接続されることが好ましい。画像処理装置1Aは、撮影画像に目標駐車位置を示す指標を重畳した表示画像を生成して、表示装置に表示させる処理を行うのが好ましい。 The image processing device 1A is connected to the photographing unit 2, and is also connected to the parking control ECU 3 and the EPS-ECU 4 via an in-vehicle network 5 such as a CAN (Controller Area Network). A display device such as a liquid crystal display is preferably connected to the image processing device 1A. The image processing device 1A preferably generates a display image in which an index indicating the target parking position is superimposed on the captured image, and displays the image on the display device.

撮影部2は、自車両の周辺を撮影するカメラを備える。カメラのレンズは、例えば魚眼レンズである。撮影部2は、自車両の側方に設けられるサイドカメラ20を備える。サイドカメラ20は、例えば自車両のドアミラー等に設けられる。サイドカメラ20は、左サイドカメラと右サイドカメラとを含むことが好ましい。左サイドカメラは、光軸が自車両の左右方向に沿っており、自車両の左方向を撮影する。右サイドカメラは、光軸が自車両の左右方向に沿っており、自車両の右方向を撮影する。なお、撮影部2は、サイドカメラ20の他に、自車両の前方を撮影するフロントカメラや、自車両の後方を撮影するバックカメラを備えることが好ましい。 The photographing unit 2 includes a camera for photographing the surroundings of the own vehicle. The camera lens is, for example, a fisheye lens. The imaging unit 2 includes a side camera 20 provided on the side of the own vehicle. The side camera 20 is provided, for example, on a door mirror of the own vehicle. The side cameras 20 preferably include a left side camera and a right side camera. The left side camera has an optical axis along the left-right direction of the own vehicle, and photographs the left direction of the own vehicle. The right side camera has an optical axis along the left-right direction of the own vehicle, and photographs the right direction of the own vehicle. In addition to the side cameras 20, the photographing unit 2 preferably includes a front camera for photographing the front of the vehicle and a back camera for photographing the rear of the vehicle.

画像処理装置1Aは、自車両の周辺を撮影するカメラで撮影された撮影画像を処理する。画像処理装置1Aは、上述した画像処理装置1(図1参照)の構成とほぼ同じである。ただし、制御部11が記憶部12に記憶されるコンピュータプログラムの実行により実現する機能として、区画線検出部115、認識部116、および、管理部117が追加されている。 The image processing device 1A processes an image captured by a camera that captures the surroundings of the own vehicle. The image processing apparatus 1A has substantially the same configuration as the image processing apparatus 1 (see FIG. 1) described above. However, a marking line detection unit 115 , a recognition unit 116 , and a management unit 117 are added as functions realized by the control unit 11 executing a computer program stored in the storage unit 12 .

区画線検出部115は、抽出部114で抽出された直線線分に基づき、駐車枠を構成する区画線(駐車枠線)を検出する。なお、区画線は駐車場の舗装面に白線や黄線などで描かれ、駐車スペースを区画する。区画線は標示線の一例である。区画線検出部115は標示線検出部の一例である。区画線検出部115は、例えば、所定間隔をあけて互いに平行配置される2つの直線線分で挟まれる領域を区画線として検出する。所定間隔は、例えば、一般公共用の標準的な駐車場で使用される区画線の情報に基づき適宜決定される。 The partition line detection unit 115 detects the partition line (parking frame line) that forms the parking frame based on the straight line segment extracted by the extraction unit 114 . Demarcation lines are drawn in white or yellow lines on the paved surface of the parking lot to demarcate the parking space. A partition line is an example of a marking line. The lane marking detection unit 115 is an example of a marking line detection unit. The marking line detection unit 115 detects, as a marking line, an area sandwiched by two straight line segments arranged parallel to each other with a predetermined interval, for example. The predetermined interval is appropriately determined, for example, based on information on lane markings used in standard parking lots for general public use.

認識部116は、区画線検出部115で検出した区画線情報に基づき駐車枠を認識する。認識部116は、2つの区画線間の平行度や幅等を求め、これらの結果に基づき駐車枠を認識する。例えば、認識部116は、所定間隔をあけて平行配置される2本の区画線間の領域を駐車枠として認識する。所定間隔は、例えば、駐車場に関する法令等で規定される一般公共用の標準的な駐車領域の幅である。 The recognition unit 116 recognizes the parking frame based on the lane marking information detected by the lane marking detection unit 115 . The recognition unit 116 obtains the parallelism, width, etc. between the two lane markings, and recognizes the parking frame based on these results. For example, the recognition unit 116 recognizes an area between two lane markings arranged in parallel with a predetermined interval as a parking frame. The predetermined interval is, for example, the width of a standard parking area for general public use, which is stipulated by laws and regulations related to parking lots.

管理部117は、認識部116で認識された駐車枠に関する情報を管理する。駐車枠に関する情報は、例えば複数の頂点座標の組み合わせとして管理される。管理部117は、駐車枠に関する情報を枠管理情報として記憶部12に記憶し、枠管理情報を適宜更新する。管理部117は、例えば、撮影画像から取得される駐車枠に関する観測情報や、自車両の移動量から推定される駐車枠に関する推定情報に基づいて枠管理情報を更新する。なお、自車両の移動量は、車載ネットワーク5から取得される自車両Vの舵角、車速、シフトなどの情報から求めることができる。また、管理部117は、例えば、自車両が停止した時点で自車両に最も近い空き駐車枠を駐車すべき場所として目標駐車位置の算出を行う。 The management unit 117 manages information regarding the parking frame recognized by the recognition unit 116 . Information about parking frames is managed, for example, as a combination of a plurality of vertex coordinates. The management unit 117 stores information about the parking frame in the storage unit 12 as frame management information, and updates the frame management information as appropriate. The management unit 117 updates the parking space management information based on, for example, observation information about the parking space acquired from the captured image and estimated information about the parking space estimated from the amount of movement of the own vehicle. The amount of movement of the own vehicle can be obtained from information such as the steering angle, vehicle speed, and shift of the own vehicle V acquired from the in-vehicle network 5 . In addition, the management unit 117 calculates the target parking position, for example, as a place where the vehicle should be parked in an empty parking space that is closest to the vehicle when the vehicle stops.

図11は、本実施形態の駐車支援システムの動作について説明するための模式図である。図11は、自車両Vが駐車場内に進入した状態を示す。画像処理装置1Aは、例えば自車両Vの車速が所定速度以下になった場合に駐車枠PSを認識するための処理を開始する。画像処理装置1Aは、サイドカメラ20から得られる撮影画像を所定時間間隔で取得する。 FIG. 11 is a schematic diagram for explaining the operation of the parking assistance system of this embodiment. FIG. 11 shows a state in which the own vehicle V has entered the parking lot. 1 A of image processing apparatuses start the process for recognizing parking frame PS, for example, when the vehicle speed of the own vehicle V becomes below predetermined speed. The image processing device 1A acquires captured images obtained from the side camera 20 at predetermined time intervals.

画像処理装置1Aは、各撮影画像について、エッジ線の検出に基づき直線線分を抽出し、区画線SLの検出を行う。図11に示す例では、左サイドカメラ20Lから得られる撮影画像により区画線SLを検出することができる。画像処理装置1Aは、検出した区画線SLの情報に基づき駐車枠PSを認識し、認識した駐車枠PSの情報を管理する。図11に示す例では、自車両Vの左側方に複数の駐車枠PSが存在することが認識され、自車両Vの位置の移動に合わせて駐車枠PSの位置情報も適宜更新される。 The image processing device 1A extracts straight line segments from each captured image based on detection of edge lines, and detects lane markings SL. In the example shown in FIG. 11, the marking line SL can be detected from the captured image obtained from the left side camera 20L. The image processing device 1A recognizes the parking frame PS based on the information of the detected lane marking SL, and manages the information of the recognized parking frame PS. In the example shown in FIG. 11, it is recognized that a plurality of parking frames PS exist on the left side of the own vehicle V, and the position information of the parking frames PS is updated as appropriate according to the movement of the position of the own vehicle V.

画像処理装置1Aは、自車両Vが停止した時点で自車両Vに最も近い空き駐車枠PSを駐車すべき場所として目標駐車位置の算出を行う。目標駐車位置情報は、駐車制御ECU3に送信される。駐車制御ECU3は、画像処理装置1から受信した目標駐車位置と、不図示のクリアランスソナーセンサの出力とに基づいてステアリング操舵量を算出し、ステアリング操舵量に関する情報をEPS-ECU4に送信する。EPS-ECU4は、駐車制御ECU3から受け取ったステアリング操舵量に関する情報に基づいて自車両Vの駐車動作時に自動操舵を行う。なお、本実施形態では、アクセル操作及びブレーキ操作はドライバーが担う。 The image processing device 1A calculates the target parking position as a place to park the vacant parking frame PS closest to the vehicle V when the vehicle V stops. Target parking position information is transmitted to parking control ECU3. The parking control ECU 3 calculates a steering amount based on the target parking position received from the image processing device 1 and the output of a clearance sonar sensor (not shown), and transmits information on the steering amount to the EPS-ECU 4 . The EPS-ECU 4 performs automatic steering when the own vehicle V is parked based on the information about the steering amount received from the parking control ECU 3 . In addition, in this embodiment, the driver is in charge of the accelerator operation and the brake operation.

本実施形態では、撮影画像から検出されるエッジ線が曲線部分を含む場合でも、エッジ線の形状を適切に反映した直線線分だけを抽出して区画線の検出を行うことができる。このために、区画線の不適切な検出によって駐車枠の形状を誤認識したり、駐車枠を検出することができなかったりすることを抑制することができる。この結果、駐車支援時において、目標駐車位置をずれなく高精度に推定することが可能になる。また、駐車支援時に、車載の表示装置の画面に表示される駐車枠が実際の駐車枠からずれることを抑制することができ、ユーザが不安を感じることを抑制することができる。 In this embodiment, even when edge lines detected from a captured image include curved portions, it is possible to detect lane markings by extracting only straight line segments that appropriately reflect the shape of the edge lines. For this reason, it is possible to prevent erroneous recognition of the shape of the parking frame or failure to detect the parking frame due to inappropriate detection of the lane marking. As a result, during parking assistance, it is possible to estimate the target parking position with high accuracy without deviation. In addition, during parking assistance, it is possible to prevent the parking frame displayed on the screen of the display device installed in the vehicle from deviating from the actual parking frame, thereby preventing the user from feeling uneasy.

<3.留意事項>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
<3. Notes>
Various modifications can be made to the various technical features disclosed in this specification without departing from the gist of the technical creation in addition to the above-described embodiments. That is, the above embodiments should be considered as examples in all respects and not restrictive, and the technical scope of the present invention is not defined by the description of the above embodiments, but by the scope of claims. All changes that come within the meaning and range of equivalency of the claims are to be understood. In addition, multiple embodiments and modifications shown in this specification may be implemented in combination to the extent possible.

以上においては、分割部113が第1分割処理と第2分割処理とを行う構成としたが、これは例示である。例えば、分割部113は第1分割処理のみを行う構成であってもよい。 In the above description, the dividing unit 113 is configured to perform the first dividing process and the second dividing process, but this is an example. For example, the dividing unit 113 may be configured to perform only the first dividing process.

また、分割部113は、第2分割処理のみを行う構成であってもよい。この場合には、まず、分割部113は、エッジ線検出部112で検出したエッジ線の2つの端点を結んだ直線とエッジ線とに基づき分割点を求める。分割点の詳細な求め方は、図8に示すステップS233からステップS237と同様の処理が行われてよい。こうして1つ目の分割点を求めた後は、図8に示す処理と同じ処理が行われればよい。この場合においても、エッジ線上に少なくとも1つの分割点を設定して、エッジ線の形状に近い近似線を複数の直線線分の組によって構成することができる。 Moreover, the dividing unit 113 may be configured to perform only the second dividing process. In this case, first, the dividing unit 113 obtains a dividing point based on the edge line and a straight line connecting two endpoints of the edge line detected by the edge line detecting unit 112 . As for the detailed method of obtaining the dividing points, the same processing as in steps S233 to S237 shown in FIG. 8 may be performed. After obtaining the first division point in this manner, the same processing as that shown in FIG. 8 may be performed. Even in this case, at least one dividing point can be set on the edge line, and an approximation line close to the shape of the edge line can be formed by a set of a plurality of straight line segments.

1、1A・・・画像処理装置
20・・・サイドカメラ(カメラ)
112・・・エッジ線検出部
113・・・分割部
114・・・抽出部
115・・・区画線検出部(標示線検出部)
EL・・・エッジ線
LS・・・直線線分
ML・・・標示線
P・・・分割点
PS・・・駐車枠
SL・・・区画線(標示線)
V・・・自車両(車両)
VL・・・仮直線
1, 1A... Image processing device 20... Side camera (camera)
112... Edge line detection unit 113... Division unit 114... Extraction unit 115... Marking line detection unit (marking line detection unit)
EL ... edge line LS ... straight line segment ML ... marking line P ... division point PS ... parking frame SL ... lane marking (marking line)
V: Own vehicle (vehicle)
VL・・・temporary straight line

Claims (8)

路面上に設けられる標示線を検出する制御部を備える画像処理装置であって、
前記制御部は、
撮影画像から前記標示線の輪郭線の候補となるエッジ線を検出
前記エッジ線を複数に区分けする区分化を行い、
前記エッジ線上において、区分毎に求められる方向情報に基づいて第1の分割点を求め
前記第1の分割点に基づき前記エッジ線を直線区間と曲線区間とに分ける、画像処理装置。
An image processing device comprising a control unit that detects a marking line provided on a road surface,
The control unit
Detecting an edge line that is a candidate for the contour line of the marking line from the captured image,
segmenting the edge line into a plurality of segments,
obtaining a first division point on the edge line based on direction information obtained for each section ;
An image processing device that divides the edge line into a straight section and a curved line section based on the first division point.
前記制御部は、前記エッジ線のうち曲率が所定値以上となる位置で前記第1の分割点を求める、請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said control unit obtains said first division point at a position where curvature of said edge line is equal to or greater than a predetermined value. 前記制御部は、
記区分ごとに求められる前記方向情報と、
前記区分毎の前記方向情報を統計処理して得られる代表方向と、
に基づいて前記第1の分割点を求める、請求項1又は2に記載の画像処理装置。
The control unit
the direction information obtained for each of the segments ;
a representative direction obtained by statistically processing the direction information for each of the sections;
3. The image processing apparatus according to claim 1, wherein said first division point is obtained based on .
前記制御部は、前記曲線区間を直線で近似するための第2の分割点を求める、請求項1から3のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3 , wherein the control section obtains second division points for approximating the curved section with a straight line . 前記制御部は、先に求めた前記第1の分割点或いは前記第2の分割点に応じて設定される仮直線と前記曲線区間を構成する前記エッジ線とに基づき前記曲線区間を更に分割するか否かを判断する、請求項に記載の画像処理装置。 The control unit further divides the curve section based on the provisional straight line set according to the first division point or the second division point obtained previously and the edge lines forming the curve section. 5. The image processing apparatus according to claim 4 , which determines whether or not. 前記制御部は、前記直線区間を構成する直線線分と、前記曲線区間に前記第2の分割点に応じて設定される直線線分とで構成される前記エッジ線の近似線に基づき前記標示線を検出する、請求項4又は5に記載の画像処理装置。 The control unit controls the marking based on the approximation line of the edge line composed of a straight line segment forming the straight section and a straight line segment set in the curved section according to the second dividing point. 6. The image processing device according to claim 4 , which detects lines. 前記撮影画像は、車両の周辺を撮影するカメラによって撮影され、
前記標示線は、駐車枠を構成する区画線である、請求項1から6のいずれか1項に記載の画像処理装置。
The captured image is captured by a camera that captures the surroundings of the vehicle,
The image processing device according to any one of claims 1 to 6, wherein the marking line is a marking line forming a parking frame.
撮影画像を処理する画像処理装置で実行される画像処理方法であって、
前記撮影画像からエッジ線を検出
前記エッジ線を複数に区分けする区分化を行い
前記エッジ線上において、区分毎に求められる方向情報に基づいて分割点を求め
前記分割点に基づき前記エッジ線を直線区間と曲線区間とに分ける、画像処理方法。
An image processing method executed by an image processing device that processes a captured image,
detecting an edge line from the captured image;
segmenting the edge line into a plurality of segments ,
obtaining dividing points on the edge line based on direction information obtained for each section ;
An image processing method, wherein the edge line is divided into a straight section and a curved section based on the dividing point.
JP2018137882A 2018-07-23 2018-07-23 Image processing device and image processing method Active JP7166096B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018137882A JP7166096B2 (en) 2018-07-23 2018-07-23 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018137882A JP7166096B2 (en) 2018-07-23 2018-07-23 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020016952A JP2020016952A (en) 2020-01-30
JP7166096B2 true JP7166096B2 (en) 2022-11-07

Family

ID=69581426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018137882A Active JP7166096B2 (en) 2018-07-23 2018-07-23 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7166096B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318397A (en) 2005-05-16 2006-11-24 Nippon Telegr & Teleph Corp <Ntt> Graphics recognition method, device, and program
JP2014034321A (en) 2012-08-09 2014-02-24 Denso Corp Parking support device
JP2014106740A (en) 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle parking frame recognizing device
JP2017207973A (en) 2016-05-19 2017-11-24 パナソニックIpマネジメント株式会社 Detector and detection method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01295376A (en) * 1988-05-24 1989-11-29 Ricoh Co Ltd Linear approximation processing system for line pattern

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318397A (en) 2005-05-16 2006-11-24 Nippon Telegr & Teleph Corp <Ntt> Graphics recognition method, device, and program
JP2014034321A (en) 2012-08-09 2014-02-24 Denso Corp Parking support device
JP2014106740A (en) 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle parking frame recognizing device
JP2017207973A (en) 2016-05-19 2017-11-24 パナソニックIpマネジメント株式会社 Detector and detection method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chun Liu et al.,"Harbor Detection in Polarimetric SAR Images Based on the Characteristics of Parallel Curves",IEEE Geoscience and Remote Sensing Letters,米国,IEEE,2016年08月24日,Vol.13, No.10,pp.1400-1404
石川 高志 、全 へい東,"画像処理を用いた屋外ARシステムのための高精度定位",情報処理学会研究報告,日本,社団法人情報処理学会,2005年03月04日,Vol.2005, No.18,pp.181-188

Also Published As

Publication number Publication date
JP2020016952A (en) 2020-01-30

Similar Documents

Publication Publication Date Title
US11318928B2 (en) Vehicular automated parking system
US10045002B2 (en) Object recognizing apparatus and stain detecting method
US11373532B2 (en) Pothole detection system
JP4871909B2 (en) Object recognition apparatus and object recognition method
US8848980B2 (en) Front vehicle detecting method and front vehicle detecting apparatus
US9257045B2 (en) Method for detecting a traffic lane by means of a camera
US20130147957A1 (en) Detection of obstacles at night by analysis of shadows
JP5682304B2 (en) Image providing device
US20150371095A1 (en) Method and Apparatus for Determining a Road Condition
WO2013186903A1 (en) Lane partition marking detection apparatus, and drive assist system
US20090052742A1 (en) Image processing apparatus and method thereof
EP1403615A2 (en) Apparatus and method for processing stereoscopic images
KR101748780B1 (en) Method for detection of the road sign using stereo camera and apparatus thereof
US20080118149A1 (en) Method and apparatus for partitioning an object from an image
JP6837262B2 (en) Travelable area detection device and travel support system
US11577748B1 (en) Real-time perception system for small objects at long range for autonomous vehicles
KR20080004833A (en) Apparatus and method for detecting a navigation vehicle in day and night according to luminous state
US20200193184A1 (en) Image processing device and image processing method
JP2004355139A (en) Vehicle recognition system
KR20190016195A (en) Driving assistant system and method thereof
JP7166096B2 (en) Image processing device and image processing method
JP7141940B2 (en) Image processing device and image processing method
JP2010176592A (en) Driving support device for vehicle
US20230150499A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
JP6132807B2 (en) Lane mark recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221025

R150 Certificate of patent or registration of utility model

Ref document number: 7166096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150