JP2014106739A - In-vehicle image processing device - Google Patents

In-vehicle image processing device Download PDF

Info

Publication number
JP2014106739A
JP2014106739A JP2012259073A JP2012259073A JP2014106739A JP 2014106739 A JP2014106739 A JP 2014106739A JP 2012259073 A JP2012259073 A JP 2012259073A JP 2012259073 A JP2012259073 A JP 2012259073A JP 2014106739 A JP2014106739 A JP 2014106739A
Authority
JP
Japan
Prior art keywords
feature amount
unit
vehicle
feature
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012259073A
Other languages
Japanese (ja)
Other versions
JP2014106739A5 (en
Inventor
Masahiro Kiyohara
將裕 清原
Taketo Ogata
健人 緒方
Tomohito Suzuki
智史 鈴木
Shoji Muramatsu
彰二 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2012259073A priority Critical patent/JP2014106739A/en
Publication of JP2014106739A publication Critical patent/JP2014106739A/en
Publication of JP2014106739A5 publication Critical patent/JP2014106739A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To increase a process speed while suppressing errors detection of a road surface sign.SOLUTION: An in-vehicle image processing device includes an arithmetic processing unit 4 which includes a feature amount extracting part 402, a feature amount correcting part 403, a feature amount grouping part 404, a line extracting part 405 and a road surface sign recognizing part 406. The feature amount extracting part 402 extracts a feature amount in accordance with a line width of a sign line drawn on a traveling surface for the vehicle. The feature amount correcting part 403 corrects each feature amount based on a set condition of a camera. The feature amount grouping part 404 groups each corrected feature amount. The line extracting part 405 extracts a sign line drawn on the traveling surface for the vehicle based on each grouped feature amount. The road surface sign recognizing part 406 recognizes a road surface sign based on the extracted sign line and outputs the recognition result.

Description

本発明は、車両に搭載され、車両走行環境における路面標示を認識する装置に関する。   The present invention relates to an apparatus that is mounted on a vehicle and recognizes road markings in a vehicle traveling environment.

従来、車両に搭載され、カメラにより撮影して得られた画像から駐車枠線を認識することで車両の駐車を支援する装置が知られている(特許文献1)。   2. Description of the Related Art Conventionally, there has been known an apparatus that supports parking of a vehicle by recognizing a parking frame line from an image that is mounted on the vehicle and obtained by photographing with a camera (Patent Document 1).

特開2010−12838号公報JP 2010-12838 A

特許文献1に開示された装置では、画像における輝度変化点(エッジ)を特徴点として抽出し、この特徴点の点列を直線近似した輪郭線において、2つの互いに平行なペアの輪郭線を駐車枠線として検出している。したがって、車両が道路を走行しているときには、たとえば車道中央線や車線境界線などの駐車枠線以外の線を駐車枠線として誤検出してしまう可能性がある。また、たとえば画像中に多数の線や複雑な形状の線が存在するなど、輪郭線を求めるための処理負荷が過大となるような状況では、所定の処理時間内に処理が間に合わない可能性もある。   In the apparatus disclosed in Patent Document 1, luminance change points (edges) in an image are extracted as feature points, and two parallel pairs of contour lines are parked in a contour line obtained by linearly approximating the point sequence of the feature points. It is detected as a frame line. Therefore, when the vehicle is traveling on a road, there is a possibility that a line other than the parking frame line, such as a roadway center line or a lane boundary line, may be erroneously detected as a parking frame line. In addition, for example, in a situation where the processing load for obtaining the contour line is excessive, such as when there are a large number of lines or complicated shapes in the image, there is a possibility that the processing may not be in time within the predetermined processing time. is there.

本発明による車載画像処理装置は、車両の周囲を撮影して撮影画像を取得する撮影装置と、撮影装置の設置状態を検出する設置状態検出部と、撮影画像に基づいて、車両の走行面に描かれた標示線の線幅に応じた特徴量を所定間隔ごとに抽出する特徴量抽出部と、設置状態検出部により検出された撮影装置の設置状態に基づいて、特徴量抽出部により抽出された各特徴量を補正する特徴量補正部と、特徴量補正部により補正された各特徴量をグループ化する特徴量グループ化部と、特徴量グループ化部によりグループ化された各特徴量に基づいて、標示線を抽出する線抽出部と、線抽出部により抽出された標示線に基づいて路面標示を認識し、その認識結果を出力する路面標示認識部と、を備える。   An in-vehicle image processing device according to the present invention is provided on a traveling surface of a vehicle based on a photographing device that captures a photograph of the surroundings of the vehicle to acquire a photographed image, an installation state detection unit that detects an installation state of the photographing device, and the photographed image. Extracted by the feature amount extraction unit based on the installation state of the photographing apparatus detected by the installation amount detection unit and the feature amount extraction unit that extracts the feature amount according to the line width of the drawn marking line at predetermined intervals. A feature amount correcting unit that corrects each feature amount, a feature amount grouping unit that groups the feature amounts corrected by the feature amount correcting unit, and a feature amount grouped by the feature amount grouping unit. A line extraction unit that extracts a marking line, and a road marking recognition unit that recognizes the road marking based on the marking line extracted by the line extraction unit and outputs the recognition result.

本発明によれば、路面標示の誤検出を抑制しつつ、処理の高速化を図ることができる。   According to the present invention, it is possible to increase the processing speed while suppressing erroneous detection of road markings.

本発明の一実施形態による車載画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image processing apparatus by one Embodiment of this invention. 俯瞰画像と車両前方の撮影画像を合わせた表示画像の例を示す図である。It is a figure which shows the example of the display image which match | combined the bird's-eye view image and the picked-up image of the vehicle forward. 様々な路面標示の例を示す図である。It is a figure which shows the example of various road markings. 演算処理の制御ブロック図である。It is a control block diagram of arithmetic processing. 特徴量の抽出とグループ化の具体例を示す図である。It is a figure which shows the specific example of extraction of a feature-value, and grouping. 抽出された各特徴量の具体例を示す図である。It is a figure which shows the specific example of each extracted feature-value. 車載画像処理装置において実行される処理のフローチャートである。It is a flowchart of the process performed in a vehicle-mounted image processing apparatus. 特徴量抽出処理のフローチャートである。It is a flowchart of a feature amount extraction process. 特徴量グループ化処理のフローチャートである。It is a flowchart of a feature quantity grouping process. 線抽出処理のフローチャートである。It is a flowchart of a line extraction process.

図1は、本発明の一実施形態による車載画像処理装置100の構成を示すブロック図である。図1に示す車載画像処理装置100は、車両に搭載されて使用されるものであり、カメラ1a、1b、1cおよび1dと、画像合成部2と、設置状態検出部3と、演算処理部4と、出力部5と、を備える。   FIG. 1 is a block diagram showing a configuration of an in-vehicle image processing apparatus 100 according to an embodiment of the present invention. An in-vehicle image processing apparatus 100 shown in FIG. 1 is used by being mounted on a vehicle, and includes cameras 1a, 1b, 1c and 1d, an image composition unit 2, an installation state detection unit 3, and an arithmetic processing unit 4. And an output unit 5.

カメラ1a〜1dは、車両の周囲をそれぞれ異なる撮影範囲で撮影する電子式カメラであり、車両のボディ、バンパー、ドアミラー等の各部に設置されている。これらの各カメラの撮影範囲は、合わせて車両の全周囲をカバーできるように定められている。本実施形態では、カメラ1aは車両前方の撮影範囲を、カメラ1bは車両左側方の撮影範囲を、カメラ1cは車両右側方の撮影範囲を、カメラ1dは車両後方の撮影範囲をそれぞれ撮影するものとして説明する。カメラ1a〜1dにより所定のフレームレート間隔でそれぞれ取得された撮影画像は、画像合成部2へ出力される。   The cameras 1a to 1d are electronic cameras that shoot around the vehicle in different shooting ranges, and are installed in various parts such as a vehicle body, a bumper, and a door mirror. The shooting range of each of these cameras is determined so as to cover the entire periphery of the vehicle. In this embodiment, the camera 1a shoots the shooting range in front of the vehicle, the camera 1b shoots the shooting range on the left side of the vehicle, the camera 1c shoots the shooting range on the right side of the vehicle, and the camera 1d shoots the shooting range on the rear side of the vehicle. Will be described. The captured images respectively acquired at predetermined frame rate intervals by the cameras 1 a to 1 d are output to the image composition unit 2.

なお、本実施形態では、4つのカメラ1a〜1dが上記のような各撮影範囲をそれぞれ撮影するものとして説明するが、車両に搭載されるカメラの個数および撮影範囲はこれに限定されない。また、各カメラを合わせた撮影範囲は、必ずしも車両の全周囲をカバーしていなくてもよい。車両の周囲を適切な範囲で撮影できれば、任意の個数のカメラを用いて、任意の撮影範囲について撮影画像を取得することができる。   In the present embodiment, the four cameras 1a to 1d are described as shooting the respective shooting ranges as described above. However, the number of cameras mounted on the vehicle and the shooting range are not limited thereto. In addition, the shooting range including the cameras may not necessarily cover the entire periphery of the vehicle. If the surroundings of the vehicle can be photographed within an appropriate range, a photographed image can be acquired for an arbitrary photographing range using an arbitrary number of cameras.

画像合成部2は、カメラ1a〜1dにより取得された各撮影画像に基づいて、車両の全周囲を俯瞰した様子を示す俯瞰画像(アラウンドビュー画像)を合成する。この俯瞰画像は、カメラ1a〜1dの各撮影画像をその撮影方向に応じて座標変換した上で繋ぎ合わせることによって合成されるものである。このとき必要に応じて、レンズ歪み補正や輝度変換処理を行ってもよい。輝度変換処理としては、たとえば、周囲の照明環境や対象物の経年変化に応じたコントラストの補正や、レンズ周辺で光量が低下して暗くなる周辺減光減少に応じた明度の補正などを行うことができる。さらに、伝送路上で重畳されたノイズを低減するためのノイズ低減処理等を行ってもよい。画像合成部2により合成された俯瞰画像は、演算処理部4へ出力される。   The image composition unit 2 synthesizes an overhead view image (around view image) that shows a state where the entire periphery of the vehicle is seen from the captured images acquired by the cameras 1a to 1d. This bird's-eye view image is synthesized by coordinate-converting the captured images of the cameras 1a to 1d according to the shooting direction and connecting them. At this time, lens distortion correction and luminance conversion processing may be performed as necessary. As brightness conversion processing, for example, correction of contrast according to the surrounding lighting environment and aging of the target object, brightness correction according to decrease in peripheral light reduction that darkens as the amount of light decreases around the lens, etc. Can do. Furthermore, noise reduction processing for reducing noise superimposed on the transmission path may be performed. The bird's-eye view image synthesized by the image synthesis unit 2 is output to the arithmetic processing unit 4.

設置状態検出部3は、カメラ1a〜1dの設置状態を検出し、その検出結果を演算処理部4へ出力する。たとえば、車両の各車輪に対応するサスペンションの伸縮量や、水平面に対する車両とカメラ1a〜1dの傾き具合、カメラ1a〜1dの車両への取り付け誤差などを検出することで、車両の走行面に対するカメラ1a〜1dの位置や姿勢を検出し、その検出結果からカメラ1a〜1dの設置状態を求めることができる。ここで、カメラ1a〜1dの車両への取り付け誤差は、たとえば、各カメラの撮影範囲内において車両表面の一部分に取り付け誤差検出用のマークをそれぞれ付しておき、このマークの撮影画面内での位置ずれを求めることにより検出できる。なお、カメラ1a〜1dの設置状態を検出することができれば、他の方法を用いてもよい。   The installation state detection unit 3 detects the installation states of the cameras 1 a to 1 d and outputs the detection results to the arithmetic processing unit 4. For example, the camera with respect to the running surface of the vehicle is detected by detecting the expansion / contraction amount of the suspension corresponding to each wheel of the vehicle, the degree of inclination of the vehicle and the cameras 1a to 1d with respect to the horizontal plane, the attachment error of the cameras 1a to 1d to the vehicle, The positions and orientations of 1a to 1d can be detected, and the installation states of the cameras 1a to 1d can be obtained from the detection results. Here, as for the attachment error of the cameras 1a to 1d, for example, a mark for detecting an attachment error is attached to a part of the vehicle surface within the photographing range of each camera, and the mark is displayed on the photographing screen. It can be detected by obtaining the positional deviation. Other methods may be used as long as the installation states of the cameras 1a to 1d can be detected.

演算処理部4は、画像合成部2により合成された俯瞰画像と、設置状態検出部3により検出されたカメラ1a〜1dの設置状態とに基づいて、所定の演算処理を行うことにより、車両周囲の路面標示を認識する。この演算処理部4が行う演算処理の内容については、後で詳しく説明する。演算処理部4による路面標示の認識結果は、出力部5へ出力される。   The arithmetic processing unit 4 performs predetermined arithmetic processing on the basis of the overhead image synthesized by the image synthesizing unit 2 and the installation states of the cameras 1a to 1d detected by the installation state detection unit 3, thereby Recognize road markings. The contents of the arithmetic processing performed by the arithmetic processing unit 4 will be described in detail later. The recognition result of the road marking by the arithmetic processing unit 4 is output to the output unit 5.

出力部5は、演算処理部4による路面標示の認識結果に基づいて、車両周囲の路面標示に対する路面標示情報を出力する。たとえば、車両に対する路面標示の方向や路面標示までの距離を示す情報を路面標示情報として出力する。この路面標示情報は、車載画像処理装置100と接続されている上位の車両制御装置(不図示)へと出力され、車両の駐車支援や走行制御等に利用される。   The output unit 5 outputs road marking information for road markings around the vehicle based on the recognition result of the road markings by the arithmetic processing unit 4. For example, information indicating the direction of the road marking with respect to the vehicle and the distance to the road marking is output as road marking information. This road marking information is output to a host vehicle control device (not shown) connected to the in-vehicle image processing device 100, and is used for vehicle parking assistance, travel control, and the like.

たとえば、出力部5は、車両に対する駐車枠の方向や駐車枠までの距離を示す情報を駐車枠情報として出力する。この駐車枠情報は、車載用駐車枠認識装置と接続されている上位の車両制御装置(不図示)へと出力され、車両の駐車支援や走行制御等に利用される。たとえば、周囲に駐車場が存在する状況であることを自動で認識し、例えば、駐車場環境である場合には、モニタに自車周囲の俯瞰映像を自動で切り替えて表示することができる。これにより、公道において駐車場であると誤検知する状況を抑制し、適切なタイミングでユーザへの提示映像を切り替えることができるようになる。   For example, the output part 5 outputs the information which shows the direction of the parking frame with respect to a vehicle, and the distance to a parking frame as parking frame information. This parking frame information is output to a host vehicle control device (not shown) connected to the on-vehicle parking frame recognition device, and is used for vehicle parking assistance, travel control, and the like. For example, it is possible to automatically recognize that there is a parking lot around, and for example, in a parking lot environment, it is possible to automatically switch and display a bird's-eye view image around the vehicle on the monitor. As a result, it is possible to suppress a situation in which it is erroneously detected as a parking lot on a public road, and to switch the video presented to the user at an appropriate timing.

また、出力部5は、駐車枠の左右枠線の端点座標、駐車枠線の角度および切片といった、実環境中における駐車枠の位置情報を出力する。この駐車枠情報は、車載用駐車枠認識装置と接続されている上位の車両制御装置(不図示)へと出力され、車両の駐車支援や走行制御等に利用される。たとえば、自車から駐車枠までの相対的な位置姿勢に基づいて、駐車枠までの走行経路を計算し、ドライバーにブレーキやシフトポジション変更のタイミングや、舵角の操作量を通知することによって、駐車支援を行うことが可能となる。これにより、車庫入れ等の運転操作に不慣れなドライバーにとっても、短時間で駐車動作が完了できるようになる。   Further, the output unit 5 outputs the position information of the parking frame in the actual environment such as the end point coordinates of the left and right frame lines of the parking frame, the angle and the intercept of the parking frame line. This parking frame information is output to a host vehicle control device (not shown) connected to the on-vehicle parking frame recognition device, and is used for vehicle parking assistance, travel control, and the like. For example, by calculating the travel route to the parking frame based on the relative position and orientation from the own vehicle to the parking frame, by notifying the driver of the timing of brake and shift position change and the amount of steering angle operation, Parking assistance can be performed. As a result, a parking operation can be completed in a short time even for a driver who is unfamiliar with driving operations such as garage entry.

さらには、自車から駐車枠までの相対的な位置姿勢に基づいて、駐車枠までの走行経路を計算し、自動で車両の前進・後退・旋回の制御量を計算し、その計算結果に従って車両運動を自動制御してもよい。これにより、車庫入れ等の運転操作に不慣れなドライバーにとっても、安全かつ正確に駐車動作を完了できるようになる。   Furthermore, the travel route to the parking frame is calculated based on the relative position and orientation from the own vehicle to the parking frame, and the control amount of the forward / backward / turning of the vehicle is automatically calculated. The movement may be automatically controlled. As a result, a parking operation can be completed safely and accurately even for a driver unfamiliar with driving operations such as garage entry.

図2は、画像合成部2により合成された俯瞰画像とカメラ1aにより撮影された車両前方の撮影画像を合わせた表示画像の例を示す図である。図2において、左側の画像21は俯瞰画像を示し、右側の画像22は車両前方の撮影画像を示している。   FIG. 2 is a diagram illustrating an example of a display image in which an overhead image synthesized by the image synthesis unit 2 and a photographed image in front of the vehicle photographed by the camera 1a are combined. In FIG. 2, the left image 21 shows a bird's-eye view image, and the right image 22 shows a photographed image in front of the vehicle.

俯瞰画像21は、車両の前方、左側方、右側方および後方にそれぞれ対応する4つの画像領域21a、21b、21cおよび21dにより構成されている。これらの画像領域の各画像は、図1のカメラ1a〜1dによってそれぞれ撮影された画像に基づいて作成されたものである。画像領域21a内には、路面標示23の一部が表示されている。この路面標示23は、撮影画像22にも表示されている。   The bird's-eye view image 21 is composed of four image areas 21a, 21b, 21c and 21d corresponding to the front, left side, right side and rear of the vehicle, respectively. Each image in these image areas is created based on images taken by the cameras 1a to 1d in FIG. A part of the road marking 23 is displayed in the image area 21a. This road marking 23 is also displayed on the captured image 22.

以上説明したような画像は、たとえば車両内に設置された不図示の表示モニタにおいて表示される。なお、撮影画像22として表示される画像は、車両の進行方向に応じて切り替えられることが好ましい。たとえば、車両のシフトレバーを前進方向に切り替えたときには、車両が前進していると判断して、カメラ1aにより撮影された車両前方の撮影画像を表示する。一方、車両のシフトレバーを後退方向に切り替えたときには、車両が後退していると判断して、カメラ1dにより撮影された車両後方の撮影画像を表示する。このようにすれば、車両の進行方向に応じた適切な撮影画像を車両の運転者に提示し、駐車時などの運転操作支援を行うことができる。   The image as described above is displayed on a display monitor (not shown) installed in the vehicle, for example. Note that the image displayed as the captured image 22 is preferably switched according to the traveling direction of the vehicle. For example, when the shift lever of the vehicle is switched to the forward direction, it is determined that the vehicle is moving forward, and a captured image of the front of the vehicle captured by the camera 1a is displayed. On the other hand, when the shift lever of the vehicle is switched to the reverse direction, it is determined that the vehicle is moving backward, and a captured image of the rear of the vehicle captured by the camera 1d is displayed. If it does in this way, the suitable photography picture according to the advancing direction of vehicles can be shown to the driver of vehicles, and driving operation support at the time of parking etc. can be performed.

図3は、様々な路面標示の例を示す図である。図3(a)の駐車枠線は、車両2台分の駐車枠に対して、それぞれの左右の境界線のみを駐車枠線として描いた例を示している。図3(b)の駐車枠線は、図3(a)の駐車枠線に加えて、さらに前後いずれか一方の境界線を駐車枠線として描いた例を示している。図3(c)の駐車枠線は、図3(a)の駐車枠線に加えて、さらに前後両方の境界線を駐車枠線として描いた例を示している。図3(d)の駐車枠線は、図3(a)の駐車枠線を斜めに描いた例を示している。   FIG. 3 is a diagram showing examples of various road markings. The parking frame line in FIG. 3A shows an example in which only the left and right boundary lines are drawn as parking frame lines for the parking frames for two vehicles. The parking frame line in FIG. 3B shows an example in which either the front or rear boundary line is drawn as a parking frame line in addition to the parking frame line in FIG. The parking frame line in FIG. 3C shows an example in which both the front and rear boundary lines are drawn as parking frame lines in addition to the parking frame line in FIG. The parking frame line of FIG.3 (d) has shown the example which drew the parking frame line of Fig.3 (a) diagonally.

図3(e)の駐車枠線は、車両1台分の駐車枠に対して、左右の境界線をU字状の駐車枠線により描いた例を示している。図3(f)の駐車枠線は、図3(e)の駐車枠線に加えて、さらに前後いずれか一方の境界線を駐車枠線として描いた例を示している。図3(g)の駐車枠線は、図3(e)のような駐車枠線を車両2台分の駐車枠線に対して斜めに描いた例を示している。   The parking frame line of FIG.3 (e) has shown the example which drawn the left-right boundary line with the U-shaped parking frame line with respect to the parking frame for one vehicle. The parking frame line in FIG. 3 (f) shows an example in which either the front or rear boundary line is drawn as a parking frame line in addition to the parking frame line in FIG. 3 (e). The parking frame line in FIG. 3G shows an example in which the parking frame line as shown in FIG. 3E is drawn obliquely with respect to the parking frame lines for two vehicles.

次に、演算処理部4が行う演算処理の内容について説明する。図4は、演算処理部4が行う演算処理の制御ブロック図である。図4に示すように、演算処理部4は、エッジ探索方向決定部401、特徴量抽出部402、特徴量補正部403、特徴量グループ化部404、線抽出部405および路面標示認識部406の各制御ブロックを機能的に有する。演算処理部4では、たとえば、これらの各制御ブロックに対応してメモリに記録されているプログラムをマイクロコンピュータで実行することにより、図4の各制御ブロックを実現している。   Next, the contents of the arithmetic processing performed by the arithmetic processing unit 4 will be described. FIG. 4 is a control block diagram of the arithmetic processing performed by the arithmetic processing unit 4. As shown in FIG. 4, the arithmetic processing unit 4 includes an edge search direction determination unit 401, a feature amount extraction unit 402, a feature amount correction unit 403, a feature amount grouping unit 404, a line extraction unit 405, and a road marking recognition unit 406. Each control block is functionally included. In the arithmetic processing unit 4, for example, each control block of FIG. 4 is realized by executing a program recorded in the memory corresponding to each of these control blocks by a microcomputer.

エッジ探索方向決定部401は、特徴量抽出部402において画像合成部2により合成された俯瞰画像から特徴量を抽出する際のエッジ探索方向を決定する。後述のように、特徴量抽出部402では、画像合成部2により合成された俯瞰画像に対してエッジ探索を行うことにより、車両の走行面における標示線の線幅に応じた特徴量を抽出する。このときのエッジ探索方向は、標示線に対して直交方向であることが好ましい。ここで、演算処理部4の処理サイクルが十分に短いと、車両が駐車場を低速で走行している場合には、前回の処理サイクルで発見した標示線の角度が大きく変わることはないと考えられる。そのため、エッジ探索方向決定部401は、こうした条件を利用して、特徴量を抽出する標示線に対する直交方向を決定することが可能である。具体的には、前回の処理サイクルで発見された標示線の俯瞰画像内での位置と角度を記録しておき、これを今回の処理サイクルにおいて利用することで、標示線に対する直交方向を求めてエッジ探索方向を決定することができる。また、不図示のカーナビゲーションシステムにおいて用いられる地図データに記録されている駐車場情報から駐車枠線の向きを取得すると共に、GPSや地磁気センサから車両の方向を取得することで、俯瞰画像中で探索すべき標示線の直交方向を算出し、その方向に基づいてエッジ探索方向を決定してもよい。   The edge search direction determination unit 401 determines an edge search direction for extracting a feature amount from the overhead image synthesized by the image synthesis unit 2 in the feature amount extraction unit 402. As will be described later, the feature amount extraction unit 402 extracts a feature amount according to the line width of the marking line on the traveling surface of the vehicle by performing an edge search on the overhead image synthesized by the image synthesis unit 2. . The edge search direction at this time is preferably orthogonal to the marking line. Here, when the processing cycle of the arithmetic processing unit 4 is sufficiently short, when the vehicle is traveling at a low speed in the parking lot, the angle of the marking line found in the previous processing cycle does not change significantly. It is done. Therefore, the edge search direction determination unit 401 can determine the orthogonal direction with respect to the marking line from which the feature amount is extracted using such conditions. Specifically, the position and angle of the marking line found in the previous processing cycle in the overhead image is recorded, and this is used in the current processing cycle to obtain the orthogonal direction to the marking line. The edge search direction can be determined. In addition, the direction of the parking frame line is obtained from the parking lot information recorded in the map data used in the car navigation system (not shown), and the direction of the vehicle is obtained from the GPS or the geomagnetic sensor. It is also possible to calculate the orthogonal direction of the marking line to be searched and determine the edge search direction based on the direction.

画像合成部2により合成された俯瞰画像は、演算処理部4において特徴量抽出部402に入力される。特徴量抽出部402は、入力された俯瞰画像をエッジ探索方向決定部401により決定されたエッジ探索方向にエッジ探索することで、車両の走行面に描かれた標示線の線幅に応じた特徴量を抽出する。具体的には、俯瞰画像をエッジ探索方向に所定間隔で走査し、所定の閾値を超える一対の輝度変化点(エッジ)が見つかったら、それらを特徴点として抽出し、両特徴点間の距離、すなわちエッジ間距離を特徴量として記録する。このようにすることで、標示線の線幅に応じた各特徴量を所定間隔ごとに抽出することができる。ここで、俯瞰画像においては、路面標示の太さは一定であることが期待できるため、路面標示に対して一定の特徴量を抽出することができる。なお、エッジ探索方向の探索範囲中にエッジの組み合わせが複数見つかった場合は、それらのエッジ間距離を全て特徴量として記憶しておくことが好ましい。この場合、後述する特徴量グループ化部404において、路面標示の認識に用いる特徴量を確定することができる。   The overhead image synthesized by the image synthesis unit 2 is input to the feature amount extraction unit 402 in the arithmetic processing unit 4. The feature amount extraction unit 402 performs edge search in the edge search direction determined by the edge search direction determination unit 401 on the input overhead image, and thereby features according to the line width of the marking line drawn on the traveling surface of the vehicle. Extract the amount. Specifically, the bird's-eye view image is scanned at a predetermined interval in the edge search direction, and when a pair of luminance change points (edges) exceeding a predetermined threshold is found, they are extracted as feature points, and the distance between both feature points, That is, the distance between edges is recorded as a feature amount. By doing in this way, each feature-value according to the line | wire width of a marking line can be extracted for every predetermined interval. Here, in the bird's-eye view image, since the thickness of the road marking can be expected to be constant, it is possible to extract a constant feature amount with respect to the road marking. When a plurality of combinations of edges are found in the search range in the edge search direction, it is preferable to store all the distances between the edges as feature amounts. In this case, a feature amount used for recognition of road markings can be determined in a feature amount grouping unit 404 described later.

なお、特徴量抽出部402により特徴量が抽出される標示線には、道路上に描かれた各種の道路標示線(車道中央線、車線境界線、車道外側線、横断歩道等)や、駐車場に描かれた駐車枠線などが含まれる。特徴量抽出部402により抽出された特徴量の情報は、特徴量補正部403へ出力される。   In addition, the marking lines from which the feature quantity is extracted by the feature quantity extraction unit 402 include various road marking lines drawn on the road (roadway center line, lane boundary line, roadway outer line, pedestrian crossing, etc.) Includes parking frame lines drawn on the parking lot. Information on the feature amount extracted by the feature amount extraction unit 402 is output to the feature amount correction unit 403.

設置状態検出部3により検出されたカメラ1a〜1dの設置状態は、演算処理部4において特徴量補正部403に入力される。特徴量補正部403は、入力されたカメラ1a〜1dの設置状態に基づいて、特徴量抽出部402により抽出された各特徴量を補正する。ここで、カメラ1a〜1dの位置や姿勢が本来の状態からずれていると、そのずれに応じて撮影範囲が変化する。そのため、取得された撮影画像から画像合成部2において俯瞰画像を合成すると、カメラ1a〜1dの位置や姿勢のずれに応じて俯瞰画像が歪んでしまう。こうした俯瞰画像の歪みは、車両からの距離が離れるほど大きくなる。その結果、標示線の線幅が本来のものから変化してしまい、特徴量抽出部402において特徴量を正しく抽出できなくなってしまう。   The installation states of the cameras 1 a to 1 d detected by the installation state detection unit 3 are input to the feature amount correction unit 403 in the arithmetic processing unit 4. The feature amount correcting unit 403 corrects each feature amount extracted by the feature amount extracting unit 402 based on the input installation states of the cameras 1a to 1d. Here, if the positions and orientations of the cameras 1a to 1d are deviated from their original states, the photographing range changes according to the deviation. For this reason, when the overhead image is synthesized by the image synthesis unit 2 from the acquired captured image, the overhead image is distorted in accordance with the position and orientation shift of the cameras 1a to 1d. Such distortion of the overhead image increases as the distance from the vehicle increases. As a result, the line width of the marking line changes from the original one, and the feature quantity extraction unit 402 cannot correctly extract the feature quantity.

そこで、本発明に係る車載画像処理装置100では、特徴量補正部403により、カメラ1a〜1dの設置状態の検出結果から、俯瞰画像における歪みの大きさを抽出された各特徴量について予測し、その分に応じた補正を各特徴量に対して行う。このとき、各特徴量に対応する輝度変換点の俯瞰画像上での位置に応じて、各特徴量に対する補正量を調節することが好ましい。特徴量補正部403により補正された各特徴量の情報は、特徴量グループ化部404へ出力される。   Therefore, in the in-vehicle image processing apparatus 100 according to the present invention, the feature amount correction unit 403 predicts each feature amount from which the magnitude of distortion in the overhead image is extracted from the detection result of the installation state of the cameras 1a to 1d. Correction corresponding to the amount is performed on each feature amount. At this time, it is preferable to adjust the correction amount for each feature amount according to the position of the luminance conversion point corresponding to each feature amount on the overhead image. Information about each feature amount corrected by the feature amount correction unit 403 is output to the feature amount grouping unit 404.

特徴量グループ化部404は、特徴量補正部403により補正された各特徴量を、それぞれの類似性や、各特徴点の俯瞰画像上での位置の連続性などに応じてグループ化する。たとえば、対応する特徴点の位置が俯瞰画像上で互いに隣接しており、かつ互いの差分が所定範囲内である特徴量同士をまとめて、同一グループに分類する。なお、特徴量グループ化部404により行われる特徴量のグループ化の詳細については、後で図5を参照して詳しく説明する。特徴量グループ化部404によりグループ化された各特徴量の情報は、線抽出部405へ出力される。   The feature amount grouping unit 404 groups the feature amounts corrected by the feature amount correction unit 403 according to their similarity, the continuity of the positions of the feature points on the overhead image, and the like. For example, feature quantities whose corresponding feature points are adjacent to each other on the overhead image and whose difference is within a predetermined range are grouped together and classified into the same group. Details of the grouping of feature amounts performed by the feature amount grouping unit 404 will be described later in detail with reference to FIG. Information of each feature quantity grouped by the feature quantity grouping unit 404 is output to the line extraction unit 405.

線抽出部405は、特徴量グループ化部404によりグループ化された各特徴量に基づいて、車両の走行面に描かれた標示線を抽出する。ここでは、同一グループの各特徴量に対応する特徴点同士を一つの標示線として抽出し、さらに他のグループとの間で所定の条件を満たすものがある場合は、当該グループについても一つの標示線として抽出する。これにより、前述のような様々な標示線が俯瞰画像から抽出される。線抽出部405による線抽出結果は、路面標示認識部406へ出力される。   The line extraction unit 405 extracts a marking line drawn on the traveling surface of the vehicle based on the feature amounts grouped by the feature amount grouping unit 404. Here, feature points corresponding to each feature amount of the same group are extracted as one marking line, and when there is a condition that satisfies a predetermined condition with another group, one marking is also performed for the group. Extract as a line. Thereby, various marking lines as described above are extracted from the overhead image. The line extraction result by the line extraction unit 405 is output to the road marking recognition unit 406.

路面標示認識部406は、線抽出部405による標示線抽出結果に基づいて、各標示線が路面標示であるか否かをそれぞれ判定し、路面標示であれば、それに対応する路面標示の認識結果を図1の出力部5へ出力する。このとき、車両が駐車場内を走行中であるか否かを判定し、車両が駐車場内を走行中であると判定した場合にのみ、各標示線が路面標示であるか否かを判断することが好ましい。車両が駐車場内を走行中であるか否かの判定は、たとえば、車両の挙動を示す車速、操舵角等の情報や、ナビゲーション装置からの現在位置情報および地図情報などを利用することができる。さらに、カメラ1a〜1dの各撮影画像や合成された俯瞰画像に基づいて、駐車場や道路において特徴的な標示線や構造物等を検出することで、車両が駐車場内を走行中であるか否かの判定を行ってもよい。   The road marking recognition unit 406 determines whether each marking line is a road marking based on the result of the marking line extraction by the line extraction unit 405, and if it is a road marking, the recognition result of the corresponding road marking. Is output to the output unit 5 of FIG. At this time, it is determined whether or not the vehicle is traveling in the parking lot, and only when it is determined that the vehicle is traveling in the parking lot, it is determined whether or not each marking line is a road marking. Is preferred. The determination as to whether or not the vehicle is traveling in a parking lot can use information such as vehicle speed and steering angle indicating the behavior of the vehicle, current position information and map information from the navigation device, and the like. Furthermore, whether the vehicle is traveling in the parking lot by detecting characteristic marking lines, structures, etc. in the parking lot or road based on the captured images of the cameras 1a to 1d and the synthesized overhead view image. You may determine whether or not.

次に、特徴量抽出部402が行う特徴量の抽出および特徴量グループ化部404が行う特徴量のグループ化の詳細について説明する。図5は、特徴量の抽出とグループ化の具体例を示す図である。ここでは、図5(a)に示すような標示線(路面ペイント)について特徴量を抽出し、グループ化する際の具体例を説明する。   Next, details of feature quantity extraction performed by the feature quantity extraction unit 402 and feature quantity grouping performed by the feature quantity grouping unit 404 will be described. FIG. 5 is a diagram illustrating a specific example of feature amount extraction and grouping. Here, a specific example will be described in which feature amounts are extracted and grouped with respect to a marking line (road surface paint) as shown in FIG.

図5(a)のような路面ペイントについて特徴量を抽出する場合、特徴量抽出部402は、エッジ探索方向決定部401により設定されたエッジ探索方向に従って、図5(b)に点線で示したようなサンプリング直線を所定の画素間隔(サンプリング間隔)ごとに設定する。そして、設定したサンプリング直線に沿って俯瞰画像を順次走査していき、輝度の立ち上がりおよび立ち下がりを一組の特徴点(エッジ)としてそれぞれ検出して、これらの間の距離、すなわち線幅を特徴量として抽出する。その結果、各サンプリング直線に対して、たとえば図5(c)に示したような特徴量が抽出される。なお、図5(c)では、各特徴量の大きさを、元の路面ペイントの各部位に対応する短冊状図形の横幅により模式的に示している。このように、特徴量抽出部402では俯瞰画像を利用することで、レンズ歪みの影響を考慮せずに直線でサンプリングすることができる。   In the case of extracting feature amounts for road surface paint as shown in FIG. 5A, the feature amount extracting unit 402 is indicated by a dotted line in FIG. 5B according to the edge search direction set by the edge search direction determining unit 401. Such a sampling line is set for each predetermined pixel interval (sampling interval). Then, the bird's-eye view image is sequentially scanned along the set sampling line, and the rise and fall of the luminance are detected as a set of feature points (edges), and the distance between them, that is, the line width is characterized. Extract as a quantity. As a result, for each sampling straight line, for example, feature quantities as shown in FIG. 5C are extracted. In FIG. 5C, the size of each feature is schematically shown by the width of a strip-shaped figure corresponding to each part of the original road surface paint. As described above, the feature amount extraction unit 402 can perform sampling in a straight line without considering the influence of lens distortion by using the overhead image.

上記のようにして抽出された各特徴量は、特徴量補正部403により補正される。特徴量グループ化部404は、この補正後の各特徴量を、その類似性や連続性などを考慮して図5(d)のようにグループ化する。なお、図5(d)では、同一グループに含まれる各特徴量を破線で囲って示している。   Each feature quantity extracted as described above is corrected by the feature quantity correction unit 403. The feature quantity grouping unit 404 groups the corrected feature quantities as shown in FIG. 5D in consideration of their similarity and continuity. Note that in FIG. 5D, each feature amount included in the same group is surrounded by a broken line.

ここで、特徴量の類似性の判定条件として、たとえば同一性条件と単調性条件とを用いることができる。同一性条件とは、比較する2つの特徴量の差の絶対値が所定の第一の閾値範囲内に収まることである。一方、単調性条件とは、3つ以上の特徴量を比較する場合に、その位置関係順に各特徴量が単調に増加または減少しており、その増加量または減少量が第二の閾値範囲内に収まっていることである。なお、この第二の閾値は、上記の第一の閾値よりも大きくすることが好ましい。   Here, for example, an identity condition and a monotonicity condition can be used as conditions for determining the similarity of feature amounts. The identity condition is that the absolute value of the difference between the two feature quantities to be compared falls within a predetermined first threshold range. On the other hand, the monotonicity condition means that when three or more feature quantities are compared, each feature quantity monotonously increases or decreases in the order of the positional relationship, and the increase or decrease quantity is within the second threshold range. It is in the range. In addition, it is preferable to make this 2nd threshold value larger than said 1st threshold value.

図6は、特徴量抽出部402により抽出された各特徴量の具体例を示す図である。図6(a)は、図5(c)に例示した各特徴量の一部を拡大し、実空間上における所定の基準点との間の位置関係を示している。なお、図6(a)では左側の端点を基準点としているが、他の位置の点、たとえば右側の端点や左右端点の中点を基準点としても構わない。   FIG. 6 is a diagram illustrating a specific example of each feature amount extracted by the feature amount extraction unit 402. FIG. 6A shows a positional relationship with a predetermined reference point in the real space by enlarging a part of each feature amount exemplified in FIG. 5C. In FIG. 6A, the left end point is used as the reference point, but a point at another position, for example, the right end point or the midpoint of the left and right end points may be used as the reference point.

図6(b)は、図6(a)に示した各特徴量と基準点との位置関係に基づいてグループ化を行った結果の一覧表を示している。この一覧表には、各特徴量について、その世界座標すなわち実空間上の位置と、その大きさを示すエッジ間距離と、グループ化によりどのグループに分類されたかを示すグループ番号とが記録されている。   FIG. 6B shows a list of the results of grouping based on the positional relationship between each feature amount shown in FIG. 6A and the reference point. In this list, for each feature quantity, the world coordinates, that is, the position in real space, the distance between edges indicating the size, and the group number indicating which group is classified by grouping are recorded. Yes.

図6(b)の世界座標は、俯瞰画像が示す車両の走行面上の座標系で表されている。すなわち、車両の走行方向(奥行き方向)に沿って第一座標軸を、車両の走行方向を横切る方向に沿って第二座標軸をそれぞれ設定し、これらの座標軸によって定義される座標平面上の座標値を、各特徴量の世界座標としている。なお、図6(a)において、第一座標軸は図の上方向を正方向とする座標軸であり、第二座標軸は図の右方向を正方向とする座標軸である。また、これらの座標軸の単位系はメートルである。   The world coordinates in FIG. 6B are expressed in a coordinate system on the traveling surface of the vehicle indicated by the overhead view image. That is, the first coordinate axis is set along the traveling direction (depth direction) of the vehicle, the second coordinate axis is set along the direction crossing the traveling direction of the vehicle, and the coordinate values on the coordinate plane defined by these coordinate axes are set. , The world coordinates of each feature. In FIG. 6A, the first coordinate axis is a coordinate axis with the upward direction in the figure as the positive direction, and the second coordinate axis is a coordinate axis with the right direction in the figure as the positive direction. The unit system of these coordinate axes is meter.

図7は、車載画像処理装置100において実行される処理のフローチャートである。ステップS10では、設置状態検出部3により、カメラ1a〜1dの設置状態を検出し、その検出結果を演算処理部4へ出力する。   FIG. 7 is a flowchart of processing executed in the in-vehicle image processing apparatus 100. In step S <b> 10, the installation state detection unit 3 detects the installation states of the cameras 1 a to 1 d and outputs the detection results to the arithmetic processing unit 4.

ステップS20では、カメラ1a〜1dにより撮影画像をそれぞれ取得し、画像合成部2へ出力する。続くステップS30では、画像合成部2により俯瞰画像を生成し、演算処理部4へ出力する。   In step S <b> 20, captured images are acquired by the cameras 1 a to 1 d and output to the image composition unit 2. In subsequent step S <b> 30, the overhead image is generated by the image composition unit 2 and output to the arithmetic processing unit 4.

ステップS40において、演算処理部4は、エッジ探索方向決定部401により、前述のような方法でエッジ探索方向を決定する。   In step S40, the arithmetic processing unit 4 uses the edge search direction determination unit 401 to determine the edge search direction by the method described above.

ステップS50において、演算処理部4は、特徴量抽出部402により、特徴量抽出処理を行う。ここでは、後で説明する図8のフローチャートに従って特徴量抽出処理を実行することにより、ステップS20で生成された俯瞰画像から特徴量を抽出する。   In step S <b> 50, the arithmetic processing unit 4 performs a feature amount extraction process using the feature amount extraction unit 402. Here, the feature quantity is extracted from the overhead image generated in step S20 by executing the feature quantity extraction process according to the flowchart of FIG. 8 described later.

ステップS60において、演算処理部4は、特徴量補正部403により、ステップS50で抽出した各特徴量を補正する。ここでは、ステップS10で検出したカメラ1a〜1dの設置状態に基づいて各特徴量の補正量を決定し、その補正量に応じて各特徴量を補正する。これにより、カメラ1a〜1dの位置や姿勢のずれによって生じる俯瞰画像の歪みに応じた各特徴量の誤差を補正する。   In step S60, the arithmetic processing unit 4 corrects each feature amount extracted in step S50 by the feature amount correction unit 403. Here, the correction amount of each feature amount is determined based on the installation state of the cameras 1a to 1d detected in step S10, and each feature amount is corrected according to the correction amount. Thereby, the error of each feature amount according to the distortion of the overhead image caused by the deviation of the positions and postures of the cameras 1a to 1d is corrected.

ステップS70において、演算処理部4は、特徴量グループ化部404により、特徴量グループ化処理を行う。ここでは、後で説明する図9のフローチャートに従って特徴量グループ化処理を実行することにより、ステップS60で補正された各特徴量をグループ化する。   In step S <b> 70, the arithmetic processing unit 4 performs a feature amount grouping process using the feature amount grouping unit 404. Here, the feature amount grouping process is executed according to the flowchart of FIG. 9 described later, thereby grouping the feature amounts corrected in step S60.

ステップS80において、演算処理部4は、線抽出部405により、線抽出処理を行う。ここでは、後で説明する図10のフローチャートに従って線抽出処理を実行することにより、ステップS70でグループ化された各特徴量に基づいて、車両の走行面に描かれた標示線を抽出する。   In step S <b> 80, the arithmetic processing unit 4 performs line extraction processing by the line extraction unit 405. Here, by performing a line extraction process according to the flowchart of FIG. 10 described later, a marking line drawn on the traveling surface of the vehicle is extracted based on each feature amount grouped in step S70.

ステップS90において、演算処理部4は、路面標示認識部406により、路面標示の認識を行う。ここでは、ステップS80で抽出された各標示線が路面標示であるか否かをそれぞれ判定し、路面標示であれば、それに対応する路面標示の位置等を認識して出力部5へ出力する。   In step S <b> 90, the arithmetic processing unit 4 recognizes the road marking by the road marking recognition unit 406. Here, it is determined whether or not each marking line extracted in step S80 is a road marking. If it is a road marking, the position of the corresponding road marking is recognized and output to the output unit 5.

ステップS100では、出力部5により、ステップS90で演算処理部4から出力された路面標示の認識結果に基づく路面標示情報を出力する。なお、ステップS90において車両が駐車場ではなく道路上を走行していると判定された場合や、路面標示を認識できなかった場合は、その旨を示す情報を路面標示情報として出力することが好ましい。ステップS100を実行したら、図7のフローチャートに示す処理を終了する。   In step S100, the output unit 5 outputs road marking information based on the road marking recognition result output from the arithmetic processing unit 4 in step S90. If it is determined in step S90 that the vehicle is traveling on a road instead of a parking lot, or if the road marking cannot be recognized, information indicating that is preferably output as road marking information. . If step S100 is performed, the process shown in the flowchart of FIG. 7 will be complete | finished.

続いて、ステップS50の特徴量抽出処理について説明する。図8は、特徴量抽出処理のフローチャートである。   Next, the feature amount extraction process in step S50 will be described. FIG. 8 is a flowchart of the feature amount extraction process.

ステップS51において、特徴量抽出部402は、図7のステップS20で画像合成部2により合成された俯瞰画像に対して、エッジ探索を行うサンプリングラインを設定する。ここでは、図7のステップS40で決定されたエッジ探索方向に応じて、所定間隔ごとにサンプリングラインを設定する。   In step S51, the feature amount extraction unit 402 sets a sampling line for performing edge search for the overhead image synthesized by the image synthesis unit 2 in step S20 of FIG. Here, sampling lines are set at predetermined intervals according to the edge search direction determined in step S40 in FIG.

以下のステップS52〜S55の処理は、ステップS51で設定された各サンプリングラインの始点から終点までの間に位置する俯瞰画像の各画素を処理対象として順次選択して行われる。ステップS52において、特徴量抽出部402は、選択中の画素における立ち上がり輝度差分が所定の閾値以上であるか否かを判定する。その結果、閾値未満であれば次の画素を処理対象として選択し、閾値以上であれば、その画素を輝度立ち上がり点として検出してステップS53へ進む。たとえば、当該画素の輝度よりも、当該画素とエッジ探索方向に隣接する画素の輝度の方が高く、さらにこれらの輝度差が所定の閾値以上である場合に、当該画素を輝度立ち上がり点として検出することができる。   The following processes in steps S52 to S55 are performed by sequentially selecting each pixel of the overhead image located between the start point and the end point of each sampling line set in step S51 as a processing target. In step S52, the feature amount extraction unit 402 determines whether or not the rising luminance difference in the selected pixel is equal to or greater than a predetermined threshold value. As a result, if it is less than the threshold, the next pixel is selected as a processing target, and if it is greater than or equal to the threshold, the pixel is detected as a luminance rising point, and the process proceeds to step S53. For example, when the luminance of a pixel adjacent to the pixel in the edge search direction is higher than the luminance of the pixel and the luminance difference is equal to or greater than a predetermined threshold, the pixel is detected as a luminance rising point. be able to.

以下のステップS53〜S55の処理は、ステップS52で検出した輝度立ち上がり点から後述のステップS53またはS54で検出される輝度立ち下がり点までの間に位置する俯瞰画像の各画素を処理対象として順次選択して行われる。ステップS53において、特徴量抽出部402は、選択中の画素における立ち下がり輝度差分が所定の閾値以上であるか否かを判定する。その結果、閾値未満であればステップS54へ進み、閾値以上であれば、その画素を輝度立ち下がり点として検出してステップS55へ進む。たとえば、当該画素の輝度よりも、当該画素とエッジ探索方向に隣接する画素の輝度が低く、さらにこれらの輝度差が所定の閾値以上である場合に、当該画素を輝度立ち下がり点として検出することができる。   In the processing of the following steps S53 to S55, each pixel of the overhead image located between the luminance rising point detected in step S52 and the luminance falling point detected in step S53 or S54 described later is sequentially selected as a processing target. Done. In step S53, the feature amount extraction unit 402 determines whether the falling luminance difference in the selected pixel is equal to or greater than a predetermined threshold value. As a result, if it is less than the threshold value, the process proceeds to step S54. If it is equal to or greater than the threshold value, the pixel is detected as a luminance falling point, and the process proceeds to step S55. For example, when the luminance of a pixel adjacent to the pixel in the edge search direction is lower than the luminance of the pixel and the luminance difference is equal to or greater than a predetermined threshold, the pixel is detected as a luminance falling point. Can do.

ステップS54において、特徴量抽出部402は、選択中の画素がサンプリングラインの終点に到達したか否かを判定する。その結果、終点に到達していなければ次の画素へと進み、到達していた場合は、その画素を輝度立ち下がり点として検出してステップS55へ進む。   In step S54, the feature amount extraction unit 402 determines whether the selected pixel has reached the end point of the sampling line. As a result, if the end point has not been reached, the process proceeds to the next pixel. If the end point has been reached, the pixel is detected as a luminance falling point, and the process proceeds to step S55.

ステップS55において、特徴量抽出部402は、ステップS52で検出した輝度立ち上がり点と、ステップS53またはS54で検出した輝度立ち下がり点との間の距離から、特徴量としてのエッジ間隔を算出する。   In step S55, the feature amount extraction unit 402 calculates an edge interval as a feature amount from the distance between the luminance rising point detected in step S52 and the luminance falling point detected in step S53 or S54.

ステップS56において、特徴量抽出部402は、ステップS55で算出した各サンプリングラインのエッジ間隔、すなわち特徴量の情報を、特徴点情報として不図示のメモリに記録する。ステップS56を実行したら、特徴量抽出処理を完了し、図7のステップS60へ進む。   In step S56, the feature quantity extraction unit 402 records the edge interval of each sampling line calculated in step S55, that is, the feature quantity information as feature point information in a memory (not shown). When step S56 is executed, the feature amount extraction process is completed, and the process proceeds to step S60 in FIG.

次に、ステップS70の特徴量グループ化処理について説明する。図9は、特徴量グループ化処理のフローチャートである。   Next, the feature amount grouping process in step S70 will be described. FIG. 9 is a flowchart of the feature amount grouping process.

ステップS71において、特徴量グループ化部404は、グループ番号を初期化する。   In step S71, the feature amount grouping unit 404 initializes a group number.

以下のステップS72〜S76の処理は、図7のステップS60で特徴量補正部403により特徴量を補正された全ての特徴点に対して、各特徴点を処理対象として順次選択して行われる。ステップS72において、特徴量グループ化部404は、選択中の特徴点における補正後の特徴量の大きさが所定範囲内であるか否かを判定する。その結果、所定範囲外であれば次の特徴点を処理対象として選択し、所定範囲内であれば、その特徴点を処理対象として選択してステップS73へ進む。   The following steps S72 to S76 are performed by sequentially selecting each feature point as a processing target for all the feature points whose feature amounts have been corrected by the feature amount correcting unit 403 in step S60 of FIG. In step S72, the feature quantity grouping unit 404 determines whether the size of the corrected feature quantity at the selected feature point is within a predetermined range. As a result, if it is outside the predetermined range, the next feature point is selected as the processing target, and if it is within the predetermined range, the feature point is selected as the processing target, and the process proceeds to step S73.

上記の処理により、特徴量グループ化部404は、特徴量補正部403により補正された各特徴量のうち、所定の対象線幅の範囲内にないものは除外して、対象線幅の範囲内に属する各特徴量のみをグループ化することができる。なお、対象線幅には、抽出対象とする標示線の種類に応じて任意の値を設定することができる。たとえば、駐車枠線に対応する第1の対象線幅として10〜20cm、横断歩道に対応する第2の対象線幅として50〜70cmをそれぞれ設定した場合、以降のステップS73〜S76の処理では、これらの対象線幅の範囲内にある特徴量のみをグループ化の対象として、それぞれ別々にグループ化することができる。   With the above processing, the feature quantity grouping unit 404 excludes those feature quantities corrected by the feature quantity correction unit 403 that are not within the predetermined target line width range, and falls within the target line width range. Only the feature quantities belonging to can be grouped. Note that an arbitrary value can be set as the target line width according to the type of the marking line to be extracted. For example, when 10 to 20 cm is set as the first target line width corresponding to the parking frame line and 50 to 70 cm is set as the second target line width corresponding to the pedestrian crossing, in the processing of the subsequent steps S73 to S76, Only the feature amounts within the range of the target line width can be grouped separately as grouping targets.

ステップS73において、特徴量グループ化部404は、選択中の特徴点の近傍に、既にグループ番号を付与済みである特徴点が存在するか否かを判定する。こうした特徴点が近傍に存在すればステップS74へ進み、存在しなければステップS75へ進む。   In step S73, the feature amount grouping unit 404 determines whether there is a feature point to which a group number has already been assigned in the vicinity of the selected feature point. If such a feature point exists in the vicinity, the process proceeds to step S74, and if not, the process proceeds to step S75.

ステップS74において、特徴量グループ化部404は、選択中の特徴点における補正後の特徴量と、ステップS74で判定した近傍特徴点における特徴量とが類似しているか否かを判定する。これらの特徴量の差が小さければ、類似していると判定してステップS76へ進み、差が大きければ、類似していないと判定してステップS75へ進む。   In step S74, the feature quantity grouping unit 404 determines whether the corrected feature quantity at the selected feature point is similar to the feature quantity at the neighboring feature point determined in step S74. If the difference between these feature amounts is small, it is determined that they are similar, and the process proceeds to step S76. If the difference is large, it is determined that they are not similar, and the process proceeds to step S75.

ステップS75において、特徴量グループ化部404は、選択中の特徴点に対して新規のグループ番号を付与する。これにより、当該特徴点を、これまでにグループ化済みの各特徴点とは別のグループに分類する。   In step S75, the feature amount grouping unit 404 assigns a new group number to the selected feature point. As a result, the feature points are classified into a group different from the feature points already grouped.

ステップS76において、特徴量グループ化部404は、選択中の特徴点を、ステップS74で特徴量が類似していると判定した近傍特徴点と同一のグループに登録して、これらに同じグループ番号を付与する。これにより、当該特徴点を既に分類済みのグループのいずれかに加える。   In step S76, the feature quantity grouping unit 404 registers the selected feature points in the same group as the neighboring feature points determined to have similar feature quantities in step S74, and assigns the same group number to these. Give. Thus, the feature point is added to any of already classified groups.

ステップS77において、特徴量グループ化部404は、各特徴点に付与されたグループ番号の情報をグループ情報として不図示のメモリに記録する。ステップS77を実行したら、特徴量グループ化処理を完了し、図7のステップS80へ進む。   In step S77, the feature quantity grouping unit 404 records the group number information assigned to each feature point as group information in a memory (not shown). When step S77 is executed, the feature amount grouping process is completed, and the process proceeds to step S80 in FIG.

次に、ステップS80の線抽出処理について説明する。図10は、線抽出処理のフローチャートである。   Next, the line extraction process in step S80 will be described. FIG. 10 is a flowchart of the line extraction process.

ステップS81において、線抽出部405は、グループ番号を初期化する。   In step S81, the line extraction unit 405 initializes the group number.

以下のステップS82〜S86の処理は、図8のステップS70で特徴量グループ化部404により分類された全てのグループに対して、各グループを一対の処理対象グループの一方として順次選択して行われる。ステップS82において、線抽出部405は、選択中のグループが白線として既に登録済みであるか否かを判定する。既に登録済みであれば次のグループを処理対象として選択し、未登録であれば、そのグループを処理対象として選択してステップS83へ進む。   The processes in steps S82 to S86 below are performed by sequentially selecting each group as one of a pair of processing target groups for all the groups classified by the feature amount grouping unit 404 in step S70 of FIG. . In step S82, the line extraction unit 405 determines whether the selected group has already been registered as a white line. If already registered, the next group is selected as a processing target, and if not registered, that group is selected as a processing target and the process proceeds to step S83.

以下のステップS83〜S86の処理は、上記で選択中のグループを除いた他の全てのグループに対して、その各グループを一対の処理対象グループの他方として順次選択して行われる。ステップS83において、線抽出部405は、選択中の一対のグループの間で所定の同一性条件が成立するか否かを判定する。その結果、同一性条件が成立すればステップS84へ進み、成立しなければ次のグループを選択する。   The following steps S83 to S86 are performed by sequentially selecting each group as the other of the pair of processing target groups for all other groups except the group currently selected. In step S83, the line extraction unit 405 determines whether or not a predetermined identity condition is satisfied between the selected pair of groups. As a result, if the identity condition is satisfied, the process proceeds to step S84, and if not, the next group is selected.

ステップS84において、線抽出部405は、選択中の一対のグループの間で所定の角度条件が成立するか否かを判定する。その結果、角度条件が成立すればステップS85へ進み、成立しなければ次のグループを選択する。   In step S84, the line extraction unit 405 determines whether or not a predetermined angle condition is satisfied between the selected pair of groups. As a result, if the angle condition is satisfied, the process proceeds to step S85, and if not satisfied, the next group is selected.

ステップS85において、線抽出部405は、選択中の一対のグループの間で所定の長さ条件が成立するか否かを判定する。その結果、長さ条件が成立すればステップS86へ進み、成立しなければ次のグループを選択する。   In step S85, the line extraction unit 405 determines whether or not a predetermined length condition is satisfied between the selected pair of groups. As a result, if the length condition is satisfied, the process proceeds to step S86, and if not, the next group is selected.

ステップS86において、線抽出部405は、選択中の一対のグループを同一の白線としてそれぞれ登録する。   In step S86, the line extraction unit 405 registers the selected pair of groups as the same white line.

ステップS87において、線抽出部405は、ステップS86で登録された各白線の情報を線抽出結果として路面標示認識部406へ出力する。ステップS87を実行したら、線抽出処理を完了し、図7のステップS90へ進む。   In step S87, the line extraction unit 405 outputs the information on each white line registered in step S86 to the road marking recognition unit 406 as a line extraction result. When step S87 is executed, the line extraction process is completed, and the process proceeds to step S90 in FIG.

以上説明した実施の形態によれば、次のような作用効果を奏する。   According to the embodiment described above, the following operational effects can be obtained.

(1)車載画像処理装置100は、車両の周囲を撮影して撮影画像を取得するカメラ1a〜1dと、カメラ1a〜1dの設置状態を検出する設置状態検出部3と、演算処理部4とを備える。演算処理部4は、特徴量抽出部402、特徴量補正部403、特徴量グループ化部404、線抽出部405および路面標示認識部406を備える。特徴量抽出部402は、撮影画像に基づいて、車両の走行面に描かれた標示線の線幅に応じた特徴量を抽出する(ステップS50)。特徴量補正部403は、ステップS10で設置状態検出部3により検出されたカメラ1a〜1dの設置状態に基づいて、特徴量抽出部402により抽出された各特徴量を補正する(ステップS60)。特徴量グループ化部404は、特徴量補正部403により補正された各特徴量をグループ化する(ステップS70)。線抽出部405は、特徴量グループ化部404によりグループ化された各特徴量に基づいて、車両の走行面に描かれた標示線を抽出する(ステップS80)。路面標示認識部406は、線抽出部405により抽出された標示線に基づいて路面標示を認識し、その認識結果を出力する(ステップS90)。このようにしたので、路面標示の誤検出を抑制しつつ、処理の高速化を図ることができる。 (1) The in-vehicle image processing apparatus 100 includes cameras 1a to 1d that shoot around the vehicle and acquire captured images, an installation state detection unit 3 that detects installation states of the cameras 1a to 1d, and an arithmetic processing unit 4. Is provided. The arithmetic processing unit 4 includes a feature amount extraction unit 402, a feature amount correction unit 403, a feature amount grouping unit 404, a line extraction unit 405, and a road marking recognition unit 406. The feature amount extraction unit 402 extracts a feature amount corresponding to the line width of the marking line drawn on the traveling surface of the vehicle based on the captured image (step S50). The feature amount correction unit 403 corrects each feature amount extracted by the feature amount extraction unit 402 based on the installation state of the cameras 1a to 1d detected by the installation state detection unit 3 in step S10 (step S60). The feature quantity grouping unit 404 groups the feature quantities corrected by the feature quantity correction unit 403 (step S70). The line extraction unit 405 extracts a marking line drawn on the traveling surface of the vehicle based on the feature amounts grouped by the feature amount grouping unit 404 (step S80). The road marking recognition unit 406 recognizes the road marking based on the marking line extracted by the line extraction unit 405, and outputs the recognition result (step S90). Since it did in this way, speeding-up of a process can be achieved, suppressing the erroneous detection of a road marking.

(2)特徴量グループ化部404は、特徴量補正部403により補正された各特徴量のうち、所定の対象線幅の範囲内に属する各特徴量のみをグループ化する(ステップS72)。このようにしたので、処理に関係のない標示線に対応する特徴量をグループ化の対象から除外して、以降の処理負荷を軽減し、さらなる処理の高速化を図ることができる。 (2) The feature quantity grouping unit 404 groups only the feature quantities that fall within a predetermined target line width among the feature quantities corrected by the feature quantity correction unit 403 (step S72). Since it did in this way, the feature-value corresponding to the marking line which is not related to a process can be excluded from the grouping object, a subsequent processing load can be reduced, and the further processing speed can be achieved.

(3)上記の対象線幅は、たとえば、駐車枠線に対応する第1の対象線幅と、横断歩道に対応する第2の対象線幅とを含むことができる。この場合、特徴量グループ化部404は、第1の対象線幅の範囲内に属する各特徴量と、第2の対象線幅の範囲内に属する各特徴量とを、それぞれ別々にグループ化する(ステップS73〜S76)。このようにすれば、駐車枠線と横断歩道をそれぞれ別々の線として確実に抽出することができる。 (3) The target line width can include, for example, a first target line width corresponding to a parking frame line and a second target line width corresponding to a pedestrian crossing. In this case, the feature quantity grouping unit 404 separately groups each feature quantity belonging to the first target line width range and each feature quantity belonging to the second target line width range. (Steps S73 to S76). In this way, the parking frame line and the pedestrian crossing can be reliably extracted as separate lines.

(4)設置状態検出部3は、カメラ1a〜1dの設置状態として、車両の走行面に対するカメラ1a〜1dの位置および姿勢を検出する。このようにしたので、特徴量に影響を及ぼすカメラ1a〜1dの設置状態を確実に検出できる。 (4) The installation state detection unit 3 detects the positions and orientations of the cameras 1a to 1d with respect to the traveling surface of the vehicle as the installation states of the cameras 1a to 1d. Since it did in this way, the installation state of the cameras 1a-1d which affect a feature-value can be detected reliably.

(5)車載画像処理装置100は、複数のカメラ1a〜1dと、この複数のカメラ1a〜1dにより取得された各撮影画像に基づいて俯瞰画像を合成する画像合成部2とを有している。特徴量抽出部402は、この俯瞰画像から特徴量を抽出する。このようにしたので、車両周囲の走行面に描かれた標示線の特徴量を確実に抽出することができる。 (5) The in-vehicle image processing apparatus 100 includes a plurality of cameras 1a to 1d and an image composition unit 2 that synthesizes an overhead image based on each captured image acquired by the plurality of cameras 1a to 1d. . The feature amount extraction unit 402 extracts a feature amount from this overhead image. Since it did in this way, the feature-value of the marking line drawn on the running surface around a vehicle can be extracted reliably.

なお、以上説明した実施の形態では、カメラ1a〜1dにより撮影された各撮影画像に基づいて、画像合成部2により俯瞰画像を合成し、この俯瞰画像から特徴量抽出部402により特徴量を抽出することとした。しかし、俯瞰画像を合成せずに、カメラの撮影画像から直接に特徴量を抽出してもよい。   In the embodiment described above, the image composition unit 2 synthesizes the bird's-eye view image based on the captured images taken by the cameras 1a to 1d, and the feature amount extraction unit 402 extracts the feature amount from the bird's-eye view image. It was decided to. However, the feature amount may be directly extracted from the captured image of the camera without synthesizing the overhead view image.

(変形例1)
撮影装置の設置状態を検出する設置状態検出部として、公知技術であるセルフキャリブレーションを用いても良い。セルフキャリブレーションはターゲットレスキャリブレーションなどとも呼ばれ、移動体が走行中に複数地点で画像を撮像し、画像中に写る同一特徴点を追跡することにより、自車姿勢を算出できる。さらに、自車姿勢からの相対的な位置関係で撮像装置の設置状態を検出してもよい。こうすることにより、追加のセンサ装置が不要となり、装置を低コスト化することが可能となる。
(Modification 1)
A self-calibration that is a known technique may be used as an installation state detection unit that detects the installation state of the photographing apparatus. Self-calibration is also called targetless calibration, and the vehicle posture can be calculated by capturing images at a plurality of points while the moving body is traveling and tracking the same feature points appearing in the images. Furthermore, you may detect the installation state of an imaging device with the relative positional relationship from the own vehicle attitude | position. By doing so, an additional sensor device is not required, and the cost of the device can be reduced.

(変形例2)
撮影装置の設置状態を検出する設置状態検出部として、公知技術である走行路白線ペアの平行性や、横断歩道予告などの形状が既知の路面標示を観測することにより、自車姿勢を算出し、自車姿勢からの相対的な位置関係で撮像装置の設置状態を検出してもよい。こうすることにより、追加のセンサ装置が不要となり、装置を低コスト化することが可能となる。
(Modification 2)
As an installation state detection unit that detects the installation state of the imaging device, the vehicle posture is calculated by observing road markings with known shapes such as the parallelism of the white road pairs that are known in the art and pedestrian crossing notices. The installation state of the imaging device may be detected based on the relative positional relationship from the vehicle attitude. By doing so, an additional sensor device is not required, and the cost of the device can be reduced.

以上説明した実施の形態や各種の変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されるものではない。   The embodiment and various modifications described above are merely examples, and the present invention is not limited to these contents as long as the features of the invention are not impaired.

1a、1b、1c、1d カメラ
2 画像合成部
3 設置状態検出部
4 演算処理部
5 出力部
100 車載画像処理装置
401 エッジ探索方向決定部
402 特徴量抽出部
403 特徴量補正部
404 特徴量グループ化部
405 線抽出部
406 路面標示認識部
DESCRIPTION OF SYMBOLS 1a, 1b, 1c, 1d Camera 2 Image composition part 3 Installation state detection part 4 Arithmetic processing part 5 Output part 100 Car-mounted image processing apparatus 401 Edge search direction determination part 402 Feature quantity extraction part 403 Feature quantity correction part 404 Feature quantity grouping 405 Line extraction unit 406 Road marking recognition unit

Claims (6)

車両の周囲を撮影して撮影画像を取得する撮影装置と、
前記撮影装置の設置状態を検出する設置状態検出部と、
前記撮影画像に基づいて、前記車両の走行面に描かれた標示線の線幅に応じた特徴量を所定間隔ごとに抽出する特徴量抽出部と、
前記設置状態検出部により検出された撮影装置の設置状態に基づいて、前記特徴量抽出部により抽出された各特徴量を補正する特徴量補正部と、
前記特徴量補正部により補正された各特徴量をグループ化する特徴量グループ化部と、
前記特徴量グループ化部によりグループ化された各特徴量に基づいて、前記標示線を抽出する線抽出部と、
前記線抽出部により抽出された標示線に基づいて路面標示を認識し、その認識結果を出力する路面標示認識部と、を備えることを特徴とする車載画像処理装置。
An imaging device that captures an image of the surrounding area of the vehicle;
An installation state detection unit for detecting an installation state of the imaging device;
A feature amount extraction unit that extracts a feature amount corresponding to a line width of a marking line drawn on the traveling surface of the vehicle based on the captured image;
A feature amount correction unit that corrects each feature amount extracted by the feature amount extraction unit based on the installation state of the imaging device detected by the installation state detection unit;
A feature amount grouping unit that groups the feature amounts corrected by the feature amount correction unit;
A line extraction unit that extracts the marking line based on the feature amounts grouped by the feature amount grouping unit;
An in-vehicle image processing apparatus comprising: a road marking recognition unit that recognizes a road marking based on the marking line extracted by the line extraction unit and outputs the recognition result.
請求項1に記載の車載画像処理装置において、
前記特徴量グループ化部は、前記特徴量補正部により補正された各特徴量のうち、所定の対象線幅の範囲内に属する各特徴量のみをグループ化することを特徴とする車載画像処理装置。
The in-vehicle image processing apparatus according to claim 1,
The feature amount grouping unit groups only feature amounts belonging to a predetermined target line width among the feature amounts corrected by the feature amount correction unit. .
請求項2に記載の車載画像処理装置において、
前記対象線幅は、路面標示に対応する第1の対象線幅と、横断歩道に対応する第2の対象線幅とを含み、
前記特徴量グループ化部は、前記第1の対象線幅の範囲内に属する各特徴量と、前記第2の対象線幅の範囲内に属する各特徴量とを、それぞれ別々にグループ化することを特徴とする車載画像処理装置。
The in-vehicle image processing apparatus according to claim 2,
The target line width includes a first target line width corresponding to a road marking and a second target line width corresponding to a pedestrian crossing,
The feature amount grouping unit separately groups each feature amount belonging to the range of the first target line width and each feature amount belonging to the range of the second target line width. An in-vehicle image processing apparatus characterized by the above.
請求項1乃至3のいずれか一項に記載の車載画像処理装置において、
前記設置状態検出部は、前記撮影装置の設置状態として、前記車両の走行面に対する前記撮影装置の位置および姿勢を検出することを特徴とする車載画像処理装置。
The in-vehicle image processing device according to any one of claims 1 to 3,
The in-vehicle image processing apparatus, wherein the installation state detection unit detects a position and an attitude of the imaging device with respect to a traveling surface of the vehicle as an installation state of the imaging device.
請求項1乃至3のいずれか一項に記載の車載画像処理装置において、
前記撮影装置を複数有しており、
前記複数の撮影装置により取得された各撮影画像に基づいて俯瞰画像を合成する画像合成部をさらに備え、
前記特徴量抽出部は、前記俯瞰画像から前記特徴量を抽出することを特徴とする車載画像処理装置。
The in-vehicle image processing device according to any one of claims 1 to 3,
A plurality of the photographing devices;
An image compositing unit that combines the overhead images based on the captured images acquired by the plurality of imaging devices;
The in-vehicle image processing apparatus, wherein the feature amount extraction unit extracts the feature amount from the overhead image.
請求項1乃至5のいずれか一項に記載の車載画像処理装置において、
前記路面標示認識部は、前記路面標示として駐車枠線を認識することを特徴とする車載画像処理装置。
The in-vehicle image processing device according to any one of claims 1 to 5,
The in-vehicle image processing apparatus, wherein the road marking recognition unit recognizes a parking frame line as the road marking.
JP2012259073A 2012-11-27 2012-11-27 In-vehicle image processing device Pending JP2014106739A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012259073A JP2014106739A (en) 2012-11-27 2012-11-27 In-vehicle image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012259073A JP2014106739A (en) 2012-11-27 2012-11-27 In-vehicle image processing device

Publications (2)

Publication Number Publication Date
JP2014106739A true JP2014106739A (en) 2014-06-09
JP2014106739A5 JP2014106739A5 (en) 2015-12-24

Family

ID=51028170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012259073A Pending JP2014106739A (en) 2012-11-27 2012-11-27 In-vehicle image processing device

Country Status (1)

Country Link
JP (1) JP2014106739A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015227139A (en) * 2014-06-02 2015-12-17 株式会社日本自動車部品総合研究所 On-vehicle image processing apparatus
JP2018077566A (en) * 2016-11-07 2018-05-17 日産自動車株式会社 Posture estimation method and posture estimation device of parking control device
CN110210415A (en) * 2019-06-05 2019-09-06 福州大学 Vehicle-mounted laser point cloud roadmarking recognition methods based on graph structure
JP2019196075A (en) * 2018-05-09 2019-11-14 株式会社デンソーテン Parking frame detection device and parking frame detection method
CN115641359A (en) * 2022-10-17 2023-01-24 北京百度网讯科技有限公司 Method, apparatus, electronic device, and medium for determining motion trajectory of object
WO2023090186A1 (en) * 2021-11-17 2023-05-25 株式会社アイシン Parking assistance device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145852A (en) * 2002-08-27 2004-05-20 Clarion Co Ltd Method for detecting position of lane marker, apparatus for detecting position of lane marker and alarm apparatus for lane deviation
JP2011154480A (en) * 2010-01-26 2011-08-11 Fujitsu Ltd Program and device for detection of lane
JP2011180962A (en) * 2010-03-03 2011-09-15 Panasonic Corp Drive assist device, drive assist method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145852A (en) * 2002-08-27 2004-05-20 Clarion Co Ltd Method for detecting position of lane marker, apparatus for detecting position of lane marker and alarm apparatus for lane deviation
JP2011154480A (en) * 2010-01-26 2011-08-11 Fujitsu Ltd Program and device for detection of lane
JP2011180962A (en) * 2010-03-03 2011-09-15 Panasonic Corp Drive assist device, drive assist method and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015227139A (en) * 2014-06-02 2015-12-17 株式会社日本自動車部品総合研究所 On-vehicle image processing apparatus
JP2018077566A (en) * 2016-11-07 2018-05-17 日産自動車株式会社 Posture estimation method and posture estimation device of parking control device
JP2019196075A (en) * 2018-05-09 2019-11-14 株式会社デンソーテン Parking frame detection device and parking frame detection method
CN110210415A (en) * 2019-06-05 2019-09-06 福州大学 Vehicle-mounted laser point cloud roadmarking recognition methods based on graph structure
CN110210415B (en) * 2019-06-05 2022-09-30 福州大学 Vehicle-mounted laser point cloud road marking identification method based on graph structure
WO2023090186A1 (en) * 2021-11-17 2023-05-25 株式会社アイシン Parking assistance device
CN115641359A (en) * 2022-10-17 2023-01-24 北京百度网讯科技有限公司 Method, apparatus, electronic device, and medium for determining motion trajectory of object
CN115641359B (en) * 2022-10-17 2023-10-31 北京百度网讯科技有限公司 Method, device, electronic equipment and medium for determining movement track of object

Similar Documents

Publication Publication Date Title
TWI534764B (en) Apparatus and method for vehicle positioning
JP4973736B2 (en) Road marking recognition device, road marking recognition method, and road marking recognition program
JP4801821B2 (en) Road shape estimation device
JP4725391B2 (en) Visibility measuring device for vehicle and driving support device
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
JP6393189B2 (en) In-vehicle image processing device
JP5267596B2 (en) Moving body detection device
US20120166033A1 (en) Method and apparatus for detecting driving information of autonomous driving system
US8526681B2 (en) On-vehicle image processing device for vehicular control
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP2008002906A (en) Positioning device
JP2014106739A (en) In-vehicle image processing device
WO2012141053A1 (en) Image processing device
KR101573576B1 (en) Image processing method of around view monitoring system
JP5065172B2 (en) Vehicle lighting determination device and program
JP6086424B2 (en) In-vehicle image processing device
JP5365792B2 (en) Vehicle position measuring device
JP2011118509A (en) Road recognition device
JP6152261B2 (en) Car parking frame recognition device
JP6278790B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP2018073275A (en) Image recognition device
JP2007018451A (en) Road boundary line detecting device
JP2017117105A (en) Visibility determination device
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161220