JP2015064735A - Apparatus and method for estimating vehicle position - Google Patents

Apparatus and method for estimating vehicle position Download PDF

Info

Publication number
JP2015064735A
JP2015064735A JP2013198029A JP2013198029A JP2015064735A JP 2015064735 A JP2015064735 A JP 2015064735A JP 2013198029 A JP2013198029 A JP 2013198029A JP 2013198029 A JP2013198029 A JP 2013198029A JP 2015064735 A JP2015064735 A JP 2015064735A
Authority
JP
Japan
Prior art keywords
edge
vehicle
white line
edge coordinate
vehicle speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013198029A
Other languages
Japanese (ja)
Other versions
JP6241172B2 (en
Inventor
田中 慎也
Shinya Tanaka
慎也 田中
古性 裕之
Hiroyuki Kosho
裕之 古性
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2013198029A priority Critical patent/JP6241172B2/en
Publication of JP2015064735A publication Critical patent/JP2015064735A/en
Application granted granted Critical
Publication of JP6241172B2 publication Critical patent/JP6241172B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate a position and attitude of a vehicle between lane markings even if the lane markings cannot be observed in some of captured images.SOLUTION: An edge extraction section 107 extracts an edge of a lane marking from an image obtained by capturing left and right lane markings for forming lanes. An edge coordinate holding section 109 holds the extracted edge in association with coordinates on the image. An edge coordinate update section 110 moves the held edge opposite to a vehicle traveling direction by a vehicle moving amount corresponding to a vehicle speed, for update. A lane marking recognition section 113 recognizes a lane marking from the held edge. A position attitude estimation section 114 estimates a position and attitude of a vehicle 101 between the lane markings.

Description

本発明は、自車位置推定装置及び自車位置推定方法に関する。   The present invention relates to a host vehicle position estimation device and a host vehicle position estimation method.

従来より、車両の左右に搭載されたカメラを用いて走行道路の白線を認識し、白線内における車両の横位置・ヨー角を推定する技術が開示されている(特許文献1)。特許文献1では、カメラの撮像領域に含まれる白線と車両の前輪及び後輪の映像を基準にして、前輪及び後輪から白線までの距離を求め、白線内における車両の横位置、ヨー角を推定している。   Conventionally, a technique for recognizing a white line on a traveling road using cameras mounted on the left and right sides of the vehicle and estimating the lateral position and yaw angle of the vehicle in the white line has been disclosed (Patent Document 1). In Patent Document 1, the distance from the front and rear wheels to the white line is obtained based on the white line included in the imaging area of the camera and the images of the front and rear wheels of the vehicle, and the lateral position and yaw angle of the vehicle within the white line are determined. Estimated.

特開2001−283390号公報JP 2001-283390 A

しかしながら、上記従来技術は、画像中の白線と車輪等に基づいて車両の横位置、ヨー角を推定しているため、撮像した全ての画像に必ず白線が映っている必要があり、破線により一部の画像で白線が観測できない場合には推定できない、という問題がある。   However, since the above-described prior art estimates the lateral position and yaw angle of the vehicle based on the white line and wheels in the image, it is necessary that the white line is always shown in all captured images. There is a problem that it cannot be estimated when the white line cannot be observed in the image of the part.

本発明は、上記問題に鑑みてなされたものであり、その目的とするところは、撮像した画像のうち、一部の画像で白線を観測できない場合においても、白線内における車両の位置及び姿勢を推定することである。   The present invention has been made in view of the above problems, and the object of the present invention is to determine the position and posture of the vehicle in the white line even when the white line cannot be observed in some of the captured images. Is to estimate.

本発明の一態様に係わる自車位置推定装置は、走行車線を区分する左右の白線を撮像した画像から白線のエッジを抽出する。また、抽出したエッジを画像上の座標と対応付けて保持し、保持したエッジを車速に応じた車両の移動量だけ車両進行方向反対側に移動して更新する。そして、保持するエッジから白線を認識し、認識した白線内における車両の位置及び姿勢を推定する。   The host vehicle position estimation apparatus according to an aspect of the present invention extracts white line edges from an image obtained by imaging the left and right white lines that divide a traveling lane. Further, the extracted edge is held in association with the coordinates on the image, and the held edge is updated by moving to the opposite side in the vehicle traveling direction by the amount of movement of the vehicle according to the vehicle speed. Then, the white line is recognized from the held edge, and the position and orientation of the vehicle in the recognized white line are estimated.

本発明によれば、撮像した画像のうち、一部の画像で白線を観測できなくても、保持するエッジから白線を認識できるため、認識した白線内における車両の位置及び姿勢を推定することができる。   According to the present invention, even if the white line cannot be observed in some of the captured images, the white line can be recognized from the held edge, so that the position and orientation of the vehicle within the recognized white line can be estimated. it can.

図1は、本発明の第1実施形態に係る自車位置推定装置のシステム構成図である。FIG. 1 is a system configuration diagram of the host vehicle position estimation apparatus according to the first embodiment of the present invention. 図2は、本発明の第1実施形態に係る自車位置推定装置のシステムブロック図である。FIG. 2 is a system block diagram of the host vehicle position estimation apparatus according to the first embodiment of the present invention. 図3は、カメラの撮像領域を示す図である。FIG. 3 is a diagram illustrating an imaging region of the camera. 図4は、魚眼レンズを用いたカメラで撮像した画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of an image captured by a camera using a fisheye lens. 図5は、撮像した画像からエッジを抽出する図である。FIG. 5 is a diagram for extracting an edge from a captured image. 図6は、エッジ座標を画像座標系から世界座標系へ変換する図である。FIG. 6 is a diagram for converting edge coordinates from an image coordinate system to a world coordinate system. 図7は、エッジ座標の更新を説明する図である。FIG. 7 is a diagram for explaining the update of edge coordinates. 図8は、白線の認識を説明する図である。FIG. 8 is a diagram for explaining white line recognition. 図9は、高速走行時において白線を認識するために必要なエッジ座標を説明する図である。FIG. 9 is a diagram for explaining edge coordinates necessary for recognizing a white line during high-speed traveling. 図10は、低速走行時において白線を認識するために必要なエッジ座標を説明する図である。FIG. 10 is a diagram for explaining edge coordinates necessary for recognizing a white line during low-speed traveling. 図11は、エッジ座標の削除方法を説明する図である。FIG. 11 is a diagram for explaining a method for deleting edge coordinates. 図12は、本発明の第1実施形態に係る自車位置推定方法の一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of the vehicle position estimation method according to the first embodiment of the present invention. 図13は、本発明の第2実施形態に係るエッジ座標の削除方法を説明する図である。FIG. 13 is a diagram for explaining an edge coordinate deletion method according to the second embodiment of the present invention. 図14は、本発明の第3実施形態に係る自車位置推定装置のシステムブロック図である。FIG. 14 is a system block diagram of the host vehicle position estimation apparatus according to the third embodiment of the present invention.

以下、本発明の具体的な実施形態について、図面を参照しながら詳細に説明する。図面の記載において同一部分には同一符号を付し説明を省略する。   Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same parts are denoted by the same reference numerals and description thereof is omitted.

[第1実施形態]
図1は、本実施形態1に係る自車位置推定装置のシステム構成図である。自車位置推定装置は、フロントカメラ102と、右カメラ103と、左カメラ104と、計算機105と、車線逸脱防止警報システム106と、を備える。
[First Embodiment]
FIG. 1 is a system configuration diagram of the vehicle position estimation apparatus according to the first embodiment. The own vehicle position estimation device includes a front camera 102, a right camera 103, a left camera 104, a computer 105, and a lane departure prevention alarm system 106.

フロントカメラ102は、車両101の前方に地面からの高さh1、水平から下向きに角度θ1の位置・姿勢で取り付けられている。右カメラ103及び左カメラ104は、車両101の側方に地面からの高さh2、水平から下向きに角度θ2の位置・姿勢で取り付けられている。これらのカメラは、例えばCCDやCMOSなどの撮像素子を有したカメラであり、時間的に連続して撮像し、撮像した画像を出力する。また、これらのカメラは、広い検出エリアを確保するため、魚眼レンズ(または広角レンズ)を撮像素子の前面に取り付けた魚眼カメラである。なお、車両101の前方、側方だけでなく、後方にも同様のカメラを搭載してもよい。   The front camera 102 is mounted in front of the vehicle 101 at a position / posture of a height h1 from the ground and an angle θ1 from the horizontal to the downward direction. The right camera 103 and the left camera 104 are attached to the side of the vehicle 101 at a position / posture of a height h2 from the ground and an angle θ2 downward from the horizontal. These cameras are cameras having an image sensor such as a CCD or a CMOS, for example, and take images continuously in time and output the taken images. These cameras are fisheye cameras in which a fisheye lens (or a wide-angle lens) is attached to the front surface of the image sensor in order to ensure a wide detection area. A similar camera may be mounted not only on the front and side of the vehicle 101 but also on the rear.

計算機105は、CPU、RAM、ROM、及び各種の操作子等からなるマイコンにより構成され、フロントカメラ102,右カメラ103及び左カメラ104で撮像された画像を取り込み、所定の画像処理を実行する。   The computer 105 includes a microcomputer including a CPU, a RAM, a ROM, various operators, and the like. The computer 105 takes in images captured by the front camera 102, the right camera 103, and the left camera 104, and executes predetermined image processing.

車線逸脱防止警報システム106は、計算機105の画像処理結果に応じて、運転者に警報を行う。警報は、例えば、警報音や各種音声ガイダンスを発生させたり、カーナビゲーション装置に警告画面を表示するものである。   The lane departure prevention warning system 106 warns the driver according to the image processing result of the computer 105. For example, the alarm generates an alarm sound or various voice guidance, or displays a warning screen on the car navigation device.

図2は、自車位置推定装置のシステムブロック図である。図2に示すように、自車位置推定装置は、フロントカメラ102と、右カメラ103と、左カメラ104と、計算機105と、車速センサー112と、車線逸脱防止警報システム106と、を備える。さらに、計算機105は、エッジ抽出部107と、座標変換部108と、エッジ座標保持部109と、エッジ座標更新部110と、エッジ座標消去部111と、白線認識部113と、位置姿勢推定部114と、を備える。   FIG. 2 is a system block diagram of the vehicle position estimation apparatus. As shown in FIG. 2, the host vehicle position estimation apparatus includes a front camera 102, a right camera 103, a left camera 104, a calculator 105, a vehicle speed sensor 112, and a lane departure prevention alarm system 106. Further, the computer 105 includes an edge extraction unit 107, a coordinate conversion unit 108, an edge coordinate holding unit 109, an edge coordinate update unit 110, an edge coordinate deletion unit 111, a white line recognition unit 113, and a position and orientation estimation unit 114. And comprising.

エッジ抽出部107は、フロントカメラ102,右カメラ103及び左カメラ104(以下、各カメラと称す)で撮像した画像を画像処理することでエッジを抽出する。   The edge extraction unit 107 extracts edges by performing image processing on images captured by the front camera 102, the right camera 103, and the left camera 104 (hereinafter referred to as each camera).

座標変換部108は、エッジ抽出部107で抽出したエッジの画像上の座標を世界座標系に変換する。   The coordinate conversion unit 108 converts the coordinates on the edge image extracted by the edge extraction unit 107 into the world coordinate system.

エッジ座標保持部109は、各カメラで撮像した画像から抽出されたエッジ座標と、エッジ座標更新部110で更新されたエッジ座標を保持する。   The edge coordinate holding unit 109 holds the edge coordinates extracted from the image captured by each camera and the edge coordinates updated by the edge coordinate updating unit 110.

エッジ座標更新部110は、エッジ座標保持部109が保持するエッジ座標を、車速センサー112で計測された車速分だけ移動して更新する。   The edge coordinate updating unit 110 moves and updates the edge coordinates held by the edge coordinate holding unit 109 by the vehicle speed measured by the vehicle speed sensor 112.

エッジ座標消去部111は、エッジ座標更新部110で更新したエッジ座標を所定の条件に基づいて消去する。   The edge coordinate deleting unit 111 deletes the edge coordinates updated by the edge coordinate updating unit 110 based on a predetermined condition.

車速センサー112は、車速を観測するための装置であり、車両101に取り付けられる。   The vehicle speed sensor 112 is a device for observing the vehicle speed and is attached to the vehicle 101.

白線認識部113は、エッジ座標保持部109が保持するエッジ座標から白線を認識する。   The white line recognition unit 113 recognizes a white line from the edge coordinates held by the edge coordinate holding unit 109.

位置姿勢推定部114は、白線認識部113で認識した白線内における車両101の位置及び姿勢を推定する。   The position / orientation estimation unit 114 estimates the position and orientation of the vehicle 101 within the white line recognized by the white line recognition unit 113.

図3は、各カメラの撮像領域を示す図である。図3に示すように、フロントカメラ102は、所定の画角で車両前方の撮像領域201を撮像する。同様に、右カメラ103,左カメラ104は、それぞれ所定の画角で車両側方の撮像領域202,203を撮像する。このとき、フロントカメラ102の画角内には車両101が走行する車線を区分する左右の白線が撮像可能となっている。ここでいう白線とは、実線、破線等の車線を区分するあらゆる白線を含む。   FIG. 3 is a diagram illustrating an imaging area of each camera. As shown in FIG. 3, the front camera 102 images the imaging area 201 in front of the vehicle at a predetermined angle of view. Similarly, the right camera 103 and the left camera 104 respectively capture the image areas 202 and 203 on the side of the vehicle at a predetermined angle of view. At this time, the left and right white lines that divide the lane in which the vehicle 101 travels can be imaged within the angle of view of the front camera 102. The white line here includes any white line that divides a lane such as a solid line or a broken line.

図4は、各カメラが撮像した画像の一例を示す図である。図4(a)〜(c)は、順に左カメラ104,フロントカメラ102,右カメラ103が撮像した画像である。各カメラは魚眼レンズを装着しているため、これらの画像は、図4(a)〜(c)に示すように、カメラの近傍が引き伸ばされたような画像となる。   FIG. 4 is a diagram illustrating an example of an image captured by each camera. 4A to 4C are images captured by the left camera 104, the front camera 102, and the right camera 103 in order. Since each camera is equipped with a fisheye lens, these images are images in which the vicinity of the camera is stretched, as shown in FIGS.

図5は、各カメラが撮像した画像中のエッジを抽出する図である。エッジ抽出部107は、図5(a)〜(c)に示す画像を画像処理することで画像内に存在するエッジを抽出する。抽出されたエッジは、図5(d)〜(f)のようにそれぞれ○,△,□の画素で表される。また、抽出されたエッジは、抽出された時刻とともに関連付けられる。なお、エッジを抽出する際は、予めエッジ抽出内領域を定めておくことが好ましい。例えば、カメラのレンズ縁は、撮像画像において固定の位置であるため、予めエッジ検出内領域からカメラのレンズ縁を除いておくことにより、カメラのレンズ縁のエッジが検出されることはない。また、カメラから遠方のエッジは処理しないように定めておく。このように設定することにより、エッジ抽出部107が不要なエッジを抽出することを防止することができる。   FIG. 5 is a diagram for extracting an edge in an image captured by each camera. The edge extraction unit 107 performs image processing on the images shown in FIGS. 5A to 5C to extract edges existing in the image. The extracted edges are represented by pixels of .largecircle., .DELTA., And .quadrature. As shown in FIGS. In addition, the extracted edge is associated with the extracted time. Note that, when extracting an edge, it is preferable that an edge extraction inner region is determined in advance. For example, since the lens edge of the camera is a fixed position in the captured image, the edge of the camera lens edge is not detected by removing the lens edge of the camera from the edge detection inner area in advance. Further, it is determined that an edge far from the camera is not processed. By setting in this way, it is possible to prevent the edge extraction unit 107 from extracting unnecessary edges.

図6は、画像座標系を世界座標系に変換する図である。図6(a)〜(c)に示すように、エッジ抽出部107は、各カメラが撮像した画像中のエッジを抽出するとともに、画像横方向をx軸、画像縦方向をy軸として、抽出したエッジを画像上の座標(x,y)と対応付けて出力する。抽出されるエッジは、通常複数存在するため、エッジ座標も複数存在することになる。これら複数のエッジ座標をエッジ座標群と称する。座標変換部108は、エッジ抽出部107が出力したエッジ座標群(x,y)を世界座標系(XW,YW,ZW)に変換する。世界座標系に変換すると、図6(a)〜(c)に示すエッジの画素は、車両101に対して図6(d)に示すように対応付けられる。本実施例の世界座標系は右手座標系であり、XW軸は、車両進行方向に対して垂直方向である。また、YW軸は、車両鉛直方向であり、ZW軸は、車両進行方向である。画像座標系から世界座標系への座標変換については、例えば、「コンピュータビジョン −視角の幾何学−」(著者:佐藤淳)に記載の方法を使って変換することができる。具体的には、カメラの内部パラメータと外部パラメータ(カメラの取り付け高さ、姿勢(ヨー角、ピッチ角、ロール角))を予め測定しておけば画像中の任意の座標を、世界座標に変換できる。このように変換された世界座標系のエッジ座標群は、エッジ座標保持部109に保持される。なお、二次元の画像座標系から三次元の世界座標系に変換するため、世界座標系の鉛直方向に相当するYWの値は0として復元することになる。YW=0は路面の点であることを意味する。 FIG. 6 is a diagram for converting the image coordinate system to the world coordinate system. As shown in FIGS. 6A to 6C, the edge extraction unit 107 extracts edges in the images captured by the cameras, and extracts the horizontal direction of the image as the x axis and the vertical direction of the image as the y axis. The edge is output in association with the coordinates (x i , y i ) on the image. Since there are usually a plurality of extracted edges, there are also a plurality of edge coordinates. The plurality of edge coordinates are referred to as an edge coordinate group. The coordinate conversion unit 108 converts the edge coordinate group (x i , y i ) output from the edge extraction unit 107 into the world coordinate system (XW, YW, ZW). When converted into the world coordinate system, the edge pixels shown in FIGS. 6A to 6C are associated with the vehicle 101 as shown in FIG. The world coordinate system of this embodiment is a right-handed coordinate system, and the XW axis is perpendicular to the vehicle traveling direction. The YW axis is the vehicle vertical direction, and the ZW axis is the vehicle traveling direction. The coordinate conversion from the image coordinate system to the world coordinate system can be performed using, for example, the method described in “Computer Vision -Geometry of Viewing Angles” (author: Atsushi Sato). Specifically, if the camera internal parameters and external parameters (camera mounting height, posture (yaw angle, pitch angle, roll angle)) are measured in advance, arbitrary coordinates in the image are converted to world coordinates. it can. The edge coordinate group of the world coordinate system thus converted is held in the edge coordinate holding unit 109. Note that since the conversion from the two-dimensional image coordinate system to the three-dimensional world coordinate system is performed, the YW value corresponding to the vertical direction of the world coordinate system is restored to zero. YW = 0 means a road surface point.

なお、画像座標系から世界座標系へ変換する際に、毎回変換計算を実行してもよいが、この計算時間を短くできればより好ましい。その方法として、例えば、カメラの内部パラメータと外部パラメータとが固定であると仮定して、画像座標系から世界座標系への変換テーブルを作成することが挙げられる。ここで、カメラの内部パラメータは常に固定であるが、外部パラメータは車両挙動で変化する(特にピッチ角)ため、外部パラメータを固定として扱うと、誤差が生じる場合がある。しかし、高速道路のように、車両101が直進運動していると仮定できる場合は、この誤差を無視しても影響は少ない。よって、車両101が直進運動していると仮定できる場合は、変換テーブルを作成して画像座標系から世界座標系への変換計算時間を短縮することができる。   In addition, when converting from the image coordinate system to the world coordinate system, the conversion calculation may be executed every time, but it is more preferable if the calculation time can be shortened. As the method, for example, assuming that the internal parameters and external parameters of the camera are fixed, a conversion table from the image coordinate system to the world coordinate system is created. Here, the internal parameters of the camera are always fixed, but the external parameters change depending on the vehicle behavior (particularly, the pitch angle). Therefore, if the external parameters are handled as fixed, an error may occur. However, if it can be assumed that the vehicle 101 is moving straight as in the case of an expressway, even if this error is ignored, the influence is small. Therefore, when it can be assumed that the vehicle 101 is moving straight, a conversion table can be created to shorten the conversion calculation time from the image coordinate system to the world coordinate system.

図7は、エッジ座標群の更新を示す図である。図7(a)は、車両101と、右カメラ103及び左カメラ104の撮像領域202,203を俯瞰図として表したものである。ここでは、説明を簡略化するために、フロントカメラ102の撮像領域201は省略する。また、車両101は、一定の時速V[km/h]でZW軸の正方向に直進運動するものとする。図7(a)に示すように、エッジ抽出部107は、時刻t=−2,−1,0のそれぞれにおいて撮像した画像からエッジを抽出する。時刻t=−2,−1,0のそれぞれにおいて抽出したエッジは順に白丸、灰丸、黒丸の画素で表される。なお、各カメラは30fpsで画像を撮像するので、時刻t=−2,−1,0の各時刻の間隔は約30msである。   FIG. 7 is a diagram illustrating the update of the edge coordinate group. FIG. 7A illustrates the vehicle 101 and the imaging regions 202 and 203 of the right camera 103 and the left camera 104 as an overhead view. Here, in order to simplify the description, the imaging region 201 of the front camera 102 is omitted. Further, it is assumed that the vehicle 101 moves straight in the positive direction of the ZW axis at a constant speed V [km / h]. As shown in FIG. 7A, the edge extraction unit 107 extracts edges from images captured at times t = −2, −1, and 0, respectively. Edges extracted at times t = −2, −1, and 0 are respectively represented by white circles, gray circles, and black circle pixels. Since each camera captures an image at 30 fps, the time interval between times t = −2, −1, 0 is about 30 ms.

次に、図7(b)〜(d)を参照し、エッジ座標群の更新について説明する。図7(a)に示す時刻t=−2,−1,0に対応するのが図7(b)〜(d)である。まず、図7(b)に示すように、エッジ抽出部107は、時刻t=−2の際に撮像した画像からエッジを抽出する。抽出されたエッジは白丸の画素で表される。その後、座標変換部108は、抽出したエッジの画像座標を画像座標系から世界座標系へ変換する。変換された世界座標系のエッジ座標群を(XW1,YW1,ZW1)とする。エッジ座標保持部109は、これらの座標群を保持する。   Next, the update of the edge coordinate group will be described with reference to FIGS. FIGS. 7B to 7D correspond to the time t = −2, −1, 0 shown in FIG. First, as illustrated in FIG. 7B, the edge extraction unit 107 extracts an edge from an image captured at time t = −2. The extracted edge is represented by white circle pixels. Thereafter, the coordinate conversion unit 108 converts the image coordinates of the extracted edge from the image coordinate system to the world coordinate system. The converted edge coordinate group of the world coordinate system is (XW1, YW1, ZW1). The edge coordinate holding unit 109 holds these coordinate groups.

続いて、図7(c)に示すように、時刻t=−2から約30ms後となる時刻t=−1の際にも時刻t=−2の際と同様の処理を行い、エッジ座標群を抽出する。時刻t=−1の際に抽出したエッジ座標群を(XW2,YW2,ZW2)とする。ここで、時刻t=−2から時刻t=−1までの車両101の移動量をd[m]とすると、d=(V×1000÷3600)÷30となる。エッジ座標更新部110は、この移動量dを使ってエッジ座標群を更新する。具体的には、エッジ座標更新部110は、時刻t=−1の際に、時刻t=−2で抽出したエッジ座標群(XW1,YW1,ZW1)を移動量dだけ移動して、(XW1,YW1,ZW1−d)に更新する。ZWの値だけ更新するのは、車両101が直進運動しているからである。このように更新することにより、時刻t=−1の際に、エッジ座標群(XW2,YW2,ZW2)から移動量dだけ車両進行方向反対側にエッジ座標群(XW1,YW1,ZW1)が移動することになる。エッジ座標保持部109は、時刻t=−1の際に抽出したエッジ座標群(XW2,YW2,ZW2)と、更新したエッジ座標群(XW1,YW1,ZW1−d)とを保持する。   Subsequently, as shown in FIG. 7C, when the time t = −1, which is about 30 ms after the time t = −2, the same processing as that at the time t = −2 is performed, and the edge coordinate group To extract. The edge coordinate group extracted at time t = −1 is (XW2, YW2, ZW2). Here, if the movement amount of the vehicle 101 from time t = −2 to time t = −1 is d [m], d = (V × 1000 ÷ 3600) ÷ 30. The edge coordinate update unit 110 updates the edge coordinate group using the movement amount d. Specifically, the edge coordinate updating unit 110 moves the edge coordinate group (XW1, YW1, ZW1) extracted at time t = −2 by the movement amount d at time t = −1 to obtain (XW1 , YW1, ZW1-d). The reason why only the value of ZW is updated is that the vehicle 101 is moving straight ahead. By updating in this way, at the time t = −1, the edge coordinate group (XW1, YW1, ZW1) moves from the edge coordinate group (XW2, YW2, ZW2) to the opposite side in the vehicle traveling direction by the movement amount d. Will do. The edge coordinate holding unit 109 holds the edge coordinate group (XW2, YW2, ZW2) extracted at time t = −1 and the updated edge coordinate group (XW1, YW1, ZW1-d).

続いて、図7(d)に示すように、時刻t=−1から約30ms後となる時刻t=0の際にも時刻t=−2の際と同様の処理を行い、エッジ座標群を抽出する。時刻t=0の際に抽出したエッジ座標群を(XW3,YW3,ZW3)とする。また、時刻t=−1から時刻t=0までの車両101の移動量は上述したdであるため、エッジ座標更新部110は、時刻t=0の際に、時刻t=−1で抽出したエッジ座標群(XW2,YW2,ZW2)と、更新したエッジ座標群(XW1,YW1,ZW1−d)とを移動量dだけ移動して、それぞれのエッジ座標群を(XW2,YW2,ZW2−d)、(XW1,YW1,ZW1’−d)に更新する。ここで、「ZW1’」について説明する。時刻t=−2の際に抽出した座標群(XW1,YW1,ZW1)は、時刻t=−1の際に(XW1,YW1,ZW1−d)に更新された。更新された「ZW1−d」をZW1’に置換すれば、時刻t=0の際にエッジ座標群を更新すると(XW1,YW1,ZW1’−d)と表現することができる。すなわち、このように置換することにより、座標群の座標値は、更新時に移動量dだけ移動した形で表現できる。エッジ座標保持部109は、時刻t=0の際に抽出したエッジ座標群(XW3,YW3,ZW3)と、更新したエッジ座標群(XW2,YW2,ZW2−d)、(XW1,YW1,ZW1’−d)とを保持する。以上のように、エッジ座標更新部110は、撮像処理ごとの経過時間に合わせて、エッジ座標群を移動量dだけ車両進行方向反対側に移動して、エッジ座標群を更新する。そして、エッジ座標保持部109は、更新されたエッジ座標群を保持して、撮像ごとに蓄積していく。なお、更新されたエッジ座標群は、更新された時刻とともに関連付けられる。   Subsequently, as shown in FIG. 7D, the same processing as that at time t = −2 is performed at time t = 0, which is about 30 ms after time t = −1. Extract. The edge coordinate group extracted at time t = 0 is defined as (XW3, YW3, ZW3). Further, since the movement amount of the vehicle 101 from the time t = −1 to the time t = 0 is d described above, the edge coordinate update unit 110 extracted at the time t = −1 when the time t = 0. The edge coordinate group (XW2, YW2, ZW2) and the updated edge coordinate group (XW1, YW1, ZW1-d) are moved by the movement amount d, and each edge coordinate group is moved to (XW2, YW2, ZW2-d). ), (XW1, YW1, ZW1′-d). Here, “ZW1 ′” will be described. The coordinate group (XW1, YW1, ZW1) extracted at time t = -2 was updated to (XW1, YW1, ZW1-d) at time t = -1. If the updated “ZW1-d” is replaced with ZW1 ′, it can be expressed as (XW1, YW1, ZW1′-d) when the edge coordinate group is updated at time t = 0. That is, by replacing in this way, the coordinate values of the coordinate group can be expressed in a form that is moved by the movement amount d at the time of update. The edge coordinate holding unit 109 extracts the edge coordinate group (XW3, YW3, ZW3) extracted at time t = 0, the updated edge coordinate group (XW2, YW2, ZW2-d), (XW1, YW1, ZW1 ′). -D). As described above, the edge coordinate updating unit 110 updates the edge coordinate group by moving the edge coordinate group to the opposite side in the vehicle traveling direction by the movement amount d in accordance with the elapsed time for each imaging process. Then, the edge coordinate holding unit 109 holds the updated edge coordinate group and accumulates it for each imaging. The updated edge coordinate group is associated with the updated time.

図8は、白線の認識を示す図である。図8(a)に示す時刻t=−2,−1,0に対応するのが図8(b)〜(d)である。図8(d)に示すように、白線認識部113は、エッジ座標保持部109が保持するエッジ座標群を線形補完して白線を認識する。また、エッジ座標群を線形補完する際に最適化処理を実行することができる。最適化処理については、例えば、特許第3424334号公報に開示されているので、必要ならば参照されたい。本実施例では、次のように最適化処理を実行する。図8(d)に示すように、白線を直線モデルとして、左側白線401と右側白線402は平行であると仮定すると、左側白線401はZ=aX+b+w、右側白線402はZ=aX+bとしてモデル化することができる。このとき、エッジ座標群のうちXWとZWの値は既知であるため、a,b,wが推定する未知パラメータとなる。a,bは、順に白線内での車両101のヨー角、横位置に相当し、wは左側白線401と右側白線402の幅に相当する。これらのパラメータは、Simplex法やPowell法など既存の手法を用いて求めることができる。ここでは世界座標系のエッジ座標群を用いて白線を認識することについて説明した。しかし、エッジを抽出した際に、当該抽出したエッジを画像上の座標(x,y)と対応付けて出力するため、このxy座標に対応するエッジ座標群を保持・更新し、白線を認識してもよい。 FIG. 8 is a diagram illustrating white line recognition. FIGS. 8B to 8D correspond to the time t = −2, −1, 0 shown in FIG. As shown in FIG. 8D, the white line recognition unit 113 recognizes a white line by linearly complementing the edge coordinate group held by the edge coordinate holding unit 109. In addition, optimization processing can be executed when linearly complementing edge coordinate groups. The optimization process is disclosed in, for example, Japanese Patent No. 3424334, so please refer to it if necessary. In this embodiment, the optimization process is executed as follows. As shown in FIG. 8D, assuming that the white line is a straight line model and the left white line 401 and the right white line 402 are parallel, the left white line 401 is modeled as Z = aX + b + w, and the right white line 402 is modeled as Z = aX + b. be able to. At this time, since the values of XW and ZW in the edge coordinate group are known, a, b, and w are unknown parameters to be estimated. a and b correspond to the yaw angle and lateral position of the vehicle 101 within the white line in this order, and w corresponds to the width of the left white line 401 and the right white line 402. These parameters can be obtained using existing methods such as the Simplex method and the Powell method. Here, the recognition of the white line using the edge coordinate group of the world coordinate system has been described. However, when the edge is extracted, the extracted edge is output in association with the coordinates (x i , y i ) on the image. Therefore, the edge coordinate group corresponding to the xy coordinate is held and updated, and the white line is You may recognize it.

位置姿勢推定部114は、白線認識部113で認識した白線内における車両101の位置及び姿勢を推定する。本実施例では白線認識部113でヨー角、横位置をモデルに組み込んだ最適化処理を実行した際に、車両101のヨー角、横位置を推定している。位置姿勢推定部114は、この推定値をそのまま用いて車両101の位置及び姿勢を推定する。   The position / orientation estimation unit 114 estimates the position and orientation of the vehicle 101 within the white line recognized by the white line recognition unit 113. In the present embodiment, the yaw angle and lateral position of the vehicle 101 are estimated when the white line recognition unit 113 executes an optimization process in which the yaw angle and lateral position are incorporated into the model. The position / orientation estimation unit 114 estimates the position and orientation of the vehicle 101 using the estimated values as they are.

本実施例では、エッジ座標更新部110は、撮像処理ごとに、エッジ座標群を更新して蓄積する。白線認識部113は、蓄積されたエッジ座標群から白線を認識するが、蓄積されたエッジ座標群の量によっては、認識する白線の精度に影響を及ぼすおそれがある。そのため、白線を認識する際に、その精度に影響を及ぼさないように蓄積されたエッジ座標群を適切に消去する必要がある。   In this embodiment, the edge coordinate updating unit 110 updates and accumulates the edge coordinate group for each imaging process. The white line recognition unit 113 recognizes a white line from the accumulated edge coordinate group, but depending on the amount of the accumulated edge coordinate group, the white line recognition unit 113 may affect the accuracy of the recognized white line. Therefore, when recognizing the white line, it is necessary to appropriately erase the accumulated edge coordinate group so as not to affect the accuracy.

白線を認識するために必要となるエッジ座標群と車両101との距離は、車速によって異なる。そこで、高速走行時と低速走行時を例にとって、白線を認識するために必要となるエッジ座標群と車両101との距離について説明する。図9は、高速走行時においてエッジ座標群を抽出する図である。図9(a)に示す時刻t=−2,−1,0に対応するのが図9(b)〜(d)である。図9(a)に示すように高速走行時は、後述する低速走行時と比べて、撮像ごとの移動距離が大きいため、走行距離に対して抽出できるエッジが少なくなる。よって、現時刻の車両位置から比較的後方で抽出したエッジ座標群を用いて、白線を認識することが好ましい。つまり、高速走行時において、現時刻の車両位置からの距離に基づいて過去に抽出したエッジ座標群を消去する場合、その距離の値は大きいことになる。   The distance between the edge coordinate group necessary for recognizing the white line and the vehicle 101 differs depending on the vehicle speed. The distance between the edge coordinate group necessary for recognizing the white line and the vehicle 101 will be described by taking high speed traveling and low speed traveling as an example. FIG. 9 is a diagram for extracting an edge coordinate group during high-speed traveling. FIGS. 9B to 9D correspond to the time t = −2, −1, 0 shown in FIG. As shown in FIG. 9A, when traveling at a high speed, compared to when traveling at a low speed, which will be described later, since the moving distance for each imaging is large, there are fewer edges that can be extracted for the traveling distance. Therefore, it is preferable to recognize the white line using an edge coordinate group extracted relatively backward from the vehicle position at the current time. That is, when the edge coordinate group extracted in the past based on the distance from the vehicle position at the current time is deleted during high speed traveling, the value of the distance is large.

図10は、低速走行時においてエッジ座標群を抽出する図である。図10(a)に示す時刻t=−2,−1,0に対応するのが図10(b)〜(d)である。図10(a)に示すように、低速走行時は、上述した高速走行時と比べて、撮像ごとの移動距離が小さいため、走行距離に対して抽出できるエッジが多くなる。このため、高速走行時のように比較的後方で抽出したエッジ座標群を用いて白線を認識するとその精度が悪くなるおそれがある。また、低速走行時は、カーブ走行中や車線変更中などが想定されるが、このような場合に抽出したエッジ座標群を考慮して白線を認識すると、図9(d)の破線のようにその精度が悪くなるおそれがある。したがって、低速走行時において、現時刻の車両位置からの距離に基づいて過去に抽出したエッジ座標群を消去する場合、その距離の値は、高速走行時と比べて小さくなる。このように、車速に応じて、白線を認識するために必要となるエッジ座標群と車両101との距離は異なる。このため、車両101との距離に基づいて、エッジ座標群を消去することは成立しない。   FIG. 10 is a diagram for extracting an edge coordinate group during low-speed traveling. FIGS. 10B to 10D correspond to the time t = −2, −1, 0 shown in FIG. As shown in FIG. 10A, when traveling at a low speed, the moving distance for each imaging is smaller than when traveling at a high speed, so that more edges can be extracted with respect to the traveling distance. For this reason, when a white line is recognized using an edge coordinate group extracted relatively rearward during high-speed traveling, the accuracy may be deteriorated. Further, during low-speed traveling, it is assumed that the vehicle is traveling on a curve or changing lanes. If a white line is recognized in consideration of the edge coordinate group extracted in such a case, the broken line in FIG. The accuracy may be deteriorated. Therefore, when the edge coordinate group extracted in the past based on the distance from the vehicle position at the current time is deleted during low speed traveling, the value of the distance is smaller than that during high speed traveling. Thus, the distance between the edge coordinate group required for recognizing the white line and the vehicle 101 differs depending on the vehicle speed. For this reason, it is not possible to delete the edge coordinate group based on the distance from the vehicle 101.

そこで、車速に応じて、白線を認識するために必要となるエッジ座標群と車両101との距離を変更すればよい。例えば、高速道路では、白線はおよそ15m間隔となっているため、車速が60km/h超なら、現時刻の車両位置から15m後方までのエッジ座標群があればよい。一方、一般道路では、白線はおよそ6m間隔となっているため、車速が60km/h以下なら、現時刻の車両位置から6m後方までのエッジ座標群があればよい。よって、エッジ座標消去部111は、図11(d)に示すように、時刻t=0の際に、車速が60km/h超なら、当該時刻の車両位置から15m後方(ZW=−15)より後ろのエッジ座標群を消去する。また、車速が60km/h以下なら、当該時刻の車両位置から6m後方(ZW=−6)より後ろのエッジ座標群を消去する。このような消去処理は、例えば、If−Thenを使って下記に示す処理を実行すればよい。すなわち、車速センサー112で検出した現時刻の車速をV[km/h]とすれば、
If(V > 60 && ZW < −15)
Then delete
Else if(V <= 60 && ZW < −6)
Then delete
Else
Then Save
となる。このように、エッジ座標消去部111は、車速に応じて白線を認識する際に不要となるエッジ座標群を消去する。なお、ここに示した処理はあくまで一例であり、シミュレーションや実験などによって種々の変形が可能である。
Therefore, the distance between the edge coordinate group necessary for recognizing the white line and the vehicle 101 may be changed according to the vehicle speed. For example, on a highway, white lines are approximately 15 m apart, so if the vehicle speed exceeds 60 km / h, there may be an edge coordinate group from the current vehicle position to 15 m behind. On the other hand, on general roads, white lines are spaced at an interval of about 6 m, so if the vehicle speed is 60 km / h or less, there may be an edge coordinate group from the vehicle position at the current time to 6 m behind. Therefore, as shown in FIG. 11D, when the vehicle speed exceeds 60 km / h at time t = 0, the edge coordinate erasing unit 111 starts from the vehicle position at that time 15m behind (ZW = −15). Delete the back edge coordinate group. If the vehicle speed is 60 km / h or less, the edge coordinate group behind 6 m behind (ZW = −6) from the vehicle position at that time is deleted. Such an erasing process may be performed as shown below using, for example, If-Then. That is, if the vehicle speed at the current time detected by the vehicle speed sensor 112 is V [km / h],
If (V> 60 && ZW <-15)
The delete
Else if (V <= 60 && ZW <-6)
The delete
Else
Then Save
It becomes. As described above, the edge coordinate erasure unit 111 erases an edge coordinate group that is unnecessary when recognizing a white line according to the vehicle speed. Note that the processing shown here is merely an example, and various modifications can be made by simulation or experiment.

また、エッジ座標消去部111は、計算機105のメモリに記録できるエッジ座標群のデータ上限を予め設定しておき、データ数が上限を超えないように、抽出された時刻が古いデータから順に消去してもよい。   Further, the edge coordinate erasure unit 111 presets the data upper limit of the edge coordinate group that can be recorded in the memory of the computer 105, and erases the extracted time in order from the oldest data so that the number of data does not exceed the upper limit. May be.

次に、自車位置推定処理について、図12に示すフローチャートを参照して説明する。この処理は、システムの電源がオンになったら開始する。   Next, the vehicle position estimation process will be described with reference to the flowchart shown in FIG. This process starts when the system is turned on.

まず、ステップS201において、計算機105は、各カメラで撮像した画像を取得する。   First, in step S201, the computer 105 acquires an image captured by each camera.

次にステップS202において、エッジ抽出部107は、ステップS201で取得した画像中のエッジを抽出し、抽出したエッジを画像上の座標群(x,y)と対応付けて出力する。 In step S202, the edge extraction unit 107 extracts the edge in the image acquired in step S201, and outputs the extracted edge in association with the coordinate group (x i , y i ) on the image.

次にステップS203において、座標変換部108は、ステップS202で出力したエッジ座標群(x,y)に対して、画像座標系から世界座標系へ座標変換を行う。 Next, in step S203, the coordinate conversion unit 108 performs coordinate conversion from the image coordinate system to the world coordinate system for the edge coordinate group (x i , y i ) output in step S202.

次にステップS204において、エッジ座標保持部109は、ステップS203で座標変換したエッジ座標群を保持する。なお、システム起動時にエッジ座標保持部109は、システム起動前に保持していたエッジ座標群を初期化する。   Next, in step S204, the edge coordinate holding unit 109 holds the edge coordinate group subjected to coordinate conversion in step S203. Note that the edge coordinate holding unit 109 initializes the edge coordinate group held before starting the system when the system is started.

次にステップS205において、エッジ座標更新部110は、車速センサー112で検出した車速に基づいて、ステップS204で保持したエッジ座標群を更新する。   Next, in step S205, the edge coordinate updating unit 110 updates the edge coordinate group held in step S204 based on the vehicle speed detected by the vehicle speed sensor 112.

次にステップS206において、エッジ座標消去部111は、車速センサー112で検出した車速に基づいて、ステップS205で更新したエッジ座標群を消去する。   Next, in step S206, the edge coordinate deleting unit 111 deletes the edge coordinate group updated in step S205 based on the vehicle speed detected by the vehicle speed sensor 112.

次にステップS207において、エッジ座標保持部109は、ステップS206で消去されずに残ったエッジ座標群を再保持する。   Next, in step S207, the edge coordinate holding unit 109 re-holds the edge coordinate group remaining without being erased in step S206.

次にステップS208において、白線認識部113は、ステップS207で保持したエッジ座標群から白線を認識する。   In step S208, the white line recognition unit 113 recognizes a white line from the edge coordinate group held in step S207.

次にステップS209において、位置姿勢推定部114は、ステップS208で認識した白線内における車両101の位置及び姿勢を推定する。位置姿勢推定部114は、車両101が白線内から逸脱していると推定した場合、車線逸脱防止警報システム106に車線逸脱信号を出力してステップS210に進む。一方、車両101が白線内から逸脱していないと推定した場合、ステップS211に進む。   Next, in step S209, the position / orientation estimation unit 114 estimates the position and orientation of the vehicle 101 within the white line recognized in step S208. If the position / orientation estimation unit 114 estimates that the vehicle 101 has deviated from the white line, the position / orientation estimation unit 114 outputs a lane departure signal to the lane departure prevention warning system 106 and proceeds to step S210. On the other hand, when it is estimated that the vehicle 101 has not deviated from the white line, the process proceeds to step S211.

ステップS210において、車線逸脱防止警報システム106は、所定の警報を実施する。   In step S210, the lane departure prevention warning system 106 performs a predetermined warning.

ステップS211において、計算機105は、システムの電源がオフとなったら処理を終了し、システムの電源がオンであればステップS201からの作業を繰り返す。   In step S211, the computer 105 ends the process when the system power is turned off, and repeats the operation from step S201 if the system power is turned on.

以上説明したように、本実施形態の自車位置推定装置によれば、車両101が走行する車線を区分する左右の白線を撮像した画像から白線のエッジを抽出する。抽出したエッジを画像上の座標群と対応付けて出力する。出力したエッジ座標群を世界座標に変換し、変換したエッジ座標群を保持する。保持したエッジを車速に応じた車両の移動量だけ車両進行方向反対側に移動して更新し、更新したエッジ座標群を再保持する。また、保持しているエッジ座標群から白線を認識する。そして、認識した白線内における車両101の位置及び姿勢を推定する。これにより、撮像した画像のうち、一部の画像で白線を観測できなくても、保持しているエッジ座標群から白線を認識できるため、認識した白線内における車両の位置及び姿勢を推定することができる。   As described above, according to the host vehicle position estimation apparatus of the present embodiment, the edge of the white line is extracted from the image obtained by imaging the left and right white lines that divide the lane in which the vehicle 101 travels. The extracted edge is output in association with the coordinate group on the image. The output edge coordinate group is converted into world coordinates, and the converted edge coordinate group is held. The held edge is updated by moving to the opposite side of the vehicle traveling direction by the amount of vehicle movement corresponding to the vehicle speed, and the updated edge coordinate group is held again. A white line is recognized from the held edge coordinate group. And the position and attitude | position of the vehicle 101 in the recognized white line are estimated. As a result, even if the white line cannot be observed in some of the captured images, the white line can be recognized from the held edge coordinate group, so the position and orientation of the vehicle within the recognized white line can be estimated. Can do.

また、本実施形態の車両用表示装置によれば、エッジ座標消去部111が、過去に抽出したエッジ座標群を消去する。これにより、白線を認識する際に、不要なエッジ座標群を消去することができる。   Moreover, according to the display apparatus for vehicles of this embodiment, the edge coordinate deletion part 111 deletes the edge coordinate group extracted in the past. Thereby, when recognizing a white line, an unnecessary edge coordinate group can be deleted.

また、本実施形態の車両用表示装置によれば、エッジ座標消去部111が、車速に基づいて過去に抽出したエッジ座標群を消去する。これにより、白線を認識する際に、不要なエッジ座標群を消去することができる。   Further, according to the vehicle display device of the present embodiment, the edge coordinate erasure unit 111 erases the edge coordinate group extracted in the past based on the vehicle speed. Thereby, when recognizing a white line, an unnecessary edge coordinate group can be deleted.

また、本実施形態の車両用表示装置によれば、エッジ座標消去部111が、抽出された時刻が古いものから順にエッジ座標群を消去する。これにより、白線を認識する際に、不要なエッジ座標群を消去することができる。   Moreover, according to the display apparatus for vehicles of this embodiment, the edge coordinate deletion part 111 deletes an edge coordinate group in an order from the oldest extracted time. Thereby, when recognizing a white line, an unnecessary edge coordinate group can be deleted.

また、本実施形態の車両用表示装置によれば、座標変換部108が、エッジ座標群を画像座標系から世界座標系に変換する。これにより、車両101とエッジ座標群との対応付けが容易になる。   Further, according to the vehicle display device of the present embodiment, the coordinate conversion unit 108 converts the edge coordinate group from the image coordinate system to the world coordinate system. This facilitates the association between the vehicle 101 and the edge coordinate group.

また、本実施形態の車両用表示装置によれば、白線認識部113が、エッジ座標群を線形補完する際に、最適化処理を行う。これにより、認識する白線の精度が向上する。   Further, according to the vehicle display device of the present embodiment, the white line recognition unit 113 performs an optimization process when linearly complementing the edge coordinate group. Thereby, the accuracy of the recognized white line is improved.

また、本実施形態の車両用表示装置によれば、車両101の前方および左右に魚眼カメラが取り付けられる。これにより、3つのカメラで撮像した各画像からエッジを抽出できるため、効率よくエッジを抽出することができる。   Further, according to the vehicle display device of the present embodiment, fisheye cameras are attached to the front and left and right of the vehicle 101. Thereby, since an edge can be extracted from each image imaged with three cameras, an edge can be extracted efficiently.

さらに、車両101の前方および左右だけでなく、車両後方にも魚眼カメラが取り付けられる。これにより、4つのカメラで撮像した各画像からエッジを抽出できるため、効率よくエッジを抽出することができる。   Furthermore, a fisheye camera is attached not only to the front and left and right of the vehicle 101 but also to the rear of the vehicle. Thereby, since an edge can be extracted from each image imaged with four cameras, an edge can be extracted efficiently.

[第2実施形態]
次に、本発明の第2実施形態について説明する。第2実施形態が、第1実施形態と相違する点は、エッジ座標群を抽出・更新する際に、抽出・更新した時刻を関連付けるほかに、抽出・更新した時刻を簡略化して示す処理時間を設定することである。処理時間の設定について図13を参照して説明する。図13(a)に示す時刻t=−2,−1,0に対応するのが図13(b)〜(d)である。図13(b)に示すように、エッジ抽出部107は、時刻t=−2の際に抽出したエッジ座標群の処理時間をT=0として設定する。続いて図13(c)に示すように、エッジ抽出部107は、時刻t=−1の際に抽出したエッジ座標群の処理時間をT=0として設定する。また、エッジ座標更新部110は、時刻t=−1の際に更新したエッジ座標群の処理時間をT=−1として設定する。続いて図13(d)に示すように、エッジ抽出部107は、時刻t=0の際に抽出したエッジ座標群の処理時間をT=0として設定する。また、エッジ座標更新部110は、時刻t=0の際に更新したエッジ座標群の処理時間をそれぞれT=−1,T=−2として設定する。このように、ある時刻において抽出したエッジ座標群の処理時間をT=0として設定し、エッジ座標群を更新するごとにT=−1,T=−2のように−1ずつ増加させて処理時間を設定する。このように処理時間を設定することにより、ある時刻において抽出・更新されたエッジ座標群を実時間ではなく、相対的な時間として簡略化して示すことができる。なお、設定方法はこれに限られるものではなく、エッジ座標群が現時刻からどれだけ前に検出されたかを示す時間変数を毎回更新すればよい。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. The second embodiment is different from the first embodiment in that, when extracting / updating an edge coordinate group, in addition to associating the extracted / updated time, processing time indicating the extracted / updated time is simplified. Is to set. The setting of the processing time will be described with reference to FIG. FIGS. 13B to 13D correspond to the time t = −2, −1, 0 shown in FIG. As illustrated in FIG. 13B, the edge extraction unit 107 sets the processing time of the edge coordinate group extracted at time t = −2 as T = 0. Subsequently, as illustrated in FIG. 13C, the edge extraction unit 107 sets the processing time of the edge coordinate group extracted at time t = −1 as T = 0. Further, the edge coordinate update unit 110 sets the processing time of the edge coordinate group updated at time t = −1 as T = −1. Subsequently, as shown in FIG. 13D, the edge extraction unit 107 sets the processing time of the edge coordinate group extracted at time t = 0 as T = 0. Further, the edge coordinate update unit 110 sets the processing time of the edge coordinate group updated at time t = 0 as T = −1 and T = −2, respectively. In this way, the processing time of the edge coordinate group extracted at a certain time is set as T = 0, and each time the edge coordinate group is updated, it is incremented by −1 such that T = −1 and T = −2. Set the time. By setting the processing time in this way, the edge coordinate group extracted and updated at a certain time can be simplified and shown as a relative time instead of a real time. Note that the setting method is not limited to this, and a time variable indicating how far the edge coordinate group has been detected from the current time may be updated each time.

第1実施形態では車速に応じてエッジ座標群を消去する距離の閾値を設定したが、本実施形態では処理時間に基づいてエッジ座標群を消去する。具体的に説明すると、まずエッジ座標群を更新するごとに車両101が移動する距離D[m]は、D=車速×時間(=現在の時刻−更新された時刻)となる。このため、エッジ座標群を消去するための判断基準を、「現在の時刻−更新された時刻」とすれば、車速に応じてエッジ座標群を消去する距離が変わることになる。このとき、「現在の時刻−更新された時刻」のようにエッジ座標群を更新した時刻(実時間)ではなく、エッジ座標群を更新した時刻を簡略化して示す処理時間に基づいて、エッジ座標群を消去すれば、実時間を使うことなくエッジ座標群を消去できる。すなわち、図13(d)に示すように、処理時間T=−2に係るエッジ座標群を消去するよう設定すれば、実時間を使って距離を計算する必要はなく、さらに第1実施形態のようにif−thenの処理を作成する必要もなく、エッジ座標群を消去することができる。なお、処理時間の閾値は予めシミュレーションや実験などによって求めておく。   In the first embodiment, the threshold value of the distance for deleting the edge coordinate group is set according to the vehicle speed, but in this embodiment, the edge coordinate group is deleted based on the processing time. Specifically, the distance D [m] that the vehicle 101 moves each time the edge coordinate group is updated is D = vehicle speed × time (= current time−updated time). For this reason, if the criterion for erasing the edge coordinate group is “current time−updated time”, the distance for erasing the edge coordinate group changes according to the vehicle speed. At this time, the edge coordinates are not based on the processing time indicating the time when the edge coordinate group is updated, but the time when the edge coordinate group is updated (actual time) such as “current time−updated time”. If the group is deleted, the edge coordinate group can be deleted without using real time. That is, as shown in FIG. 13D, if the edge coordinate group related to the processing time T = −2 is set to be erased, it is not necessary to calculate the distance using the real time, and further, according to the first embodiment. Thus, the edge coordinate group can be deleted without the need to create if-then processing. The processing time threshold value is obtained in advance by simulation or experiment.

以上説明したように、本実施形態の自車位置推定装置によれば、所定時間より前に抽出されたエッジ座標群を消去する。これにより、白線を認識する際に、不要なエッジ座標群を消去することができる。   As described above, according to the vehicle position estimation apparatus of the present embodiment, the edge coordinate group extracted before the predetermined time is deleted. Thereby, when recognizing a white line, an unnecessary edge coordinate group can be deleted.

[第3実施形態]
第3実施形態として示す自車位置推定装置は、図15に示すように、舵角センサー115とヨーレートセンサー116を備えた点で、上述した第1実施形態と異なる。
[Third Embodiment]
The vehicle position estimation device shown as the third embodiment is different from the first embodiment described above in that it includes a steering angle sensor 115 and a yaw rate sensor 116 as shown in FIG.

第1実施形態では、エッジ座標更新部110は、エッジ座標群を更新する際に、そのエッジ座標群から車両進行方向反対側のみに、車両101の移動量dだけ移動して更新した。本実施例に係る自車位置推定装置は、舵角センサー115とヨーレートセンサー116とを備えているため、車幅方向の動きを検出することができる。このため、エッジ座標更新部110がエッジ座標群を更新する際に、車両進行方向反対側に移動量dをエッジ座標群から移動するだけではなく、舵角センサー115とヨーレートセンサー116とで検出した車幅方向の移動量もエッジ座標群から移動して更新する。このようにエッジ座標群は、車両101の進行方向と車幅方向との移動に基づいて更新されるため、第1実施形態より正確に車両101の移動を捉えることができる。以上説明したように、本実施形態の自車位置推定装置によれば、更新されるエッジ座標群の精度が高くなるため、エッジ座標群を用いて認識する白線の精度も高くなる。これにより、白線内における車両101の位置及び姿勢の推定精度が向上する。   In the first embodiment, when updating the edge coordinate group, the edge coordinate updating unit 110 moves and updates the edge coordinate group only by the movement amount d of the vehicle 101 only on the opposite side of the vehicle traveling direction. Since the host vehicle position estimation apparatus according to the present embodiment includes the steering angle sensor 115 and the yaw rate sensor 116, it can detect movement in the vehicle width direction. For this reason, when the edge coordinate updating unit 110 updates the edge coordinate group, the movement amount d is not only moved from the edge coordinate group to the opposite side in the vehicle traveling direction, but is detected by the rudder angle sensor 115 and the yaw rate sensor 116. The amount of movement in the vehicle width direction is also updated by moving from the edge coordinate group. Thus, since the edge coordinate group is updated based on the movement of the vehicle 101 in the traveling direction and the vehicle width direction, the movement of the vehicle 101 can be captured more accurately than in the first embodiment. As described above, according to the vehicle position estimation apparatus of the present embodiment, the accuracy of the updated edge coordinate group is increased, and therefore the accuracy of the white line recognized using the edge coordinate group is also increased. Thereby, the estimation accuracy of the position and orientation of the vehicle 101 within the white line is improved.

101 車両
102 フロントカメラ
103 右カメラ
104 左カメラ
105 計算機
106 車線逸脱防止警報システム
107 エッジ抽出部
108 座標変換部
109 エッジ座標保持部
110 エッジ座標更新部
111 エッジ座標消去部
112 車速センサー
113 白線認識部
114 位置姿勢推定部
115 舵角センサー
116 ヨーレートセンサー
DESCRIPTION OF SYMBOLS 101 Vehicle 102 Front camera 103 Right camera 104 Left camera 105 Computer 106 Lane departure prevention alarm system 107 Edge extraction part 108 Coordinate conversion part 109 Edge coordinate holding part 110 Edge coordinate update part 111 Edge coordinate deletion part 112 Vehicle speed sensor 113 White line recognition part 114 Position and orientation estimation unit 115 Rudder angle sensor 116 Yaw rate sensor

Claims (7)

車両の車速を検出する車速検出手段と、
前記車両に搭載され、前記車両が走行する車線を区分する左右の白線を撮像することが可能な撮像手段と、
前記撮像手段が撮像した画像から前記白線のエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段で抽出した前記エッジを前記画像上の座標と対応付けて保持するエッジ保持手段と、
前記エッジ保持手段が保持する前記エッジを、前記車速に応じた前記車両の移動量だけ車両進行方向反対側に移動して更新するエッジ更新手段と、
前記エッジ保持手段が保持する前記エッジを線形補完して白線を認識する白線認識手段と、
前記白線認識手段で認識した白線内における前記車両の位置及び姿勢を推定する位置姿勢推定手段とを
備えることを特徴とする自車位置推定装置。
Vehicle speed detecting means for detecting the vehicle speed of the vehicle;
Imaging means mounted on the vehicle and capable of imaging the left and right white lines that divide the lane in which the vehicle travels;
Edge extraction means for extracting the edge of the white line from the image captured by the imaging means;
Edge holding means for holding the edge extracted by the edge extraction means in association with coordinates on the image;
Edge updating means for updating the edge held by the edge holding means by moving to the opposite side in the vehicle traveling direction by the amount of movement of the vehicle according to the vehicle speed;
White line recognition means for linearly complementing the edge held by the edge holding means to recognize a white line;
A vehicle position estimation device comprising: position and orientation estimation means for estimating the position and orientation of the vehicle in the white line recognized by the white line recognition means.
前記エッジ保持手段が保持する前記エッジを消去するエッジ消去手段を備えることを特徴とする請求項1に記載の自車位置推定装置。   The vehicle position estimation apparatus according to claim 1, further comprising an edge erasing unit that erases the edge held by the edge holding unit. 前記エッジ消去手段は、前記車速が所定の車速より大きい場合、現時刻の車両位置から第1の距離後方より後ろのエッジを消去し、前記車速が前記所定の車速以下の場合、現時刻の車両位置から前記第1の距離より短い第2の距離後方より後ろのエッジを消去することを特徴とする請求項2に記載の自車位置推定装置。   The edge erasing means erases an edge behind the rear of the first distance from the current vehicle position when the vehicle speed is greater than a predetermined vehicle speed, and when the vehicle speed is equal to or lower than the predetermined vehicle speed, 3. The own vehicle position estimating device according to claim 2, wherein an edge behind a second distance shorter than the first distance from the position is deleted. 前記エッジ消去手段は、抽出された時刻が古い順に前記エッジを消去することを特徴とする請求項2に記載の自車位置推定装置。   The vehicle position estimation apparatus according to claim 2, wherein the edge erasing means erases the edges in order of the extracted time. 前記エッジの座標を画像座標から世界座標に変換する座標変換手段を備えることを特徴とする請求項1〜4のいずれか1項に記載の自車位置推定装置。   The own vehicle position estimation apparatus according to any one of claims 1 to 4, further comprising coordinate conversion means for converting the coordinates of the edge from image coordinates to world coordinates. 前記車両の舵角を検出する舵角検出手段と、
前記車両のヨーレートを検出するヨーレート検出手段とをさらに備え、
前記エッジ更新手段は、前記エッジ保持手段が保持する前記エッジを、前記車速に応じた前記車両の移動量だけ移動して更新し、前記舵角検出手段で検出した前記舵角と前記ヨーレート検出手段で検出した前記ヨーレートとに基づく車幅方向の移動量だけ移動して更新することを特徴とする請求項1〜5のいずれか1項に記載の自車位置推定装置。
Rudder angle detecting means for detecting the rudder angle of the vehicle;
A yaw rate detecting means for detecting the yaw rate of the vehicle;
The edge update means updates the edge held by the edge holding means by moving the vehicle according to the vehicle speed according to the vehicle speed, and detects the steering angle and yaw rate detection means detected by the steering angle detection means. 6. The own vehicle position estimating apparatus according to claim 1, wherein the vehicle position is estimated to be updated by moving in the vehicle width direction based on the yaw rate detected in step 1.
車両の車速を検出し、
前記車両が走行する車線を区分する左右の白線を撮像した画像から前記白線のエッジを抽出し、
抽出した前記エッジを前記画像上の座標と対応付けて保持し、
保持した前記エッジを前記車速に応じた前記車両の移動量だけ車両進行方向反対側に移動して更新し、
保持した前記エッジを線形補完して白線を認識し、
認識した白線内における前記車両の位置及び姿勢を推定する
ことを特徴とする自車位置推定方法。
Detect the vehicle speed,
Extracting an edge of the white line from an image obtained by imaging the left and right white lines that divide the lane in which the vehicle travels;
Holding the extracted edge in association with the coordinates on the image;
The held edge is moved and updated in the vehicle traveling direction opposite side by the amount of movement of the vehicle according to the vehicle speed,
Recognize white lines by linearly complementing the held edges,
A vehicle position estimation method, wherein the position and orientation of the vehicle in a recognized white line are estimated.
JP2013198029A 2013-09-25 2013-09-25 Vehicle position estimation device and vehicle position estimation method Active JP6241172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013198029A JP6241172B2 (en) 2013-09-25 2013-09-25 Vehicle position estimation device and vehicle position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013198029A JP6241172B2 (en) 2013-09-25 2013-09-25 Vehicle position estimation device and vehicle position estimation method

Publications (2)

Publication Number Publication Date
JP2015064735A true JP2015064735A (en) 2015-04-09
JP6241172B2 JP6241172B2 (en) 2017-12-06

Family

ID=52832560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013198029A Active JP6241172B2 (en) 2013-09-25 2013-09-25 Vehicle position estimation device and vehicle position estimation method

Country Status (1)

Country Link
JP (1) JP6241172B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156795A (en) * 2016-02-29 2017-09-07 クラリオン株式会社 Section line recognition device
JP2018532204A (en) * 2015-11-02 2018-11-01 スターシップ テクノロジーズ オウStarship Technologies OUE Device and method for autonomous self-location estimation
WO2020066072A1 (en) 2018-09-25 2020-04-02 クラリオン株式会社 Sectioning line recognition device
WO2023016271A1 (en) * 2021-08-13 2023-02-16 北京迈格威科技有限公司 Attitude determining method, electronic device, and readable storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9394153B2 (en) 2007-03-15 2016-07-19 The Coca-Cola Company Multiple stream filling system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236506A (en) * 2000-02-22 2001-08-31 Nec Corp Method and device for detecting white line
JP2003036500A (en) * 2001-05-18 2003-02-07 Honda Motor Co Ltd Device for recognizing travel division line of vehicle
JP2005332107A (en) * 2004-05-19 2005-12-02 Honda Motor Co Ltd Lane marking recognizing device for vehicle
JP2006350571A (en) * 2005-06-14 2006-12-28 Toyota Motor Corp Lane detection device
JP2007264714A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane recognition device
US20110144907A1 (en) * 2009-12-10 2011-06-16 Aisin Aw Co., Ltd. Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium
US20120166033A1 (en) * 2010-12-23 2012-06-28 Electronics And Telecommunications Research Institute Method and apparatus for detecting driving information of autonomous driving system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236506A (en) * 2000-02-22 2001-08-31 Nec Corp Method and device for detecting white line
JP2003036500A (en) * 2001-05-18 2003-02-07 Honda Motor Co Ltd Device for recognizing travel division line of vehicle
JP2005332107A (en) * 2004-05-19 2005-12-02 Honda Motor Co Ltd Lane marking recognizing device for vehicle
US20080027627A1 (en) * 2004-05-19 2008-01-31 Honda Motor Co., Ltd. Traffic Lane Marking Line Recognition System for Vehicle
JP2006350571A (en) * 2005-06-14 2006-12-28 Toyota Motor Corp Lane detection device
JP2007264714A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane recognition device
US20110144907A1 (en) * 2009-12-10 2011-06-16 Aisin Aw Co., Ltd. Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium
JP2011122936A (en) * 2009-12-10 2011-06-23 Aisin Aw Co Ltd Vehicle travel guiding device, method and computer program
US20120166033A1 (en) * 2010-12-23 2012-06-28 Electronics And Telecommunications Research Institute Method and apparatus for detecting driving information of autonomous driving system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018532204A (en) * 2015-11-02 2018-11-01 スターシップ テクノロジーズ オウStarship Technologies OUE Device and method for autonomous self-location estimation
US11747822B2 (en) 2015-11-02 2023-09-05 Starship Technologies Oü Mobile robot system and method for autonomous localization using straight lines extracted from visual images
JP2017156795A (en) * 2016-02-29 2017-09-07 クラリオン株式会社 Section line recognition device
WO2020066072A1 (en) 2018-09-25 2020-04-02 クラリオン株式会社 Sectioning line recognition device
WO2023016271A1 (en) * 2021-08-13 2023-02-16 北京迈格威科技有限公司 Attitude determining method, electronic device, and readable storage medium

Also Published As

Publication number Publication date
JP6241172B2 (en) 2017-12-06

Similar Documents

Publication Publication Date Title
WO2021259344A1 (en) Vehicle detection method and device, vehicle, and storage medium
CN106463064B (en) Object recognition device and vehicle travel control device using same
JP6453192B2 (en) Image recognition processing apparatus and program
JP4733545B2 (en) Lane recognition device
JP6241172B2 (en) Vehicle position estimation device and vehicle position estimation method
JP4609603B2 (en) 3D information display device and 3D information display method
JP2006338272A (en) Vehicle behavior detector and vehicle behavior detection method
JP2016192177A (en) Vehicle detection system, vehicle detection device, vehicle detection method and vehicle detection program
JP2018092596A (en) Information processing device, imaging device, apparatus control system, mobile body, information processing method, and program
JP2009245042A (en) Traffic flow measurement device and program
JP6493000B2 (en) Road marking detection device and road marking detection method
CN105300390B (en) The determination method and device of obstructing objects movement locus
CN107430821B (en) Image processing apparatus
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2010003253A (en) Motion estimation device
JP5832850B2 (en) Lane monitoring system and lane monitoring method
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JP4321410B2 (en) Object detection apparatus and method
JPWO2010113253A1 (en) 3D information display device and 3D information display method
JP2008003696A (en) Image processing apparatus and image processing method
JP2012256159A (en) Approaching object detecting device and method for detecting approaching object
JP4106163B2 (en) Obstacle detection apparatus and method
JP5493705B2 (en) Vehicle position detection device, vehicle position detection method, and vehicle position detection program
JPWO2018123640A1 (en) Imaging device
CN112513573B (en) Stereo camera device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171023

R151 Written notification of patent or utility model registration

Ref document number: 6241172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151