JP5714940B2 - Moving body position measuring device - Google Patents

Moving body position measuring device Download PDF

Info

Publication number
JP5714940B2
JP5714940B2 JP2011047714A JP2011047714A JP5714940B2 JP 5714940 B2 JP5714940 B2 JP 5714940B2 JP 2011047714 A JP2011047714 A JP 2011047714A JP 2011047714 A JP2011047714 A JP 2011047714A JP 5714940 B2 JP5714940 B2 JP 5714940B2
Authority
JP
Japan
Prior art keywords
feature
area
information
road
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011047714A
Other languages
Japanese (ja)
Other versions
JP2012185011A (en
Inventor
振程 胡
振程 胡
臣豪 王
臣豪 王
祐之 廣川
祐之 廣川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kumamoto University NUC
Renesas Electronics Corp
Original Assignee
Kumamoto University NUC
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kumamoto University NUC, Renesas Electronics Corp filed Critical Kumamoto University NUC
Priority to JP2011047714A priority Critical patent/JP5714940B2/en
Publication of JP2012185011A publication Critical patent/JP2012185011A/en
Application granted granted Critical
Publication of JP5714940B2 publication Critical patent/JP5714940B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

本発明は、自動車(移動体)の測位技術に関する。特に、車載情報システム、マイコン、カーナビゲーションシステム等において、車載カメラ(その画像・映像)を用いて自動車(移動体)の現在位置を実時間で測位を行う技術に関する。更に、GPS等の手段による位置情報、車載カメラの実画像(実時間での走行時の撮影画像)、及び地図DB(データベース)などを用いて、現在位置の推定・補正などの処理を行う技術に関する。   The present invention relates to a positioning technique for an automobile (moving body). In particular, the present invention relates to a technique for measuring the current position of a car (moving body) in real time using a car-mounted camera (its image / video) in a car-mounted information system, a microcomputer, a car navigation system, and the like. Furthermore, a technique for performing processing such as estimation / correction of the current position using position information by means such as GPS, a real image of a vehicle-mounted camera (photographed image at the time of traveling in real time), and a map DB (database) About.

本発明に係わる自動車の測位技術に関し、背景技術及びその問題点などは以下である。   Regarding the positioning technology of the automobile according to the present invention, the background technology and its problems are as follows.

(従来手法1) 主流の手法としてGPS+自律航法がある。GPS衛星等から自車現在位置情報(誤差有り)を取得し、そのデータに対し、車載のセンサ(ヨーレイトセンサ、ジャイロセンサ、加速度センサ等)や車速計(車速信号)による自律航法によって補正をかけ、カーナビ等のデジタル地図上でマップマッチング(道路などから外れないように自車位置を補正して表示する等)を行う。しかしながらこの手法では、単独の測位精度は15メートル、出力頻度は1Hzであり、そして周囲道路ネットワーク状況によって1〜2秒の出力遅延などの問題点が存在する。   (Conventional method 1) As a mainstream method, there is GPS + autonomous navigation. Obtains current vehicle position information (with errors) from GPS satellites, etc., and corrects the data by autonomous navigation using in-vehicle sensors (yaw rate sensors, gyro sensors, acceleration sensors, etc.) and vehicle speedometers (vehicle speed signals) Map matching is performed on a digital map such as a car navigation system (such as correcting and displaying the position of the vehicle so as not to deviate from the road). However, with this method, the single positioning accuracy is 15 meters, the output frequency is 1 Hz, and there are problems such as an output delay of 1 to 2 seconds depending on the surrounding road network conditions.

(従来手法2) 特開2005−265494号公報(特許文献1)の路面マーク比較方式がある。この方式では、路面マーク及び道路標識などをランドマークとし、各ランドマークの絶対位置(3次元空間位置座標)をデータベース(地図DB)に逐一登録しておく。実時間測位の際には、車載カメラの撮影画像から、車線境界線(白線など)とランドマークを抽出し、地図DBの情報と比較(整合性判定)して、車線位置を確定する(車線領域での自車の位置を推定する)。   (Conventional method 2) There is a road surface mark comparison method disclosed in Japanese Patent Laying-Open No. 2005-265494 (Patent Document 1). In this system, road marks and road signs are used as landmarks, and absolute positions (three-dimensional spatial position coordinates) of the respective landmarks are registered in a database (map DB) one by one. During real-time positioning, lane boundary lines (white lines, etc.) and landmarks are extracted from the image taken by the in-vehicle camera, and compared with the information in the map DB (consistency determination) to determine the lane position (lanes Estimate the position of the vehicle in the area).

(従来手法3) 特開平10−300493号公報(特許文献2)のレーザースキャン方式がある。この方式では、レーダ装置によって検出された静止物のデータと道路周囲環境記憶装置に記憶された静止物のデータに基づいて、ナビゲーション装置で求めた自車現在位置を修正することにより、自車現在位置の誤差を数10m程度から10cm程度〜数10cm程度の誤差にすることができ、精度を向上することができる。   (Conventional method 3) There is a laser scanning method disclosed in JP-A-10-300493 (Patent Document 2). In this method, the current vehicle position is obtained by correcting the current vehicle position obtained by the navigation device based on the stationary object data detected by the radar device and the stationary object data stored in the road surrounding environment storage device. The position error can be made from about several tens of meters to about 10 cm to several tens of centimeters, and the accuracy can be improved.

(従来手法4) また、高精度RTK(Real Time Kinematic)−GPS方式などがある。この方式では、誤差2〜3cm程度の測位精度が得られるようになった。しかし、従来手法3,4等の方式による測位装置は非常に高価であり、また、例えば高速移動体に関する測位を実時間で実施するには不得意である。   (Conventional method 4) Further, there is a high-precision RTK (Real Time Kinematic) -GPS method. With this method, positioning accuracy with an error of about 2 to 3 cm can be obtained. However, positioning devices using the conventional methods 3 and 4 are very expensive, and are not good at performing positioning on high-speed moving bodies in real time, for example.

(従来手法5) また、本発明者の提案によるハイブリッド法(特許文献3)もある。この手法では、既存のカーナビションシステムに加え、3次元慣性ジャイロスコープセンサ、車速センサ、及び白線検出結果を統合して正確な車両位置を実時間に推定する。この手法では、実時間の測位速度を達成しているが、平均測位精度は3〜5メートルにとどまっている。   (Conventional method 5) There is also a hybrid method proposed by the present inventor (Patent Document 3). In this method, in addition to the existing car navigation system, a three-dimensional inertial gyroscope sensor, a vehicle speed sensor, and a white line detection result are integrated to estimate an accurate vehicle position in real time. This technique achieves a real-time positioning speed, but the average positioning accuracy is only 3 to 5 meters.

(従来手法6) また、車載カメラを利用した測位の手法として、本発明者の提案による、特開2010−151658号公報(特許文献4)(「移動体位置測定装置」等)がある。この手法では、移動体(自車)に搭載したカメラ(撮像部)の実画像(走行方向の路面や景観)から抽出した特徴部(特徴情報)と、地図DB(地図情報)に含まれる特徴部(特徴情報)とをマッチング処理することにより、移動体の位置を測定(推定)する。なお、本発明と特許文献4では、大きな枠組みは共通するが、技術的特徴は異なる。   (Conventional method 6) Further, as a positioning method using an in-vehicle camera, there is JP 2010-151658 A (Patent Document 4) ("mobile body position measuring device" etc.) proposed by the present inventor. In this method, features (feature information) extracted from real images (road surface and landscape in the traveling direction) of a camera (imaging unit) mounted on a moving body (own vehicle) and features included in a map DB (map information) The position of the moving body is measured (estimated) by performing a matching process on the part (feature information). The present invention and Patent Document 4 share a large framework, but have different technical features.

特許文献4では、具体的には、自車の走行方向の路面の白線(車線境界線)などを撮像・認識し、移動体の白線からのオフセット距離を検出して移動体の位置を補正する(例えば複数の車線から適切な車線を選択する)等の処理により、自車位置の精度を高める。また、所定間隔で設けられた交差点などの参照地点において、複数の位置から走路方向を臨んで撮像した画像を、当該地点に関連付けて記憶しておくことができる(3次元画像の不要による処理短縮化)。また、事前に、3次元画像(実画像データ)ではなくその特徴部データ(特徴情報)のみを記憶しておくことで、抽出処理の省略による高速化、及び必要な記憶容量の削減ができる。また、地図情報をもとに複数の車線がある場合など、自車が存在可能な複数の位置を想定し、各々の存在可能位置(車線)から例えば前方の画像の特徴部の情報と、対応する実時間処理で抽出した実画像の特徴部の情報とを比較して差分を演算する(マッチング処理)。   In Patent Document 4, specifically, a white line (lane boundary line) on the road surface in the traveling direction of the host vehicle is imaged and recognized, and an offset distance from the white line of the moving body is detected to correct the position of the moving body. The accuracy of the vehicle position is increased by processing such as selecting an appropriate lane from a plurality of lanes. In addition, at a reference point such as an intersection provided at a predetermined interval, it is possible to store an image captured from a plurality of positions facing the road direction in association with the point (reduction of processing due to unnecessary three-dimensional image). ). Further, by storing only the feature data (feature information) instead of the three-dimensional image (actual image data) in advance, it is possible to increase the speed by omitting the extraction process and to reduce the necessary storage capacity. Also, assuming multiple locations where the vehicle can exist, such as when there are multiple lanes based on map information, for example, from the possible locations (lanes), for example, information on feature parts of the front image The difference is calculated by comparing with the information of the feature portion of the real image extracted by the real-time processing (matching processing).

一方、カメラ画像を利用した測位技術に係わり、SFM(Structure from Motion)と呼ばれる手法がある。例えば非特許文献1,2に記載されている。SFM手法では、カメラを搭載したロボット(移動体)において、カメラで撮像した画像情報のみから、3次元環境の復元と同時にロボットの移動の前後の相対的な位置・姿勢などを推定する。   On the other hand, there is a technique called SFM (Structure from Motion) related to a positioning technique using a camera image. For example, it is described in Non-Patent Documents 1 and 2. In the SFM method, in a robot (moving body) equipped with a camera, a relative position / posture before and after the movement of the robot is estimated simultaneously with restoration of a three-dimensional environment from only image information captured by the camera.

また、画像から特徴量(特徴部、特徴情報)を抽出する画像解析処理については、例えば非特許文献3などに記載されている。   Further, image analysis processing for extracting feature amounts (feature portions, feature information) from an image is described in Non-Patent Document 3, for example.

特開2005−265494号公報 (路面マーク比較)JP 2005-265494 A (Road surface mark comparison) 特開平10−300493号公報 (レーザースキャン)JP-A-10-300493 (Laser scan) 特開2008−175786号公報 (ハイブリッド)JP 2008-175786 A (Hybrid) 特開2010−151658号公報 (カメラ利用)JP 2010-151658 A (Camera use)

C. Tomasi and T. Kanade, “Shape and motion from image streams under orthography-A factorization method,” Int. J. Comput. Vision, 9-2, pp. 137-154, Nov. 1992.C. Tomasi and T. Kanade, “Shape and motion from image streams under orthography-A factorization method,” Int. J. Comput. Vision, 9-2, pp. 137-154, Nov. 1992. 金出武雄, コンラッド・ポールマン, 森田俊彦, “因子分解法による物体形状とカメラ運動の復元,” 電子情報通信学会論文誌D-II, J74-D-II-8, pp. 1497-1505, Aug. 1993.Takeo Kanade, Conrad Poleman, Toshihiko Morita, “Reconstruction of object shape and camera motion by factorization method,” IEICE Transactions D-II, J74-D-II-8, pp. 1497-1505, Aug. 1993. David G. Lowe, "Distinctive image features from scale-invariant keypoints", International Journal of Computer Vision,60, 2 (2004), pp. 91-110.David G. Lowe, "Distinctive image features from scale-invariant keypoints", International Journal of Computer Vision, 60, 2 (2004), pp. 91-110.

課題として、例えば従来手法6(特許文献4)のように車載カメラを利用した測位技術において、安価(高価な装置を使用しないこと)、かつ高精度(少なくとも一般的なGPS等の手段よりも高精度)な測位を実現したい。   As a problem, for example, in the positioning technique using an in-vehicle camera as in the conventional method 6 (Patent Document 4), it is inexpensive (does not use an expensive device) and has high accuracy (at least higher than a general means such as GPS). I want to achieve accurate positioning.

ただ、従来手法6(特許文献4)のような測位技術は、完全な実時間測位を実現する技術ではなく、仮想画像処理(3次元CG処理)を用いた測位技術である。例えば特許文献4は、3次元ナビ用の仮想景観画像の自動生成機能を用いる技術であり、路上の複数の各々の車両存在可能位置(車線)から各々の仮想景観画像(3次元CG)を生成・取得し、この仮想景観画像と現時点で撮影した実画像とから、特徴部を抽出する処理を行い、特徴マッチング処理により、最適な位置を決定している(特許文献4の例えば段落[0004],[0006],[0032]等)。   However, the positioning technique like the conventional method 6 (Patent Document 4) is not a technique for realizing complete real-time positioning, but a positioning technique using virtual image processing (three-dimensional CG processing). For example, Patent Document 4 is a technique that uses an automatic generation function of a virtual landscape image for 3D navigation, and generates each virtual landscape image (3D CG) from a plurality of possible vehicle existence positions (lanes) on the road.・ Acquire and perform a process of extracting a feature from the virtual landscape image and the actual image taken at the present time, and determine an optimum position by a feature matching process (for example, paragraph [0004] of Patent Document 4) , [0006], [0032], etc.).

しかしながら、上記仮想画像処理を用いた測位技術では、例えば3次元CGナビ用の都市地図DBの製作と維持に大きなコストがかかる。また、地図DBに収録するすべての道路には適応できないし、新築など道路景観が変わる際にも、柔軟に対応することはできない。   However, in the positioning technique using the virtual image processing, for example, a large cost is required for producing and maintaining a city map DB for three-dimensional CG navigation. Moreover, it cannot be applied to all roads recorded in the map DB, and it cannot flexibly cope with changes in road scenery such as new construction.

よって、課題として、上記仮想画像処理を用いない(または必要としない/削減できる)実時間測位を実現し、地図DBの製作と維持を効率化・低コスト化したい。また、地図DBに収録する多くの道路等に適応でき、道路景観の変化にも柔軟に対応できるようにしたい。   Therefore, as a problem, it is desired to realize real-time positioning not using (or not requiring / reducing) the virtual image processing, and to make the production and maintenance of the map DB more efficient and lower cost. In addition, we want to be able to adapt to many roads recorded in the map DB and flexibly respond to changes in the road landscape.

仮想画像処理無しの実時間測位を行う場合、カメラの実画像(道路景観)から抽出する特徴部(特徴情報)に関して、測位計算で有効になるように、適切な抽出及び判定などが必要になってくる。しかし、測位時(撮像時)の道路周囲状況・時間経過などの要因によって、実画像の内容(景観)が大きく変化するため、上記適切な抽出及び判定などが難しくなるという問題点がある。上記要因は、例えば、走行時の時期(季節)・天候・照明条件や、道路混雑状況(車両、歩行者などを含む)や、建築環境(道路、路側の建物、樹木、看板などを含む)の変動などが挙げられる。例えば景観(実画像)内に含まれている車や木などに相当する特徴部を検出して測位計算で用いてしまうと、処理速度や測位精度が下がってしまう。   When performing real-time positioning without virtual image processing, it is necessary to appropriately extract and determine the features (feature information) extracted from the real image of the camera (roadscape) so that they can be used in the positioning calculation. Come. However, there is a problem that the appropriate extraction and determination are difficult because the content (landscape) of the actual image changes greatly due to factors such as road surrounding conditions and time passage during positioning (when imaging). The above factors include, for example, driving time (season), weather and lighting conditions, road congestion (including vehicles and pedestrians), and building environment (including roads, roadside buildings, trees, signs, etc.) Fluctuations. For example, if a characteristic portion corresponding to a car or a tree included in a landscape (actual image) is detected and used in positioning calculation, the processing speed and positioning accuracy are lowered.

以上のように、本発明の主な目的は、車載カメラを利用した実時間測位の技術に係わり、安価かつ高精度な測位を実現できる技術を提供することであり、特に、仮想画像処理を用いない実時間測位を実現し、地図DBの製作・維持を効率化・低コスト化できること、及び、測位時(撮像時)の道路周囲状況などの要因・変動に対しても適応できる、ロバストな特徴検出等の手法を含む測位技術を提供することである。   As described above, the main object of the present invention relates to a real-time positioning technique using an in-vehicle camera, and is to provide a technique capable of realizing a low-cost and high-accuracy positioning, particularly using virtual image processing. Robust features that can realize real-time positioning, improve the efficiency of production and maintenance of the map DB, reduce costs, and adapt to factors and fluctuations such as road surroundings during positioning (when imaging) It is to provide positioning technology including methods such as detection.

上記目的を達成するため、本発明の代表的な形態は、自動車などの移動体及びそれに搭載される情報システム等に係わる移動体位置測定装置などであって、以下に示す構成を有することを特徴とする。   In order to achieve the above object, a typical embodiment of the present invention is a mobile body position measuring apparatus related to a mobile body such as an automobile and an information system mounted thereon, and has the following configuration. And

本装置は、移動体の位置を測定ないし推定する移動体位置測定装置であって、(a)移動体の走行時に実時間でGPS等の手段を用いて移動体の現在の概略の位置と方位を第1の位置情報として検出する位置検出部と、(b)前記移動体に搭載され移動体の走行時に実時間で移動体の周囲の少なくとも1つの第1の方向(例えば前方)を撮影して第1の画像(実画像群)を得る1つ以上の撮像部(カメラ)と、(c)前記第1の画像として、地図上の参照地点(RP)の付近で撮影された複数の実画像の中から、直線や角点(特徴点)を含む特徴部を抽出して第1の特徴情報とする第1の特徴抽出部と、(d)地図上の所定の参照地点の付近の第2の画像(実画像群)の中から、直線や角点を含む特徴部を抽出して第2の特徴情報とし、当該第2の特徴情報を含むデータが事前に登録された地図データベースと、(e)前記移動体の走行時に、前記第1の位置情報をもとに、前記地図データベースから、前記参照地点の付近の該当する第2の特徴情報を読み出して取得する第2の特徴抽出部と、(f)前記第1の特徴情報と前記第2の特徴情報とを入力してそれぞれの特徴部を比較してマッチングすることにより、前記参照地点の付近の複数の特徴部の位置を推定し、当該複数の特徴部の位置をもとに、SFM手法を用いて、移動に伴う各時点の前記移動体の位置と上記複数の各特徴部の位置との相対的な位置関係を演算することにより、前記移動体の現在の位置を推定して第2の位置情報として出力する、特徴マッチング部と、(g)前記第1の位置情報に対して前記第2の位置情報を用いて補正することにより、前記移動体の現在の位置を第3の位置情報として出力する位置補正部と、を有する。   This apparatus is a mobile body position measuring apparatus that measures or estimates the position of a mobile body, and (a) the current approximate position and orientation of the mobile body using means such as GPS in real time when the mobile body is traveling And (b) photographing at least one first direction (for example, forward) around the moving body in real time when the moving body is mounted on the moving body. One or more imaging units (cameras) for obtaining a first image (actual image group), and (c) a plurality of actual images photographed in the vicinity of a reference point (RP) on a map as the first image. A first feature extraction unit that extracts a feature portion including a straight line or a corner point (feature point) from the image and sets the feature portion as first feature information; and (d) a first feature near a predetermined reference point on the map. A feature part including a straight line and a corner point is extracted from the two images (actual image group) as second feature information, A map database in which data including the feature information of 2 is registered in advance, and (e) when the mobile object travels, from the map database based on the first position information, corresponding to the vicinity of the reference point A second feature extraction unit that reads out and acquires the second feature information to be acquired, and (f) inputs the first feature information and the second feature information, and compares and matches the respective feature units. Thus, the positions of the plurality of feature portions in the vicinity of the reference point are estimated, and based on the positions of the plurality of feature portions, the position of the moving body at each time point associated with the movement is A feature matching unit that calculates a relative positional relationship with the position of each of the plurality of feature units to estimate the current position of the moving body and outputs the second position information; and (g) the first The second position with respect to the position information of one By correcting using a broadcast, having a position correction section for outputting a current position of the moving body as the third position information.

更に、本装置は、前記特徴抽出処理に係わり、ロバストな特徴検出部を有する。本特徴検出部は、カメラ撮像による実画像データを入力し、領域分割部と、特徴抽出部と、不要物除去部とで処理を行い、結果、特徴情報を出力する。領域分割部は、道路領域検出部と、路側領域検出部と、を含む。不要物除去部は、道路不要物除去部と、路側不要物除去部と、を含む。   Furthermore, the present apparatus is related to the feature extraction process and has a robust feature detection unit. The feature detection unit inputs real image data captured by the camera, performs processing in the region division unit, the feature extraction unit, and the unnecessary object removal unit, and outputs feature information as a result. The area dividing unit includes a road area detecting unit and a roadside area detecting unit. The unnecessary object removing unit includes a road unnecessary material removing unit and a road side unnecessary material removing unit.

道路領域検出部は、入力の実画像の領域から、道路領域(A)を検出する。例えば、道路領域検出部は、実画像の領域から白線などの路面マークを検出し、検出した路面マークの形状に基づき、車線を含む道路領域(A)を推測し確定する。路側領域検出部は、入力の実画像の領域から、路側領域(B)を検出する。例えば、路側領域検出部は、実画像の領域から、道路領域検出部で検出した道路領域(A)の形状に基づき、路側領域(B)を推測し確定する。領域分割部は、上記実画像の領域における道路領域(A)、路側領域(B)、及び他の領域(C)の情報を出力する。   The road area detection unit detects the road area (A) from the input real image area. For example, the road area detection unit detects a road surface mark such as a white line from the area of the actual image, and estimates and determines the road area (A) including the lane based on the shape of the detected road surface mark. The roadside area detection unit detects the roadside area (B) from the input real image area. For example, the roadside area detection unit estimates and determines the roadside area (B) from the real image area based on the shape of the road area (A) detected by the road area detection unit. The area dividing unit outputs information on the road area (A), the roadside area (B), and the other area (C) in the real image area.

特徴抽出部は、画像解析処理により、実画像における各領域(道路領域(A)、路側領域(B)、他領域(C))から、特徴部群(角点、線分、色領域などの特徴部)を抽出する。   The feature extraction unit obtains a feature group (corner points, line segments, color regions, etc.) from each region (road region (A), roadside region (B), other region (C)) in the real image by image analysis processing. (Feature part) is extracted.

道路不要物除去部は、実画像の道路領域(A)に対し、密集横線領域(複数の横線が高密度で集まっている領域)を検出し、検出した領域に対応する特徴部群を削除する。路側不要物除去部は、実画像の路側領域(B)に対し、密集角点領域(複数の角点が高密度でで集まっている領域)を検出し、検出した領域に対応する特徴部群を削除する。不要物除去部は、上記除去(削除)後の特徴情報(特徴部群の情報)を出力する。   The road unnecessary object removal unit detects a dense horizontal line area (an area where a plurality of horizontal lines are gathered at a high density) with respect to the road area (A) of the actual image, and deletes a feature group corresponding to the detected area. . The roadside unnecessary object removal unit detects a dense corner point region (a region where a plurality of corner points are gathered at high density) with respect to the roadside region (B) of the actual image, and a feature group corresponding to the detected region Is deleted. The unnecessary object removing unit outputs the feature information (feature portion group information) after the removal (deletion).

本発明の代表的な形態によれば、車載カメラを利用した実時間測位の技術に係わり、安価かつ高精度な測位を実現できる。特に、仮想画像処理を用いない実時間測位を実現し、地図DBの製作・維持を効率化・低コスト化でき、測位時(撮像時)の道路周囲状況などの要因・変動に対しても適応できる、ロバストな特徴検出等の手法を含む測位技術を提供できる。   According to the representative embodiment of the present invention, it is related to the technique of real-time positioning using an in-vehicle camera, and low-cost and high-precision positioning can be realized. In particular, real-time positioning that does not use virtual image processing can be realized, map DB production and maintenance can be made more efficient and less expensive, and it can be applied to factors and fluctuations such as road surroundings during positioning (when imaging) It is possible to provide a positioning technique including a technique such as robust feature detection.

本発明の一実施の形態のシステム(移動体位置測定装置)である自動車及び車載情報システムの構成例を示す図である。It is a figure which shows the structural example of the motor vehicle which is the system (mobile body position measuring apparatus) of one embodiment of this invention, and a vehicle-mounted information system. ある時・位置における地図上のRP付近の特徴部などの例を模式的に示す図である。It is a figure which shows typically an example, such as a characteristic part of RP vicinity on a map in a certain time and position. ある時・位置で撮像した実画像における特徴点などの例を示す図である。It is a figure which shows the example of the feature point etc. in the real image imaged at a certain time and position. 移動前後の時・位置の実画像の間における自車位置と特徴点位置との相対関係の例を示す図である。It is a figure which shows the example of the relative relationship of the own vehicle position and the feature point position between the real images of the time and position before and after movement. 事前登録処理の詳しい処理例を示す図である。It is a figure which shows the detailed process example of a prior registration process. 実時間測位処理の詳しい処理例を示す図である。It is a figure which shows the detailed process example of a real-time positioning process. SFM手法を用いた位置推定等について概略的に示す図である。It is a figure which shows roughly about the position estimation etc. which used the SFM method. 詳細な実施の形態として、ロバストな特徴検出手法を実装した特徴検出部の構成例を示す図である。It is a figure which shows the structural example of the feature detection part which implemented the robust feature detection method as detailed embodiment. 道路上の各領域や物の例を示す図である。It is a figure which shows the example of each area | region and thing on a road. 実画像における領域分割・不要物除去の前の例を示す図である。It is a figure which shows the example before the area | region division and unnecessary object removal in a real image. 実画像における領域分割・不要物除去の後の例を示す図である。It is a figure which shows the example after the area | region division and unnecessary object removal in a real image. 実画像における限定処理の例を示す図である。It is a figure which shows the example of the limitation process in a real image.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一符号を付し、その繰り返しの説明は省略する。略称として、RP:参照地点(Reference Point)、等とする。説明上の記号として、T:時点、K:自車位置(≒カメラ撮像位置)、G:画像・実画像、P:特徴点(及び特徴点位置)、等とする。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiment, and the repetitive description thereof will be omitted. Abbreviated as RP: Reference Point, etc. As symbols for explanation, T: time point, K: own vehicle position (≈camera imaging position), G: image / real image, P: feature point (and feature point position), and the like.

本実施の形態の主な特徴として、移動体(自動車)の実時間測位の際、SFM手法を利用した特徴マッチング処理などを行い(図1、図5,図6等)、特に、道路景観の変動に適応できるロバストな特徴検出手法(図8等)を有する。これにより自車現在位置を安価かつ高精度で推定する。特に、図8のように、道路景観(実画像)から、道路や路側を含む各種領域を検出して、測位に悪影響な不要物(対応する特徴部)を除去する処理機能を有する。   As a main feature of this embodiment, when performing real-time positioning of a moving body (automobile), feature matching processing using the SFM method is performed (FIG. 1, FIG. 5, FIG. 6 etc.). It has a robust feature detection method (FIG. 8, etc.) that can adapt to fluctuations. Thereby, the current position of the host vehicle is estimated with low cost and high accuracy. In particular, as shown in FIG. 8, it has a processing function for detecting various regions including roads and roadsides from a roadscape (actual image) and removing unnecessary objects (corresponding features) that adversely affect positioning.

[システム]
図1において、本発明の一実施の形態のシステム(移動体位置測定装置)である自動車及び車載情報システム100の構成例を示している。自動車及び車載情報システム100は、実時間測位部1、制御部2、センサ類3、カメラ(撮像部)4、地図DB(データベース)5、等を備える。制御部2は、例えばCPU,ROM,RAM等を含んで成り、回路やプログラムの処理により、システム全体の制御、及び実時間測位部1を含む処理機能を実現する。
[system]
FIG. 1 shows a configuration example of an automobile and an in-vehicle information system 100 that are systems (moving body position measuring devices) according to an embodiment of the present invention. The automobile and in-vehicle information system 100 includes a real-time positioning unit 1, a control unit 2, sensors 3, a camera (imaging unit) 4, a map DB (database) 5, and the like. The control unit 2 includes, for example, a CPU, a ROM, a RAM, and the like, and realizes control of the entire system and processing functions including the real-time positioning unit 1 by processing of circuits and programs.

なお本自動車(100)はユーザが利用するが、後述する計測車両の場合は、実時間測位部1に対応した事前登録処理部などを備え、地図DB5への事前登録(a2)の処理(d2登録処理を含む)を行う。またユーザの自動車(100)に事前登録処理部を搭載する形態(地図DB5内容(d2)を随時更新する形態)も可能である。   In addition, although this user (100) uses a user, in the case of a measurement vehicle to be described later, a pre-registration processing unit corresponding to the real-time positioning unit 1 is provided, and processing (d2) for pre-registration (a2) to the map DB 5 Registration process). Moreover, the form (form which updates map DB5 content (d2) at any time) which mounts a prior registration process part in a user's motor vehicle (100) is also possible.

センサ類3は、GPSユニット31、ジャイロセンサ32、走行センサ33、等の公知の要素である(他の手段を有してもよい)。GPSユニット31により、複数のGPS衛星からの搬送波(例えば1回/1秒)を受信し、到達時間差などから緯度・経度による位置を検出する。ジャイロセンサ32は、自車の角速度変化から、自車の方位角(向き)を検出する。走行センサ33(車速計など)は、自車の走行の距離や速度を検出する。   The sensors 3 are known elements such as the GPS unit 31, the gyro sensor 32, and the travel sensor 33 (may have other means). The GPS unit 31 receives carrier waves (for example, once per second) from a plurality of GPS satellites, and detects the position based on the latitude and longitude from the arrival time difference. The gyro sensor 32 detects the azimuth angle (orientation) of the host vehicle from the change in the angular velocity of the host vehicle. The travel sensor 33 (such as a vehicle speedometer) detects the travel distance and speed of the host vehicle.

カメラ4は、1台の自動車(100)に対して1つ以上が搭載される。カメラ4の搭載の位置や向き、及び詳細な機能などは各種の形態が可能である。例えば図3のように、自動車(100)の前方の路面や景観を含むフレームを撮像する位置・向きで搭載される。実時間測位の際、カメラ4は、自車の移動に伴い、走行方向(カメラ4の向きに対応)の道路や景観等を撮像し、それによる複数の実画像のフレームを得る。その実画像データは適宜記憶手段に一時記憶してもよい。カメラ4は、例えばリアビューカメラやドライブ・レコーダー用カメラなど、安価な単眼カメラが適用可能である。   One or more cameras 4 are mounted on one automobile (100). Various forms are possible for the mounting position and orientation of the camera 4 and the detailed functions. For example, as shown in FIG. 3, the vehicle is mounted at a position / orientation for imaging a road surface and a frame including a landscape in front of the automobile (100). During real-time positioning, the camera 4 captures a road, a landscape, and the like in the traveling direction (corresponding to the direction of the camera 4) as the vehicle moves, and obtains a plurality of real image frames. The actual image data may be temporarily stored in a storage unit as appropriate. The camera 4 can be an inexpensive monocular camera such as a rear view camera or a drive / recorder camera.

1台の自動車に対して2つ以上(複数)のカメラ4を搭載する場合は、それら複数のカメラ4で同時に撮像した複数の実画像を特徴抽出処理(画像解析処理)などで用いる。これにより、コストが増える代わりに測位精度を高めることができる。上記複数の実画像については、例えば、同じ撮像位置(カメラ位置)から複数の方向の景観を撮像する形、あるいは、複数の撮像位置(カメラ位置)から同じ対象を撮像する形、などが可能である。   When two or more (a plurality of) cameras 4 are mounted on one automobile, a plurality of real images simultaneously captured by the plurality of cameras 4 are used for feature extraction processing (image analysis processing) or the like. Thereby, the positioning accuracy can be increased instead of the cost. With respect to the plurality of real images, for example, a shape in which a landscape in a plurality of directions is imaged from the same imaging position (camera position) or a shape in which the same object is imaged from a plurality of imaging positions (camera positions) is possible. is there.

地図DB5は、地図情報(d0)、RP情報(d1)、第2の特徴情報(d2)、等のデータを格納する。地図DB5は、図示しない記憶手段(例えばHDD,DVD等)や通信ネットワーク上のサービス(地図DB5内容を自動更新する)等により実現される。地図DB5への事前登録(a2)の処理では、所定のRP付近での実画像から特徴部を抽出し、RP情報(d1)、第2の特徴情報(d2)、等として関連付けて登録する。所定のRPとして少なくとも道路の交差点を含む。   The map DB 5 stores data such as map information (d0), RP information (d1), and second feature information (d2). The map DB 5 is realized by storage means (for example, HDD, DVD, etc.) not shown, a service on a communication network (the contents of the map DB 5 are automatically updated), and the like. In the process of pre-registration (a2) in the map DB 5, a feature portion is extracted from an actual image near a predetermined RP, and is registered in association with RP information (d1), second feature information (d2), and the like. The predetermined RP includes at least a road intersection.

地図情報(d0)は、公知の道路情報・景観情報、等を含み、本例ではカーナビ6のデジタル地図で使用されるデータを想定している。また、本発明に係わる要素として、地図情報(d0)には、特に、所定のRPに関する情報(d1)を含み、RP情報(d1)は、当該RPに関連付けられる第2の特徴情報(d2)を含む。   The map information (d0) includes known road information, landscape information, and the like. In this example, data used in the digital map of the car navigation 6 is assumed. Further, as elements relating to the present invention, the map information (d0) particularly includes information (d1) relating to a predetermined RP, and the RP information (d1) is second feature information (d2) associated with the RP. including.

RP情報(d1)は、地図上における、実時間測位の際の参照対象とする交差点などのRPやランドマーク等に関する情報であり、当該RP等に関する識別情報や属性情報、3次元空間(地図)内の位置座標(3次元座標{X,Y,Z}または対応する緯度・経度などの所定の形式の情報)などの情報を有する。   The RP information (d1) is information on an RP such as an intersection to be referred to in real-time positioning on the map, landmarks, and the like. Identification information and attribute information about the RP etc., three-dimensional space (map) Information such as position coordinates (three-dimensional coordinates {X, Y, Z} or information of a predetermined format such as corresponding latitude / longitude).

第2の特徴情報(d2)は、RP情報(d1)で識別されるRPの付近の景観(実画像)内に含まれる標識や建物などのランドマーク等に関して、事前登録(a2)の際の処理で抽出された特徴部(特徴点(P)など)に関する特徴量や位置座標(画像内の2次元座標{x,y}及び対応する3次元座標{X,Y,Z})などの情報を含む。   The second feature information (d2) is used for pre-registration (a2) regarding landmarks such as signs and buildings included in the scenery (actual image) near the RP identified by the RP information (d1). Information such as feature quantities and position coordinates (two-dimensional coordinates {x, y} and corresponding three-dimensional coordinates {X, Y, Z} in the image) relating to feature parts (feature points (P), etc.) extracted by processing including.

カーナビ6は、実時間測位部1による自車現在位置の情報を利用・出力するカーナビゲーションシステムやディスプレイ等である。カーナビ6は、地図DB5のデータ、及び第3の位置情報(L3)等を用いて、ナビゲーション用の地図等のデータを随時に生成し、画面表示処理などを行う。また前述のように、車両制御のためのマイコンやECUへ車両現在位置と方位角の情報などを転送する形態としてもよい。   The car navigation 6 is a car navigation system, a display, or the like that uses and outputs information on the current position of the vehicle by the real-time positioning unit 1. The car navigation 6 uses the data in the map DB 5, the third position information (L3), and the like to generate data such as a navigation map as needed, and performs screen display processing and the like. Further, as described above, the vehicle current position and azimuth information may be transferred to a microcomputer or ECU for vehicle control.

[実時間測位部、処理概要]
図1を用いて、本実施の形態(自動車及び車載情報システム100)における実時間測位部1の構成、及びその実時間測位などの際の処理概要を以下(0)〜(5)等で説明する。実時間測位部1は、制御部2により、センサ類3、カメラ4、地図DB5、カーナビ6等と連携して、実時間測位に係わる処理を行う。実時間測位部1は、位置検出部10、第1の特徴抽出部11、第2の特徴抽出部12、特徴マッチング部13、位置補正部14、等を備える。その他必要に応じて、画像データ記憶部、マップマッチング部、等の公知の要素を備えてもよい。なおユーザが一般車両で本システムを利用する際の各部の処理については基本的に実時間(リアルタイム)での処理であり、地図DB5のデータ{d0,d1,d2}については、事前登録(a2)による処理(例えば本システム提供者、計測車両による処理)である。
[Real-time positioning unit, processing overview]
With reference to FIG. 1, the configuration of the real-time positioning unit 1 in the present embodiment (automobile and in-vehicle information system 100) and an outline of the processing at the time of the real-time positioning and the like will be described in (0) to (5) below. . The real-time positioning unit 1 performs processing related to real-time positioning by the control unit 2 in cooperation with the sensors 3, the camera 4, the map DB 5, the car navigation 6, and the like. The real-time positioning unit 1 includes a position detection unit 10, a first feature extraction unit 11, a second feature extraction unit 12, a feature matching unit 13, a position correction unit 14, and the like. Other known elements such as an image data storage unit and a map matching unit may be provided as necessary. In addition, about the process of each part at the time of a user using this system with a general vehicle, it is a process in real time (real time), and pre-registration (a2) about data {d0, d1, d2} of map DB5 ) (For example, processing by the system provider or measurement vehicle).

(0) 位置検出部10は、随時、実時間でのGPSユニット31等を含むセンサ類3からの検出情報(b0)を入力し、そのデータを用いて自車の概略の現在位置と方位角など(一般的なGPSによる測位誤差を持つ概略の第1の位置)を検出し、この検出情報を第1の位置情報(L1)とする。例えば図2に状況を示す。   (0) The position detection unit 10 inputs the detection information (b0) from the sensors 3 including the GPS unit 31 and the like in real time as needed, and uses the data to approximate the current position and azimuth of the host vehicle. Etc. (schematic first position having a positioning error by general GPS) is detected, and this detection information is set as first position information (L1). For example, the situation is shown in FIG.

(1) 第1の特徴抽出部11は、実時間(a1)での入力によるカメラ4で撮像した実画像(カメラ4毎の時間軸上の複数の各々の画像フレーム)のデータ(b1)を入力し、その実画像(例えば図3)の中から、自車周囲環境の道路を含む景観に関する特徴部を抽出する処理を行い、第1の特徴情報(c1)として出力する。特徴部及び第1の特徴情報(c1)は、上記実画像(2次元景観画像)に含まれる角点(特徴点(P))の座標({x,y})、及び、その角点の形状・色・明度変化などの特徴を表す特徴量(例えばSIFT特徴量;例えば非特許文献3を参照)など、所定の画像解析処理などにより抽出できる各種の情報を含む(後述、図3等)。実時間測位は、少なくとも、交差点などのRPの近く(手前など)の位置から開始される。第1の特徴抽出部11は、第1の位置情報(L1)に従って、視野範囲内にあるRPの近くの位置から、上記特徴抽出処理(時間軸上の複数の実画像フレームの処理)を行う。   (1) The first feature extraction unit 11 obtains data (b1) of an actual image (a plurality of image frames on the time axis for each camera 4) captured by the camera 4 by an input at the actual time (a1). It inputs, performs the process which extracts the characteristic part regarding the scenery containing the road of the surrounding environment of the own vehicle from the real image (for example, FIG. 3), and outputs it as 1st characteristic information (c1). The feature part and the first feature information (c1) are the coordinates ({x, y}) of the corner point (feature point (P)) included in the real image (two-dimensional landscape image) and the corner point. Includes various types of information that can be extracted by predetermined image analysis processing, such as feature quantities (eg, SIFT feature quantities; see, for example, Non-Patent Document 3) representing features such as shape, color, and brightness change (described later, such as FIG. 3). . Real-time positioning is started at least from a position near the RP (such as the front) such as an intersection. The first feature extraction unit 11 performs the feature extraction processing (processing of a plurality of real image frames on the time axis) from a position near the RP within the visual field range according to the first position information (L1). .

(2) 第2の特徴抽出部12は、上記第1の特徴抽出部11の動作に並行して、自車の移動に伴う第1の位置情報(L1)をもとに、事前登録(a2)による各データ(d0,d1,d2)が登録済みの地図DB5から、自車の第1の位置の付近の地図情報(d0)、RP情報(d1)、及び第2の特徴情報(d2)を逐次に取得する。第2の特徴抽出部12は、地図DB5からデータ(b2)を読み出して入力する形で、該当RP付近の景観(実画像)の中から特徴部を抽出し、第1の特徴情報(c1)に対するマッチングの対象(参照元)とするための第2の特徴情報(c2)として出力する。上記データ(b2)は、該当RP付近の特徴部の情報にあたる第2の特徴情報(d2)を含む。地図DB5内に、対応する第2の特徴情報(d2)が事前登録(a2)済みの場合は、単にそのデータを読み出して取得すればよい。第2の特徴情報(c2)は、第1の特徴情報(c1)と同様の形式であり、特徴点などについての特徴量や位置座標などの情報を含む。   (2) The second feature extraction unit 12 performs pre-registration (a2) based on the first position information (L1) accompanying the movement of the host vehicle in parallel with the operation of the first feature extraction unit 11. ) From the registered map DB 5 in which each data (d0, d1, d2) is registered, map information (d0), RP information (d1) and second feature information (d2) in the vicinity of the first position of the vehicle. Are acquired sequentially. The second feature extraction unit 12 reads out and inputs the data (b2) from the map DB 5, extracts the feature from the landscape (actual image) in the vicinity of the corresponding RP, and first feature information (c1) Is output as second feature information (c2) for matching with (reference source). The data (b2) includes second feature information (d2) corresponding to information on a feature portion near the corresponding RP. If the corresponding second feature information (d2) is pre-registered (a2) in the map DB 5, it is only necessary to read and acquire the data. The second feature information (c2) has the same format as the first feature information (c1), and includes information such as feature amounts and position coordinates regarding feature points.

上記(1),(2)における実時間(a1)及び事前登録(a2)の際のそれぞれの特徴抽出処理では、地図上のRP(例えば図2の交差点など)付近の道路や景観を対象とした画像の中から、ランドマーク等(路面の白線、標識、建物など)に関する特徴部(特徴点など)を抽出する画像解析処理を行う(後述、図5,図6)。   In each feature extraction process in the real time (a1) and pre-registration (a2) in (1) and (2) above, roads and scenery near the RP (for example, the intersection in FIG. 2) on the map are targeted. Image analysis processing is performed to extract features (feature points, etc.) relating to landmarks (white lines on road surfaces, signs, buildings, etc.) from the obtained images (described later, FIGS. 5 and 6).

(3) 特徴マッチング部13は、第1の特徴情報(c1)と第2の特徴情報(c2)とを入力し、SFM手法を用いた特徴マッチング処理を行うことにより、逐次で自車現在位置を推定し、この結果(推定の自車現在位置)を、第2の位置情報(L2)として出力する。自車の移動に伴う複数の時点(T)・位置(K)の複数の実画像(G)のフレーム中における複数の各々の特徴部(特徴点(P)など)との相対的な位置関係(相対的な自車の位置・方位)を、SFM手法を用いて演算することにより、自車現在位置(K)を推定する(後述、図4等)。   (3) The feature matching unit 13 inputs the first feature information (c1) and the second feature information (c2), and performs the feature matching process using the SFM method, so that the current vehicle position is sequentially And the result (estimated current position of the vehicle) is output as the second position information (L2). Relative positional relationship with a plurality of feature parts (feature points (P), etc.) in a frame of a plurality of real images (G) at a plurality of time points (T) and positions (K) accompanying the movement of the host vehicle The current position (K) of the host vehicle is estimated by calculating (relative position / orientation of the host vehicle) using the SFM method (described later, such as FIG. 4).

(4) 位置補正部14は、第1の位置情報(L1)と第2の位置情報(L2)とを入力し、L1に対してL2を用いて自車現在位置を補正し、その結果を第3の位置情報(L3)として出力する。L3は、車両現在位置と方位角の情報を含む。   (4) The position correction unit 14 inputs the first position information (L1) and the second position information (L2), corrects the current position of the vehicle using L2 with respect to L1, and obtains the result. Output as third position information (L3). L3 includes information on the current vehicle position and azimuth angle.

なお、位置補正部14を設けずに、第2の位置情報(L2)を最終結果の位置情報として出力する形態としてもよい。少なくともL2はL1よりも高精度な値が得られる。RP付近以外の場所では、位置補正部14による補正を行うことが好適である。   The second position information (L2) may be output as the position information of the final result without providing the position correction unit 14. At least L2 can be obtained with higher accuracy than L1. It is preferable to perform correction by the position correction unit 14 at a place other than the vicinity of the RP.

またマップマッチング処理などを行う場合は、例えば、第1の位置情報(L1)等をもとに、地図内の道路から自車が外れないように補正する。例えばL1とその付近の地図情報(d0)から、自車の存在可能位置を選択する。また、L1をもとに、道路の車線数や車線幅、路面上のマークや標識・信号といった地図情報(d0)を取得して、自車の存在可能位置などを把握してもよい。   When performing map matching processing or the like, for example, correction is performed so that the vehicle does not come off the road in the map based on the first position information (L1) or the like. For example, a position where the vehicle can exist is selected from L1 and map information (d0) in the vicinity thereof. Further, based on L1, map information (d0) such as the number of lanes and the lane width of a road, a mark on a road surface, a sign / signal, and the like may be acquired to grasp a possible position of the vehicle.

(5) 自動車及び車載情報システム100では、上記第3の位置情報(L3)を用いて処理を行う。例えばカーナビ6で、L3等を用いて自車現在位置を表示する。また、車両制御のためのマイコンやECUへ上記L3による車両現在位置と方位角の情報を転送して利用する形態などとしてもよい。   (5) In the vehicle and in-vehicle information system 100, processing is performed using the third position information (L3). For example, the current position of the vehicle is displayed on the car navigation 6 using L3 or the like. Moreover, it is good also as a form etc. which transfer and utilize the information of the vehicle present position and azimuth angle by said L3 to the microcomputer and ECU for vehicle control.

[事前登録処理]
地図DB5への事前登録(a2)の際の処理は、例えば、計測車両(カメラ及び事前登録処理部などを備える)で行われる。事前登録処理部は、第1の特徴抽出部11等と同様の処理部を含む構成である。計測車両により実際に対象の道路を走行して、対象のRP付近の景観を撮像する。その実画像データを一旦記憶し、その実画像データから、第1の特徴抽出部11での処理と同様に、特徴部を抽出する処理を行い、この結果を第2の特徴情報(d2)とし、地図DB5内にRP情報(d1)に関連付けて登録する。この処理は、実時間測位の際の第1の特徴抽出部11での処理内容と概略的には共通である。なおこの処理では、実時間測位の際とは異なり、すべてを実時間で処理する必要は無い。例えば予め収集・蓄積した実画像データを対象としてまとめて特徴抽出処理を実行する形態などとしてもよい。
[Pre-registration process]
The process at the time of prior registration (a2) to the map DB 5 is performed by, for example, a measurement vehicle (including a camera and a prior registration processing unit). The pre-registration processing unit includes a processing unit similar to the first feature extraction unit 11 and the like. The vehicle is actually driven on the target road by the measurement vehicle, and the landscape near the target RP is imaged. The actual image data is temporarily stored, and the feature is extracted from the actual image data in the same manner as the process in the first feature extraction unit 11, and this result is used as the second feature information (d2). Register in the DB 5 in association with the RP information (d1). This processing is generally the same as the processing content in the first feature extraction unit 11 at the time of real-time positioning. In this process, unlike real-time positioning, it is not necessary to process everything in real time. For example, the feature extraction processing may be executed by collecting actual image data collected and accumulated in advance.

[RP、ランドマーク]
図2において、地図、道路、RP、ランドマーク、特徴点(P)、等の例を、2次元平面によって模式的に示す(なお説明用であってカーナビ6で表示する地図とは異なる)。自車200、交差点201、道路202、道路/車線203、白線(車線境界線)204、建物205、路側206、等の例を示す。Kは、自車200の現在位置を示し、3次元座標{X,Y,Z}及び方位角(矢印)などによって表現される。
[RP, landmark]
In FIG. 2, examples of maps, roads, RPs, landmarks, feature points (P), and the like are schematically shown by a two-dimensional plane (note that they are for explanation purposes and are different from the map displayed on the car navigation system 6). Examples of own vehicle 200, intersection 201, road 202, road / lane 203, white line (lane boundary line) 204, building 205, roadside 206, and the like are shown. K indicates the current position of the host vehicle 200 and is expressed by three-dimensional coordinates {X, Y, Z}, an azimuth (arrow), and the like.

RPは、測位に役立つ景観特徴を持つ測位参考点であり、201のような道路交差点や、分岐・合流部、そしてランドマーク地点などを指している。RPとしては、現実(地図)に存在するうちの主なもの(測位に役立つもの)がRP情報(d1)として事前登録(a2)される。RPは、交差点201に限らず、例えば所定間隔での複数の地点や、ランドマークとなる建物205などを対象としてもよい。またRPの3次元位置情報は、地図DB5を構築する際(a2)に計測車両によって計算されてRP情報(d1)に登録される。なおこのRPの3次元位置情報の計算過程については別に記述される(図5の事前登録処理にて記述されている)。また本実施の形態では登録しないが、事前に撮像されるRP付近の実画像データを関連付けて登録してもよい。   RP is a positioning reference point having a landscape feature useful for positioning, and indicates a road intersection such as 201, a branching / merging portion, and a landmark point. As the RP, the main thing (useful for positioning) in the reality (map) is pre-registered (a2) as the RP information (d1). The RP is not limited to the intersection 201, and may be a plurality of points at predetermined intervals, a building 205 serving as a landmark, or the like. The three-dimensional position information of the RP is calculated by the measurement vehicle when the map DB 5 is constructed (a2) and registered in the RP information (d1). The calculation process of the three-dimensional position information of the RP is described separately (described in the pre-registration process in FIG. 5). Although not registered in the present embodiment, real image data in the vicinity of the RP captured in advance may be registered in association with each other.

図2では、交差点201(RP)付近の道路202・車線203において、自車200が当該RPに進入しようとしている時の自車200の現在位置(K)を示している。ある時点(T)の位置(K)の情報として、事前に地図に登録されたRPの3次元位置座標({X,Y,Z})と方位角、そして当該位置データの誤差範囲(後述の推定精度)、等の情報を有する。なお座標だけでなく方位角も含めて位置情報と略称している。丸印は、実画像よりランドマーク等に関して抽出される特徴部の例として特徴点(P)を示し、例えば、自車200の進行方向の路面の白線204の角点や、進行方向の両側の建物205の角などを示している。破線は、自車200の現在位置(K)(≒カメラ4の撮像位置)と、複数の各々の特徴点(P)との間の距離(相対的な位置関係)を示している。なお特徴点(P)の位置は、図2では地図上の座標({X,Y,Z})で示しているが、対応する実画像内の画素の座標({x,y})の情報などを有する。   FIG. 2 shows the current position (K) of the host vehicle 200 when the host vehicle 200 is about to enter the RP on the road 202 / lane 203 near the intersection 201 (RP). As information of the position (K) at a certain time (T), the three-dimensional position coordinates ({X, Y, Z}) and azimuth of the RP registered in advance in the map, and an error range (described later) of the position data Information). Note that not only coordinates but also azimuth angles are abbreviated as position information. A circle indicates a feature point (P) as an example of a feature portion extracted from a real image with respect to a landmark or the like. For example, a corner point of a white line 204 on the road surface in the traveling direction of the host vehicle 200 or both sides of the traveling direction. The corners of the building 205 are shown. The broken line indicates the distance (relative positional relationship) between the current position (K) of the host vehicle 200 (≈the imaging position of the camera 4) and each of the plurality of feature points (P). The position of the feature point (P) is indicated by the coordinates ({X, Y, Z}) on the map in FIG. 2, but information on the coordinates ({x, y}) of the corresponding pixel in the actual image. Etc.

[実画像、特徴抽出処理]
図3は、ある時点(T)及び位置(K)におけるカメラ4で撮像した実画像(G)の例を模式的に示している。交差点(RP)の手前から前方を撮像した場合である。丸印は特徴点(P)の例である。わかりやすくするため他車の存在などは省略している。301は道路領域(走行車線領域)、302は白線(白線領域)を示す。各特徴点(P)は、実画像内の画素の位置座標情報({x,y})などを有する。
[Real image, feature extraction processing]
FIG. 3 schematically shows an example of an actual image (G) captured by the camera 4 at a certain time (T) and position (K). It is a case where the front is imaged from before the intersection (RP). Circles are examples of feature points (P). The presence of other vehicles is omitted for clarity. Reference numeral 301 denotes a road area (running lane area), and 302 denotes a white line (white line area). Each feature point (P) has pixel position coordinate information ({x, y}) in the real image.

地図DB5に第2の特徴情報(d2)を事前登録するための実画像(特徴部を抽出する対象)は、例えば図3のように、RPの手前などから走行方向・RPを臨んで撮像した画像とする。図2の交差点201の場合であれば、当該RPに進入する4方向からの各画像を用いる。   A real image (target for which a feature part is to be extracted) for pre-registering the second feature information (d2) in the map DB 5 is captured from the front of the RP, for example, in front of the RP as shown in FIG. An image. In the case of the intersection 201 in FIG. 2, each image from four directions entering the RP is used.

特徴点(P)などを抽出するための特徴抽出処理では、基本的には公知の各種の技術(画像解析処理)を適用可能である。画像解析処理では、例えば、実画像を構成する画素の明度・輝度などの差分値を演算することで、路面の白線(204,302)や建物(205)の輪郭などに対応する線分や角点などの形状・色・明度変化などを表す特徴量を抽出することができる。なお、抽出する特徴部としては、適用する処理手法などに応じて、線分や角点などに限らず、所定の図形(円弧など)とすることも可能である。   In the feature extraction processing for extracting feature points (P) and the like, basically, various known techniques (image analysis processing) can be applied. In the image analysis processing, for example, a line segment or corner corresponding to the white line (204, 302) on the road surface, the outline of the building (205), or the like is calculated by calculating a difference value such as brightness and luminance of pixels constituting the actual image. It is possible to extract a feature amount that represents the shape, color, brightness change, etc. of a point. Note that the feature to be extracted is not limited to a line segment or a corner point, but may be a predetermined figure (such as an arc), depending on the processing technique to be applied.

[自車と特徴点との関係、特徴マッチング処理]
図4は、自車の移動による自車位置(K)と特徴点(P)との相対的な位置関係の例を示す。自車の移動に伴う複数の時点(T)・位置(K)の各実画像(G)における複数の特徴点(P)などがあるとき、SFM手法によって、自車現在位置(K)を推定する。例えば、自車の移動の前後の2つの時点(T1,T2)を考える。対応する各位置(K1,K2)及び実画像(G1,G2)を有する。それぞれに対応して、複数の特徴点P(例えばP1〜P4)の位置と自車の位置(K)との相対的な距離がある。401(破線)はT1等に対応した距離、402(実線)はT2等に対応した距離である。
[Relationship between own vehicle and feature points, feature matching processing]
FIG. 4 shows an example of the relative positional relationship between the vehicle position (K) and the feature point (P) due to the movement of the vehicle. When there are a plurality of feature points (P) in each real image (G) at a plurality of time points (T) and positions (K) accompanying the movement of the vehicle, the current vehicle position (K) is estimated by the SFM method. To do. For example, consider two time points (T1, T2) before and after the movement of the vehicle. Each corresponding position (K1, K2) and real image (G1, G2) are included. Corresponding to each, there is a relative distance between the position of a plurality of feature points P (for example, P1 to P4) and the position (K) of the host vehicle. 401 (broken line) is a distance corresponding to T1 and the like, and 402 (solid line) is a distance corresponding to T2 and the like.

特徴部は、実画像(G)の撮像時の位置(K)によって変化する。言い換えると、特徴部の情報は、上記撮像時の位置(K)の情報が含まれている。よって、SFM手法を利用した演算により、自車現在位置(K)を推定することができる。   The characteristic portion changes depending on the position (K) when the real image (G) is captured. In other words, the information on the characteristic part includes information on the position (K) at the time of imaging. Accordingly, the current vehicle position (K) can be estimated by calculation using the SFM method.

特徴マッチング処理では、例えば、実時間測位の際に抽出された複数の特徴点P(第1の特徴情報(c1))と、対応して地図DB5から読み出された複数の特徴点P(第2の特徴情報(c2))とにおいて、複数の特徴点Pの位置が比較され、一致・類似の度合いが判定される。例えばよく使う手法としては、ユークリッド距離を計算し、距離が一番小さいものを、一致する特徴点とする。   In the feature matching process, for example, a plurality of feature points P (first feature information (c1)) extracted at the time of real-time positioning and a plurality of feature points P (first items) read out from the map DB 5 correspondingly. 2 feature information (c2)), the positions of a plurality of feature points P are compared, and the degree of coincidence / similarity is determined. For example, as a frequently used technique, the Euclidean distance is calculated, and the one with the smallest distance is set as a matching feature point.

[SFM手法を用いた位置推定]
図7は、SFM手法を用いた位置推定(特徴抽出・特徴マッチング処理)等について概略的に示す。本内容は、実時間測位部1及び事前登録処理部における特徴抽出処理や特徴マッチング処理の内容に対応する。
[Location estimation using SFM method]
FIG. 7 schematically shows position estimation (feature extraction / feature matching processing) using the SFM method. This content corresponds to the content of feature extraction processing and feature matching processing in the real-time positioning unit 1 and the pre-registration processing unit.

特徴点(P)は、2次元画像(例えば図3)より抽出され、その2次元座標({x,y})に基づいて、SFM手法によって特徴点(P)の3次元空間位置({X,Y,Z})(例えば図2)が推定される。事前登録(a2)のプロセスでは、特徴点(P)における形状・色・明度変化などの特徴を表す特徴量(例えばSIFT特徴量)と、推定されたP位置、及びその推定精度(誤差の共分散行列)などの情報が、地図DB5(d2)へ登録される(後述、図5)。一方、実時間測位のプロセスでは、実時間(a1)の処理で抽出した各特徴点(P)の特徴量(c1)と、地図DB5(d2)に登録されている各特徴点(P)の特徴量(c2)とのマッチングが行われる。この対応付けができた場合は、この結果(各P配置)を用いて、SFM手法によって自車現在位置(K)を推定し(例えば図4)、その推定精度(誤差の共分散行列)も同時に計算できる。   The feature point (P) is extracted from a two-dimensional image (for example, FIG. 3), and based on the two-dimensional coordinates ({x, y}), the three-dimensional spatial position ({X , Y, Z}) (for example, FIG. 2). In the pre-registration (a2) process, a feature amount (for example, SIFT feature amount) representing a feature such as a shape, color, or brightness change at the feature point (P), an estimated P position, and its estimation accuracy (both errors are shared). Information such as (dispersion matrix) is registered in the map DB 5 (d2) (described later, FIG. 5). On the other hand, in the real-time positioning process, the feature amount (c1) of each feature point (P) extracted in the processing of the real time (a1) and each feature point (P) registered in the map DB 5 (d2). Matching with the feature amount (c2) is performed. When this association is possible, the present vehicle position (K) is estimated by the SFM method using this result (each P arrangement) (for example, FIG. 4), and the estimation accuracy (covariance matrix of error) is also obtained. It can be calculated at the same time.

[詳細]
以上に基づき、以下、本実施の形態における詳細な処理例などについて説明する。本システム(実時間測位部1)では、SFM手法を活かして、車載のカメラ4から撮像した複数枚の実画像(G)の特徴部(c1,c2)のマッチングにより、高精度な3次元相対位置(K)を推定の計算により決定する。
[Details]
Based on the above, a detailed processing example in the present embodiment will be described below. In this system (real-time positioning unit 1), by utilizing the SFM technique, matching of the characteristic parts (c1, c2) of a plurality of real images (G) taken from the vehicle-mounted camera 4 is performed with high-precision three-dimensional relative The position (K) is determined by estimation calculation.

本手法の一環である特徴量(第2の特徴情報(c2))の事前登録(a2)の処理として、交差点(201)等のRPの付近で事前に撮像された複数枚の実画像(G)から、特徴点Pなどの特徴部(特徴量及び3次元位置座標など)を抽出し、自車位置(K)を推定する。RP付近の特徴量を最適化処理し、自車位置(K)の測定誤差(推定精度)を所定範囲内に抑えられるまでは逐次に最適な特徴量を選択する。自車位置(K)の測定誤差(推定精度)を最小とするように最適な特徴量を選択すると同時に、特徴量の3次元空間位置と推定精度を求めることができる。最終的に選択された特徴部の情報を、第2の特徴情報(c2)として地図DB5に登録する。   As a process of pre-registration (a2) of the feature quantity (second feature information (c2)) as a part of this method, a plurality of real images (G that have been captured in the vicinity of the RP such as the intersection (201) ) To extract a characteristic portion (such as a characteristic amount and three-dimensional position coordinates) such as a characteristic point P, and estimate the vehicle position (K). The feature amount in the vicinity of the RP is optimized, and the optimum feature amount is sequentially selected until the measurement error (estimation accuracy) of the vehicle position (K) is suppressed within a predetermined range. The optimum feature quantity is selected so as to minimize the measurement error (estimation accuracy) of the vehicle position (K), and at the same time, the three-dimensional spatial position of the feature quantity and the estimation accuracy can be obtained. Information on the finally selected feature is registered in the map DB 5 as second feature information (c2).

一方、実時間測位部1では、カメラ4の実画像(b1)から抽出した特徴部の特徴量などの情報(第1の特徴情報(c1))と、対応する地図DB5から読み出した情報(第2の特徴情報(c2))とで特徴マッチング処理を行い、SFM手法によって自車現在位置(K)とRP付近の特徴部(複数の特徴点P)との相対的な位置と方位を計測することにより、自車現在位置(K)の高精度な測位が実現される。実時間測位部1では、自車の移動に伴い、少なくとも交差点などのRPの近くの位置から上記特徴マッチング処理などを実行し、各時点(T)の実画像(G)の処理を経ながら、逐次に自車現在位置(K)の測位誤差を最小化し、所定の許容精度(範囲)内に達した時点で当該測位結果を出力する。   On the other hand, in the real-time positioning unit 1, information (first feature information (c1)) such as feature amounts extracted from the real image (b1) of the camera 4 and information read from the corresponding map DB 5 (first) The feature matching process is performed with the feature information (c2)), and the relative position and direction between the current position (K) of the vehicle and the features (plural feature points P) near the RP are measured by the SFM method. Thus, highly accurate positioning of the current vehicle position (K) is realized. The real-time positioning unit 1 performs the above feature matching process and the like from at least a position near the RP such as an intersection with the movement of the own vehicle, and processes the real image (G) at each time point (T). Sequentially, the positioning error of the current vehicle position (K) is minimized, and the positioning result is output when it reaches a predetermined allowable accuracy (range).

本システムでは、SFM手法を用いた処理の際、公知の拡張カルマンフィルタの原理に基づいて、特徴量の最適化(連続で撮影された複数の実画像の中から最適な特徴部を選択するプロセス)と同時に3次元の測位(3次元位置座標の計算)を行う。本処理に関して、事前登録処理(図5)と実時間測位処理(図6)とで分けられる。違いとしては例えば図5では各特徴点位置を推定するが図6では登録済みゆえ推定しない。   In this system, in the process using the SFM method, the feature amount is optimized based on the principle of the known extended Kalman filter (a process of selecting an optimum feature from a plurality of real images taken continuously). At the same time, three-dimensional positioning (calculation of three-dimensional position coordinates) is performed. This processing can be divided into pre-registration processing (FIG. 5) and real-time positioning processing (FIG. 6). As a difference, for example, each feature point position is estimated in FIG. 5, but is not estimated because it is registered in FIG.

[事前登録処理(詳細)]
事前登録(a2)の際の処理では、所定のRP付近の実画像内の特徴部の情報(d2)を含む地図DB5を作成するために、計測車両(事前登録処理部)では、例えば所定のRPの手前の位置から計測を開始する。計測車両の例えば前方に搭載された1台以上のカメラからRP・走行方向を撮像し、それら時間軸上の複数の実画像に対する特徴抽出処理(画像解析処理)を行う。
[Pre-registration process (details)]
In the process at the time of pre-registration (a2), in order to create the map DB 5 including the information (d2) of the characteristic part in the real image near the predetermined RP, the measurement vehicle (pre-registration processing unit) Measurement starts from the position before RP. For example, the RP / traveling direction is imaged from one or more cameras mounted in front of the measurement vehicle, and feature extraction processing (image analysis processing) is performed on a plurality of real images on the time axis.

図5を用いて、事前登録処理部での詳しい構成・処理例として、SFM手法を用いた処理などについて説明する。500は、入力である実画像などのデータ情報である。   As a detailed configuration / processing example in the pre-registration processing unit, processing using the SFM method and the like will be described with reference to FIG. Reference numeral 500 denotes data information such as an input actual image.

(1)まず、道路領域検出処理501では、入力画像(500)の中から、道路領域(及び非道路領域)などを検出する。道路領域(走行車線領域など)は、例えば図2の203、図3の301のような領域であり、図2の204、図3の302のような白線などで区画される領域などである。本処理501の詳細は後述する。   (1) First, in the road area detection process 501, a road area (and a non-road area) is detected from the input image (500). The road area (traveling lane area or the like) is, for example, an area such as 203 in FIG. 2 or 301 in FIG. 3, and is an area partitioned by white lines or the like as 204 in FIG. 2 or 302 in FIG. Details of this processing 501 will be described later.

(2)不要物除去処理502では、上記(1)の結果に対して、不要物の特徴点など(測位計算に悪影響な変動物に対応する特徴部群)を除去する所定の処理を行う。本処理502の詳細は後述する。   (2) In the unnecessary object removal process 502, a predetermined process is performed on the result of (1) above to remove the feature points of the unnecessary object (feature part group corresponding to the variable object that adversely affects the positioning calculation). Details of this processing 502 will be described later.

上記(1),(2)を経て、各時点(T)・位置(K)の実画像(G)に関係付けられた複数の各々の特徴点(P)などの特徴部(図2〜図4)に関する特徴量及び位置座標情報などを特徴情報として得る。   Through the above (1) and (2), a characteristic portion such as a plurality of characteristic points (P) related to the actual image (G) at each time point (T) and position (K) (FIGS. The feature amount and position coordinate information regarding 4) are obtained as feature information.

(3)計測処理503(SFM処理)では、上記(2)の結果を対象(入力)として、拡張カルマンフィルタ(予測式、及び初期値)を用いて、それぞれの特徴点(P)の3次元空間位置({X,Y,Z})、及び自車現在位置(K)を推定しながら、それぞれの推定精度(誤差の共分散行列)を計算する。図5のように、(a)自車現在位置(K)、及び(b)各々の特徴点(P)の位置、及び(c)それら各々の推定精度(誤差の共分散行列)、等を推定する計算処理を行う。aの自車位置については動き(変動量)を用いる。詳しい計算式については後述する。   (3) In the measurement process 503 (SFM process), using the extended Kalman filter (prediction formula and initial value) with the result of (2) as an object (input), the three-dimensional space of each feature point (P) While estimating the position ({X, Y, Z}) and the current vehicle position (K), the respective estimation accuracy (covariance matrix of error) is calculated. As shown in FIG. 5, (a) the current position (K) of the vehicle, (b) the position of each feature point (P), and (c) the estimation accuracy (covariance matrix of errors) of each of them, etc. Perform estimation processing. The movement (variation amount) is used for the vehicle position of a. A detailed calculation formula will be described later.

(4)初期値設定504: 上記(3)の初期値については、本システムで予め設定された値が入力される。初期値は、初期特徴点位置、初期自車位置(動き)、等である。初期値の設定の仕方としては、例えば、経験値によるか、あるいは、地図DB5の地図情報(d0)から大まかな位置を設定する、等である。また、例えば2台のカメラ4を使用する場合では、ステレオ計算による奥行き情報から求めて設定することができる。   (4) Initial value setting 504: As the initial value of (3) above, a value preset in this system is input. The initial values are the initial feature point position, the initial vehicle position (motion), and the like. As a method of setting the initial value, for example, an empirical value is used, or a rough position is set from the map information (d0) of the map DB 5. For example, when two cameras 4 are used, it can be determined and set from depth information by stereo calculation.

(5)逐次変動入力505: 上記(3)の予測式に対しては、次の時点(T)の実画像(G)のフレームを取り込むまでに、センサ類3による自車速度・方向変化などの逐次変動情報が入力される。   (5) Sequential variation input 505: For the prediction formula of (3) above, the vehicle speed / direction change by the sensors 3, etc. until the frame of the real image (G) at the next time (T) is captured. Are sequentially input.

(6)判定処理506では、上記(3)の推定の結果(a〜c)をもとに、当該時点(T)・位置(K)・実画像(G)における上記cの推定精度(誤差の共分散行列)の値が、例えば所定の範囲内(閾値以下)になったかどうかを判定する。c値が範囲外である場合は、最初に戻り、続けて次の時点(T)の実画像(G)のフレームを入力して、上記同様の計算処理等(501〜503)を繰り返す。c値が範囲内になった場合は、その時点で、当該推定値(a〜c)を最適なものとして選択して計測処理を終了する。   (6) In the determination process 506, based on the estimation results (a to c) in (3) above, the estimation accuracy (error) of c at the time (T), position (K), and actual image (G). For example, it is determined whether or not the value of the covariance matrix is within a predetermined range (below the threshold). When the c value is out of the range, the process returns to the beginning, and subsequently, the frame of the real image (G) at the next time point (T) is input, and the same calculation process (501 to 503) is repeated. When the c value falls within the range, the estimated value (ac) is selected as the optimum value at that time, and the measurement process is terminated.

上記(6)の処理では、自車位置(K)の推定精度(c)が所定範囲内に抑えられるまでは、次の実画像(G)のフレームを入力して新しい特徴量を導入しながら、前後のフレーム間で追跡できなかった特徴量を削除する。自車位置(K)の推定精度(c)から新しい特徴量を選択して取り入れることができる。例えば、自車進行方向(例えば図2のY方向)の位置(K)の精度(c)が低い場合では、遠い所にある新しい特徴点を選択することができ、自車進行方向に対する横方向(例えば図2のX方向)の位置(K)の精度(c)が低い場合では、近い所にある新しい特徴点を選択することができる。   In the process of (6) above, while the estimation accuracy (c) of the vehicle position (K) is suppressed within a predetermined range, a frame of the next real image (G) is input and a new feature amount is introduced. The feature amount that could not be tracked between the previous and next frames is deleted. A new feature amount can be selected and introduced from the estimation accuracy (c) of the vehicle position (K). For example, when the accuracy (c) of the position (K) in the vehicle traveling direction (for example, the Y direction in FIG. 2) is low, a new feature point at a distant place can be selected, and the lateral direction with respect to the vehicle traveling direction When the accuracy (c) of the position (K) in the (for example, the X direction in FIG. 2) is low, a new feature point in the vicinity can be selected.

(7)出力処理507では、上記(6)の選択の結果(a〜c)の情報(最適な特徴部のリストを含む)を、当該RP位置に関する、自車位置(K)の推定値(対応する地図上の位置)及び特徴情報(c2)として出力する。そして、事前登録(a2)の際は、上記出力情報を地図DB5に登録する。   (7) In the output process 507, the information (including the list of optimum features) of the selection results (a to c) in (6) above is used to estimate the vehicle position (K) with respect to the RP position ( Corresponding position on the map) and feature information (c2). And in the case of prior registration (a2), the said output information is registered into map DB5.

[実時間測位処理(詳細)]
実時間測位の際の処理では、一般車両(100)のカメラ4からRP・走行方向を撮像し、第1の位置情報(L1)に基づいて地図DB5(RP情報(d1))からカメラ4の視野範囲内のRPを検索し、当該RPの手前の位置から実時間測位処理を開始する。
[Real-time positioning process (details)]
In the processing at the time of real-time positioning, the RP / traveling direction is imaged from the camera 4 of the general vehicle (100), and the map DB5 (RP information (d1)) is used for the camera 4 based on the first position information (L1). The RP within the visual field range is searched, and the real-time positioning process is started from the position before the RP.

図6を用いて、実時間測位部1での詳しい構成・処理例として、SFM手法を用いた処理などについて説明する。なお図6の処理は、図1では主に第1の特徴抽出部11と特徴マッチング部13の処理に対応する。600は、入力である実画像のデータ(b1)などである。以下、図5と重複する処理内容については簡略に説明する。   As a detailed configuration / processing example in the real-time positioning unit 1, processing using the SFM method and the like will be described with reference to FIG. 6 mainly corresponds to the processing of the first feature extraction unit 11 and the feature matching unit 13 in FIG. Reference numeral 600 denotes input real image data (b1). Hereinafter, the processing content overlapping with FIG. 5 will be described briefly.

(1)まず、道路領域検出処理601では、入力画像(600)の中から、道路領域(及び非道路領域)などを検出する(501と同様)。本処理601の詳細は後述する。   (1) First, in the road area detection processing 601, a road area (and a non-road area) is detected from the input image (600) (similar to 501). Details of this processing 601 will be described later.

(2)不要物除去処理602では、上記(1)の結果に対して、不要物の特徴点(P)などを除去する所定の処理(502と同様)を行う。本処理602の詳細は後述する。   (2) In the unnecessary object removal process 602, a predetermined process (similar to 502) for removing the feature point (P) of the unnecessary object is performed on the result of (1). Details of this processing 602 will be described later.

上記(1),(2)を経て、各時点(T)・位置(K)における実画像(G)に関係付けられた複数の各々の特徴点(P)などの特徴部(図2〜図4)に関する特徴量及び位置座標情報などを特徴情報として得る。   Through the above (1) and (2), a characteristic portion such as a plurality of characteristic points (P) related to the real image (G) at each time point (T) and position (K) (FIGS. The feature amount and position coordinate information regarding 4) are obtained as feature information.

(3)計測処理603(SFM処理)では、上記(2)の結果を対象(入力)として、拡張カルマンフィルタ(予測式、及び初期値)を用いて、それぞれの特徴点(P)の3次元空間位置、及び自車現在位置(K)を推定しながら、それぞれの推定精度(誤差の共分散行列)を計算する。図6のように、(a)自車現在位置(K)、及び(c)現在位置の推定精度(誤差の共分散行列)、等を推定する計算処理を行う。詳しい計算式については後述する。   (3) In the measurement process 603 (SFM process), using the extended Kalman filter (prediction formula and initial value) with the result of (2) as an object (input), the three-dimensional space of each feature point (P) Each estimation accuracy (covariance matrix of error) is calculated while estimating the position and the current vehicle position (K). As shown in FIG. 6, calculation processing is performed to estimate (a) the current position (K) of the host vehicle, (c) the accuracy of estimation of the current position (covariance matrix of errors), and the like. A detailed calculation formula will be described later.

(4)初期値設定604: 上記(3)の初期値については、第1の位置情報(L1)と地図DB5の地図情報(d0)に関連付けて登録された第2の特徴情報(c2)から各特徴点(P)の目標位置を推定し、上記(3)の初期値を設定する。   (4) Initial value setting 604: The initial value of (3) above is obtained from the second feature information (c2) registered in association with the first position information (L1) and the map information (d0) of the map DB5. The target position of each feature point (P) is estimated, and the initial value of (3) above is set.

(5)逐次変動入力605: 上記(3)の予測式に対しては、次の時点(T)の実画像(G)のフレームを取り込むまでに、センサ類3による自車速度・方向変化などの逐次変動情報が入力される。   (5) Sequential variation input 605: For the prediction formula of (3) above, the vehicle speed / direction change by the sensors 3, etc. until the frame of the real image (G) at the next time point (T) is captured. Are sequentially input.

(6)判定処理606では、上記(3)の結果(a,c)をもとに、当該時点(T)・位置(K)・実画像(G)における上記cの推定精度(誤差の共分散行列)の値が、所定の範囲内(閾値以下)になったかどうかを判定する。上記c値が範囲外である場合は、最初に戻り、続けて次の実画像(G)のフレームを入力して、上記同様の計算処理等(601〜603)を繰り返す。上記c値が範囲内になった場合は、その時点で、当該推定値(a,c)を選択して終了する。   (6) In the determination process 606, based on the results (a, c) of (3) above, the estimation accuracy of c (coincidence of errors) at the time (T), position (K), and actual image (G). It is determined whether or not the value of (dispersion matrix) is within a predetermined range (below the threshold). When the c value is out of the range, the process returns to the beginning, and the next frame of the real image (G) is input, and the same calculation process (601 to 603) is repeated. When the c value falls within the range, at that time, the estimated value (a, c) is selected and the process ends.

(7)出力処理607では、上記(6)の選択の結果(a,c)の情報を、自車現在位置(K)の推定値(L2に対応)として出力する。   (7) In the output process 607, the information of the selection result (a, c) in (6) is output as an estimated value (corresponding to L2) of the current vehicle position (K).

[計算式]
前記(3)の計測処理(SFM処理)における計算式などは以下である。
[a formula]
Calculation formulas and the like in the measurement process (SFM process) of (3) are as follows.

拡張カルマンフィルタの予測式は、下記の式(1)である。   The prediction formula of the extended Kalman filter is the following formula (1).

ここでは、上記状態ベクトルX,計測誤差の共分散行列(予測誤差)Qは下記の式(2)で定義される。   Here, the state vector X and the measurement error covariance matrix (prediction error) Q are defined by the following equation (2).

Xは、計測対象である車両(カメラ)の相対位置・姿勢を表す車両状態ベクトルVと景観画像の特徴点の2次元座標ベクトルPとの接合ベクトルであり、VとPはそれぞれ6個(回転分量Rと並進分量T)と2N個(N:特徴点数)の要素で構成される。   X is a joint vector of the vehicle state vector V representing the relative position / orientation of the vehicle (camera) to be measured and the two-dimensional coordinate vector P of the feature point of the landscape image. It comprises a quantity R and a translation quantity T) and 2N elements (N: number of feature points).

カルマンフィルタの逐次ループでは、下記の式(3)である。   In the sequential loop of the Kalman filter, the following equation (3) is satisfied.

ここでは、上記Gvは車両状態(位置と向き)のジャコビアン行列、Gpは特徴点のジャコビアン行列であり、上記Gv,Gpは下記の式(4),(5)である。   Here, Gv is a Jacobian matrix of the vehicle state (position and orientation), Gp is a Jacobian matrix of feature points, and Gv and Gp are the following equations (4) and (5).

カルマンフィルタの更新処理では、下記の式(6)である。   In the Kalman filter update process, the following expression (6) is satisfied.

ここでは、上記のu,vは、下記の式(7)である。   Here, the above u and v are the following equations (7).

prediction point:予測した特徴点の画像投影位置、matched point:マッチングした特徴点の2次元画像検出位置、Mc:カメラ内部行列、Rα,β,γ:カメラ回転行列、P:特徴点の3次元絶対位置、V:車両の現在位置を示す。 prediction point: image projection position of predicted feature point, matched point: two-dimensional image detection position of matched feature point, Mc: camera internal matrix, R α, β, γ : camera rotation matrix, P: three-dimensional feature point Absolute position, V: Indicates the current position of the vehicle.

[ロバストな特徴検出手法]
次に、図8〜図12を用いて、上記構成に基づく詳細な実施の形態として、道路景観の変動に適応できるロバストな特徴検出手法について説明する。本構成では、変動する道路景観の実画像(例えば図3)から特徴部(群)を適切に抽出して有効な測位計算(特徴マッチング部13でのSFM処理(図5,図6の計測処理503,603))を行うために、実画像から道路領域及び路側領域を含む各領域を検出(分割)する処理(21)と、それら各領域から「不要物」を除去する処理(23)とを行う。
[Robust feature detection method]
Next, a robust feature detection method that can be adapted to changes in roadscape will be described as a detailed embodiment based on the above configuration with reference to FIGS. In this configuration, a feature part (group) is appropriately extracted from a real image (for example, FIG. 3) of a fluctuating road landscape, and effective positioning calculation (SFM processing in the feature matching unit 13 (measurement processing in FIGS. 5 and 6). 503, 603)), a process (21) for detecting (dividing) each area including the road area and the roadside area from the actual image, and a process (23) for removing "unnecessary items" from each area. I do.

「不要物」とは、道路周囲環境の変動・時間経過などの要因により、景観(実画像)内の特徴部が大きく変動するような存在物(対応情報)であり、測位計算に用いる特徴情報としては有用でない情報である。なお、本測位計算以外の目的(例えば安全のための車両制御)では、上記「不要物」であっても有用な情報になり得るため、検出して利用してもよい。   “Unnecessary material” is an entity (corresponding information) whose features in the landscape (actual image) fluctuate greatly due to factors such as fluctuations in the environment around the road and the passage of time. Feature information used for positioning calculation As such, it is not useful information. For purposes other than the positioning calculation (for example, vehicle control for safety), even the “unnecessary items” can be useful information and may be detected and used.

図8は、ロバストな特徴検出手法を実装した特徴検出部20の構成例を示す。なお本特徴検出部20は、前述した形態との対応関係としては、図1の特徴抽出部11,12、図5の501〜503の処理、図6の601〜603の処理、等を修正した構成である。特徴検出部20の処理はソフトウェアプログラム処理やハードウェア回路処理などにより実現できる。また特徴検出部20の処理に関する設定が可能である。   FIG. 8 shows a configuration example of the feature detection unit 20 in which a robust feature detection method is implemented. Note that the feature detection unit 20 has modified the feature extraction units 11 and 12 in FIG. 1, the processing in 501 to 503 in FIG. 5, the processing in 601 to 603 in FIG. It is a configuration. The processing of the feature detection unit 20 can be realized by software program processing or hardware circuit processing. Moreover, the setting regarding the process of the feature detection part 20 is possible.

図8で、特徴検出部20は、領域分割部21、特徴抽出部22、不要物除去部23を有する構成である。領域分割部21は、道路領域検出部21A、路側領域検出部21Bを有する。道路領域検出部21Aは、路面マーク検出部21a、車線検出部21bを有する。路側領域検出部21Bは、路側帯検出部21cを有する。不要物除去部23は、道路不要物除去部23A、路側不要物除去部23Bを有する。道路不要物除去部23Aは密集横線削除部23aを含む。路側不要物除去部23Bは密集角点削除部23bを含む。また例えば領域分割部21と特徴抽出部22との間に限定部24を設けてもよい(後述)。   In FIG. 8, the feature detection unit 20 is configured to include a region division unit 21, a feature extraction unit 22, and an unnecessary object removal unit 23. The area dividing unit 21 includes a road area detecting unit 21A and a roadside area detecting unit 21B. The road area detection unit 21A includes a road surface mark detection unit 21a and a lane detection unit 21b. The roadside area detection unit 21B includes a roadside band detection unit 21c. The unnecessary object removing unit 23 includes a road unnecessary object removing unit 23A and a roadside unnecessary material removing unit 23B. The unnecessary road removing unit 23A includes a dense horizontal line deleting unit 23a. The roadside unnecessary object removing unit 23B includes a dense corner point deleting unit 23b. Further, for example, a limiting unit 24 may be provided between the region dividing unit 21 and the feature extracting unit 22 (described later).

[各種の領域・物]
図9は、道路上の各領域や物の例を示す。片側2車線の道路の場合である。大別すると、道路領域51と路側領域52がある。31は車線境界線(白線など)、32は路面交通標識(例えば白線矢印)である。41は自車(走行状態)、42は他車(走行状態、先行車)、43は他車(走行状態、対向車)、44は他車(駐停車状態)である。51は道路領域(全車線を含む)である。52は、道路領域51の隣(横)の路側領域(非道路領域)である。53は、中央分離帯(ないし中央境界線)である。54は、自車41を含んだ走行車線領域(2車線分)である。55は、対向車線領域(2車線分)である。56は、自車41の走行車線(自車線)である。57は、56の隣の他車線である。58,59はそれぞれ対向車線(他車線)である。61は、57(外側の車線)の隣・外側にあり得る路側帯や歩道などである。62は、路側の非道路領域(52との区別のため「路側物領域」と称する)である。
[Various areas and objects]
FIG. 9 shows examples of areas and objects on the road. This is a case of a two-lane road on one side. Broadly speaking, there are a road area 51 and a roadside area 52. 31 is a lane boundary line (white line etc.), 32 is a road surface traffic sign (for example, white line arrow). 41 is the own vehicle (running state), 42 is the other vehicle (running state, preceding vehicle), 43 is the other vehicle (running state, oncoming vehicle), and 44 is the other vehicle (parking and stopping state). Reference numeral 51 denotes a road area (including all lanes). Reference numeral 52 denotes a roadside area (non-road area) next to (side) the road area 51. Reference numeral 53 denotes a central separation band (or central boundary line). Reference numeral 54 denotes a travel lane area (for two lanes) including the host vehicle 41. Reference numeral 55 denotes an oncoming lane area (for two lanes). Reference numeral 56 denotes a travel lane (own lane) of the own vehicle 41. 57 is another lane next to 56. 58 and 59 are oncoming lanes (other lanes). Reference numeral 61 denotes a roadside belt or a sidewalk that can be next to or outside 57 (outer lane). Reference numeral 62 denotes a roadside non-road area (referred to as “roadside object area” for distinction from 52).

また、71は、路側(62)に存在する建物である。なお建物71は、測位に有用なランドマークとして特徴部の検出対象とする場合としない場合とがある(ここでは検出対象の場合とする)。72は、路側(62)に存在する樹木である。73は、路側(62)に存在する看板(広告)である。74は、路側帯61などに存在する人(歩行者など)である。75は、路側(62)に存在する交通標識や信号機などである。   Reference numeral 71 denotes a building existing on the roadside (62). The building 71 may or may not be a feature detection target as a landmark useful for positioning (here, it is a detection target). Reference numeral 72 denotes a tree existing on the roadside (62). 73 is a signboard (advertisement) present on the roadside (62). 74 is a person (such as a pedestrian) present in the roadside belt 61 or the like. 75 is a traffic sign, a traffic light, etc. which exist in the roadside (62).

本構成では、道路領域検出部21Aで検出する「道路領域」とは、例えば図9の51,54,56等である。路側領域検出部21Bで検出する「路側領域」とは、例えば図9の52(61,62)等である。   In this configuration, the “road area” detected by the road area detection unit 21A is, for example, 51, 54, 56 in FIG. The “roadside area” detected by the roadside area detection unit 21B is, for example, 52 (61, 62) in FIG.

本構成では、「不要物」として検出・削除したい対象物として、車(42等)、樹木72、看板73、人74など(対応する特徴部)がある。一方、測位に有用な対象物(対応する特徴部)としては、路面の白線(31)・交通標識(32)、道路領域(51等)、ランドマークとなる建物71、路側の交通標識(75)などがある。   In this configuration, as objects to be detected / deleted as “unnecessary objects”, there are cars (42, etc.), trees 72, signboards 73, people 74, etc. (corresponding features). On the other hand, objects useful for positioning (corresponding features) include road white lines (31), traffic signs (32), road areas (51, etc.), landmark buildings 71, roadside traffic signs (75 )and so on.

[実画像例]
図10は、ある時・位置の実画像の例における領域分割・不要物除去の前の状態、図11は、その実画像における領域分割・不要物除去の後の状態を簡略的に示す。片側1車線の道路の場合である。図9と同様に、31は白線(白線領域)、32は交通標識である。81は自車線(自車の走行車線)である。82は対向車線である。83は、自車線81の隣の路側帯である。84は、自車線81の前方の他車(先行車)である。なお72は樹木であるが、輪郭などを簡略的に示す。
[Example of actual image]
FIG. 10 shows a state before an area division / unnecessary object removal in an example of an actual image at a certain time / position, and FIG. 11 simply shows a state after the area division / unnecessary object removal in the actual image. This is the case of a one-lane road. As in FIG. 9, 31 is a white line (white line region), and 32 is a traffic sign. 81 is an own lane (travel lane of the own vehicle). 82 is an oncoming lane. Reference numeral 83 denotes a roadside belt next to the own lane 81. Reference numeral 84 denotes another vehicle (preceding vehicle) in front of the own lane 81. Although 72 is a tree, the outline and the like are simply shown.

aの破線は、白線31を検出した場合のラインを示す。白線31(a)で区画される領域を車線(81)としている。A(A1)の領域は、検出した道路領域51を示す。B(B1,B2)の領域は、検出した路側領域52を示す。Cの領域は、A,B以外の領域である。   A broken line a indicates a line when the white line 31 is detected. A region defined by the white line 31 (a) is a lane (81). The area of A (A1) indicates the detected road area 51. The area of B (B1, B2) indicates the detected roadside area 52. The area C is an area other than A and B.

なお図9では路側領域52の中に路側帯61を含める定義としており、図10では、道路領域51の中に路側帯83を含める定義としている。これらはいずれの定義とすることも可能である。   In FIG. 9, the roadside zone 61 is defined to include the roadside band 61, and in FIG. 10, the roadside band 83 is defined to be included in the road area 51. These can have any definition.

[特徴検出処理]
図8の特徴検出部20の処理は以下のような流れとなる。特徴検出部20は、道路景観が撮像された実画像800のデータを入力する。
[Feature detection processing]
The process of the feature detection unit 20 in FIG. 8 is as follows. The feature detection unit 20 inputs data of a real image 800 in which a road scene is captured.

(1) 領域分割部21は、入力の実画像(例えば図10)のフレームの全領域を、各種の領域(例えば図10のA,B,C)に分割する処理を行う。領域分割部21は、道路構造、及びカメラ4の透視変換関係に基づき、各領域への分割を行う。なお領域分割の際に地図DB5の情報を併用(参照)してもよい。   (1) The area dividing unit 21 performs a process of dividing the entire area of the frame of the input actual image (for example, FIG. 10) into various areas (for example, A, B, and C in FIG. 10). The area dividing unit 21 performs division into areas based on the road structure and the perspective transformation relationship of the camera 4. In addition, you may use (reference) the information of map DB5 in the case of area division.

まず、道路領域検出部21Aでは、入力の実画像の領域から、路面マーク検出部21aにより、白線(車線境界線)31や路面交通標識32を含む路面マーク(交通上の有用な情報)を検出する処理を所定アルゴリズムにより行う。例えば、路面マーク検出部21aは、実画像データにおける画素の差分値の演算で、Hough変換などを用いて、白線領域(31)などのエッジ(線分や角点)を検出する。これにより、路面上の白線31及び交通標識32を検出する。   First, in the road area detection unit 21A, a road surface mark (useful information on traffic) including a white line (lane boundary line) 31 and a road surface traffic sign 32 is detected from the input real image area by the road surface mark detection unit 21a. The process is performed by a predetermined algorithm. For example, the road surface mark detection unit 21a detects an edge (a line segment or a corner point) such as a white line region (31) by using a Hough transform or the like by calculating a pixel difference value in the actual image data. Thereby, the white line 31 and the traffic sign 32 on a road surface are detected.

車線検出部21bは、路面マーク検出部21aによる検出結果をもとに、自車線を含む車線(道路)を検出する。図10の例では、主な白線31のライン(a)で区画される領域を自車線81として検出できる。また自車線81の隣の領域についても、対向車線82または路側帯83として検出することができる。図9のように複数車線が存在する場合は、各白線31の検出により複数の各車線を検出することができる。   The lane detection unit 21b detects a lane (road) including its own lane based on the detection result by the road surface mark detection unit 21a. In the example of FIG. 10, an area defined by the main white line 31 (a) can be detected as the own lane 81. Further, the area adjacent to the own lane 81 can also be detected as the oncoming lane 82 or the roadside band 83. When there are a plurality of lanes as shown in FIG. 9, a plurality of lanes can be detected by detecting each white line 31.

また、道路領域検出部21Aは、道路構造やカメラ4の透視変換関係など(実画像におけるカメラ4視点から3次元空間を眺めた遠近構造)に応じて、Aのような道路領域を区画する。なお図10の例では、遠方の焦点付近の領域については他領域Cに含めるように区画している。   Further, the road area detection unit 21A partitions a road area such as A according to the road structure and the perspective transformation relationship of the camera 4 (a perspective structure in which a three-dimensional space is viewed from the viewpoint of the camera 4 in the actual image). In the example of FIG. 10, the region near the far focus is divided so as to be included in the other region C.

道路領域検出部21Aは、上記処理結果により、例えば図10のA(A1)のような道路領域51を確定(分割)する。そして道路領域検出部21Aから、道路領域A情報(r1とする)を出力する。   The road area detection unit 21A determines (divides) a road area 51 such as A (A1) in FIG. 10 based on the processing result. Then, the road area detection unit 21A outputs road area A information (referred to as r1).

また、路側領域検出部21Bでは、道路領域検出部21Aの結果(r1)を用いて、入力の実画像の領域から、所定アルゴリズムにより、路側物領域62を含む路側領域52を推定により検出する処理を行う。例えば、r1による道路領域Aの形状の情報(白線31(a)等の形状を含む)を用いて、道路領域A(または白線31(a)等)の形状に沿って、例えば図10のB(B1,B2)のような路側領域52を確定(分割)する。ここで、路面からの高さに対応するZ方向(y方向)に関しては、路面から所定の高さ制限(例えば4メートルまで)によって路側領域Bを区画する。高さ制限値は設定可能である。また、路側領域検出部21Bは、道路構造や透視変換関係などに応じて、Bのような路側領域を区画する。高さ制限により処理効率化が図れる。   Further, the roadside region detection unit 21B uses the result (r1) of the road region detection unit 21A to estimate and detect the roadside region 52 including the roadside object region 62 from the input real image region by a predetermined algorithm. I do. For example, using the information on the shape of the road area A by r1 (including the shape of the white line 31 (a) etc.), along the shape of the road area A (or the white line 31 (a) etc.), for example, B in FIG. The roadside area 52 such as (B1, B2) is fixed (divided). Here, with respect to the Z direction (y direction) corresponding to the height from the road surface, the roadside area B is defined by a predetermined height restriction (for example, up to 4 meters) from the road surface. The height limit value can be set. Further, the roadside area detection unit 21B partitions a roadside area like B according to the road structure, the perspective transformation relationship, and the like. The processing efficiency can be improved by the height restriction.

また、路側領域検出部21B内(道路領域検出部21A内でもよい)に、路側帯検出部21cを備えてもよい。路側帯検出部21cで所定アルゴリズム(例えば一番外側の白線31に基づき推定する)により、図9の61、図10の83のような路側帯領域を検出するようにし、当該路側帯領域を、道路領域51内または路側領域52内に含めるように決定する。   Further, the roadside zone detection unit 21c may be provided in the roadside region detection unit 21B (may be in the road region detection unit 21A). The roadside band detection unit 21c detects a roadside band area such as 61 in FIG. 9 and 83 in FIG. 10 by a predetermined algorithm (for example, estimation based on the outermost white line 31). It is determined to include it in the road area 51 or the roadside area 52.

路側領域検出部21Bは、上記処理結果により、例えば図10のB(B1,B2)のような路側領域52を確定(分割)する。そして路側領域検出部21Bから、路側領域B情報(r2とする)を出力する。   The roadside area detection unit 21B determines (divides) a roadside area 52 such as B (B1, B2) in FIG. 10 based on the processing result. Then, the roadside area detection unit 21B outputs roadside area B information (referred to as r2).

また、領域A,B以外の領域C(図10)は、例えば信号機、交通標識、ランドマークとなる建物の角、陸橋、街灯など、測位に有用・重要な情報が検出される領域になる。よって、以降の処理では、(不要物以外の)特徴情報をそのまま保持し、測位計算で入力として用いるようにする。領域分割部21(路側領域検出部21B)から、他領域C情報(r3とする)も出力する。   In addition, the area C (FIG. 10) other than the areas A and B is an area where useful and important information for positioning is detected, such as traffic lights, traffic signs, corners of buildings that serve as landmarks, overpasses, and streetlights. Therefore, in the subsequent processing, the feature information (other than unnecessary items) is held as it is and used as an input in the positioning calculation. Other area C information (referred to as r3) is also output from the area dividing section 21 (roadside area detecting section 21B).

(2) 特徴抽出部22では、実画像800データ、及び領域分割部21による処理結果情報{道路領域A情報(r1)、路側領域B情報(r2)、他領域C情報(r3)}を入力する。特徴抽出部22は、前述した処理(特徴抽出部11、計測処理503,603等)と同様に、角点や線分や色領域などを含む特徴部群(各特徴部の特徴量及び位置座標情報を含む)を抽出する処理を行う。例えば、SIFT特徴検出器(回転変化及びスケール変化に強い)、Cannyエッジ検出器、HSLカラーモデル変換による色塊領域を検出するフィルタ(色塊領域検出フィルタ)、等を用いる。特徴抽出部22は、抽出した特徴部群の情報801を出力する。なおこの情報801には、各領域(r1,r2,r3)から抽出された特徴部群の情報を含むものとする。   (2) The feature extraction unit 22 inputs the actual image 800 data and the processing result information {road region A information (r1), roadside region B information (r2), other region C information (r3)} by the region dividing unit 21} To do. Similar to the above-described processing (feature extraction unit 11, measurement processing 503, 603, etc.), the feature extraction unit 22 is a feature group including corner points, line segments, color regions, and the like (feature amounts and position coordinates of each feature unit). (Including information) is performed. For example, a SIFT feature detector (resistant to rotation change and scale change), a Canny edge detector, a filter (color block region detection filter) for detecting a color block region by HSL color model conversion, and the like are used. The feature extraction unit 22 outputs the extracted feature part group information 801. Note that this information 801 includes information on a feature group extracted from each region (r1, r2, r3).

また特に、特徴抽出部22では、各領域(A,B,C)ごとに適用する処理アルゴリズム(フィルタ等)を変えることによって、効果的な特徴抽出をしてもよい。   In particular, the feature extraction unit 22 may perform effective feature extraction by changing a processing algorithm (filter or the like) applied to each region (A, B, C).

(3) 不要物除去部23では、特徴抽出部22の処理結果情報(801)及び各領域の情報(r1,r2)を入力する。なおここでは領域C情報(r3)を入力しない場合を示している。領域Cから抽出された特徴部群は、そのまま保持され、出力の特徴情報810内に含まれることになる。   (3) The unnecessary object removing unit 23 inputs the processing result information (801) of the feature extracting unit 22 and the information (r1, r2) of each region. Here, a case where the region C information (r3) is not input is shown. The feature part group extracted from the region C is retained as it is and is included in the output feature information 810.

道路不要物除去部23Aは、特徴部群情報801及び道路領域A情報(r1)を入力し、道路領域Aにおける不要物(対応する特徴部)を削除する処理を行う。この不要物(道路不要物)として、例えば図9の他車42〜44、人74、図10の他車84などがある。密集横線削除部23aは、所定アルゴリズムにより、道路領域Aから、密集する横線(横エッジ線分)群の領域を検出する。密集横線削除部23aは、特徴部群として、横方向(x方向)の線分が多数存在する領域に関して、それらの密度が例えば閾値よりも大きい場合、当該領域として検出する。そして、この検出した領域は、図10の他車84のような領域である可能性が高いと推測できるため(本発明者等による実験・検討に基づく)、不要物除去部23は、当該領域を不要物として除去(対応する特徴情報を削除)する。   The road unnecessary object removing unit 23A receives the feature part group information 801 and the road area A information (r1), and performs a process of deleting unnecessary objects (corresponding characteristic parts) in the road area A. As the unnecessary items (unnecessary road items), for example, there are other vehicles 42 to 44 in FIG. 9, a person 74, another vehicle 84 in FIG. The dense horizontal line deleting unit 23a detects an area of a dense horizontal line (horizontal edge line segment) group from the road area A by a predetermined algorithm. The dense horizontal line deleting unit 23a detects a region having a large number of horizontal (x-direction) line segments as the feature group when the density is larger than a threshold value, for example. And since it can be estimated that the detected area is likely to be an area like the other car 84 in FIG. 10 (based on experiments and examinations by the present inventors), the unnecessary object removing unit 23 Are removed as unnecessary items (corresponding feature information is deleted).

路側不要物除去部23Bは、特徴部群情報801及び路側領域B情報(r2)を入力し、路側領域Bにおける不要物(対応する特徴部)を削除する処理を行う。この不要物(路側不要物)として、例えば図9(図10)の他車44、人74、樹木72、看板73などがある。密集角点削除部23bは、所定アルゴリズムにより、路側領域Bから、密集する角点(エッジ点)の領域を検出する。密集角点削除部23bは、特徴部群として、角点が多数存在する領域に関して、それらの密度が例えば閾値よりも大きい場合、当該領域として検出する。そして、この検出した領域は、図10の樹木72(その輪郭)や看板73(その文字列)のような領域である可能性が高いと推測できるため(本発明者等による実験・検討に基づく)、不要物除去部23は、当該領域を不要物として除去(対応する特徴情報を削除)する。   The roadside unnecessary object removing unit 23B receives the feature part group information 801 and the roadside area B information (r2), and performs a process of deleting unnecessary objects (corresponding characteristic parts) in the roadside area B. As the unnecessary items (roadside unnecessary items), for example, there are the other vehicle 44, person 74, tree 72, signboard 73, etc. in FIG. 9 (FIG. 10). The dense corner point deletion unit 23b detects a dense corner point (edge point) region from the roadside region B by a predetermined algorithm. The dense corner point deletion unit 23b detects a region having a large number of corner points as the feature unit group when the density is larger than, for example, a threshold value. And since this detected area | region can estimate that there is a high possibility that it is an area | region like the tree 72 (its outline) and the signboard 73 (its character string) of FIG. 10 (based on experiment and examination by the present inventors etc.). ), The unnecessary object removing unit 23 removes the area as an unnecessary object (deletes corresponding feature information).

不要物除去部23では、上記処理のように、入力の特徴部群の情報801から、不要物に相当する特徴部群を削除して情報・データ量を減らし、出力の特徴部群の情報802とする。この情報802が特徴検出部20の出力の特徴情報810となる。言い換えると、本構成(特徴検出部20)では、実画像(800)、特徴部群(801)の中から、状況変動等の要因に依存しない、測位計算に有用な特徴情報(810)を判断・選定することを行っている。   In the unnecessary object removing unit 23, as in the above-described process, the feature portion group corresponding to the unnecessary item is deleted from the input feature portion group information 801 to reduce the information / data amount, and the output feature portion group information 802 is output. And This information 802 becomes the feature information 810 output from the feature detection unit 20. In other words, in the present configuration (feature detection unit 20), the feature information (810) useful for the positioning calculation that does not depend on factors such as situation fluctuations is determined from the real image (800) and the feature group (801).・ Selecting is performed.

図11は、図10の実画像から不要物を除去した後の例を示す。領域A内の白線31や交通標識32に対応する特徴部や、路側領域B内の建物71や交通標識75に対応する特徴部や、他領域C内の特徴部など、測位計算に有用な特徴情報は残されており、各領域A,B内の他車や樹木や看板など、状況に応じて大きく変動する不要物(測位計算に有用でない特徴情報)は除去されている。1101等は、不要物の領域として削除された箇所の例である。   FIG. 11 shows an example after unnecessary objects are removed from the real image of FIG. Features useful for positioning calculation, such as features corresponding to the white line 31 and traffic signs 32 in the region A, features corresponding to buildings 71 and traffic signs 75 in the roadside region B, and features in other regions C Information remains, and unnecessary objects (feature information that is not useful for positioning calculation) that vary greatly depending on the situation, such as other vehicles, trees, signboards, and the like in the areas A and B, are removed. 1101 etc. are examples of locations that have been deleted as unnecessary object areas.

そして例えば特徴マッチング部13で特徴検出部20の出力の特徴情報810を入力として用いて測位計算を行う。これにより、不要物除去により測位計算への悪影響を大きく抑制(低減)することができ、高精度の測位が実現できる。また、測位計算の入力の情報・データ量が削減されているため、処理速度も高くなる。   For example, the feature matching unit 13 performs positioning calculation using the feature information 810 output from the feature detection unit 20 as an input. As a result, it is possible to largely suppress (reduce) the adverse effect on the positioning calculation due to the removal of unnecessary objects, thereby realizing highly accurate positioning. Further, since the amount of information and data input for positioning calculation is reduced, the processing speed is also increased.

なお上記構成例(不要物除去部23)では、道路領域Aに対してのみ23aの削除処理を適用し、路側領域Bに対してのみ23bの削除処理を適用する、といったように領域に対する適用処理をある程度限定することにより、処理効率化を図っている。これに限らず、各種領域に対して各削除処理を適用する形態とすることもできる。   In the above configuration example (unnecessary object removing unit 23), the application process for the area such that the deletion process of 23a is applied only to the road area A and the deletion process of 23b is applied only to the roadside area B. By limiting this to some extent, processing efficiency is improved. However, the present invention is not limited to this, and each deletion process can be applied to various areas.

[限定部]
更に応用的な形態として、図8の限定部24を備えた構成について説明する。限定部24は、特徴情報あるいはその処理の際に用いる情報(領域や特徴部)を限定する処理を行う。理論的には測位計算に用いる特徴部(特徴点P)の数が多いほど測位精度が高くなるが、処理効率(処理時間)が悪く(長く)なる傾向がある。よって、本形態では、以下のような手法に基づき、限定部24により、情報を限定する処理を行い、出力の特徴情報810(測位計算に用いる特徴情報)における情報・データ量を削減し、処理高速化などを図る。
[Limited part]
As a more applied form, a configuration provided with the limiting unit 24 of FIG. 8 will be described. The limiting unit 24 performs processing for limiting feature information or information (region or feature) used in the processing. Theoretically, positioning accuracy increases as the number of feature parts (feature points P) used for positioning calculation increases, but processing efficiency (processing time) tends to be worse (longer). Therefore, in this embodiment, based on the following method, the limiting unit 24 performs information limiting processing to reduce the information / data amount in the output feature information 810 (feature information used for positioning calculation), and processing Increase speed.

(1)第1の手法として、限定部24は、実画像(1フレーム毎)に含まれる特徴部(特徴点P)の数を一定数(最大上限値)までに制限する。例えば、限定部24は、特徴抽出部22で特徴部群を抽出する処理の際における、1フレーム毎の実画像の領域から抽出される特徴点Pの数を、一定数(最大上限値)までに制限する。この一定数は例えば50個とする。この一定数は設定可能である。一定数を越える場合の特徴部については、当該情報を削除する。   (1) As a first method, the limiting unit 24 limits the number of feature parts (feature points P) included in an actual image (for each frame) to a certain number (maximum upper limit value). For example, the limiting unit 24 reduces the number of feature points P extracted from the real image area for each frame to a certain number (maximum upper limit value) in the process of extracting the feature group by the feature extraction unit 22. Restrict to. This fixed number is, for example, 50. This fixed number can be set. This information is deleted for features that exceed a certain number.

(2)第2の手法として、限定部24は、入力の実画像800の領域内において、以降の処理(22,23等を含む)での対象とする領域を特定の種類の領域に限定する。言い換えれば、特定の領域以外を処理対象外としてマスクする。   (2) As a second method, the limiting unit 24 limits a target area in a subsequent process (including 22, 23, etc.) to a specific type area within the area of the input actual image 800. . In other words, the area other than the specific area is masked out of the processing target.

図12の実画像において、1200は地平線、1201はカメラの焦点を示す。1202は、地平線1200よりも上の領域、1203は、地平線1200よりも下の領域である。限定部24は、上領域1202を処理対象領域として限定し、下領域1203をマスクする。これにより、特徴抽出部22、不要物除去部23、及び、測位計算で用いられる情報・データ量が削減されるため、処理が効率化される。   In the real image of FIG. 12, 1200 indicates the horizon, and 1201 indicates the focus of the camera. 1202 is a region above the horizon 1200, and 1203 is a region below the horizon 1200. The limiting unit 24 limits the upper area 1202 as a process target area and masks the lower area 1203. As a result, the amount of information and data used in the feature extraction unit 22, the unnecessary object removal unit 23, and the positioning calculation is reduced, so that the processing becomes efficient.

上記以外にも、限定部24により実画像の処理対象領域の限定の仕方を各種変えてもよい。例えば、[道路領域A+他領域C]に限定(路側領域Bを除外)する形にしてもよい。例えば、図12の1204の範囲(領域)のように、焦点1201の周りの所定のサイズの矩形に限定する形にしてもよい。   In addition to the above, the limiting unit 24 may change various ways of limiting the processing target area of the actual image. For example, it may be limited to [road area A + other area C] (excluding roadside area B). For example, the shape may be limited to a rectangle of a predetermined size around the focal point 1201 as in a range (area) 1204 in FIG.

[効果等]
以上説明したように、本実施の形態によれば、自動車及び車載情報システム100において、車載のカメラ4を利用した仕組みにより自車現在位置(K)の測位を安価に実現でき、かつ、GPS等の手段よりも高精度な推定(計算)を実現できる。従来の一般的な測位精度(10〜15メートル)に比べて、安価なカメラ4(リアビューカメラ等)及び既存の安価なナビゲーション用のハードウェア・ソフトウェア等でも、実時間(出力更新:10〜60Hz)でのサブメートル測位精度(平均測位誤差:1メートル以下)を達成でき、先進的なナビ連動システムを実現して一般車両への普及が可能となる。
[Effects]
As described above, according to the present embodiment, in the vehicle and in-vehicle information system 100, positioning of the current vehicle position (K) can be realized at low cost by a mechanism using the in-vehicle camera 4, and GPS or the like can be realized. It is possible to realize estimation (calculation) with higher accuracy than the above means. Compared to the conventional general positioning accuracy (10-15 meters), even the inexpensive camera 4 (rear view camera, etc.) and the existing inexpensive hardware / software for navigation are real time (output update: 10-60 Hz). ) Sub-meter positioning accuracy (average positioning error: 1 meter or less) can be achieved, and an advanced navigation interlocking system can be realized and can be spread to general vehicles.

特に、仮想画像処理を用いない実時間測位を実現し、事前登録・更新処理の容易化・自動化により、地図DB5の製作・維持を効率化・低コスト化できる。測位時(撮像時)の道路周囲状況などの要因・変動に対しても適応できる、ロバストな特徴検出等の手法を含む測位技術を提供できる。実時間測位の処理速度に関しても、画像入力を含め1フレームの平均計算時間を従来よりも短縮することができる。   In particular, real-time positioning that does not use virtual image processing can be realized, and the pre-registration / update process can be facilitated / automated so that the production / maintenance of the map DB 5 can be made more efficient and less expensive. It is possible to provide a positioning technique including a technique such as robust feature detection that can be adapted to factors and fluctuations such as a road surrounding situation at the time of positioning (during imaging). Regarding the processing speed of real-time positioning, the average calculation time for one frame including image input can be shortened as compared with the conventional method.

特に、実時間測位部1の高精度な測位の結果(L3)を利用して、例えばカーナビ6で、運転で必要とされている要素として、どの交差点で曲がるべきか、どの車線に進むべきか、等を効果的にナビゲートすることができる。また、車両へのシフト制御やエンジン噴射制御、さらにACCにおける車間距離制御などの車両協調システムなどに応用できる。   In particular, using the high-precision positioning result (L3) of the real-time positioning unit 1, for example, in the car navigation 6, as an element required for driving, at which intersection, which lane should be turned , Etc. can be navigated effectively. Further, it can be applied to a vehicle coordination system such as shift control to a vehicle, engine injection control, and inter-vehicle distance control in ACC.

本発明では、従来手法2等と同様に、2次元の実画像(G)を利用するが、個々のマーク等(特徴点P等)の高精度な絶対位置の情報を地図DB5等へ事前登録する必要は無い(SFM手法による推定の位置情報を登録する)。また本発明では、路側に存在する物(建物、看板、標識など)も、RP景観特徴を多く取り入れるため、前述の不要物除去処理により、先行車両などの遮蔽物による影響(測位精度への悪影響)を最小に抑制できる。   In the present invention, a two-dimensional real image (G) is used in the same manner as the conventional method 2 and the like, but high-precision absolute position information such as individual marks (feature points P and the like) is pre-registered in the map DB 5 and the like. There is no need to register (register position information estimated by the SFM method). Further, in the present invention, since objects (buildings, signboards, signs, etc.) existing on the roadside also incorporate many RP landscape features, the above-described unnecessary object removal processing causes the influence of shielding objects such as preceding vehicles (adverse effects on positioning accuracy). ) Can be minimized.

本発明では、従来手法3のように高価な手段・装置を必要とせずに高精度を実現できる。また実画像内の特徴は2次元情報であり、レーザーによる1次元情報よりも精度が高い、及び曖昧さが低い。また、カメラ4の視野が大きいため、先行車両や他の障害物による影響を受け難い。   In the present invention, high accuracy can be realized without requiring expensive means and devices as in the conventional method 3. The feature in the actual image is two-dimensional information, which has higher accuracy and lower ambiguity than the one-dimensional information by laser. Further, since the field of view of the camera 4 is large, it is difficult to be influenced by the preceding vehicle or other obstacles.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the present invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.

本発明は、自動車及び車載情報システム、カーナビ、ナビ連動システム、車両先進安全システム、等に利用可能である。   The present invention can be used for automobiles and in-vehicle information systems, car navigation systems, navigation-linked systems, vehicle advanced safety systems, and the like.

1…実時間測位部、2…制御部、3…センサ類、4…カメラ、5…地図DB、6…カーナビ、10…位置検出部、11…第1の特徴抽出部、12…第2の特徴抽出部、13…特徴マッチング部、14…位置補正部、20…特徴検出部、21…領域分割部、22…特徴抽出部、23…不要物除去部、21A…道路領域検出部、21B…路側領域検出部、21a…路面マーク検出部、21b…車線検出部、21c…路側帯検出部、23A…道路不要物除去部、23B…路側不要物除去部、23a…密集横線削除部、23b…密集角点削除部、24…限定部、100…自動車及び車載情報システム。   DESCRIPTION OF SYMBOLS 1 ... Real time positioning part, 2 ... Control part, 3 ... Sensors, 4 ... Camera, 5 ... Map DB, 6 ... Car navigation, 10 ... Position detection part, 11 ... 1st feature extraction part, 12 ... 2nd Feature extraction unit, 13 ... Feature matching unit, 14 ... Position correction unit, 20 ... Feature detection unit, 21 ... Region division unit, 22 ... Feature extraction unit, 23 ... Unwanted object removal unit, 21A ... Road region detection unit, 21B ... Roadside area detection unit, 21a ... road surface mark detection unit, 21b ... lane detection unit, 21c ... roadside band detection unit, 23A ... roadside unnecessary material removal unit, 23B ... roadside unnecessary material removal unit, 23a ... dense horizontal line deletion unit, 23b ... Dense point deletion unit, 24 ... limitation unit, 100 ... automobile and in-vehicle information system.

Claims (9)

移動体位置測定装置であって、
実時間で移動体の位置を測定ないし推定する実時間測位部を有し、
前記実時間測位部は、
前記移動体に搭載され移動体の走行時に実時間で移動体の周囲の少なくとも1つの第1の方向を撮影して第1の画像を得る1つ以上の撮像部から前記第1の画像を入力し、
前記第1の画像として、地図上の参照地点の付近で撮影された複数の実画像の中から、直線や角点を含む特徴部を抽出して第1の特徴情報とする、第1の特徴抽出部と、
地図上の所定の参照地点の付近の第2の画像の中から、直線や角点を含む特徴部を抽出して第2の特徴情報とし、当該第2の特徴情報を含むデータが事前に登録された地図データベースから、前記移動体の走行時に、前記参照地点の付近の該当する第2の特徴情報を読み出して取得する、第2の特徴抽出部と、
前記第1の特徴情報と前記第2の特徴情報とを入力してそれぞれの特徴部を比較してマッチングすることにより、前記参照地点の付近の複数の特徴部の位置を推定し、当該複数の特徴部の位置をもとに、SFM手法を用いて、移動に伴う各時点の前記移動体の位置と上記複数の各特徴部の位置との相対的な位置関係を演算することにより、前記移動体の現在の位置を推定して第2の位置情報として出力する、特徴マッチング部と、を有し、
前記第1の特徴抽出部または第2の特徴抽出部は、
地図上で撮影された実画像のデータを入力して当該実画像から特徴を検出して測位計算で用いる特徴情報を出力する処理を行う特徴検出部を有し、
前記特徴検出部は、領域分割部、特徴抽出部、不要物除去部を有し、
前記領域分割部は、画像解析処理により、前記実画像の領域から、道路領域、路側領域、及び他領域を分割により検出し、当該道路領域、路側領域、及び他領域を含む情報を出力する処理を行い、
前記特徴抽出部は、画像解析処理により、前記実画像の領域から、直線や角点を含む特徴部群を抽出して特徴情報を出力する処理を行い、
前記不要物除去部は、前記実画像における前記道路領域または路側領域の少なくとも一方から、前記測位計算で用いないようにするための不要物に対応する特徴部を検出して除去し、当該除去後の特徴情報を出力する処理を行うこと、を特徴とする移動体位置測定装置。
A moving body position measuring device,
A real-time positioning unit that measures or estimates the position of the moving object in real time;
The real-time positioning unit is
The first image is input from one or more imaging units that are mounted on the mobile body and capture at least one first direction around the mobile body in real time when the mobile body travels to obtain a first image. And
As the first image, a feature including a straight line or a corner point is extracted from a plurality of real images photographed in the vicinity of a reference point on the map, and used as first feature information. An extractor;
From the second image in the vicinity of a predetermined reference point on the map, a feature portion including a straight line or a corner point is extracted as second feature information, and data including the second feature information is registered in advance. A second feature extraction unit that reads out and obtains the corresponding second feature information in the vicinity of the reference point from the map database, when the mobile object is traveling;
By inputting the first feature information and the second feature information and comparing and matching the respective feature portions, the positions of the plurality of feature portions in the vicinity of the reference point are estimated, and the plurality of feature portions are estimated. Based on the position of the feature portion, the movement is calculated by calculating a relative positional relationship between the position of the moving body at each time point associated with the movement and the position of each of the plurality of feature portions using the SFM method. A feature matching unit that estimates the current position of the body and outputs it as second position information;
The first feature extraction unit or the second feature extraction unit includes:
A feature detection unit that inputs data of a real image captured on a map, detects a feature from the real image, and outputs feature information used in positioning calculation;
The feature detection unit includes a region division unit, a feature extraction unit, and an unnecessary object removal unit,
Said region dividing section, the image analysis processing, from the area of the real image, the road area, the roadside area and other area is detected by the division, the road area, the roadside area and other area Process to output the included information,
The feature extraction unit performs a process of extracting a feature group including straight lines and corner points from the real image region by image analysis processing and outputting feature information;
The unnecessary matter removing section, said at least one of the roadside area the road territory Ikima others in the real image, removed to detect a characteristic portion corresponding to the unnecessary substances for preventing use in the positioning calculation And a process of outputting the feature information after the removal.
請求項1記載の移動体位置測定装置において、
前記領域分割部は、画像解析処理により、前記入力の実画像の領域から、自車の走行する車線を含む道路領域を検出し、当該道路領域を含む情報を出力する処理を行う道路領域検出部を有し、
前記特徴抽出部は、画像解析処理により、前記実画像における前記道路領域から、直線や角点を含む特徴部群を抽出して特徴情報を出力する処理を行い、
前記不要物除去部は、前記実画像における前記道路領域から、前記測位計算で用いないようにするための不要物に対応する特徴部を除去し、当該除去後の特徴情報を出力する処理を行う道路不要物除去部を有すること、を特徴とする移動体位置測定装置。
In the moving body position measuring apparatus of Claim 1,
Said region dividing section, the image analysis processing, from the area of the real image of the input, detecting a road area including the lane of travel of the vehicle, a road region processing for outputting information including the road area Having a detector,
The feature extraction unit, the image analysis processing, performed wherein the actual image road area or al, a process of outputting characteristic information by extracting a feature group including a linear or angular points,
The unnecessary matter removing section, the said in the real image road area or al, process the removal of the feature portions corresponding to the unwanted substances so that not used in the positioning calculation, and outputs the characteristic information after the removal A moving body position measuring apparatus comprising a road unnecessary object removing unit that performs the above-described operation.
請求項1記載の移動体位置測定装置において、
前記領域分割部は、画像解析処理により、前記入力の実画像の領域から、前記路側領域を検出し、当該路側領域を含む情報を出力する処理を行う路側領域検出部を有し、
前記特徴抽出部は、画像解析処理により、前記実画像における前記路側領域から、直線や角点を含む特徴部群を抽出して特徴情報を出力する処理を行い、
前記不要物除去部は、前記実画像における前記路側領域から、前記測位計算で用いないようにするための不要物に対応する特徴部を除去し、当該除去後の特徴情報を出力する処理を行う路側不要物除去部を有すること、を特徴とする移動体位置測定装置。
In the moving body position measuring apparatus of Claim 1,
It said region dividing section, the image analyzer processing, from the area of the real image of the input, before detecting a kilo side area, has a roadside area detection unit which performs a process for outputting information including the roadside area ,
The feature extraction unit, the image analysis processing, performed wherein the roadside area or we in the real image, the processing of outputting the feature information by extracting a feature group including a linear or angular points,
The unnecessary matter removing section, the said roadside area or we in the real image, processing the removed feature section that corresponds to the undesired substances in order not used in the positioning calculation, and outputs the characteristic information after the removal A moving body position measuring apparatus, comprising: a roadside unnecessary object removing unit that performs the above operation.
請求項2記載の移動体位置測定装置において、
前記道路領域検出部は、
前記実画像の領域から白線を含む路面マークを検出する処理を行う路面マーク検出部と、
前記実画像の領域から前記路面マークの形状に基づき1つ以上の車線を検出する処理を行う車線検出部と、を有すること、を特徴とする移動体位置測定装置。
In the moving body position measuring apparatus of Claim 2,
The road area detection unit
A road surface mark detection unit that performs a process of detecting a road surface mark including a white line from the region of the real image;
And a lane detector that performs a process of detecting one or more lanes based on the shape of the road surface mark from the area of the real image.
請求項3記載の移動体位置測定装置において、
前記路側領域検出部は、前記実画像の領域から、前記道路領域の形状に基づき、及び路面からの高さの制限に基づき、前記路側領域を検出する処理を行うこと、を特徴とする移動体位置測定装置。
In the moving body position measuring apparatus of Claim 3,
The roadside area detection unit, from said region of the real image, based on the shape of the road area, and based on the height limit from the road surface, by performing a process of detecting the roadside area, characterized by Mobile body position measuring device.
請求項2記載の移動体位置測定装置において、
前記道路不要物除去部は、前記実画像の道路領域から、複数の横線が高密度で集まっている領域を検出し、当該検出した領域に対応する特徴部群を削除する処理を行うこと、を特徴とする移動体位置測定装置。
In the moving body position measuring apparatus of Claim 2,
The road unnecessary matter removing section, the real image of the road area or al, detects an area in which a plurality of horizontal lines are gathered at a high density, by performing the process of deleting the feature groups corresponding to the detected area The moving body position measuring apparatus characterized by these.
請求項3記載の移動体位置測定装置において、
前記路側不要物除去部は、前記実画像の路側領域から、複数の角点が高密度で集まっている領域を検出し、当該検出した領域に対応する特徴部群を削除する処理を行うこと、を特徴とする移動体位置測定装置。
In the moving body position measuring apparatus of Claim 3,
The roadside unwanted matter removing section performs the roadside area or al of the actual image, detects a region where a plurality of corner points are gathered at a high density, the process of deleting the feature group corresponding to the detected region A moving body position measuring device.
請求項1記載の移動体位置測定装置において、
前記特徴検出部は、前記測位計算で用いるための前記特徴情報を限定する処理を行う限定部を有し、
前記限定部は、前記特徴抽出部での処理における、前記実画像の領域から抽出される特徴部の数を、一定数までに制限する処理を行うこと、を特徴とする移動体位置測定装置。
In the moving body position measuring apparatus of Claim 1,
The feature detection unit includes a limiting unit that performs a process of limiting the feature information for use in the positioning calculation,
The limiting unit performs a process of limiting the number of feature parts extracted from the real image region to a certain number in the process of the feature extraction unit.
請求項1記載の移動体位置測定装置において、
前記特徴検出部は、前記測位計算で用いるための前記特徴情報を限定する処理を行う限定部を有し、
前記限定部は、前記実画像の領域における地平線より上の領域を処理対象領域として限定し、地平線より下の領域を処理対象外として削除する処理を行うこと、を特徴とする移動体位置測定装置。
In the moving body position measuring apparatus of Claim 1,
The feature detection unit includes a limiting unit that performs a process of limiting the feature information for use in the positioning calculation,
The limiting unit performs a process of limiting a region above the horizon in the region of the real image as a processing target region, and deleting a region below the horizon as a processing target non-processing target. .
JP2011047714A 2011-03-04 2011-03-04 Moving body position measuring device Active JP5714940B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011047714A JP5714940B2 (en) 2011-03-04 2011-03-04 Moving body position measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011047714A JP5714940B2 (en) 2011-03-04 2011-03-04 Moving body position measuring device

Publications (2)

Publication Number Publication Date
JP2012185011A JP2012185011A (en) 2012-09-27
JP5714940B2 true JP5714940B2 (en) 2015-05-07

Family

ID=47015230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011047714A Active JP5714940B2 (en) 2011-03-04 2011-03-04 Moving body position measuring device

Country Status (1)

Country Link
JP (1) JP5714940B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220019819A1 (en) * 2019-04-04 2022-01-20 Denso Corporation Vehicle position determination device, vehicle position determination system, and vehicle position determination method
US11255974B2 (en) 2018-04-27 2022-02-22 Samsung Electronics Co., Ltd. Method of determining position of vehicle and vehicle using the same
US11420632B2 (en) * 2017-03-28 2022-08-23 Pioneer Corporation Output device, control method, program and storage medium

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140111106A (en) * 2013-03-06 2014-09-18 한국전자통신연구원 Method for generating database based on image, method for providing a searching service of road and apparatus for performing the method
CN103440626B (en) * 2013-08-16 2016-10-19 北京智谷睿拓技术服务有限公司 Means of illumination and illuminator
US9298992B2 (en) * 2014-02-20 2016-03-29 Toyota Motor Engineering & Manufacturing North America, Inc. Geographic feature-based localization with feature weighting
US10718628B2 (en) 2014-12-08 2020-07-21 Hitachi Automotive Systems, Ltd. Host vehicle position estimation device
JP6354556B2 (en) * 2014-12-10 2018-07-11 株式会社デンソー POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, POSITION ESTIMATION PROGRAM
US10395126B2 (en) * 2015-08-11 2019-08-27 Honda Motor Co., Ltd. Sign based localization
JP6756101B2 (en) * 2015-12-04 2020-09-16 トヨタ自動車株式会社 Object recognition device
JP6626410B2 (en) * 2016-06-03 2019-12-25 株式会社Soken Vehicle position specifying device and vehicle position specifying method
JP6729723B2 (en) 2017-01-24 2020-07-22 富士通株式会社 Information processing apparatus, feature point extraction program, and feature point extraction method
JP6820762B2 (en) * 2017-02-09 2021-01-27 株式会社デンソー Position estimator
JP6579144B2 (en) 2017-03-28 2019-09-25 株式会社Soken Obstacle detection device
JP6974024B2 (en) * 2017-04-06 2021-12-01 矢崎エナジーシステム株式会社 Hazard map creation system, hazard map creation device and hazard map creation method
JP6959032B2 (en) * 2017-05-17 2021-11-02 株式会社Soken Position estimation device, moving device
JP7032062B2 (en) * 2017-06-02 2022-03-08 株式会社Ihi Point cloud data processing device, mobile robot, mobile robot system, and point cloud data processing method
CN108267121A (en) * 2018-01-24 2018-07-10 锥能机器人(上海)有限公司 The vision navigation method and system of more equipment under a kind of variable scene
EP3825650A1 (en) 2018-04-03 2021-05-26 Mobileye Vision Technologies Ltd. Systems and methods for determining navigational parameters
JP2020017198A (en) * 2018-07-27 2020-01-30 パイオニア株式会社 Information processing device
JP6679152B1 (en) * 2019-05-27 2020-04-15 東京海上日動火災保険株式会社 Accident analysis device, accident analysis method and program
JP7332403B2 (en) * 2019-09-11 2023-08-23 株式会社東芝 Position estimation device, mobile control system, position estimation method and program
WO2023188262A1 (en) * 2022-03-31 2023-10-05 本田技研工業株式会社 Map generating device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3684776B2 (en) * 1997-07-23 2005-08-17 株式会社デンソー Obstacle recognition device for vehicles
JP4206036B2 (en) * 2003-12-09 2009-01-07 株式会社ゼンリン Identification of landscape image capturing position using electronic map data
JP2005301603A (en) * 2004-04-09 2005-10-27 Denso Corp Traveling lane detection device
JP2005326168A (en) * 2004-05-12 2005-11-24 Fuji Photo Film Co Ltd Driving support system, vehicle, and driving support method
JP4297501B2 (en) * 2004-08-11 2009-07-15 国立大学法人東京工業大学 Moving object periphery monitoring device
JP4985516B2 (en) * 2008-03-27 2012-07-25 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP2011043419A (en) * 2009-08-21 2011-03-03 Sony Corp Information processor, information processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11420632B2 (en) * 2017-03-28 2022-08-23 Pioneer Corporation Output device, control method, program and storage medium
US11255974B2 (en) 2018-04-27 2022-02-22 Samsung Electronics Co., Ltd. Method of determining position of vehicle and vehicle using the same
US20220019819A1 (en) * 2019-04-04 2022-01-20 Denso Corporation Vehicle position determination device, vehicle position determination system, and vehicle position determination method

Also Published As

Publication number Publication date
JP2012185011A (en) 2012-09-27

Similar Documents

Publication Publication Date Title
JP5714940B2 (en) Moving body position measuring device
JP7485749B2 (en) Video-based localization and mapping method and system - Patents.com
JP7349792B2 (en) How to provide information for vehicle operation
US11900627B2 (en) Image annotation
US11200433B2 (en) Detection and classification systems and methods for autonomous vehicle navigation
US11204253B2 (en) Method and apparatus for displaying virtual route
JP2012127896A (en) Mobile object position measurement device
US20230382422A1 (en) Systems and methods for vehicle navigation
US11573090B2 (en) LIDAR and rem localization
US10127461B2 (en) Visual odometry for low illumination conditions using fixed light sources
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
Senlet et al. A framework for global vehicle localization using stereo images and satellite and road maps
CN111771206A (en) Map zoning system for autonomous vehicles
CN112105890A (en) RGB point cloud based map generation system for autonomous vehicles
CN112105893A (en) Real-time map generation system for autonomous vehicles
CN112055805A (en) Point cloud registration system for autonomous vehicles
CN111771229A (en) Point cloud ghost effect detection system for automatic driving vehicle
JP4363295B2 (en) Plane estimation method using stereo images
EP3671623B1 (en) Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image
CN110462682B (en) Object detection device and vehicle
JP2023106536A (en) System for vehicle navigation based on image analysis
JP2014194698A (en) Road end detection system, method and program
CN116524454A (en) Object tracking device, object tracking method, and storage medium
NL2016718B1 (en) A method for improving position information associated with a collection of images.
Belaroussi et al. Vehicle attitude estimation in adverse weather conditions using a camera, a GPS and a 3D road map

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20131111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150312

R150 Certificate of patent or registration of utility model

Ref document number: 5714940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250