JP4775658B2 - Feature recognition device, vehicle position recognition device, navigation device, feature recognition method - Google Patents

Feature recognition device, vehicle position recognition device, navigation device, feature recognition method Download PDF

Info

Publication number
JP4775658B2
JP4775658B2 JP2006351619A JP2006351619A JP4775658B2 JP 4775658 B2 JP4775658 B2 JP 4775658B2 JP 2006351619 A JP2006351619 A JP 2006351619A JP 2006351619 A JP2006351619 A JP 2006351619A JP 4775658 B2 JP4775658 B2 JP 4775658B2
Authority
JP
Japan
Prior art keywords
recognition
information
image
road
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006351619A
Other languages
Japanese (ja)
Other versions
JP2008165326A (en
Inventor
功一 中尾
正樹 中村
知章 石川
基揮 勘場
総 逢坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2006351619A priority Critical patent/JP4775658B2/en
Publication of JP2008165326A publication Critical patent/JP2008165326A/en
Application granted granted Critical
Publication of JP4775658B2 publication Critical patent/JP4775658B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Description

本発明は、車両に搭載された撮像装置により少なくとも道路の路面を撮像した画像情報を逐次取り込む画像情報取得手段と、地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得手段と、前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識手段と前記道路特徴情報取得手段により取得された前記道路特徴情報と、前記画像情報認識手段により認識された前記認識対象物の画像の前記画像情報中の配置に基づいて、前記地物を認識する地物認識装置に関するとともに、この種の地物認識装置で使用される地物認識方法、さらには、当該地物認識装置を装備した自車位置認識装置及びナビゲーション装置に関する。   The present invention acquires image feature acquisition means that sequentially captures at least image information obtained by imaging at least a road surface by an image pickup device mounted on a vehicle, and acquires road feature information related to features around the image information pickup position from map information. A road feature information acquisition unit, an image information recognition unit that performs recognition processing of the image information, and recognizes an image of a recognition object corresponding to the feature included in the image information, and the road feature information acquisition unit The feature recognition apparatus for recognizing the feature based on the acquired road feature information and the arrangement in the image information of the image of the recognition object recognized by the image information recognition means. The present invention relates to a feature recognition method used in this feature recognition device, and further to a vehicle position recognition device and a navigation device equipped with the feature recognition device.

近年、例えばナビゲーション装置等において、走行中の車両の位置を特定するために、GPS(全地球測位システム)からの電波信号を用いた位置特定の方法が広く用いられている。しかし、このGPSによる車両の位置特定の精度は、数m程度の誤差を含んでおり、それ以上の精度での詳細な位置を特定することは困難であった。そこで、このGPSによる位置特定の精度の悪さを補うために、これまでにも様々な技術が提案されている。   2. Description of the Related Art In recent years, for example, in a navigation apparatus or the like, a position specifying method using a radio wave signal from a GPS (Global Positioning System) is widely used to specify the position of a traveling vehicle. However, the accuracy of specifying the position of the vehicle by GPS includes an error of about several meters, and it is difficult to specify a detailed position with higher accuracy. In view of this, various techniques have been proposed so far in order to compensate for the poor accuracy of position determination by GPS.

このような技術として、特許文献1には、車両に搭載された撮像装置により撮像された画像情報について、認識部が画像の輝度等に基づいて区画線を認識し、それにより車両が走行中の道路が一般道か高速道かを判定する技術が開示されている。   As such a technique, in Patent Document 1, a recognition unit recognizes a lane marking based on the brightness of an image or the like for image information captured by an imaging device mounted on the vehicle, whereby the vehicle is traveling. A technique for determining whether a road is a general road or a highway is disclosed.

この技術では、例えば、撮像した画像中の一定の広さを有するウィンドウ内の輝度が一定の基準を超えている部分を区画線の画像として認識する。これにより認識された区画線は、その長さ、区画線間の破断部部分の長さ、区画線の繰り返しピッチといった特徴抽出データとして判定部に出力される。そして、判定部では、一般道と高速道とでそれぞれ規格化された区画線の設置基準に基づいて、走行中の道路が一般道か高速道かを判定できる。結果、この技術によれば、車両が走行中の道路が一般道か高速道かに応じて、車両の速度制御等を行うことができる。   In this technique, for example, a portion in a window having a certain width in a captured image where the luminance exceeds a certain reference is recognized as a lane marking image. The lane lines recognized in this way are output to the determination unit as feature extraction data such as their lengths, the lengths of the broken portions between the lane lines, and the repetition pitches of the lane lines. Then, the determination unit can determine whether the traveling road is a general road or a highway based on the lane marking installation standards standardized for the general road and the highway. As a result, according to this technique, the speed of the vehicle can be controlled according to whether the road on which the vehicle is traveling is a general road or a highway.

しかしながら、上記技術では、走行中の道路の中における車両の位置、例えば、走行方向に複数の車線がある道路を車両が走行中である場合において、車両がどの車線を走行しているか等のように、走行中の道路の中における位置等の詳細な位置を特定することは不可能である。   However, in the above technique, the position of the vehicle on the road that is being traveled, such as which lane the vehicle is traveling on when the vehicle is traveling on a road having a plurality of lanes in the traveling direction, etc. In addition, it is impossible to specify a detailed position such as a position in a running road.

そこで、出願人は、特許文献2において、撮像装置から得られる画像の画像認識を実行するに際して、撮像位置にある地物の情報(道路特徴情報と呼んでいる)に基づいて画像認識を実行し、認識対象物を精度良く個々に認識するとともに、認識された地物の位置情報と撮像装置の位置との関係とに基づいて、自車の詳細な位置を特定することを提案している。
この特許文献2にあっては、道路の長手方向に沿った位置の特定おいては、マンホール、停止線、標識等、道路に沿って設けられてない地物が使用される。道路の幅方向に沿った位置の特定においては、道路に沿って設けられている区画線(実線、破線)等の地物が使用される。この例にあっては、道路特徴情報と、認識対象物の画像の画像情報中の位置との関係に基づいて、地物を認識する。
Therefore, in Japanese Patent Application Laid-Open No. 2004-228867, the applicant executes image recognition based on feature information (referred to as road feature information) at the imaging position when executing image recognition of an image obtained from the imaging device. In addition, it is proposed that the recognition target object is recognized individually with high accuracy and the detailed position of the own vehicle is specified based on the relationship between the position information of the recognized feature and the position of the imaging device.
In this patent document 2, in specifying the position along the longitudinal direction of the road, features such as manholes, stop lines, signs, etc. that are not provided along the road are used. In specifying the position along the width direction of the road, a feature such as a lane marking (solid line, broken line) provided along the road is used. In this example, the feature is recognized based on the relationship between the road feature information and the position in the image information of the image of the recognition target object.

この例における自車位置の特定は、例えば、本明細書図10に示されるように、歩道I1から分離体I2に渡って、区画線P1a,P2a,P2b,P1bが存在し、区画線間に走行方向別通行区分P3がある場合、これら区画線及び走行方向別通行区画を個別に識別認識し、その位置関係から自車位置を特定するものとなる。従って、この位置特定手法では、あくまでも、地物個々が良好に認識されることを前提とする。即ち、例えば、自車が走行している走行線あるいは道路幅方向の位置を特定しようとすると、少なくとも区画線である実線と破線とは正確に識別認識される必要がある。   For example, as shown in FIG. 10 of this specification, there are lane lines P1a, P2a, P2b, and P1b from the sidewalk I1 to the separation body I2, and between the lane lines. In the case where there is a travel direction traffic section P3, these lane lines and travel direction traffic sections are individually identified and recognized, and the vehicle position is specified from the positional relationship. Therefore, this position specifying method is based on the premise that each feature is recognized well. In other words, for example, when trying to specify the travel line in which the vehicle is traveling or the position in the road width direction, at least a solid line and a broken line that are division lines need to be accurately identified and recognized.

区画線である実線と破線との識別認識は、特許文献2の図7に示すような撮像画像が得られた場合は比較的容易であるが、本願明細書の図9(a)に示すような撮像画像が得られた場合は、破線の認識が困難となる場合がある。この図にあっては、区画線の画像GP2bの認識において、破断部が画像奥側に位置するため、この区画線P2bが破線なのか実線なのか識別が困難となる場合がある。そこで、撮像装置により逐次撮像される複数の画像(複数のフレーム画像)に関して、同一の認識対象物を順次認識し、複数フレーム間に渡って、同一と認められる認識対象物(この場合は区画線)に関して、破断部が認められる当該区画線を破線と認識し、破断部が認められない当該区画線を実線と認識する認識方法も採用されている。   Identification and recognition between the solid line and the broken line, which are lane markings, is relatively easy when a captured image as shown in FIG. 7 of Patent Document 2 is obtained, but as shown in FIG. 9A of the present specification. When a captured image is obtained, it may be difficult to recognize a broken line. In this figure, in recognizing the image GP2b of the lane marking, it may be difficult to identify whether the lane marking P2b is a broken line or a solid line because the broken portion is located on the back side of the image. In view of this, regarding a plurality of images (a plurality of frame images) sequentially captured by the imaging device, the same recognition target object is sequentially recognized, and a recognition target object (in this case, a dividing line in this case) recognized between the plurality of frames. ), A recognition method for recognizing the lane marking in which the fracture portion is recognized as a broken line and recognizing the lane marking in which the fracture portion is not recognized as a solid line is also adopted.

実開平5−23298号公報(第6−8頁、第1−3図)Japanese Utility Model Publication No. 5-23298 (page 6-8, Fig. 1-3) 特開2006−208223号公報(図4)Japanese Patent Laying-Open No. 2006-208223 (FIG. 4)

しかしながら、先に説明したように、実線と破線との識別を複数フレームに渡って行う構成を採用したとしても、車両が停止している場合、あるいは極めて低速で走行している場合には、撮像装置により取り込まれる画像に実質的な変化がないため、結果的に継続的に破断部の無い部位を撮像し続けたり、破断部を継続的に撮像することになり、破線を実線と識別したり、破線が存在するにも拘らず、破線が無いと識別してしまうことがあることが判明した。   However, as described above, even when the configuration in which the solid line and the broken line are distinguished over a plurality of frames is adopted, the imaging is performed when the vehicle is stopped or when traveling at a very low speed. Since there is no substantial change in the image captured by the device, as a result, it will continue to image a part without a broken part, or it will continuously image a broken part, and the broken line is identified as a solid line. It has been found that there is a case in which there is no broken line even though the broken line exists.

また、車両が何らかの理由から、例えば、道路上に描かれたペイント表示の一種である走行方向通行区分上で停車した場合に、画像認識側では区画線上で車両が停車したと認識し、車線間に渡って走行する、所謂跨ぎが行われたと誤認識する場合があることが判明した。   Also, when the vehicle stops for some reason, for example, on a travel direction traffic category that is a kind of paint display drawn on the road, the image recognition side recognizes that the vehicle has stopped on the lane line, and It has been found that there is a case where it is erroneously recognized that the so-called straddling is performed.

本発明は、上記の課題に鑑みてなされたものであり、その目的は、地物の撮像情報と地図データベースに記憶された地物に関する道路特徴情報とに基づいて、地物を認識する地物認識装置において、例えば、区画線としての実線と破線とを誤って識別するような問題を発生することがない地物認識装置を得ることにある。   The present invention has been made in view of the above problems, and an object of the present invention is to recognize a feature on the basis of imaging information of the feature and road feature information regarding the feature stored in the map database. An object of the recognition apparatus is to obtain a feature recognition apparatus that does not cause a problem of erroneously identifying a solid line and a broken line as lane markings.

上記目的を達成するための、
車両に搭載された撮像装置により少なくとも道路の路面を撮像した画像情報を逐次取り込む画像情報取得手段と、
地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得手段と、
前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識手段と、を備え
前記道路特徴情報取得手段により取得された前記道路特徴情報と、前記画像情報認識手段により認識された前記認識対象物の画像の前記画像情報中の配置に基づいて、前記地物を認識する地物認識装置の第1の特徴構成は、
前記画像情報認識手段は、道路の路面に設けられたペイント表示を前記認識対象物として画像認識を行うに際して、単一フレームを対象として、当該単一フレームに含まれる前記認識対象物の画像認識を行う第一認識処理を実行し、当該第一認識処理により実線又は破線の区画線と認識された前記認識対象物に関して、連続する複数フレームを対象として、当該複数フレーム間に渡ってほぼ同一の位置に撮影された区画線を同一の区画線と認識すると共に、当該同一と認識された区画線に関して、破断部が認められる場合に当該区画線を破線と認識し、破断部が認められない場合に実線と認識する第二認識処理を実行するように構成されているとともに、
車両の走行速度情報を取得する速度情報取得手段
取得された前記走行速度情報が所定の値より低い場合に、前記画像情報認識手段による前記認識対象物の認識を停止する認識補正処理制御手段と、を備えたことにある。
To achieve the above purpose,
Image information acquisition means for sequentially capturing image information obtained by imaging at least a road surface by an imaging device mounted on a vehicle;
Road feature information acquisition means for acquiring road feature information related to features around the imaging position of the image information from map information;
Image information recognition means for performing recognition processing of the image information and recognizing an image of a recognition object corresponding to the feature included in the image information , and acquired by the road feature information acquisition means A first feature configuration of the feature recognition apparatus that recognizes the feature based on road feature information and an arrangement in the image information of the image of the recognition object recognized by the image information recognition unit is:
The image information recognizing means recognizes an image of the recognition object included in the single frame for a single frame when performing image recognition using the paint display provided on the road surface of the road as the recognition object. The first recognition process is performed, and the recognition target object recognized as a solid line or a broken lane line by the first recognition process is subjected to a plurality of consecutive frames and is substantially the same position between the plurality of frames. When the lane markings taken in the above are recognized as the same lane markings, and when the rupture portion is recognized as a broken line with respect to the lane markings recognized as the same, the lane marking is recognized as a broken line and the rupture portion is not recognized. It is configured to execute a second recognition process that recognizes as a solid line,
A velocity information acquiring means for acquiring the traveling speed information of the vehicle,
When the traveling speed information obtained is lower than a predetermined value, in that and a recognition correction control means for stopping the recognition of the recognition target object by the image information recognizing unit.

この地物認識装置にあっても、撮像装置側から得られる画像情報において地物に対応する認識対象物の画像を認識する画像認識を実行するとともに、画像認識の結果認識された認識対象物と、地物に関す情報を含む道路特徴情報を比較対照して、地物を認識するのであるが、この地物認識装置が搭載される車両の走行速度が別途、速度情報取得手段により取得され、認識補正処理制御手段により、走行速度が所定値より小さい場合には、画像情報認識処理手段による認識処理を行わないものとされる。
即ち、走行速度が所定値より小さい場合は、撮像装置において同じ画像を継続的に取り込んだり(停止している場合)、ほぼ同じ画像を継続的に取り込んだり(極めて低速で走行している場合)することとなるが、このような画像情報が認識処理の対象となることはない。換言すると、画像認識の対象となる画像情報は、走行に伴って順次遷移していく画像となる。結果、画像情報として認識対象物を異なった撮像位置から撮像した画像情報を得ることとなり、認識対象物である地物の特徴が良く現れた画像情報を得て、或は、複数のフレーム間に渡る画像情報から識別認識を行う場合は、認識対象物の特徴を良好に捉えて、地物の認識を的確に行える。
Even in this feature recognition device, image recognition for recognizing the image of the recognition target corresponding to the feature in the image information obtained from the imaging device is performed, and the recognition target recognized as a result of the image recognition The road feature information including information about the feature is compared and contrasted to recognize the feature, but the traveling speed of the vehicle on which the feature recognition device is mounted is separately acquired by the speed information acquisition means, When the traveling speed is smaller than the predetermined value by the recognition correction processing control means, the recognition processing by the image information recognition processing means is not performed.
That is, when the traveling speed is smaller than the predetermined value, the image capturing device continuously captures the same image (when stopped), or captures the same image continuously (when traveling at an extremely low speed). However, such image information is not subject to recognition processing. In other words, the image information that is subject to image recognition is an image that sequentially transitions as the vehicle travels. As a result, image information obtained by imaging the recognition target object from different imaging positions is obtained as image information, and image information in which features of the feature that is the recognition target object appear well is obtained, or between a plurality of frames. When identifying and recognizing from crossing image information, the feature of the recognition target can be satisfactorily recognized and the feature can be recognized accurately.

この第1の特徴構成を備えた地物認識装置にあっては、請求項に記載されているように、下記の画像認識方法を使用することとなる。
即ち、車両に搭載された撮像装置により少なくとも道路の路面を撮像した画像情報を逐次取り込む画像情報取得ステップと、
地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得ステップと、
前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識ステップと、
前記道路特徴情報取得ステップで取得された前記道路特徴情報と、前記画像情報認識ステップで認識された前記認識対象物の画像の前記画像情報中の配置に基づいて、前記地物を認識する地物認識方法を実行するに、
前記画像情報認識ステップでは、道路の路面に設けられたペイント表示を前記認識対象物として画像認識を行うに際して、単一フレームを対象として、当該単一フレームに含まれる前記認識対象物の画像認識を行う第一認識処理を実行した後、当該第一認識処理により実線又は破線の区画線と認識された前記認識対象物に関して、連続する複数フレームを対象として、当該複数フレーム間に渡ってほぼ同一の位置に撮影された区画線を同一の区画線と認識すると共に、当該同一と認識された区画線に関して、破断部が認められる場合に当該区画線を破線と認識し、破断部が認められない場合に実線と認識する第二認識処理を実行するように構成されているとともに、
車両の走行速度情報を取得する速度情報取得ステップを実行し、
取得された前記走行速度情報が所定の値より低い場合に、前記画像情報認識ステップによる前記認識対象物の認識を停止するのである。
この場合、認識対象物の認識を停止した後、車両の走行が始まり走行速度が所定の値より大きくなった場合は,当然に認識を再開する。このようにすることで、車両の走行状態に合わせて正確に地物の認識を行える
In the feature recognition apparatus having the first characteristic configuration, as described in claim 7 , the following image recognition method is used.
That is, an image information acquisition step for sequentially capturing image information obtained by imaging at least a road surface by an imaging device mounted on a vehicle;
Road feature information acquisition step for acquiring road feature information related to features around the imaging position of the image information from map information;
Recognizing the image information and recognizing an image of a recognition object corresponding to the feature included in the image information; and
A feature that recognizes the feature based on the road feature information acquired in the road feature information acquisition step and the arrangement in the image information of the image of the recognition object recognized in the image information recognition step. To run the recognition method,
In the image information recognition step, when performing the image recognition using the paint display provided on the road surface of the road as the recognition object, the image recognition of the recognition object included in the single frame is performed with respect to a single frame. After performing the first recognition process to be performed, with respect to the recognition target object recognized as a solid line or a broken lane line by the first recognition process, it is substantially the same across the plurality of frames for a plurality of consecutive frames. When a lane line photographed at a position is recognized as the same lane line, and when a broken portion is recognized with respect to the lane line recognized as the same, the lane line is recognized as a broken line and no broken portion is recognized Is configured to execute a second recognition process for recognizing a solid line,
Execute a speed information acquisition step of acquiring vehicle travel speed information;
When the acquired travel speed information is lower than a predetermined value, the recognition of the recognition object by the image information recognition step is stopped.
In this case, after the recognition of the recognition object is stopped, when the vehicle starts to travel and the traveling speed becomes higher than a predetermined value, the recognition is naturally restarted. In this way, features can be accurately recognized according to the running state of the vehicle.

さて、第1の特徴構成を備えた地物認識装置において、請求項2に記載されているように、少なくとも、全地球測位システムから得られる測位システム位置情報に基づいて、車両の概略位置を求める位置情報取得手段を備え、
前記画像情報が撮像された時点で前記位置情報取得手段により求められる車両の位置を、前記画像情報の撮像位置とすることが、好ましい。この構成が本願第2の特徴構成である。
Now, in the feature recognition device having the first characteristic configuration, as described in claim 2, the approximate position of the vehicle is obtained based on at least the positioning system position information obtained from the global positioning system. Comprising location information acquisition means,
It is preferable that the position of the vehicle obtained by the position information acquisition unit at the time when the image information is captured is set as the imaging position of the image information. This configuration is the second characteristic configuration of the present application.

全地球測位システムからの位置情報は、粗い位置情報ではあるが、画像情報内に含まれる可能性のある地物を特定するには充分な情報である。そこで、道路特徴取得手段により取得する道路特徴情報の取得のための位置基準及び撮像位置の特定に際して、この情報を利用することで、画像情報内に含まれる認識対象物の画像情報と道路特徴情報との対照を的確に行い、撮像された地物(認識対象物)を迅速且つ正確に認識できる。   Although the position information from the global positioning system is coarse position information, it is sufficient information to identify features that may be included in the image information. Therefore, when specifying the position reference and the imaging position for acquiring the road feature information acquired by the road feature acquisition means, this information is used to obtain the image information of the recognition target object included in the image information and the road feature information. The imaged feature (recognition target) can be recognized quickly and accurately.

さて、これまで説明してきた地物認識装置を備えた自車位置認識装置は、請求項に記載されるように、地物認識装置に加えて、
前記認識対象物に予め定められた測定点について、前記画像情報に含まれている前記認識対象物についての前記測定点の画像認識を行い、
認識された前記測定点の画像認識結果と、予め求められている当該測定点の位置情報とに基づいて自車位置情報を更新補正する自車位置認識補正手段、
を備える構成とできる。
この自車位置認識装置は、地物認識装置を成す、各手段に加えて、自車位置認識補正手段が備えられる。
一方、認識対象物(地物)には、予め測定点を定めておく。例えば、矢印である走行方法通行区分においては、その矢印先端点を測定点と定めておいたり、停止線であれば、その走行方向前方側の輪郭線上を測定点と定めておく。そして、その測定点の画像認識結果から、測定点から撮像位置(実質的に自車位置)を割り出し、予め求められている当該測定点の位置情報に基づいて自車位置を求め、自車位置情報を更新補正する。このようにして、詳細な自車位置を正確に特定することができる。
Now, vehicle position recognition apparatus having a feature recognition apparatus that has been described thus far, as described in claim 3, in addition to the feature recognizer,
Performing image recognition of the measurement points for the recognition object included in the image information for the measurement points predetermined for the recognition object,
Vehicle position recognition correction means for updating and correcting the vehicle position information based on the image recognition result of the recognized measurement point and the position information of the measurement point obtained in advance;
It can be set as the structure provided with.
This own vehicle position recognizing device is provided with own vehicle position recognition correcting means in addition to each means constituting the feature recognizing device.
On the other hand, measurement points are determined in advance for the recognition object (feature). For example, in the traveling method passage classification that is an arrow, the tip of the arrow is determined as a measurement point, and if it is a stop line, the outline on the front side in the traveling direction is determined as the measurement point. Then, from the image recognition result of the measurement point, the imaging position (substantially the own vehicle position) is determined from the measurement point, and the own vehicle position is obtained based on the position information of the measurement point obtained in advance. Update and correct information. In this way, the detailed vehicle position can be specified accurately.

このような測定点としては、請求項に記載されているように、各地物の輪郭形状に応じて、自車両の進行方向に略直交する輪郭線上、又は前記輪郭形状が角部を有する場合には当該角部上に設定されていることが好ましい。
進行方向に略直交する輪郭線上を測定点とすることで、輪郭線上で発生する画像情報での輝度の変化を良好に見出して、その測定点の特定が容易であり、さらに、進行方向に略直交することで、道路の長手方向に沿った自車の位置の特定を容易に行えることとなる。
輪郭形状が角部を有する場合には当該角部上に設定されていることで、角部上で発生する画像情報での輝度の変化を良好に見出して、その測定点の特定が容易である。さらに、道路の長手方向及び幅方向の自車の位置の特定を容易に行えることとなる。
As such a measurement point, as described in claim 4 , according to the contour shape of each feature, on the contour line substantially orthogonal to the traveling direction of the host vehicle, or when the contour shape has a corner portion Is preferably set on the corner.
By making the measurement point on the contour line approximately perpendicular to the traveling direction, it is easy to find the change in luminance in the image information generated on the contour line, and to easily identify the measurement point. By being orthogonal, the position of the vehicle along the longitudinal direction of the road can be easily identified.
When the contour shape has a corner, it is set on the corner, so that a change in luminance in the image information generated on the corner can be found well and the measurement point can be easily specified. . Furthermore, the position of the vehicle in the longitudinal direction and the width direction of the road can be easily identified.

これまで説明してきた自車位置認識装置を備えた車両制御装置は、請求項に記載されるように、自車位置認識装置に加えて、地図情報を格納した地図情報格納手段を備え、
前記地図情報格納手段から取得した自車両の進行方向の地図情報と、前記自車位置認識補正手段による更新補正後の自車位置情報とに基づいて、自車両の走行制御を行う車両制御装置とすることができる。
この車両制御装置は、自車位置認識装置を成す、各手段に加えて、地図情報格納手段が備えられる。そして、車両制御に際しては、正確な自車位置を自車位置認識装置側から取得して、地図情報格納手段から得られる地図情報に基づいて、自車両を走行制御する。結果、正確に信頼性の高い車両制御を実現できる。
The vehicle control apparatus provided with the own vehicle position recognizing device described so far includes, in addition to the own vehicle position recognizing device, a map information storing means for storing map information, as described in claim 5 .
A vehicle control device that performs travel control of the host vehicle based on the map information of the traveling direction of the host vehicle acquired from the map information storage unit and the host vehicle position information after the update correction by the host vehicle position recognition correction unit; can do.
This vehicle control device is provided with a map information storage means in addition to each means constituting the vehicle position recognition device. In the vehicle control, an accurate own vehicle position is acquired from the own vehicle position recognition device side, and the own vehicle is travel-controlled based on the map information obtained from the map information storage means. As a result, accurate and reliable vehicle control can be realized.

これまで説明してきた自車位置認識装置を備えたナビゲーション装置は、請求項に記載されるように、自車位置認識装置に加えて、地図情報を格納した地図情報格納手段を備え、
前記地図情報格納手段から取得した自車両の進行方向の地図情報と、前記自車位置認識補正手段による更新補正後の自車位置情報とに基づいて、自車両の進路案内を行うナビゲーション装置とすることができる。
このナビゲーション装置は、自車位置認識装置を成す、各手段に加えて、地図情報格納手段が備えられる。そして、ナビゲーションに際しては、正確な自車位置を自車位置認識装置側から取得して、地図情報格納手段から得られる地図情報に基づいて、自車両をナビゲートする。結果、正確に信頼性の高いナビゲーションを実現できる。
Navigation system having a vehicle position recognition apparatus described so far, as described in claim 6, in addition to the vehicle position recognition apparatus, comprising a map information storage means for storing map information,
Based on the map information of the traveling direction of the own vehicle acquired from the map information storage unit and the own vehicle position information after the update correction by the own vehicle position recognition correction unit, the navigation apparatus performs route guidance of the own vehicle. be able to.
This navigation device is provided with a map information storage means in addition to each means constituting the vehicle position recognition device. In navigation, an accurate vehicle position is acquired from the vehicle position recognition device side, and the vehicle is navigated based on map information obtained from the map information storage means. As a result, accurate and reliable navigation can be realized.

以下に、本発明の実施形態について図面に基づいて説明する。
本願にあっては、第一の実施形態と第二の実施形態について、本願に係る自車位置認識装置100を説明する。この自車位置認識装置100は、本願にいう地物認識装置ともなっている。
第一の実施形態では、自車位置認識装置100は、道路における自車の道路長手方向及び道路幅方向の詳細な位置を特定するとともに、自車位置を精度の高い詳細な位置に更新補正するように構成され、自車の周りにある走行不可能領域の認識も行うように構成されている。
一方、第二の実施形態では、自車位置認識装置100は、走行中の道路における走行車線(自車線)を認識して、道路幅方向の詳細な位置を特定し、自車位置(具体的には自車線位置)を精度の高い詳細な位置に更新補正するように構成されている。
本願にあっては、このような詳細な位置の特定、走行不可能領域の認識において、道路にペイントされている区画線の認識(特に、実線と破線との識別認識)が的確に行われることが重要となる。そこで、本願にあっては、実線と破線との誤認識が起こりやすい特定の条件下で、認識処理、それに続く後続処理を行わないように自車位置認識装置100が構築されている。
Embodiments of the present invention will be described below with reference to the drawings.
If it is in this application, self-vehicle position recognition device 100 concerning this application is explained about a first embodiment and a second embodiment. This own vehicle position recognizing device 100 is also a feature recognizing device referred to in the present application.
In the first embodiment, the own vehicle position recognition device 100 specifies the detailed position of the own vehicle in the road longitudinal direction and the road width direction on the road, and updates and corrects the own vehicle position to a highly accurate detailed position. It is comprised so that the driving | running | working impossible area around the own vehicle may also be recognized.
On the other hand, in the second embodiment, the own vehicle position recognition device 100 recognizes the travel lane (own lane) on the road being traveled, specifies the detailed position in the road width direction, and determines the own vehicle position (specifically Is configured to update and correct the own lane position) to a detailed position with high accuracy.
In the present application, in such specification of the detailed position and recognition of the untravelable area, recognition of the lane markings painted on the road (particularly, recognition recognition of solid lines and broken lines) should be performed accurately. Is important. Therefore, in the present application, the vehicle position recognition device 100 is constructed so as not to perform recognition processing and subsequent processing under specific conditions in which erroneous recognition between a solid line and a broken line is likely to occur.

本願に係る自車位置認識装置100は、自車位置の特定・更新補正に際して、GPS受信機4等からの情報に基づいて自車の概略位置を求めるとともに、同時に撮像された画像情報Gに関して、当該概略位置に存在するはずの地物に関する情報である道路特徴情報Cとを利用して撮像された地物の画像認識を行い、認識された地物を基準に詳細な位置を特定し、特定された自車位置に自車位置を更新補正する。このような処理を実行するに際して、先にも述べたように、区画線の認識に誤りを生じると、自車位置特定の信頼性が低くなる。そこで、本願に係る自車位置認識装置100にあっては、画像認識、自車位置特定、それら処理に随伴する自車位置の更新補正、さらには、走行不可能領域の認識を、自車が停止している場合あるいは、極めて低速で走行している場合には実行しない。この実行停止は、第一及び第二の実施形態において共通である。そこで、図1〜図3に基づいて、まず共通構成である、この制御機能部位に関して説明する。   The vehicle position recognition device 100 according to the present application obtains the approximate position of the vehicle based on information from the GPS receiver 4 or the like when specifying and updating the vehicle position, and regarding the image information G captured at the same time, Recognize the imaged feature using the road feature information C, which is information about the feature that should be present at the approximate position, and specify the detailed position based on the recognized feature. The vehicle position is updated and corrected to the determined vehicle position. When executing such processing, as described above, if an error occurs in the recognition of the lane marking, the reliability of specifying the vehicle position is lowered. Therefore, in the vehicle position recognition apparatus 100 according to the present application, the vehicle recognizes the image recognition, the vehicle position identification, the update correction of the vehicle position associated with these processes, and the recognition of the non-travelable area. It is not executed when the vehicle is stopped or traveling at a very low speed. This execution stop is common in the first and second embodiments. Therefore, based on FIGS. 1 to 3, first, the control function part, which is a common configuration, will be described.

図1は、上記共通の制御機能部位のハードウエア構成の概略を説明するための機能ブロック図である。図1に示すように、自車位置認識装置100は、走行速度導出部101、認識補正処理制御部102と自車位置認識補正部103とを備えて構成されており、走行速度導出部101で導出される走行速度情報Vに基づいて、認識補正処理制御部102が自車位置認識補正部103での処理の実行の可否を制御するように構成されている。
自車位置認識補正部103の詳細構成を示したのが、第一の実施形態について図4であり、第二の実施形態について図15である。この自車位置認識補正部103の詳細は、後に、これら図及びその部位のフローチャートに基づいて説明する。
FIG. 1 is a functional block diagram for explaining the outline of the hardware configuration of the common control function part. As shown in FIG. 1, the host vehicle position recognition apparatus 100 includes a travel speed deriving unit 101, a recognition correction processing control unit 102, and a host vehicle position recognition correction unit 103. Based on the derived traveling speed information V, the recognition correction processing control unit 102 is configured to control whether or not the processing in the vehicle position recognition correction unit 103 can be executed.
A detailed configuration of the vehicle position recognition correction unit 103 is shown in FIG. 4 for the first embodiment and FIG. 15 for the second embodiment. Details of the vehicle position recognition correction unit 103 will be described later based on these drawings and flowcharts of the parts.

走行速度導出部101は、図2に示すように、走行輪Wに連結される駆動伝達軸等の回転を検出する回転センサ101aからの回転情報を利用して走行速度を導出する。この走行速度導出部101にあっては、車両が停止している走行停止状態、及び、走行速度が1km/hr未満といった極めて低速で走行している低速走行状態も検出される。この場合、回転センサ101a,走行速度導出部101が、本発明における「速度情報取得手段」に相当する。   As illustrated in FIG. 2, the traveling speed deriving unit 101 derives the traveling speed using rotation information from a rotation sensor 101 a that detects the rotation of a drive transmission shaft or the like connected to the traveling wheel W. In the traveling speed deriving unit 101, a traveling stop state where the vehicle is stopped and a low traveling state where the traveling speed is traveling at an extremely low speed such as less than 1 km / hr are also detected. In this case, the rotation sensor 101a and the traveling speed deriving unit 101 correspond to the “speed information acquisition unit” in the present invention.

認識補正処理制御部102は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備え、走行速度導出部101により導出される走行速度情報Vに基づいて、自車位置認識補正部103における処理を実行するか否かの判断を実行する。図3に、認識補正処理制御部102におけるフローチャートを示した。
自車位置認識装置100が働いている状態にあっては、走行速度導出部101は逐次、回転センサ101aからその回転情報を受け取り、走行速度情報Vを導出する。そして、導出された走行速度情報Vが認識補正処理制御部102に取得される(ステップ#1)。
認識補正処理制御部102にあっては、取得した走行速度情報Vを、予め設定されている走行基準情報と比較する(ステップ#2)。この走行基準情報は、自車が走行しているか、停止しているかの判断を行うための走行速度情報であり、例えば、1km/hrに設定されている。
The recognition correction processing control unit 102 has a configuration in which a functional unit for performing various processes on input data is implemented in hardware and / or software using an arithmetic processing unit such as a CPU as a core member. In addition, based on the travel speed information V derived by the travel speed deriving unit 101, a determination is made as to whether or not to execute the process in the vehicle position recognition correction unit 103. FIG. 3 shows a flowchart in the recognition correction processing control unit 102.
When the vehicle position recognition device 100 is in operation, the traveling speed deriving unit 101 sequentially receives the rotation information from the rotation sensor 101a and derives the traveling speed information V. The derived traveling speed information V is acquired by the recognition correction processing control unit 102 (step # 1).
In the recognition correction processing control unit 102, the acquired traveling speed information V is compared with preset traveling reference information (step # 2). This traveling reference information is traveling speed information for determining whether the host vehicle is traveling or stopped, and is set to 1 km / hr, for example.

認識補正処理制御部102にあっては、走行速度情報Vが走行基準情報より大きい場合(ステップ#2:yes)は、自車位置認識補正部103での処理を許可する。一方、走行速度情報Vが走行基準情報より小さい場合(ステップ#2:no)は、自車が停止若しくは極めて低速で走行しているため、自車位置認識補正部103での処理を行うことなく、走行速度情報の取得を繰り返す。即ち、自車位置認識補正部103での処理は行われない。
このように、本願の自車位置認識装置100にあっては、自車が停止しているか、若しくは、極めて低速で走行している状態にあっては、自車位置認識補正処理を実行しないように構成されている。従って、この認識補正処理制御部102が、本発明における「認識補正処理制御手段」に相当する。また、前記自車位置認識補正部103が、本発明における「自車位置認識補正手段」に相当する。
In the recognition correction processing control unit 102, when the traveling speed information V is larger than the traveling reference information (step # 2: yes), the processing in the own vehicle position recognition correction unit 103 is permitted. On the other hand, when the traveling speed information V is smaller than the traveling reference information (step # 2: no), the host vehicle is stopped or traveling at an extremely low speed, so that the processing by the host vehicle position recognition correction unit 103 is not performed. , Repeated acquisition of travel speed information. That is, the processing in the vehicle position recognition correction unit 103 is not performed.
As described above, in the subject vehicle position recognition device 100 of the present application, the subject vehicle position recognition correction process is not executed when the subject vehicle is stopped or traveling at an extremely low speed. It is configured. Therefore, the recognition correction processing control unit 102 corresponds to “recognition correction processing control means” in the present invention. Further, the vehicle position recognition correction unit 103 corresponds to the “vehicle position recognition correction unit” in the present invention.

以下、第一、第二の実施形態の夫々に関して、自車位置認識補正部103の構成及びその働きについて順に説明する。   Hereinafter, with respect to each of the first and second embodiments, the configuration and operation of the vehicle position recognition correction unit 103 will be described in order.

〔第一の実施形態〕
この実施形態における自車位置認識補正部103は、図4に示すように、撮像装置2により撮像された画像情報Gの認識結果と地図情報から取得した道路特徴情報Cとの両方に基づいて、車両Mの走行中の道路11内における詳細な位置、すなわち自車の道路長手方向及び道路幅方向の詳細な位置を特定し、装置100が認識している自車位置を、特定された詳細な位置に更新補正する。さらに、走行不可能領域Iの認識も行う。
[First embodiment]
As shown in FIG. 4, the vehicle position recognition correction unit 103 in this embodiment is based on both the recognition result of the image information G captured by the imaging device 2 and the road feature information C acquired from the map information. The detailed position in the road 11 on which the vehicle M is traveling, that is, the detailed position in the longitudinal direction and the width direction of the own vehicle is specified, and the own vehicle position recognized by the apparatus 100 is specified. Update correction to position. Furthermore, the travel impossible area I is also recognized.

図4に示すように、この自車位置認識補正部103は、主たる構成として、車両M(図2参照)に搭載された撮像装置2からの画像情報Gを取り込む画像情報取得部3と、GPS(全地球測位システム)受信機4、方位センサ5及び距離センサ6からの出力に基づいて撮像装置2による概略の撮像位置を特定するための演算を行う概略位置特定演算部7と、地図情報データベース8に格納されている地図情報から撮像装置2による概略の撮像位置周辺の地物に関する道路特徴情報Cを取得するための演算を行う道路特徴情報取得演算部9と、取得された道路特徴情報Cを用いて画像情報Gの認識処理を行い、画像情報Gの中に含まれる前記地物に対応する認識対象物の画像を認識するための演算を行う画像情報認識演算部10と、道路特徴情報取得演算部9で取得された道路特徴情報Cと、画像情報認識演算部10で認識された認識対象物の画像の画像情報G中の配置とに基づいて、車両Mの走行中の道路11内における詳細な位置を特定し、自車の認識位置を補正する車両位置特定演算部17と、を備えている。   As shown in FIG. 4, the vehicle position recognition correction unit 103 mainly includes an image information acquisition unit 3 that captures image information G from the imaging device 2 mounted on the vehicle M (see FIG. 2), and a GPS. (Global positioning system) An approximate position specifying calculation unit 7 that performs an operation for specifying an approximate image pickup position by the image pickup device 2 based on outputs from the receiver 4, the direction sensor 5, and the distance sensor 6, and a map information database 8, a road feature information acquisition calculation unit 9 that performs a calculation for acquiring road feature information C related to features around the approximate imaging position by the imaging device 2 from the map information stored in FIG. 8, and the acquired road feature information C The image information G is recognized using the image information G, and the image information recognition calculation unit 10 that performs calculation for recognizing the image of the recognition target object corresponding to the feature included in the image information G, road feature information Based on the road feature information C acquired by the acquisition calculation unit 9 and the arrangement in the image information G of the image of the recognition object recognized by the image information recognition calculation unit 10, the inside of the road 11 on which the vehicle M is traveling A vehicle position specifying calculation unit 17 that specifies a detailed position of the vehicle and corrects the recognized position of the vehicle.

ここで、概略位置特定演算部7、GPS受信機4、方位センサ5、距離センサ6、及び地図情報データベース8は、車両に搭載され、車両の経路案内等を行うためのナビゲーション装置の構成を利用することができる。この場合、概略位置特定演算部7、GPS受信機4、方位センサ5、距離センサ6等が、本発明における「位置情報取得手段」に相当する。   Here, the approximate position specifying calculation unit 7, the GPS receiver 4, the direction sensor 5, the distance sensor 6, and the map information database 8 are mounted on a vehicle and use the configuration of a navigation device for performing route guidance of the vehicle. can do. In this case, the approximate position specifying calculation unit 7, the GPS receiver 4, the azimuth sensor 5, the distance sensor 6 and the like correspond to the “position information acquisition unit” in the present invention.

撮像装置2は、例えばCCDセンサやCMOSセンサ等の撮像素子と、この撮像素子に光を導くための光学系を構成するレンズ等を有して構成される。この撮像装置2は、車両Mの前方や後方、例えば図2のQ1〜Q3で示す位置に向けて配置され、車両Mが走行する道路11の少なくとも路面が撮影され、更にここではその道路11の周囲も撮影されるように設けられる。このような撮像装置2としては、車両Mの前方や後方等の映像を撮像するためにこれまでにも設けられている車載カメラ等が好適に用いられる。   The imaging device 2 includes an imaging element such as a CCD sensor or a CMOS sensor, and a lens that constitutes an optical system for guiding light to the imaging element. The imaging device 2 is arranged in front of or behind the vehicle M, for example, at positions indicated by Q1 to Q3 in FIG. 2, and at least a road surface of the road 11 on which the vehicle M travels is photographed. It is provided so that the surroundings can also be photographed. As such an imaging device 2, an in-vehicle camera or the like that has been provided so far in order to capture images of the front and rear of the vehicle M is preferably used.

画像情報取得部3は、撮像装置2と接続するためのインターフェース回路12と、撮像装置2からの画像情報Gに対して前処理を行う画像前処理回路13と、前処理後の画像情報Gを格納する画像メモリ14とを有している。インターフェース回路12は、アナログ/デジタル・コンバータ等を備えており、撮像装置2により撮像したアナログの画像情報Gを所定の時間間隔で取り込み、デジタル信号に変換して画像前処理回路13へ出力する。このインターフェース回路12による画像情報Gの取り込みの時間間隔は、例えば、10〜50ms程度とすることができる。これにより、画像情報取得部3は、車両Mが走行中の道路11の画像情報をほぼ連続的に取得することができる。画像前処理回路13は、ここでは画像情報Gに対する前処理として二値化処理、エッジ検出処理等の画像情報認識演算部10による画像認識を容易にするための処理を行う。そして、このような前処理後の画像情報Gが画像メモリ14に格納される。   The image information acquisition unit 3 includes an interface circuit 12 for connecting to the imaging device 2, an image preprocessing circuit 13 that performs preprocessing on the image information G from the imaging device 2, and preprocessed image information G. And an image memory 14 for storage. The interface circuit 12 includes an analog / digital converter or the like, takes in analog image information G imaged by the imaging device 2 at a predetermined time interval, converts it into a digital signal, and outputs it to the image preprocessing circuit 13. The time interval for capturing the image information G by the interface circuit 12 can be set to about 10 to 50 ms, for example. Thereby, the image information acquisition part 3 can acquire the image information of the road 11 in which the vehicle M is running substantially continuously. Here, the image preprocessing circuit 13 performs processing for facilitating image recognition by the image information recognition calculation unit 10 such as binarization processing and edge detection processing as preprocessing for the image information G. Then, the image information G after such preprocessing is stored in the image memory 14.

また、インターフェース回路12は、画像前処理回路13へ送る画像情報Gとは別に、直接画像メモリ14へも画像情報Gを出力する。したがって、画像メモリ14には、画像前処理回路13により前処理を行った後の画像情報G2と、前処理を行っていないそのままの画像情報G1との両方が格納されることになる。
本実施形態においては、この画像情報取得部3が、本発明における「画像情報取得手段」を構成する。
In addition to the image information G sent to the image preprocessing circuit 13, the interface circuit 12 outputs the image information G directly to the image memory 14. Therefore, the image memory 14 stores both the image information G2 after the preprocessing by the image preprocessing circuit 13 and the image information G1 as it is not subjected to the preprocessing.
In the present embodiment, the image information acquisition unit 3 constitutes “image information acquisition means” in the present invention.

概略位置特定演算部7は、本実施形態においては、GPS受信機4、方位センサ5、及び距離センサ6と接続さている。ここで、GPS受信機4は、GPS衛星からの信号を受信する装置であり、GPS受信機4の位置(緯度及び経度)や移動速度など様々な情報を得ることができる。方位センサ5は、地磁気センサやジャイロセンサ、或いは、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、車両Mの進行方向を検知することができる。距離センサ6は、車輪の回転数を検知する車速センサや車両Mの加速度を検知するヨー・Gセンサと、検知された加速度を2回積分する回路との組み合わせ等により構成され、車両Mの移動距離を検知することができる。   In this embodiment, the approximate position specifying calculation unit 7 is connected to the GPS receiver 4, the direction sensor 5, and the distance sensor 6. Here, the GPS receiver 4 is a device that receives a signal from a GPS satellite, and can obtain various information such as a position (latitude and longitude) and a moving speed of the GPS receiver 4. The azimuth sensor 5 includes a geomagnetic sensor, a gyro sensor, an optical rotation sensor attached to the rotating part of the steering wheel, a rotary resistance volume, an angle sensor attached to the wheel part, etc., and detects the traveling direction of the vehicle M. can do. The distance sensor 6 includes a combination of a vehicle speed sensor that detects the number of rotations of the wheel, a yaw / G sensor that detects the acceleration of the vehicle M, and a circuit that integrates the detected acceleration twice. The distance can be detected.

そして、概略位置特定演算部7は、これらのGPS受信機4、方位センサ5及び距離センサ6からの出力に基づいて、車両Mの現在の概略位置を求める演算を行う。こうして演算された車両Mの位置が撮像装置2の位置となる。   Then, the approximate position specifying calculation unit 7 performs an operation for obtaining the current approximate position of the vehicle M based on outputs from the GPS receiver 4, the direction sensor 5, and the distance sensor 6. The position of the vehicle M calculated in this way becomes the position of the imaging device 2.

この概略位置特定演算部7により求めることができる車両の概略位置の精度は、GPS受信機の精度に大きく影響を受ける。このため、現状では、数m程度の誤差を含んでいる。よって、この概略位置特定演算部7において、車両Mの道路長手方向及び道路幅方向の詳細な位置を特定することはできない。
結果、本願で示すように、画像情報G及び地物に関して地図情報データベース8に記憶される情報を利用して、車両Mの詳細な位置を特定し、その特定結果に基づいて、自車位置認識装置100が認識する自車位置を更新補正することが必要となる。
The accuracy of the approximate position of the vehicle that can be obtained by the approximate position specifying calculation unit 7 is greatly influenced by the accuracy of the GPS receiver. For this reason, at present, an error of about several meters is included. Therefore, the approximate position specifying calculation unit 7 cannot specify the detailed position of the vehicle M in the road longitudinal direction and the road width direction.
As a result, as shown in the present application, the detailed position of the vehicle M is identified using the information stored in the map information database 8 regarding the image information G and the feature, and the vehicle position recognition is performed based on the identification result. It is necessary to update and correct the own vehicle position recognized by the apparatus 100.

概略位置特定演算部7は、画像情報取得部3のインターフェース回路12とも接続されている。このインターフェース回路12は、撮像装置2による撮像のタイミングで概略位置特定演算部7に対して信号の出力を行う。したがって、概略位置特定演算部7は、このインターフェース回路12からの信号の入力を受けたタイミングでの撮像装置2の位置を演算することにより、画像情報Gの概略の撮像位置を特定することができる。このようにして概略位置特定演算部7により求められた画像情報Gの概略の撮像位置は緯度及び経度の情報により表され、道路特徴情報取得演算部9に出力される。
この概略位置特定演算部7は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
The approximate position specifying calculation unit 7 is also connected to the interface circuit 12 of the image information acquisition unit 3. The interface circuit 12 outputs a signal to the approximate position specifying calculation unit 7 at the timing of imaging by the imaging device 2. Therefore, the approximate position specifying calculation unit 7 can specify the approximate image pickup position of the image information G by calculating the position of the image pickup device 2 at the timing when the signal input from the interface circuit 12 is received. . Thus, the approximate imaging position of the image information G obtained by the approximate position specifying calculation unit 7 is expressed by latitude and longitude information, and is output to the road feature information acquisition calculation unit 9.
The approximate position specifying calculation unit 7 is configured such that a function unit for performing various processes on input data is implemented by hardware and / or software using an arithmetic processing unit such as a CPU as a core member. It has.

道路特徴情報取得演算部9は、概略位置特定演算部7及び地図情報データベース8と接続されている。
図5は、地図情報データベース8に格納されている地図情報の内容を示す説明図である。この図に示すように、本実施形態に係る地図情報データベース8には、地図情報として、道路ネットワークレイヤL1、道路形状レイヤL2、地物レイヤL3が格納されている。
道路ネットワークレイヤL1は、道路11間の接続情報を示すレイヤである。具体的には、緯度及び経度で表現された地図上の位置情報を有する多数のノードNの情報と、2つのノードNを連結して道路11を構成する多数のリンクLの情報とを有して構成されている。また、各リンクLは、そのリンク情報として、道路11の種別(高速道路、有料道路、国道、県道等の種別)やリンク長さ等の情報を有している。
道路形状レイヤL2は、道路ネットワークレイヤL1に関連付けられて格納され、道路11の形状を示すレイヤである。具体的には、2つのノードNの間(リンクL上)に配置されて緯度及び経度で表現された地図上の位置情報を有する多数の道路形状補完点Sの情報と、各道路形状補完点Sにおける道路幅Wの情報とを有して構成されている。
The road feature information acquisition calculation unit 9 is connected to the approximate position specification calculation unit 7 and the map information database 8.
FIG. 5 is an explanatory diagram showing the contents of the map information stored in the map information database 8. As shown in this figure, the map information database 8 according to this embodiment stores a road network layer L1, a road shape layer L2, and a feature layer L3 as map information.
The road network layer L1 is a layer indicating connection information between the roads 11. Specifically, it has information on a large number of nodes N having position information on a map expressed by latitude and longitude, and information on a large number of links L that constitute the road 11 by connecting the two nodes N. Configured. Each link L includes information such as the type of road 11 (type of highway, toll road, national road, prefectural road, etc.) and link length as link information.
The road shape layer L2 is stored in association with the road network layer L1 and indicates the shape of the road 11. Specifically, information on a number of road shape complementary points S that are located between two nodes N (on the link L) and have position information on the map expressed in latitude and longitude, and each road shape complementary point Information of the road width W in S.

地物レイヤL3は、道路ネットワークレイヤL1及び道路形状レイヤL2に関連付けられて格納され、道路11上及び道路11の周辺に設けられた各種地物の情報を示すレイヤである。この地物レイヤL3に格納する地物情報としては、少なくとも、この自車位置認識補正部103において認識対象物となり得る地物に関する位置、形状、色彩等の情報が格納されている。本実施形態においては、具体的には、道路11の路面に設けられたペイント表示P、道路11に隣接する走行不可能領域I、道路11上に設けられた各種の標識15や信号機16等の各種地物について、道路形状補完点S又はノードNを基準とした地図上の位置、並びに形状及び色彩等の地物情報を有して構成されている。   The feature layer L3 is a layer that is stored in association with the road network layer L1 and the road shape layer L2, and indicates information on various features provided on the road 11 and in the vicinity of the road 11. As the feature information stored in the feature layer L3, at least information on the position, shape, color, and the like related to the feature that can be a recognition target in the vehicle position recognition correction unit 103 is stored. Specifically, in the present embodiment, the paint display P provided on the road surface of the road 11, the non-travelable area I adjacent to the road 11, various signs 15 and traffic lights 16 provided on the road 11, etc. The various features are configured to have the location information on the map with reference to the road shape complementary point S or the node N, and the feature information such as the shape and color.

ここで、ペイント表示Pには、例えば、車線を分ける区画線(実線、破線、二重線等の区画線の種類の情報も含む。)、ゼブラゾーン、各レーンの進行方向を指定する進行方向別通行区分表示、停止線、横断歩道、横断歩道予告(横断歩道あり)、転回禁止、速度表示等が含まれる。走行不可能領域Iには、例えば、道路11に隣接する路肩、歩道、分離帯等が含まれる。   Here, the paint display P includes, for example, lane markings that divide the lane (including information on the types of lane markings such as solid lines, broken lines, and double lines), zebra zones, and traveling directions that specify the traveling direction of each lane. Includes separate traffic classification display, stop line, pedestrian crossing, pedestrian crossing notice (with pedestrian crossing), turn prohibition, speed display, etc. The travel impossible area I includes, for example, a shoulder, a sidewalk, a separation zone, etc. adjacent to the road 11.

なお、地図情報データベース8は、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウエア構成として備えている。   The map information database 8 is an apparatus having a recording medium capable of storing information and its driving means, such as a hard disk drive, a DVD drive with a DVD-ROM, a CD drive with a CD-ROM, and the like. Is provided as a hardware configuration.

そして、道路特徴情報取得演算部9は、概略位置特定演算部7により特定された画像情報Gの撮像位置を示す緯度及び経度の情報に基づいて、地図情報データベース8に格納されている地図情報から、画像情報Gの撮像位置周辺の地物に関する道路特徴情報Cを取得するための演算を行う。ここでは、道路特徴情報取得演算部9は、画像情報Gの撮像位置周辺の、少なくとも撮像装置2による撮像領域を含む領域内に含まれる地物の位置、形状、色彩等の地物情報を、道路特徴情報Cとして地図情報データベース8の地物レイヤL3から抽出する演算処理を行う。   Then, the road feature information acquisition calculation unit 9 calculates from the map information stored in the map information database 8 based on the latitude and longitude information indicating the imaging position of the image information G specified by the approximate position specification calculation unit 7. Then, a calculation is performed to acquire road feature information C relating to features around the imaging position of the image information G. Here, the road feature information acquisition calculation unit 9 obtains feature information such as the position, shape, color, and the like of features included in an area including at least the imaging area of the imaging device 2 around the imaging position of the image information G. A calculation process for extracting the road feature information C from the feature layer L3 of the map information database 8 is performed.

この道路特徴情報取得演算部9は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
本実施形態においては、この道路特徴情報取得演算部9が、本発明における「道路特徴情報取得手段」を構成する。
This road feature information acquisition calculation unit 9 has a functional unit for performing various processes on input data as hardware or software, or both, with an arithmetic processing unit such as a CPU as a core member. It has a configuration.
In the present embodiment, the road feature information acquisition calculation unit 9 constitutes “road feature information acquisition means” in the present invention.

画像情報認識演算部10は、画像情報Gの認識処理を行い、画像情報Gの中に含まれる認識対象物の画像を認識するための演算を行う。本実施形態においては、画像情報認識演算部10は、画像情報取得部3の画像メモリ14及び道路特徴情報取得演算部9と接続されており、道路特徴情報取得演算部9により取得された道路特徴情報Cを用いて画像情報Gの認識処理を行う。
また、画像情報認識演算部10において画像認識を行う認識対象物は、上述したペイント表示P、走行不可能領域I、及び各種の標識15や信号機16等の地物レイヤL3に地物情報として格納されている地物に対応するものとする。
The image information recognition calculation unit 10 performs a recognition process of the image information G and performs a calculation for recognizing an image of a recognition target included in the image information G. In the present embodiment, the image information recognition calculation unit 10 is connected to the image memory 14 and the road feature information acquisition calculation unit 9 of the image information acquisition unit 3, and the road feature acquired by the road feature information acquisition calculation unit 9. Recognition processing of the image information G is performed using the information C.
In addition, a recognition object for which image recognition is performed in the image information recognition calculation unit 10 is stored as feature information in the above-described paint display P, the travel impossible region I, and the feature layer L3 such as various signs 15 and traffic lights 16. Corresponding to the feature being made.

この画像情報認識演算部10は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
本実施形態においては、この画像情報認識演算部10が、本発明における「画像情報認識手段」を構成する。
The image information recognition calculation unit 10 has a functional unit for performing various processes on input data as hardware or software, or both, with an arithmetic processing unit such as a CPU as a core member. It has.
In the present embodiment, the image information recognition calculation unit 10 constitutes “image information recognition means” in the present invention.

画像情報認識演算部10における道路特徴情報Cを用いた画像情報Gの認識処理の具体的方法として、この車両位置認識装置1では、画像情報Gに含まれる一のフレームを対象とする場合、以下の2つの方法をそれぞれ単独で或いはこれらを組み合わせて用いる。
一の画像認識処理方法は、画像情報Gから認識対象物の画像候補を抽出して道路特徴情報Cと対比し、道路特徴情報Cとの整合性が高い画像候補を認識対象物の画像として認識する処理方法である。
他の画像認識処理方法は、道路特徴情報Cに基づいて画像情報G中における認識対象物の画像が存在する領域を推測し、その推測結果に基づいて、認識対象物の画像が存在すると推測される領域内では認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して、画像情報Gの中から認識対象物の画像を認識する処理方法である。
これら2つの画像認識処理方法は、何れも、単一フレーム内にある画像情報にも適応可能な画像認識処理方法であり、本発明の「第一認識処理」に相当する。
As a specific method for recognizing the image information G using the road feature information C in the image information recognition calculation unit 10, in the vehicle position recognition device 1, when one frame included in the image information G is targeted, These two methods are used alone or in combination.
One image recognition processing method extracts an image candidate of a recognition object from the image information G, compares it with the road feature information C, and recognizes an image candidate having high consistency with the road feature information C as an image of the recognition object. It is a processing method to do.
In another image recognition processing method, an area where an image of a recognition object exists in the image information G is estimated based on the road feature information C, and it is estimated that an image of the recognition object exists based on the estimation result. In this processing method, the recognition algorithm is adjusted so that the criterion for determining whether or not the object is a recognition object is lower than in other areas, and the image of the recognition object is recognized from the image information G.
These two image recognition processing methods are both image recognition processing methods applicable to image information in a single frame, and correspond to the “first recognition processing” of the present invention.

さらに、区画線である実線と破線との識別認識に関しては、上記の手法により実線若しくは破線と認識された認識対象物の画像に関して、単位時間に取り込まれる連続する複数のフレーム間に渡って、同一と認められる個々の認識対象物を順次抽出・追跡し、認識処理において、連続するフレーム間で同一と認められる区画線に関し、破断部が認められる場合にその当該区画線を破線と認識し、破断部が認められない場合に実線と認識する。
この画像認識処理方法は、複数のフレームに亘って得られる画像情報を対象とするものであり、本発明の「第二認識処理」に相当する。
Further, regarding the recognition and recognition between the solid line and the broken line, which are lane markings, the same image is recognized between a plurality of consecutive frames captured in a unit time with respect to the image of the recognition object recognized as a solid line or a broken line by the above method. In the recognition process, if a broken part is recognized in the recognition process, the recognition line is recognized as a broken line. If the part is not recognized, it is recognized as a solid line.
This image recognition processing method targets image information obtained over a plurality of frames, and corresponds to the “second recognition processing” of the present invention.

本実施形態においては、後にフローチャートを用いて説明するように、画像情報認識演算部10は、これらの認識処理方法を組み合わせて、道路11の路面に設けられたペイント表示Pと、道路11に隣接する走行不可能領域Iとを認識する処理を行う。そのため、この画像情報認識演算部10は、ペイント表示認識演算部10a、道路特徴情報照合部10b、領域推測部10c、及び走行不可能領域認識部10dを備えている。   In the present embodiment, as will be described later with reference to a flowchart, the image information recognition calculation unit 10 combines these recognition processing methods, and paint display P provided on the road surface of the road 11 and adjacent to the road 11. The process which recognizes the driving | running | working impossible area I to perform is performed. Therefore, the image information recognition calculation unit 10 includes a paint display recognition calculation unit 10a, a road feature information matching unit 10b, an area estimation unit 10c, and an untravelable area recognition unit 10d.

車両位置特定演算部17は、道路特徴情報取得演算部9で取得された道路特徴情報Cと、画像情報認識演算部10で認識された認識対象物の画像の画像情報G中の配置とに基づいて、車両Mの走行中の道路11内における詳細な位置を特定するための演算を行う。そのため、本実施形態においては、車両Mの道路長手方向と車両Mの道路幅方向との両方の詳細な位置を特定する演算処理を行う。
本実施形態においては、後にフローチャートを用いて説明するように、車両位置特定演算部17は、画像情報認識演算部10により認識された1又は2以上の認識対象物の画像の画像情報G中の配置と、道路特徴情報Cに含まれる1又は2以上の認識対象物に対応する物の位置情報とを対比して、画像情報Gの撮像位置を詳細に特定することにより、車両Mの道路長手方向及び車両Mの道路幅方向の詳細な位置を特定する演算処理を行う。そして、このような演算処理により求められた車両Mの詳細な位置が、新たな自車の位置として更新補正される。そのため、この車両位置特定演算部17は、配置情報抽出部17a、対比演算部17b、撮像位置特定部17c及び自車位置認識補正部17dを備えている。
The vehicle position specifying calculation unit 17 is based on the road feature information C acquired by the road feature information acquisition calculation unit 9 and the arrangement in the image information G of the image of the recognition target recognized by the image information recognition calculation unit 10. Thus, a calculation for specifying a detailed position in the road 11 on which the vehicle M is traveling is performed. For this reason, in the present embodiment, a calculation process for specifying the detailed positions of both the road longitudinal direction of the vehicle M and the road width direction of the vehicle M is performed.
In the present embodiment, as will be described later with reference to a flowchart, the vehicle position specifying calculation unit 17 includes the image information G in the image of one or more recognition objects recognized by the image information recognition calculation unit 10. By comparing the arrangement and the position information of the object corresponding to one or more recognition objects included in the road feature information C, the imaging position of the image information G is specified in detail, and the road length of the vehicle M A calculation process for specifying the direction and the detailed position of the vehicle M in the road width direction is performed. Then, the detailed position of the vehicle M obtained by such calculation processing is updated and corrected as a new position of the own vehicle. Therefore, the vehicle position specification calculation unit 17 includes an arrangement information extraction unit 17a, a comparison calculation unit 17b, an imaging position specification unit 17c, and a host vehicle position recognition correction unit 17d.

この車両位置特定演算部17は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。   The vehicle position specifying calculation unit 17 has a configuration in which a function unit for performing various processes on input data is implemented by hardware and / or software using an arithmetic processing unit such as a CPU as a core member. It has.

次に、撮像装置2により撮像された画像情報の認識結果と地図情報から取得した道路特徴情報Cとに基づいて、走行不可能領域Iの特定、車両Mの走行中の道路11内における詳細な位置を特定し、自車位置を更新補正する処理の具体例について、図6〜8に示すフローチャートを用いて詳細に説明する。   Next, based on the recognition result of the image information imaged by the imaging device 2 and the road feature information C acquired from the map information, the specification of the non-travelable area I and the details of the road 11 on which the vehicle M is traveling are detailed. A specific example of the process of specifying the position and updating and correcting the vehicle position will be described in detail with reference to the flowcharts shown in FIGS.

図6に示すように、自車位置認識補正部103は、まず、撮像装置2により撮像された画像情報Gを取り込む処理を行う(ステップ#61)。具体的には、車載カメラ等からなる撮像装置2により撮像した画像情報Gをインターフェース回路12を介して画像前処理回路13及び画像メモリ14に送る処理を行う。またこの際、インターフェース回路12は、撮像装置2からの画像情報Gの取り込みのタイミングで、すなわち撮像装置2による撮像のタイミングとほぼ同じタイミングで、概略位置特定演算部7に対して信号の出力を行う。この信号は概略位置特定演算部7に対して撮像のタイミングを知らせるための信号である。   As shown in FIG. 6, the own vehicle position recognition correction unit 103 first performs a process of capturing image information G captured by the imaging device 2 (step # 61). Specifically, the image information G captured by the imaging device 2 including an in-vehicle camera is transmitted to the image preprocessing circuit 13 and the image memory 14 via the interface circuit 12. At this time, the interface circuit 12 outputs a signal to the approximate position specifying arithmetic unit 7 at the timing of capturing the image information G from the imaging device 2, that is, at almost the same timing as the timing of imaging by the imaging device 2. Do. This signal is a signal for informing the approximate position specifying calculation unit 7 of the imaging timing.

画像情報Gの入力を受けた画像前処理回路13では、画像情報Gに対する前処理を行う(ステップ#62)。ここで行う前処理としては、例えば、二値化処理やエッジ検出処理等の画像情報認識演算部10による画像認識を容易にするための各種の処理を行う。図9(a)は、撮像装置2により撮像された画像情報G(G1)の一例であり、図9(b)は、(a)に示された画像情報Gに対して前処理を行った後の画像情報G(G2)の一例である。この図9(b)に示す例では、エッジ検出処理により画像情報Gとして撮像された物の輪郭を示す画像が抽出されている。そして、このステップ#62において前処理が行われた後の画像情報G2、及びインターフェース回路12から直接送られてきた画像情報G1を画像メモリ14に格納する(ステップ#63)。   In response to the input of the image information G, the image preprocessing circuit 13 performs preprocessing on the image information G (step # 62). As preprocessing performed here, for example, various processes for facilitating image recognition by the image information recognition calculation unit 10 such as binarization processing and edge detection processing are performed. FIG. 9A is an example of the image information G (G1) imaged by the imaging device 2, and FIG. 9B is a preprocess for the image information G shown in FIG. It is an example of back image information G (G2). In the example shown in FIG. 9B, an image showing the outline of an object captured as image information G by the edge detection process is extracted. Then, the image information G2 after the preprocessing in step # 62 and the image information G1 sent directly from the interface circuit 12 are stored in the image memory 14 (step # 63).

また、ステップ#62及び#63の処理と並行して、概略位置特定演算部7では、画像情報Gの概略の撮像位置を求める処理を行う(ステップ#64)。具体的には、インターフェース回路12から画像情報Gの取り込みのタイミングを示す信号が出力された時に、それを撮像装置2による撮像のタイミングとして、GPS受信機4、方位センサ5及び距離センサ6に基づいて車両Mの概略の現在位置を求める演算を行う。そして、これにより求められた車両Mの概略の現在位置を画像情報Gの概略の撮像位置とする。ここで求められた概略の撮像位置の情報は、緯度及び経度の情報として道路特徴情報取得演算部9に送られる。   In parallel with the processes of steps # 62 and # 63, the approximate position specifying calculation unit 7 performs a process for obtaining an approximate imaging position of the image information G (step # 64). Specifically, when a signal indicating the timing of capturing the image information G is output from the interface circuit 12, it is used as the timing of imaging by the imaging device 2 based on the GPS receiver 4, the azimuth sensor 5, and the distance sensor 6. To calculate the approximate current position of the vehicle M. Then, the approximate current position of the vehicle M obtained in this way is set as the approximate imaging position of the image information G. The information of the approximate imaging position obtained here is sent to the road feature information acquisition calculation unit 9 as latitude and longitude information.

次に、道路特徴情報取得演算部9において、地図情報データベース8に格納されている地図情報から画像情報Gの撮像位置周辺の地物に関する道路特徴情報Cを取得する処理を行う(ステップ#65)。この際、道路特徴情報取得演算部9は、地図情報データベース8に格納されている広範囲の地図情報の中から、ステップ#64において求められた概略の撮像位置の周辺の一定範囲R内の道路特徴情報Cを抽出して取得する。ここで、概略の撮像位置周辺の一定範囲Rとしては、撮像装置2により画像情報Gとして撮像される領域を少なくとも含むように設定すると好適である。   Next, the road feature information acquisition calculation unit 9 performs a process of acquiring the road feature information C related to the features around the imaging position of the image information G from the map information stored in the map information database 8 (step # 65). . At this time, the road feature information acquisition calculation unit 9 selects a road feature within a certain range R around the approximate imaging position obtained in step # 64 from a wide range of map information stored in the map information database 8. Information C is extracted and acquired. Here, it is preferable that the fixed range R around the approximate imaging position is set so as to include at least a region imaged as the image information G by the imaging device 2.

図10は、道路特徴情報取得演算部9により取得された道路特徴情報Cの一例を図形化して示したものである。本例では、道路特徴情報Cに含まれる地物としては、ペイント表示Pとして、片側3車線の道路11の車道の外縁を示す2本の実線の区画線P1a、P1bと、3車線の間を区切る2本の破線の区画線P2a、P2bと、3車線に設けられた走行方向通行区分P3とがある。また、走行不可能領域Iとして、道路11の右側に隣接する歩道I1と、道路11の左側に隣接する中央分離帯I2とがある。なお、この図10は単なる一例であり、画像情報Gの撮像位置によって様々な地物が道路特徴情報Cに含まれることになる。   FIG. 10 shows an example of the road feature information C acquired by the road feature information acquisition calculation unit 9 in a graphic form. In this example, the features included in the road feature information C include, as the paint display P, between the two lane lines P1a and P1b indicating the outer edge of the roadway of the three-lane road 11 and between the three lanes. There are two broken lane markings P2a and P2b and a traveling direction passage segment P3 provided in three lanes. Further, as the non-travelable area I, there are a sidewalk I1 adjacent to the right side of the road 11 and a central separation zone I2 adjacent to the left side of the road 11. FIG. 10 is merely an example, and various features are included in the road feature information C depending on the imaging position of the image information G.

この道路特徴情報Cの内容は、これらの各地物の位置情報、形状情報及び色彩情報により構成されている。ここで、各地物の位置情報は、道路形状補完点S(交差点等のノードNが存在する場所ではノードN(図5参照)も含む。)を基準とする位置情報により表される。すなわち、例えば、ペイント表示Pのうちの実線の区画線P1a、P1bや破線の区画線P2a、P2b、或いは走行不可能領域Iの歩道I1や中央分離帯I2等の道路11に沿って設けられている地物については、道路形状補完点S(又はノードN)からの距離(オフセット量)のみにより表される。一方、例えば、道路11に沿って設けられない走行方向通行区分P3や、停止線、標識等の地物については、特定の道路形状補完点S(又はノードN)からの距離及び方向により位置情報を表される。
各地物の形状情報は、上記位置情報により求められる位置を基準として縦、横、高さ方向にそれぞれどれだけの大きさを有し、どのような形状(シルエット)を備えているか等の情報を有する。この形状情報は、画像情報Gとの対比が容易となるように簡略化して表された情報とすると好適である。
各地物の色彩情報は、例えば道路標識等の一様な色彩でない地物の場合には、上記形状情報の中の領域毎に色彩情報が格納された情報とすると好適である。
The content of the road feature information C is composed of position information, shape information, and color information of these various features. Here, the position information of each feature is represented by position information based on a road shape complementing point S (including a node N (see FIG. 5) where a node N such as an intersection is present). That is, for example, it is provided along roads 11 such as solid lane markings P1a and P1b and broken lane markings P2a and P2b of the paint display P, or a sidewalk I1 and a median I2 in the non-running region I. The existing feature is represented only by the distance (offset amount) from the road shape complement point S (or node N). On the other hand, for example, with respect to features such as a travel direction passage section P3 that is not provided along the road 11 and features such as stop lines and signs, the positional information is based on the distance and direction from the specific road shape complement point S (or node N). Is represented.
The shape information of each feature includes information such as what size and shape (silhouette) each has in the vertical, horizontal, and height directions based on the position obtained from the position information. Have. It is preferable that the shape information is simplified and expressed so as to be easily compared with the image information G.
The color information of each feature is preferably information in which color information is stored for each region in the shape information in the case of a non-uniform color feature such as a road sign.

次に、画像情報認識演算部10において、画像情報Gの認識処理を行い、画像情報Gの中に含まれる認識対象物の画像を認識する処理を行う(ステップ#66)。本実施形態においては、画像情報Gに含まれる地物の画像の中で、ペイント表示Pと走行不可能領域I(特に歩道I1)を認識対象物としている。そして、この認識対象物の画像認識処理として、認識が比較的容易なペイント表示Pの画像認識を行った後、それに基づいて認識アルゴリズムを調整して、ペイント表示Pより認識が困難な走行不可能領域Iの画像認識を行う処理としている。このような画像情報Gの認識処理の具体例を図7のフローチャートに示す。
なお、走行不可能領域Iの画像認識がペイント表示Pの画像認識より困難であるのは、ペイント表示Pは、道路11の路面との輝度や色彩の差が大きく画像認識が比較的容易であるのに対して、路肩、歩道、分離帯等の走行不可能領域Iは、道路11やその周囲との輝度や色彩の差が小さいためにエッジ検出等によっても輪郭を特定することが困難な場合が多いからである。
Next, the image information recognition calculation unit 10 performs a process of recognizing the image information G, and performs a process of recognizing the image of the recognition object included in the image information G (step # 66). In the present embodiment, among the images of the features included in the image information G, the paint display P and the untravelable area I (particularly the sidewalk I1) are used as recognition objects. Then, as the image recognition processing of the recognition target object, after the image recognition of the paint display P that is relatively easy to recognize, the recognition algorithm is adjusted based on the recognition, and it is difficult to travel more difficult than the paint display P. Processing for performing image recognition of the region I is performed. A specific example of such image information G recognition processing is shown in the flowchart of FIG.
Note that the image recognition of the untravelable area I is more difficult than the image recognition of the paint display P. The paint display P has a large difference in luminance and color from the road surface of the road 11, and the image recognition is relatively easy. On the other hand, in the non-travelable region I such as a shoulder, a sidewalk, and a separation zone, it is difficult to specify an outline even by edge detection or the like because a difference in luminance and color between the road 11 and its surroundings is small. Because there are many.

この画像情報Gの認識処理では、図7に示すように、まず、画像情報認識演算部10のペイント表示認識演算部10aにおいて、画像情報Gの中に含まれるペイント表示Pの可能性がある画像候補を抽出する処理を行う(ステップ#71)。具体的には、図9(b)に示されるようにエッジ検出処理等の前処理を行った後の画像情報G2の中から、区画線等のペイント表示Pの特徴を表すテンプレート等の予め規定された特徴データと整合性が高い画像を抽出し、それをペイント表示Pの画像候補とする処理を行う。図10に示す例では、図9(b)、右側の実線の区画線の画像GP1a、右側の破線の区画線の画像GP2a、左側の破線の区画線の画像GP2b、外側にある歩道の縁石の画像GI1a、左側の実線の区画線の画像GP1b、及び走行方向進行区分の画像GP3がペイント表示Pの画像候補として抽出される。   In the recognition processing of the image information G, as shown in FIG. 7, first, in the paint display recognition calculation unit 10 a of the image information recognition calculation unit 10, an image having the possibility of the paint display P included in the image information G. Processing for extracting candidates is performed (step # 71). Specifically, as shown in FIG. 9B, a template or the like that represents the characteristics of the paint display P such as lane markings is specified in advance from the image information G2 after the preprocessing such as the edge detection processing. An image that is highly consistent with the feature data that has been extracted is extracted and used as an image candidate for the paint display P. In the example shown in FIG. 10, FIG. 9 (b), the right solid line image GP1a, the right broken line image GP2a, the left broken line image GP2b, the sidewalk curb on the outside The image GI1a, the solid line image GP1b on the left side, and the traveling direction image GP3 are extracted as image candidates for the paint display P.

その後、画像情報認識演算部10の道路特徴情報照合部10bにおいて、ステップ#71で抽出されたペイント表示Pの画像候補と、ステップ#65で取得された道路特徴情報Cの中のペイント表示Pに関する情報とを対比する(ステップ#72)。そして、この対比の結果、位置関係、形状、及び色彩や輝度等の各情報についての整合性が高い画像候補を抽出し、抽出された画像候補をペイント表示Pの画像と認識する(ステップ#73)。図10のペイント表示Pに関する道路特徴情報Cに基づいて、実線及び破線の区画線P1a、P1b、P2a、P2bの位置関係(間隔)、これらの区画線P1a、P1b、P2a、P2bと走行方向通行区分P3との位置関係、並びにこれらの区画線P1a、P1b、P2a、P2b及び走行方向通行区分P3の形状及び色彩や輝度等がわかる。したがって、これらの道路特徴情報Cと整合性が高い画像情報G中のペイント表示Pの画像候補を抽出することで、ペイント表示Pの可能性が高い画像候補のみを抽出することができる。図10に示す例の場合、このステップ#73の処理により、左側の実線の区画線の画像GP1aの外側にある歩道の縁石の画像GI1aが除外される。そして、このように抽出された画像候補をペイント表示Pの画像と認識する。なお、ペイント表示Pの画像候補の色彩や輝度等の情報は、画像メモリ14に格納されている前処理が行われていない画像情報Gから取得することができる。
図11(a)は、画像情報Gからステップ#73の処理により抽出されたペイント表示Pの画像のみを表した図である。
Thereafter, in the road feature information matching unit 10b of the image information recognition calculation unit 10, the image candidates of the paint display P extracted in step # 71 and the paint display P in the road feature information C acquired in step # 65. The information is compared (step # 72). Then, as a result of this comparison, image candidates having high consistency with respect to the positional relationship, shape, and information such as color and brightness are extracted, and the extracted image candidates are recognized as images of the paint display P (step # 73). ). Based on the road feature information C related to the paint display P in FIG. The positional relationship with the section P3 and the shape, color, brightness, and the like of the partition lines P1a, P1b, P2a, P2b and the traveling direction passage section P3 are known. Therefore, by extracting the image candidates of the paint display P in the image information G having high consistency with the road feature information C, it is possible to extract only the image candidates that are highly likely to be the paint display P. In the case of the example shown in FIG. 10, the image GI1a of the curb on the sidewalk outside the image GP1a of the left solid line is excluded by the process of step # 73. The extracted image candidate is recognized as an image of the paint display P. Note that information such as the color and brightness of the image candidate of the paint display P can be acquired from the image information G stored in the image memory 14 and not subjected to preprocessing.
FIG. 11A shows only the image of the paint display P extracted from the image information G by the process of step # 73.

次に、認識されたペイント表示Pの画像を基準として、画像情報Gと道路特徴情報Cとの照合を行う(ステップ#74)。すなわち、画像情報G中における認識されたペイント表示Pの画像の位置と、道路特徴情報Cに含まれるペイント表示Pの位置とが合致するように対応付けることにより、道路特徴情報Cに含まれる各地物の情報と画像情報Gに含まれる画像とを対応付けることが可能になる。この対応付けにおいて、実線GP1a,GP1bと破線GP2a,GP2bとの識別に際しては、順次取得されている画像情報Gの複数のフレームの画像に関して、連続する複数のフレーム間に渡って、同一と認められる個々の認識対象物GP1a,GP1b,GP2a,GP2bを順次抽出・追跡し、認識処理において、連続するフレーム間で同一と認められる区画線GP1a,GP1b,GP2a,GP2bに関し、破断部が認められる場合にその当該区画線を破線GP2a,GP2bと認識し、破断部が認められない場合に実線GP1a,GP1bと認識する。
この識別手法に関して、図9(a),図13に基づいて説明する。図9(a)は、これまで説明してきたように、現在認識の対象としている画像情報Gであり、図13は、図9(a)に示されるように数フレーム前の画像情報Gである。両者間で、走行車線の変更は行われていない。両図を比較すると、実線GP1a,GP1bに関しては、その画像がほぼ同一の位置に連続する白線として認められるのに対して、破線GP2a,GP2bでは、破断部GSの位置を異ならせて、ほぼ同一の位置に撮影される破断状態にある白線となる。従って、車両が走行状態にあると、画像の特定高さ位置において画像横断方向の輝度を、複数フレームに渡って、区画線毎に追跡すると実線には破断部が出現することはなく、破線には順次破断部GSが出現する。そこで、このような識別処理により実線GP1a,GP1bと破線GP2a,GP2bとをさらに正確に識別することができる。
Next, the image information G and the road feature information C are collated with reference to the recognized image of the paint display P (step # 74). In other words, by associating the position of the recognized image of the paint display P in the image information G with the position of the paint display P included in the road feature information C so as to match, the various features included in the road feature information C Can be associated with the image included in the image information G. In this association, when identifying the solid lines GP1a and GP1b and the broken lines GP2a and GP2b, the images of a plurality of frames of the image information G acquired sequentially are recognized to be the same over a plurality of consecutive frames. When individual recognition objects GP1a, GP1b, GP2a, GP2b are sequentially extracted and tracked, and in the recognition process, a broken portion is recognized with respect to the partition lines GP1a, GP1b, GP2a, GP2b that are recognized to be the same between consecutive frames. The partition lines are recognized as broken lines GP2a and GP2b, and are recognized as solid lines GP1a and GP1b when a broken portion is not recognized.
This identification method will be described with reference to FIGS. FIG. 9A shows the image information G that is currently recognized as described above, and FIG. 13 shows the image information G several frames before as shown in FIG. 9A. . There is no change in the driving lane between the two. Comparing the two figures, the solid lines GP1a and GP1b are recognized as white lines continuing at substantially the same position, whereas the broken lines GP2a and GP2b are substantially the same by changing the positions of the broken portions GS. The white line in a broken state is photographed at the position. Therefore, when the vehicle is in a running state, when the luminance in the image crossing direction is tracked for each lane line over a plurality of frames at a specific height position of the image, no broken portion appears in the solid line, and the broken line appears. The rupture part GS appears sequentially. Thus, the solid lines GP1a and GP1b and the broken lines GP2a and GP2b can be more accurately identified by such identification processing.

そして、道路11に沿って設けられている区画線GP1a、GP2a等の地物を基準とすることにより道路11の幅方向の位置関係を正確に対応付けることができ、道路11に沿って設けられない走行方向通行区分P3や、図示しない停止線、標識等の地物を基準とすることにより道路11に沿った長手方向の位置関係を正確に対応付けることができる。   The positional relationship in the width direction of the road 11 can be accurately associated by using the features such as the lane markings GP1a and GP2a provided along the road 11, and the road 11 is not provided along the road 11. The positional relationship in the longitudinal direction along the road 11 can be accurately associated by using the traveling direction passage section P3 and features such as stop lines and signs (not shown) as references.

その後、画像情報認識演算部10の領域推測部10cにおいて、ステップ#74における道路特徴情報Cと画像情報Gとの照合結果に基づいて、画像情報G中における走行不可能領域Iの画像が存在する領域を推測する処理を行う(ステップ#75)。すなわち、上記のステップ#74における画像情報Gと道路特徴情報Cとの照合結果に基づけば、画像情報Gの中におけるペイント表示Pや走行不可能領域Iを含む各地物の画像の配置が推測可能である。そこで、道路特徴情報Cに含まれる走行不可能領域Iの位置及び形状に対応する画像情報G中の領域を、ステップ#74における照合結果から推測する演算を行う。そして、このステップ#75の処理の結果として演算される領域を、走行不可能領域Iの画像が存在する領域と推測する。   Thereafter, in the region estimation unit 10c of the image information recognition calculation unit 10, there is an image of the untravelable region I in the image information G based on the result of collation between the road feature information C and the image information G in step # 74. A process of estimating the area is performed (step # 75). That is, based on the collation result between the image information G and the road feature information C in the above step # 74, it is possible to guess the arrangement of the images of the various features including the paint display P and the untravelable area I in the image information G. It is. Therefore, a calculation is performed to estimate the region in the image information G corresponding to the position and shape of the non-travelable region I included in the road feature information C from the collation result in step # 74. Then, the area calculated as a result of the process of step # 75 is estimated as the area where the image of the untravelable area I exists.

本実施形態においては、図11(b)に示すように、画像情報Gとして撮像された画像範囲を、ステップ#73の処理により認識されたペイント表示Pの中の区画線P1a、P1b、P2a、P2bに基づいて、区画線P1a、P1b、P2a、P2bのそれぞれが属する領域A1〜A4と、これらの領域A1〜A4により分割された領域A5〜A8とに簡易的に区分している。そして、それぞれの領域A5〜A8が走行不可能領域Iを含むか否かという判断をステップ#74における照合結果に基づいて行うことにより、走行不可能領域Iの画像が存在する領域を推測する処理を行う。ここでは、図11(b)に示されるように、道路特徴情報Cに基づいて、道路11の両側の実線の区画線P1aの外側に走行不可能領域I(歩道I1)が存在していると判断することができるので、当該道路11の実線の区画線P1a、が属する領域A1の外側の領域A5内に走行不可能領域Iの画像が存在すると推測できる(ステップ#75)。   In the present embodiment, as shown in FIG. 11 (b), the image range captured as the image information G is divided into lane markings P1a, P1b, P2a in the paint display P recognized by the process of step # 73. Based on P2b, the area is simply divided into areas A1 to A4 to which each of the division lines P1a, P1b, P2a, and P2b belongs and areas A5 to A8 divided by these areas A1 to A4. Then, by determining whether each of the areas A5 to A8 includes the travel impossible area I based on the collation result in step # 74, a process for estimating the area where the image of the travel impossible area I exists. I do. Here, as shown in FIG. 11B, based on the road feature information C, it is assumed that there is a non-travelable area I (sidewalk I1) outside the solid line P1a on both sides of the road 11. Since it can be determined, it can be inferred that the image of the untravelable area I exists in the area A5 outside the area A1 to which the solid line P1a of the road 11 belongs (step # 75).

次に、ステップ#75の推測結果に基づいて、画像情報認識演算部10の走行不可能領域認識部10dにおける認識アルゴリズムを調整し(ステップ#76)、画像情報Gの中に含まれる走行不可能領域Iの画像の認識を行う(ステップ#77)。
本実施形態においては、ステップ#75において走行不可能領域Iの画像が存在すると推測された領域A5内について、走行不可能領域Iであるか否かの判断基準が他の領域(ここでは領域A6〜A8)よりも低くなるように認識アルゴリズムを調整する。すなわち、上述のとおり、歩道I1、路肩等の走行不可能領域Iは、道路11やその周囲との輝度や色彩の差が小さいためにエッジ検出等によっても輪郭を特定することが困難な場合が多く、ペイント表示Pよりも画像認識が一般的に困難である。そこで、走行不可能領域Iの画像が存在すると推測された領域A5について、他の領域よりも走行不可能領域Iと認識しやすくする方向に認識アルゴリズムを調整することにより、走行不可能領域Iの認識率を高めることができる。
なお、走行不可能領域Iであるか否かの判断基準が他の領域よりも低くなるように認識アルゴリズムを調整するためには、走行不可能領域Iの画像が存在すると推測された領域A5における判断基準を他の領域に対して低くする方法の他に、他の領域の判断基準を領域A5に対して高くする方法や、領域A5における判断基準を他の領域に対して低くするとともに他の領域の判断基準を領域A5に対して高くする方法等がある。この認識アルゴリズムの具体的な調整方法は、走行不可能領域Iの認識方法に応じた方法とする。
Next, based on the estimation result of Step # 75, the recognition algorithm in the non-running region recognition unit 10d of the image information recognition calculation unit 10 is adjusted (Step # 76), and the non-running included in the image information G is not possible. The image in the area I is recognized (step # 77).
In the present embodiment, in the area A5 in which it is estimated that the image of the untravelable area I exists in step # 75, the criterion for determining whether or not the non-travelable area I is another area (here, the area A6). The recognition algorithm is adjusted to be lower than ~ A8). That is, as described above, it is difficult to specify the contour of the non-travelable area I such as the sidewalk I1 and the road shoulder by edge detection or the like because the brightness and color difference between the road 11 and the surrounding area is small. In many cases, image recognition is generally more difficult than paint display P. Therefore, by adjusting the recognition algorithm for the area A5 in which the image of the untravelable area I is estimated to exist so that it can be recognized as the unrunnable area I more than the other areas, The recognition rate can be increased.
In order to adjust the recognition algorithm so that the criterion for determining whether or not the vehicle is in the non-travelable region I is lower than that in the other regions, the region A5 in which the image of the non-driveable region I is estimated to exist exists. In addition to a method for lowering the criterion for other regions, a method for increasing the criterion for other regions relative to the region A5, a method for lowering the criterion for the region A5 relative to other regions, and other For example, there is a method of raising the determination criterion of the region with respect to the region A5. The specific adjustment method of this recognition algorithm is a method according to the recognition method of the travel impossible area I.

例えば、本実施形態においては、走行不可能領域Iの画像の認識アルゴリズムとして、画像情報Gに対してエッジ検出処理を行い、道路11の幅方向の各位置におけるエッジ点数を検出し、このエッジ点数が所定のしきい値以上となっている場所が走行不可能領域Iであると認識するアルゴリズムとしている。そして、この際のしきい値として、図12に示すように、低い値に設定された第一しきい値t1と、高い値に設定された第二しきい値t2とを用いている。すなわち、走行不可能領域Iの画像が存在すると推測された領域A5内では第一しきい値t1を用い、それ以外の領域A6〜A8内では第二しきい値t2を用いることにより、走行不可能領域Iの画像が存在すると推測された領域A5内について、走行不可能領域Iであるか否かの判断基準が他の領域A6〜A8よりも低くなるように認識アルゴリズムを調整している。   For example, in the present embodiment, as the recognition algorithm for the image of the untravelable area I, edge detection processing is performed on the image information G, the number of edge points at each position in the width direction of the road 11 is detected, and the number of edge points is detected. This is an algorithm for recognizing that a place where is equal to or greater than a predetermined threshold is the travel impossible region I. As the threshold value at this time, as shown in FIG. 12, a first threshold value t1 set to a low value and a second threshold value t2 set to a high value are used. That is, the first threshold value t1 is used in the area A5 where it is estimated that the image of the untravelable area I exists, and the second threshold value t2 is used in the other areas A6 to A8. The recognition algorithm is adjusted so that the criterion for determining whether or not it is the non-travelable region I is lower than the other regions A6 to A8 in the region A5 where it is estimated that the image of the possible region I exists.

図12は、図11に示す画像情報Gについて、道路11の幅方向の各位置におけるエッジ点数を検出した結果を示すグラフである。この図に示すように、領域A1〜A4は、区画線P1a、P1b、P2a、P2bが存在するのでエッジ点数は多くなっているが、これらの領域A1〜A4は走行不可能領域Iの画像認識の対象とはならない。領域A6、A7、A8は、走行方向進行区分P3が存在する位置以外はアスファルトの路面のみであるので全体的にエッジ点数は少なくなる。
一方、領域A5は、エッジ点数はある程度多くなっている。結論からいうと、領域A5は歩道I1といった走行不可能領域Iが存在することによりエッジ点数が多くなる。しかし、エッジ点数のみからそれが走行不可能領域Iであるか否かを判断することは困難である。
FIG. 12 is a graph showing the result of detecting the number of edge points at each position in the width direction of the road 11 for the image information G shown in FIG. As shown in this figure, the areas A1 to A4 have a large number of edge points because there are lane markings P1a, P1b, P2a, and P2b, but these areas A1 to A4 are image recognition of the untravelable area I. It is not subject to. Since the areas A6, A7, and A8 are only the asphalt road surface except the position where the traveling direction traveling section P3 exists, the number of edge points is reduced as a whole.
On the other hand, the area A5 has a certain number of edge points. In conclusion, the area A5 has a large number of edge points due to the presence of the non-travelable area I such as the sidewalk I1. However, it is difficult to determine whether or not it is the non-running region I from only the number of edge points.

そこで、ステップ#75の推測結果に基づいて、走行不可能領域Iの画像が存在すると推測された領域A5内については、走行不可能領域Iであると判断するしきい値を低い値に設定された第一しきい値t1とし、その他の領域A6〜A8内については、走行不可能領域Iであると判断するしきい値を高い値に設定された第二しきい値t2としている。これにより、ステップ#75の推測結果に基づいて、走行不可能領域Iの画像が存在すると推測された領域A5内で走行不可能領域Iの検出漏れを減らすとともに、それ以外の領域A6〜A8内で走行不可能領域Iと誤検出することを防止できる。したがって、走行不可能領域Iの認識率を高めることができる。これらの第一しきい値t1及び第二しきい値t2の値は、実験的及び統計的に適切な値を求めるとよい。また、これらの第一しきい値t1及び第二しきい値t2の値を、画像情報Gから抽出される他の情報や車両Mに搭載された他のセンサからの信号等に基づいて変化する可変値とすることも好適な実施形態の一つである。   Therefore, based on the estimation result of step # 75, the threshold value for determining the non-travelable region I is set to a low value in the region A5 where the image of the non-travelable region I is estimated to exist. In the other areas A6 to A8, the threshold value for determining that the vehicle is in the non-travelable area I is set to a second threshold value t2 set to a high value. Thereby, based on the estimation result of step # 75, the detection omission of the non-runnable area I is reduced in the area A5 where the image of the non-runnable area I is estimated to exist, and in the other areas A6 to A8 Thus, erroneous detection of the travel impossible region I can be prevented. Therefore, the recognition rate of the travel impossible area I can be increased. The values of the first threshold value t1 and the second threshold value t2 may be determined appropriately experimentally and statistically. Further, the values of the first threshold value t1 and the second threshold value t2 change based on other information extracted from the image information G, signals from other sensors mounted on the vehicle M, and the like. A variable value is also one preferred embodiment.

以上のようにして、画像情報認識演算部10において画像情報Gの認識処理を行うことにより、画像情報G中に含まれる認識対象物としてのペイント表示Pと走行不可能領域Iの画像が認識される。図11に示す画像情報Gの例では、図11(b)に示すように、区画線P1a、P1b、P2a、P2bの画像GP1a、GP1b、GP2a、GP2b、走行方向通行区分P3の画像Gp3、区画線P1aの画像GP1aの右側の歩道I1の画像GI1がそれぞれ認識されることになる。この認識処理において、特に区画線である実線と破線とに認識を正確に行えることが、本願に係る地物認識装置100の信頼性の向上に大きく寄与するが、本願にあっては、走行速度が低い場合は、画像認識処理を行わない構成が採用されるため、装置の信頼性が大幅に向上する。   As described above, the image information recognition calculation unit 10 performs the recognition processing of the image information G, whereby the paint display P as the recognition target object included in the image information G and the image of the travel impossible region I are recognized. The In the example of the image information G shown in FIG. 11, as shown in FIG. 11 (b), the images GP1a, GP1b, GP2a, GP2b of the lane markings P1a, P1b, P2a, P2b, the image Gp3 of the traveling direction passage section P3, the section The image GI1 of the sidewalk I1 on the right side of the image GP1a of the line P1a is recognized. In this recognition processing, the ability to accurately recognize solid lines and broken lines, which are lane markings, greatly contributes to improving the reliability of the feature recognition apparatus 100 according to the present application. Is low, the configuration in which the image recognition process is not performed is adopted, so that the reliability of the apparatus is greatly improved.

次に、車両位置特定演算部17において、図6に示すように、ステップ#65により取得された道路特徴情報Cと、ステップ#66により認識された認識対象物の画像の画像情報G中の配置とに基づいて、車両Mの走行中の道路11内における詳細な位置を特定し自車位置を更新補正する処理を行う(ステップ#67)。本実施形態においては、ステップ#66により認識された認識対象物の画像の画像情報G中の配置と、ステップ#65により取得された道路特徴情報Cに含まれる前記認識対象物に対応する物の位置情報とを対比して、画像情報Gの撮像位置を詳細に特定することにより、車両Mの道路長手方向及び車両Mの道路幅方向の詳細な位置を特定する演算処理を行う。   Next, as shown in FIG. 6, the vehicle position specifying calculation unit 17 arranges the road feature information C acquired at step # 65 and the image of the recognition target image recognized at step # 66 in the image information G. Based on the above, a detailed position in the road 11 on which the vehicle M is traveling is specified and a process for updating and correcting the own vehicle position is performed (step # 67). In the present embodiment, the arrangement in the image information G of the image of the recognition object recognized in step # 66 and the object corresponding to the recognition object included in the road feature information C acquired in step # 65. By comparing the position information with the imaging position of the image information G in detail, a calculation process is performed to specify the detailed position of the vehicle M in the road longitudinal direction and the vehicle M in the road width direction.

このような車両Mの詳細な位置を特定する処理の具体例を図8のフローチャートに示す。この処理では、まず、車両位置特定演算部17の配置情報抽出部17aにおいて、ステップ#66で認識された各認識対象物の画像情報G中の配置情報を抽出する(ステップ#81)。ここでは、認識対象物の画像情報G中の配置情報としては、各認識対象物の画像情報G中における位置の情報と、それに対応する各認識対象物の形状及び色彩等の情報とが含まれる。図9に示す画像情報Gの例では、図9(a),図14に示すように、認識対象物として、区画線P1a、P1b、P2a、P2bの画像GP1a、GP1b、GP2a、GP2b、走行方向通行区分P3の画像GP3、歩道I1の画像GI1が認識されているので、このステップ#81では、これらの認識対象物についての画像情報G中の配置情報が抽出される。   A specific example of the process for specifying the detailed position of the vehicle M is shown in the flowchart of FIG. In this process, first, the arrangement information extraction unit 17a of the vehicle position specifying calculation unit 17 extracts arrangement information in the image information G of each recognition object recognized in step # 66 (step # 81). Here, the arrangement information in the image information G of the recognition target includes information on the position of each recognition target in the image information G and information on the shape and color of each recognition target corresponding thereto. . In the example of the image information G shown in FIG. 9, as shown in FIGS. 9A and 14, as recognition objects, the images GP1a, GP1b, GP2a, GP2b of the lane markings P1a, P1b, P2a, P2b, the traveling direction Since the image GP3 of the traffic section P3 and the image GI1 of the sidewalk I1 are recognized, the arrangement information in the image information G for these recognition objects is extracted in step # 81.

次に、車両位置特定演算部17の対比演算部17bにおいて、ステップ#81により抽出された各認識対象物の画像情報G中の配置情報と、ステップ#65により取得された道路特徴情報Cとを対比する処理を行う(ステップ#82)。ここでは、各認識対象物の画像情報G中の配置情報と、道路特徴情報C中に含まれる各地物の配置とを対比し、整合性が高い画像情報G中の認識対象物の画像と道路特徴情報C中の地物の情報とを対応付ける処理を行う。これにより、画像情報G中の各認識対象物の画像が、道路特徴情報C中のどの地物の画像であって、道路特徴情報Cにより表される道路11上のどの位置に配置されているかを特定することができる。   Next, in the comparison calculation unit 17b of the vehicle position specifying calculation unit 17, the arrangement information in the image information G of each recognition object extracted in step # 81 and the road feature information C acquired in step # 65. Comparison processing is performed (step # 82). Here, the arrangement information in the image information G of each recognition object is compared with the arrangement of each feature included in the road feature information C, and the image of the recognition object in the image information G with high consistency and the road A process for associating the feature information in the feature information C with each other is performed. Thereby, the image of each recognition object in the image information G is an image of which feature in the road feature information C and at which position on the road 11 represented by the road feature information C. Can be specified.

その後、車両位置特定演算部17の撮像位置特定部17cにおいて、画像情報Gの撮像位置を詳細に特定する処理を行う(ステップ#83)。図14は、この処理の手順を模式的に表した図である。すなわち、この撮像位置を詳細に特定する処理は、ステップ#82の対比結果に基づいて、画像情報G中の各認識対象物の画像の配置と整合する画像情報Gの撮像位置を、道路特徴情報C中の位置に対応させて、道路11の道路長手方向及び道路幅方向に詳細に特定することにより行う。   Thereafter, the imaging position specifying unit 17c of the vehicle position specifying calculation unit 17 performs processing for specifying the imaging position of the image information G in detail (step # 83). FIG. 14 is a diagram schematically showing the procedure of this processing. That is, the process of specifying the imaging position in detail is based on the comparison result of step # 82, and the imaging position of the image information G that matches the layout of the image of each recognition object in the image information G is determined based on the road feature information. Corresponding to the position in C, it is performed by specifying in detail in the road longitudinal direction and road width direction of the road 11.

そこで、画像情報Gの認識結果に基づいて画像情報Gの撮像位置を特定する際の演算処理方法について具体的に説明する。
まず、道路長手方向の撮像位置を特定する場合は、区画線や歩道等とは異なり、道路11に沿って設けられない走行方向通行区分、停止線、標識、信号機等の認識対象物の画像を基準とすることにより道路11に沿った方向、すなわち道路長手方向の撮像位置を詳細に特定することができる。すなわち、画像情報G中における、これらの道路11に沿って設けられていない認識対象物の画像の配置を解析すると、図14に示す例では、走行方向通行区分の画像GP3があることがわかる。ここで、撮像装置2は車両Mに所定の高さで所定の撮像方向となるように固定されていることから、走行方向通行区分の画像GP3の画像情報G中の配置、特に高さ方向の配置に基づいて、撮像位置から走行方向通行区分P3までの距離Dを算出することができる。この時、図14に示す例では、矢印である走行方向通行区分P3の先端に設定される測定点FCに注目して、距離Dが算出される。この注目点FCの絶対位置は、その緯度・経度情報として地図情報データベース8に格納されている。これにより、画像情報Gの撮像位置を道路長手方向に詳細に特定することができる。図14に示す例では、この画像情報Gの撮像位置はB1位置と特定されている。
Therefore, a specific description will be given of a calculation processing method for specifying the imaging position of the image information G based on the recognition result of the image information G.
First, when specifying the imaging position in the longitudinal direction of the road, unlike lane markings and sidewalks, images of recognition objects such as travel direction traffic sections, stop lines, signs, traffic lights, etc. that are not provided along the road 11 are used. By using as a reference, it is possible to specify in detail the imaging position in the direction along the road 11, that is, in the longitudinal direction of the road. That is, when the arrangement of the images of the recognition objects that are not provided along the road 11 in the image information G is analyzed, it can be seen that there is an image GP3 of the traveling direction passage section in the example shown in FIG. Here, since the imaging device 2 is fixed to the vehicle M so as to be in a predetermined imaging direction at a predetermined height, the arrangement in the image information G of the image GP3 of the traveling direction passage section, particularly in the height direction Based on the arrangement, the distance D from the imaging position to the travel direction passage section P3 can be calculated. At this time, in the example shown in FIG. 14, the distance D is calculated by paying attention to the measurement point FC set at the tip of the traveling direction passage section P3, which is an arrow. The absolute position of the attention point FC is stored in the map information database 8 as latitude / longitude information. Thereby, the imaging position of the image information G can be specified in detail in the road longitudinal direction. In the example shown in FIG. 14, the imaging position of this image information G is specified as the B1 position.

道路幅方向の位置を特定する場合、画像情報G中の各認識対象物の画像の配置を解析すると、画像情報Gの中心から、左側に破線の区画線の画像GP2aがあり、右側に実線の区画線の画像GP1aがあることがわかる。また、この実線の区画線の画像GP1aの左側には歩道の画像GI1があり、更に、左側の破線の区画線の画像GP2aと右側の実線の区画線の画像GP1aとの間には、走行方向通行区分の画像GP3がある。これらの各認識対象物の画像は、ステップ#82の処理により道路特徴情報Cに含まれる各地物の情報と対応付けられているので、画像情報G中の上記の各認識対象物の画像の配置の解析結果に基づけば、道路幅方向の撮像位置は、図14に示されている道路特徴情報C中において、3車線の道路11の右側車線(B1位置が存在する車線)内に撮像位置があると特定することができる。また、実線の区画線の画像GP1a又は破線の区画線の画像GP2aの画像情報G中の配置、特に幅方向の配置に基づけば、左側車線内の左寄り又は右寄り等の更に詳細な位置も特定することが可能である。   When specifying the position in the road width direction, when analyzing the arrangement of the images of each recognition object in the image information G, there is a broken line GP2a on the left side from the center of the image information G, and a solid line on the right side. It can be seen that there is a marking line image GP1a. Further, there is a sidewalk image GI1 on the left side of the solid lane line image GP1a. Further, there is a traveling direction between the broken line lane line image GP2a on the left side and the solid line lane line image GP1a on the right side. There is a traffic classification image GP3. Since these images of the respective recognition objects are associated with the information on the various features included in the road feature information C by the processing of step # 82, the arrangement of the images of the respective recognition objects in the image information G is arranged. In the road feature information C shown in FIG. 14, the imaging position in the road width direction is the imaging position in the right lane of the three-lane road 11 (the lane in which the B1 position exists). Can be identified. Further, based on the arrangement in the image information G of the solid line image GP1a or the broken line GP2a, particularly in the width direction, a more detailed position such as the left side or the right side in the left lane is also specified. It is possible.

なお、例えば、画像情報Gの撮像位置が、図14のB2位置のように3車線の道路11の中央車線にある場合には、画像情報Gの中心から両側に破線の区画線P2a、P2bの画像が認識されることなる。また、例えば、画像情報Gの撮像位置が、図14のB3位置のように3車線の道路11の右側車線にある場合には、画像情報Gの中心から、右側に破線の区画線P2bの画像が、左側に実線の区画線P1bの画像がそれぞれ認識されることなる。
本願にあっては、実線の区画線P1a、P1bと破線の区画線P2a、P2bとの識別認識が重要であるが、車両が停止している、あるいは極低速で走行している状態では、認識処理自体を行わない構成を採用しているため、実線及び破線の識別認識を信頼性の高い状態で実行することができる。
For example, when the imaging position of the image information G is in the central lane of the three-lane road 11 as in the B2 position in FIG. 14, the broken line P2a and P2b on both sides from the center of the image information G The image will be recognized. Further, for example, when the imaging position of the image information G is in the right lane of the three-lane road 11 as in the B3 position in FIG. 14, the image of the broken line P2b on the right side from the center of the image information G However, the image of the solid dividing line P1b is recognized on the left side.
In the present application, it is important to recognize and distinguish between the solid lane markings P1a and P1b and the dashed lane markings P2a and P2b. However, in the state where the vehicle is stopped or traveling at a very low speed, it is recognized. Since the configuration in which the processing itself is not performed is adopted, the solid line and the broken line can be identified and recognized with high reliability.

以上の演算処理により、画像情報Gの撮像位置を道路長手方向及び道路幅方向の双方について詳細に特定することができる。そして、撮像装置2は、車両Mに搭載されているので、この特定された撮像位置を、車両Mの詳細な位置であると特定する(ステップ#84)。そして、このようにして特定された車両Mの位置が、確度の高い位置として詳細な自車位置の更新補正に使用される(ステップ#85)。   With the above arithmetic processing, the imaging position of the image information G can be specified in detail in both the road longitudinal direction and the road width direction. And since the imaging device 2 is mounted in the vehicle M, this specified imaging position is specified as the detailed position of the vehicle M (step # 84). Then, the position of the vehicle M specified in this way is used as a highly accurate position for detailed correction of the own vehicle position (step # 85).

以上に説明したステップ#61〜#67の一連の処理工程は、所定の時間間隔で繰り返し行われる。これにより、走行中の車両Mの詳細な位置特定をリアルタイムで常時行うことができる。   The series of processing steps of steps # 61 to # 67 described above are repeatedly performed at predetermined time intervals. Thereby, the detailed position specification of the vehicle M that is traveling can always be performed in real time.

また、車両位置特定演算部17による詳細な車両位置の特定結果は、例えば、図示しない車両Mの走行制御装置やナビゲーション装置等へ出力され、レーンキープ等の車両Mの操舵や車速等の走行制御に用いられ、或いはナビゲーション装置における詳細な自車位置の表示等に用いられる。   The detailed vehicle position specifying result by the vehicle position specifying calculation unit 17 is output to, for example, a travel control device or a navigation device of the vehicle M (not shown), and travel control of the vehicle M such as a lane keep or the vehicle speed. Or used for display of a detailed vehicle position in a navigation device.

〔第二の実施形態〕
次に、第二の実施形態について図面に基づいて説明する。図15は、この実施形態に係る自車位置認識補正部103のハードウエア構成の概略を示すブロック図である。この例の場合も、車両が停止している場合、或は、極めて低速で走行している場合は、自車位置認識補正部103における処理が行われることはない。
本実施形態に係る自車位置認識補正部103は、道路特徴情報取得演算部9において地図情報から画像情報Gの撮像位置周辺の地物に関する道路特徴情報Cを、道路11の車線毎に異なる複数の位置を基準とする車線別道路特徴情報C´として取得し、各車線別道路特徴情報C´のそれぞれについて、画像情報G中の前記地物に対応する認識対象物の配置と対比することにより、車両Mの車線位置(自車両の位置の一種)を特定する点で、上記第一の実施形態とは異なる。
また、本実施形態に係る自車位置認識補正部103は、車両Mの進路に関する車両Mからの情報や車両Mの過去の走行経路に関する情報を取得して車両Mの車線位置を推測する車両位置推測演算部18を備え、これによる推測結果を用いて車両Mの車線位置の特定を行う点でも、上記第一の実施形態とは異なる。
[Second Embodiment]
Next, a second embodiment will be described based on the drawings. FIG. 15 is a block diagram showing an outline of the hardware configuration of the vehicle position recognition correction unit 103 according to this embodiment. Also in this example, when the vehicle is stopped or when traveling at a very low speed, the processing in the vehicle position recognition correction unit 103 is not performed.
The own vehicle position recognition correction unit 103 according to the present embodiment includes a plurality of different road feature information C regarding the features around the imaging position of the image information G from the map information in the road feature information acquisition calculation unit 9 for each lane of the road 11. Lane-specific road feature information C ′ based on the position of each lane, and for each lane-specific road feature information C ′, contrast with the arrangement of the recognition object corresponding to the feature in the image information G The point of specifying the lane position of the vehicle M (a kind of position of the host vehicle) is different from the first embodiment.
In addition, the vehicle position recognition correction unit 103 according to the present embodiment acquires information from the vehicle M regarding the route of the vehicle M and information regarding the past travel route of the vehicle M to estimate the lane position of the vehicle M. It differs from said 1st embodiment also by the point which is provided with the estimation calculating part 18, and specifies the lane position of the vehicle M using the estimation result by this.

図15に示すように、本実施形態に係る自車位置認識補正部103は、主たる構成として、上記第一の実施形態において説明した構成に加えて、車両位置推測演算部18を更に備えている。この車両位置推測演算部18は、車両Mの進路に関する車両Mからの情報を取得する車両情報取得部19、及び車両Mの過去の走行経路に関する情報を取得して記憶している過去経路記憶部20と接続されており、これらの車両情報取得部19及び過去経路記憶部20からの情報に基づいて、車両Mの車線の位置を推測する演算処理を行う。そして、この車両位置推測演算部18による推測結果は、道路特徴情報取得演算部9に出力されて車線別道路特徴情報C´の取得のための処理に用いられる。   As shown in FIG. 15, the own vehicle position recognition correction unit 103 according to the present embodiment further includes a vehicle position estimation calculation unit 18 in addition to the configuration described in the first embodiment as a main configuration. . The vehicle position estimation calculation unit 18 includes a vehicle information acquisition unit 19 that acquires information from the vehicle M regarding the route of the vehicle M, and a past route storage unit that acquires and stores information related to past travel routes of the vehicle M. 20 is connected, and based on the information from the vehicle information acquisition unit 19 and the past route storage unit 20, a calculation process for estimating the position of the lane of the vehicle M is performed. And the estimation result by this vehicle position estimation calculating part 18 is output to the road characteristic information acquisition calculating part 9, and is used for the process for acquisition of road characteristic information C 'according to lane.

車両情報取得部19は、本実施形態においては、運転操作検知部21、GPS受信機4、方位センサ5、及び距離センサ6と接続さている。ここで、GPS受信機4、方位センサ5、及び距離センサ6は、既に説明した概略位置特定演算部7に接続されているものと共用しており、これらの出力が車両情報取得部19へも出力されるような構成としている。これにより、車両情報取得部19は、車両Mの移動方向、移動距離、ハンドル操作等の情報を取得することができる。
また、運転操作検知部21は、運転者による運転操作、例えば方向指示器の操作やハンドル操作(方位センサ5の構成として設けられている場合は重複するため除く。)、アクセル操作、ブレーキ操作等を検知するセンサ等により構成され、その検知結果も車両情報取得部19へ出力される。
In this embodiment, the vehicle information acquisition unit 19 is connected to the driving operation detection unit 21, the GPS receiver 4, the direction sensor 5, and the distance sensor 6. Here, the GPS receiver 4, the azimuth sensor 5, and the distance sensor 6 are shared with those already connected to the approximate position specifying calculation unit 7, and these outputs are also transmitted to the vehicle information acquisition unit 19. It is configured to output. Thereby, the vehicle information acquisition part 19 can acquire information, such as a moving direction of the vehicle M, a moving distance, and steering wheel operation.
Further, the driving operation detection unit 21 is a driving operation by the driver, for example, operation of a direction indicator or steering wheel operation (excluded because they are duplicated when provided as a configuration of the direction sensor 5), accelerator operation, brake operation, and the like. The detection result is also output to the vehicle information acquisition unit 19.

そして、車両情報取得部19は、これら車両の各部から取得した車両情報を総合して、車両Mの進路に関する情報を作成し、その情報を車両位置推測演算部18及び過去経路記憶部20へ出力する。この車両Mの進路に関する情報は、具体的には、車両Mの進路変更の有無及びその角度等の情報となる。
この車両情報取得部19は、このような演算処理を行うためのCPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
And the vehicle information acquisition part 19 produces | generates the information regarding the course of the vehicle M combining the vehicle information acquired from each part of these vehicles, and outputs the information to the vehicle position estimation calculating part 18 and the past route memory | storage part 20 To do. Specifically, the information regarding the course of the vehicle M is information such as whether or not the course of the vehicle M has been changed and its angle.
The vehicle information acquisition unit 19 has a functional unit for performing various processes on input data using a calculation processing device such as a CPU for performing such calculation processing as a core member. Or it has the structure mounted by both.

過去経路記憶部20は、車両情報取得部19から出力された車両Mの進路に関する情報を、車両Mの移動距離や移動時間等の情報と関連付けて車両Mの過去の走行経路に関する情報として記憶する処理を行う。そして、この過去経路記憶部20に記憶された車両Mの過去の走行経路に関する情報は、車両位置推測演算部18からの命令信号等に応じて、車両位置推測演算部18へ出力される。
この過去経路記憶部20は、このような演算処理を行うための演算処理装置及びその演算結果を記憶するメモリを中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
The past route storage unit 20 stores information related to the route of the vehicle M output from the vehicle information acquisition unit 19 in association with information such as the travel distance and travel time of the vehicle M as information related to the past travel route of the vehicle M. Process. Information relating to the past travel route of the vehicle M stored in the past route storage unit 20 is output to the vehicle position estimation calculation unit 18 in accordance with a command signal from the vehicle position estimation calculation unit 18.
The past path storage unit 20 includes a calculation processing device for performing such calculation processing and a memory for storing the calculation result as a core member, and a functional unit for performing various processing on input data. It has a configuration implemented in hardware and / or software.

また、本実施形態に係る自車位置認識補正部103は、道路特徴情報取得演算部9が、車線情報取得部9a及び車線別道路特徴情報取得演算部9bを備えている点、並びに、車両位置特定演算部17が、配置情報抽出部17a及び撮像位置特定部17cを備えていない代わりに撮像車線特定部17eを備えている点でも、上記第一の実施形態とは異なる。これらの相違は、本実施形態に係る自車位置認識補正部103による車両位置の認識処理が、上記第一の実施形態と異なることによるものである。よって、これらの各部により行う処理については、以下にフローチャートを用いて詳細に説明する。   In addition, the vehicle position recognition correction unit 103 according to the present embodiment includes a road feature information acquisition calculation unit 9 including a lane information acquisition unit 9a and a road-specific road feature information acquisition calculation unit 9b, and a vehicle position The specific calculation unit 17 is also different from the first embodiment in that it includes an imaging lane identification unit 17e instead of the arrangement information extraction unit 17a and the imaging position identification unit 17c. These differences are due to the fact that the vehicle position recognition processing by the vehicle position recognition correction unit 103 according to the present embodiment is different from that of the first embodiment. Therefore, processing performed by each of these units will be described in detail with reference to flowcharts below.

図16は、本実施形態に係る自車位置認識補正部103により車両Mの走行中の車線位置を特定する処理の具体例を示すフローチャートである。
この図に示すように、本実施形態に係る自車位置認識補正部103は、まず、撮像装置2により撮像された画像情報Gを取り込み(ステップ#101)、画像前処理回路13で画像情報Gに対する前処理を行う(ステップ#102)。そして、このステップ#102において前処理が行われた後の画像情報G2、及びインターフェース回路12から直接送られてきた画像情報G1を画像メモリ14に格納する(ステップ#103)。また、ステップ#102及び#103の処理と並行して、概略位置特定演算部7で画像情報Gの概略の撮像位置を求める処理を行う(ステップ#104)。なお、これらのステップ#101〜#104の処理は、上記第一の実施形態についての図6のステップ#61〜#64と同様の処理であるため、詳細な説明は省略する。
FIG. 16 is a flowchart showing a specific example of the process of specifying the lane position during travel of the vehicle M by the vehicle position recognition correction unit 103 according to the present embodiment.
As shown in this figure, the vehicle position recognition / correction unit 103 according to the present embodiment first captures image information G imaged by the imaging device 2 (step # 101), and the image preprocessing circuit 13 uses the image information G. Is pre-processed (step # 102). Then, the image information G2 after the preprocessing in step # 102 and the image information G1 sent directly from the interface circuit 12 are stored in the image memory 14 (step # 103). In parallel with the processing in steps # 102 and # 103, the approximate position specifying calculation unit 7 performs processing for obtaining the approximate imaging position of the image information G (step # 104). Note that the processing of these steps # 101 to # 104 is the same as the processing of steps # 61 to # 64 in FIG. 6 for the first embodiment, and detailed description thereof will be omitted.

次に、車両位置推測演算部18において、車両Mが走行中の車線を推測する処理を行う(ステップ#105)。この車線を推測する処理は、車両情報取得部19及び過去経路記憶部20からの情報に基づいて行う。すなわち、車両情報取得部19は、車両Mの各部のセンサ等からの情報に基づいて車両Mの進路に関する情報を車両位置推測演算部18に出力する。また、過去経路記憶部20は、車両情報取得部19から出力された車両Mの進路に関する情報を、車両Mの移動距離や移動時間等の情報と関連付けて車両Mの過去の走行経路に関する情報として記憶している。したがって、車両位置推測演算部18は、車両情報取得部19及び過去経路記憶部20から、車両Mが過去に行った進路変更の回数や各進路変更の角度等の履歴及び現在の進路変更の有無の状況等の情報を得ることができる。また、車両位置推測演算部18は、車両Mが行った進路変更の角度や方向指示器の操作等から各進路変更が車線変更か否かを判断することが可能である。車両位置推測演算部18は、これらの情報に基づいて所定の判断アルゴリズムに従って走行中の車線を推測する。   Next, the vehicle position estimation calculation unit 18 performs a process of estimating the lane in which the vehicle M is traveling (step # 105). The process of estimating the lane is performed based on information from the vehicle information acquisition unit 19 and the past route storage unit 20. That is, the vehicle information acquisition unit 19 outputs information related to the course of the vehicle M to the vehicle position estimation calculation unit 18 based on information from sensors and the like of each unit of the vehicle M. The past route storage unit 20 associates the information about the route of the vehicle M output from the vehicle information acquisition unit 19 with information such as the travel distance and the travel time of the vehicle M as information about the past travel route of the vehicle M. I remember it. Therefore, the vehicle position estimation calculation unit 18 determines from the vehicle information acquisition unit 19 and the past route storage unit 20 the history of the number of course changes made by the vehicle M in the past, the angle of each course change, and the presence / absence of the current course change. The information of the situation etc. can be obtained. Further, the vehicle position estimation calculation unit 18 can determine whether or not each route change is a lane change from an angle of a route change performed by the vehicle M, an operation of a direction indicator, or the like. Based on these pieces of information, the vehicle position estimation calculation unit 18 estimates a running lane according to a predetermined determination algorithm.

この判断アルゴリズムは、例えば以下のようにすることができる。すなわち、例えば、車両Mが走行を開始したときの車線は最も左側の車線であると推測する。また、その状態から車両Mが車線変更に該当する進路変更を右方向にn回行った場合には、左からn番目の車線にいると推測することができる(nは自然数)。更に、その状態から車両Mが車線変更に該当する進路変更を左方向にm回行った場合には、左から(n−m)番目の車線にいると推測することができる(mは自然数)。この際、(n−m)がゼロ又は負の値となった場合には、推測した車線が誤っていたことになるので、そのときの車線を最も左側の車線と推測するように修正を行う。この場合も、区画線認識を伴った実線の区画線と破線の区画線の識別認識が重要な役割を果す。
以上の判断アルゴリズムは単なる一例であり、車両位置推測演算部18における判断アルゴリズムはこれ以外にも、様々なアルゴリズムを用いることが可能である。
This determination algorithm can be performed as follows, for example. That is, for example, it is estimated that the lane when the vehicle M starts traveling is the leftmost lane. Moreover, when the vehicle M performs the course change corresponding to the lane change n times in the right direction from the state, it can be estimated that the vehicle M is in the nth lane from the left (n is a natural number). Furthermore, when the vehicle M has made a course change corresponding to the lane change m times in the left direction, it can be estimated that the vehicle M is in the (n−m) th lane from the left (m is a natural number). . At this time, if (nm) becomes zero or a negative value, the estimated lane is incorrect, so that the lane at that time is corrected to be the leftmost lane. . Also in this case, the identification recognition of the solid lane line and the broken lane line with the lane line recognition plays an important role.
The above determination algorithm is merely an example, and various other algorithms can be used as the determination algorithm in the vehicle position estimation calculation unit 18.

その後、ステップ#105による推測結果に基づいて、道路特徴情報取得演算部9において車両Mが走行中と推測された車線についての車線別道路特徴情報C´を取得する処理を行う(ステップ#106)。ここでは、まず車線情報取得部9aにより、地図情報データベース8からステップ#104において特定された概略の撮像位置の周辺の道路11の車線数を含む車線情報を取得し、次に、取得された車線情報に基づいて、ステップ#105による推測結果として推測された車線についての車線別道路特徴情報C´を、車線別道路特徴情報取得演算部9bにより取得する処理を行う。後述するステップ#108では、取得された車線別道路特徴情報C´について画像情報Gとの対比を行うので、車線別道路特徴情報C´を取得する順序をステップ#105による推測結果に基づいて決定することにより、車線別道路特徴情報C´の対比の順序も決定することになる。   Thereafter, based on the estimation result in step # 105, the road feature information acquisition calculation unit 9 performs processing for acquiring road-specific road feature information C ′ for the lane in which the vehicle M is estimated to be traveling (step # 106). . Here, the lane information acquisition unit 9a first acquires lane information including the number of lanes of the road 11 around the approximate imaging position specified in step # 104 from the map information database 8, and then acquires the acquired lane. Based on the information, the lane-specific road feature information C ′ for the lane estimated as the estimation result in step # 105 is acquired by the lane-specific road feature information acquisition calculation unit 9b. In step # 108, which will be described later, the acquired road-specific road feature information C ′ is compared with the image information G, so the order of acquiring the road-specific road feature information C ′ is determined based on the estimation result in step # 105. By doing so, the contrast order of the road characteristic information C ′ for each lane is also determined.

車線別道路特徴情報C´は、地図情報データベース8に格納されている広範囲の地図情報の中から、ステップ#104において求められた概略の撮像位置の周辺の地物に関する道路特徴情報Cを、特定の車線を基準として抽出した情報である。図17は、この車線別道路特徴情報C´の一例を図形化して示した図である。この図に示すように、本例では、車線別道路特徴情報C´は、ステップ#104において特定された概略の撮像位置の周辺の道路特徴情報Cを左側車線、中央車線、及び右側車線の3つの車線毎に、各車線を基準として、当該車線及びその両側の所定範囲内に存在する地物の情報までを含む範囲で抽出したものとしている。図17の(a)は左側車線を基準とする車線別道路特徴情報C´1を、(b)は中央車線を基準とする車線別道路特徴情報C´2を、(c)は右側車線を基準とする車線別道路特徴情報C´3をそれぞれ示している。なお、この図17に示す道路11の全体の地物の配置は図10に示す例と同じである。   The lane-specific road feature information C ′ specifies the road feature information C related to the features around the approximate imaging position obtained in step # 104 from a wide range of map information stored in the map information database 8. It is the information extracted on the basis of the lane. FIG. 17 is a diagram showing an example of the road-specific road characteristic information C ′. As shown in this figure, in this example, the road feature information C ′ for each lane is the road feature information C around the approximate imaging position specified in step # 104, which is 3 for the left lane, the center lane, and the right lane. For each lane, each lane is used as a reference and is extracted in a range including information on the lane and information on features existing in a predetermined range on both sides thereof. 17A shows road characteristic information C′1 by lane based on the left lane, FIG. 17B shows road characteristic information C′2 by lane based on the center lane, and FIG. 17C shows the right lane. The lane-specific road feature information C′3 as a reference is shown. The arrangement of the entire features on the road 11 shown in FIG. 17 is the same as the example shown in FIG.

次に、画像情報認識演算部10において、画像情報Gの認識処理を行い、画像情報Gの中に含まれる前記地物に対応する認識対象物の画像を認識する処理を行う(ステップ#107)。この処理は、上記第一の実施形態についての図6のステップ#66と同様の処理であるため、詳細な説明は省略する。   Next, the image information recognition calculation unit 10 performs a process of recognizing the image information G, and performs a process of recognizing the image of the recognition object corresponding to the feature included in the image information G (step # 107). . Since this process is the same process as step # 66 of FIG. 6 for the first embodiment, detailed description thereof is omitted.

その後、車両位置特定演算部17の対比演算部17bにおいて、ステップ#107により認識された認識対象物の画像を含む画像情報Gと、ステップ#106により取得された車線別道路特徴情報C´とを対比する処理を行う(ステップ#108)。本実施形態においては、車線別道路特徴情報C´を、画像情報Gと対比可能な情報の形式に変換する処理を行い、変換後の車線別道路特徴情報C´と画像情報Gとを対比して整合性が高いか否かの判断を行うこととする。ここで、車線別道路特徴情報C´の変換処理として、ここでは、図に示すように、車線別道路特徴情報C´を、その車線別道路特徴情報C´が基準とする車線のほぼ中央を撮像位置としたときに撮像されると考えられる画像情報に対応する配置となるように車線別道路特徴情報C´に含まれる各地物を配置したデータに変換する処理とする。図18に示す例では、(a)は図17(a)に示す左側車線を基準とする車線別道路特徴情報C´1を変換したデータであり、(b)は図17(b)に示す中央車線を基準とする車線別道路特徴情報C´2を変換したデータであり、(c)は図17(c)に示す右側車線を基準とする車線別道路特徴情報C´3を変換したデータである。   Thereafter, in the contrast calculation unit 17b of the vehicle position specifying calculation unit 17, the image information G including the image of the recognition object recognized in step # 107 and the road-specific road characteristic information C ′ acquired in step # 106 are obtained. Comparison processing is performed (step # 108). In the present embodiment, the lane-specific road feature information C ′ is converted into an information format that can be compared with the image information G, and the converted lane-specific road feature information C ′ is compared with the image information G. Therefore, it is determined whether or not the consistency is high. Here, as shown in the figure, as the conversion processing of the road feature information C ′ by lane, as shown in the figure, the road feature information C ′ by lane is set to approximately the center of the lane based on the road feature information C ′ by lane. It is assumed that the processing is converted into data in which each feature included in the road characteristic information C ′ for each lane is arranged so that the arrangement corresponds to the image information that is considered to be imaged when the imaging position is set. In the example shown in FIG. 18, (a) is data obtained by converting road-specific road feature information C′1 based on the left lane shown in FIG. 17 (a), and (b) is shown in FIG. 17 (b). This is data obtained by converting road-specific road characteristic information C′2 based on the central lane, and (c) is data obtained by converting road-specific road characteristic information C′3 based on the right lane shown in FIG. It is.

このような変換処理を行うことにより、画像情報G中の認識対象物の画像の配置と、車線別道路特徴情報C´に含まれる当該認識対象物に対応する各地物の配置とを容易に対比することができる。この対比の処理は、具体的には、画像情報G中の各認識対象物の画像の位置並びに各認識対象物の画像の形状及び色彩等と、車線別道路特徴情報C´に含まれる前記認識対象物に対応する各地物の位置並びにその形状及び色彩等の情報とを対比して、整合性が高いか否かの判断を行う。例えば、画像情報Gが図9に示す例のとおりである場合には、図17(a)に示される左側車線を基準とする車線別道路特徴情報C´1が、車線の両側の区画線P1a、P2a、走行方向通行区分P3、及び歩道I1の位置、形状及び色彩等について画像情報Gと整合する。   By performing such conversion processing, the arrangement of the image of the recognition object in the image information G can be easily compared with the arrangement of the various features corresponding to the recognition object included in the lane-specific road feature information C ′. can do. More specifically, the comparison processing is performed by the recognition of the position of the image of each recognition object in the image information G, the shape and color of the image of each recognition object, and the recognition included in the road-specific road feature information C ′. The position of each feature corresponding to the object and the information such as its shape and color are compared to determine whether or not the consistency is high. For example, when the image information G is as shown in the example shown in FIG. 9, the road-specific road feature information C′1 based on the left lane shown in FIG. 17A is the lane marking P1a on both sides of the lane. , P2a, the traveling direction passage section P3, and the position, shape, color, and the like of the sidewalk I1 are matched with the image information G.

そして、この対比演算部17bにおけるステップ#108の対比の結果、整合性が高い場合には(ステップ#109:yes)、車両位置特定演算部17の撮像車線特定部17bにおいて、その車線別道路特徴情報C´が基準とする車線を車両Mが走行中の車線として特定する(ステップ#110)。   If the result of the comparison in step # 108 in the comparison calculation unit 17b is high in consistency (step # 109: yes), the imaging lane identification unit 17b in the vehicle position identification calculation unit 17 uses the road-specific road feature. The lane based on the information C ′ is specified as the lane in which the vehicle M is traveling (step # 110).

一方、この対比演算部17bにおけるステップ#108の対比の結果、整合性が低い場合には(ステップ#109:no)、隣接する車線の車線別道路特徴情報C´を地図情報データベース8から取得する処理を行う(ステップ#106)。ここで、隣接する車線の車線別道路特徴情報C´を取得するのは、ステップ#105による推測結果が外れていた場合であっても、それに近い車線を車両Mが走行中である可能性が高いからである。この際、例えばステップ#108で最初に対比した車線別道路特徴情報C´が3車線のうちの中央車線を基準とするものであった場合等のように、ステップ#109の判断の結果、整合性が低い車線に隣接する、未だ対比の対象となっていない車線が両側にある場合には、例えば、左側の車線を先に対比する等のように、予め定め一定のアルゴリズムに従って決定することになる。   On the other hand, if the result of the comparison in step # 108 in the comparison calculation unit 17b is that the consistency is low (step # 109: no), the road-specific road characteristic information C ′ of the adjacent lane is acquired from the map information database 8. Processing is performed (step # 106). Here, even if the road characteristic information C ′ for each lane of the adjacent lane is acquired even if the estimation result in step # 105 is off, there is a possibility that the vehicle M is traveling in a lane close to that. Because it is expensive. At this time, as a result of the judgment in step # 109, for example, when the road characteristic information C ′ classified by lane first compared in step # 108 is based on the center lane of the three lanes, as a result of the determination, If there are lanes that are adjacent to a low-lane lane that is not yet subject to comparison, for example, the left-hand lane should be compared first, and then determined according to a predetermined algorithm. Become.

そして、ステップ#110により取得された新たな車線別道路特徴情報C´について、ステップ#108以降の処理を再度行い、ステップ#109において整合性が高いと判断されて車両Mが走行中の車線が特定されるか、或いは、車両Mが走行中の道路11の全ての車線の車線別道路特徴情報C´についてステップ#108の対比処理が行われるまで、ステップ#108〜#110の処理を繰り返し行う。この場合も、区画線認識を伴った実線の区画線と破線の区画線の識別認識が重要な役割を果す。なお、図16のフローチャートには示していないが、車両Mが走行中の道路11の全ての車線の車線別道路特徴情報C´についてステップ#108の対比処理を行った結果、整合性が高い車線別道路特徴情報C´が存在しない場合には、車線位置は不明と判断し、次の画像情報Gについて、ステップ#101〜#111の処理を実行する。
以上の処理により、車両Mが走行中の車線を特定することができる。
そして、自車線更新補正部17fは、自車線を新たに認識された詳細な車線に更新補正する(ステップ#112)。
この実施形態の場合も、区画線である自線と破線とが的確に認識され、これら区画線を渡る車線変更が行われたか否かが的確に認識されて、信頼性の高い装置とできる。
Then, with respect to the new lane-specific road feature information C ′ acquired at step # 110, the processing after step # 108 is performed again, and it is determined that the consistency is high at step # 109, and the lane in which the vehicle M is traveling is determined. Steps # 108 to # 110 are repeated until the identification process is performed or the contrast processing of step # 108 is performed for the lane-specific road feature information C ′ of all lanes of the road 11 on which the vehicle M is traveling. . Also in this case, the identification recognition of the solid lane line and the broken lane line with the lane line recognition plays an important role. Although not shown in the flowchart of FIG. 16, as a result of performing the contrast processing of step # 108 on the road feature information C ′ for each lane of all the lanes of the road 11 on which the vehicle M is traveling, the lane having high consistency is obtained. If the separate road feature information C ′ does not exist, it is determined that the lane position is unknown, and the processing of steps # 101 to # 111 is executed for the next image information G.
With the above processing, the lane in which the vehicle M is traveling can be specified.
Then, the own lane update correction unit 17f updates and corrects the own lane to the newly recognized detailed lane (step # 112).
Also in this embodiment, the own line and the broken line, which are lane markings, are accurately recognized, and whether or not the lane change across the lane markings has been accurately recognized, and a highly reliable apparatus can be obtained.

〔その他の実施形態〕
(1) 上記の実施形態では、地物の認識実行する地物認識装置としての構成と、自車位置認識装置としての構成に関して述べたが、これら装置は、地図情報を格納した地図データベースを、「地図情報格納手段」として備えるため、自車位置認識装置から得られる自車位置情報と、地図情報とを使用して、車両制御情報を生成できる構成とする場合、装置は車両制御装置とすることができる。
[Other Embodiments]
(1) In the above embodiment, the configuration as a feature recognition device that executes recognition of features and the configuration as a vehicle position recognition device have been described. However, these devices use a map database that stores map information, In order to provide as “map information storage means”, when the vehicle control information can be generated using the vehicle position information obtained from the vehicle position recognition device and the map information, the device is a vehicle control device. be able to.

(2) 上記の実施形態では、地物の認識実行する地物認識装置としての構成と、自車位置認識装置としての構成に関して述べたが、これら装置は、地図情報を格納した地図データベースを、「地図情報格納手段」として備えるため、自車位置認識装置から得られる自車位置情報と、地図情報とを使用して、ナビゲーション情報を生成できる構成とする場合、装置はナビゲーション装置とすることができる。 (2) In the above embodiment, the configuration as a feature recognition device that performs recognition of a feature and the configuration as a vehicle position recognition device have been described, but these devices use a map database that stores map information, In order to provide as "map information storage means", when the navigation information can be generated using the vehicle position information obtained from the vehicle position recognition device and the map information, the device may be a navigation device. it can.

(3) 上記の実施形態では、詳細な自車位置の特定に際して、測定点として、進行方向別通行区分の矢印先端を採用する場合を示したが、矢印先端を使用する他、矢の基端部、矢印の根元部としてもよい。即ち、任意の地物の輪郭形状の角部を選択することができる。さらに、これまでも説明してきたように、地物としては、停止線、横断歩道、横断歩道予告、転回禁止、速度表示等も使用できるが、これらにおいて、道路の進行方向に略直交する輪郭線上に測定点を設定することができる。 (3) In the above embodiment, when the detailed vehicle position is specified, the case where the arrow tip of the traveling section according to the traveling direction is adopted as the measurement point is shown, but in addition to using the arrow tip, the base end of the arrow Or the root of an arrow. That is, the corner of the contour shape of an arbitrary feature can be selected. Furthermore, as described above, as features, stop lines, pedestrian crossings, pedestrian crossing notices, turn prohibitions, speed indications, etc. can be used, but these are on contour lines that are substantially orthogonal to the direction of road travel. Measurement points can be set in

(4)上記第二の実施形態に係る車両位置認識装置1では、車両Mの詳細な位置として、車両Mが走行中の車線位置を特定する場合について説明したが、本発明はこれに限定されるものではない。例えば、道路11の幅方向に異なる複数の位置を基準とする位置毎の道路特徴情報Cとして、車線毎よりも更に細分化した位置毎に道路特徴情報Cを取得することにより、更に詳細な道路幅方向の位置を特定することが可能な構成とすることも好適な実施形態の一つである。 (4) In the vehicle position recognition device 1 according to the second embodiment described above, the case where the lane position where the vehicle M is traveling is specified as the detailed position of the vehicle M has been described, but the present invention is not limited to this. It is not something. For example, as road feature information C for each position based on a plurality of positions different in the width direction of the road 11, road feature information C is obtained for each position further subdivided than for each lane, thereby providing a more detailed road. It is also a preferred embodiment to have a configuration capable of specifying the position in the width direction.

(5)また、上記第二の実施形態に係る車両位置認識装置1では、車両Mの詳細な位置として、道路幅方向の車線位置を特定する構成について説明したが、上記第二の実施形態の構成において、上記第一の実施形態と同様に、道路11に沿って設けられない停止線、標識、信号機等の認識対象物の画像を基準とすることにより、道路11に沿った方向、すなわち道路長手方向の撮像位置を詳細に特定することができる構成とすることも好適な実施形態の一つである。 (5) In the vehicle position recognition device 1 according to the second embodiment, the configuration for specifying the lane position in the road width direction as the detailed position of the vehicle M has been described. In the configuration, as in the first embodiment, the direction along the road 11, that is, the road, is based on the image of the recognition object such as a stop line, a sign, or a traffic light that is not provided along the road 11. A configuration in which the longitudinal imaging position can be specified in detail is also one preferred embodiment.

地物の撮像情報と地図データベースに記憶された地物に関する道路特徴情報とに基づいて、地物を認識する地物認識装置において、例えば、区画線としての実線と破線とを誤って識別するような問題を発生することがない地物認識装置を得ることができた。   In a feature recognition device that recognizes a feature based on feature image pickup information and road feature information stored in the map database, for example, a solid line as a division line and a broken line are erroneously identified. It was possible to obtain a feature recognition device that would not cause any serious problems.

第一、第二の実施形態に係る認識補正制御機能のハードウエア構成の概略を示すブロック図The block diagram which shows the outline of the hardware constitutions of the recognition correction control function which concerns on 1st, 2nd embodiment 第一、第二の実施形態に係る自車位置認識補正装置における撮像装置及び回転センサの配置例を示す図The figure which shows the example of arrangement | positioning of the imaging device and rotation sensor in the own vehicle position recognition correction apparatus which concern on 1st, 2nd embodiment. 第一、第二の実施形態に係る認識補正制御処理の具体例を示すフローチャートThe flowchart which shows the specific example of the recognition correction control process which concerns on 1st, 2nd embodiment. 第一の実施形態に係る自車位置認識補正部のハードウエア構成の概略を示すブロック図The block diagram which shows the outline of the hardware constitutions of the own vehicle position recognition correction | amendment part which concerns on 1st embodiment. 第一の実施形態に係る車両位置認識装置における地図情報データベースに格納されている地図情報の内容を示す説明図Explanatory drawing which shows the content of the map information stored in the map information database in the vehicle position recognition apparatus which concerns on 1st embodiment. 第一の実施形態に係る車両位置認識装置における車両位置の認識処理の具体例を示すフローチャートThe flowchart which shows the specific example of the recognition processing of the vehicle position in the vehicle position recognition apparatus which concerns on 1st embodiment. 図6のステップ#66の処理の詳細を示すフローチャートThe flowchart which shows the detail of a process of step # 66 of FIG. 図6のステップ#67の処理の詳細を示すフローチャートThe flowchart which shows the detail of a process of step # 67 of FIG. (a):撮像装置により撮像された画像情報の一例、(b):(a)に示された画像情報に対して前処理を行った後の画像情報の一例(A): An example of image information picked up by the image pickup apparatus, (b): An example of image information after pre-processing the image information shown in (a) 第一の実施形態に係る道路特徴情報取得演算部により取得された道路特徴情報の一例を図形化して示した図The figure which showed in figure the example of the road characteristic information acquired by the road characteristic information acquisition calculating part which concerns on 1st embodiment (a):画像情報からステップ#73の処理により抽出されたペイント表示の画像のみを表した図、(b):(a)に示された画像に基づいて区画線により領域を区分した状態を示す図(A): a diagram showing only a paint display image extracted from the image information by the process of step # 73; (b): a state in which regions are partitioned by lane markings based on the image shown in (a). Illustration 図9に示す画像情報について、道路の幅方向の各位置におけるエッジ点数を検出した結果を示すグラフA graph showing the result of detecting the number of edge points at each position in the width direction of the road for the image information shown in FIG. 図9(a)より数フレーム前の撮像装置により撮像された画像情報の一例を示す図The figure which shows an example of the image information imaged with the imaging device several frames before Fig.9 (a) 第一の実施形態に係る車両位置特定演算部において、詳細な撮像位置を特定する方法の一例を説明するための説明図Explanatory drawing for demonstrating an example of the method of specifying a detailed imaging position in the vehicle position specific calculation part which concerns on 1st embodiment. 第二の実施形態に係る自車位置認識補正部のハードウエア構成の概略を示すブロック図The block diagram which shows the outline of the hardware constitutions of the own vehicle position recognition correction | amendment part which concerns on 2nd embodiment. 第二の実施形態に係る車両位置の認識処理の具体例を示すフローチャートThe flowchart which shows the specific example of the recognition process of the vehicle position which concerns on 2nd embodiment. 第二の実施形態に係る道路特徴情報取得演算部により取得された車線別道路特徴情報の一例を図形化して示した図The figure which showed in figure the example of the road characteristic information according to lane acquired by the road characteristic information acquisition calculating part which concerns on 2nd embodiment 図17に示される車線別道路特徴情報を画像情報Gと対比可能な情報の形式に変換したデータを示す図The figure which shows the data which converted the road feature information according to lane shown in FIG. 17 into the information format which can be compared with the image information G

符号の説明Explanation of symbols

2 :撮像装置
3 :画像情報取得部(画像情報取得手段)
8 :地図情報データベース(地図情報格納手段)
9 :道路特徴情報取得演算部(道路特徴情報取得手段)
10 :画像情報認識演算部(画像情報認識手段)
17 :車両位置特定演算部(車両位置特定手段)
18 :車両位置推測演算部
101a:回転センサ(速度情報取得手段)
101 :走行速度導出部(速度情報取得手段)
102 :認識補正処理制御部(認識補正処理制御手段)
103 :自車位置認識補正部(自車位置認識補正手段)
G :画像情報
C :道路特徴情報
2: Imaging device 3: Image information acquisition unit (image information acquisition means)
8: Map information database (map information storage means)
9: Road feature information acquisition calculation unit (road feature information acquisition means)
10: Image information recognition calculation unit (image information recognition means)
17: Vehicle position specifying calculation unit (vehicle position specifying means)
18: Vehicle position estimation calculation unit 101a: Rotation sensor (speed information acquisition means)
101: Traveling speed deriving unit (speed information acquiring means)
102: Recognition correction processing control unit (recognition correction processing control means)
103: Own vehicle position recognition correction unit (own vehicle position recognition correction means)
G: Image information C: Road feature information

Claims (7)

車両に搭載された撮像装置により少なくとも道路の路面を撮像した画像情報を逐次取り込む画像情報取得手段と、
地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得手段と、
前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識手段と、を備え、
前記道路特徴情報取得手段により取得された前記道路特徴情報と、前記画像情報認識手段により認識された前記認識対象物の画像の前記画像情報中の配置に基づいて、前記地物を認識する地物認識装置であって、
前記画像情報認識手段は、道路の路面に設けられたペイント表示を前記認識対象物として画像認識を行うに際して、単一フレームを対象として、当該単一フレームに含まれる前記認識対象物の画像認識を行う第一認識処理を実行し、当該第一認識処理により実線又は破線の区画線と認識された前記認識対象物に関して、連続する複数フレームを対象として、当該複数フレーム間に渡ってほぼ同一の位置に撮影された区画線を同一の区画線と認識すると共に、当該同一と認識された区画線に関して、破断部が認められる場合に当該区画線を破線と認識し、破断部が認められない場合に実線と認識する第二認識処理を実行するように構成されているとともに、
車両の走行速度情報を取得する速度情報取得手段
取得された前記走行速度情報が所定の値より低い場合に、前記画像情報認識手段による前記認識対象物の認識を停止する認識補正処理制御手段と、を備えた地物認識装置。
Image information acquisition means for sequentially capturing image information obtained by imaging at least a road surface by an imaging device mounted on a vehicle;
Road feature information acquisition means for acquiring road feature information related to features around the imaging position of the image information from map information;
Image information recognition means for performing recognition processing of the image information, and recognizing an image of a recognition object corresponding to the feature included in the image information ,
The feature for recognizing the feature based on the road feature information acquired by the road feature information acquisition means and the arrangement in the image information of the image of the recognition object recognized by the image information recognition means. A recognition device,
The image information recognizing means recognizes an image of the recognition object included in the single frame for a single frame when performing image recognition using the paint display provided on the road surface of the road as the recognition object. The first recognition process is performed, and the recognition target object recognized as a solid line or a broken lane line by the first recognition process is subjected to a plurality of consecutive frames and is substantially the same position between the plurality of frames. When the lane markings taken in the above are recognized as the same lane markings, and when the rupture portion is recognized as a broken line with respect to the lane markings recognized as the same, It is configured to execute a second recognition process that recognizes as a solid line,
A velocity information acquiring means for acquiring the traveling speed information of the vehicle,
When the traveling speed information obtained is lower than a predetermined value, the feature recognition apparatus and a recognition correction control means for stopping the recognition of the recognition target object by the image information recognizing unit.
少なくとも、全地球測位システムから得られる測位システム位置情報に基づいて、車両の概略位置を求める位置情報取得手段を備え、
前記画像情報が撮像された時点で前記位置情報取得手段により求められる車両の位置を、前記画像情報の撮像位置とする請求項1記載の地物認識装置。
At least a position information acquisition means for determining the approximate position of the vehicle based on positioning system position information obtained from the global positioning system,
The feature recognition apparatus according to claim 1, wherein a position of the vehicle obtained by the position information acquisition unit when the image information is captured is set as an imaging position of the image information.
請求項1又は2に記載の地物認識装置を備え、
前記認識対象物に予め定められた測定点について、前記画像情報に含まれている前記認識対象物についての前記測定点の画像認識を行い、
認識された前記測定点の画像認識結果と、予め求められている当該測定点の位置情報とに基づいて自車位置情報を更新補正する自車位置認識補正手段、
を備える自車位置認識装置。
The feature recognition apparatus according to claim 1 or 2 ,
Performing image recognition of the measurement points for the recognition object included in the image information for the measurement points predetermined for the recognition object,
Vehicle position recognition correction means for updating and correcting the vehicle position information based on the image recognition result of the recognized measurement point and the position information of the measurement point obtained in advance;
A vehicle position recognition device comprising:
前記測定点は、各地物の輪郭形状に応じて、自車両の進行方向に略直交する輪郭線上、又は前記輪郭形状が角部を有する場合には当該角部上に設定されている請求項に記載の自車位置認識装置。 The measuring points, depending on the contour of each feature, contour substantially perpendicular to the traveling direction of the vehicle, or claim 3 which is set on the corner portion if the contour has a corner The vehicle position recognition device described in 1. 前記請求項又は記載の自車位置認識装置と、地図情報を格納した地図情報格納手段とを備え、
前記地図情報格納手段から取得した自車両の進行方向の地図情報と、前記自車位置認識補正手段による更新補正後の自車位置情報とに基づいて、自車両の走行制御を行う車両制
御装置。
The host vehicle position recognition device according to claim 3 or 4 and map information storage means storing map information,
A vehicle control device that performs travel control of the host vehicle based on map information of the traveling direction of the host vehicle acquired from the map information storage unit and host vehicle position information after update correction by the host vehicle position recognition correction unit.
前記請求項又は記載の自車位置認識装置と、地図情報を格納した地図情報格納手段を備え、
前記地図情報格納手段から取得した自車両の進行方向の地図情報と、前記自車位置認識補正手段による更新補正後の自車位置情報とに基づいて、自車両の進路案内を行うナビゲーション装置。
The vehicle position recognition device according to claim 3 or 4, and map information storage means storing map information,
A navigation device that provides route guidance for the host vehicle based on the map information of the traveling direction of the host vehicle acquired from the map information storage unit and the host vehicle position information after the update correction by the host vehicle position recognition correction unit.
車両に搭載された撮像装置により少なくとも道路の路面を撮像した画像情報を逐次取り込む画像情報取得ステップと、
地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得ステップと、
前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識ステップと、
前記道路特徴情報取得ステップで取得された前記道路特徴情報と、前記画像情報認識ステップで認識された前記認識対象物の画像の前記画像情報中の配置に基づいて、前記地物を認識する地物認識方法を実行するに、
前記画像情報認識ステップでは、道路の路面に設けられたペイント表示を前記認識対象物として画像認識を行うに際して、単一フレームを対象として、当該単一フレームに含まれる前記認識対象物の画像認識を行う第一認識処理を実行した後、当該第一認識処理により実線又は破線の区画線と認識された前記認識対象物に関して、連続する複数フレームを対象として、当該複数フレーム間に渡ってほぼ同一の位置に撮影された区画線を同一の区画線と認識すると共に、当該同一と認識された区画線に関して、破断部が認められる場合に当該区画線を破線と認識し、破断部が認められない場合に実線と認識する第二認識処理を実行するように構成されているとともに、
車両の走行速度情報を取得する速度情報取得ステップを実行し、
取得された前記走行速度情報が所定の値より低い場合に、前記画像情報認識ステップによる前記認識対象物の認識を停止する地物認識方法。
An image information acquisition step for sequentially capturing image information obtained by imaging at least the road surface of the road by an imaging device mounted on the vehicle;
Road feature information acquisition step for acquiring road feature information related to features around the imaging position of the image information from map information;
Recognizing the image information and recognizing an image of a recognition object corresponding to the feature included in the image information; and
A feature that recognizes the feature based on the road feature information acquired in the road feature information acquisition step and the arrangement in the image information of the image of the recognition object recognized in the image information recognition step. To run the recognition method,
In the image information recognition step, when performing the image recognition using the paint display provided on the road surface of the road as the recognition object, the image recognition of the recognition object included in the single frame is performed with respect to a single frame. After performing the first recognition process to be performed, with respect to the recognition target object recognized as a solid line or a broken lane line by the first recognition process, it is substantially the same across the plurality of frames for a plurality of consecutive frames. When a lane line photographed at a position is recognized as the same lane line, and when a broken portion is recognized with respect to the lane line recognized as the same, the lane line is recognized as a broken line and no broken portion is recognized Is configured to execute a second recognition process for recognizing a solid line,
Execute a speed information acquisition step of acquiring vehicle travel speed information;
A feature recognition method for stopping recognition of the recognition object by the image information recognition step when the acquired traveling speed information is lower than a predetermined value.
JP2006351619A 2006-12-27 2006-12-27 Feature recognition device, vehicle position recognition device, navigation device, feature recognition method Expired - Fee Related JP4775658B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006351619A JP4775658B2 (en) 2006-12-27 2006-12-27 Feature recognition device, vehicle position recognition device, navigation device, feature recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006351619A JP4775658B2 (en) 2006-12-27 2006-12-27 Feature recognition device, vehicle position recognition device, navigation device, feature recognition method

Publications (2)

Publication Number Publication Date
JP2008165326A JP2008165326A (en) 2008-07-17
JP4775658B2 true JP4775658B2 (en) 2011-09-21

Family

ID=39694792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006351619A Expired - Fee Related JP4775658B2 (en) 2006-12-27 2006-12-27 Feature recognition device, vehicle position recognition device, navigation device, feature recognition method

Country Status (1)

Country Link
JP (1) JP4775658B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151658A (en) * 2008-12-25 2010-07-08 Zhencheng Hu Apparatus and method for measuring position of mobile object
KR101609679B1 (en) * 2009-03-31 2016-04-06 팅크웨어(주) Apparatus for map matching of navigation using planar data of road and method thereof
JP2012127896A (en) * 2010-12-17 2012-07-05 Kumamoto Univ Mobile object position measurement device
JP5679207B2 (en) * 2011-10-11 2015-03-04 アイシン・エィ・ダブリュ株式会社 Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method
JP5820843B2 (en) * 2013-05-29 2015-11-24 富士重工業株式会社 Ambient environment judgment device
JP6485915B2 (en) * 2015-10-28 2019-03-20 本田技研工業株式会社 Road lane marking recognition device, vehicle control device, road lane marking recognition method, and road lane marking recognition program
JP6859927B2 (en) * 2017-11-06 2021-04-14 トヨタ自動車株式会社 Vehicle position estimation device
US11321950B2 (en) 2018-06-26 2022-05-03 Sk Telecom Co., Ltd. Apparatus and method for detecting lane information, and computer-readable recording medium storing computer program programmed to execute same method
CN111661059B (en) * 2019-03-08 2022-07-08 虹软科技股份有限公司 Method and system for monitoring distracted driving and electronic equipment

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3304687B2 (en) * 1995-05-24 2002-07-22 日産自動車株式会社 Vehicle lane recognition device, obstacle detection device, road departure notification device
JP3352655B2 (en) * 1999-09-22 2002-12-03 富士重工業株式会社 Lane recognition device
JP2003067752A (en) * 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device
JP3945494B2 (en) * 2004-05-11 2007-07-18 トヨタ自動車株式会社 Travel lane recognition device
JP2006151014A (en) * 2004-11-25 2006-06-15 Denso Corp Safety operation support system
JP2006208223A (en) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd Vehicle position recognition device and vehicle position recognition method
JP2006226824A (en) * 2005-02-17 2006-08-31 Toyota Motor Corp Information reporting device for vehicle
JP2006012191A (en) * 2005-09-01 2006-01-12 Honda Motor Co Ltd Lane marking recognition device for vehicle

Also Published As

Publication number Publication date
JP2008165326A (en) 2008-07-17

Similar Documents

Publication Publication Date Title
JP4321821B2 (en) Image recognition apparatus and image recognition method
JP4557288B2 (en) Image recognition device, image recognition method, position specifying device using the same, vehicle control device, and navigation device
JP2006208223A (en) Vehicle position recognition device and vehicle position recognition method
JP4775658B2 (en) Feature recognition device, vehicle position recognition device, navigation device, feature recognition method
JP4831434B2 (en) Feature information collection device, feature information collection program, own vehicle position recognition device, and navigation device
US8452101B2 (en) Feature extraction method, and image recognition method and feature database creation method using the same
US8346473B2 (en) Lane determining device, lane determining method and navigation apparatus using the same
JP4506790B2 (en) Road information generation apparatus, road information generation method, and road information generation program
CN102208035A (en) Image processing system and position measurement system
JP4902575B2 (en) Road sign recognition device and road sign recognition method
CN102208012A (en) Scene matching reference data generation system and position measurement system
JP4761156B2 (en) Feature position recognition apparatus and feature position recognition method
JP2007178271A (en) Own position recognition system
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP5141969B2 (en) Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same
US20210180963A1 (en) Onboard device
JP4731380B2 (en) Self-vehicle position recognition device and self-vehicle position recognition method
JP4831433B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device
JP4912495B2 (en) Image recognition apparatus and method, and navigation apparatus
JP4789868B2 (en) Image recognition apparatus and image recognition method, and self-position recognition apparatus and navigation apparatus using the same
JP2007241470A (en) Device for updating map data for vehicle
JP6232883B2 (en) Own vehicle position recognition device
JP5071737B2 (en) Lane determination device, lane determination program, and navigation device using the same
JP4817019B2 (en) Own vehicle position recognition device and own vehicle position recognition program
WO2023276225A1 (en) Driving assistance device and driving assistance method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110615

R150 Certificate of patent or registration of utility model

Ref document number: 4775658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees