JP5097681B2 - Feature position recognition device - Google Patents
Feature position recognition device Download PDFInfo
- Publication number
- JP5097681B2 JP5097681B2 JP2008281510A JP2008281510A JP5097681B2 JP 5097681 B2 JP5097681 B2 JP 5097681B2 JP 2008281510 A JP2008281510 A JP 2008281510A JP 2008281510 A JP2008281510 A JP 2008281510A JP 5097681 B2 JP5097681 B2 JP 5097681B2
- Authority
- JP
- Japan
- Prior art keywords
- road marking
- image
- state
- feature
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、車載カメラで撮像した画像に基づいて、路面標示、信号機、標識等の自車周囲に存在する対象地物の位置を認識する地物位置認識装置に関する。 The present invention relates to a feature position recognition device for recognizing the position of a target feature existing around a vehicle such as a road marking, a traffic light, a sign, and the like based on an image captured by a vehicle-mounted camera.
従来より、自車位置の修正を行うために、車載カメラで撮像した画像から地物位置を認識する装置が提案されている(例えば特許文献1を参照)。 2. Description of the Related Art Conventionally, an apparatus for recognizing a position of a feature from an image captured by a vehicle-mounted camera has been proposed in order to correct the position of the vehicle (see, for example, Patent Document 1).
特許文献1に開示される装置の場合、路面標示の所定部位を測定点として、自車と路面標示との相対距離を測定する方法を採用する。路面標示の測定点とされる部位は、他の部位との識別が可能な形状を有しており、その形状を画像処理によって検出した場合に、かかる形状を有する部位が測定点であると判断している。 In the case of the apparatus disclosed in Patent Document 1, a method of measuring the relative distance between the own vehicle and the road marking, using a predetermined part of the road marking as a measurement point is adopted. The part that is the measurement point of the road marking has a shape that can be distinguished from other parts, and when the shape is detected by image processing, the part having such a shape is determined to be the measurement point is doing.
従って、例えば経年劣化や掠れ等によって路面標示の形状が変化し、測定点とは別の部位に、測定点に類似した形状を有する部分が形成された場合に、その誤った部位を測定点として誤検出するおそれがある。 Therefore, when the shape of the road marking changes due to, for example, aging or drowning, and a part having a shape similar to the measurement point is formed in a part different from the measurement point, the erroneous part is used as the measurement point. There is a risk of false detection.
本発明は、上記の点に鑑みてなされたものであり、自車に対する対象地物の正確な位置を認識することができる地物位置認識装置を提供することにある。 The present invention has been made in view of the above points, and it is an object of the present invention to provide a feature position recognition device that can recognize the exact position of a target feature with respect to the host vehicle.
本発明の地物位置認識装置は、自車の移動に伴って撮像された複数の画像から対象地物の何処の部位が撮像されているかを推定し、その推定された撮像部位が対象地物に対して予め設定された測定点を含む部位であるか否かを判定する。 The feature position recognizing device of the present invention estimates which part of the target feature is imaged from a plurality of images taken along with the movement of the vehicle, and the estimated imaging part is the target feature. It is determined whether or not it is a part including a preset measurement point.
本発明の地物位置認識装置によれば、自車の移動に伴って撮像された複数の画像から対象地物の何処の部位が撮像されているかを推定し、その推定された撮像部位が、対象地物に対して予め設定された測定点を含む部位であるか否かを判定するので、例えば対象地物の測定点が存在しないとされる撮像部位で測定点が検出された場合に、かかる測定点の検出は誤検出であると判断することができる。従って、誤った点を測定点として自車位置の認識がなされるのを防ぐことができる。 According to the feature position recognizing device of the present invention, it is estimated which part of the target feature is imaged from a plurality of images imaged along with the movement of the host vehicle, and the estimated imaging part is Since it is determined whether or not it is a part including a measurement point set in advance with respect to the target feature, for example, when a measurement point is detected at an imaging part where the measurement point of the target feature does not exist, It can be determined that the detection of such a measurement point is a false detection. Therefore, it is possible to prevent the vehicle position from being recognized using an incorrect point as a measurement point.
以下に、本発明の実施の形態について図面を用いて詳細に説明する。
図1は、自車位置検出システムが適用されるシーンの一例を示す図、図2は、自車位置検出システムの全体構成を概念的に示す図である。本実施の形態では、図1に示すように自車Cの走行中に路面1を撮像して、その画像から横断歩道等の路面標示2の位置を認識し、自車Cの現在位置を求める自車位置検出システム100の場合を例に説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an example of a scene to which the host vehicle position detection system is applied, and FIG. 2 is a diagram conceptually showing the overall configuration of the host vehicle position detection system. In the present embodiment, as shown in FIG. 1, the road surface 1 is imaged while the host vehicle C is traveling, the position of the road marking 2 such as a pedestrian crossing is recognized from the image, and the current position of the host vehicle C is obtained. The case of the own vehicle
自車位置検出システム100は、図2に示すように、カーナビゲーション装置101と路面標示位置認識装置(地物位置認識装置)103とを備えている。路面標示位置認識装置103は、路面1を撮像した画像を画像処理して路面標示2を検出し、路面標示2の種類と自車Cから路面標示2までの距離Lの情報からなる認識結果をカーナビゲーション装置101に出力する機能を有している。
As shown in FIG. 2, the vehicle
路面1の撮像は、例えば図1に示すように、車両後部に取り付けられたリアカメラ108(車載カメラ)によって行われる。リアカメラ108は、自車後方の路面1を視野角範囲3内に亘って撮像する。路面標示位置認識装置103には、路面標示2における測定点Pの情報と、自車Cから測定点Pまでの距離Lの情報が予め記憶されている。距離Lは、画像内における測定点Pの位置に応じて予め設定されている。
For example, as shown in FIG. 1, the imaging of the road surface 1 is performed by a rear camera 108 (on-vehicle camera) attached to the rear portion of the vehicle. The
カーナビゲーション装置101は、自車位置を演算して、運転手や乗員にその情報を提供し、また、自車位置から目的地までの経路案内を行う機能を備えている。カーナビゲーション装置101は、地図データ102と路面標示位置認識装置103の認識結果とを比較することで、路面標示2の位置を基準にした自車Cの正確な位置を求めることができる。
The
路面標示2は、路面1に描かれたペイントであり、例えば図1に示す横断歩道の他、一次停止線や、最高速度標示、進行方向別通行区分標示、転回禁止標示、車線区分標示等が含まれる。地図データ102には、一般的な地図情報に加えて、路面標示2の種類、形状、位置、方位等の情報が記憶されている。
The road marking 2 is paint drawn on the road surface 1. For example, in addition to the pedestrian crossing shown in FIG. 1, there are primary stop lines, maximum speed markings, traffic direction markings according to the direction of travel, turning prohibition markings, lane markings, etc. included. In the
図3は、自車位置検出システムの構成を模式的に示すブロック図である。路面標示位置認識装置103は、図3に示すように、画像処理部111、特徴量抽出部112、状態推定部113、認識結果出力判定部114の各機能部を有している。これらの各機能部は、ハードウェアまたはソフトウェア、あるいはその両方により実装されて構成されている。
FIG. 3 is a block diagram schematically showing the configuration of the vehicle position detection system. As shown in FIG. 3, the road marking
画像処理部111は、リアカメラ108で自車の移動に伴って撮像された複数の画像をリアカメラ108から取得する。そして、各画像に対して路面標示2を認識するための画像処理を行い、その画像処理の結果に基づいて、認識対象物となる路面標示2の種類を決定し、その路面標示2が有する測定点Pを認識する処理を行う。これらの処理は、例えば公知のテンプレートマッチング等によって決定される。
The
認識対象物とされる路面標示2は、自車Cが進行する方向の前方に存在する路面標示2とすることもでき、その存在は、カーナビゲーション装置101の自車位置演算部121によって算出される自車位置と地図データ102に基づいて把握することができる。路面標示2の測定点Pの情報は、路面標示位置認識装置103内または地図データ102内に路面標示2の種類に応じて読み出し可能に格納されている。
The road marking 2 that is the recognition target can be the road marking 2 that exists in front of the direction in which the host vehicle C travels, and its presence is calculated by the host vehicle
測定点Pは、路面標示2の輪郭形状に応じて設定されており、例えば自車Cの進行方向に直交する輪郭線上や、角部を有する場合には当該角部上など、他の部位と識別可能な部位に設定されている。例えば横断歩道の場合、測定点Pは、自車Cの進行方向に沿って延在する複数の平行な帯状の輪郭線において、各前方の短辺をつないだ直線状のライン(例えば図6(c)を参照)とされる。 The measurement point P is set according to the contour shape of the road marking 2, and, for example, on the contour line orthogonal to the traveling direction of the host vehicle C, or on other corners such as the corner portion when the corner has a corner portion. It is set to an identifiable part. For example, in the case of a pedestrian crossing, the measurement point P is a straight line (for example, FIG. 6 (FIG. 6)) connecting a plurality of parallel strip-shaped contour lines extending along the traveling direction of the host vehicle C. c)).
そして、画像内に測定点Pが認識された場合、自車Cと測定点Pとの位置関係を導出する処理が行われる。路面標示位置認識装置103には、リアカメラ108の自車Cへの搭載位置と撮像方向に基づき測定点Pと自車Cとの位置関係が予め求められて記憶されている。従って、画像内における測定点Pの配置に基づいて、撮像時における自車Cと測定点Pとの位置関係を導出することができる。
When the measurement point P is recognized in the image, a process for deriving the positional relationship between the vehicle C and the measurement point P is performed. In the road marking
特徴量抽出部112は、路面標示2の特徴が画像に含まれている量(以下、特徴量という)を抽出する。特徴量は、状態推定部113で状態を推定する際に用いられるものであり、路面標示2の特徴に基づいて抽出される。路面標示2の特徴は、路面標示位置認識装置103内に記憶されている。例えば路面標示2が横断歩道の場合は、所定間隔をおいて並ぶ白線の本数や、画像内における白線の長さが特徴とされ、白線の本数が多いほど、あるいは白線の長さが長いほど特徴量が多いとされる。
The feature
状態推定部(撮像部位推定部)113は、特徴量抽出部112により抽出した特徴量に基づいて、路面標示2の何処の部位が画像中において見えているか、換言すると、画像中に路面標示2の何処の部位が含まれているかという状態を推定する処理を行う。例えば横断歩道の場合、画像中に横断歩道の始端部位(車両進行方向後側に位置する部位)、中央部位、終端部位(車両進行方向前側に位置する部位)のいずれの部位が含まれているかという状態を大局的に推定する(例えば図6を参照)。
Based on the feature amount extracted by the feature
認識結果出力判定部114は、予め設定された出力条件を満たしているか否かを判定し、出力条件を満たしている場合には、認識結果をカーナビゲーション装置101に出力し、出力条件を満たしていない場合には、認識結果を出力しない。認識結果出力判定部114から出力される認識結果には、画像処理部111で決定された路面標示2の種類と、自車Cから路面標示2までの距離Lの情報が含まれている。
The recognition result
カーナビゲーション装置101は、GPS1202等の位置計測手段からの検出信号に基づいて自車位置を演算する自車位置演算部121と、路面標示位置認識装置103の認識結果を利用して自車位置を補正する自車位置補正部122を有する。
The
自車位置補正部122は、自車位置演算部121によって演算された自車位置を、路面標示2の位置に合わせて補正する。自車位置の補正は、路面標示位置認識装置103から受信した認識結果と、地図データ102とを比較することによって行われる。
The own vehicle
次に、図4〜図6を用いて、路面標示位置認識装置103における処理内容について説明する。図4は、路面標示位置認識装置103において実行される処理の内容を説明するためのフローチャート、図5は、図4のステップS205の処理の内容を説明するためのフローチャート、図6は、自車Cの移動に伴って撮像された複数の画像を示す図である。
Next, processing contents in the road marking
まず、ステップS201の画像入力処理では、自車Cの移動に伴って撮像された複数の画像が入力される。そして、ステップS202の認識対象物決定処理では、各画像に画像処理が施されて、認識対象物が決定される。本実施の形態では、路面標示2が認識対象物とされ、二値化処理やノイズ除去処理等の画像処理がなされた後に、テンプレートマッチングが行われて路面標示2の種類が決定され、次いで路面標示2の予め設定された測定点Pを認識する処理がなされる。
First, in the image input process of step S201, a plurality of images captured as the host vehicle C moves are input. In the recognition object determination process in step S202, image processing is performed on each image to determine the recognition object. In the present embodiment, the road marking 2 is a recognition target, and after image processing such as binarization processing and noise removal processing is performed, template matching is performed to determine the type of the road marking 2, and then the road surface Processing for recognizing the preset measurement point P of the
そして、画像内に測定点Pの存在が認識された場合には、測定点Pから自車Cまでの距離Lを得る。これらステップS201の画像入力処理とステップS202の路面標示決定処理は、画像処理部111によって実行される。
When the presence of the measurement point P is recognized in the image, the distance L from the measurement point P to the host vehicle C is obtained. The
尚、ステップS202の認識対象物決定処理において複数の路面標示が認識対象物として決定された場合は、以下のステップS203からステップS206までの処理が路面標示の数量分だけ繰り返し実行される。 When a plurality of road markings are determined as recognition objects in the recognition object determination process in step S202, the following processes from step S203 to step S206 are repeatedly executed for the number of road markings.
次に、ステップS203の路面標示特徴量抽出処理では、ステップS201で取得した画像から路面標示2の特徴量を抽出する処理が行われる。この路面標示特徴量抽出処理は、特徴量抽出部112によって実行される。
Next, in the road marking feature value extraction process in step S203, a process for extracting the feature value of the road marking 2 from the image acquired in step S201 is performed. This road marking feature quantity extraction processing is executed by the feature
ここでは、例えば画像内における路面1と路面標示2との間の輝度値の変化を検出することにより、路面標示2の輪郭を抽出する。そして、路面標示2の種類別に予め設定された抽出条件に基づいて路面標示2の輪郭を解析し、路面標示2の特徴量を抽出する。 Here, for example, the contour of the road marking 2 is extracted by detecting a change in luminance value between the road surface 1 and the road marking 2 in the image. Then, the contour of the road marking 2 is analyzed based on the extraction condition set in advance for each type of the road marking 2, and the feature amount of the road marking 2 is extracted.
例えば路面標示2が横断歩道の場合では、横断歩道の始端部位が含まれる画像(図6(a)を参照)及び横断歩道の終端部位が含まれる画像(図6(c)を参照)よりも、横断歩道の中央部位が含まれる画像(図6(b)を参照)の方が、画像中に横断歩道の白線の長さがより長く含まれている。従って、図6(b)に示す画像の場合に、より多くの特徴量が抽出される。 For example, in the case where the road marking 2 is a pedestrian crossing, an image including the start end portion of the pedestrian crossing (see FIG. 6A) and an image including the end portion of the pedestrian crossing (see FIG. 6C). In the image including the central part of the pedestrian crossing (see FIG. 6B), the length of the white line of the pedestrian crossing is included in the image longer. Therefore, more feature amounts are extracted in the case of the image shown in FIG.
ステップS204の状態推定処理では、ステップS203で抽出された特徴量に基づいて、画像内における路面標示2の状態(撮像部位)を推定する処理が行われる。時刻tにおける画像内の路面標示2の状態をS(t)とする。状態推定処理は、状態推定部113によって実行される。画像内における路面標示2の状態S(t)とは、路面標示2の何処の部位が見えているかを示す状態をいう。例えば横断歩道の場合、画像中に横断歩道の始端部位が見えている状態(図6(a)を参照)、横断歩道の中央部位が見えている状態(図6(b)を参照)、横断歩道の終端部位が見えている状態(図6(c)を参照)をいう。
In the state estimation process in step S204, a process for estimating the state (imaging site) of the road marking 2 in the image is performed based on the feature amount extracted in step S203. The state of the road marking 2 in the image at time t is S (t). The state estimation process is executed by the
時刻tで抽出した特徴量を観測値Y(t)とする。特徴量は、ステップS203の路面標示特徴量抽出処理にて抽出される。これらの状態S(t)と観測値Y(t)のデータとダイナミックベイジアンネットワークの手法により、観測した路面標示2の特徴量の時間変化から、現在の状態(例えば横断歩道の何処の部位が見えているか)を以下の式(1)を用いて確率的に求めることができる。
この等式の左辺は、観測値Y(t)の時間変化が観測されたときの現在の状態S(t)の確率である。また右辺の第1項目と第2項目は、多数のデータを学習させる等して、事前にその値を求めておく。 The left side of this equation is the probability of the current state S (t) when a time change of the observed value Y (t) is observed. In addition, the values of the first item and the second item on the right side are obtained in advance by learning a lot of data.
右辺の第1項目は、ある「状態」が観測された時に、どのような「観測値」を得る可能性があるかという確率である。例えば横断歩道の中央部位が見えている場合(図6(b)の状態)は、横断歩道の特徴量(路面標示の輪郭)が多数観測される可能性が高いという関係を意味する。 The first item on the right side is the probability of what “observation value” may be obtained when a certain “state” is observed. For example, when the central part of the pedestrian crossing is visible (the state shown in FIG. 6B), it means that there is a high possibility that many features of the pedestrian crossing (the contour of the road marking) are observed.
第2項目は、前回の撮像にて所定の「状態」が観測された時に、次にどのような「状態」に遷移する可能性があるかという確率である。例えば、横断歩道の始端部位(図6(a)の状態)が見えた後は、横断歩道の中央部位が見えている状態(図6(b)の状態)に遷移する可能性が高いという関係を意味する。これらの「状態」と「観測値」の確率的な関係を踏まえて、図5に示す状態推定処理フローにより、現在の状態S(t)(横断歩道の何処が見えているか)を確率的に計算する。 The second item is the probability of what kind of “state” is likely to be changed next when a predetermined “state” is observed in the previous imaging. For example, there is a high possibility that after the start end part of the pedestrian crossing (the state shown in FIG. 6A) is seen, the state where the central part of the pedestrian crossing is visible (the state shown in FIG. 6B) is high. Means. Based on the stochastic relationship between these “state” and “observed value”, the current state S (t) (where the pedestrian crossing is visible) is stochastically determined by the state estimation processing flow shown in FIG. calculate.
まず、図5に示すステップS301の状態遷移確率読み込み処理にて状態遷移確率を読み込む。状態S(t)の値は、図6(a)〜(c)の状態を、それぞれ状態値1、状態値2、状態値3といったように予め定義しておく。
First, the state transition probability is read in the state transition probability reading process in step S301 shown in FIG. The value of the state S (t) predefines the states of FIGS. 6A to 6C as a state value 1, a
状態遷移確率は、各画像の間で画像の状態が遷移する確率として、前回の状態S(t−1)と現在の状態S(t)との間の関係を確率的に求めたものであり、すなわち、前回の状態S(t−1)がある状態であった場合に、現在の状態S(t)がどのような状態になるかを確率的に求めたものである。状態遷移確率は、事前に学習して路面標示位置認識装置103内にデータベースとして保持されており、本処理では、この学習済みのデータをデータベースから読み込むこととなる。
The state transition probability is a probability obtained by probabilistically determining the relationship between the previous state S (t−1) and the current state S (t) as the probability that the state of the image transitions between the images. That is, when the previous state S (t−1) is in a certain state, what state the current state S (t) is in is obtained probabilistically. The state transition probability is learned in advance and stored as a database in the road marking
次に、ステップS302の観測確率読み込み処理にて観測確率を読み込む。観測確率は、画像から所定の特徴量が抽出された場合にその画像の状態が所定状態となる確率として、観測値Y(t)と状態S(t)の関係を確率的に求めたものであり、すなわち、観測値Y(t)(路面標示の輪郭の見え方)が観測された時に、状態S(t)がどのような状態であるかを確率的に求めたものである。観測確率は、事前に学習してデータベースとして路面標示位置認識装置103内に保持されており、本処理では、この学習済みのデータを読み込むこととなる。
Next, the observation probability is read in the observation probability reading process in step S302. The observation probability is obtained by probabilistically obtaining the relationship between the observed value Y (t) and the state S (t) as the probability that the state of the image becomes a predetermined state when a predetermined feature amount is extracted from the image. Yes, that is, the state S (t) is stochastically obtained when the observed value Y (t) (the appearance of the contour of the road marking) is observed. The observation probability is learned in advance and stored in the road marking
そして、ステップS303の状態推定処理にて、ステップS301で読み込んだ状態遷移確率と、ステップS302で読み込んだ観測確率を用いて、上記の式(1)により現在の状態S(t)を推定する。 Then, in the state estimation process in step S303, the current state S (t) is estimated by the above equation (1) using the state transition probability read in step S301 and the observation probability read in step S302.
再び、図4に示すフローの説明に戻り、ステップS205の認識結果出力処理では、予め設定されている出力条件を満たしている場合に、認識結果をカーナビゲーション装置101に出力する処理が行われる。認識結果出力処理は、認識結果出力判定部114によって実行される。
Returning to the description of the flow shown in FIG. 4 again, in the recognition result output process of step S205, a process of outputting the recognition result to the
ここでは、ステップS204の路面標示特徴量抽出処理により抽出した路面標示2の輪郭が認識対象とする路面標示2の輪郭と一致し、且つ認識結果を出力しても良い状態である場合に出力条件を満たしていると判断される。 Here, the output condition is set when the contour of the road marking 2 extracted by the road marking feature amount extraction processing in step S204 matches the contour of the road marking 2 to be recognized and the recognition result may be output. It is judged that
輪郭が一致しているか否かは、ステップS202の認識対象物決定処理で判断される。そして、認識結果を出力しても良い状態であるか否かは、ステップS205の状態推定処理により推定した現在の状態S(t)に基づいて判断される。 Whether or not the contours match is determined by the recognition object determination process in step S202. Whether or not the recognition result may be output is determined based on the current state S (t) estimated by the state estimation processing in step S205.
例えば、状態推定部113で推定した状態が図6(c)に示すように、画像内に測定点Pを含む状態である場合は、認識結果を出力しても良い状態(出力可能状態)と判断される。
For example, as shown in FIG. 6C, when the state estimated by the
一方、状態推定部113で推定した状態が図6(a)または図6(b)に示すように、画像内に測定点Pを含まない状態である場合は、認識結果を出力してはいけない状態(出力不可状態)と判断される。
On the other hand, if the state estimated by the
例えば、横断歩道の中央部位に道路幅方向に亘って白線が欠けた部分が存在しており、画像処理にて測定点Pが存在すると誤検出される状況において、従来は、そのまま、誤検出された位置に基づいて自車位置が補正されてしまうおそれがあった。 For example, in a situation where a white line is missing in the center part of the pedestrian crossing in the width direction of the road and it is erroneously detected that the measurement point P is present in the image processing, the conventional method is erroneously detected as it is. There is a possibility that the vehicle position is corrected based on the detected position.
これに対して、本実施の形態における路面標示位置認識装置103では、路面標示2の何処の部位が画像中において見えているかを大局的に推定しているので、画像処理によって測定点Pがあると検出された場所は横断歩道の中央部位であり、測定点Pは存在せず、誤検出であると判断することができる。
In contrast, the road marking
従って、カーナビゲーション装置101に対する認識結果の出力が禁止され(出力不可状態)、誤検出された位置に基づいて自車位置が補正されるのを防ぐことができ、路面標示の測定点Pを正確に検出することができる。
Accordingly, the output of the recognition result to the
最後に、ステップS208において、新しい画像入力信号があるか否かが判断され、新しい画像入力信号が来ていない場合(NO)はウエイトし、新しい画像入力信号が来ている場合(YES)は、処理201へ戻る。 Finally, in step S208, it is determined whether there is a new image input signal. If no new image input signal is received (NO), the process waits. If a new image input signal is received (YES), Return to the process 201.
次に、図7、図8を用いて、本発明を実現するハードウェア構成について説明する。
図7は、ハードウェア構成の第1実施例、図8は、ハードウェア構成の第2実施例である。
Next, a hardware configuration for realizing the present invention will be described with reference to FIGS.
FIG. 7 shows a first embodiment of the hardware configuration, and FIG. 8 shows a second embodiment of the hardware configuration.
まず、第1実施例について説明する。リアカメラ108は、図7に示すように、レンズ1001とCCD1002を有している。CPU1004には、路面標示位置認識装置103とカーナビゲーション装置101が実装され、ハードディスク1005には地図データ102が実装されている。CPU1004は、ハードディスク1005の地図データ102を参照する。
First, the first embodiment will be described. The
リアカメラ108とCPU1004は映像信号線1003で接続され、リアカメラ108の映像は、映像信号線1003を通じてCPU1004の路面標示位置認識装置103に送信される。また、CPU1004は、CAN(コントロールエリアネットワーク)1006に接続され、自車Cが有する他のCPUや制御装置と相互にデータの送受信を行うようになっている。
The
第1実施例の構成は、路面標示位置認識装置103とカーナビゲーション装置101との間のデータ送受信量が多い場合に適用すると、データ送受信速度や容量が大きくなりシステムのパフォーマンスが良い。
When the configuration of the first embodiment is applied when the data transmission / reception amount between the road marking
次に、第2実施例について説明する。リアカメラ108は、図8に示すように、レンズ1101と、CCD1102と、CPU1107を有している。CPU1107には、路面標示位置認識装置103が実装される。
Next, a second embodiment will be described. As shown in FIG. 8, the
一方、リアカメラ108とは別個に設けられたCPU1104には、カーナビゲーション装置101が実装され、ハードディスク1105には地図データ102が実装されている。CPU1104は、ハードディスク1105の地図データ102を参照する。
On the other hand, a
CPU1107とCPU1104は、CAN1106に接続され、路面標示位置認識装置103とカーナビゲーション装置101との間でデータの送受信を行うほか、自車Cが有する他のCPUや制御装置と相互にデータの送受信を行うようになっている。
The
路面標示位置認識装置103とカーナビゲーション装置101との間のデータの送受信は、専用信号線によっても行うことができる。第2実施例の構成は、路面標示位置認識装置103やカーナビゲーション装置101の処理負荷が大きい場合に適用すると、路面標示認識やカーナビゲーション装置101の高負荷な処理が可能となりシステムのパフォーマンスが良い。
Data transmission / reception between the road marking
上記した路面標示位置認識装置103によれば、自車Cの移動に伴って撮像された複数の画像から路面標示2の何処の部位が撮像されているかを推定し、その推定された撮像部位が路面標示2に対して予め設定された測定点Pを含む部位であるか否かを判定する。
According to the road marking
従って、画像処理部111が、対象地物の測定点の存在しない部位で測定点Pを検出したと判断した場合に、認識結果出力判定部114によってその検出結果は誤検出であると判断され、カーナビゲーション装置101に出力されない。従って、誤った点を測定点Pとして自車位置の認識がなされるのを防ぐことができる。
Therefore, when the
本発明は、上述の実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。例えば、上述の実施の形態では、リアカメラ108を用いた場合について説明したが、車両の他の部分に設置した車載カメラを使用することでも実現できる。
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention. For example, in the above-described embodiment, the case where the
例えば、リアカメラ108の代わりに、自車Cの後側方を撮影範囲とするドアミラー部分に設置した後側方カメラ、自車Cの前方を撮影範囲とするフロントカメラを使用することもできる。また、複数台のカメラを使用して、各カメラの映像の認識結果を相互に照合することにより、路面標示位置認識装置103の信頼性を向上させることができる。その場合、リアカメラ108と後側方カメラの組み合わせ、リアカメラ108とフロントカメラの組み合わせ、左右のドアミラーに設置した2台の後側方カメラの組み合わせ、後側方カメラとフロントカメラの組み合わせが可能である。
For example, instead of the
また、本発明の路面標示位置認識装置103は、車載カメラとカーナビゲーション装置101を搭載した自車Cにおいて、例えば信号機や道路標識等の路面標示以外の周囲の認識対象物を認識することもでき、また、衝突防止や運転支援を行う車両の予防安全システムにも適用可能である。
Further, the road marking
1 路面
2 路面標示(横断歩道)
100 自車位置検出システム
101 カーナビゲーション装置
102 地図データ
103 路面標示位置認識装置(地物位置認識装置)
108 リアカメラ
111 画像処理部
112 特徴量抽出部
113 状態推定部(撮像部位推定部)
114 認識結果出力判定部(判定部)
121 自車位置演算手段
122 自車位置補正手段
C 自車
L 距離
P 測定点
1
DESCRIPTION OF
108
114 Recognition result output determination unit (determination unit)
121 Own vehicle position calculating means 122 Own vehicle position correcting means C Own vehicle L Distance P Measuring point
Claims (2)
前記自車の移動に伴って撮像された複数の画像から前記対象地物の何処の部位が撮像されているかを推定する撮像部位推定部と、
前記撮像部位推定部によって推定された撮像部位が、前記対象地物に対して予め設定された測定点を含む部位であるか否かを判定する判定部と、
前記対象地物の特徴が前記画像に含まれている量を抽出する特徴量抽出部と、を有し、
前記撮像部位推定部は、前記各画像の特徴量の時間変化から前記撮像部位を推定すると共に、前記各画像の間で前記画像の状態が遷移する確率である状態遷移確率と、前記画像から所定の特徴量が抽出された場合に該画像の状態が所定状態となる確率である観測確率と、を用いて前記撮像部位を推定することを特徴とする地物位置認識装置。 A feature position recognition device that processes an image captured by an in-vehicle camera and recognizes the position of a target feature existing around the vehicle,
An imaging part estimation unit that estimates which part of the target feature is being imaged from a plurality of images that are imaged along with the movement of the vehicle;
A determination unit for determining whether the imaging part estimated by the imaging part estimation unit is a part including a measurement point set in advance for the target feature;
Have a, a feature extraction unit for extracting a quantity characteristic of the target feature is included in the image,
The imaging part estimation unit estimates the imaging part from a temporal change in the feature amount of each image, and also includes a state transition probability that is a probability that the state of the image transitions between the images, and a predetermined value from the image A feature position recognizing apparatus that estimates the imaging region using an observation probability that is a probability that the state of the image becomes a predetermined state when the feature amount is extracted .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008281510A JP5097681B2 (en) | 2008-10-31 | 2008-10-31 | Feature position recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008281510A JP5097681B2 (en) | 2008-10-31 | 2008-10-31 | Feature position recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010107435A JP2010107435A (en) | 2010-05-13 |
JP5097681B2 true JP5097681B2 (en) | 2012-12-12 |
Family
ID=42297008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008281510A Active JP5097681B2 (en) | 2008-10-31 | 2008-10-31 | Feature position recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5097681B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023089432A1 (en) | 2021-11-16 | 2023-05-25 | Johnson & Johnson Consumer Inc. | Customizable dosage forms containing simethicone |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5469148B2 (en) * | 2011-10-13 | 2014-04-09 | 本田技研工業株式会社 | Vehicle control device |
JP6525542B2 (en) * | 2014-10-17 | 2019-06-05 | キヤノン株式会社 | Abnormality detection method, abnormality detection device, and program |
JP6804965B2 (en) * | 2016-12-15 | 2020-12-23 | 株式会社日立製作所 | Image processing equipment, image processing system, and image processing method |
JP6747405B2 (en) | 2017-08-25 | 2020-08-26 | トヨタ自動車株式会社 | Own vehicle position confidence calculator |
JP7250211B2 (en) | 2020-03-06 | 2023-03-31 | 日立Astemo株式会社 | processing equipment |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4292250B2 (en) * | 2004-07-02 | 2009-07-08 | トヨタ自動車株式会社 | Road environment recognition method and road environment recognition device |
JP4820712B2 (en) * | 2005-08-05 | 2011-11-24 | アイシン・エィ・ダブリュ株式会社 | Road marking recognition system |
JP5010844B2 (en) * | 2006-03-31 | 2012-08-29 | アイシン・エィ・ダブリュ株式会社 | Feature information output device, image recognition device, and own vehicle position recognition device |
JP4761156B2 (en) * | 2006-12-27 | 2011-08-31 | アイシン・エィ・ダブリュ株式会社 | Feature position recognition apparatus and feature position recognition method |
-
2008
- 2008-10-31 JP JP2008281510A patent/JP5097681B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023089432A1 (en) | 2021-11-16 | 2023-05-25 | Johnson & Johnson Consumer Inc. | Customizable dosage forms containing simethicone |
Also Published As
Publication number | Publication date |
---|---|
JP2010107435A (en) | 2010-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4420011B2 (en) | Object detection device | |
JP4107587B2 (en) | Lane recognition image processing device | |
JP5441549B2 (en) | Road shape recognition device | |
JP5074365B2 (en) | Camera device | |
US8175797B2 (en) | Vehicle drive assist system | |
US8461976B2 (en) | On-vehicle device and recognition support system | |
EP2933790A1 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
US9965690B2 (en) | On-vehicle control device | |
KR101722258B1 (en) | Method of calculating distance between cars | |
US20150298621A1 (en) | Object detection apparatus and driving assistance apparatus | |
US20100110193A1 (en) | Lane recognition device, vehicle, lane recognition method, and lane recognition program | |
JP2013225295A5 (en) | ||
JP5097681B2 (en) | Feature position recognition device | |
WO2015186294A1 (en) | Vehicle-mounted image-processing device | |
US9842265B2 (en) | Marking line detection system | |
JP4951481B2 (en) | Road marking recognition device | |
US9824449B2 (en) | Object recognition and pedestrian alert apparatus for a vehicle | |
KR102100047B1 (en) | Method for position recognition of vehicle using lane-end-point detection algorithm and method for evaluating performance of the same | |
JP5997962B2 (en) | In-vehicle lane marker recognition device | |
JP2011103058A (en) | Erroneous recognition prevention device | |
JP5832850B2 (en) | Lane monitoring system and lane monitoring method | |
US20170124880A1 (en) | Apparatus for recognizing vehicle location | |
JP4768499B2 (en) | In-vehicle peripheral other vehicle detection device | |
JP2007310591A (en) | Image processor and parking space determination method | |
JP2018073049A (en) | Image recognition device, image recognition system, and image recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120228 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120911 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120924 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5097681 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150928 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |