JP6756101B2 - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP6756101B2 JP6756101B2 JP2015237908A JP2015237908A JP6756101B2 JP 6756101 B2 JP6756101 B2 JP 6756101B2 JP 2015237908 A JP2015237908 A JP 2015237908A JP 2015237908 A JP2015237908 A JP 2015237908A JP 6756101 B2 JP6756101 B2 JP 6756101B2
- Authority
- JP
- Japan
- Prior art keywords
- landmark
- captured image
- map
- vehicle
- white line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、物体認識装置に関する。 The present invention relates to an object recognition device.
従来、車両周辺の撮像画像から物体を認識する技術に関する文献として下記の特許文献1が知られている。この特許文献1には、撮像画像に道路上に描かれた菱形マーク(前方に横断歩道があることを示すマーク)等の道路標示が含まれる場合、法令上で定められた道路標示の横幅と撮像画像における道路標示の横幅に基づいて、車両から道路標示までの距離を算出する装置が示されている。この装置では、算出した車両から道路標示までの距離を利用して、撮像画像に含まれる物体の位置を計測している。
Conventionally, the following
ところで、上述した従来の装置においては、車両から道路標示までの距離を求めるために、撮像画像上の道路標示の横幅を用いている。このため、撮像画像上の横幅から当該距離に変換するときに幅1ピクセル毎の誤差(例えば距離15mで10cm程度、距離30mで50cm程度の誤差)が計算結果に含まれてしまう。その結果、物体の位置の測定精度が低下するおそれがあった。 By the way, in the above-mentioned conventional device, the width of the road marking on the captured image is used in order to obtain the distance from the vehicle to the road marking. Therefore, when converting the width on the captured image to the distance, an error for each pixel of the width (for example, an error of about 10 cm at a distance of 15 m and an error of about 50 cm at a distance of 30 m) is included in the calculation result. As a result, the accuracy of measuring the position of the object may decrease.
そこで、本技術分野では、撮像画像から物体の位置を精度良く算出することができる物体認識装置を提供することが望まれている。 Therefore, in the present technical field, it is desired to provide an object recognition device capable of accurately calculating the position of an object from an captured image.
本発明の一態様は、車両の周囲を撮像して得られた撮像画像に基づいて、車両の周囲の物体を認識する物体認識装置であって、地図上の車両の位置を認識する車両位置認識部と、地図上のランドマークの位置情報を記憶する記憶部と、撮像画像、地図上の車両の位置、及び地図上のランドマークの位置情報に基づいて、撮像画像上のランドマークの位置座標を認識するランドマーク認識部と、撮像画像に基づいて、撮像画像上の物体の位置座標を認識する物体認識部と、撮像画像上の物体の位置座標、撮像画像上のランドマークの位置座標、及び地図上のランドマークの位置情報に基づいて、同じ撮像画像上におけるランドマークと物体の位置関係を利用して地図上の物体の位置を算出する物体位置算出部と、を備える。 One aspect of the present invention is an object recognition device that recognizes an object around a vehicle based on an image obtained by imaging the surroundings of the vehicle, and is a vehicle position recognition that recognizes the position of the vehicle on a map. A storage unit that stores the position information of the landmark on the map, and the position coordinates of the landmark on the captured image based on the captured image, the position of the vehicle on the map, and the position information of the landmark on the map. The landmark recognition unit that recognizes the image, the object recognition unit that recognizes the position coordinates of the object on the captured image based on the captured image, the position coordinates of the object on the captured image, the position coordinates of the landmark on the captured image, It also includes an object position calculation unit that calculates the position of an object on the map by using the positional relationship between the landmark and the object on the same captured image based on the position information of the landmark on the map.
以上説明したように、本発明によれば、撮像画像から物体の位置を精度良く算出することができる。 As described above, according to the present invention, the position of the object can be calculated accurately from the captured image.
以下、本発明の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1に示す本実施形態に係る物体認識装置100は、乗用車等の車両に搭載され、車両の周囲を撮像して得られた撮像画像に基づいて物体を認識する装置である。物体とは、車両と衝突するおそれのある障害物である。物体には、他車両(駐車車両も含む)、歩行者、自転車、電柱等の構造物が含まれる。物体認識装置100は、車両の周囲の撮像画像から物体の位置を算出する。
The
[物体認識装置の構成]
図1に示すように、物体認識装置100は、ECU[Engine Control Unit]10を備えている。ECU10は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]、CAN[Controller Area Network]通信回路等を有する電子制御ユニットである。ECU10では、ROMに記憶されているプログラムをCAN通信回路を介してRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU10は、複数の電子制御ユニットから構成されていてもよい。ECU10には、単眼カメラ1、地図情報記憶部2、ランドマーク情報記憶部3、及びGPS受信部4が接続されている。
[Configuration of object recognition device]
As shown in FIG. 1, the
単眼カメラ1は、車両の外部を撮像する撮像機器(例えばCCDカメラ、CMOSカメラ)である。単眼カメラ1は、車両のフロントガラスの裏側に配置され、所定の画角で車両の前方(進行方向)を撮像する。単眼カメラ1は、車両の前方の撮像画像をECU10へ送信する。単眼カメラ1は、車両の背面、車両の左側面、及び車両の右側面に設けられていてもよい。この場合、単眼カメラ1は、車両の後方、車両の左側方、及び車両の右側方を撮像する。
The
地図情報記憶部2は、地図情報を備えたデータベースである。地図情報記憶部2は、車両に搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率等)、交差点及び分岐点の位置情報、及び建物の位置情報等が含まれる。なお、地図情報記憶部2は、車両と通信可能な情報処理センター等の施設のコンピュータに記憶されていてもよい。
The map
ランドマーク情報記憶部3は、ランドマークの情報を備えたデータベースである。ランドマーク情報記憶部3は、車両に搭載されたHDD内に形成されている。ランドマークとは、道路面上(車両通行帯以外の路面上も含む)で位置が固定され、物体の位置の算出の基準となるものである。ランドマークには、道路標識、及び道路標示が含まれる。道路標識には、案内標識、警戒標識、規制標識、指示標識等がある。道路標示には、規制標示と指示標示が含まれる。規制標示には、転回禁止マーク、最高速度マーク等がある。指示標示には、白線(車道中央線、車道外側線、車線境界線等)、前方に横断歩道があることを示す菱形マーク、前方に優先道路があることを示す三角マーク、進行方向マーク等がある。
The landmark
ランドマーク情報記憶部3は、地図上のランドマークの位置情報を記憶している。すなわち、ランドマーク情報記憶部3は、地図情報記憶部2の記憶している地図情報に関連付けられたランドマークの位置情報を記憶している。また、ランドマーク情報記憶部3は、撮像画像からランドマークを認識するためのランドマークの画像情報を記憶している。ランドマークの画像情報とは、後述するパターン認識に用いられる画像の特徴の情報である。ランドマークの画像情報には、道路標識の形状、道路標示の形状等が含まれる。
The landmark
ランドマーク情報記憶部3は、ランドマークの位置情報と当該ランドマークの画像情報を関連付けて記憶している。なお、ランドマーク情報記憶部3は、車両と通信可能な情報処理センター等の施設のコンピュータに記憶されていてもよい。また、地図情報記憶部2が地図情報に加えて、ランドマークの位置情報及びランドマークの画像情報を記憶する態様であってもよい。
The landmark
GPS受信部4は、車両に搭載され、車両の位置を測定する位置測定部として機能する。GPS受信部4は、3個以上のGPS衛星から信号を受信することにより、車両の位置(例えば車両Mの緯度及び経度)を測定する。GPS受信部4は、測定した車両の位置の情報をECU10へ送信する。
The GPS receiving unit 4 is mounted on the vehicle and functions as a position measuring unit for measuring the position of the vehicle. The GPS receiving unit 4 measures the position of the vehicle (for example, the latitude and longitude of the vehicle M) by receiving signals from three or more GPS satellites. The GPS receiving unit 4 transmits the measured vehicle position information to the
次に、ECU10の機能的構成について説明する。ECU10は、車両位置認識部11、ランドマーク認識部12、物体認識部13、及び物体位置算出部14を有している。
Next, the functional configuration of the
車両位置認識部11は、地図情報記憶部2の地図情報及びGPS受信部4の位置情報に基づいて、地図上の車両の位置を認識する。車両位置認識部11は、GPS受信部4の位置情報の時間変化に基づいて、地図上の車両の向きを認識する。なお、車両位置認識部11は必ずしも車両の向きを認識する必要はない。
The vehicle
ランドマーク認識部12は、単眼カメラ1の撮像した撮像画像に含まれるランドマークを認識する。ランドマーク認識部12は、ランドマーク情報記憶部3の記憶しているランドマークの位置情報及びランドマークの画像情報と、車両位置認識部11の認識した地図上の車両の位置及び向きとに基づいて、撮像画像に含まれるランドマークを認識する。
The
ここで、図2は、撮像画像に含まれるランドマークの認識を説明するための図である。図2に、撮像画像、白線W1、W2、菱形マーク(道路標示)D、道路標識Rs、道路標識Rsの根本Rtを示す。また、撮像画像の横方向をu軸方向、撮像画像の縦方向をv軸方向としてuv直交座標系を示す。本実施形態においては、撮像画像のu軸方向は車両の車幅方向(左右方向)に相当する。 Here, FIG. 2 is a diagram for explaining the recognition of landmarks included in the captured image. FIG. 2 shows an captured image, white lines W1 and W2, a diamond mark (road marking) D, a road sign Rs, and a root Rt of the road sign Rs. Further, the uv Cartesian coordinate system is shown with the horizontal direction of the captured image as the u-axis direction and the vertical direction of the captured image as the v-axis direction. In the present embodiment, the u-axis direction of the captured image corresponds to the vehicle width direction (left-right direction) of the vehicle.
図2に示す撮像画像において、ランドマーク認識部12は、地図上の車両の位置及び向きと、地図上のランドマークの位置情報とに基づいて、記憶されているランドマークの中から単眼カメラ1の撮像方向に位置するランドマークを抽出する。ランドマーク認識部12は、抽出したランドマークに関してランドマーク情報記憶部3が記憶しているランドマークの画像情報に基づき、パターン認識を行なうことにより、撮像画像に含まれるランドマークを認識する。
In the captured image shown in FIG. 2, the
パターン認識は、認識したいランドマークの画像の特徴(画像情報に含まれる)を予め学習しておき、撮像画像から切り出した部分画像の特徴と学習したランドマークの画像の特徴を比較し、十分に近い場合に切り出した部分をランドマークとみなす。なお、このパターン認識は、撮像画像からの物体認識にも用いられる。 In pattern recognition, the characteristics of the landmark image to be recognized (included in the image information) are learned in advance, and the characteristics of the partial image cut out from the captured image are compared with the characteristics of the learned landmark image. The part cut out when it is close is regarded as a landmark. This pattern recognition is also used for object recognition from captured images.
ランドマークのうち、路面に描かれた道路標示については、エッジ抽出を利用して認識してもよい。撮像画像のu軸方向(車両の車幅方向)において、画素(ピクセル)の輝度が急変する箇所をエッジとして抽出することで、路面におけるエッジの情報と道路標示の画像情報から道路標示を認識することができる。 Of the landmarks, the road markings drawn on the road surface may be recognized by using edge extraction. The road marking is recognized from the edge information on the road surface and the image information of the road marking by extracting the part where the brightness of the pixel (pixel) suddenly changes in the u-axis direction (vehicle width direction) of the captured image as an edge. be able to.
ランドマーク認識部12は、パターン認識又はエッジ抽出により、図2に示す白線W1、W2、菱形マークD、及び道路標識Rsをランドマークとして認識する。ランドマーク認識部12は、認識したランドマークの撮像画像上の位置座標(u軸座標、v軸座標)を認識する。道路標示である菱形マークDの位置座標は、撮像画像上における菱形マークDの中心の座標とすることができる。道路標識Rsの位置座標は、撮像画像上における道路標識Rsの根本Rtの座標とすることができる。白線W1、W2の位置座標については後述する。ランドマーク認識部12は、同一のランドマークについて、撮像画像上のランドマークの位置座標と地図上のランドマークの位置情報を関連付けて認識する。
The
物体認識部13は、単眼カメラ1の撮像した撮像画像に基づいて、撮像画像に含まれる物体を認識する。物体認識部13は、上述したパターン認識及びエッジ抽出を用いて、物体を認識する。物体認識部13は、周知の手法を用いて、撮像画像に含まれる物体の認識を行うことができる。物体認識部13は、撮像画像上の物体の位置座標(u軸座標、v軸座標)を認識する。物体の位置座標は、撮像画像上における物体の下辺(下端)の中心の座標とすることができる。
The
物体位置算出部14は、物体認識部13が認識した撮像画像上の物体の位置座標、ランドマーク認識部12が認識した撮像画像上におけるランドマークの位置座標、地図上のランドマークの位置情報に基づいて、地図上の物体の位置を算出する。物体位置算出部14は、撮像画像上におけるランドマークと物体の位置関係を利用して、地図上の物体の位置を算出する。物体の位置の算出について詳しくは後述する。
The object
[物体認識装置の物体位置算出処理]
以下、本実施形態に係る物体認識装置100の物体位置算出処理について説明する。図3は、物体認識装置100の物体位置算出処理を示すフローチャートである。図3に示すフローチャートは、運転者により車両のエンジンが始動された場合に開始される。
[Object position calculation process of object recognition device]
Hereinafter, the object position calculation process of the
図3に示すように、物体認識装置100のECU10は、S10において、物体認識部13によって撮像画像に含まれる物体を認識したか否かを判定する。物体認識部13は、単眼カメラ1の撮像した車両の周囲の撮像画像に基づいて、周知の手法により、他車両等の物体を認識する。
As shown in FIG. 3, the
ECU10は、物体が認識されない場合(S10:NO)、今回の処理を終了する。その後、一定時間の経過後に再びS10から処理を繰り返す。ECU10は、撮像画像に含まれる物体が認識された場合(S10:YES)、S12に移行する。S12において、ECU10は、物体認識部13によって撮像画像上の物体の位置座標(u軸座標、v軸座標)を認識する。その後、S14に移行する。
When the object is not recognized (S10: NO), the
S14において、ECU10は、ランドマーク認識部12によって撮像画像に含まれるランドマークを認識したか否かを判定する。ランドマーク情報記憶部3の記憶しているランドマークの位置情報及び画像情報と、車両位置認識部11の認識した地図上の車両の位置及び向きとに基づいて、撮像画像に含まれるランドマークを認識する。
In S14, the
ECU10は、ランドマークが認識されない場合(S14:NO)、今回の処理を終了する。その後、一定時間の経過後に再びS10から処理を繰り返す。ECU10は、撮像画像に含まれるランドマークが認識された場合(S14:YES)、S16に移行する。S16において、ECU10は、ランドマーク認識部12によって撮像画像に含まれるランドマークの撮像画像上の位置座標を認識する。ランドマーク認識部12は、撮像画像上のランドマークの位置座標と、地図上のランドマークの位置情報とを関連付けて認識する。その後、S18に移行する。
When the landmark is not recognized (S14: NO), the
S18において、ECU10は、物体位置算出部14において地図上の物体の位置を算出する。物体位置算出部14は、撮像画像上の物体の位置座標、撮像画像上のランドマークの位置座標、地図上のランドマークの位置情報に基づいて、地図上の物体の位置を算出する。ECU10は、地図上の物体の位置を算出した場合、今回の処理を終了する。その後、一定時間の経過後に再びS10から処理を繰り返す。
In S18, the
[ランドマークが白線の場合の物体位置算出処理]
次に、ランドマークが白線の場合の処理について説明する。ここでは、図3のS16以降の処理について図4を参照して説明する。図4は、白線点を用いたランドマークの位置座標の認識処理を示すフローチャートである。白線点とは、地図上の白線に一定間隔毎にプロットされた点である。白線点は、地図上の白線の位置情報に対応している。図4に示すフローチャートは、ランドマーク認識部12によって、撮像画像に含まれるランドマークとして白線が認識された場合に開始される。
[Object position calculation process when landmark is white line]
Next, the processing when the landmark is a white line will be described. Here, the processing after S16 in FIG. 3 will be described with reference to FIG. FIG. 4 is a flowchart showing a landmark position coordinate recognition process using white line points. White line points are points plotted on the white line on the map at regular intervals. The white line points correspond to the position information of the white lines on the map. The flowchart shown in FIG. 4 is started when the
図4に示すように、ECU10は、S20として、ランドマーク認識部12によって白線点を撮像画像に投影する。ここで、図5(a)は、地図上の白線点を示す平面図である。図5(a)に、車両M、車両Mの走行する走行車線を形成する二本の白線w1,w2、白線点a1〜a6を示す。図5(a)に示す白線w1,w2は、地図情報記憶部2に記憶された地図情報における白線である。白線点a1〜a3は、白線w1の位置情報に対応する点である。白線点a4〜a6は、白線w2の位置情報に対応する点である。また、図5(a)において、車両の進行方向(前方向)をx軸方向、車両の車幅方向(左右方向)をy軸方向としてxy直交座標系を示す。
As shown in FIG. 4, the
図5(a)に示すように、ランドマーク認識部12は、ランドマークとして白線を認識した場合、地図上の車両の位置及び向きに基づいて、ランドマーク情報記憶部3に記憶された白線W1,W2の位置情報に対応する複数の白線点(白線点a1〜a6を含む)を認識する。白線点は地図上の位置情報(x軸座標、y軸座標)をそれぞれ有している。
As shown in FIG. 5A, when the
ランドマーク認識部12は、認識した地図上の白線点を撮像画像に投影する。ランドマーク認識部12は、周知の手法により、単眼カメラ1のパラメータに応じて、撮像画像上に単眼カメラ1から見た白線点を投影する。単眼カメラ1のパラメータとは、単眼カメラ1の取付高さ、ロール、ピッチ、及びヨーである。これらのパラメータが変化すると、単眼カメラ1から見た白線点の見え方が変化する。
The
ランドマーク認識部12は、既に後述するS26で単眼カメラ1のパラメータを変更済みである場合には、変更した単眼カメラ1のパラメータを用いて撮像画像上に白線点を投影する。ランドマーク認識部12は、図4に示すフローチャートを一度もループしていない場合(一度もRETURNに至っていない場合)、単眼カメラ1のパラメータを初期値(予め設定された値)として白線点の投影を行う。ランドマーク認識部12は、撮像画像上に白線点を投影した場合、S22に移行する。
When the parameters of the
S22において、ランドマーク認識部12は、撮像画像に投影した白線点a1〜a6と撮像画像の白線W1,W2のずれを算出する。ここで、図5(b)は、撮像画像に投影した白線点を示す図である。図5(b)に、撮像画像上の白線W1,W2、投影された白線点a1〜a6、白線W1と白線点a3の差分dを示す。差分dは、撮像画像のu軸方向(横方向)における白線W1と白線点a3の差分(ピクセルの差)である。ランドマーク認識部12は、全ての白線点のずれを算出した場合、S24に移行する。
In S22, the
S24において、ランドマーク認識部12は、終了条件を満たしたか否かを判定する。終了条件は、S22で算出された全ての白線点と白線W1又は白線W2とのずれが予め設定された閾値以下である場合に満たされる。また、終了条件は、後述するS26における単眼カメラ1のパラメータ変更処理が予め用意された全てのパターン実行された場合に満たされる。終了条件は、S20〜S24の処理が予め設定された上限回数に達するまで繰り返された場合に満たされてもよい。
In S24, the
ランドマーク認識部12は、終了条件を満たしていないと判定した場合(S24:NO)、S26に移行する。ランドマーク認識部12は、終了条件を満たしたと判定した場合(S24:YES)、S28に移行する。
When the
S26において、ランドマーク認識部12は、次のS20において用いる単眼カメラ1のパラメータを変更する。ランドマーク認識部12は、予め設定されたパターンで単眼カメラ1のパラメータを変更する。ランドマーク認識部12は、S26を実行する度に、ロール、ピッチ、ヨーのいずれかを所定の角度ずつ増やしてもよい。その他、ランドマーク認識部12は、S22で算出した白線点と白線のずれの大きさに応じて、単眼カメラ1のパラメータを変更してもよい。ランドマーク認識部12は、単眼カメラ1のパラメータを変更した場合、今回の処理を終了する。その後、再びS20から処理を繰り返す。
In S26, the
S28において、ランドマーク認識部12は、撮像画像上の白線点の位置座標と、地図上の白線点の位置情報の関連付けを行う。ランドマーク認識部12は、図4に示すフローチャートを複数回繰り返した場合には、全ての白線点と白線の間のずれの平均値が最小となったときの撮像画像上の白線点の位置座標を採用する。ランドマーク認識部12は、ずれが最小となる撮像画像上の白線点の位置座標を、それぞれ対応する地図上の白線点の位置情報と関連付けする。ランドマーク認識部12は、関連付けを行なった場合、今回の処理を終了する。その後、ECU10は、図6に示す処理を開始する。
In S28, the
図6は、ランドマークが白線の場合の物体の位置の算出処理を示すフローチャートである。図6に示すフローチャートは、図3のS18に対応する。図6に示すフローチャートは、図5に示すS28が終了した場合に開始される。 FIG. 6 is a flowchart showing a calculation process of the position of an object when the landmark is a white line. The flowchart shown in FIG. 6 corresponds to S18 in FIG. The flowchart shown in FIG. 6 is started when S28 shown in FIG. 5 is completed.
図6に示すように、ECU10は、S30において、物体位置算出部14によって撮像画像上で物体の左右に位置する交点L、Rの位置座標を算出する。ここで、図7(a)は、撮像画像上の交点L、Rの位置座標の求め方を説明するための図である。図7(a)に、物体N、物体Nの下辺中心C、物体Nの下辺をu軸方向(横方向)に延長した直線E、白線点a1と白線点a2を結ぶ直線状の線分K1、白線点a4と白線点a5を結ぶ直線状の線分K2、直線Eと線分K1との交点L、及び、直線Eと線分K2との交点Rを示す。物体Nは、一例として車両Mの前方を走行する先行車である。この場合、下辺中心Cは、先行車の後輪の車幅方向中心の位置に相当する。
As shown in FIG. 6, in S30, the
図7(a)に示すように、白線点a4の位置座標を(u4、v4)、白線点a5の位置座標を(u5、v5)、交点Rの位置座標を(uR、vR)とする。同様に、白線点a1の位置座標を(u1、v1)、白線点a2の位置座標を(u2、v2)、交点Rの位置座標を(uL、vL)とする。また、物体Nの下辺中心Cの位置座標を(uC、vC)とする。なお、物体Nの下辺中心Cの位置座標(uC、vC)については、図3のS12において物体認識部13が認識済みである。
As shown in FIG. 7A, the position coordinates of the white line point a4 are (u4, v4), the position coordinates of the white line point a5 are (u5, v5), and the position coordinates of the intersection R are (uR, vR). Similarly, the position coordinates of the white line point a1 are (u1, v1), the position coordinates of the white line point a2 are (u2, v2), and the position coordinates of the intersection R are (uL, vL). Further, let the position coordinates of the lower side center C of the object N be (uC, vC). The
図7(a)に示すように、撮像画像のv軸座標について下辺中心C、交点L、及び交点Rは一致する。このため、交点L及び交点Rのv軸座標は、下辺中心Cのv軸座標と等しく、vC=vL=vRの関係から求めることができる。一方で、撮像画像のu軸方向については、線分K1上に白線点a1,a2及び交点Lが位置し、線分K2上に白線点a4,a5及び交点Rが位置することから、下記の式(1)、式(2)を用いた線形補間により求めることができる。
uL=(vL−v1)/(v2−v1)×u2+(vL−v2)/(v1−v2)×u1・・・(1)
uR=(vR−v4)/(v5−v4)×u5+(vR−v5)/(v4−v5)×u4・・・(2)
As shown in FIG. 7A, the lower center C, the intersection L, and the intersection R coincide with each other with respect to the v-axis coordinates of the captured image. Therefore, the v-axis coordinates of the intersection L and the intersection R are equal to the v-axis coordinates of the lower center C, and can be obtained from the relationship of vC = vL = vR. On the other hand, in the u-axis direction of the captured image, the white line points a1 and a2 and the intersection point L are located on the line segment K1, and the white line points a4 and a5 and the intersection point R are located on the line segment K2. It can be obtained by linear interpolation using equations (1) and (2).
uL = (vL-v1) / (v2-v1) x u2 + (vL-v2) / (v1-v2) x u1 ... (1)
uR = (vR-v4) / (v5-v4) x u5 + (vR-v5) / (v4-v5) x u4 ... (2)
上記の式(1)、式(2)から、交点L及び交点Rのu軸座標を求めることができる。このようにして、物体位置算出部14は、交点Lの位置座標(uL、vL)及び交点Rの位置座標(uR、vR)を算出する。その後、物体位置算出部14は、図6に示すS32に移行する。
From the above equations (1) and (2), the u-axis coordinates of the intersection L and the intersection R can be obtained. In this way, the object
S32において、物体位置算出部14は、地図上の交点Lの位置(xL、yL)及び地図上の交点Rの位置(xR、yR)を算出する。ここで、図7(b)は地図上の交点L、Rの位置の求め方を説明するための平面図である。図7(b)においては、先行車である物体Nの後輪の幅方向中心が、撮像画像における下辺中心Cに対応する。地図上のy軸方向(左右方向)と撮像画像上のu軸方向は同じであるため、直線Eは下辺中心Cを通りy軸方向に延在する直線として表される。また、図7(b)に示すように、地図上においても交点Lは、白線点a1及び白線点a2と同じ線分K1上に位置する。同様に、地図上においても交点Rは、白線点a4及び白線点a5と同じ線分K2上に位置する。
In S32, the object
図8(a)は、交点Lのx軸座標の求め方を説明するためのグラフである。図8(a)のグラフでは、縦軸がv軸、横軸がx軸となっている。図8(a)に示すように、白線点a1〜a3の位置情報(ランドマーク情報記憶部3が記憶している位置情報)に基づいて、白線点a1〜a3を通る曲線x=f(v)をvの3次式で表すことができる。この3次式には、ラグランジュ補間、ニュートン補間等を用いることができる。この3次式に、交点Lのv軸座標(vL)を代入することで、交点Lのx軸座標(xL)を求めることができる。なお、交点Rのx軸座標(xR)は、交点Lのx軸座標(xL)と等しい。
FIG. 8A is a graph for explaining how to obtain the x-axis coordinates of the intersection L. In the graph of FIG. 8A, the vertical axis is the v-axis and the horizontal axis is the x-axis. As shown in FIG. 8A, a curve x = f (v) passing through the white line points a1 to a3 based on the position information of the white line points a1 to a3 (position information stored in the landmark
図8(b)は、交点Lのy軸座標の求め方を説明するためのグラフである。図8(b)のグラフでは、縦軸がy軸、横軸がu軸となっている。この場合、図8(b)に示すように、白線点a1〜a3と交点Lはほぼ線形の関係が成り立つ。このため、交点Lのy軸座標(yL)は、下記の式(3)を用いた線形補間により求めることができる。
yL=(uL−u2)/(u1−u2)×y1+(u2−u1)/(u2−u1)×y2・・・(3)
FIG. 8B is a graph for explaining how to obtain the y-axis coordinates of the intersection L. In the graph of FIG. 8B, the vertical axis is the y-axis and the horizontal axis is the u-axis. In this case, as shown in FIG. 8B, the white line points a1 to a3 and the intersection point L have a substantially linear relationship. Therefore, the y-axis coordinates (yL) of the intersection L can be obtained by linear interpolation using the following equation (3).
yL = (uL-u2) / (u1-u2) x y1 + (u2-u1) / (u2-u1) x y2 ... (3)
同様に、交点Rのy軸座標(yR)は、下記の式(4)を用いた線形補間により求めることができる。
yR=(uR−u5)/(u4−u5)×y4+(uR−u4)/(u5−u4)×y5・・・(4)
Similarly, the y-axis coordinates (yR) of the intersection R can be obtained by linear interpolation using the following equation (4).
yR = (uR-u5) / (u4-u5) x y4 + (uR-u4) / (u5-u4) x y5 ... (4)
このようにして、物体位置算出部14は、地図上の交点Lの位置(xL、yL)及び地図上の交点Rの位置(xR、yR)を算出する。その後、物体位置算出部14は、図6に示すS34に移行する。
In this way, the object
S34において、物体位置算出部14は、地図上の物体Nの位置を算出する。物体位置算出部14は、撮像画像上の物体Nの下辺中心Cの位置座標(uC、vC)、撮像画像上の交点Lの位置座標(uL、vL)、撮像画像上の交点Rの位置座標(uR、vR)、地図上の交点Lの位置(xL、yL)、及び、地図上の交点Rの位置(xR、yR)に基づいて、地図上の物体Nの下辺中心Cの位置を算出する。
In S34, the object
ここで、地図上のx軸方向と撮像画像上のu軸方向を含む二次元平面を考えると、交点L及び交点Rを結ぶ直線Eは地図上でもほぼ直線をなしている。このため、物体Nの下辺中心Cのx軸座標は、下記の式(5)を用いた線形補間により求めることができる。
xC=(uC−uR)/(uL−uR)×xL+(uC−uL)/(uR−uL)×xR・・・(5)
Here, considering a two-dimensional plane including the x-axis direction on the map and the u-axis direction on the captured image, the straight line E connecting the intersection L and the intersection R is substantially a straight line on the map. Therefore, the x-axis coordinates of the lower side center C of the object N can be obtained by linear interpolation using the following equation (5).
xC = (uC-uR) / (uL-uR) x xL + (uC-uL) / (uR-uL) x xR ... (5)
同様に、地図上のy軸方向と撮像画像上のu軸方向を含む二次元平面を考えると、物体Nの下辺中心Cのy軸座標は、下記の式(6)を用いた線形補間により求めることができる。
yC=(uC−uR)/(uL−uR)×yL+(uC−uL)/(uR−uL)×yR・・・(6)
Similarly, considering a two-dimensional plane including the y-axis direction on the map and the u-axis direction on the captured image, the y-axis coordinates of the lower side center C of the object N are obtained by linear interpolation using the following equation (6). Can be sought.
yC = (uC-uR) / (uL-uR) x yL + (uC-uL) / (uR-uL) x yR ... (6)
このようにして、物体位置算出部14は、地図上の物体Nの下辺中心Cの位置(xC、yC)を算出することができる。
In this way, the object
[物体認識装置の作用効果]
以上説明した本実施形態に係る物体認識装置100によれば、撮像画像上の物体Nの位置座標とランドマークの位置座標を認識し、予め記憶している地図上のランドマークの位置情報を用いて、地図上の物体Nの位置を算出することができる。従って、この物体認識装置100によれば、予め記憶している地図上のランドマークの位置情報を用いるので、撮像画像上のランドマークの大きさ(横幅)と位置から車両とランドマークの距離を求め当該距離を用いて物体の位置を算出する従来の装置と異なり、撮像画像上でランドマークと物体が縦方向に離れるほど位置の算出精度が低下することがなく、撮像画像から地図上の物体Nの位置を精度良く算出することができる。
[Action and effect of object recognition device]
According to the
以上、本発明の好適な実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。例えば、単眼カメラ1が車両Mの前方を撮像した撮像画像を例に挙げて説明したが、車両の後方、車両の右側方、車両の左側方を撮像した撮像画像についても本発明は適用可能である。
Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment. The present invention can be carried out in various forms in which various modifications and improvements have been made based on the knowledge of those skilled in the art, including the above-described embodiment. For example, the image captured by the
[ランドマークが道路標識又は道路標示の場合の例]
以下、ランドマークが道路標識又は道路標示の場合の例について説明する。図9(a)は、三つのランドマークを用いた物体の位置の求め方の一例を説明するための図である。ここでは、三つのランドマークが撮像画像上で物体Nを囲むように配置されている場合について説明する。図9(a)に示すように、白線に代えてランドマークとして道路標識又は道路標示を用いる場合、ランドマークの位置座標は点(例えば道路標識の根本、道路標示の中心)として示すことができる。
[Example when the landmark is a road sign or road marking]
Hereinafter, an example in which the landmark is a road sign or a road marking will be described. FIG. 9A is a diagram for explaining an example of how to obtain the position of an object using three landmarks. Here, a case where three landmarks are arranged so as to surround the object N on the captured image will be described. As shown in FIG. 9A, when a road sign or a road marking is used as a landmark instead of a white line, the position coordinates of the landmark can be shown as a point (for example, the root of the road sign, the center of the road marking). ..
図9(a)に、ランドマークの点b1〜b3、物体N、物体Nの下辺中心C、物体Nの下辺を延長した直線E、点b1及び点b2を結ぶ直線状の線分K10、点b2及び点b3を結ぶ直線状の線分K11、直線Eと線分K10の交点L、及び、直線Eと線分K11の交点Rを示す。ランドマークの点b1〜b3は、ランドマーク認識部12によって撮像画像上の位置座標(u軸座標、v軸座標)を認識されている。また、ランドマークの点b1〜b3の地図上の位置情報(x軸座標、y軸座標)は、ランドマーク情報記憶部3に記憶されている。また、物体Nの下辺中心Cは、物体認識部13によって撮像画像上の位置座標(uC、vC)が認識されている。
In FIG. 9A, points b1 to b3 of the landmark, object N, the center C of the lower side of the object N, a straight line E extending the lower side of the object N, a straight line segment K10 connecting the points b1 and b2, and a point. The linear line segment K11 connecting b2 and the point b3, the intersection L of the straight line E and the line segment K10, and the intersection R of the straight line E and the line segment K11 are shown. The landmark points b1 to b3 are recognized by the
図9(a)に示す状況において、物体位置算出部14は、ランドマークが白線の場合と同様の手順により、線形補間を利用して撮像画像上の交点Lの位置座標(uL、vL)を算出する。物体位置算出部14は、上述した式(1)において、白線点a1の位置座標に代えて点b1の位置座標を採用し、白線点a2の位置座標に代えて点b2の位置座標を採用することで、交点Lのu軸座標(uL)を求めることができる。なお、交点Lのv軸座標(vL)は、物体Nの下辺中心Cのv軸座標(vC)と同じである。同様にして、物体位置算出部14は、撮像画像上の交点Rの位置座標(uR、vR)を算出する。
In the situation shown in FIG. 9A, the object
次に、物体位置算出部14は、ランドマークが白線の場合と同様の手順により、地図上の交点Lの位置(xL、yL)を算出する。物体位置算出部14は、上述した式(3)において、白線点a1の位置情報に代えて点b1の位置情報を採用し、白線点a2の位置情報に代えて点b2の位置情報を採用することで、交点Lのy軸座標(yL)を算出することができる。また、物体位置算出部14は、同様の線形補間により、交点Lのx軸座標(xL)を算出する。上述した式(3)においてyをxに置き換え、uをvに置き換えて算出することで、交点Lのx軸座標(xL)を算出することができる。同様にして、物体位置算出部14は、地図上の交点Rの位置(xR、yR)を算出する。
Next, the object
その後、物体位置算出部14は、ランドマークが白線の場合と同様の手順により、地図上の交点Lの位置(xL、yL)及び地図上の交点Rの位置(xR、yR)に基づいて、地図上の物体Nの下辺中心Cの位置(xC、yC)を算出する。
After that, the object
図9(b)は、三つのランドマークを用いた物体の位置の求め方の他の例を説明するための図である。図9(b)に、ランドマークの点b11〜b13、物体N、物体Nの下辺中心C、物体Nの下辺を延長した直線E、点b11及び点b12を結ぶ直線状の線分K20、点b12及び点b13を結ぶ直線状の線分K21、直線Eと線分K20の交点L、及び、直線Eと線分K21の交点Rを示す。図9(b)に示す状況においても、交点L及び交点Rが得られることから、上述の手順により、地図上の物体Nの下辺中心Cの位置(xC、yC)を算出することができる。 FIG. 9B is a diagram for explaining another example of how to obtain the position of an object using three landmarks. 9 (b) shows the landmark points b11 to b13, the object N, the lower side center C of the object N, the straight line E extending the lower side of the object N, the straight line segment K20 connecting the points b11 and b12, and the points. The linear line segment K21 connecting b12 and the point b13, the intersection L of the straight line E and the line segment K20, and the intersection R of the straight line E and the line segment K21 are shown. Since the intersection L and the intersection R can be obtained even in the situation shown in FIG. 9B, the position (xC, yC) of the lower side center C of the object N on the map can be calculated by the above procedure.
その他、ECU10は、撮像画像上の位置座標と車両Mを基準とした地図上の位置(空間的な位置)とを関連付けたマップデータを予め記憶していてもよい。この場合、物体位置算出部14は、撮像画像上の物体の位置座標と地図上の車両の位置から、地図上の物体の位置を算出する。このとき、物体位置算出部14は、撮像画像上のランドマークの位置座標と地図上のランドマークの位置情報を利用して、撮像画像上の物体の位置座標と撮像画像上のランドマークの位置座標の関係から地図上の物体の位置の算出結果を補正することで、精度良く物体の位置を算出することができる。
In addition, the
1…単眼カメラ、2…地図情報記憶部、3…ランドマーク情報記憶部、4…GPS受信部、11…車両位置認識部、12…ランドマーク認識部、13…物体認識部、14…物体位置算出部、100…物体認識装置、a1-a6…白線点、C…下辺中心、d…差分、E…直線、L,R…交点、M…車両、N…物体、w1,w2,W1,W2…白線。 1 ... Monocular camera, 2 ... Map information storage unit, 3 ... Landmark information storage unit, 4 ... GPS receiver unit, 11 ... Vehicle position recognition unit, 12 ... Landmark recognition unit, 13 ... Object recognition unit, 14 ... Object position Calculation unit, 100 ... object recognition device, a1-a6 ... white line point, C ... lower side center, d ... difference, E ... straight line, L, R ... intersection, M ... vehicle, N ... object, w1, w2, W1, W2 …white line.
Claims (1)
地図上の前記車両の位置を認識する車両位置認識部と、
前記地図上のランドマークの位置情報を記憶する記憶部と、
前記撮像画像、前記地図上の前記車両の位置、及び前記地図上の前記ランドマークの位置情報に基づいて、前記撮像画像上の前記ランドマークの位置座標を認識するランドマーク認識部と、
前記撮像画像に基づいて、前記撮像画像上の前記物体の位置座標を認識する物体認識部と、
前記撮像画像上の前記物体の位置座標、前記撮像画像上の前記ランドマークの位置座標、及び前記地図上の前記ランドマークの位置情報に基づいて、同じ前記撮像画像上における前記ランドマークと前記物体の位置関係を利用して前記地図上の前記物体の位置を算出する物体位置算出部と、
を備える物体認識装置。 An object recognition device that recognizes objects around the vehicle based on the captured image obtained by imaging the surroundings of the vehicle.
A vehicle position recognition unit that recognizes the position of the vehicle on the map,
A storage unit that stores the location information of landmarks on the map,
A landmark recognition unit that recognizes the position coordinates of the landmark on the captured image based on the captured image, the position of the vehicle on the map, and the position information of the landmark on the map.
An object recognition unit that recognizes the position coordinates of the object on the captured image based on the captured image.
Based on the position coordinates of the object on the captured image, the position coordinates of the landmark on the captured image, and the position information of the landmark on the map , the landmark and the object on the same captured image. An object position calculation unit that calculates the position of the object on the map using the positional relationship of
An object recognition device equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015237908A JP6756101B2 (en) | 2015-12-04 | 2015-12-04 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015237908A JP6756101B2 (en) | 2015-12-04 | 2015-12-04 | Object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017102861A JP2017102861A (en) | 2017-06-08 |
JP6756101B2 true JP6756101B2 (en) | 2020-09-16 |
Family
ID=59016667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015237908A Active JP6756101B2 (en) | 2015-12-04 | 2015-12-04 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6756101B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6271068B1 (en) * | 2017-06-22 | 2018-01-31 | 株式会社ショーワ | Obstacle detection device, vehicle, and obstacle detection system |
KR102541560B1 (en) | 2017-09-14 | 2023-06-08 | 삼성전자주식회사 | Method and apparatus for recognizing object |
JP2019135620A (en) * | 2018-02-05 | 2019-08-15 | アイシン精機株式会社 | Traveling support device |
CN110928284B (en) * | 2018-09-19 | 2024-03-29 | 阿波罗智能技术(北京)有限公司 | Method, apparatus, medium and system for assisting in controlling automatic driving of vehicle |
KR102277503B1 (en) * | 2019-08-01 | 2021-07-15 | 주식회사 다비오 | Terminal devicem, service server and method for indoor positioning based on object detection |
JP7321035B2 (en) * | 2019-08-30 | 2023-08-04 | 日産自動車株式会社 | OBJECT POSITION DETECTION METHOD AND OBJECT POSITION DETECTION DEVICE |
JP2023544913A (en) * | 2020-11-04 | 2023-10-25 | ダビオ インク. | Terminal device, service server and method for object recognition infrastructure indoor location |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005257314A (en) * | 2004-03-09 | 2005-09-22 | Honda Motor Co Ltd | Vehicle position detector |
JP4675811B2 (en) * | 2006-03-29 | 2011-04-27 | 株式会社東芝 | Position detection device, autonomous mobile device, position detection method, and position detection program |
JP5714940B2 (en) * | 2011-03-04 | 2015-05-07 | 国立大学法人 熊本大学 | Moving body position measuring device |
JP5867176B2 (en) * | 2012-03-06 | 2016-02-24 | 日産自動車株式会社 | Moving object position and orientation estimation apparatus and method |
JP6179191B2 (en) * | 2013-05-27 | 2017-08-16 | 富士通株式会社 | Driving diagnosis device, driving diagnosis method and program |
JP6180968B2 (en) * | 2014-03-10 | 2017-08-16 | 日立オートモティブシステムズ株式会社 | Vehicle control device |
BR112016026372B1 (en) * | 2014-05-20 | 2022-03-03 | Nissan Motor Co. Ltd | TARGET DETECTION APPARATUS AND TARGET DETECTION METHOD |
JP6303890B2 (en) * | 2014-07-22 | 2018-04-04 | 日産自動車株式会社 | Position detection apparatus and position detection method |
-
2015
- 2015-12-04 JP JP2015237908A patent/JP6756101B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017102861A (en) | 2017-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6756101B2 (en) | Object recognition device | |
JP5962771B2 (en) | Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method | |
CN106981082B (en) | Vehicle-mounted camera calibration method and device and vehicle-mounted equipment | |
JP5089545B2 (en) | Road boundary detection and judgment device | |
JP5935636B2 (en) | Intersection guidance system, method and program | |
JP4676373B2 (en) | Peripheral recognition device, peripheral recognition method, and program | |
JP2019517089A (en) | Image processing method for recognizing ground markings, and system for detecting ground markings | |
CN103679119B (en) | Self adaptation slope road detection method and device | |
US9336595B2 (en) | Calibration device, method for implementing calibration, and camera for movable body and storage medium with calibration function | |
US20150149076A1 (en) | Method for Determining a Course of a Traffic Lane for a Vehicle | |
JP7008040B2 (en) | Methods for creating mappings of environmental models, as well as vehicle control systems and corresponding vehicles | |
JP6139465B2 (en) | Object detection device, driving support device, object detection method, and object detection program | |
JP7077910B2 (en) | Bound line detection device and lane marking method | |
JP6941178B2 (en) | Automatic operation control device and method | |
WO2014027478A1 (en) | Road environment recognition device | |
JP4670528B2 (en) | Imaging device deviation detection method, imaging device deviation correction method, and imaging device | |
JP7156924B2 (en) | Lane boundary setting device, lane boundary setting method | |
JP2019526105A5 (en) | ||
JP5310027B2 (en) | Lane recognition device and lane recognition method | |
CN112824997A (en) | Method and system for local lane of travel perception | |
CN110555801A (en) | Correction method, terminal and storage medium for track deduction | |
CN112927309A (en) | Vehicle-mounted camera calibration method and device, vehicle-mounted camera and storage medium | |
JP2016099719A (en) | Travel section line recognition apparatus | |
CN107430821B (en) | Image processing apparatus | |
JP6044084B2 (en) | Moving object position and orientation estimation apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200728 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200810 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6756101 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |