JP6756101B2 - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP6756101B2
JP6756101B2 JP2015237908A JP2015237908A JP6756101B2 JP 6756101 B2 JP6756101 B2 JP 6756101B2 JP 2015237908 A JP2015237908 A JP 2015237908A JP 2015237908 A JP2015237908 A JP 2015237908A JP 6756101 B2 JP6756101 B2 JP 6756101B2
Authority
JP
Japan
Prior art keywords
landmark
captured image
map
vehicle
white line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015237908A
Other languages
Japanese (ja)
Other versions
JP2017102861A (en
Inventor
利之 松原
利之 松原
英明 澤田
英明 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015237908A priority Critical patent/JP6756101B2/en
Publication of JP2017102861A publication Critical patent/JP2017102861A/en
Application granted granted Critical
Publication of JP6756101B2 publication Critical patent/JP6756101B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、物体認識装置に関する。 The present invention relates to an object recognition device.

従来、車両周辺の撮像画像から物体を認識する技術に関する文献として下記の特許文献1が知られている。この特許文献1には、撮像画像に道路上に描かれた菱形マーク(前方に横断歩道があることを示すマーク)等の道路標示が含まれる場合、法令上で定められた道路標示の横幅と撮像画像における道路標示の横幅に基づいて、車両から道路標示までの距離を算出する装置が示されている。この装置では、算出した車両から道路標示までの距離を利用して、撮像画像に含まれる物体の位置を計測している。 Conventionally, the following Patent Document 1 is known as a document relating to a technique for recognizing an object from an image captured around a vehicle. In Patent Document 1, when the captured image includes a road marking such as a diamond-shaped mark (a mark indicating that there is a pedestrian crossing in front) drawn on the road, the width of the road marking stipulated by law is used. A device is shown that calculates the distance from the vehicle to the road markings based on the width of the road markings in the captured image. In this device, the position of the object included in the captured image is measured by using the calculated distance from the vehicle to the road marking.

特開2012−159470号公報Japanese Unexamined Patent Publication No. 2012-159470

ところで、上述した従来の装置においては、車両から道路標示までの距離を求めるために、撮像画像上の道路標示の横幅を用いている。このため、撮像画像上の横幅から当該距離に変換するときに幅1ピクセル毎の誤差(例えば距離15mで10cm程度、距離30mで50cm程度の誤差)が計算結果に含まれてしまう。その結果、物体の位置の測定精度が低下するおそれがあった。 By the way, in the above-mentioned conventional device, the width of the road marking on the captured image is used in order to obtain the distance from the vehicle to the road marking. Therefore, when converting the width on the captured image to the distance, an error for each pixel of the width (for example, an error of about 10 cm at a distance of 15 m and an error of about 50 cm at a distance of 30 m) is included in the calculation result. As a result, the accuracy of measuring the position of the object may decrease.

そこで、本技術分野では、撮像画像から物体の位置を精度良く算出することができる物体認識装置を提供することが望まれている。 Therefore, in the present technical field, it is desired to provide an object recognition device capable of accurately calculating the position of an object from an captured image.

本発明の一態様は、車両の周囲を撮像して得られた撮像画像に基づいて、車両の周囲の物体を認識する物体認識装置であって、地図上の車両の位置を認識する車両位置認識部と、地図上のランドマークの位置情報を記憶する記憶部と、撮像画像、地図上の車両の位置、及び地図上のランドマークの位置情報に基づいて、撮像画像上のランドマークの位置座標を認識するランドマーク認識部と、撮像画像に基づいて、撮像画像上の物体の位置座標を認識する物体認識部と、撮像画像上の物体の位置座標、撮像画像上のランドマークの位置座標、及び地図上のランドマークの位置情報に基づいて、同じ撮像画像上におけるランドマークと物体の位置関係を利用して地図上の物体の位置を算出する物体位置算出部と、を備える。 One aspect of the present invention is an object recognition device that recognizes an object around a vehicle based on an image obtained by imaging the surroundings of the vehicle, and is a vehicle position recognition that recognizes the position of the vehicle on a map. A storage unit that stores the position information of the landmark on the map, and the position coordinates of the landmark on the captured image based on the captured image, the position of the vehicle on the map, and the position information of the landmark on the map. The landmark recognition unit that recognizes the image, the object recognition unit that recognizes the position coordinates of the object on the captured image based on the captured image, the position coordinates of the object on the captured image, the position coordinates of the landmark on the captured image, It also includes an object position calculation unit that calculates the position of an object on the map by using the positional relationship between the landmark and the object on the same captured image based on the position information of the landmark on the map.

以上説明したように、本発明によれば、撮像画像から物体の位置を精度良く算出することができる。 As described above, according to the present invention, the position of the object can be calculated accurately from the captured image.

本実施形態に係る物体認識装置を示すブロック図である。It is a block diagram which shows the object recognition apparatus which concerns on this embodiment. 撮像画像に含まれるランドマークの認識を説明するための図である。It is a figure for demonstrating the recognition of the landmark included in the captured image. 物体認識装置の物体位置算出処理を示すフローチャートである。It is a flowchart which shows the object position calculation process of an object recognition apparatus. 白線点を用いたランドマークの位置座標の認識処理を示すフローチャートである。It is a flowchart which shows the recognition process of the position coordinate of a landmark using a white line point. (a)地図上の白線点を示す平面図である。(b)撮像画像に投影した白線点を示す図である。(A) It is a top view which shows the white line point on a map. (B) It is a figure which shows the white line point projected on the captured image. ランドマークが白線の場合の物体の位置の算出処理を示すフローチャートである。It is a flowchart which shows the calculation process of the position of an object when a landmark is a white line. (a)撮像画像上の交点L、Rの位置座標の求め方を説明するための図である。(b)地図上の交点L、Rの位置の求め方を説明するための平面図である。(A) It is a figure for demonstrating how to obtain the position coordinates of intersection points L, R on a captured image. (B) It is a top view for demonstrating how to obtain the positions of intersections L and R on a map. (a)交点Lのx軸座標の求め方を説明するためのグラフである。(b)交点Lのy軸座標の求め方を説明するためのグラフである。(A) It is a graph for demonstrating how to obtain the x-axis coordinate of the intersection L. (B) It is a graph for demonstrating how to obtain the y-axis coordinate of the intersection L. (a)三つのランドマークを用いた物体の位置の求め方の一例を説明するための図である。(b)三つのランドマークを用いた物体の位置の求め方の他の例を説明するための図である。(A) It is a figure for demonstrating an example of how to obtain the position of an object using three landmarks. (B) It is a figure for demonstrating another example of how to obtain the position of an object using three landmarks.

以下、本発明の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1に示す本実施形態に係る物体認識装置100は、乗用車等の車両に搭載され、車両の周囲を撮像して得られた撮像画像に基づいて物体を認識する装置である。物体とは、車両と衝突するおそれのある障害物である。物体には、他車両(駐車車両も含む)、歩行者、自転車、電柱等の構造物が含まれる。物体認識装置100は、車両の周囲の撮像画像から物体の位置を算出する。 The object recognition device 100 according to the present embodiment shown in FIG. 1 is a device mounted on a vehicle such as a passenger car and recognizes an object based on an captured image obtained by imaging the surroundings of the vehicle. An object is an obstacle that may collide with a vehicle. Objects include structures such as other vehicles (including parked vehicles), pedestrians, bicycles, and utility poles. The object recognition device 100 calculates the position of the object from the captured image around the vehicle.

[物体認識装置の構成]
図1に示すように、物体認識装置100は、ECU[Engine Control Unit]10を備えている。ECU10は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]、CAN[Controller Area Network]通信回路等を有する電子制御ユニットである。ECU10では、ROMに記憶されているプログラムをCAN通信回路を介してRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU10は、複数の電子制御ユニットから構成されていてもよい。ECU10には、単眼カメラ1、地図情報記憶部2、ランドマーク情報記憶部3、及びGPS受信部4が接続されている。
[Configuration of object recognition device]
As shown in FIG. 1, the object recognition device 100 includes an ECU [Engine Control Unit] 10. The ECU 10 is an electronic control unit having a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], a CAN [Controller Area Network] communication circuit, and the like. The ECU 10 realizes various functions by loading the program stored in the ROM into the RAM via the CAN communication circuit and executing the program loaded in the RAM in the CPU. The ECU 10 may be composed of a plurality of electronic control units. A monocular camera 1, a map information storage unit 2, a landmark information storage unit 3, and a GPS reception unit 4 are connected to the ECU 10.

単眼カメラ1は、車両の外部を撮像する撮像機器(例えばCCDカメラ、CMOSカメラ)である。単眼カメラ1は、車両のフロントガラスの裏側に配置され、所定の画角で車両の前方(進行方向)を撮像する。単眼カメラ1は、車両の前方の撮像画像をECU10へ送信する。単眼カメラ1は、車両の背面、車両の左側面、及び車両の右側面に設けられていてもよい。この場合、単眼カメラ1は、車両の後方、車両の左側方、及び車両の右側方を撮像する。 The monocular camera 1 is an imaging device (for example, a CCD camera or a CMOS camera) that images the outside of a vehicle. The monocular camera 1 is arranged behind the windshield of the vehicle and images the front (traveling direction) of the vehicle at a predetermined angle of view. The monocular camera 1 transmits an image captured in front of the vehicle to the ECU 10. The monocular camera 1 may be provided on the back surface of the vehicle, the left side surface of the vehicle, and the right side surface of the vehicle. In this case, the monocular camera 1 images the rear of the vehicle, the left side of the vehicle, and the right side of the vehicle.

地図情報記憶部2は、地図情報を備えたデータベースである。地図情報記憶部2は、車両に搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率等)、交差点及び分岐点の位置情報、及び建物の位置情報等が含まれる。なお、地図情報記憶部2は、車両と通信可能な情報処理センター等の施設のコンピュータに記憶されていてもよい。 The map information storage unit 2 is a database provided with map information. The map information storage unit 2 is formed in an HDD [Hard Disk Drive] mounted on the vehicle. The map information includes road position information, road shape information (for example, curve, type of straight line portion, curvature of curve, etc.), position information of intersections and branch points, position information of buildings, and the like. The map information storage unit 2 may be stored in a computer of a facility such as an information processing center capable of communicating with the vehicle.

ランドマーク情報記憶部3は、ランドマークの情報を備えたデータベースである。ランドマーク情報記憶部3は、車両に搭載されたHDD内に形成されている。ランドマークとは、道路面上(車両通行帯以外の路面上も含む)で位置が固定され、物体の位置の算出の基準となるものである。ランドマークには、道路標識、及び道路標示が含まれる。道路標識には、案内標識、警戒標識、規制標識、指示標識等がある。道路標示には、規制標示と指示標示が含まれる。規制標示には、転回禁止マーク、最高速度マーク等がある。指示標示には、白線(車道中央線、車道外側線、車線境界線等)、前方に横断歩道があることを示す菱形マーク、前方に優先道路があることを示す三角マーク、進行方向マーク等がある。 The landmark information storage unit 3 is a database containing landmark information. The landmark information storage unit 3 is formed in an HDD mounted on the vehicle. A landmark is a fixed position on the road surface (including on a road surface other than the vehicle lane) and serves as a reference for calculating the position of an object. Landmarks include road signs and road markings. Road signs include guide signs, warning signs, regulatory signs, instruction signs, and the like. Road markings include regulatory markings and instruction markings. Regulation signs include a turning prohibition mark, a maximum speed mark, and the like. The instruction signs include a white line (roadway center line, roadway outside line, lane boundary line, etc.), a diamond mark indicating that there is a pedestrian crossing in front, a triangle mark indicating that there is a priority road ahead, a traveling direction mark, etc. is there.

ランドマーク情報記憶部3は、地図上のランドマークの位置情報を記憶している。すなわち、ランドマーク情報記憶部3は、地図情報記憶部2の記憶している地図情報に関連付けられたランドマークの位置情報を記憶している。また、ランドマーク情報記憶部3は、撮像画像からランドマークを認識するためのランドマークの画像情報を記憶している。ランドマークの画像情報とは、後述するパターン認識に用いられる画像の特徴の情報である。ランドマークの画像情報には、道路標識の形状、道路標示の形状等が含まれる。 The landmark information storage unit 3 stores the location information of the landmark on the map. That is, the landmark information storage unit 3 stores the location information of the landmark associated with the map information stored in the map information storage unit 2. Further, the landmark information storage unit 3 stores the image information of the landmark for recognizing the landmark from the captured image. The landmark image information is information on the characteristics of the image used for pattern recognition, which will be described later. The image information of the landmark includes the shape of the road sign, the shape of the road marking, and the like.

ランドマーク情報記憶部3は、ランドマークの位置情報と当該ランドマークの画像情報を関連付けて記憶している。なお、ランドマーク情報記憶部3は、車両と通信可能な情報処理センター等の施設のコンピュータに記憶されていてもよい。また、地図情報記憶部2が地図情報に加えて、ランドマークの位置情報及びランドマークの画像情報を記憶する態様であってもよい。 The landmark information storage unit 3 stores the location information of the landmark and the image information of the landmark in association with each other. The landmark information storage unit 3 may be stored in a computer of a facility such as an information processing center capable of communicating with the vehicle. Further, the map information storage unit 2 may store the landmark position information and the landmark image information in addition to the map information.

GPS受信部4は、車両に搭載され、車両の位置を測定する位置測定部として機能する。GPS受信部4は、3個以上のGPS衛星から信号を受信することにより、車両の位置(例えば車両Mの緯度及び経度)を測定する。GPS受信部4は、測定した車両の位置の情報をECU10へ送信する。 The GPS receiving unit 4 is mounted on the vehicle and functions as a position measuring unit for measuring the position of the vehicle. The GPS receiving unit 4 measures the position of the vehicle (for example, the latitude and longitude of the vehicle M) by receiving signals from three or more GPS satellites. The GPS receiving unit 4 transmits the measured vehicle position information to the ECU 10.

次に、ECU10の機能的構成について説明する。ECU10は、車両位置認識部11、ランドマーク認識部12、物体認識部13、及び物体位置算出部14を有している。 Next, the functional configuration of the ECU 10 will be described. The ECU 10 has a vehicle position recognition unit 11, a landmark recognition unit 12, an object recognition unit 13, and an object position calculation unit 14.

車両位置認識部11は、地図情報記憶部2の地図情報及びGPS受信部4の位置情報に基づいて、地図上の車両の位置を認識する。車両位置認識部11は、GPS受信部4の位置情報の時間変化に基づいて、地図上の車両の向きを認識する。なお、車両位置認識部11は必ずしも車両の向きを認識する必要はない。 The vehicle position recognition unit 11 recognizes the position of the vehicle on the map based on the map information of the map information storage unit 2 and the position information of the GPS receiving unit 4. The vehicle position recognition unit 11 recognizes the direction of the vehicle on the map based on the time change of the position information of the GPS receiving unit 4. The vehicle position recognition unit 11 does not necessarily have to recognize the direction of the vehicle.

ランドマーク認識部12は、単眼カメラ1の撮像した撮像画像に含まれるランドマークを認識する。ランドマーク認識部12は、ランドマーク情報記憶部3の記憶しているランドマークの位置情報及びランドマークの画像情報と、車両位置認識部11の認識した地図上の車両の位置及び向きとに基づいて、撮像画像に含まれるランドマークを認識する。 The landmark recognition unit 12 recognizes the landmark included in the captured image captured by the monocular camera 1. The landmark recognition unit 12 is based on the landmark position information and the landmark image information stored in the landmark information storage unit 3 and the position and orientation of the vehicle on the map recognized by the vehicle position recognition unit 11. And recognize the landmarks included in the captured image.

ここで、図2は、撮像画像に含まれるランドマークの認識を説明するための図である。図2に、撮像画像、白線W1、W2、菱形マーク(道路標示)D、道路標識Rs、道路標識Rsの根本Rtを示す。また、撮像画像の横方向をu軸方向、撮像画像の縦方向をv軸方向としてuv直交座標系を示す。本実施形態においては、撮像画像のu軸方向は車両の車幅方向(左右方向)に相当する。 Here, FIG. 2 is a diagram for explaining the recognition of landmarks included in the captured image. FIG. 2 shows an captured image, white lines W1 and W2, a diamond mark (road marking) D, a road sign Rs, and a root Rt of the road sign Rs. Further, the uv Cartesian coordinate system is shown with the horizontal direction of the captured image as the u-axis direction and the vertical direction of the captured image as the v-axis direction. In the present embodiment, the u-axis direction of the captured image corresponds to the vehicle width direction (left-right direction) of the vehicle.

図2に示す撮像画像において、ランドマーク認識部12は、地図上の車両の位置及び向きと、地図上のランドマークの位置情報とに基づいて、記憶されているランドマークの中から単眼カメラ1の撮像方向に位置するランドマークを抽出する。ランドマーク認識部12は、抽出したランドマークに関してランドマーク情報記憶部3が記憶しているランドマークの画像情報に基づき、パターン認識を行なうことにより、撮像画像に含まれるランドマークを認識する。 In the captured image shown in FIG. 2, the landmark recognition unit 12 uses the monocular camera 1 from among the stored landmarks based on the position and orientation of the vehicle on the map and the position information of the landmarks on the map. Extract landmarks located in the imaging direction of. The landmark recognition unit 12 recognizes the landmark included in the captured image by performing pattern recognition based on the image information of the landmark stored in the landmark information storage unit 3 with respect to the extracted landmark.

パターン認識は、認識したいランドマークの画像の特徴(画像情報に含まれる)を予め学習しておき、撮像画像から切り出した部分画像の特徴と学習したランドマークの画像の特徴を比較し、十分に近い場合に切り出した部分をランドマークとみなす。なお、このパターン認識は、撮像画像からの物体認識にも用いられる。 In pattern recognition, the characteristics of the landmark image to be recognized (included in the image information) are learned in advance, and the characteristics of the partial image cut out from the captured image are compared with the characteristics of the learned landmark image. The part cut out when it is close is regarded as a landmark. This pattern recognition is also used for object recognition from captured images.

ランドマークのうち、路面に描かれた道路標示については、エッジ抽出を利用して認識してもよい。撮像画像のu軸方向(車両の車幅方向)において、画素(ピクセル)の輝度が急変する箇所をエッジとして抽出することで、路面におけるエッジの情報と道路標示の画像情報から道路標示を認識することができる。 Of the landmarks, the road markings drawn on the road surface may be recognized by using edge extraction. The road marking is recognized from the edge information on the road surface and the image information of the road marking by extracting the part where the brightness of the pixel (pixel) suddenly changes in the u-axis direction (vehicle width direction) of the captured image as an edge. be able to.

ランドマーク認識部12は、パターン認識又はエッジ抽出により、図2に示す白線W1、W2、菱形マークD、及び道路標識Rsをランドマークとして認識する。ランドマーク認識部12は、認識したランドマークの撮像画像上の位置座標(u軸座標、v軸座標)を認識する。道路標示である菱形マークDの位置座標は、撮像画像上における菱形マークDの中心の座標とすることができる。道路標識Rsの位置座標は、撮像画像上における道路標識Rsの根本Rtの座標とすることができる。白線W1、W2の位置座標については後述する。ランドマーク認識部12は、同一のランドマークについて、撮像画像上のランドマークの位置座標と地図上のランドマークの位置情報を関連付けて認識する。 The landmark recognition unit 12 recognizes the white lines W1 and W2, the diamond-shaped mark D, and the road sign Rs shown in FIG. 2 as landmarks by pattern recognition or edge extraction. The landmark recognition unit 12 recognizes the position coordinates (u-axis coordinates, v-axis coordinates) on the captured image of the recognized landmark. The position coordinates of the diamond mark D, which is a road marking, can be the coordinates of the center of the diamond mark D on the captured image. The position coordinates of the road sign Rs can be the coordinates of the root Rt of the road sign Rs on the captured image. The position coordinates of the white lines W1 and W2 will be described later. The landmark recognition unit 12 recognizes the same landmark by associating the position coordinates of the landmark on the captured image with the position information of the landmark on the map.

物体認識部13は、単眼カメラ1の撮像した撮像画像に基づいて、撮像画像に含まれる物体を認識する。物体認識部13は、上述したパターン認識及びエッジ抽出を用いて、物体を認識する。物体認識部13は、周知の手法を用いて、撮像画像に含まれる物体の認識を行うことができる。物体認識部13は、撮像画像上の物体の位置座標(u軸座標、v軸座標)を認識する。物体の位置座標は、撮像画像上における物体の下辺(下端)の中心の座標とすることができる。 The object recognition unit 13 recognizes an object included in the captured image based on the captured image captured by the monocular camera 1. The object recognition unit 13 recognizes an object by using the pattern recognition and edge extraction described above. The object recognition unit 13 can recognize an object included in the captured image by using a well-known method. The object recognition unit 13 recognizes the position coordinates (u-axis coordinates, v-axis coordinates) of the object on the captured image. The position coordinates of the object can be the coordinates of the center of the lower side (lower end) of the object on the captured image.

物体位置算出部14は、物体認識部13が認識した撮像画像上の物体の位置座標、ランドマーク認識部12が認識した撮像画像上におけるランドマークの位置座標、地図上のランドマークの位置情報に基づいて、地図上の物体の位置を算出する。物体位置算出部14は、撮像画像上におけるランドマークと物体の位置関係を利用して、地図上の物体の位置を算出する。物体の位置の算出について詳しくは後述する。 The object position calculation unit 14 uses the position coordinates of the object on the captured image recognized by the object recognition unit 13, the position coordinates of the landmark on the captured image recognized by the landmark recognition unit 12, and the position information of the landmark on the map. Based on this, the position of the object on the map is calculated. The object position calculation unit 14 calculates the position of the object on the map by using the positional relationship between the landmark and the object on the captured image. The calculation of the position of the object will be described in detail later.

[物体認識装置の物体位置算出処理]
以下、本実施形態に係る物体認識装置100の物体位置算出処理について説明する。図3は、物体認識装置100の物体位置算出処理を示すフローチャートである。図3に示すフローチャートは、運転者により車両のエンジンが始動された場合に開始される。
[Object position calculation process of object recognition device]
Hereinafter, the object position calculation process of the object recognition device 100 according to the present embodiment will be described. FIG. 3 is a flowchart showing an object position calculation process of the object recognition device 100. The flowchart shown in FIG. 3 is started when the engine of the vehicle is started by the driver.

図3に示すように、物体認識装置100のECU10は、S10において、物体認識部13によって撮像画像に含まれる物体を認識したか否かを判定する。物体認識部13は、単眼カメラ1の撮像した車両の周囲の撮像画像に基づいて、周知の手法により、他車両等の物体を認識する。 As shown in FIG. 3, the ECU 10 of the object recognition device 100 determines in S10 whether or not the object recognition unit 13 has recognized the object included in the captured image. The object recognition unit 13 recognizes an object such as another vehicle by a well-known method based on the captured image of the surroundings of the vehicle captured by the monocular camera 1.

ECU10は、物体が認識されない場合(S10:NO)、今回の処理を終了する。その後、一定時間の経過後に再びS10から処理を繰り返す。ECU10は、撮像画像に含まれる物体が認識された場合(S10:YES)、S12に移行する。S12において、ECU10は、物体認識部13によって撮像画像上の物体の位置座標(u軸座標、v軸座標)を認識する。その後、S14に移行する。 When the object is not recognized (S10: NO), the ECU 10 ends the current process. Then, after a lapse of a certain period of time, the process is repeated from S10 again. When the object included in the captured image is recognized (S10: YES), the ECU 10 shifts to S12. In S12, the ECU 10 recognizes the position coordinates (u-axis coordinates, v-axis coordinates) of the object on the captured image by the object recognition unit 13. After that, it shifts to S14.

S14において、ECU10は、ランドマーク認識部12によって撮像画像に含まれるランドマークを認識したか否かを判定する。ランドマーク情報記憶部3の記憶しているランドマークの位置情報及び画像情報と、車両位置認識部11の認識した地図上の車両の位置及び向きとに基づいて、撮像画像に含まれるランドマークを認識する。 In S14, the ECU 10 determines whether or not the landmark recognition unit 12 has recognized the landmark included in the captured image. Based on the landmark position information and image information stored in the landmark information storage unit 3 and the position and orientation of the vehicle on the map recognized by the vehicle position recognition unit 11, the landmark included in the captured image is stored. recognize.

ECU10は、ランドマークが認識されない場合(S14:NO)、今回の処理を終了する。その後、一定時間の経過後に再びS10から処理を繰り返す。ECU10は、撮像画像に含まれるランドマークが認識された場合(S14:YES)、S16に移行する。S16において、ECU10は、ランドマーク認識部12によって撮像画像に含まれるランドマークの撮像画像上の位置座標を認識する。ランドマーク認識部12は、撮像画像上のランドマークの位置座標と、地図上のランドマークの位置情報とを関連付けて認識する。その後、S18に移行する。 When the landmark is not recognized (S14: NO), the ECU 10 ends the current process. Then, after a lapse of a certain period of time, the process is repeated from S10 again. When the landmark included in the captured image is recognized (S14: YES), the ECU 10 shifts to S16. In S16, the ECU 10 recognizes the position coordinates of the landmark included in the captured image on the captured image by the landmark recognition unit 12. The landmark recognition unit 12 recognizes the position coordinates of the landmark on the captured image in association with the position information of the landmark on the map. After that, it shifts to S18.

S18において、ECU10は、物体位置算出部14において地図上の物体の位置を算出する。物体位置算出部14は、撮像画像上の物体の位置座標、撮像画像上のランドマークの位置座標、地図上のランドマークの位置情報に基づいて、地図上の物体の位置を算出する。ECU10は、地図上の物体の位置を算出した場合、今回の処理を終了する。その後、一定時間の経過後に再びS10から処理を繰り返す。 In S18, the ECU 10 calculates the position of the object on the map in the object position calculation unit 14. The object position calculation unit 14 calculates the position of the object on the map based on the position coordinates of the object on the captured image, the position coordinates of the landmark on the captured image, and the position information of the landmark on the map. When the ECU 10 calculates the position of the object on the map, the ECU 10 ends this process. Then, after a lapse of a certain period of time, the process is repeated from S10 again.

[ランドマークが白線の場合の物体位置算出処理]
次に、ランドマークが白線の場合の処理について説明する。ここでは、図3のS16以降の処理について図4を参照して説明する。図4は、白線点を用いたランドマークの位置座標の認識処理を示すフローチャートである。白線点とは、地図上の白線に一定間隔毎にプロットされた点である。白線点は、地図上の白線の位置情報に対応している。図4に示すフローチャートは、ランドマーク認識部12によって、撮像画像に含まれるランドマークとして白線が認識された場合に開始される。
[Object position calculation process when landmark is white line]
Next, the processing when the landmark is a white line will be described. Here, the processing after S16 in FIG. 3 will be described with reference to FIG. FIG. 4 is a flowchart showing a landmark position coordinate recognition process using white line points. White line points are points plotted on the white line on the map at regular intervals. The white line points correspond to the position information of the white lines on the map. The flowchart shown in FIG. 4 is started when the landmark recognition unit 12 recognizes a white line as a landmark included in the captured image.

図4に示すように、ECU10は、S20として、ランドマーク認識部12によって白線点を撮像画像に投影する。ここで、図5(a)は、地図上の白線点を示す平面図である。図5(a)に、車両M、車両Mの走行する走行車線を形成する二本の白線w1,w2、白線点a1〜a6を示す。図5(a)に示す白線w1,w2は、地図情報記憶部2に記憶された地図情報における白線である。白線点a1〜a3は、白線w1の位置情報に対応する点である。白線点a4〜a6は、白線w2の位置情報に対応する点である。また、図5(a)において、車両の進行方向(前方向)をx軸方向、車両の車幅方向(左右方向)をy軸方向としてxy直交座標系を示す。 As shown in FIG. 4, the ECU 10 projects a white line point on the captured image by the landmark recognition unit 12 as S20. Here, FIG. 5A is a plan view showing white line points on the map. FIG. 5A shows the vehicle M, the two white lines w1 and w2 forming the traveling lane in which the vehicle M travels, and the white line points a1 to a6. The white lines w1 and w2 shown in FIG. 5A are white lines in the map information stored in the map information storage unit 2. The white line points a1 to a3 are points corresponding to the position information of the white line w1. The white line points a4 to a6 are points corresponding to the position information of the white line w2. Further, in FIG. 5A, the xy orthogonal coordinate system is shown with the traveling direction (forward direction) of the vehicle as the x-axis direction and the vehicle width direction (left-right direction) as the y-axis direction.

図5(a)に示すように、ランドマーク認識部12は、ランドマークとして白線を認識した場合、地図上の車両の位置及び向きに基づいて、ランドマーク情報記憶部3に記憶された白線W1,W2の位置情報に対応する複数の白線点(白線点a1〜a6を含む)を認識する。白線点は地図上の位置情報(x軸座標、y軸座標)をそれぞれ有している。 As shown in FIG. 5A, when the landmark recognition unit 12 recognizes a white line as a landmark, the white line W1 stored in the landmark information storage unit 3 is based on the position and orientation of the vehicle on the map. , W2 recognizes a plurality of white line points (including white line points a1 to a6) corresponding to the position information of W2. The white line points have position information (x-axis coordinates, y-axis coordinates) on the map, respectively.

ランドマーク認識部12は、認識した地図上の白線点を撮像画像に投影する。ランドマーク認識部12は、周知の手法により、単眼カメラ1のパラメータに応じて、撮像画像上に単眼カメラ1から見た白線点を投影する。単眼カメラ1のパラメータとは、単眼カメラ1の取付高さ、ロール、ピッチ、及びヨーである。これらのパラメータが変化すると、単眼カメラ1から見た白線点の見え方が変化する。 The landmark recognition unit 12 projects the recognized white line point on the map onto the captured image. The landmark recognition unit 12 projects a white line point seen from the monocular camera 1 on the captured image according to the parameters of the monocular camera 1 by a well-known method. The parameters of the monocular camera 1 are the mounting height, roll, pitch, and yaw of the monocular camera 1. When these parameters change, the appearance of the white line point seen from the monocular camera 1 changes.

ランドマーク認識部12は、既に後述するS26で単眼カメラ1のパラメータを変更済みである場合には、変更した単眼カメラ1のパラメータを用いて撮像画像上に白線点を投影する。ランドマーク認識部12は、図4に示すフローチャートを一度もループしていない場合(一度もRETURNに至っていない場合)、単眼カメラ1のパラメータを初期値(予め設定された値)として白線点の投影を行う。ランドマーク認識部12は、撮像画像上に白線点を投影した場合、S22に移行する。 When the parameters of the monocular camera 1 have already been changed in S26 described later, the landmark recognition unit 12 projects a white line point on the captured image using the changed parameters of the monocular camera 1. When the landmark recognition unit 12 has never looped the flowchart shown in FIG. 4 (when it has never reached RETURN), the landmark recognition unit 12 projects a white line point with the parameter of the monocular camera 1 as an initial value (preset value). I do. When the landmark recognition unit 12 projects a white line point on the captured image, the landmark recognition unit 12 shifts to S22.

S22において、ランドマーク認識部12は、撮像画像に投影した白線点a1〜a6と撮像画像の白線W1,W2のずれを算出する。ここで、図5(b)は、撮像画像に投影した白線点を示す図である。図5(b)に、撮像画像上の白線W1,W2、投影された白線点a1〜a6、白線W1と白線点a3の差分dを示す。差分dは、撮像画像のu軸方向(横方向)における白線W1と白線点a3の差分(ピクセルの差)である。ランドマーク認識部12は、全ての白線点のずれを算出した場合、S24に移行する。 In S22, the landmark recognition unit 12 calculates the deviation between the white line points a1 to a6 projected on the captured image and the white lines W1 and W2 of the captured image. Here, FIG. 5B is a diagram showing white line points projected on the captured image. FIG. 5B shows the difference d between the white lines W1 and W2 on the captured image, the projected white line points a1 to a6, and the white line W1 and the white line point a3. The difference d is the difference (pixel difference) between the white line W1 and the white line point a3 in the u-axis direction (horizontal direction) of the captured image. When the landmark recognition unit 12 calculates the deviation of all the white line points, the landmark recognition unit 12 shifts to S24.

S24において、ランドマーク認識部12は、終了条件を満たしたか否かを判定する。終了条件は、S22で算出された全ての白線点と白線W1又は白線W2とのずれが予め設定された閾値以下である場合に満たされる。また、終了条件は、後述するS26における単眼カメラ1のパラメータ変更処理が予め用意された全てのパターン実行された場合に満たされる。終了条件は、S20〜S24の処理が予め設定された上限回数に達するまで繰り返された場合に満たされてもよい。 In S24, the landmark recognition unit 12 determines whether or not the end condition is satisfied. The end condition is satisfied when the deviation between all the white line points calculated in S22 and the white line W1 or the white line W2 is equal to or less than a preset threshold value. Further, the termination condition is satisfied when the parameter change processing of the monocular camera 1 in S26, which will be described later, is executed for all the patterns prepared in advance. The termination condition may be satisfied when the processing of S20 to S24 is repeated until the preset upper limit number of times is reached.

ランドマーク認識部12は、終了条件を満たしていないと判定した場合(S24:NO)、S26に移行する。ランドマーク認識部12は、終了条件を満たしたと判定した場合(S24:YES)、S28に移行する。 When the landmark recognition unit 12 determines that the end condition is not satisfied (S24: NO), the landmark recognition unit 12 shifts to S26. When the landmark recognition unit 12 determines that the end condition is satisfied (S24: YES), the landmark recognition unit 12 shifts to S28.

S26において、ランドマーク認識部12は、次のS20において用いる単眼カメラ1のパラメータを変更する。ランドマーク認識部12は、予め設定されたパターンで単眼カメラ1のパラメータを変更する。ランドマーク認識部12は、S26を実行する度に、ロール、ピッチ、ヨーのいずれかを所定の角度ずつ増やしてもよい。その他、ランドマーク認識部12は、S22で算出した白線点と白線のずれの大きさに応じて、単眼カメラ1のパラメータを変更してもよい。ランドマーク認識部12は、単眼カメラ1のパラメータを変更した場合、今回の処理を終了する。その後、再びS20から処理を繰り返す。 In S26, the landmark recognition unit 12 changes the parameters of the monocular camera 1 used in the next S20. The landmark recognition unit 12 changes the parameters of the monocular camera 1 in a preset pattern. The landmark recognition unit 12 may increase any of the roll, pitch, and yaw by a predetermined angle each time S26 is executed. In addition, the landmark recognition unit 12 may change the parameter of the monocular camera 1 according to the magnitude of the deviation between the white line point and the white line calculated in S22. When the parameter of the monocular camera 1 is changed, the landmark recognition unit 12 ends the current process. After that, the process is repeated from S20 again.

S28において、ランドマーク認識部12は、撮像画像上の白線点の位置座標と、地図上の白線点の位置情報の関連付けを行う。ランドマーク認識部12は、図4に示すフローチャートを複数回繰り返した場合には、全ての白線点と白線の間のずれの平均値が最小となったときの撮像画像上の白線点の位置座標を採用する。ランドマーク認識部12は、ずれが最小となる撮像画像上の白線点の位置座標を、それぞれ対応する地図上の白線点の位置情報と関連付けする。ランドマーク認識部12は、関連付けを行なった場合、今回の処理を終了する。その後、ECU10は、図6に示す処理を開始する。 In S28, the landmark recognition unit 12 associates the position coordinates of the white line points on the captured image with the position information of the white line points on the map. When the flowchart shown in FIG. 4 is repeated a plurality of times, the landmark recognition unit 12 has the position coordinates of the white line points on the captured image when the average value of the deviations between all the white line points is minimized. Is adopted. The landmark recognition unit 12 associates the position coordinates of the white line points on the captured image with the minimum deviation with the position information of the white line points on the corresponding map. When the landmark recognition unit 12 makes an association, the landmark recognition unit 12 ends the current process. After that, the ECU 10 starts the process shown in FIG.

図6は、ランドマークが白線の場合の物体の位置の算出処理を示すフローチャートである。図6に示すフローチャートは、図3のS18に対応する。図6に示すフローチャートは、図5に示すS28が終了した場合に開始される。 FIG. 6 is a flowchart showing a calculation process of the position of an object when the landmark is a white line. The flowchart shown in FIG. 6 corresponds to S18 in FIG. The flowchart shown in FIG. 6 is started when S28 shown in FIG. 5 is completed.

図6に示すように、ECU10は、S30において、物体位置算出部14によって撮像画像上で物体の左右に位置する交点L、Rの位置座標を算出する。ここで、図7(a)は、撮像画像上の交点L、Rの位置座標の求め方を説明するための図である。図7(a)に、物体N、物体Nの下辺中心C、物体Nの下辺をu軸方向(横方向)に延長した直線E、白線点a1と白線点a2を結ぶ直線状の線分K1、白線点a4と白線点a5を結ぶ直線状の線分K2、直線Eと線分K1との交点L、及び、直線Eと線分K2との交点Rを示す。物体Nは、一例として車両Mの前方を走行する先行車である。この場合、下辺中心Cは、先行車の後輪の車幅方向中心の位置に相当する。 As shown in FIG. 6, in S30, the ECU 10 calculates the position coordinates of the intersections L and R located on the left and right sides of the object on the captured image by the object position calculation unit 14. Here, FIG. 7A is a diagram for explaining how to obtain the position coordinates of the intersections L and R on the captured image. FIG. 7A shows an object N, a center C of the lower side of the object N, a straight line E extending the lower side of the object N in the u-axis direction (horizontal direction), and a straight line segment K1 connecting the white line point a1 and the white line point a2. , The linear line segment K2 connecting the white line point a4 and the white line point a5, the intersection L of the straight line E and the line segment K1, and the intersection R of the straight line E and the line segment K2 are shown. The object N is, for example, a preceding vehicle traveling in front of the vehicle M. In this case, the lower side center C corresponds to the position of the center of the rear wheel of the preceding vehicle in the vehicle width direction.

図7(a)に示すように、白線点a4の位置座標を(u4、v4)、白線点a5の位置座標を(u5、v5)、交点Rの位置座標を(uR、vR)とする。同様に、白線点a1の位置座標を(u1、v1)、白線点a2の位置座標を(u2、v2)、交点Rの位置座標を(uL、vL)とする。また、物体Nの下辺中心Cの位置座標を(uC、vC)とする。なお、物体Nの下辺中心Cの位置座標(uC、vC)については、図3のS12において物体認識部13が認識済みである。 As shown in FIG. 7A, the position coordinates of the white line point a4 are (u4, v4), the position coordinates of the white line point a5 are (u5, v5), and the position coordinates of the intersection R are (uR, vR). Similarly, the position coordinates of the white line point a1 are (u1, v1), the position coordinates of the white line point a2 are (u2, v2), and the position coordinates of the intersection R are (uL, vL). Further, let the position coordinates of the lower side center C of the object N be (uC, vC). The object recognition unit 13 has already recognized the position coordinates (uC, vC) of the lower side center C of the object N in S12 of FIG.

図7(a)に示すように、撮像画像のv軸座標について下辺中心C、交点L、及び交点Rは一致する。このため、交点L及び交点Rのv軸座標は、下辺中心Cのv軸座標と等しく、vC=vL=vRの関係から求めることができる。一方で、撮像画像のu軸方向については、線分K1上に白線点a1,a2及び交点Lが位置し、線分K2上に白線点a4,a5及び交点Rが位置することから、下記の式(1)、式(2)を用いた線形補間により求めることができる。
uL=(vL−v1)/(v2−v1)×u2+(vL−v2)/(v1−v2)×u1・・・(1)
uR=(vR−v4)/(v5−v4)×u5+(vR−v5)/(v4−v5)×u4・・・(2)
As shown in FIG. 7A, the lower center C, the intersection L, and the intersection R coincide with each other with respect to the v-axis coordinates of the captured image. Therefore, the v-axis coordinates of the intersection L and the intersection R are equal to the v-axis coordinates of the lower center C, and can be obtained from the relationship of vC = vL = vR. On the other hand, in the u-axis direction of the captured image, the white line points a1 and a2 and the intersection point L are located on the line segment K1, and the white line points a4 and a5 and the intersection point R are located on the line segment K2. It can be obtained by linear interpolation using equations (1) and (2).
uL = (vL-v1) / (v2-v1) x u2 + (vL-v2) / (v1-v2) x u1 ... (1)
uR = (vR-v4) / (v5-v4) x u5 + (vR-v5) / (v4-v5) x u4 ... (2)

上記の式(1)、式(2)から、交点L及び交点Rのu軸座標を求めることができる。このようにして、物体位置算出部14は、交点Lの位置座標(uL、vL)及び交点Rの位置座標(uR、vR)を算出する。その後、物体位置算出部14は、図6に示すS32に移行する。 From the above equations (1) and (2), the u-axis coordinates of the intersection L and the intersection R can be obtained. In this way, the object position calculation unit 14 calculates the position coordinates (uL, vL) of the intersection L and the position coordinates (uR, vR) of the intersection R. After that, the object position calculation unit 14 shifts to S32 shown in FIG.

S32において、物体位置算出部14は、地図上の交点Lの位置(xL、yL)及び地図上の交点Rの位置(xR、yR)を算出する。ここで、図7(b)は地図上の交点L、Rの位置の求め方を説明するための平面図である。図7(b)においては、先行車である物体Nの後輪の幅方向中心が、撮像画像における下辺中心Cに対応する。地図上のy軸方向(左右方向)と撮像画像上のu軸方向は同じであるため、直線Eは下辺中心Cを通りy軸方向に延在する直線として表される。また、図7(b)に示すように、地図上においても交点Lは、白線点a1及び白線点a2と同じ線分K1上に位置する。同様に、地図上においても交点Rは、白線点a4及び白線点a5と同じ線分K2上に位置する。 In S32, the object position calculation unit 14 calculates the position of the intersection L on the map (xL, yL) and the position of the intersection R on the map (xR, yR). Here, FIG. 7B is a plan view for explaining how to obtain the positions of the intersections L and R on the map. In FIG. 7B, the center in the width direction of the rear wheel of the object N, which is the preceding vehicle, corresponds to the center C of the lower side in the captured image. Since the y-axis direction (horizontal direction) on the map and the u-axis direction on the captured image are the same, the straight line E is represented as a straight line extending in the y-axis direction through the lower side center C. Further, as shown in FIG. 7B, the intersection point L is located on the same line segment K1 as the white line point a1 and the white line point a2 on the map. Similarly, on the map, the intersection R is located on the same line segment K2 as the white line point a4 and the white line point a5.

図8(a)は、交点Lのx軸座標の求め方を説明するためのグラフである。図8(a)のグラフでは、縦軸がv軸、横軸がx軸となっている。図8(a)に示すように、白線点a1〜a3の位置情報(ランドマーク情報記憶部3が記憶している位置情報)に基づいて、白線点a1〜a3を通る曲線x=f(v)をvの3次式で表すことができる。この3次式には、ラグランジュ補間、ニュートン補間等を用いることができる。この3次式に、交点Lのv軸座標(vL)を代入することで、交点Lのx軸座標(xL)を求めることができる。なお、交点Rのx軸座標(xR)は、交点Lのx軸座標(xL)と等しい。 FIG. 8A is a graph for explaining how to obtain the x-axis coordinates of the intersection L. In the graph of FIG. 8A, the vertical axis is the v-axis and the horizontal axis is the x-axis. As shown in FIG. 8A, a curve x = f (v) passing through the white line points a1 to a3 based on the position information of the white line points a1 to a3 (position information stored in the landmark information storage unit 3). ) Can be expressed by a cubic expression of v. Lagrange interpolation, Newton polynomial, and the like can be used for this cubic equation. By substituting the v-axis coordinates (vL) of the intersection L into this cubic equation, the x-axis coordinates (xL) of the intersection L can be obtained. The x-axis coordinate (xR) of the intersection R is equal to the x-axis coordinate (xL) of the intersection L.

図8(b)は、交点Lのy軸座標の求め方を説明するためのグラフである。図8(b)のグラフでは、縦軸がy軸、横軸がu軸となっている。この場合、図8(b)に示すように、白線点a1〜a3と交点Lはほぼ線形の関係が成り立つ。このため、交点Lのy軸座標(yL)は、下記の式(3)を用いた線形補間により求めることができる。
yL=(uL−u2)/(u1−u2)×y1+(u2−u1)/(u2−u1)×y2・・・(3)
FIG. 8B is a graph for explaining how to obtain the y-axis coordinates of the intersection L. In the graph of FIG. 8B, the vertical axis is the y-axis and the horizontal axis is the u-axis. In this case, as shown in FIG. 8B, the white line points a1 to a3 and the intersection point L have a substantially linear relationship. Therefore, the y-axis coordinates (yL) of the intersection L can be obtained by linear interpolation using the following equation (3).
yL = (uL-u2) / (u1-u2) x y1 + (u2-u1) / (u2-u1) x y2 ... (3)

同様に、交点Rのy軸座標(yR)は、下記の式(4)を用いた線形補間により求めることができる。
yR=(uR−u5)/(u4−u5)×y4+(uR−u4)/(u5−u4)×y5・・・(4)
Similarly, the y-axis coordinates (yR) of the intersection R can be obtained by linear interpolation using the following equation (4).
yR = (uR-u5) / (u4-u5) x y4 + (uR-u4) / (u5-u4) x y5 ... (4)

このようにして、物体位置算出部14は、地図上の交点Lの位置(xL、yL)及び地図上の交点Rの位置(xR、yR)を算出する。その後、物体位置算出部14は、図6に示すS34に移行する。 In this way, the object position calculation unit 14 calculates the position of the intersection L on the map (xL, yL) and the position of the intersection R on the map (xR, yR). After that, the object position calculation unit 14 shifts to S34 shown in FIG.

S34において、物体位置算出部14は、地図上の物体Nの位置を算出する。物体位置算出部14は、撮像画像上の物体Nの下辺中心Cの位置座標(uC、vC)、撮像画像上の交点Lの位置座標(uL、vL)、撮像画像上の交点Rの位置座標(uR、vR)、地図上の交点Lの位置(xL、yL)、及び、地図上の交点Rの位置(xR、yR)に基づいて、地図上の物体Nの下辺中心Cの位置を算出する。 In S34, the object position calculation unit 14 calculates the position of the object N on the map. The object position calculation unit 14 includes the position coordinates (uC, vC) of the lower side center C of the object N on the captured image, the position coordinates (uL, vL) of the intersection L on the captured image, and the position coordinates of the intersection R on the captured image. The position of the lower center C of the object N on the map is calculated based on (uR, vR), the position of the intersection L on the map (xL, yL), and the position of the intersection R on the map (xR, yR). To do.

ここで、地図上のx軸方向と撮像画像上のu軸方向を含む二次元平面を考えると、交点L及び交点Rを結ぶ直線Eは地図上でもほぼ直線をなしている。このため、物体Nの下辺中心Cのx軸座標は、下記の式(5)を用いた線形補間により求めることができる。
xC=(uC−uR)/(uL−uR)×xL+(uC−uL)/(uR−uL)×xR・・・(5)
Here, considering a two-dimensional plane including the x-axis direction on the map and the u-axis direction on the captured image, the straight line E connecting the intersection L and the intersection R is substantially a straight line on the map. Therefore, the x-axis coordinates of the lower side center C of the object N can be obtained by linear interpolation using the following equation (5).
xC = (uC-uR) / (uL-uR) x xL + (uC-uL) / (uR-uL) x xR ... (5)

同様に、地図上のy軸方向と撮像画像上のu軸方向を含む二次元平面を考えると、物体Nの下辺中心Cのy軸座標は、下記の式(6)を用いた線形補間により求めることができる。
yC=(uC−uR)/(uL−uR)×yL+(uC−uL)/(uR−uL)×yR・・・(6)
Similarly, considering a two-dimensional plane including the y-axis direction on the map and the u-axis direction on the captured image, the y-axis coordinates of the lower side center C of the object N are obtained by linear interpolation using the following equation (6). Can be sought.
yC = (uC-uR) / (uL-uR) x yL + (uC-uL) / (uR-uL) x yR ... (6)

このようにして、物体位置算出部14は、地図上の物体Nの下辺中心Cの位置(xC、yC)を算出することができる。 In this way, the object position calculation unit 14 can calculate the position (xC, yC) of the lower side center C of the object N on the map.

[物体認識装置の作用効果]
以上説明した本実施形態に係る物体認識装置100によれば、撮像画像上の物体Nの位置座標とランドマークの位置座標を認識し、予め記憶している地図上のランドマークの位置情報を用いて、地図上の物体Nの位置を算出することができる。従って、この物体認識装置100によれば、予め記憶している地図上のランドマークの位置情報を用いるので、撮像画像上のランドマークの大きさ(横幅)と位置から車両とランドマークの距離を求め当該距離を用いて物体の位置を算出する従来の装置と異なり、撮像画像上でランドマークと物体が縦方向に離れるほど位置の算出精度が低下することがなく、撮像画像から地図上の物体Nの位置を精度良く算出することができる。
[Action and effect of object recognition device]
According to the object recognition device 100 according to the present embodiment described above, the position coordinates of the object N and the position coordinates of the landmark on the captured image are recognized, and the position information of the landmark on the map stored in advance is used. Therefore, the position of the object N on the map can be calculated. Therefore, according to this object recognition device 100, since the position information of the landmark on the map stored in advance is used, the distance between the vehicle and the landmark can be determined from the size (width) and position of the landmark on the captured image. Unlike the conventional device that calculates the position of an object using the obtained distance, the calculation accuracy of the position does not decrease as the landmark and the object move in the vertical direction on the captured image, and the object on the map is calculated from the captured image. The position of N can be calculated accurately.

以上、本発明の好適な実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。例えば、単眼カメラ1が車両Mの前方を撮像した撮像画像を例に挙げて説明したが、車両の後方、車両の右側方、車両の左側方を撮像した撮像画像についても本発明は適用可能である。 Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment. The present invention can be carried out in various forms in which various modifications and improvements have been made based on the knowledge of those skilled in the art, including the above-described embodiment. For example, the image captured by the monocular camera 1 capturing the front of the vehicle M has been described as an example, but the present invention can also be applied to captured images of the rear of the vehicle, the right side of the vehicle, and the left side of the vehicle. is there.

[ランドマークが道路標識又は道路標示の場合の例]
以下、ランドマークが道路標識又は道路標示の場合の例について説明する。図9(a)は、三つのランドマークを用いた物体の位置の求め方の一例を説明するための図である。ここでは、三つのランドマークが撮像画像上で物体Nを囲むように配置されている場合について説明する。図9(a)に示すように、白線に代えてランドマークとして道路標識又は道路標示を用いる場合、ランドマークの位置座標は点(例えば道路標識の根本、道路標示の中心)として示すことができる。
[Example when the landmark is a road sign or road marking]
Hereinafter, an example in which the landmark is a road sign or a road marking will be described. FIG. 9A is a diagram for explaining an example of how to obtain the position of an object using three landmarks. Here, a case where three landmarks are arranged so as to surround the object N on the captured image will be described. As shown in FIG. 9A, when a road sign or a road marking is used as a landmark instead of a white line, the position coordinates of the landmark can be shown as a point (for example, the root of the road sign, the center of the road marking). ..

図9(a)に、ランドマークの点b1〜b3、物体N、物体Nの下辺中心C、物体Nの下辺を延長した直線E、点b1及び点b2を結ぶ直線状の線分K10、点b2及び点b3を結ぶ直線状の線分K11、直線Eと線分K10の交点L、及び、直線Eと線分K11の交点Rを示す。ランドマークの点b1〜b3は、ランドマーク認識部12によって撮像画像上の位置座標(u軸座標、v軸座標)を認識されている。また、ランドマークの点b1〜b3の地図上の位置情報(x軸座標、y軸座標)は、ランドマーク情報記憶部3に記憶されている。また、物体Nの下辺中心Cは、物体認識部13によって撮像画像上の位置座標(uC、vC)が認識されている。 In FIG. 9A, points b1 to b3 of the landmark, object N, the center C of the lower side of the object N, a straight line E extending the lower side of the object N, a straight line segment K10 connecting the points b1 and b2, and a point. The linear line segment K11 connecting b2 and the point b3, the intersection L of the straight line E and the line segment K10, and the intersection R of the straight line E and the line segment K11 are shown. The landmark points b1 to b3 are recognized by the landmark recognition unit 12 as the position coordinates (u-axis coordinates, v-axis coordinates) on the captured image. Further, the position information (x-axis coordinates, y-axis coordinates) on the map of the landmark points b1 to b3 is stored in the landmark information storage unit 3. Further, the position coordinates (uC, vC) on the captured image are recognized by the object recognition unit 13 at the lower side center C of the object N.

図9(a)に示す状況において、物体位置算出部14は、ランドマークが白線の場合と同様の手順により、線形補間を利用して撮像画像上の交点Lの位置座標(uL、vL)を算出する。物体位置算出部14は、上述した式(1)において、白線点a1の位置座標に代えて点b1の位置座標を採用し、白線点a2の位置座標に代えて点b2の位置座標を採用することで、交点Lのu軸座標(uL)を求めることができる。なお、交点Lのv軸座標(vL)は、物体Nの下辺中心Cのv軸座標(vC)と同じである。同様にして、物体位置算出部14は、撮像画像上の交点Rの位置座標(uR、vR)を算出する。 In the situation shown in FIG. 9A, the object position calculation unit 14 uses linear interpolation to obtain the position coordinates (uL, vL) of the intersection L on the captured image by the same procedure as when the landmark is a white line. calculate. In the above equation (1), the object position calculation unit 14 adopts the position coordinates of the point b1 instead of the position coordinates of the white line point a1, and adopts the position coordinates of the point b2 instead of the position coordinates of the white line point a2. Therefore, the u-axis coordinates (uL) of the intersection L can be obtained. The v-axis coordinate (vL) of the intersection L is the same as the v-axis coordinate (vC) of the lower side center C of the object N. Similarly, the object position calculation unit 14 calculates the position coordinates (uR, vR) of the intersection R on the captured image.

次に、物体位置算出部14は、ランドマークが白線の場合と同様の手順により、地図上の交点Lの位置(xL、yL)を算出する。物体位置算出部14は、上述した式(3)において、白線点a1の位置情報に代えて点b1の位置情報を採用し、白線点a2の位置情報に代えて点b2の位置情報を採用することで、交点Lのy軸座標(yL)を算出することができる。また、物体位置算出部14は、同様の線形補間により、交点Lのx軸座標(xL)を算出する。上述した式(3)においてyをxに置き換え、uをvに置き換えて算出することで、交点Lのx軸座標(xL)を算出することができる。同様にして、物体位置算出部14は、地図上の交点Rの位置(xR、yR)を算出する。 Next, the object position calculation unit 14 calculates the position (xL, yL) of the intersection L on the map by the same procedure as when the landmark is a white line. In the above equation (3), the object position calculation unit 14 adopts the position information of the point b1 instead of the position information of the white line point a1, and adopts the position information of the point b2 instead of the position information of the white line point a2. Therefore, the y-axis coordinates (yL) of the intersection L can be calculated. Further, the object position calculation unit 14 calculates the x-axis coordinates (xL) of the intersection L by the same linear interpolation. By replacing y with x and u with v in the above equation (3), the x-axis coordinates (xL) of the intersection L can be calculated. Similarly, the object position calculation unit 14 calculates the position (xR, yR) of the intersection R on the map.

その後、物体位置算出部14は、ランドマークが白線の場合と同様の手順により、地図上の交点Lの位置(xL、yL)及び地図上の交点Rの位置(xR、yR)に基づいて、地図上の物体Nの下辺中心Cの位置(xC、yC)を算出する。 After that, the object position calculation unit 14 uses the same procedure as when the landmark is a white line, based on the position of the intersection L on the map (xL, yL) and the position of the intersection R on the map (xR, yR). The position (xC, yC) of the lower side center C of the object N on the map is calculated.

図9(b)は、三つのランドマークを用いた物体の位置の求め方の他の例を説明するための図である。図9(b)に、ランドマークの点b11〜b13、物体N、物体Nの下辺中心C、物体Nの下辺を延長した直線E、点b11及び点b12を結ぶ直線状の線分K20、点b12及び点b13を結ぶ直線状の線分K21、直線Eと線分K20の交点L、及び、直線Eと線分K21の交点Rを示す。図9(b)に示す状況においても、交点L及び交点Rが得られることから、上述の手順により、地図上の物体Nの下辺中心Cの位置(xC、yC)を算出することができる。 FIG. 9B is a diagram for explaining another example of how to obtain the position of an object using three landmarks. 9 (b) shows the landmark points b11 to b13, the object N, the lower side center C of the object N, the straight line E extending the lower side of the object N, the straight line segment K20 connecting the points b11 and b12, and the points. The linear line segment K21 connecting b12 and the point b13, the intersection L of the straight line E and the line segment K20, and the intersection R of the straight line E and the line segment K21 are shown. Since the intersection L and the intersection R can be obtained even in the situation shown in FIG. 9B, the position (xC, yC) of the lower side center C of the object N on the map can be calculated by the above procedure.

その他、ECU10は、撮像画像上の位置座標と車両Mを基準とした地図上の位置(空間的な位置)とを関連付けたマップデータを予め記憶していてもよい。この場合、物体位置算出部14は、撮像画像上の物体の位置座標と地図上の車両の位置から、地図上の物体の位置を算出する。このとき、物体位置算出部14は、撮像画像上のランドマークの位置座標と地図上のランドマークの位置情報を利用して、撮像画像上の物体の位置座標と撮像画像上のランドマークの位置座標の関係から地図上の物体の位置の算出結果を補正することで、精度良く物体の位置を算出することができる。 In addition, the ECU 10 may store in advance map data in which the position coordinates on the captured image and the position (spatial position) on the map with respect to the vehicle M are associated with each other. In this case, the object position calculation unit 14 calculates the position of the object on the map from the position coordinates of the object on the captured image and the position of the vehicle on the map. At this time, the object position calculation unit 14 uses the position coordinates of the landmark on the captured image and the position information of the landmark on the map to position the position coordinates of the object on the captured image and the position of the landmark on the captured image. By correcting the calculation result of the position of the object on the map from the relationship of the coordinates, the position of the object can be calculated with high accuracy.

1…単眼カメラ、2…地図情報記憶部、3…ランドマーク情報記憶部、4…GPS受信部、11…車両位置認識部、12…ランドマーク認識部、13…物体認識部、14…物体位置算出部、100…物体認識装置、a1-a6…白線点、C…下辺中心、d…差分、E…直線、L,R…交点、M…車両、N…物体、w1,w2,W1,W2…白線。 1 ... Monocular camera, 2 ... Map information storage unit, 3 ... Landmark information storage unit, 4 ... GPS receiver unit, 11 ... Vehicle position recognition unit, 12 ... Landmark recognition unit, 13 ... Object recognition unit, 14 ... Object position Calculation unit, 100 ... object recognition device, a1-a6 ... white line point, C ... lower side center, d ... difference, E ... straight line, L, R ... intersection, M ... vehicle, N ... object, w1, w2, W1, W2 …white line.

Claims (1)

車両の周囲を撮像して得られた撮像画像に基づいて、前記車両の周囲の物体を認識する物体認識装置であって、
地図上の前記車両の位置を認識する車両位置認識部と、
前記地図上のランドマークの位置情報を記憶する記憶部と、
前記撮像画像、前記地図上の前記車両の位置、及び前記地図上の前記ランドマークの位置情報に基づいて、前記撮像画像上の前記ランドマークの位置座標を認識するランドマーク認識部と、
前記撮像画像に基づいて、前記撮像画像上の前記物体の位置座標を認識する物体認識部と、
前記撮像画像上の前記物体の位置座標、前記撮像画像上の前記ランドマークの位置座標、及び前記地図上の前記ランドマークの位置情報に基づいて、同じ前記撮像画像上における前記ランドマークと前記物体の位置関係を利用して前記地図上の前記物体の位置を算出する物体位置算出部と、
を備える物体認識装置。
An object recognition device that recognizes objects around the vehicle based on the captured image obtained by imaging the surroundings of the vehicle.
A vehicle position recognition unit that recognizes the position of the vehicle on the map,
A storage unit that stores the location information of landmarks on the map,
A landmark recognition unit that recognizes the position coordinates of the landmark on the captured image based on the captured image, the position of the vehicle on the map, and the position information of the landmark on the map.
An object recognition unit that recognizes the position coordinates of the object on the captured image based on the captured image.
Based on the position coordinates of the object on the captured image, the position coordinates of the landmark on the captured image, and the position information of the landmark on the map , the landmark and the object on the same captured image. An object position calculation unit that calculates the position of the object on the map using the positional relationship of
An object recognition device equipped with.
JP2015237908A 2015-12-04 2015-12-04 Object recognition device Active JP6756101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015237908A JP6756101B2 (en) 2015-12-04 2015-12-04 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015237908A JP6756101B2 (en) 2015-12-04 2015-12-04 Object recognition device

Publications (2)

Publication Number Publication Date
JP2017102861A JP2017102861A (en) 2017-06-08
JP6756101B2 true JP6756101B2 (en) 2020-09-16

Family

ID=59016667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015237908A Active JP6756101B2 (en) 2015-12-04 2015-12-04 Object recognition device

Country Status (1)

Country Link
JP (1) JP6756101B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6271068B1 (en) * 2017-06-22 2018-01-31 株式会社ショーワ Obstacle detection device, vehicle, and obstacle detection system
KR102541560B1 (en) 2017-09-14 2023-06-08 삼성전자주식회사 Method and apparatus for recognizing object
JP2019135620A (en) * 2018-02-05 2019-08-15 アイシン精機株式会社 Traveling support device
CN110928284B (en) * 2018-09-19 2024-03-29 阿波罗智能技术(北京)有限公司 Method, apparatus, medium and system for assisting in controlling automatic driving of vehicle
KR102277503B1 (en) * 2019-08-01 2021-07-15 주식회사 다비오 Terminal devicem, service server and method for indoor positioning based on object detection
JP7321035B2 (en) * 2019-08-30 2023-08-04 日産自動車株式会社 OBJECT POSITION DETECTION METHOD AND OBJECT POSITION DETECTION DEVICE
JP2023544913A (en) * 2020-11-04 2023-10-25 ダビオ インク. Terminal device, service server and method for object recognition infrastructure indoor location

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005257314A (en) * 2004-03-09 2005-09-22 Honda Motor Co Ltd Vehicle position detector
JP4675811B2 (en) * 2006-03-29 2011-04-27 株式会社東芝 Position detection device, autonomous mobile device, position detection method, and position detection program
JP5714940B2 (en) * 2011-03-04 2015-05-07 国立大学法人 熊本大学 Moving body position measuring device
JP5867176B2 (en) * 2012-03-06 2016-02-24 日産自動車株式会社 Moving object position and orientation estimation apparatus and method
JP6179191B2 (en) * 2013-05-27 2017-08-16 富士通株式会社 Driving diagnosis device, driving diagnosis method and program
JP6180968B2 (en) * 2014-03-10 2017-08-16 日立オートモティブシステムズ株式会社 Vehicle control device
BR112016026372B1 (en) * 2014-05-20 2022-03-03 Nissan Motor Co. Ltd TARGET DETECTION APPARATUS AND TARGET DETECTION METHOD
JP6303890B2 (en) * 2014-07-22 2018-04-04 日産自動車株式会社 Position detection apparatus and position detection method

Also Published As

Publication number Publication date
JP2017102861A (en) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6756101B2 (en) Object recognition device
JP5962771B2 (en) Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
CN106981082B (en) Vehicle-mounted camera calibration method and device and vehicle-mounted equipment
JP5089545B2 (en) Road boundary detection and judgment device
JP5935636B2 (en) Intersection guidance system, method and program
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP2019517089A (en) Image processing method for recognizing ground markings, and system for detecting ground markings
CN103679119B (en) Self adaptation slope road detection method and device
US9336595B2 (en) Calibration device, method for implementing calibration, and camera for movable body and storage medium with calibration function
US20150149076A1 (en) Method for Determining a Course of a Traffic Lane for a Vehicle
JP7008040B2 (en) Methods for creating mappings of environmental models, as well as vehicle control systems and corresponding vehicles
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP7077910B2 (en) Bound line detection device and lane marking method
JP6941178B2 (en) Automatic operation control device and method
WO2014027478A1 (en) Road environment recognition device
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
JP7156924B2 (en) Lane boundary setting device, lane boundary setting method
JP2019526105A5 (en)
JP5310027B2 (en) Lane recognition device and lane recognition method
CN112824997A (en) Method and system for local lane of travel perception
CN110555801A (en) Correction method, terminal and storage medium for track deduction
CN112927309A (en) Vehicle-mounted camera calibration method and device, vehicle-mounted camera and storage medium
JP2016099719A (en) Travel section line recognition apparatus
CN107430821B (en) Image processing apparatus
JP6044084B2 (en) Moving object position and orientation estimation apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R151 Written notification of patent or utility model registration

Ref document number: 6756101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151