JP2012159470A - Vehicle image recognition device - Google Patents

Vehicle image recognition device Download PDF

Info

Publication number
JP2012159470A
JP2012159470A JP2011021009A JP2011021009A JP2012159470A JP 2012159470 A JP2012159470 A JP 2012159470A JP 2011021009 A JP2011021009 A JP 2011021009A JP 2011021009 A JP2011021009 A JP 2011021009A JP 2012159470 A JP2012159470 A JP 2012159470A
Authority
JP
Japan
Prior art keywords
distance
image
road marking
measuring
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011021009A
Other languages
Japanese (ja)
Inventor
Masakazu Nishijima
征和 西嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2011021009A priority Critical patent/JP2012159470A/en
Publication of JP2012159470A publication Critical patent/JP2012159470A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle image recognition device having a correction function for improving accuracy of a result of measuring the distance to an object.SOLUTION: The vehicle image recognition device includes imaging means (monocular camera 11) outputting an image of surroundings of a vehicle, and measuring means (three-dimensional object extracting part 15, distance correction part 16) for measuring the distance to an object by measuring a vertical position on the image of the object from the image. The measuring means corrects the distance to the object by use of a vertical position on the image of a road sign measured by a method different from the method of measuring the distance to the object.

Description

本発明は、車両周辺の画像を出力する撮像手段と、測距対象の前記画像上の縦方向位置を前記画像から実測することによって、前記測距対象までの距離を計測する計測手段とを備える、車両用画像認識装置に関する。   The present invention comprises imaging means for outputting an image around the vehicle, and measuring means for measuring the distance to the distance measurement object by actually measuring the vertical position of the distance measurement object on the image from the image. The present invention relates to a vehicle image recognition apparatus.

従来技術として、二次元画像において、視点からの距離が既知である基準点を基準とした照度差に基づいて、視点から非基準点までの距離を求めることにより、立体情報を取得する技術が知られている(例えば、特許文献1を参照)。   As a conventional technique, in a two-dimensional image, a technique for acquiring stereoscopic information by obtaining a distance from a viewpoint to a non-reference point based on an illuminance difference based on a reference point whose distance from the viewpoint is known is known. (For example, see Patent Document 1).

特開2010−2273号公報JP 2010-2273 A

しかしながら、実交通環境において測距対象までの距離を測定するためには、何らかの補正をすることによって、その測定値を変動させうる撮像手段側の要因を効率的に取り除く必要がある。   However, in order to measure the distance to the distance measurement target in an actual traffic environment, it is necessary to efficiently remove factors on the imaging means side that can change the measurement value by performing some correction.

例えば、測距対象の撮像画像上の縦方向位置から測距対象までの距離を計測する場合、車両のピッチングや車両姿勢の変化などによる車両のピッチ変動によって、計測値に誤差が含まれてしまう。   For example, when measuring the distance from a vertical position on a captured image of a distance measurement object to the distance measurement object, an error is included in the measurement value due to vehicle pitch variation due to vehicle pitching or vehicle posture change, etc. .

そこで、本発明は、測距結果の精度を高める補正機能を備えた、車両用画像認識装置の提供を目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a vehicle image recognition apparatus having a correction function for increasing the accuracy of distance measurement results.

上記目的を達成するため、本発明に係る車両用画像認識装置は、
車両周辺の画像を出力する撮像手段と、
測距対象の前記画像上の縦方向位置を前記画像から実測することによって、前記測距対象までの距離を計測する計測手段とを備え、
前記計測手段は、
前記測距対象までの距離を計測する方法とは別の方法で距離が測定された道路標示によって、前記測距対象までの距離の補正をする、ことを特徴とするものである。
In order to achieve the above object, a vehicle image recognition apparatus according to the present invention includes:
Imaging means for outputting an image around the vehicle;
Measuring means for measuring the distance to the distance measurement object by actually measuring the vertical position on the image of the distance measurement object from the image;
The measuring means includes
The distance to the distance measuring object is corrected by a road marking whose distance is measured by a method different from the method of measuring the distance to the distance measuring object.

本発明によれば、測距結果の精度を高める補正ができる。   According to the present invention, it is possible to perform correction that increases the accuracy of the distance measurement result.

本発明の一実施形態である車両用画像認識装置1の構成を示したブロック図である。It is the block diagram which showed the structure of the image recognition apparatus for vehicles 1 which is one Embodiment of this invention. 単眼カメラ11によって得られた自車両の進行方向の撮像画像21を示した図である。It is the figure which showed the captured image 21 of the advancing direction of the own vehicle obtained with the monocular camera 11. FIG. 道路標示である横断歩道までの距離を算出するまでの処理例を示したフローチャートである。It is the flowchart which showed the process example until calculating the distance to the pedestrian crossing which is a road marking. 図2の撮像画像21上の横断歩道25を説明するための図である。It is a figure for demonstrating the pedestrian crossing 25 on the captured image 21 of FIG. 撮像画像21上でピクセル幅aを有する横断歩道25までの距離Lを示した図である。It is the figure which showed the distance L to the pedestrian crossing 25 which has the pixel width a on the captured image 21. FIG. 一般道路環境下の実シーンにおける横断歩道までの距離の算出結果である。It is the calculation result of the distance to the pedestrian crossing in the real scene in a general road environment. 測距対象である歩行者までの距離を算出するまでの処理例を示したフローチャートである。It is the flowchart which showed the process example until calculating the distance to the pedestrian who is a ranging object. 距離Lのときの、カメラ11の取り付け高さHcと縦座標Yv,Yoとの関係を示した図である。It is the figure which showed the relationship between the attachment height Hc of the camera 11, and the ordinates Yv and Yo at the distance L. 式(3)を表したグラフである。It is a graph showing Formula (3). 式(4)に基づく距離補正部16の距離補正結果の一例を示した図である。It is the figure which showed an example of the distance correction result of the distance correction part 16 based on Formula (4).

以下、図面を参照しながら、本発明を実施するための形態の説明を行う。図1は、本発明の一実施形態である車両用画像認識装置1の構成を示したブロック図である。車両用画像認識装置1は、車両に搭載され、単眼カメラ11と、道路標示抽出部12と、大きさ検出部13と、距離算出部14と、立体物抽出部15と、距離補正部16とを備えている。各部の機能の一部又は全部は、画像認識処理を実行するプロセッサやマイクロコンピュータ等によって実現可能である。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle image recognition apparatus 1 according to an embodiment of the present invention. The vehicular image recognition apparatus 1 is mounted on a vehicle, and includes a monocular camera 11, a road marking extraction unit 12, a size detection unit 13, a distance calculation unit 14, a three-dimensional object extraction unit 15, and a distance correction unit 16. It has. Part or all of the functions of each unit can be realized by a processor, a microcomputer, or the like that executes image recognition processing.

単眼カメラ11は、自車両周辺(例えば、自車両の進行方向)を所定の画角で撮像して、その撮像画像を出力する撮像手段である。自車両の進行方向は、前進方向でも、後進方向でもよい。単眼カメラ11は、CCD又はCMOS等の撮像素子を備えている。   The monocular camera 11 is an imaging unit that captures an image of the periphery of the host vehicle (for example, the traveling direction of the host vehicle) at a predetermined angle of view and outputs the captured image. The traveling direction of the host vehicle may be the forward direction or the reverse direction. The monocular camera 11 includes an image sensor such as a CCD or a CMOS.

道路標示抽出部12は、単眼カメラ11による撮像画像から道路標示の所定部位を抽出する手段である。道路標示抽出部12によって抽出される所定部位は、予め設計的に決められていて、道路標示の全体でも一部でもよい。   The road sign extraction unit 12 is a means for extracting a predetermined part of the road sign from the image captured by the monocular camera 11. The predetermined part extracted by the road marking extraction unit 12 is predetermined in design, and may be the whole or a part of the road marking.

道路標示は、文字、記号又はそれらの組み合わせが路面上にペイント等によって標示されたものである。道路標示の大きさは、法令等で予め定められた寸法を基準としている。道路標示の具体例として、規制標示と指示標示が挙げられる。規制標示の具体例として、転回禁止マーク、最高速度マークなどが挙げられる。指示標示の具体例として、横断歩道、前方に横断歩道があることを示す菱形マーク、前方に優先道路があることを示す三角マーク、進行方向マークなどが挙げられる。   In the road marking, characters, symbols, or combinations thereof are marked on the road surface by paint or the like. The size of the road marking is based on dimensions predetermined by laws and regulations. Specific examples of road markings include regulation markings and instruction markings. Specific examples of the restriction marking include a turn prohibition mark and a maximum speed mark. Specific examples of the indication sign include a pedestrian crossing, a rhombus mark indicating that there is a pedestrian crossing ahead, a triangular mark indicating that there is a priority road ahead, and a traveling direction mark.

図2は、単眼カメラ11によって得られた自車両の進行方向の撮像画像21を示した図である。撮像画像21には、道路標示として、自車両の前方の進路上に標示された横断歩道25が含まれている。符号26は、消失点(無限遠点)を表す。図2の場合、道路標示抽出部12は、例えば、撮像画像21から、横断歩道25を構成する候補ラインp1〜p4を抽出する。撮像画像21は、左右方向のピクセル数がW、上下方向のピクセル数がHの画像である。   FIG. 2 is a view showing a captured image 21 of the traveling direction of the host vehicle obtained by the monocular camera 11. The captured image 21 includes a pedestrian crossing 25 marked on the course ahead of the host vehicle as a road marking. The code | symbol 26 represents a vanishing point (infinity point). In the case of FIG. 2, the road marking extraction unit 12 extracts candidate lines p <b> 1 to p <b> 4 constituting the pedestrian crossing 25 from the captured image 21, for example. The captured image 21 is an image in which the number of pixels in the horizontal direction is W and the number of pixels in the vertical direction is H.

大きさ検出部13は、道路標示抽出部12によって抽出された道路標示の所定部位についての単眼カメラ11による撮像画像上の大きさ(好ましくは、横幅)を検出する手段である。大きさ検出部13は、例えば、道路標示の所定部位を構成するピクセル数を撮像画像から取得することで、その所定部位の撮像画像上の大きさを検出できる。   The size detection unit 13 is a means for detecting the size (preferably the lateral width) on the image captured by the monocular camera 11 for a predetermined part of the road marking extracted by the road marking extraction unit 12. For example, the size detection unit 13 can detect the size of the predetermined portion on the captured image by acquiring the number of pixels constituting the predetermined portion of the road marking from the captured image.

距離算出部14は、道路標示抽出部12によって抽出された道路標示の所定部位についての規格上の予め定められた大きさと、大きさ検出部13により実際に検出された大きさと、単眼カメラ11の角度分解能とに基づいて、自車両からその道路標示までの距離を算出する手段である。   The distance calculation unit 14 determines a predetermined size in the standard for a predetermined part of the road sign extracted by the road sign extraction unit 12, a size actually detected by the size detection unit 13, and the monocular camera 11. It is a means for calculating the distance from the host vehicle to the road marking based on the angular resolution.

図3は、道路標示である横断歩道までの距離を算出するまでの処理例を示したフローチャートである。図2,4を参照しながら、本フローチャートについて説明する。   FIG. 3 is a flowchart showing a processing example until the distance to the pedestrian crossing, which is a road marking, is calculated. The flowchart will be described with reference to FIGS.

ステップS10において、道路標示抽出部12は、撮像画像21の画素輝度分布に基づいて、画素の輝度が急変する上下方向(垂直方向)のエッジを撮像画像21の中から抽出する。   In step S <b> 10, the road sign extraction unit 12 extracts an edge in the vertical direction (vertical direction) where the luminance of the pixel suddenly changes from the captured image 21 based on the pixel luminance distribution of the captured image 21.

ステップS20において、道路標示抽出部12は、ステップS10で抽出したエッジを、水平方向(自車両から横断歩道を見たときの左右方向)の輝度変化パターンによって分類する。道路標示抽出部12は、各エッジの左領域及び右領域の画素輝度分布に基づいて、左領域が右領域よりも暗い場合には「立ち上がりエッジ」と判定し、左領域が右領域よりも明るい場合には「立ち下がりエッジ」と判定する。   In step S20, the road sign extraction unit 12 classifies the edges extracted in step S10 according to a luminance change pattern in the horizontal direction (left and right direction when the pedestrian crossing is viewed from the own vehicle). The road marking extraction unit 12 determines that the left region is brighter than the right region based on the pixel luminance distribution of the left region and the right region of each edge when the left region is darker than the right region. In this case, it is determined as “falling edge”.

ステップS30において、道路標示抽出部12は、撮像画像21を水平方向にサーチして、ステップS20で分類したエッジが所定回数以上交互に繰り返し出現するラインを、横断歩道25を構成する候補ラインとしてグルーピングする。そして、道路標示抽出部12は、撮像画像21を垂直方向にサーチして、グルーピングされた各候補ラインの隣接関係、及び候補ラインを構成するエッジの接続関係によって、各候補ラインをグルーピングして横断歩道領域を抽出する。   In step S <b> 30, the road sign extraction unit 12 searches the captured image 21 in the horizontal direction, and groups lines in which the edges classified in step S <b> 20 appear alternately and repeatedly appear as candidate lines constituting the pedestrian crossing 25. To do. Then, the road sign extraction unit 12 searches the captured image 21 in the vertical direction, groups the candidate lines according to the adjacent relationship of the grouped candidate lines and the connection relationship of the edges constituting the candidate lines, and crosses the candidate lines. Extract the sidewalk area.

例えば、道路標示抽出部12は、互いに隣り合う立ち上がりエッジと立ち下がりエッジを1ペアとして、所定数以上のペア(例えば、3ペア以上)が存在し、且つ、それらの所定数以上のペアについて各ペアを構成する2つのエッジ間の水平方向(左右方向)の距離(例えば図4の場合、距離b1,b2,b3)がそれぞれ所定の範囲内にあるとき、それらの各ペアを、横断歩道25を構成する候補ラインとして抽出し、それらの抽出された複数の候補ラインを横断歩道領域としてグルーピングする。   For example, the road sign extraction unit 12 includes a pair of rising edges and falling edges adjacent to each other, and there are a predetermined number or more pairs (for example, 3 pairs or more), and each of the predetermined number or more of pairs. When the distances in the horizontal direction (left-right direction) between the two edges constituting the pair (for example, distances b1, b2, b3 in the case of FIG. 4) are within a predetermined range, the respective pairs are designated as crosswalk 25. Are extracted as candidate lines, and the extracted candidate lines are grouped as pedestrian crossing areas.

ステップS40において、大きさ検出部13は、横断歩道領域の左右方向のピクセル数(幅)を検出し、距離算出部14は、その検出された左右方向のピクセル数を用いて、自車両の単眼カメラ11から横断歩道25までの距離を算出する。   In step S40, the size detection unit 13 detects the number of pixels in the left-right direction (width) of the pedestrian crossing area, and the distance calculation unit 14 uses the detected number of pixels in the left-right direction to monocular the host vehicle. The distance from the camera 11 to the pedestrian crossing 25 is calculated.

図4は、図2の撮像画像21上の横断歩道25を説明するための図である。道路標示抽出部12によって横断歩道領域として抽出されたペアの中で、大きさ検出部13は、例えば、最も左側のペアの立ち上がりエッジp1aから、左から3番目のペアの立ち下がりエッジp3bまでの距離に相当する3ペア分のピクセル幅aを検出する。横断歩道25の規格上のその3ペア分の両端間の幅長(すなわち、ピクセル幅aの部分に対応する部位の規格上求められる値)をAとし、単眼カメラ11の左右方向の角度分解能をPとし、自車両から横断歩道25までの距離をLとすると、図5から明らかなように、
L=A/tan(a×P) ・・・(1)
という関係式が成り立つ。ここで、角度分解能Pは、単眼カメラ11の左右方向の画角をα[度]、単眼カメラ11によって得られる撮像画像21の左右方向のピクセル数をW[pix.]とすると、「P=α/W[度/pix.]」によって表すことが可能な固定値である。つまり、距離算出部14は、式(1)に基づいて、横断歩道25までの距離Lを算出することができる。
FIG. 4 is a diagram for explaining the pedestrian crossing 25 on the captured image 21 of FIG. Among the pairs extracted as the pedestrian crossing area by the road marking extraction unit 12, the size detection unit 13 is, for example, from the rising edge p1a of the leftmost pair to the falling edge p3b of the third pair from the left. The pixel width a for three pairs corresponding to the distance is detected. The width length between both ends of the three pairs on the standard of the pedestrian crossing 25 (that is, a value required in the standard of the part corresponding to the portion of the pixel width a) is A, and the angular resolution in the horizontal direction of the monocular camera 11 is As shown in FIG. 5, if P is P and L is the distance from the vehicle to the pedestrian crossing 25,
L = A / tan (a × P) (1)
The following relational expression holds. Here, the angle resolution P is defined as “P = when the horizontal angle of view of the monocular camera 11 is α [degrees] and the number of pixels of the captured image 21 obtained by the monocular camera 11 is W [pix.]. It is a fixed value that can be represented by “α / W [degree / pix.]”. That is, the distance calculation unit 14 can calculate the distance L to the pedestrian crossing 25 based on the formula (1).

もちろん、横断歩道領域として抽出されたペアのエッジであれば、どのエッジ間のピクセル幅を検出してもよく、その検出されたピクセル幅をaとした場合、ピクセル幅aの部分に対応する部位の規格値が固定値Aに相当する。   Of course, as long as it is a pair of edges extracted as a pedestrian crossing region, the pixel width between any edges may be detected. If the detected pixel width is a, the part corresponding to the portion of the pixel width a The standard value corresponds to the fixed value A.

したがって、車両用画像認識装置1は、上記構成の、単眼カメラ11、道路標示抽出部12、大きさ検出部13及び距離算出部14を備えていることにより、横断歩道等の道路標示の所定部位の規格上の大きさを加味して、道路標示までの距離を算出しているので、道路標示が自車両から遠方に存在する状況であっても、道路標示までの距離を単眼カメラによる撮像画像から精度良く算出できる。   Therefore, the vehicular image recognition apparatus 1 includes the monocular camera 11, the road marking extraction unit 12, the size detection unit 13, and the distance calculation unit 14 having the above-described configuration, so that a predetermined part of the road marking such as a pedestrian crossing is provided. Since the distance to the road marking is calculated by taking into account the size of the standard, the distance to the road marking is captured by a monocular camera even if the road marking is far away from the host vehicle. Can be calculated with high accuracy.

図6は、一般道路環境下の実シーンにおける横断歩道までの距離の算出結果であって、(a)は、本発明の実施例を示し、(b)は、測距点の画像上の上下方向の位置を表す縦座標とその測距点までの距離との対応関係に基づいて、画像上の横断歩道領域の最下端の縦座標から横断歩道までの距離を算出する従来技術の場合の比較例を示している。図6から明らかなように、本発明の実施例の方が、上下方向の位置を表す縦座標を基準に距離を算出する従来技術に比べて、自車両のピッチ変動や道路勾配変化などの外乱の影響を受けにくいため、横断歩道までの距離の真値に対してずれが小さく、精度良く距離を算出できることがわかる。   FIG. 6 is a calculation result of the distance to the pedestrian crossing in a real scene under a general road environment, where (a) shows an embodiment of the present invention, and (b) Comparison with the conventional technology that calculates the distance from the lowest ordinate of the pedestrian crossing area on the image to the pedestrian crossing based on the correspondence between the ordinate representing the position of the direction and the distance to the distance measuring point An example is shown. As is clear from FIG. 6, the embodiment of the present invention is more effective in disturbances such as a change in the pitch of the host vehicle and a change in the road gradient than the conventional technique in which the distance is calculated based on the ordinate representing the vertical position. Therefore, it can be seen that the distance can be calculated accurately with little deviation from the true value of the distance to the pedestrian crossing.

ところで、図1に示されるように、車両用画像認識装置1は、測距対象(立体物)までの距離を計測する計測手段として、立体物抽出部15及び距離補正部16を更に備えている。   Incidentally, as shown in FIG. 1, the vehicular image recognition apparatus 1 further includes a three-dimensional object extraction unit 15 and a distance correction unit 16 as measurement means for measuring the distance to the distance measurement target (three-dimensional object). .

立体物抽出部15は、自車両の進行方面に存在する道路標示近辺(例えば、道路標示が標示された道路上又はその道路脇)に存在する立体物を、単眼カメラ11によって得られた撮像画像から、テンプレートマッチング等のパターン認識により抽出する手段である。この立体物の具体例として、歩行者、先行車両・駐車車両などの他車両、自車両と衝突するおそれのある障害物(歩行者等を含む)などが挙げられる。   The three-dimensional object extraction unit 15 is a captured image obtained by the monocular camera 11 of a three-dimensional object that exists in the vicinity of a road marking that exists in the traveling direction of the host vehicle (for example, on the road where the road marking is marked or on the side of the road). To extract by pattern recognition such as template matching. Specific examples of this three-dimensional object include pedestrians, other vehicles such as preceding vehicles and parked vehicles, and obstacles (including pedestrians) that may collide with the host vehicle.

立体物抽出部15は、抽出された立体物の撮像画像上の縦方向位置を表す縦座標を実測する。立体物抽出部15は、例えば、図2に示されるように、歩行者22の最下端の撮像画像21上の縦座標Ypを実測する。   The three-dimensional object extraction unit 15 actually measures the ordinate representing the vertical position on the captured image of the extracted three-dimensional object. For example, as illustrated in FIG. 2, the three-dimensional object extraction unit 15 measures the ordinate Yp on the captured image 21 at the lowermost end of the pedestrian 22.

距離補正部16は、立体物までの距離を計測する後述の方法とは別の方法で距離が測定された道路標示によって、立体物までの距離の補正をして、その補正値を算出するものである。この別の方法とは、例えば、距離算出部14で実行される上述の距離算出方法である。   The distance correction unit 16 corrects the distance to the three-dimensional object by using a road marking whose distance is measured by a method different from the method described later for measuring the distance to the three-dimensional object, and calculates the correction value. It is. This other method is, for example, the above-described distance calculation method executed by the distance calculation unit 14.

図7は、測距対象である歩行者までの距離を算出するまでの処理例を示したフローチャートである。図2,8〜10を参照しながら、本フローチャートについて説明する。   FIG. 7 is a flowchart showing an example of processing until calculating the distance to a pedestrian who is a distance measurement target. The flowchart will be described with reference to FIGS.

ステップS80の横断歩道25の領域検出と、ステップS90の横断歩道25までの距離Lの算出は、上記同様である。   The area detection of the pedestrian crossing 25 in step S80 and the calculation of the distance L to the pedestrian crossing 25 in step S90 are the same as described above.

ステップS100において、道路標示抽出部12は、距離算出部14によって上記の式(1)に基づいて算出された距離Lに対応する撮像画像21上での縦方向位置を表す縦座標Yoを算出する。単眼カメラ11の路面からの取り付け高さをHc,消失点26のY座標をYv,単眼カメラ11の左右方向の角度分解能をPとし、単眼カメラ11の上下方向の角度分解能をQとすると、図8から明らかなように、
Yo=Yv+(tan-1(Hc/L))/Q ・・・(3)
という関係式が成立する。ここで、角度分解能Qは、上述の角度分解能Pと同様に考えることができる。すなわち、角度分解能Qは、単眼カメラ11の上下方向の画角をβ[度]、単眼カメラ11によって得られる撮像画像の上下方向のピクセル数をH[pix.]とすると、「Q=β/H[度/pix.]」によって表すことが可能な固定値である。つまり、道路標示抽出部12は、式(3)に基づいて、縦座標Yoを算出することができる。
In step S <b> 100, the road sign extraction unit 12 calculates the ordinate Yo representing the vertical position on the captured image 21 corresponding to the distance L calculated by the distance calculation unit 14 based on the above formula (1). . Assuming that the mounting height of the monocular camera 11 from the road surface is Hc, the Y coordinate of the vanishing point 26 is Yv, the horizontal angular resolution of the monocular camera 11 is P, and the vertical angular resolution of the monocular camera 11 is Q. As is clear from 8,
Yo = Yv + (tan −1 (Hc / L)) / Q (3)
The following relational expression holds. Here, the angular resolution Q can be considered in the same manner as the angular resolution P described above. That is, the angle resolution Q is defined as “Q = β /, where β [deg.] Is the vertical angle of view of the monocular camera 11 and H [pix.] Is the number of pixels in the vertical direction of the captured image obtained by the monocular camera 11. It is a fixed value that can be represented by “H [degree / pix.]”. That is, the road sign extraction unit 12 can calculate the ordinate Yo based on the equation (3).

図9は、式(3)を表したグラフである(Q=0.027,Yv=240,Hc=1.28)。例えば、距離算出部14によって算出された横断歩道25までの距離Lが40mであるときの縦座標Yoは308ピクセルとなる。   FIG. 9 is a graph representing Expression (3) (Q = 0.027, Yv = 240, Hc = 1.28). For example, when the distance L to the pedestrian crossing 25 calculated by the distance calculation unit 14 is 40 m, the ordinate Yo is 308 pixels.

ステップS110において、道路標示抽出部12は、横断歩道25の撮像画像21上での上下動に基づいて、自車両のピッチ変動量を算出する。すなわち、道路標示抽出部12は、まず、抽出された横断歩道25の撮像画像21上の縦方向位置を表す縦座標を実測する。道路標示抽出部12は、例えば、図2に示されるように、横断歩道25の最下端の撮像画像21上の縦座標Ycを実測する。そして、道路標示抽出部12は、縦座標Yoと縦座標Ycとの差分ΔYを算出する。この差分ΔYが、自車両のピッチ変動量に相当する。実測された縦座標Ycが例えば280ピクセルであれば、縦座標Yoが308ピクセルのとき、差分ΔYは「308−280=+28」ピクセルとなる。   In step S <b> 110, the road sign extraction unit 12 calculates the pitch fluctuation amount of the host vehicle based on the vertical movement of the pedestrian crossing 25 on the captured image 21. That is, the road sign extraction unit 12 first measures the ordinate representing the vertical position on the captured image 21 of the extracted pedestrian crossing 25. For example, as illustrated in FIG. 2, the road marking extraction unit 12 measures the ordinate Yc on the captured image 21 at the lowermost end of the pedestrian crossing 25. Then, the road sign extracting unit 12 calculates a difference ΔY between the ordinate Yo and the ordinate Yc. This difference ΔY corresponds to the pitch fluctuation amount of the host vehicle. If the actually measured ordinate Yc is 280 pixels, for example, when the ordinate Yo is 308 pixels, the difference ΔY is “308−280 = + 28” pixels.

ステップS120において、距離補正部16は、歩行者22までの距離を算出する。すなわち、距離補正部16は、立体物抽出部15によって実測された歩行者22の最下端の撮像画像21上の縦座標Ypに差分ΔYを加算した座標を用いて、自車両から歩行者22までの距離Dpを算出する。距離Dpの算出式を得るためには、式(3)の逆関数を考えればよいので、
Dp=Hc/(tan(Yp+ΔY−Yv)×Q) ・・・(4)
という算出式が成立する。
In step S120, the distance correction unit 16 calculates the distance to the pedestrian 22. That is, the distance correction unit 16 uses the coordinate obtained by adding the difference ΔY to the ordinate Yp on the captured image 21 at the lowermost end of the pedestrian 22 measured by the three-dimensional object extraction unit 15 from the own vehicle to the pedestrian 22. The distance Dp is calculated. In order to obtain the calculation formula for the distance Dp, the inverse function of the formula (3) can be considered.
Dp = Hc / (tan (Yp + ΔY−Yv) × Q) (4)
The following formula is established.

図10は、式(4)に基づく距離補正部16の距離補正結果の一例を示した図である。立体物抽出部15によって実測された歩行者22の最下端の撮像画像21上の縦座標Ypを補正せずに、縦座標Ypと被写体までの距離との予め定められた対応関係に基づいて歩行者22までの距離を算出した場合、車両のピッチ変動等の影響を強く受けることにより、縦座標Ypの実測値が252ピクセルのとき、歩行者22までの距離は226mになる。これに対して、式(4)に基づいて算出した場合、歩行者22までの距離Dpは68mになり、歩行者22までの距離を精度良く算出できる。   FIG. 10 is a diagram showing an example of the distance correction result of the distance correction unit 16 based on the equation (4). Walking based on a predetermined correspondence between the ordinate Yp and the distance to the subject without correcting the ordinate Yp on the captured image 21 at the lowermost end of the pedestrian 22 measured by the three-dimensional object extraction unit 15. When the distance to the pedestrian 22 is calculated, the distance to the pedestrian 22 is 226 m when the measured value of the ordinate Yp is 252 pixels by being strongly influenced by the pitch fluctuation of the vehicle. On the other hand, when it calculates based on Formula (4), the distance Dp to the pedestrian 22 will be 68 m, and the distance to the pedestrian 22 can be calculated accurately.

なお、ピッチ変動量Dは、
D=Q×ΔY ・・・(5)
によって近似的に求めることができる。この場合、Dが正の値のとき、自車両が上向きにピッチ変動していることを示し、Dが負の値のとき、自車両が下向きにピッチ変動していることを示す。
The pitch fluctuation amount D is
D = Q × ΔY (5)
Can be obtained approximately. In this case, when D is a positive value, it indicates that the host vehicle is pitching upward, and when D is a negative value, it indicates that the host vehicle is pitching downward.

したがって、車両用画像認識装置1は、上記構成の、立体物抽出部15及び距離補正部16を備えていることにより、横断歩道等の道路標示の所定部位の規格上の大きさを加味して、歩行者等の立体物までの距離を算出しているので、立体物が自車両から遠方に存在する状況であっても、立体物までの距離を単眼カメラによる撮像画像から精度良く算出できる。また、歩行者等の立体物までの距離を計測する方法とは別の方法で距離が測定された道路標示によって、その立体物までの距離の補正がされるので、車両のピッチ変動によって生ずるその立体物の撮像画像上の縦方向位置の測定誤差を小さくできる結果、測距結果の精度を高めることができる。   Therefore, the vehicular image recognition apparatus 1 includes the three-dimensional object extraction unit 15 and the distance correction unit 16 having the above-described configuration, so that the standard size of a predetermined part of a road marking such as a pedestrian crossing is taken into account. Since the distance to the three-dimensional object such as a pedestrian is calculated, the distance to the three-dimensional object can be accurately calculated from the image captured by the monocular camera even in a situation where the three-dimensional object exists far from the host vehicle. Moreover, since the distance to the three-dimensional object is corrected by the road marking whose distance is measured by a method different from the method of measuring the distance to the three-dimensional object such as a pedestrian, As a result of reducing the measurement error of the vertical position on the captured image of the three-dimensional object, the accuracy of the distance measurement result can be increased.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述の実施形態は、単眼カメラを用いて道路標示までの距離を算出するものであったが、別の方法で道路標示までの距離を算出してもよい。例えば、ステレオカメラを用いて道路標示までの距離を算出してもよい。   For example, in the above-described embodiment, the distance to the road marking is calculated using a monocular camera, but the distance to the road marking may be calculated by another method. For example, the distance to the road marking may be calculated using a stereo camera.

1 車両用画像認識装置
11 単眼カメラ
12 道路標示抽出部
13 大きさ検出部
14 距離算出部
15 立体物抽出部
16 距離補正部
21 撮像画像
22 歩行者
25 横断歩道
26 消失点(無限遠点)
p1〜p4 候補ライン
DESCRIPTION OF SYMBOLS 1 Vehicle image recognition apparatus 11 Monocular camera 12 Road marking extraction part 13 Size detection part 14 Distance calculation part 15 Three-dimensional object extraction part 16 Distance correction part 21 Captured image 22 Pedestrian 25 Crosswalk 26 Vanishing point (infinity point)
p1-p4 candidate lines

Claims (7)

車両周辺の画像を出力する撮像手段と、
測距対象の前記画像上の縦方向位置を前記画像から実測することによって、前記測距対象までの距離を計測する計測手段とを備え、
前記計測手段は、
前記測距対象までの距離を計測する方法とは別の方法で距離が測定された道路標示によって、前記測距対象までの距離の補正をする、車両用画像認識装置。
Imaging means for outputting an image around the vehicle;
Measuring means for measuring the distance to the distance measurement object by actually measuring the vertical position on the image of the distance measurement object from the image;
The measuring means includes
An image recognition apparatus for a vehicle that corrects a distance to the distance measuring object by a road marking whose distance is measured by a method different from a method of measuring the distance to the distance measuring object.
前記計測手段は、前記道路標示の前記画像上の縦方向位置を、前記補正に用いる、請求項1に記載の車両用画像認識装置。   The vehicular image recognition apparatus according to claim 1, wherein the measurement unit uses a vertical position of the road marking on the image for the correction. 前記計測手段は、前記別の方法で測定された前記道路標示までの距離に前記画像上で対応する縦方向位置と、前記道路標示の前記画像上で実測された縦方向位置との差分を、前記補正に用いる、請求項2に記載の車両用画像認識装置。   The measuring means is a difference between a vertical position corresponding to the distance to the road marking measured by the other method on the image and a vertical position actually measured on the image of the road marking, The vehicular image recognition apparatus according to claim 2, which is used for the correction. 前記測距対象の前記画像上で実測された縦方向位置を表す縦座標をYp,前記差分をΔY,前記画像の消失点の縦座標をYv,前記撮像手段の上下方向の角度分解能をQ,前記撮像手段の取り付けた高さをHc,前記測距対象までの距離をDpとすると、
前記計測手段は、
Dp=Hc/(tan(Yp+ΔY−Yv)×Q)
に基づいて、前記測距対象までの距離を算出する、請求項3に記載の車両用画像認識装置。
Yp is the ordinate representing the longitudinal position actually measured on the image to be measured, Yp is the difference, Yv is the ordinate of the vanishing point of the image, and Q is the angular resolution in the vertical direction of the imaging means. If the height to which the imaging means is attached is Hc and the distance to the distance measuring object is Dp,
The measuring means includes
Dp = Hc / (tan (Yp + ΔY−Yv) × Q)
The vehicular image recognition apparatus according to claim 3, wherein a distance to the distance measurement target is calculated based on the information.
前記別の方法は、前記道路標示の所定部位の大きさの規格値と前記所定部位の前記画像上の大きさの検出値とを用いて、前記道路標示までの距離を算出するものである、請求項1から4のいずれか一項に記載の車両用画像認識装置。   The another method is to calculate a distance to the road marking using a standard value of the size of the predetermined portion of the road marking and a detected value of the size of the predetermined portion on the image. The image recognition apparatus for vehicles as described in any one of Claim 1 to 4. 前記別の方法は、前記道路標示の所定部位の前記画像上の横幅の検出値を用いて、前記道路標示までの距離を算出するものである、請求項1から5のいずれか一項に記載の車両用画像認識装置。   The said another method calculates the distance to the said road marking using the detected value of the horizontal width on the said image of the predetermined site | part of the said road marking. Vehicle image recognition apparatus. 前記道路標示は、横断歩道又は菱形マークである、請求項1から6のいずれか一項に記載の車両用画像認識装置。   The vehicle image recognition apparatus according to any one of claims 1 to 6, wherein the road marking is a pedestrian crossing or a rhombus mark.
JP2011021009A 2011-02-02 2011-02-02 Vehicle image recognition device Withdrawn JP2012159470A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011021009A JP2012159470A (en) 2011-02-02 2011-02-02 Vehicle image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011021009A JP2012159470A (en) 2011-02-02 2011-02-02 Vehicle image recognition device

Publications (1)

Publication Number Publication Date
JP2012159470A true JP2012159470A (en) 2012-08-23

Family

ID=46840117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011021009A Withdrawn JP2012159470A (en) 2011-02-02 2011-02-02 Vehicle image recognition device

Country Status (1)

Country Link
JP (1) JP2012159470A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014062877A (en) * 2012-09-24 2014-04-10 Honda Motor Co Ltd Object recognition device
JP2017088395A (en) * 2015-11-17 2017-05-25 株式会社ダイフク Article conveyance facility
JP6209648B1 (en) * 2016-06-03 2017-10-04 Kyb株式会社 Stereo camera installation parameter calibration method
JP2020177381A (en) * 2019-04-17 2020-10-29 アルパイン株式会社 Depth calculation system
CN111990930A (en) * 2020-08-28 2020-11-27 北京石头世纪科技股份有限公司 Distance measuring method, device, robot and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014062877A (en) * 2012-09-24 2014-04-10 Honda Motor Co Ltd Object recognition device
JP2017088395A (en) * 2015-11-17 2017-05-25 株式会社ダイフク Article conveyance facility
CN106865085A (en) * 2015-11-17 2017-06-20 株式会社大福 Article carrying apparatus
JP6209648B1 (en) * 2016-06-03 2017-10-04 Kyb株式会社 Stereo camera installation parameter calibration method
WO2017209015A1 (en) * 2016-06-03 2017-12-07 Kyb株式会社 Method of calibrating stereo camera installation parameter
JP2017219356A (en) * 2016-06-03 2017-12-14 Kyb株式会社 Stereo camera installation parameter calibration method
JP2020177381A (en) * 2019-04-17 2020-10-29 アルパイン株式会社 Depth calculation system
JP7290454B2 (en) 2019-04-17 2023-06-13 アルパイン株式会社 Depth calculation system
CN111990930A (en) * 2020-08-28 2020-11-27 北京石头世纪科技股份有限公司 Distance measuring method, device, robot and storage medium

Similar Documents

Publication Publication Date Title
JP2012159469A (en) Vehicle image recognition device
US9959595B2 (en) Dense structure from motion
JP4801821B2 (en) Road shape estimation device
JP5962771B2 (en) Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
WO2018225446A1 (en) Map points-of-change detection device
JP3986360B2 (en) Camera calibration device
JP5075672B2 (en) Object detection apparatus and method
WO2011027564A1 (en) Parallax calculation method and parallax calculation device
JP5548212B2 (en) Crosswalk sign detection method and crosswalk sign detection device
JP5310027B2 (en) Lane recognition device and lane recognition method
JP2012159470A (en) Vehicle image recognition device
JP2013186663A (en) Crosswalk recognition device and crosswalk recognition method
JP2010040031A (en) Method and device for recognizing road direction
US20200193184A1 (en) Image processing device and image processing method
JP6044084B2 (en) Moving object position and orientation estimation apparatus and method
JP5091897B2 (en) Stop line detector
JP5832850B2 (en) Lane monitoring system and lane monitoring method
JP6477340B2 (en) Road boundary detection device, self-position estimation device, and road boundary detection method
JP4969628B2 (en) Traveling line detector
WO2014054124A1 (en) Road surface markings detection device and road surface markings detection method
JP5760523B2 (en) Runway estimation apparatus and program
JP2012248004A (en) Image processing system, image recognition device and method
JP5891802B2 (en) Vehicle position calculation device
JP6287683B2 (en) Road curvature detection device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513