JP5904925B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5904925B2
JP5904925B2 JP2012235586A JP2012235586A JP5904925B2 JP 5904925 B2 JP5904925 B2 JP 5904925B2 JP 2012235586 A JP2012235586 A JP 2012235586A JP 2012235586 A JP2012235586 A JP 2012235586A JP 5904925 B2 JP5904925 B2 JP 5904925B2
Authority
JP
Japan
Prior art keywords
vehicle
image
image portion
boundary
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012235586A
Other languages
Japanese (ja)
Other versions
JP2014085920A (en
Inventor
幸大 松田
幸大 松田
誠 相村
誠 相村
服部 弘
弘 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012235586A priority Critical patent/JP5904925B2/en
Publication of JP2014085920A publication Critical patent/JP2014085920A/en
Application granted granted Critical
Publication of JP5904925B2 publication Critical patent/JP5904925B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車両に取り付けられたカメラの撮像画像により、車両周辺を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors the periphery of a vehicle based on a captured image of a camera attached to the vehicle.

従来より、車両に取り付けられたカメラによる撮像画像から対象物(歩行者等の監視対象物)の画像部分を抽出して、実空間における対象物の位置を算出するようにした車両周辺監視装置が提案されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a vehicle periphery monitoring device that extracts an image portion of an object (monitoring object such as a pedestrian) from an image captured by a camera attached to the vehicle and calculates the position of the object in real space. It has been proposed (see, for example, Patent Document 1).

特許文献1に記載された車両周辺監視装置においては、1台のカメラによる撮像画像から抽出された対象物の画像部分の大きさを、対象物の種別を想定して設定された実空間上での対象物と車両間の距離と画像上での対象物の画像部分の大きさとの相関関係に適用することによって、対象物と車両間の距離を算出している。   In the vehicle periphery monitoring device described in Patent Document 1, the size of the image portion of the target object extracted from the image captured by one camera is set on a real space set by assuming the type of the target object. The distance between the object and the vehicle is calculated by applying to the correlation between the distance between the object and the vehicle and the size of the image portion of the object on the image.

国際公開第2012/029382号International Publication No. 2012/029372

上述した特許文献1に記載された車両周辺監視装置においては、対象物の画像部分が実際の対象物の大きさ(実空間における対象物の大きさ)に対応したものとなっていることが、車両と対象物との距離を精度良く算出するための前提となる。しかしながら、カメラの撮像状況によっては、例えば対象物の脚部の画像部分が撮像画像から抽出されずに、対象物の画像部分の下端が本来の位置(脚部の画像部分が抽出されたときの位置)からずれてしまう場合がある。   In the vehicle periphery monitoring device described in Patent Document 1 described above, the image portion of the target object corresponds to the actual size of the target object (the size of the target object in real space). This is a precondition for accurately calculating the distance between the vehicle and the object. However, depending on the imaging state of the camera, for example, the image portion of the leg portion of the object is not extracted from the captured image, and the lower end of the image portion of the object is the original position (when the image portion of the leg portion is extracted). Position).

そして、この場合には、対象物の画像部分の大きさ(高さ)が本来の大きさ(実際の対象物の大きさに対応した大きき)と異なるものとなるため、対象物の画像部分の大きさに基づいて、対象物と車両間の距離を精度良く算出することができない。   In this case, since the size (height) of the image portion of the object is different from the original size (a size corresponding to the size of the actual object), the image portion of the object The distance between the object and the vehicle cannot be accurately calculated based on the size of the vehicle.

本発明はかかる背景に鑑みてなされたものであり、撮像画像から対象物の下端部の画像部分が抽出できない撮像状況下においても、実空間における対象物の接地位置に対応する撮像画像上の位置を推定することができる車両周辺監視装置を提供することを目的とする。   The present invention has been made in view of such a background, and the position on the captured image corresponding to the ground contact position of the target object in the real space even in an imaging state in which the image portion at the lower end of the target object cannot be extracted from the captured image. It is an object of the present invention to provide a vehicle periphery monitoring device that can estimate the vehicle speed.

本発明は上記目的を達成するためになされたものであり、本発明の車両周辺監視装置は、
車両に搭載されたカメラによる撮像画像を取得する撮像画像取得部と、
前記撮像画像から対象物の画像部分を抽出する対象物抽出部と、
前記撮像画像から車道と路側帯又は歩道との境界の画像部分を抽出する道路境界抽出部と、
前記対象物の画像部分が前記境界の画像部分の上側に位置する場合に、前記対象物の画像部分から垂直下方向に引いた直線と前記境界の画像部分との交点に基づいて、実空間における前記対象物の接地位置に対応する前記撮像画像上での位置を推定する下端位置推定部とを備えたことを特徴とする(第1発明)。
The present invention has been made to achieve the above object, and the vehicle periphery monitoring device of the present invention comprises:
A captured image acquisition unit for acquiring an image captured by a camera mounted on the vehicle;
An object extraction unit for extracting an image portion of the object from the captured image;
A road boundary extraction unit that extracts an image part of a boundary between a roadway and a roadside belt or a sidewalk from the captured image;
When the image portion of the object is located above the boundary image portion, based on the intersection of the straight line drawn vertically downward from the image portion of the object and the boundary image portion, in real space And a lower end position estimation unit that estimates a position on the captured image corresponding to the ground contact position of the object (first invention).

第1発明によれば、前記対象部抽出部により抽出される対象物の画像部分において、下端部の画像部分(例えば、対象物が歩行者である場合の脚部の画像部分)が抽出されなかった場合であっても、前記下端位置推定部により、対象物の画像部分から垂直下方向に引いた直線と、車道と路側帯又は歩道との境界の画像部分との交点に基づいて、実空間における対象物の接地位置に対応する前記撮像画像上での位置を推定することができる。   According to the first invention, in the image portion of the target object extracted by the target portion extraction section, the lower end image portion (for example, the leg image portion when the target object is a pedestrian) is not extracted. Even in such a case, based on the intersection of the straight line drawn vertically downward from the image portion of the object and the image portion at the boundary between the roadway and the roadside belt or sidewalk by the lower end position estimation unit, the real space The position on the captured image corresponding to the ground contact position of the target object can be estimated.

また、第1発明において、
前記道路境界抽出部は、前記対象物の画像部分が歩行者の画像部分であるときに、前記対象物の画像部分の水平方向の中心位置から垂直下方向に前記直線を引くことを特徴とする(第2発明)。
In the first invention,
The road boundary extraction unit draws the straight line vertically downward from a horizontal center position of the image portion of the object when the image portion of the object is a pedestrian image portion. (Second invention).

第2発明によれば、対象物の画像部分が歩行者の画像部分であるときに、対象物の画像部分の水平方向の中心位置から垂直下方向に前記直線を引くことによって、実空間における対象物の接地位置に対応する前記撮像画像上での位置の推定精度を高めることができる。 According to the second invention, when the image portion of the object is a pedestrian image portion, the object in the real space is drawn by drawing the straight line vertically downward from the horizontal center position of the image portion of the object. The estimation accuracy of the position on the captured image corresponding to the contact position of the object can be increased.

また、第1発明又は第2発明において、
前記道路境界抽出部は、斜線抽出用のエッジフィルタを用いて、前記境界の画像部分を抽出することを特徴とする(第3発明)。
In the first invention or the second invention,
The road boundary extracting unit extracts an image portion of the boundary using an edge filter for oblique line extraction (third invention).

第3発明によれば、エッジフィルタを用いることにより、前記撮像画像において斜線となると想定される前記境界の画像部分を容易に抽出することができる。   According to the third aspect, by using the edge filter, it is possible to easily extract the image portion of the boundary that is assumed to be a diagonal line in the captured image.

また、第3発明において、
前記道路境界抽出部は、前記エッジフィルタを用いて抽出したエッジ線のうち、長さが第1所定値以上であり、且つ、傾き又は曲率が第2所定値に最も近いエッジ線を、前記境界の画像部分として抽出することを特徴とする(第4発明)。
In the third invention,
The road boundary extraction unit selects an edge line whose length is equal to or greater than a first predetermined value and whose slope or curvature is closest to a second predetermined value from among the edge lines extracted using the edge filter. (4th invention).

第4発明によれば、前記エッジフィルタを用いて抽出したエッジ線のうち、前記境界の画像部分である可能性が高いエッジ線を選択することができる。   According to the fourth invention, it is possible to select an edge line that is highly likely to be the image portion of the boundary from among the edge lines extracted using the edge filter.

また、第4発明において、
前記車両が走行している道路の形状を認識する道路形状認識部と、
前記車両の挙動を検出する車両挙動検出部とを備え、
前記道路境界抽出部は、前記第2所定値を、前記車両が走行している道路の形状と前記車両の挙動とのうちの一方又は両方に基づいて決定することを特徴とする(第5発明)。
In the fourth invention,
A road shape recognition unit for recognizing the shape of the road on which the vehicle is traveling;
A vehicle behavior detection unit for detecting the behavior of the vehicle,
The road boundary extraction unit determines the second predetermined value based on one or both of a shape of a road on which the vehicle is traveling and a behavior of the vehicle (fifth invention). ).

第5発明によれば、前記撮像画像における道路、路側帯、及び歩道の画像部分の形状は、前記車両が走行している道路の形状及び前記車両の挙動に応じて変化する。そこで、前記道路境界抽出部により、前記第2所定値を、前記車両が走行している道路の形状と前記車両の挙動とのうちの一方又は両方に基づいて決定することにより、前記境界の画像部分の抽出精度を高めることができる。   According to the fifth aspect, the shape of the image portion of the road, the roadside belt, and the sidewalk in the captured image changes according to the shape of the road on which the vehicle is traveling and the behavior of the vehicle. Therefore, the road boundary extraction unit determines the second predetermined value based on one or both of the shape of the road on which the vehicle is traveling and the behavior of the vehicle, thereby obtaining an image of the boundary. The extraction accuracy of the part can be increased.

また、第1発明から第5発明のうちのいずれかにおいて、
前記道路境界抽出部は、前記道路境界抽出部は、前記撮像画像において前記境界の画像部分が位置すると想定される領域として予め設定された境界探索領域から、前記境界の画像部分を抽出することを特徴とする(第6発明)。
In any one of the first to fifth inventions,
The road boundary extraction unit is configured to extract the image portion of the boundary from a boundary search region set in advance as a region where the image portion of the boundary is assumed to be located in the captured image. Characteristic (sixth invention).

第6発明によれば、前記境界の画像部分を抽出する際の探索範囲を前記境界探索領域に絞り込むことにより、前記境界の画像部分の抽出に要する演算量を減少させることができる。   According to the sixth aspect of the present invention, it is possible to reduce the amount of calculation required for extracting the boundary image portion by narrowing down the search range when extracting the boundary image portion to the boundary search region.

また、第1発明から第6発明のうちのいずれかにおいて、
前記下端位置推定部は、前記撮像画像における道路の消失点の位置が、直線の平坦路を想定して設定された基準位置から所定距離以上ずれているときに、前記対象物の画像部分から垂直下方向に引いた直線と前記境界の画像部分との交点の位置を、該ずれの方向に応じて補正した位置を、実空間における前記対象物の接地位置に対応する前記撮像画像上での位置として推定することを特徴とする(第7発明)。
In any one of the first to sixth inventions,
The lower end position estimation unit is configured to be perpendicular to the image portion of the object when the position of the vanishing point of the road in the captured image is deviated by a predetermined distance or more from a reference position set assuming a straight flat road. The position on the captured image corresponding to the ground contact position of the object in real space, the position obtained by correcting the position of the intersection of the straight line drawn downward and the image portion of the boundary according to the direction of the shift (7th invention).

第7発明において、前記撮像画像における道路の消失点の位置は、前記車両が走行している道路の形状(登坂路、曲線路等)に応じて、直線の平坦路を想定して設定された前記基準位置からずれる。そして、消失点がずれる方向は、道路の形状に対応したものとなる。また、前記対象物の画像部分から垂直下方向の引いた直線と前記境界の画像部分との交点が、前記対象物の実空間における接地位置に対応する前記撮像画像上の実際の位置からずれる方向は、道路の形状に対応したものとなる。   In the seventh invention, the position of the vanishing point of the road in the captured image is set assuming a straight flat road according to the shape of the road (the uphill road, the curved road, etc.) on which the vehicle is traveling. Deviation from the reference position. The direction in which the vanishing point is shifted corresponds to the shape of the road. Further, a direction where an intersection of a straight line drawn vertically downward from the image portion of the object and the image portion of the boundary deviates from an actual position on the captured image corresponding to a ground contact position in the real space of the object Corresponds to the shape of the road.

そのため、前記下端位置推定部により、前記対象物の画像部分から垂直下方向に引いた直線と前記境界の画像部分との交点の位置を、消失点のずれの方向に応じて補正することによって、前記対象物の実空間における接地位置に対応する前記撮像画像上の位置の推定精度を高めることができる。   Therefore, by correcting the position of the intersection of the straight line drawn vertically downward from the image part of the object and the image part of the boundary according to the direction of the vanishing point shift by the lower end position estimation unit, The estimation accuracy of the position on the captured image corresponding to the ground contact position in the real space of the object can be increased.

車両周辺監視装置の車両への取り付け態様の説明図。Explanatory drawing of the attachment aspect to the vehicle of a vehicle periphery monitoring apparatus. 車両周辺監視装置の構成図。The block diagram of a vehicle periphery monitoring apparatus. 車両周辺監視装置の作動フローチャート。The operation | movement flowchart of a vehicle periphery monitoring apparatus. 歩行者判定の説明図。Explanatory drawing of pedestrian determination. 道路を横断する歩行者の動きの説明図。Explanatory drawing of the movement of the pedestrian crossing a road. 歩行者の画像部分の高さと距離との相関関係の説明図。Explanatory drawing of the correlation with the height and distance of the image part of a pedestrian. 酷暑環境下での撮像画像の説明図。Explanatory drawing of the captured image under intense heat environment. 対象物の画像部分の高さを算出する処理のフローチャート。The flowchart of the process which calculates the height of the image part of a target object. 路側エッジの抽出処理の説明図。Explanatory drawing of the extraction process of a roadside edge. 車両が直線の平坦路を走行しているときの撮像画像の説明図。Explanatory drawing of the captured image when the vehicle is drive | working the straight flat road. 車両が右折するとき、及び下り坂を走行しているときの撮像画像の説明図。Explanatory drawing of the captured image when the vehicle turns right and is traveling downhill. 時系列画像中の対象物の画像部分の大きさの変化の説明図。Explanatory drawing of the change of the magnitude | size of the image part of the target object in a time-sequential image. 実空間における対象物の移動ベクトルの推定処理の説明図。Explanatory drawing of the estimation process of the movement vector of the target object in real space. パターンマッチングによる物体の画像部分の変化率の算出処理の説明図。Explanatory drawing of the calculation process of the change rate of the image part of the object by pattern matching.

本発明の実施形態について、図1〜図14を参照して説明する。図1を参照して、本実施形態の車両周辺監視装置10は車両1に搭載して使用され、車両1には、遠赤外線を検出可能な赤外線カメラ2(本発明のカメラに相当する)が備えられている。赤外線カメラ2は、遠赤外域に感度を有し、撮像される物体の温度が高いほど出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。   Embodiments of the present invention will be described with reference to FIGS. Referring to FIG. 1, a vehicle periphery monitoring device 10 of this embodiment is used by being mounted on a vehicle 1, and the vehicle 1 includes an infrared camera 2 (corresponding to the camera of the present invention) capable of detecting far infrared rays. Is provided. The infrared camera 2 has sensitivity in the far-infrared region, and has a characteristic that the level of the output video signal increases (the brightness of the video signal increases) as the temperature of the object to be imaged increases.

赤外線カメラ2は、車両1の前方を撮像するために車両1の前部に取り付けられており、車両1の前部を原点Oとして、車両1の左右方向をX軸、上下方向をY軸、前後方向をZ軸とした実空間座標系が定義されている。なお、赤外線カメラ2に代えて、可視光等の他の波長域に感度を有するカメラを用いてもよい。   The infrared camera 2 is attached to the front portion of the vehicle 1 in order to image the front of the vehicle 1. The front portion of the vehicle 1 is the origin O, the left-right direction of the vehicle 1 is the X axis, the vertical direction is the Y axis, A real space coordinate system in which the front-rear direction is the Z axis is defined. Instead of the infrared camera 2, a camera having sensitivity in other wavelength regions such as visible light may be used.

次に、図2を参照して、車両周辺監視装置10には、車両1のヨーレートを検出するヨーレートセンサ3(本発明の車両挙動検出部に相当する)、車両1の走行速度を検出する車速センサ4、運転者によるブレーキの操作量を検出するブレーキセンサ5、音声による注意喚起等を行うためのスピーカ6、赤外線カメラ2により撮像された画像を表示すると共に、車両1と接触する可能性が高い物体を運転者に視認させる表示を行うためのヘッドアップディスプレイ(Head Up Display)7(以下、HUD7という)、及び、地図データを有してGPS(Global Positioning System)により検知した車両1の位置と地図データとを参照して、目的地への走行経路情報を提供するナビゲーション装置8(本発明の道路形状認識部の機能を含む)が接続されている。HUD7は、図1に示したように、車両1のフロントウインドウの運転者側の前方位置に画面7aが表示されるように設けられている。   Next, referring to FIG. 2, the vehicle periphery monitoring device 10 includes a yaw rate sensor 3 (corresponding to a vehicle behavior detection unit of the present invention) that detects the yaw rate of the vehicle 1, and a vehicle speed that detects the traveling speed of the vehicle 1. There is a possibility that the sensor 4, the brake sensor 5 that detects the amount of brake operation by the driver, the speaker 6 for alerting by voice, the image captured by the infrared camera 2, and the vehicle 1 may be contacted. Head up display 7 (hereinafter referred to as HUD 7) for displaying a high object to the driver and the position of the vehicle 1 having map data and detected by GPS (Global Positioning System) The navigation device 8 (including the function of the road shape recognition unit of the present invention) that provides travel route information to the destination is connected with reference to the map data. . As shown in FIG. 1, the HUD 7 is provided so that the screen 7 a is displayed at a front position on the driver side of the front window of the vehicle 1.

車両周辺監視装置10は、CPU,メモリ(図示しない)等により構成された電子ユニットであり、撮像画像取得部11によって、赤外線カメラ2から出力される映像信号をデジタルデータに変換して画像メモリ(図示しない)に取り込み、画像メモリに取り込んだ車両1の前方の撮像画像に対して、CPUにより各種の演算処理を行う機能を有している。   The vehicle periphery monitoring device 10 is an electronic unit configured by a CPU, a memory (not shown), and the like. The captured image acquisition unit 11 converts a video signal output from the infrared camera 2 into digital data and converts it into an image memory ( The CPU has a function of performing various arithmetic processes on the captured image in front of the vehicle 1 captured in the image memory and captured in the image memory.

そして、CPUに車両周辺監視装置10の制御用プログラムを実行させることによって、CPUが、赤外線カメラ2により撮像された画像から所定条件を有する画像部分を抽出する対象物抽出部12、抽出された画像部分に対応する実空間上の物体の種別を判定する物体種別判定部13、車道と歩道又は路側帯との境界の画像部分を抽出する道路境界抽出部14、実空間上の対象物の下端位置に対応する撮像画像上の位置を推定する下端位置推定部15、物体と車両1との距離を算出する距離算出部16、物体の実空間位置を算出する実空間位置算出部17、実空間における物体の移動ベクトルを算出する移動ベクトル算出部18、及び、移動ベクトルに基づいて物体を警報の対象とするか否かを判断する警報判断部19として機能する。   Then, by causing the CPU to execute a control program for the vehicle periphery monitoring device 10, the CPU extracts the object extraction unit 12 that extracts an image portion having a predetermined condition from the image captured by the infrared camera 2, and the extracted image An object type determination unit 13 that determines the type of an object in the real space corresponding to the part, a road boundary extraction unit 14 that extracts an image part of the boundary between the roadway and the sidewalk or the roadside belt, and a lower end position of the object in the real space The lower end position estimation unit 15 that estimates the position on the captured image corresponding to the distance, the distance calculation unit 16 that calculates the distance between the object and the vehicle 1, the real space position calculation unit 17 that calculates the real space position of the object, It functions as a movement vector calculation unit 18 that calculates the movement vector of the object, and an alarm determination unit 19 that determines whether or not the object is to be alarmed based on the movement vector.

次に、図3に示したフローチャートに従って、車両周辺監視装置10による一連の車両周辺監視処理について説明する。車両周辺監視装置10は、所定の制御周期毎に図3に示したフローチャートによる処理を実行して、車両1の周辺を監視する。   Next, a series of vehicle periphery monitoring processing by the vehicle periphery monitoring device 10 will be described according to the flowchart shown in FIG. The vehicle periphery monitoring device 10 monitors the periphery of the vehicle 1 by executing the process according to the flowchart shown in FIG.

[画像取込処理]
STEP1は撮像画像取得部11による処理である。撮像画像取得部11は、赤外線カメラ2から出力される映像信号を入力し、この映像信号をデジタルの諧調(輝度)データに変換したグレースケール画像を画像メモリに取り込む。
[Image capture processing]
STEP 1 is a process performed by the captured image acquisition unit 11. The captured image acquisition unit 11 inputs a video signal output from the infrared camera 2 and takes in a grayscale image obtained by converting the video signal into digital gradation (luminance) data into an image memory.

[対象物抽出処理]
続くSTEP2は対象物抽出部12による処理である。対象物抽出部12は、グレースケール画像の各画素について、輝度が所定の閾値以上である画素を「1」(白)とし、輝度が閾値よりも小さい画素を「0」(黒)とする2値化処理を行って2値画像を取得する。そして、対象物抽出部12は、2値画像中の白の各領域のランレングスデータを算出し、ラベリング処理等を行って物体の画像部分を抽出する。
[Object extraction process]
The subsequent STEP 2 is processing by the object extraction unit 12. The object extraction unit 12 sets, for each pixel of the grayscale image, a pixel whose luminance is equal to or higher than a predetermined threshold value as “1” (white) and a pixel whose luminance is smaller than the threshold value as “0” (black) 2 A binarization process is performed to obtain a binary image. Then, the target object extraction unit 12 calculates run length data of each white region in the binary image, and performs a labeling process or the like to extract an image portion of the object.

[物体種別判定処理]
次のSTEP3は物体種別判定部13による処理である。物体種別判定部13は、STEP2で抽出された物体(以下、対象物という)の画像部分の特徴量に基づいて、対象物が道路を横断している歩行者(以下、横断歩行者という)であるか否かを判断する。
[Object type determination processing]
The next STEP 3 is processing by the object type determination unit 13. The object type determination unit 13 is a pedestrian whose object crosses the road (hereinafter referred to as a crossing pedestrian) based on the feature amount of the image portion of the object (hereinafter referred to as the object) extracted in STEP2. Judge whether there is.

ここで、図4は横断歩行者の画像を例示したものであり、物体種別判定部13は、横断歩行者の頭部と推定される画像部分Tkの上側の領域M(1),M(2)と下方の領域M(3)〜M(8)を探索して、各領域の特徴を認識する。   Here, FIG. 4 exemplifies an image of a crossing pedestrian, and the object type determination unit 13 includes regions M (1) and M (2) above the image portion Tk estimated to be the head of the crossing pedestrian. ) And lower regions M (3) to M (8) are searched to recognize the features of each region.

そして、物体種別判定部13は、画像部分Tkの上側の領域M(1),M(2)に特徴がある部分がなく、下方の領域M(3)〜M(8)に、横断歩行者に特有の特徴である下端部のハの字形状(上方で交差する2本の斜めエッジ)が認識されたときに、対象物の種別は横断歩行者であると判定する。   Then, the object type determination unit 13 does not have a feature in the upper regions M (1) and M (2) of the image portion Tk, and crosses pedestrians in the lower regions M (3) to M (8). When the square shape at the lower end (two oblique edges intersecting above) is recognized, the type of the object is determined to be a crossing pedestrian.

また、物体種別判定部13は、頭部と推定される画像部分Tkから下端部のM(7)までを含む対象物領域Rkを設定する。なお、横断歩行者の判定は、画像の複雑度や輝度分散の変化、周期性等によってもよい。   In addition, the object type determination unit 13 sets a target object region Rk that includes the image portion Tk that is estimated as the head to M (7) at the lower end. Note that the determination of a crossing pedestrian may be based on the complexity of the image, changes in luminance dispersion, periodicity, or the like.

[距離算出処理]
続くSTEP4〜STEP5は距離算出部16による処理であり、STEP20は道路境界抽出部14、下端位置推定部15、及び距離算出部16による処理である。距離算出部16は、STEP4で対象物の種別が横断歩行者であると判定されたか否かを判断し、横断歩行者であると判定されたとき(この場合は、対象物及びその画像部分の形状変化が大きく、形状変化の度合が所定レベルを超えると想定される)はSTEP20に分岐して第1距離算出処理を実行する。
[Distance calculation processing]
The following STEP 4 to STEP 5 are processes by the distance calculation unit 16, and STEP 20 is a process by the road boundary extraction unit 14, the lower end position estimation unit 15, and the distance calculation unit 16. The distance calculation unit 16 determines whether or not it is determined in STEP 4 that the type of the object is a crossing pedestrian, and when it is determined that the object is a crossing pedestrian (in this case, the object and its image portion). (It is assumed that the shape change is large and the degree of shape change exceeds a predetermined level), the process branches to STEP 20, and the first distance calculation process is executed.

一方、対象物の種別が横断歩行者ではないと判定されたとき(この場合は、対象物及びその画像部分の形状変化が小さく、形状変化の度合が前記所定レベル以下になると想定される)には、STEP5に進み、距離算出部16は、第2距離算出処理を実行する。   On the other hand, when it is determined that the type of the object is not a crossing pedestrian (in this case, it is assumed that the shape change of the object and its image portion is small and the degree of shape change is below the predetermined level). Advances to STEP5, and the distance calculation unit 16 executes a second distance calculation process.

ここで、第2距離算出処理は、後述するように、赤外線カメラ2により撮像された時系列の画像から抽出された同一対象物の画像部分の大きさの変化率に基づいて、対象物と車両1との距離を算出するものである。   Here, as will be described later, the second distance calculation process is performed based on the rate of change in the size of the image portion of the same object extracted from the time-series image captured by the infrared camera 2. 1 is calculated.

そして、図5に示したように、横断歩行者は、図5のIk1〜Ik4に示したように、両手と両足を大きく動かして車両1の前方を横切るため、赤外線カメラ2の撮像画像における横断歩行者の画像部分の形状(幅W等)は大きく変化する。そのため、赤外線カメラ2により撮像された時系列の画像間で、横断歩行者の画像部分を同一物体の画像部分として抽出することができない場合があり、また、抽出できても大きさの変化率を精度良く求めることが難しい。   Then, as shown in FIG. 5, the crossing pedestrian crosses the front of the vehicle 1 by moving both hands and both feet greatly as shown by Ik1 to Ik4 in FIG. The shape (width W etc.) of the image part of a pedestrian changes greatly. Therefore, there is a case where the image part of the crossing pedestrian cannot be extracted as the image part of the same object between the time-series images taken by the infrared camera 2, and the change rate of the size can be obtained even if it can be extracted. It is difficult to obtain with high accuracy.

そこで、距離算出部16は、対象物の種別が横断歩行者であると判定されたときには、STEP20で、単一の撮像画像での対象物の画像部分の高さに基づいて、対象物と車両1との距離を算出する第1距離算出処理を実行する。   Therefore, when it is determined that the type of the object is a crossing pedestrian, the distance calculation unit 16 determines the object and the vehicle based on the height of the image portion of the object in the single captured image in STEP 20. 1st distance calculation processing which calculates the distance with 1 is performed.

[第1距離算出処理]
図6に示したように、歩行者の高さが一定(例えば170cm)であると仮定した場合、歩行者と車両1との距離が長くなるに従って、赤外線カメラ2の撮像画像Im1における歩行者の画像部分20〜22の高さHが低くなる。そのため、距離算出部16は、実空間上の歩行者の高さを一定と仮定して、歩行者と車両1との実空間上の距離Lと、撮像画像上での歩行者の画像部分の高さHとの相関関係を設定したマップ或いは相関式に、撮像画像上での対象物の画像部分の高さを適用して、対象物と車両1との実空間上での距離を算出する。
[First distance calculation processing]
As shown in FIG. 6, when it is assumed that the height of the pedestrian is constant (for example, 170 cm), as the distance between the pedestrian and the vehicle 1 becomes longer, the pedestrian in the captured image Im1 of the infrared camera 2 becomes larger. The height H of the image parts 20-22 becomes low. Therefore, the distance calculation unit 16 assumes that the height of the pedestrian in the real space is constant, and the distance L in the real space between the pedestrian and the vehicle 1 and the image portion of the pedestrian on the captured image. The height in the real space between the object and the vehicle 1 is calculated by applying the height of the image portion of the object on the captured image to the map or correlation equation in which the correlation with the height H is set. .

ここで、図7(a)に示したように、外気温が歩行者の体温付近まで上昇した酷暑環境下においては、歩行者と道路等との間の温度差が小さくなり、赤外線カメラ2による撮像画像Im2(グレースケール画像)における歩行者の画像部分30aと道路の画像部分31及び壁の画像部分32との輝度差が小さくなる。   Here, as shown in FIG. 7 (a), the temperature difference between the pedestrian and the road becomes small under the extreme heat environment in which the outside air temperature rises to near the body temperature of the pedestrian. The brightness difference between the pedestrian image portion 30a, the road image portion 31 and the wall image portion 32 in the captured image Im2 (grayscale image) is reduced.

そのため、撮像画像Im2を2値化したときに、図7(b)に示したように、2値画像Im3における歩行者の画像部分30bが、脚部の一部が消失(画素が「0」になる)したものとなる場合がある。この場合には、本来は図7(a)に示したように、高さがH1である歩行者の画像部分が、図7(b)に示したように高さがH2として抽出されてしまい、H2に基づいて歩行者と車両1との距離を算出したときの誤差が大きくなる。   Therefore, when the captured image Im2 is binarized, as shown in FIG. 7B, the pedestrian's image portion 30b in the binary image Im3 is partially lost (the pixel is “0”). May become). In this case, as shown in FIG. 7A, the image portion of the pedestrian whose height is H1 is extracted as the height H2 as shown in FIG. 7B. , The error when the distance between the pedestrian and the vehicle 1 is calculated based on H2 increases.

また、赤外線カメラではなく可視カメラを用いた場合であっても、歩行者の画像部分と道路の画像部分の輝度差が小さいときには、同様にして、歩行者の脚部の一部が消失する場合がある。   Also, even when a visible camera is used instead of an infrared camera, when the luminance difference between the pedestrian image part and the road image part is small, a part of the pedestrian leg part disappears in the same manner. There is.

そこで、このような距離の算出誤差が生じることを抑制するために、道路境界抽出部14と下端位置推定部15は、図8に示したフローチャートによる処理を行って、歩行者の画像部分の本来の下端位置(実空間における歩行者の脚の接地位置に対応する撮像画像上の位置)を推定する処理を行う。   Therefore, in order to suppress the occurrence of such a distance calculation error, the road boundary extraction unit 14 and the lower end position estimation unit 15 perform processing according to the flowchart shown in FIG. The lower end position (the position on the captured image corresponding to the ground contact position of the pedestrian's leg in real space) is estimated.

図8のSTEP50〜STEP53は、道路境界抽出部14による処理である。道路境界抽出部14は、STEP50で、図9(a)に示したように赤外線カメラ2による撮像画像Im4(グレースケール画像又は2値画像)において、車道と路側帯又は歩道との境界40,41が位置すると想定される領域43,44を、境界探索領域として設定する。   Steps 50 to 53 in FIG. 8 are processes by the road boundary extraction unit 14. In STEP 50, the road boundary extraction unit 14 in the captured image Im4 (grayscale image or binary image) by the infrared camera 2 as shown in FIG. 9A, boundaries 40, 41 between the roadway and the roadside belt or sidewalk. Regions 43 and 44 that are assumed to be located are set as boundary search regions.

続くSTEP51で、道路境界抽出部14は、左側の境界探索領域43については右上がりの斜線を抽出する斜線検出用のエッジフィルタを適用して、境界40のエッジ線(以下、左路側エッジという)を抽出する。また、道路境界抽出部14は、右側の境界探索領域44については右下がりの斜線を抽出する斜線検出用のエッジフィルタを適用して、境界41のエッジ線(以下、右路側エッジという)を抽出する。   In subsequent STEP 51, the road boundary extraction unit 14 applies an edge filter for detecting a diagonal line for extracting a diagonal line rising to the right for the boundary search region 43 on the left side, and thereby the edge line of the boundary 40 (hereinafter referred to as a left road side edge). To extract. Further, the road boundary extraction unit 14 applies an edge filter for oblique line detection that extracts a downward slanting oblique line to the right boundary search area 44 to extract an edge line of the boundary 41 (hereinafter referred to as a right road side edge). To do.

次のSTEP52で、道路境界抽出部14は、車両1が走行している道路の形状を、ナビゲーション装置8からの情報(車両1の位置情報と地図情報)により認識し、道路の形状に応じて、左路側エッジ及び右路側エッジの傾きの判定基準値(道路の形状から想定される左路側エッジ及び右路側エッジの傾きの基準値)を設定する。   In the next STEP 52, the road boundary extraction unit 14 recognizes the shape of the road on which the vehicle 1 is traveling from the information (position information and map information of the vehicle 1) from the navigation device 8, and according to the shape of the road. The determination reference value of the slope of the left road side edge and the right road side edge (the reference value of the slope of the left road side edge and the right road side edge assumed from the shape of the road) is set.

例えば、図9(a)は、車両1が直線の平坦路を走行している状況であるので、道路境界抽出部14は、直線の平坦路を走行する状況で撮像したときの左路側エッジ及び右路側エッジを想定した傾きを、判定基準として設定する。また、図9(b)は、車両1が曲線路を右折している状況であるので、道路境界抽出部14は、曲線路を右折する状況で撮像したときの左路側エッジ及び右路側エッジを想定した傾きを、判定基準値として設定する。なお、曲線路に対しては、傾きに代えて曲率を判定基準値としてもよい。   For example, since FIG. 9A shows a situation where the vehicle 1 is traveling on a straight flat road, the road boundary extraction unit 14 captures the left road-side edge and the image when the vehicle 1 travels on a straight flat road. An inclination assuming a right road side edge is set as a criterion. FIG. 9B shows a situation where the vehicle 1 is turning right on a curved road, so the road boundary extraction unit 14 shows the left road edge and the right road edge when imaged in a situation where the curved road is turned right. The assumed inclination is set as the determination reference value. For curved roads, the curvature may be used as a criterion value instead of the slope.

なお、ナビゲーション装置8により認識される道路の形状ではなく、ヨーレートセンサ3等により検出される車両1の挙動に応じて、撮像画像における道路の画像部分の形状を推定することによって判定基準値を設定してもよい。或いは、ナビゲーション装置8により認識される道路の形状と、ヨーレートセンサ3等により検出される車両1の挙動の両方に基づいて、判定基準値を設定するようにしてもよい。   Note that the determination reference value is set by estimating the shape of the image portion of the road in the captured image according to the behavior of the vehicle 1 detected by the yaw rate sensor 3 or the like instead of the shape of the road recognized by the navigation device 8. May be. Alternatively, the determination reference value may be set based on both the shape of the road recognized by the navigation device 8 and the behavior of the vehicle 1 detected by the yaw rate sensor 3 or the like.

次のSTEP53で、道路境界抽出部14は、抽出した左路側エッジと右路側エッジのうち、長さが所定値以上であり、且つ、傾きが判定基準値に最も近いものを、使用する左路側エッジと右路側エッジとして選別する。   In the next STEP 53, the road boundary extracting unit 14 uses the extracted left road side edge and right road side edge whose length is equal to or greater than a predetermined value and whose slope is closest to the determination reference value. Sort as edge and right road edge.

続くSTEP54は、下端位置推定部15による処理である。下端位置推定部15は、図10に示したように、2値画像Im6において、対象物抽出部12により抽出された歩行者の画像部分63が、道路境界抽出部14により抽出された左路側エッジ61の上側に位置しているときに、歩行者の画像部分63の水平方向(x座標方向)の中心位置64から、垂直下方向(y座標の下方向)に引いた直線65と左路側エッジ61との交点66を求める。   The subsequent STEP 54 is processing by the lower end position estimation unit 15. As shown in FIG. 10, the lower-end position estimation unit 15 is configured such that the pedestrian image portion 63 extracted by the object extraction unit 12 in the binary image Im6 is extracted by the road boundary extraction unit 14. A straight line 65 and a left road-side edge drawn vertically downward (downward in the y-coordinate) from the center position 64 in the horizontal direction (x-coordinate direction) of the image portion 63 of the pedestrian when positioned above the 61. An intersection 66 with 61 is obtained.

なお、左路側エッジとその上側の歩行者の画像部分について交点を求めるときは、歩行者の画像部分の水平方向の右端から垂直下方向に直線を引くようにしてもよい。また、右路側エッジとその上側の歩行者の画像部分について交点を求めるときには、歩行者の画像部分の水平方向の左端から垂直下方向に直線を引くようにしてもよい。   In addition, when calculating | requiring an intersection about the left road side edge and the image part of the pedestrian of the upper side, you may make it draw a straight line from the right end of the horizontal direction of a pedestrian's image part to a perpendicular downward direction. Further, when obtaining the intersection point for the right road side edge and the image portion of the pedestrian above it, a straight line may be drawn vertically downward from the horizontal left end of the image portion of the pedestrian.

そして、下端位置推定部15は、交点66を歩行者の画像部分63の本来の下端位置(実空間における歩行者の接地位置に対応する撮像画像上の位置、以下、下端推定位置という)として推定する。なお、図10において、62は右路側エッジであり、60は道路の消失点である。   Then, the lower end position estimation unit 15 estimates the intersection point 66 as the original lower end position of the pedestrian image portion 63 (a position on the captured image corresponding to the pedestrian's ground contact position in real space, hereinafter referred to as the lower end estimated position). To do. In FIG. 10, 62 is a right road edge, and 60 is a vanishing point of the road.

このように、歩行者の画像部分63の下端推定位置を求めることにより、図7(a)及び図7(b)を参照して上述したように、歩行者の画像部分が脚の一部が消失したものとなっている場合であっても、実空間における歩行者の接地位置に対応する撮像画像上の位置を推定することができる。   Thus, by obtaining the estimated lower end position of the pedestrian image part 63, as described above with reference to FIG. 7A and FIG. Even in the case of disappearance, the position on the captured image corresponding to the ground contact position of the pedestrian in the real space can be estimated.

なお、図10は、車両1が直線の平坦路を走行している状況で、左路側エッジ61と右路側エッジ62が抽出された撮像画像であるが、図11(a)に示したように、車両1が右折している状況での撮像画像においては、歩行者の画像部分74と右路側エッジ72及び消失点73との位置関係が異なるものとなる。   Note that FIG. 10 is a captured image in which the left road side edge 61 and the right road side edge 62 are extracted in a situation where the vehicle 1 is traveling on a straight flat road, but as illustrated in FIG. In the captured image when the vehicle 1 is turning right, the positional relationship between the pedestrian image portion 74 and the right road side edge 72 and vanishing point 73 is different.

そして、図11(a)の撮像画像Im7において、歩行者の画像部分74から垂直下方向に引いた直線75と右路側エッジ72との交点76は、本来の画像部分74の下端位置からのずれが大きくなってしまう。   In the captured image Im7 in FIG. 11A, the intersection 76 between the straight line 75 and the right road side edge 72 drawn vertically downward from the pedestrian image portion 74 is shifted from the lower end position of the original image portion 74. Will become bigger.

そのため、下端位置推定部15は、撮像画像Im7において、消失点73の位置が、直線の平坦路を走行しているときの撮像画像における消失点の位置を想定して設定した基準位置70から所定距離以上ずれているときに、基準位置70に対する消失点73のずれ方向を判断し、ずれ方向が右方向であるときには、交点76を右路側エッジ72に沿って上側に移動させた点77を下端推定位置とする。そして、これにより、下端推定位置の推定精度が低下することを抑制している。   For this reason, the lower end position estimating unit 15 determines a predetermined position from the reference position 70 that is set assuming the position of the vanishing point in the captured image when the vanishing point 73 is traveling on a straight flat road in the captured image Im7. When the displacement is more than the distance, the displacement direction of the vanishing point 73 with respect to the reference position 70 is determined. When the displacement direction is the right direction, the point 77 obtained by moving the intersection 76 upward along the right road edge 72 is the lower end. Estimated position. And it suppresses that the estimation precision of a lower end estimated position falls by this.

また、図11(b)は、車両1が下り坂を走行している状況で、左路側エッジ71と右路側エッジ72が抽出された撮像画像であるが、この場合にも、歩行者の画像部分84から垂直下方向に引いた直線85と左路側エッジ81との交点86は、本来の画像部分84の下端位置からのずれが大きくなってしまう。そして、図11(b)では、消失点83が基準位置80から上側にずれている。   FIG. 11B shows a captured image in which the left road side edge 71 and the right road side edge 72 are extracted in a situation where the vehicle 1 is traveling on a downhill. An intersection 86 between the straight line 85 drawn vertically downward from the portion 84 and the left road side edge 81 is greatly displaced from the lower end position of the original image portion 84. In FIG. 11B, the vanishing point 83 is shifted upward from the reference position 80.

そのため、下端位置推定部15は、基準位置80に対して消失点83が上側にずれた撮像画像Im8において、交点86を左路側エッジ81に沿って上側に移動させた点87を、下端推定位置とする。そして、これにより、下端推定位置の推定精度が低下することを抑制している。   For this reason, the lower end position estimating unit 15 sets a point 87 obtained by moving the intersection 86 upward along the left road side edge 81 in the captured image Im8 in which the vanishing point 83 is shifted upward with respect to the reference position 80. And And it suppresses that the estimation precision of a lower end estimated position falls by this.

なお、図11(a)では、基準位置70に対して消失点73が右側にずれた場合の右路側エッジ72と歩行者の画像部分74との関係について説明したが、基準位置に対して消失点が左側にずれた場合についても、左路側エッジと歩行者の画像部分について同様の処理を行うことにより、下端推定位置の推定精度が低下することを抑制することができる。また、このような消失点のずれに基づく補正を行わない場合であっても、本発明の効果を得ることができる。   In FIG. 11A, the relationship between the right road side edge 72 and the pedestrian image portion 74 when the vanishing point 73 is shifted to the right side with respect to the reference position 70 has been described. Even when the point is shifted to the left side, it is possible to suppress the estimation accuracy of the lower end estimated position from being lowered by performing the same process on the left road side edge and the image portion of the pedestrian. Further, even if correction based on such vanishing point shift is not performed, the effect of the present invention can be obtained.

そして、距離算出部16は、STEP55で、歩行者の画像部分の上端から下端推定位置までを、歩行者の画像部分の高さとして算出し、上述したように、この高さを、歩行者と車両1との実空間上の距離Lと、撮像画像上での歩行者の画像部分の高さHとの相関関係を設定したマップ或いは相関式に適用して、対象物と車両1との実空間上での距離を算出する。   Then, in STEP 55, the distance calculation unit 16 calculates the height from the upper end to the lower end estimated position of the pedestrian image part as the height of the pedestrian image part. This is applied to a map or correlation equation in which the correlation between the distance L in the real space with the vehicle 1 and the height H of the image portion of the pedestrian on the captured image is set. Calculate the distance in space.

[第2距離算出処理]
一方、対象物の種別が横断歩行者ではないと判定されたときには、距離算出部16は、STEP5で、第2距離算出処理を実行して対象物と車両1との距離を算出する。第2距離算出処理では、図12に示したように、前回の制御周期(撮像時点t11)で撮像された画像Im9と、今回の制御周期(撮像時点t12)で撮像された画像Im10との間で、同一対象物の画像部分を追跡する処理を行う。なお、この追跡の処理については、例えば特開2007−213561号公報に詳説されているので、ここでは説明を省略する。
[Second distance calculation processing]
On the other hand, when it is determined that the type of the object is not a crossing pedestrian, the distance calculation unit 16 calculates the distance between the object and the vehicle 1 by executing a second distance calculation process in STEP 5. In the second distance calculation process, as shown in FIG. 12, the image Im9 captured in the previous control cycle (imaging time t 11 ) and the image Im10 captured in the current control cycle (imaging time t 12 ) The processing for tracking the image portion of the same object is performed. Note that the tracking process is described in detail in, for example, Japanese Patent Application Laid-Open No. 2007-213561, and thus the description thereof is omitted here.

そして、距離算出部16は、以下の式(1)により、画像Im9における画像部分91の幅w11を画像Im10における画像部分92の幅w12で除して、変化率Rateを算出する。なお、車両1と対象物間の相対速度Vsは、車速センサ4により検出される車両1の走行速度で近似される。 Then, the distance calculation unit 16, by the following equation (1), by dividing the width w 11 of the image portion 91 in the image Im9 width w 12 of the image portion 92 in the image IM10, to calculate the change rate Rate. The relative speed Vs between the vehicle 1 and the object is approximated by the traveling speed of the vehicle 1 detected by the vehicle speed sensor 4.

但し、w11:前回の撮像時(撮像時点t11)における対象物の画像部分の幅、w12:今回の撮像時(撮像時点t12)における対象物の画像部分の幅、f:f=F(赤外線カメラ2の焦点距離)/p(撮像画像の画素ピッチ)、W:実空間における対象物の幅、Z1:前回の撮像時(撮像時点t11)における車両1から対象物までの距離、Z2:今回の撮像時(撮像時点t12)における車両1から対象物までの距離、Vs:車両と対象物間の相対速度、dT:撮像間隔、Tr:自車両到達時間(対象物が車両1に到達するまでの推定時間)。 However, w 11 : the width of the image portion of the object at the time of previous imaging (imaging time t 11 ), w 12 : the width of the image portion of the object at the time of current imaging (imaging time t 12 ), f: f = F (focal length of infrared camera 2) / p (pixel pitch of captured image), W: width of object in real space, Z 1 : from vehicle 1 to object at the time of previous imaging (imaging time t 11 ) Distance, Z 2 : Distance from vehicle 1 to object at the time of current imaging (imaging time t 12 ), Vs: Relative speed between vehicle and object, dT: Imaging interval, Tr: Time of arrival of own vehicle (object) Estimated time until the vehicle 1 reaches the vehicle 1).

続いて、距離算出部16は、上記式(1)において、車両1と対象物間の相対速度Vs(=車両1の走行速度Vj+対象物の移動速度Vd)が、車両1の走行速度Vjが対象物の移動速度Vdよりも十分に高いとみなして、車両1の走行速度Vjに置き換えて変形した以下の式(2)により、今回の撮像時における車両1から対象物までの距離Z2を算出する。 Subsequently, the distance calculation unit 16 calculates the relative speed Vs between the vehicle 1 and the object (= the traveling speed Vj of the vehicle 1 + the moving speed Vd of the object) and the traveling speed Vj of the vehicle 1 in the above equation (1). The distance Z 2 from the vehicle 1 to the object at the time of the current imaging is calculated by the following equation (2) which is assumed to be sufficiently higher than the moving speed Vd of the object and is replaced with the traveling speed Vj of the vehicle 1. calculate.

但し、Z2:今回の撮像時における車両1から対象物までの距離、Rate:変化率、Vj:車両1の走行速度、dT:撮像間隔。 However, Z 2 : distance from the vehicle 1 to the object at the time of the current imaging, Rate: rate of change, Vj: travel speed of the vehicle 1, dT: imaging interval.

[実空間位置算出処理]
次のSTEP6は実空間位置算出部17による処理である。実空間位置算出部17は、以下の式(3)により、前回の撮像時における車両1から対象物までの距離Z1を算出する。
[Real space position calculation processing]
The next STEP 6 is processing by the real space position calculation unit 17. The real space position calculation unit 17 calculates a distance Z 1 from the vehicle 1 to the object at the time of the previous imaging using the following equation (3).

但し、Z1:前回の撮像時における車両1から対象物までの距離、Z2:今回の撮像時における車両1から対象物までの距離、Vj:車両1の走行速度、dT:撮像間隔。 Where Z 1 is the distance from the vehicle 1 to the object at the previous imaging, Z 2 is the distance from the vehicle 1 to the object at the current imaging, Vj is the traveling speed of the vehicle 1, and dT is the imaging interval.

そして、実空間位置算出部17は、今回及び前回の2値画像における対象物の画像部分の位置から、今回及び前回の撮像時における対象物の実空間位置を算出する。   Then, the real space position calculation unit 17 calculates the real space position of the object at the current and previous imaging from the position of the image portion of the object in the current and previous binary images.

ここで、図13(a)は、2値画像Im11上の今回の対象物の画像部分の位置Pi_2(x12,y12)と、前回の対象物の画像部分の位置Pi_1(x11,y11)を示しており、縦軸yが画像の垂直方向に設定され、横軸xが画像の水平方向に設定されている。 Here, FIG. 13A shows the position Pi_2 (x 12 , y 12 ) of the image portion of the current object on the binary image Im11 and the position Pi_1 (x 11 , y of the image portion of the previous object. 11 ), the vertical axis y is set in the vertical direction of the image, and the horizontal axis x is set in the horizontal direction of the image.

また、図13(b)は実空間上の対象物の移動状況を示しており、Z軸が車両1の進行方向に設定され、X軸がZ軸と直交する方向に設定されている。そして、図中Pr_2(X12,Y12,Z12)は今回の撮像時における対象物の位置を示し、Pr_1(X11,Y11,Z11)は前回の撮像時における対象物の位置を示している。また、Vmは、Pr_2とPr_1から推定した実空間上の対象物の移動ベクトルである。 FIG. 13B shows the movement of the object in real space, where the Z axis is set in the traveling direction of the vehicle 1 and the X axis is set in the direction orthogonal to the Z axis. In the figure, Pr_2 (X 12 , Y 12 , Z 12 ) indicates the position of the object at the time of the current imaging, and Pr_1 (X 11 , Y 11 , Z 11 ) indicates the position of the object at the time of the previous imaging. Show. Vm is a movement vector of an object in real space estimated from Pr_2 and Pr_1.

実空間位置算出部17は、以下の式(4)により今回の撮像時における対象物の実空間座標Pr_2(X12,Y12,Z12)を算出し、以下の式(5)により前回の撮像時における対象物の実空間座標Pr_1(X11,Y11,Z11)を算出する。なお、Z11=Z1、Z12=Z2である。 The real space position calculation unit 17 calculates the real space coordinates Pr_2 (X 12 , Y 12 , Z 12 ) of the object at the time of the current imaging by the following formula (4), and the previous formula (5) The real space coordinates Pr_1 (X 11 , Y 11 , Z 11 ) of the object at the time of imaging are calculated. Note that Z 11 = Z 1 and Z 12 = Z 2 .

但し、X12,Y12:今回の撮像時における対象物の実空間座標値、x12,y12:今回の2値画像における対象物の画像部分の座標値、Z2:今回の撮像時における車両から対象物までの距離、f:f=F(赤外線カメラの焦点距離)/p(撮像画像の画素ピッチ)。 Where X 12 , Y 12 are real space coordinate values of the object at the time of the current imaging, x 12 , y 12 are coordinate values of the image portion of the object in the current binary image, and Z 2 is at the time of the current imaging. Distance from vehicle to object, f: f = F (focal length of infrared camera) / p (pixel pitch of captured image).

但し、X11,Y11:前回の撮像時における対象物の実空間座標値、x11,y11:前回の2値画像における対象物の画像部分の座標値、Z1:前回の撮像時における車両から対象物までの距離、f:f=F(赤外線カメラの焦点距離)/p(撮像画像の画素ピッチ)。 However, X 11 , Y 11 : Real space coordinate value of the object at the previous imaging, x 11 , y 11 : Coordinate value of the image part of the object in the previous binary image, Z 1 : At the previous imaging Distance from vehicle to object, f: f = F (focal length of infrared camera) / p (pixel pitch of captured image).

また、実空間位置算出部17は、車両1が回頭することによる画像上の位置ずれを、ヨーレートセンサ3の検出信号YRから認識される回頭角に基づいて補正する回頭角補正を行う。具体的には、前回の撮像時から今回の撮像時までの間における車両1の回頭角がθrであったときに、以下の式(6)により実空間座標値を補正する。   In addition, the real space position calculation unit 17 performs a turning angle correction that corrects a positional shift on the image due to the turning of the vehicle 1 based on the turning angle recognized from the detection signal YR of the yaw rate sensor 3. Specifically, when the turning angle of the vehicle 1 between the previous imaging and the current imaging is θr, the real space coordinate value is corrected by the following equation (6).

但し、Xr,Yr,Zr:回頭角補正後の実空間座標値、θr:回頭角、Xo,Yo,Zo:回頭角補正前の実空間座標値。 However, Xr, Yr, Zr: real space coordinate value after turning angle correction, θr: turning angle, Xo, Yo, Zo: real space coordinate value before turning angle correction.

[移動ベクトル推定処理]
続くSTEP7は移動ベクトル算出部18による処理である。移動ベクトル算出部18は、図13(b)に示したように、同一の対象物についての前回の撮像時の実空間位置Pr_1と今回の撮像時の実空間位置Pr_2から、対象物と自車両1との相対移動ベクトルに対応する近似直線Vmを求める。
[Movement vector estimation processing]
The following STEP 7 is processing by the movement vector calculation unit 18. As shown in FIG. 13B, the movement vector calculation unit 18 calculates the object and the host vehicle from the real space position Pr_1 at the previous imaging time and the real space position Pr_2 at the current imaging time for the same target object. An approximate straight line Vm corresponding to a relative movement vector with respect to 1 is obtained.

なお、過去の複数時点における対象物の実空間位置を用いて、相対移動ベクトルを求めるようにしてもよい。また、近似直線の具体的な算出処理は、例えば特開2001−6096号公報に記載された手法による。   Note that the relative movement vector may be obtained using the real space position of the object at a plurality of past time points. Moreover, the specific calculation process of an approximate straight line is based on the method described in Unexamined-Japanese-Patent No. 2001-6096, for example.

[警報判断処理]
続くSTEP9及びSTEP30〜STEP31は警報判断部19による処理である。警報判断部19は、STEP9で、対象物が車両1の前方の接近判定領域内に存在しているか、対象物の移動ベクトルが接近判定領域内に向かっているときに、この対象物を警報の対象とする。
[Alarm judgment processing]
Subsequent STEP 9 and STEP 30 to STEP 31 are processes by the alarm determination unit 19. In STEP 9, the alarm determination unit 19 alerts the object when the object exists in the approach determination area in front of the vehicle 1 or when the movement vector of the object is in the approach determination area. set to target.

そして、対象物が警報の対象とされたときには、警報判断部19は、さらに、ブレーキセンサ5の出力から運転者によるブレーキ操作が行われているか否かを判断する。そして、ブレーキ操作が行われ、且つ、車両1の加速度(ここでは減速方向を正とする)が予め設定された加速度閾値よりも大きいとき(運転者により適切なブレーキ操作がなされていると想定される)は、回避操作がなされているために警報出力は不要であると判断して、STEP10に進む。   When the object is set as an alarm target, the alarm determination unit 19 further determines whether or not a brake operation is performed by the driver from the output of the brake sensor 5. When the brake operation is performed and the acceleration of the vehicle 1 (in this case, the deceleration direction is positive) is greater than a preset acceleration threshold value (it is assumed that an appropriate brake operation is performed by the driver). Is determined that the alarm output is unnecessary because the avoidance operation has been performed, and the process proceeds to STEP 10.

それに対して、ブレーキ操作が行われていないか、或いは車両1の加速度が加速度閾値以下であるときには、STEP30に分岐する。そして、警報判断部19は、STEP30でスピーカ6から警報音を出力すると共に、STEP31でHUD7に対象物の強調画像を表示して、STEP10に進む。   On the other hand, if the brake operation is not performed or the acceleration of the vehicle 1 is equal to or less than the acceleration threshold value, the process branches to STEP30. Then, the alarm determination unit 19 outputs an alarm sound from the speaker 6 at STEP 30, displays an emphasized image of the target object on the HUD 7 at STEP 31, and proceeds to STEP 10.

なお、本実施の形態において、距離算出部16は、第2距離算出処理において、図12に示した2値画像間の同一対象物の画像部分の時間追跡処理により変化率Rateを算出したが、図14に示した対象物の画像部分の相間演算により変化率Rateを算出するようにしてもよい。図14を参照して、Im12は前回の撮像時におけるグレースケール画像であり、101は対象物の画像部分を示している。また、Im13は今回の撮像時におけるグレースケール画像であり、102は対象物の画像部分を示している。   In the present embodiment, the distance calculation unit 16 calculates the rate of change Rate by the time tracking process of the image portion of the same object between the binary images shown in FIG. 12 in the second distance calculation process. The rate of change Rate may be calculated by the inter-phase calculation of the image portion of the object shown in FIG. Referring to FIG. 14, Im12 is a gray scale image at the time of previous imaging, and 101 indicates an image portion of the object. Im13 is a grayscale image at the time of the current imaging, and 102 indicates an image portion of the object.

そして、距離算出部16は、今回のグレースケール画像Im13における対象物の画像部分102の大きさをアフィン変換により縮小(対象物が自車両に近づいている場合)又は拡大(対象物が自車両から遠ざかっている場合)して、前回の撮像時における対象物の画像部分101との相間度を算出する。具体的には、図示したように、画像部分102を1.5倍した画像110,1.25倍した画像111、1.0倍した画像112、0.75倍した画像113、0.5倍した画像114と、画像部分101との相間度を算出する。そして、距離算出部16は、相間度が最も高くなったときの画像部分102の倍率を変化率Rateとして決定する。   Then, the distance calculation unit 16 reduces or enlarges the size of the image portion 102 of the target object in the current grayscale image Im13 (when the target object approaches the host vehicle) or enlarges the target object from the host vehicle. Then, the degree of correlation with the image portion 101 of the object at the previous imaging is calculated. Specifically, as illustrated, an image 110 obtained by multiplying the image portion 102 by 1.5, an image 111 by 1.25 times, an image 112 by 1.0 times, an image 113 by 0.75 times, an image by 0.5 times The degree of correlation between the image 114 and the image portion 101 is calculated. Then, the distance calculation unit 16 determines the magnification of the image portion 102 when the degree of correlation is the highest as the rate of change Rate.

また、本実施の形態においては、車両前方を撮像する構成を示したが、車両の後方や側方等、他の方向を撮像して監視対象物との接触可能性を判断するようにしてもよい。   Further, in the present embodiment, the configuration in which the front of the vehicle is imaged is shown, but it is also possible to determine the possibility of contact with the monitoring object by imaging other directions such as the rear and side of the vehicle. Good.

また、本実施の形態では、本発明の特定種別が横断歩行者である場合を示したが、道路を横断する大型の野生動物等、時系列の撮像画像間における画像部分の形状が、同一物体の画像部分として抽出することが困難な程度に変化すると想定される他の種別の物体についても、該種別の物体の大きさ(高さ、幅等)を予め想定して、車両1からの距離と撮像画像での該物体の画像部分との相関関係を設定することで、本発明の適用が可能である。   In the present embodiment, the specific type of the present invention is a crossing pedestrian, but the shape of the image portion between time-series captured images such as a large wild animal crossing the road is the same object. For other types of objects that are assumed to change to an extent that it is difficult to extract as an image part of the vehicle, the distance from the vehicle 1 is assumed in advance, assuming the size (height, width, etc.) of the type of object. The present invention can be applied by setting the correlation between the image and the image portion of the object in the captured image.

また、本実施の形態では横断歩行者の判定を行って第1距離算出処理と第2距離算出処理とを切替えたが、時系列画像間での画像の形状変化が小さい物体(車両や所定の静止物等)であるか否かの判定を行い、形状変化が小さい物体であると判定されたときは第2距離算出処理により車両と物体との距離を算出し、また、形状変化が小さい物体であると判定されなかったときには第1距離算出処理により車両1と物体との距離を算出するようにしてもよい。   Further, in this embodiment, the crossing pedestrian is determined and the first distance calculation process and the second distance calculation process are switched. However, an object (a vehicle or a predetermined object) whose image shape change between time series images is small. Whether the object is a stationary object or the like, and if it is determined that the object has a small shape change, the second distance calculation process calculates the distance between the vehicle and the object, and the object has a small shape change. If it is not determined that the distance between the vehicle 1 and the object may be calculated by the first distance calculation process.

この場合は、図3のSTEP4の横断歩行者の判定に代えて形状変化が小さい物体であるか否かの判定を行い、形状変化が小さい物体であるときはSTEP5に進んで第2距離算出処理により車両1と物体との距離を算出し、形状変化が小さい物体でないときにはSTEP20に分岐して第1距離算出処理により車両1と物体との距離を算出する構成となる。   In this case, instead of the determination of the crossing pedestrian in STEP 4 in FIG. 3, it is determined whether or not the object has a small shape change. If the object has a small shape change, the process proceeds to STEP 5 and the second distance calculation process is performed. Thus, the distance between the vehicle 1 and the object is calculated, and when the shape change is not small, the process branches to STEP 20, and the distance between the vehicle 1 and the object is calculated by the first distance calculation process.

また、本実施形態では、第1距離算出処理を行う際の対象物の画像部分の大きさ(高さ)を求めるために、対象物の画像部分の本来の下端位置(下端推定位置)を推定したが、本発明の適用範囲はこれに限られず、実空間における対象物の接地位置に対応する撮像画像上の位置を求めることが必要な場合であれば、本発明の適用が可能である。   Further, in the present embodiment, in order to obtain the size (height) of the image portion of the object when performing the first distance calculation process, the original lower end position (lower end estimated position) of the image portion of the object is estimated. However, the application range of the present invention is not limited to this, and the present invention can be applied if it is necessary to obtain a position on the captured image corresponding to the ground contact position of the object in real space.

また、本実施形態では、図10,図11(a),図11(b)を参照して上述したように、消失点の位置の相違に基づく補正をして下端推定位置を決定する処理を行ったが、車両挙動(ヨーレート、傾斜センサ等により検出される)、撮像画像から認識される道路の形状、ナビゲーション装置からの情報等に基づく補正を行って、下端推定位置を決定するようにしてもよい。   In the present embodiment, as described above with reference to FIGS. 10, 11 (a), and 11 (b), processing for determining the lower end estimated position by performing correction based on the difference in vanishing point position. Although the correction is made based on the vehicle behavior (detected by the yaw rate, tilt sensor, etc.), the shape of the road recognized from the captured image, information from the navigation device, etc., the lower end estimated position is determined. Also good.

1…車両、2…赤外線カメラ、3…ヨーレートセンサ、4…車速センサ、5…ブレーキセンサ、6…スピーカ、7…HUD、8…ナビゲーション装置、10…車両周辺監視装置、11…撮像画像取得部、12…対象物抽出部、13…物体種別判定部、14…道路境界抽出部、15…下端位置推定部、16…距離算出部、17…実空間位置算出部、18…移動ベクトル算出部、19…警報判断部。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Infrared camera, 3 ... Yaw rate sensor, 4 ... Vehicle speed sensor, 5 ... Brake sensor, 6 ... Speaker, 7 ... HUD, 8 ... Navigation apparatus, 10 ... Vehicle periphery monitoring apparatus, 11 ... Captured image acquisition part , 12 ... object extraction unit, 13 ... object type determination unit, 14 ... road boundary extraction unit, 15 ... lower end position estimation unit, 16 ... distance calculation unit, 17 ... real space position calculation unit, 18 ... movement vector calculation unit, 19 ... Alarm judgment part.

Claims (7)

車両に搭載されたカメラによる撮像画像を取得する撮像画像取得部と、
前記撮像画像から対象物の画像部分を抽出する対象物抽出部と、
前記撮像画像から車道と路側帯又は歩道との境界の画像部分を抽出する道路境界抽出部と、
前記対象物の画像部分が前記境界の画像部分の上側に位置する場合に、前記対象物の画像部分から垂直下方向に引いた直線と前記境界の画像部分との交点に基づいて、実空間における前記対象物の接地位置に対応する前記撮像画像上での位置を推定する下端位置推定部と
を備えたことを特徴とする車両周辺監視装置。
A captured image acquisition unit for acquiring an image captured by a camera mounted on the vehicle;
An object extraction unit for extracting an image portion of the object from the captured image;
A road boundary extraction unit that extracts an image part of a boundary between a roadway and a roadside belt or a sidewalk from the captured image;
When the image portion of the object is located above the boundary image portion, based on the intersection of the straight line drawn vertically downward from the image portion of the object and the boundary image portion, in real space A vehicle periphery monitoring device, comprising: a lower end position estimation unit that estimates a position on the captured image corresponding to a ground contact position of the object.
請求項1記載の車両周辺監視装置において、
前記道路境界抽出部は、前記対象物の画像部分が歩行者の画像部分であるときに、前記対象物の画像部分の水平方向の中心位置から垂直下方向に前記直線を引くことを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
The road boundary extraction unit draws the straight line vertically downward from a horizontal center position of the image portion of the object when the image portion of the object is a pedestrian image portion. Vehicle periphery monitoring device.
請求項1又は請求項2に記載の車両周辺監視装置において、
前記道路境界抽出部は、斜線抽出用のエッジフィルタを用いて、前記境界の画像部分を抽出することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1 or 2,
The vehicle periphery monitoring device, wherein the road boundary extraction unit extracts an image portion of the boundary using an edge filter for oblique line extraction.
請求項3に記載の車両周辺監視装置において、
前記道路境界抽出部は、前記エッジフィルタを用いて抽出したエッジ線のうち、傾きが所定の判定基準値に最も近いエッジ線を、前記境界の画像部分として抽出することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 3,
The road boundary extracting unit extracts, as an image portion of the boundary, a vehicle periphery monitoring, from among the edge lines extracted using the edge filter, an edge line whose slope is closest to a predetermined determination reference value apparatus.
請求項4に記載の車両周辺監視装置において、
前記車両が走行している道路の形状を認識する道路形状認識部と、
前記車両の挙動を検出する車両挙動検出部とを備え、
前記道路境界抽出部は、前記判定基準値を、前記車両が走行している道路の形状と前記車両の挙動とのうちの一方又は両方に基づいて決定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 4,
A road shape recognition unit for recognizing the shape of the road on which the vehicle is traveling;
A vehicle behavior detection unit for detecting the behavior of the vehicle,
The vehicle boundary monitoring device, wherein the road boundary extraction unit determines the determination reference value based on one or both of a shape of a road on which the vehicle is traveling and a behavior of the vehicle.
請求項1から請求項5のうちのいずれか1項に記載の車両周辺監視装置において、
前記道路境界抽出部は、前記撮像画像において前記境界の画像部分が位置すると想定される領域として予め設定された境界探索領域から、前記境界の画像部分を抽出することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 5,
The vehicle boundary monitoring device, wherein the road boundary extraction unit extracts an image portion of the boundary from a boundary search region set in advance as a region where the image portion of the boundary is assumed to be located in the captured image. .
請求項1から請求項6のうちのいずれか1項に記載の車両周辺監視装置において、
前記下端位置推定部は、前記撮像画像における道路の消失点の位置が、直線の平坦路を想定して設定された基準位置から所定距離以上ずれているときに、前記対象物の画像部分から垂直下方向に引いた直線と前記境界の画像部分との交点の位置を、該ずれの方向に応じて補正した位置を、実空間における前記対象物の接地位置に対応する前記撮像画像上での位置として推定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 6,
The lower end position estimation unit is configured to be perpendicular to the image portion of the object when the position of the vanishing point of the road in the captured image is deviated by a predetermined distance or more from a reference position set assuming a straight flat road. The position on the captured image corresponding to the ground contact position of the object in real space, the position obtained by correcting the position of the intersection of the straight line drawn downward and the image portion of the boundary according to the direction of the shift A vehicle periphery monitoring device characterized by estimating as follows.
JP2012235586A 2012-10-25 2012-10-25 Vehicle periphery monitoring device Active JP5904925B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012235586A JP5904925B2 (en) 2012-10-25 2012-10-25 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012235586A JP5904925B2 (en) 2012-10-25 2012-10-25 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2014085920A JP2014085920A (en) 2014-05-12
JP5904925B2 true JP5904925B2 (en) 2016-04-20

Family

ID=50788912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012235586A Active JP5904925B2 (en) 2012-10-25 2012-10-25 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5904925B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2993645B1 (en) 2014-09-02 2019-05-08 Nintendo Co., Ltd. Image processing program, information processing system, information processing apparatus, and image processing method
JP6386837B2 (en) * 2014-09-02 2018-09-05 任天堂株式会社 Image processing program, information processing system, information processing apparatus, and image processing method
JP6241447B2 (en) * 2015-04-28 2017-12-06 マツダ株式会社 Pedestrian movement estimation method and estimation apparatus
CN108027976B (en) * 2015-09-11 2021-10-29 富士胶片株式会社 Travel assist device and travel assist method based on travel assist device
EP3263405B1 (en) * 2016-06-27 2019-08-07 Volvo Car Corporation Around view monitoring system and method for vehicles
JP6986854B2 (en) * 2016-06-28 2021-12-22 キヤノン株式会社 Image processing equipment, imaging equipment, image processing methods, and programs
JP6617677B2 (en) * 2016-10-19 2019-12-11 株式会社デンソー Vehicle control apparatus and vehicle control method
JP6772059B2 (en) * 2016-12-28 2020-10-21 株式会社デンソーテン Electronic control devices, electronic control systems and electronic control methods
JP2019062479A (en) * 2017-09-27 2019-04-18 京セラ株式会社 Imaging apparatus and movable body
US10467903B1 (en) * 2018-05-11 2019-11-05 Arnold Chase Passive infra-red pedestrian detection and avoidance system
US11554775B2 (en) 2019-03-18 2023-01-17 Arnold Chase Passive infra-red guidance system
JP7380443B2 (en) * 2020-06-22 2023-11-15 トヨタ自動車株式会社 Partial image generation device and computer program for partial image generation
JP7359099B2 (en) * 2020-07-31 2023-10-11 トヨタ自動車株式会社 Mobile object interference detection device, mobile object interference detection system, and mobile object interference detection program
CN114530057B (en) * 2022-02-28 2023-06-16 中国第一汽车股份有限公司 Vehicle early warning method and device, vehicle and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3831171B2 (en) * 1999-05-06 2006-10-11 日産自動車株式会社 Vehicle notification device
JP2003230155A (en) * 2002-02-01 2003-08-15 Minolta Co Ltd Apparatus and circuit for processing image
JP4811201B2 (en) * 2005-12-06 2011-11-09 日産自動車株式会社 Runway boundary line detection apparatus and runway boundary line detection method
JP4470067B2 (en) * 2007-08-07 2010-06-02 本田技研工業株式会社 Object type determination device, vehicle
JP5141603B2 (en) * 2009-03-11 2013-02-13 日産自動車株式会社 Moving object detection apparatus and moving object detection method
JP2012203884A (en) * 2011-03-28 2012-10-22 Toyota Central R&D Labs Inc Jumping-out pedestrian determining device and program

Also Published As

Publication number Publication date
JP2014085920A (en) 2014-05-12

Similar Documents

Publication Publication Date Title
JP5904925B2 (en) Vehicle periphery monitoring device
JP5687702B2 (en) Vehicle periphery monitoring device
US7925050B2 (en) Vehicle environment monitoring apparatus
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4203512B2 (en) Vehicle periphery monitoring device
JP5197679B2 (en) Object detection apparatus and program
JP3934119B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP4171501B2 (en) Vehicle periphery monitoring device
US20130010112A1 (en) Object detection apparatus and storage medium storing object detection program
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP4528283B2 (en) Vehicle periphery monitoring device
JP2010146494A (en) Vehicle surroundings monitoring device
Lin et al. Lane departure and front collision warning using a single camera
Liu et al. Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions
JP4991384B2 (en) Approaching object detection device and approaching object detection program
US9160986B2 (en) Device for monitoring surroundings of a vehicle
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP4813304B2 (en) Vehicle periphery monitoring device
JP5276032B2 (en) Device for calculating the position of an object
JP4823753B2 (en) Vehicle periphery monitoring device
JP4629638B2 (en) Vehicle periphery monitoring device
JP5430213B2 (en) Vehicle periphery monitoring device
JP4975776B2 (en) Vehicle periphery monitoring device
JP2007336091A (en) Object detecting device, vehicle, object detecting method, and program for object detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160315

R150 Certificate of patent or registration of utility model

Ref document number: 5904925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350