JP2015203993A - object recognition device - Google Patents

object recognition device Download PDF

Info

Publication number
JP2015203993A
JP2015203993A JP2014083220A JP2014083220A JP2015203993A JP 2015203993 A JP2015203993 A JP 2015203993A JP 2014083220 A JP2014083220 A JP 2014083220A JP 2014083220 A JP2014083220 A JP 2014083220A JP 2015203993 A JP2015203993 A JP 2015203993A
Authority
JP
Japan
Prior art keywords
image
object recognition
candidate image
portions
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014083220A
Other languages
Japanese (ja)
Other versions
JP6270604B2 (en
Inventor
洋介 坂本
Yosuke Sakamoto
洋介 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2014083220A priority Critical patent/JP6270604B2/en
Publication of JP2015203993A publication Critical patent/JP2015203993A/en
Application granted granted Critical
Publication of JP6270604B2 publication Critical patent/JP6270604B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object recognition device that can efficiently recognize an object existing on a road.SOLUTION: A candidate image portion extraction unit 13 is configured to extract a plurality of candidate image portions 41b, 42b and 43b that has a length equal to or more than a prescribed length for a y-direction corresponding to a vertical direction in a real space and continues in a fixed direction from an edge image Im2 generated from an image photographed by a camera 2. An object recognition unit 14 is configured to recognize an object on the basis of an area excluding a range 65 extending in the y-direction, defining an approximate line 60 connecting the plurality of candidate image portions 41b, 42b and 43b as a base.

Description

本発明は、カメラの撮像画像に基づいて、道路の状況を認識する対象物認識装置に関する。   The present invention relates to an object recognition apparatus for recognizing a road situation based on a captured image of a camera.

従来より、車載カメラにより撮像された車両前方の道路の画像から、道路に設けられた走行車線区分用の白線等のレーンマークを認識する対象物認識装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, an object recognition device that recognizes a lane mark such as a white line for traveling lane classification provided on a road from an image of a road ahead of the vehicle captured by an in-vehicle camera is known (for example, Patent Document 1). reference).

特許文献1に記載された対象物認識装置においては、カメラにより撮像された時系列の画像間で、同一物体の画像部分であると推定される画像部分を抽出し、この画像部分について複数の特徴部分の移動ベクトルを算出する。そして、複数の特徴部分の移動ベクトルの相違度が所定レベル以上である物体を、鉛直方向の高さを有する物体(道路脇の立体標識等)であると判断して、レーンマークの検出対象から除外している。   In the object recognition device described in Patent Document 1, an image portion estimated to be an image portion of the same object is extracted between time-series images captured by a camera, and a plurality of features are included in the image portion. The movement vector of the part is calculated. Then, an object having a degree of difference between the movement vectors of a plurality of characteristic portions that is equal to or higher than a predetermined level is determined to be an object having a vertical height (such as a three-dimensional roadside sign), and is detected from the lane mark detection target. Excluded.

特開2012−108665号公報JP 2012-108665 A

特許文献1に記載された対象物認識装置によれば、立体標識の画像部分を除外することによって、立体標識がレーンマークであると誤認識されることを防止することができる。   According to the object recognition apparatus described in Patent Document 1, it is possible to prevent the three-dimensional label from being erroneously recognized as a lane mark by excluding the image portion of the three-dimensional label.

しかしながら、特許文献1に記載された対象物認識装置では、カメラにより撮像された画像から多数のレーンマークの画像部分の候補が抽出されたときに、各画像部分について複数の移動ベクトルを算出する必要があるため、画像処理の演算量が多くなって効率的ではないという不都合がある。   However, the object recognition apparatus described in Patent Document 1 needs to calculate a plurality of movement vectors for each image portion when image portion candidates for a large number of lane marks are extracted from the image captured by the camera. Therefore, there is an inconvenience that the calculation amount of the image processing increases and is not efficient.

本発明はかかる背景に鑑みてなされたものであり、道路に存在する対象物を効率的に認識することができる対象物認識装置を提供することを目的とする。   The present invention has been made in view of such a background, and an object thereof is to provide an object recognition apparatus capable of efficiently recognizing an object existing on a road.

本発明は上記目的を達成するためになされたものであり、カメラにより撮像された周辺画像に基づいて対象物を認識する対象物認識装置、車両、及び対象物認識方法に関する。   The present invention has been made to achieve the above object, and relates to an object recognition apparatus, a vehicle, and an object recognition method for recognizing an object based on a peripheral image captured by a camera.

そして、本発明の対象物認識装置は、
カメラによる撮像画像から、実空間における鉛直方向に相当する特定方向について所定長以上の長さを有し、且つ一定方向に連続した複数の候補画像部分を抽出する候補画像部分抽出部と、
前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識部とを
を備えたことを特徴とする。
And the target object recognition apparatus of this invention is
A candidate image part extracting unit that extracts a plurality of candidate image parts having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by a camera; and
The captured image includes an object recognition unit that recognizes an object based on an area excluding a range extending in the specific direction with a line connecting the plurality of candidate image portions as a base. .

かかる本発明によれば、前記候補画像部分抽出部によって抽出される複数の候補画像部分は、実空間において鉛直方向にある程度の長さを有して、一定方向に連続して配置されている物体の画像部分であるから、道路脇に設けられた連続路側物(車線の境界に設けられたポール等)の画像部分である可能性が高い。そして、道路に存在する物体(道路に敷設されたレーンマーク、他車両、歩行者等)を認識対象とする場合、道路外の範囲については認識処理を行う必要がない。   According to the present invention, the plurality of candidate image portions extracted by the candidate image portion extraction unit have a certain length in the vertical direction in real space and are continuously arranged in a certain direction. Therefore, there is a high possibility that it is an image portion of a continuous roadside object (such as a pole provided at the boundary of the lane) provided on the side of the road. When objects existing on the road (lane marks laid on the road, other vehicles, pedestrians, and the like) are to be recognized, it is not necessary to perform recognition processing for a range outside the road.

そこで、前記対象物認識部は、前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲(実空間において連続路側物により区切られる道路脇の範囲に対応する)を除外した領域に基づいて、対象物を認識する。これにより、移動ベクトルの算出等の負荷が重い演算処理を行うことなく、道路脇の画像範囲を除外して、道路に存在する対象物を効率良く認識することができる。   Therefore, the object recognition unit extends in the specific direction with a line connecting the plurality of candidate image portions as a base in the captured image (corresponding to a roadside range delimited by continuous roadside objects in real space). The object is recognized based on the area excluding. Accordingly, it is possible to efficiently recognize an object existing on the road by excluding the image area on the roadside without performing a heavy calculation process such as calculation of a movement vector.

また、前記対象物認識部は、前記複数の候補画像部分を繋ぐ線として、前記複数の候補画像部分の前記特定方向の下端部を繋ぐ線を用いることを特徴とする。   The object recognition unit may use a line connecting lower end portions in the specific direction of the plurality of candidate image portions as a line connecting the plurality of candidate image portions.

この構成によれば、前記複数の候補画像部分の下端部(実空間における接地部に相当する)を繋ぐ線を用いることによって、道路脇に相当する画像範囲をより精度良く除外することができる。   According to this configuration, the image range corresponding to the roadside can be more accurately excluded by using the line connecting the lower end portions (corresponding to the ground contact portion in the real space) of the plurality of candidate image portions.

また、前記カメラは車両に搭載されて該車両の前方を撮像し、
前記一定方向は前記車両の進行方向であることを特徴とする。
Further, the camera is mounted on a vehicle and images the front of the vehicle,
The certain direction is a traveling direction of the vehicle.

この構成によれば、車両の進行方向は道路の延伸方向であると推定できるため、道路の延伸方向に配列された連続路側物の画像部分を、他の画像部分から区別して抽出することができる。   According to this configuration, since the traveling direction of the vehicle can be estimated to be the road extending direction, the image portion of the continuous roadside object arranged in the road extending direction can be extracted separately from the other image portions. .

次に、本発明の車両は、
周辺を撮像するカメラと、
前記カメラによる撮像画像から、実空間における鉛直方向に相当する特定方向について所定長以上の長さを有し、且つ一定方向に連続した複数の候補画像部分を抽出する候補画像部分抽出部と、
前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識部とを
を備えたことを特徴とする。
Next, the vehicle of the present invention is
A camera that captures the surroundings,
A candidate image part extraction unit that extracts a plurality of candidate image parts having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by the camera; and
The captured image includes an object recognition unit that recognizes an object based on an area excluding a range extending in the specific direction with a line connecting the plurality of candidate image portions as a base. .

かかる本発明によれば、上記対象物認識装置と同様に、前記対象物認識部は、前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲(実空間において連続路側物により区切られる道路脇の範囲に対応する)を除外した領域に基づいて、対象物を認識する。これにより、移動ベクトルの算出等の負荷が高い演算処理を行うことなく、道路脇の画像範囲を除外して、道路に存在する対象物を効率良く認識することができる。   According to the present invention, similarly to the target object recognition apparatus, the target object recognition unit has a range (in real space) that extends in the specific direction with a line connecting the plurality of candidate image parts as a base in the captured image. The object is recognized based on the area excluding the area on the side of the road separated by the continuous roadside object. Thus, it is possible to efficiently recognize an object existing on the road by excluding the image area on the side of the road without performing a calculation process such as calculation of a movement vector.

次に、本発明の対象物認識方法は、
カメラによる撮像画像から、実空間における鉛直方向に相当する特定方向について所定長以上の長さを有し、且つ一定方向に連続した複数の候補画像部分を抽出する候補画像抽出工程と、
前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識工程と
を含むことを特徴とする。
Next, the object recognition method of the present invention includes:
A candidate image extraction step of extracting a plurality of candidate image portions having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by a camera; and
The captured image includes a target recognition step of recognizing a target based on a region excluding a range extending in the specific direction with a line connecting the plurality of candidate image portions as a base.

かかる本発明によれば、前記候補画像工程によって抽出される複数の候補画像部分は、実空間において鉛直方向にある程度の長さを有して、一定方向に連続して配置されている物体の画像部分であるから、道路脇に設けられた連続路側物(車線の境界に設けられたポール等)の画像部分である可能性が高い。そして、道路に存在する物体(道路に敷設されたレーンマーク、他車両、歩行者等)を認識対象とする場合、道路外の範囲については認識処理を行う必要がない。   According to the present invention, the plurality of candidate image portions extracted by the candidate image step have a certain length in the vertical direction in the real space, and are images of objects continuously arranged in a certain direction. Since it is a portion, there is a high possibility that it is an image portion of a continuous roadside object (such as a pole provided at the boundary of a lane) provided on the side of the road. When objects existing on the road (lane marks laid on the road, other vehicles, pedestrians, and the like) are to be recognized, it is not necessary to perform recognition processing for a range outside the road.

そこで、前記対象物認識工程により、前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲(実空間において連続路側物により区切られる道路脇の範囲に対応する)を除外した領域に基づいて、対象物を認識する。これにより、移動ベクトルの算出等の負荷が重い演算処理を行うことなく、道路脇の画像範囲を除外して、道路に存在する対象物を効率良く認識することができる。   Therefore, in the captured image, in the captured image, a range extending in the specific direction with a line connecting the plurality of candidate image portions as a base (corresponding to a roadside range delimited by continuous roadside objects in real space). The object is recognized based on the area excluding. Accordingly, it is possible to efficiently recognize an object existing on the road by excluding the image area on the roadside without performing a heavy calculation process such as calculation of a movement vector.

対象物認識装置の構成図。The block diagram of a target object recognition apparatus. 対象物認識処理のフローチャート。The flowchart of a target object recognition process. 撮像画像及びエッジ画像の説明図。Explanatory drawing of a captured image and an edge image. 道路脇の画像範囲を除外する処理の説明図。Explanatory drawing of the process which excludes the image range of a roadside.

本発明の対象物認識装置の実施形態について、図1〜図4を参照して説明する。   An embodiment of an object recognition device of the present invention will be described with reference to FIGS.

図1を参照して、対象物認識装置10は、カメラ2(カラーカメラ)、スピーカ5、表示器6、及び操舵機構7を備えた車両1(本発明の車両に相当する)に搭載されている。   Referring to FIG. 1, an object recognition device 10 is mounted on a vehicle 1 (corresponding to a vehicle of the present invention) including a camera 2 (color camera), a speaker 5, a display 6, and a steering mechanism 7. Yes.

対象物認識装置10は、図示しないCPU、メモリ、各種インターフェース回路等により構成された電子ユニットであり、メモリに保持された対象物認識及び操舵制御用のプログラムをCPUで実行することにより、撮像画像取得部11、エッジ画像生成部12、候補画像部分抽出部13、対象物認識部14、及び操舵制御部15として機能する。また、対象物認識装置10により、本発明の対象物認識方法が実施される。   The object recognition apparatus 10 is an electronic unit configured by a CPU, a memory, various interface circuits, and the like (not shown), and a captured image is obtained by executing a program for object recognition and steering control held in the memory by the CPU. It functions as an acquisition unit 11, an edge image generation unit 12, a candidate image part extraction unit 13, an object recognition unit 14, and a steering control unit 15. Further, the object recognition method of the present invention is implemented by the object recognition apparatus 10.

以下、図2に示したフローチャートに従って、対象物認識装置10により、道路上に存在する対象物(レーンマーク、他車両等)を認識する処理について説明する。対象物認識装置10は、所定の制御周期毎に図2に示したフローチャートによる処理を実行して、車両1が走行している道路上に存在する対象物を認識する。   Hereinafter, processing for recognizing an object (lane mark, other vehicle, etc.) existing on the road by the object recognition device 10 will be described according to the flowchart shown in FIG. The target object recognition apparatus 10 performs the process according to the flowchart shown in FIG. 2 at every predetermined control period, and recognizes the target object existing on the road on which the vehicle 1 is traveling.

図2のSTEP1は撮像画像取得部11による処理である。撮像画像取得部11は、カメラ2から出力される車両1の周囲(前方)の映像信号を入力して、この映像信号のカラー成分(R値,G値,B値)をデモザイキングし、各画素のデータとしてR値,G値,B値を有するカラーの撮像画像21を取得する。そして、この車両1の前方の撮像画像21のデータを画像メモリ20に保持する。   STEP 1 in FIG. 2 is processing by the captured image acquisition unit 11. The captured image acquisition unit 11 inputs a video signal around the vehicle 1 output from the camera 2 (front), and demosaices the color components (R value, G value, B value) of the video signal. A color captured image 21 having R value, G value, and B value as pixel data is acquired. Then, data of the captured image 21 in front of the vehicle 1 is held in the image memory 20.

続くSTEP2はエッジ画像生成部12による処理である。エッジ画像生成部12は、撮像画像21の各画素のカラー成分を輝度に変換する処理を行って、グレースケール画像(多値画像)を生成する。そして、エッジ画像生成部12は、グレースケール画像からエッジ点(周囲部の画素(画像部分)との輝度差(輝度の変化量)が所定値以上である画素。輝度が暗から明に変化する正のエッジ点、及び輝度が明から暗に変化する負のエッジ点を含む)を抽出して、エッジ画像22(図1参照)を生成する。   The subsequent STEP 2 is processing by the edge image generation unit 12. The edge image generation unit 12 performs a process of converting the color component of each pixel of the captured image 21 into luminance, and generates a grayscale image (multi-valued image). Then, the edge image generation unit 12 is a pixel in which the luminance difference (luminance change amount) with the edge point (the surrounding pixel (image portion)) is equal to or greater than a predetermined value from the grayscale image. Edge image 22 (see FIG. 1) is generated by extracting positive edge points and negative edge points whose luminance changes from light to dark.

なお、カメラ2がモノクロカメラであるときには、各画素の輝度からグレースケールの撮像画像が得られるで、上述したカラーの撮像画像からグレースケール画像を生成する処理は不要である。   Note that when the camera 2 is a monochrome camera, a grayscale captured image is obtained from the luminance of each pixel, and thus the above-described processing for generating a grayscale image from a color captured image is not necessary.

ここで、図3(a)に示したIm1は撮像画像21から生成されたグレースケール画像の例であり、車両1(自車両)が走行している道路30に敷設された右端の連続線レーンマークの画像部分31a、左端の連続線レーンマークの画像部分32a、及び中央部の破線レーンマークの画像部分33a〜35aが含まれている。また、Im1には、道路30の脇に沿って設置された連続路側物(車線分離ポール等)の画像部分41a〜43aが含まれている。   Here, Im1 shown in FIG. 3A is an example of a grayscale image generated from the captured image 21, and the rightmost continuous line lane laid on the road 30 on which the vehicle 1 (own vehicle) is traveling. The image portion 31a of the mark, the image portion 32a of the continuous line lane mark at the left end, and the image portions 33a to 35a of the broken line lane mark at the center are included. Also, Im1 includes image portions 41a to 43a of continuous roadside objects (lane separation poles and the like) installed along the side of the road 30.

図3(b)に示したIm2は、グレースケール画像Im1に対してエッジ抽出処理を行うことにより生成されたエッジ画像である。エッジ画像Im2においては、Im1の画像部分31aに対応する画像部分31b、画像部分32aに対応する画像部分32b、画像部分33a〜35aに対応する画像部分33b〜35b、画像部分41a〜43aに対応する画像部分41b〜43bが抽出されている。   Im2 illustrated in FIG. 3B is an edge image generated by performing edge extraction processing on the grayscale image Im1. The edge image Im2 corresponds to an image portion 31b corresponding to the image portion 31a of Im1, an image portion 32b corresponding to the image portion 32a, image portions 33b to 35b corresponding to the image portions 33a to 35a, and image portions 41a to 43a. Image portions 41b to 43b are extracted.

続くSTEP3〜STEP4は、候補画像部分抽出部13による処理である。候補画像部分抽出部13は、エッジ画像Im2に対して、ひとかたまりになっているエッジ点(以下、エッジ部分という)にラベルを付するラべリングと、近接したエッジ部分を同一物体の画像部分であるとして関連付けるクラスタリングを行う。   Subsequent STEP 3 to STEP 4 are processes performed by the candidate image portion extraction unit 13. The candidate image portion extraction unit 13 labels the edge image Im2 with a label for a group of edge points (hereinafter referred to as edge portions) and the adjacent edge portions as image portions of the same object. Perform clustering to associate as there is.

また、候補画像部分抽出部13は、STEP4で、クラスタリングされた画像部分のうち、y方向(実空間における鉛直方向に対応する方向、本発明の特定方向に相当する)に所定長以上の長さを有し、且つ、一定方向(例えば、車両1の進行方向)に並んだ画像部分を、候補画像部分として抽出する。図3(b)の例では、D1方向に並んだ画像部分41b〜43b(連続路側物の画像部分)が、複数の候補画像部分として抽出される。   In STEP 4, the candidate image portion extraction unit 13 has a length equal to or longer than a predetermined length in the y direction (the direction corresponding to the vertical direction in the real space, which corresponds to the specific direction of the present invention) among the clustered image portions. And image portions arranged in a certain direction (for example, the traveling direction of the vehicle 1) are extracted as candidate image portions. In the example of FIG. 3B, image portions 41b to 43b (image portions of continuous roadside objects) arranged in the direction D1 are extracted as a plurality of candidate image portions.

なお、候補画像部分抽出部13による処理工程は、本発明の対象物認識方法における候補画像抽出工程に相当する。   In addition, the process process by the candidate image part extraction part 13 is corresponded to the candidate image extraction process in the target object recognition method of this invention.

続くSTEP5〜STEP7は、対象物認識部14による処理である。なお、対象物認識部14による処理工程は、本発明の対象物認識方法における対象物認識工程に相当する。   Subsequent STEP5 to STEP7 are processes by the object recognition unit 14. In addition, the process process by the target object recognition part 14 is corresponded to the target object recognition process in the target object recognition method of this invention.

対象物認識部14は、STEP5で、図4に示したように、候補画像部分41b〜43bの下端部を繋ぐ線60(最小二乗法等により求めた近似曲線)を求める。そして、線60を底辺としてy方向に延びる範囲65(図4では斜線で示している)を除外して、撮像画像における注目領域を設定する。これにより、連続路側物の画像部分を含む道路脇の画像範囲を除外した注目領域に基づいて、対象物を効率良く認識することを可能としている。   In STEP 5, as shown in FIG. 4, the object recognition unit 14 obtains a line 60 (approximate curve obtained by the least square method or the like) connecting the lower end portions of the candidate image portions 41b to 43b. Then, a region of interest in the captured image is set by excluding a range 65 (indicated by hatching in FIG. 4) extending in the y direction with the line 60 as a base. Thereby, it is possible to efficiently recognize the object based on the attention area excluding the roadside image range including the image portion of the continuous roadside object.

続くSTEP6で、対象物認識部14は、注目領域からレーンマークの画像部分の候補(図4では、31b,32b,33b〜35b)を抽出し、各レーンマークの画像部分の候補に対して、カメラ座標から実空間座標への逆射影変換を行って、各レーンマークの画像部分の候補に対応する実空間での位置を算出する。次のSTEP7で、対象物認識部14は、レーンマークの画像部分の候補に対応する実空間での位置に基づいて、車線の境界を認識する。   In subsequent STEP 6, the object recognition unit 14 extracts lane mark image portion candidates (31b, 32b, 33b to 35b in FIG. 4) from the region of interest, and for each lane mark image portion candidate, The back projection transformation from the camera coordinates to the real space coordinates is performed, and the position in the real space corresponding to the candidate image portion of each lane mark is calculated. In the next STEP 7, the object recognition unit 14 recognizes the boundary of the lane based on the position in the real space corresponding to the candidate lane mark image portion.

STEP8は操舵制御部15による処理である。操舵制御部15は、車両1が車線の中心位置付近を走行するように、又は車線からの逸脱を抑制するように操舵機構7を作動させて、車両1の運転者の運転操作をアシストする。この場合、操舵制御部15は、必要に応じて、スピーカ5からの音出力及び表示器6への表示により、運転者に対する注意喚起を行う。   STEP 8 is processing by the steering control unit 15. The steering control unit 15 assists the driving operation of the driver of the vehicle 1 by operating the steering mechanism 7 so that the vehicle 1 travels near the center position of the lane or suppresses deviation from the lane. In this case, the steering control unit 15 alerts the driver by sound output from the speaker 5 and display on the display 6 as necessary.

[変形形態]
対象物認識部14による認識対象は、道路に敷設されたレーンマークの他、先行車等の他車両や、道路標識等の道路上に存在する物体であってもよい。この場合にも、道路脇の画像領域を除外して、道路上に存在する物体を効率良く認識することができる。
[Deformation]
In addition to the lane mark laid on the road, the object to be recognized by the object recognition unit 14 may be another vehicle such as a preceding vehicle or an object existing on the road such as a road sign. Also in this case, an object existing on the road can be recognized efficiently by excluding the image area on the side of the road.

上記実施形態では、図4に示したように、候補画像部分41b〜43bの下端部を接続する線を用いて除外範囲65を決定したが、候補画像部分41b〜43bの下端部以外(上端部、中間部等)を繋ぐ線を用いてもよい。   In the above embodiment, as illustrated in FIG. 4, the exclusion range 65 is determined using a line connecting the lower end portions of the candidate image portions 41 b to 43 b, but other than the lower end portions (upper end portions) of the candidate image portions 41 b to 43 b. , Intermediate portions, etc.) may be used.

1…車両(自車両)、2…カメラ、7…操舵機構、10…対象物認識装置、11…撮像画像取得部、12…エッジ画像生成部、13…候補画像部分抽出部、14…対象物認識部、15…操舵制御部、20…画像メモリ、21…撮像画像、22…エッジ画像。   DESCRIPTION OF SYMBOLS 1 ... Vehicle (own vehicle), 2 ... Camera, 7 ... Steering mechanism, 10 ... Object recognition apparatus, 11 ... Captured image acquisition part, 12 ... Edge image generation part, 13 ... Candidate image part extraction part, 14 ... Object Recognizing unit, 15 ... steering control unit, 20 ... image memory, 21 ... captured image, 22 ... edge image.

Claims (5)

カメラによる撮像画像から、実空間における鉛直方向に相当する特定方向について所定長以上の長さを有し、且つ一定方向に連続した複数の候補画像部分を抽出する候補画像部分抽出部と、
前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識部とを
を備えたことを特徴とする対象物認識装置。
A candidate image part extracting unit that extracts a plurality of candidate image parts having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by a camera; and
The captured image includes an object recognition unit that recognizes an object based on an area excluding a range extending in the specific direction with a line connecting the plurality of candidate image portions as a base. Object recognition device.
請求項1に記載の対象物認識装置において、
前記対象物認識部は、前記複数の候補画像部分を繋ぐ線として、前記複数の候補画像部分の前記特定方向の下端部を繋ぐ線を用いることを特徴とする対象物認識装置。
The object recognition apparatus according to claim 1,
The target object recognition unit uses a line connecting lower end portions in the specific direction of the plurality of candidate image portions as a line connecting the plurality of candidate image portions.
請求項1又は請求項2に記載の対象物認識装置において、
前記カメラは車両に搭載されて該車両の前方を撮像し、
前記一定方向は前記車両の進行方向であることを特徴とする対象物認識装置。
In the object recognition device according to claim 1 or 2,
The camera is mounted on a vehicle and images the front of the vehicle,
2. The object recognition apparatus according to claim 1, wherein the predetermined direction is a traveling direction of the vehicle.
周辺を撮像するカメラと、
前記カメラによる撮像画像から、実空間における鉛直方向に相当する特定方向について所定長以上の長さを有し、且つ一定方向に連続した複数の候補画像部分を抽出する候補画像部分抽出部と、
前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識部とを
を備えたことを特徴とする車両。
A camera that captures the surroundings,
A candidate image part extraction unit that extracts a plurality of candidate image parts having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by the camera; and
The captured image includes an object recognition unit that recognizes an object based on an area excluding a range extending in the specific direction with a line connecting the plurality of candidate image portions as a base. vehicle.
カメラによる撮像画像から、実空間における鉛直方向に相当する特定方向について所定長以上の長さを有し、且つ一定方向に連続した複数の候補画像部分を抽出する候補画像抽出工程と、
前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識工程と
を含むことを特徴とする対象物認識方法。
A candidate image extraction step of extracting a plurality of candidate image portions having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by a camera; and
An object recognition step for recognizing an object based on an area excluding a range extending in the specific direction with a line connecting the plurality of candidate image portions as a base in the captured image. Recognition method.
JP2014083220A 2014-04-14 2014-04-14 Object recognition device Active JP6270604B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014083220A JP6270604B2 (en) 2014-04-14 2014-04-14 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014083220A JP6270604B2 (en) 2014-04-14 2014-04-14 Object recognition device

Publications (2)

Publication Number Publication Date
JP2015203993A true JP2015203993A (en) 2015-11-16
JP6270604B2 JP6270604B2 (en) 2018-01-31

Family

ID=54597415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014083220A Active JP6270604B2 (en) 2014-04-14 2014-04-14 Object recognition device

Country Status (1)

Country Link
JP (1) JP6270604B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169618A (en) * 2008-01-15 2009-07-30 Toyota Central R&D Labs Inc Roadside interface detection device
JP2009181557A (en) * 2008-02-01 2009-08-13 Hitachi Ltd Image processor and vehicle detector equipped with the same
JP2010277384A (en) * 2009-05-29 2010-12-09 Nissan Motor Co Ltd Device and method for supporting traveling

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169618A (en) * 2008-01-15 2009-07-30 Toyota Central R&D Labs Inc Roadside interface detection device
JP2009181557A (en) * 2008-02-01 2009-08-13 Hitachi Ltd Image processor and vehicle detector equipped with the same
JP2010277384A (en) * 2009-05-29 2010-12-09 Nissan Motor Co Ltd Device and method for supporting traveling

Also Published As

Publication number Publication date
JP6270604B2 (en) 2018-01-31

Similar Documents

Publication Publication Date Title
US10025998B1 (en) Object detection using candidate object alignment
KR101517181B1 (en) System and method for warning lane departure
KR101605514B1 (en) Apparatus and method for recognizing lane
JP6202635B2 (en) Method and system for lane relative position estimation for driver assistance system
JP6141787B2 (en) Lane mark recognition device
JP6141788B2 (en) Lane mark recognition device
JP2012243051A (en) Environment recognition device and environment recognition method
JP2014085920A (en) Vehicle surroundings monitoring device
JP6515704B2 (en) Lane detection device and lane detection method
JP2012068935A (en) Object recognition device for vehicle
JP6230498B2 (en) Object recognition device
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
US9558410B2 (en) Road environment recognizing apparatus
JP6431299B2 (en) Vehicle periphery monitoring device
JP5345999B2 (en) Lane mark recognition device
JP6132807B2 (en) Lane mark recognition device
JP6270604B2 (en) Object recognition device
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
Thongpan et al. The state of the art in development a lane detection for embedded systems design
JP6173962B2 (en) Lane mark recognition device
KR101936108B1 (en) Method and apparatus for detecting traffic sign
JP2015215235A (en) Object detection device and object detection method
KR20140076043A (en) Device and method for detecting pedestrian candidate
KR102109114B1 (en) Apparatus and Method for Recognizing a Pedestrian
JP7323716B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171226

R150 Certificate of patent or registration of utility model

Ref document number: 6270604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150