JP6270604B2 - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP6270604B2 JP6270604B2 JP2014083220A JP2014083220A JP6270604B2 JP 6270604 B2 JP6270604 B2 JP 6270604B2 JP 2014083220 A JP2014083220 A JP 2014083220A JP 2014083220 A JP2014083220 A JP 2014083220A JP 6270604 B2 JP6270604 B2 JP 6270604B2
- Authority
- JP
- Japan
- Prior art keywords
- candidate image
- object recognition
- image
- portions
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、カメラの撮像画像に基づいて、道路の状況を認識する対象物認識装置に関する。 The present invention relates to an object recognition apparatus for recognizing a road situation based on a captured image of a camera.
従来より、車載カメラにより撮像された車両前方の道路の画像から、道路に設けられた走行車線区分用の白線等のレーンマークを認識する対象物認識装置が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an object recognition device that recognizes a lane mark such as a white line for traveling lane classification provided on a road from an image of a road ahead of the vehicle captured by an in-vehicle camera is known (for example, Patent Document 1). reference).
特許文献1に記載された対象物認識装置においては、カメラにより撮像された時系列の画像間で、同一物体の画像部分であると推定される画像部分を抽出し、この画像部分について複数の特徴部分の移動ベクトルを算出する。そして、複数の特徴部分の移動ベクトルの相違度が所定レベル以上である物体を、鉛直方向の高さを有する物体(道路脇の立体標識等)であると判断して、レーンマークの検出対象から除外している。 In the object recognition device described in Patent Document 1, an image portion estimated to be an image portion of the same object is extracted between time-series images captured by a camera, and a plurality of features are included in the image portion. The movement vector of the part is calculated. Then, an object having a degree of difference between the movement vectors of a plurality of characteristic portions that is equal to or higher than a predetermined level is determined to be an object having a vertical height (such as a three-dimensional roadside sign), and is detected from the lane mark detection target. Excluded.
特許文献1に記載された対象物認識装置によれば、立体標識の画像部分を除外することによって、立体標識がレーンマークであると誤認識されることを防止することができる。 According to the object recognition apparatus described in Patent Document 1, it is possible to prevent the three-dimensional label from being erroneously recognized as a lane mark by excluding the image portion of the three-dimensional label.
しかしながら、特許文献1に記載された対象物認識装置では、カメラにより撮像された画像から多数のレーンマークの画像部分の候補が抽出されたときに、各画像部分について複数の移動ベクトルを算出する必要があるため、画像処理の演算量が多くなって効率的ではないという不都合がある。 However, the object recognition apparatus described in Patent Document 1 needs to calculate a plurality of movement vectors for each image portion when image portion candidates for a large number of lane marks are extracted from the image captured by the camera. Therefore, there is an inconvenience that the calculation amount of the image processing increases and is not efficient.
本発明はかかる背景に鑑みてなされたものであり、道路に存在する対象物を効率的に認識することができる対象物認識装置を提供することを目的とする。 The present invention has been made in view of such a background, and an object thereof is to provide an object recognition apparatus capable of efficiently recognizing an object existing on a road.
本発明は上記目的を達成するためになされたものであり、カメラにより撮像された周辺画像に基づいて対象物を認識する対象物認識装置、車両、及び対象物認識方法に関する。 The present invention has been made to achieve the above object, and relates to an object recognition apparatus, a vehicle, and an object recognition method for recognizing an object based on a peripheral image captured by a camera.
そして、本発明の対象物認識装置は、
カメラによる撮像画像から、実空間における鉛直方向に相当する特定方向について所定長以上の長さを有し、且つ一定方向に連続した複数の候補画像部分を抽出する候補画像部分抽出部と、
前記撮像画像において、前記複数の候補画像部分のうち、画像上で最も左にある候補画像部分の位置と最も右にある候補画像部分の位置とを左右端部とした前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識部と
を備えたことを特徴とする。
And the target object recognition apparatus of this invention is
A candidate image part extracting unit that extracts a plurality of candidate image parts having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by a camera; and
In the captured image, among the plurality of candidate image portions, the plurality of candidate image portions having left and right end positions as a leftmost candidate image portion position and a rightmost candidate image portion position. An object recognizing unit for recognizing an object based on an area excluding a range extending in the specific direction with a connecting line as a base is provided.
かかる本発明によれば、前記候補画像部分抽出部によって抽出される複数の候補画像部分は、実空間において鉛直方向にある程度の長さを有して、一定方向に連続して配置されている物体の画像部分であるから、道路脇に設けられた連続路側物(車線の境界に設けられたポール等)の画像部分である可能性が高い。そして、道路に存在する物体(道路に敷設されたレーンマーク、他車両、歩行者等)を認識対象とする場合、道路外の範囲については認識処理を行う必要がない。 According to the present invention, the plurality of candidate image portions extracted by the candidate image portion extraction unit have a certain length in the vertical direction in real space and are continuously arranged in a certain direction. Therefore, there is a high possibility that it is an image portion of a continuous roadside object (such as a pole provided at the boundary of the lane) provided on the side of the road. When objects existing on the road (lane marks laid on the road, other vehicles, pedestrians, and the like) are to be recognized, it is not necessary to perform recognition processing for a range outside the road.
そこで、前記対象物認識部は、前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲(実空間において連続路側物により区切られる道路脇の範囲に対応する)を除外した領域に基づいて、対象物を認識する。これにより、移動ベクトルの算出等の負荷が重い演算処理を行うことなく、道路脇の画像範囲を除外して、道路に存在する対象物を効率良く認識することができる。 Therefore, the object recognition unit extends in the specific direction with a line connecting the plurality of candidate image portions as a base in the captured image (corresponding to a roadside range delimited by continuous roadside objects in real space). The object is recognized based on the area excluding. Accordingly, it is possible to efficiently recognize an object existing on the road by excluding the image area on the roadside without performing a heavy calculation process such as calculation of a movement vector.
また、前記対象物認識部は、前記複数の候補画像部分を繋ぐ線として、前記複数の候補画像部分の前記特定方向の下端部を繋ぐ線を用いることを特徴とする。 The object recognition unit may use a line connecting lower end portions in the specific direction of the plurality of candidate image portions as a line connecting the plurality of candidate image portions.
この構成によれば、前記複数の候補画像部分の下端部(実空間における接地部に相当する)を繋ぐ線を用いることによって、道路脇に相当する画像範囲をより精度良く除外することができる。 According to this configuration, the image range corresponding to the roadside can be more accurately excluded by using the line connecting the lower end portions (corresponding to the ground contact portion in the real space) of the plurality of candidate image portions.
また、前記カメラは車両に搭載されて該車両の前方を撮像し、
前記一定方向は前記車両の進行方向であることを特徴とする。
Further, the camera is mounted on a vehicle and images the front of the vehicle,
The certain direction is a traveling direction of the vehicle.
この構成によれば、車両の進行方向は道路の延伸方向であると推定できるため、道路の延伸方向に配列された連続路側物の画像部分を、他の画像部分から区別して抽出することができる。 According to this configuration, since the traveling direction of the vehicle can be estimated to be the road extending direction, the image portion of the continuous roadside object arranged in the road extending direction can be extracted separately from the other image portions. .
次に、本発明の車両は、
周辺を撮像するカメラと、
前記カメラによる撮像画像から、実空間における鉛直方向に相当する特定方向について所定長以上の長さを有し、且つ一定方向に連続した複数の候補画像部分を抽出する候補画像部分抽出部と、
前記撮像画像において、前記複数の候補画像部分のうち、画像上で最も左にある候補画像部分の位置と最も右にある候補画像部分の位置とを左右端部とした前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識部と
を備えたことを特徴とする。
Next, the vehicle of the present invention is
A camera that captures the surroundings,
A candidate image part extraction unit that extracts a plurality of candidate image parts having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by the camera; and
In the captured image, among the plurality of candidate image portions, the plurality of candidate image portions having left and right end positions as a leftmost candidate image portion position and a rightmost candidate image portion position. An object recognizing unit for recognizing an object based on an area excluding a range extending in the specific direction with a connecting line as a base is provided.
かかる本発明によれば、上記対象物認識装置と同様に、前記対象物認識部は、前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲(実空間において連続路側物により区切られる道路脇の範囲に対応する)を除外した領域に基づいて、対象物を認識する。これにより、移動ベクトルの算出等の負荷が高い演算処理を行うことなく、道路脇の画像範囲を除外して、道路に存在する対象物を効率良く認識することができる。 According to the present invention, similarly to the target object recognition apparatus, the target object recognition unit has a range (in real space) that extends in the specific direction with a line connecting the plurality of candidate image parts as a base in the captured image. The object is recognized based on the area excluding the area on the side of the road separated by the continuous roadside object. Thus, it is possible to efficiently recognize an object existing on the road by excluding the image area on the side of the road without performing a calculation process such as calculation of a movement vector.
次に、本発明の対象物認識方法は、
カメラによる撮像画像から、実空間における鉛直方向に相当する特定方向について所定長以上の長さを有し、且つ一定方向に連続した複数の候補画像部分を抽出する候補画像抽出工程と、
前記撮像画像において、前記複数の候補画像部分のうち、画像上で最も左にある候補画像部分の位置と最も右にある候補画像部分の位置とを左右端部とした前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識工程と
を含むことを特徴とする。
Next, the object recognition method of the present invention includes:
A candidate image extraction step of extracting a plurality of candidate image portions having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by a camera; and
In the captured image, among the plurality of candidate image portions, the plurality of candidate image portions having left and right end positions as a leftmost candidate image portion position and a rightmost candidate image portion position. And an object recognition step of recognizing an object based on a region excluding a range extending in the specific direction with a connecting line as a base.
かかる本発明によれば、前記候補画像工程によって抽出される複数の候補画像部分は、実空間において鉛直方向にある程度の長さを有して、一定方向に連続して配置されている物体の画像部分であるから、道路脇に設けられた連続路側物(車線の境界に設けられたポール等)の画像部分である可能性が高い。そして、道路に存在する物体(道路に敷設されたレーンマーク、他車両、歩行者等)を認識対象とする場合、道路外の範囲については認識処理を行う必要がない。 According to the present invention, the plurality of candidate image portions extracted by the candidate image step have a certain length in the vertical direction in the real space, and are images of objects continuously arranged in a certain direction. Since it is a portion, there is a high possibility that it is an image portion of a continuous roadside object (such as a pole provided at the boundary of a lane) provided on the side of the road. When objects existing on the road (lane marks laid on the road, other vehicles, pedestrians, and the like) are to be recognized, it is not necessary to perform recognition processing for a range outside the road.
そこで、前記対象物認識工程により、前記撮像画像において、前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲(実空間において連続路側物により区切られる道路脇の範囲に対応する)を除外した領域に基づいて、対象物を認識する。これにより、移動ベクトルの算出等の負荷が重い演算処理を行うことなく、道路脇の画像範囲を除外して、道路に存在する対象物を効率良く認識することができる。 Therefore, in the captured image, in the captured image, a range extending in the specific direction with a line connecting the plurality of candidate image portions as a base (corresponding to a roadside range delimited by continuous roadside objects in real space). The object is recognized based on the area excluding. Accordingly, it is possible to efficiently recognize an object existing on the road by excluding the image area on the roadside without performing a heavy calculation process such as calculation of a movement vector.
本発明の対象物認識装置の実施形態について、図1〜図4を参照して説明する。 An embodiment of an object recognition device of the present invention will be described with reference to FIGS.
図1を参照して、対象物認識装置10は、カメラ2(カラーカメラ)、スピーカ5、表示器6、及び操舵機構7を備えた車両1(本発明の車両に相当する)に搭載されている。 Referring to FIG. 1, an object recognition device 10 is mounted on a vehicle 1 (corresponding to a vehicle of the present invention) including a camera 2 (color camera), a speaker 5, a display 6, and a steering mechanism 7. Yes.
対象物認識装置10は、図示しないCPU、メモリ、各種インターフェース回路等により構成された電子ユニットであり、メモリに保持された対象物認識及び操舵制御用のプログラムをCPUで実行することにより、撮像画像取得部11、エッジ画像生成部12、候補画像部分抽出部13、対象物認識部14、及び操舵制御部15として機能する。また、対象物認識装置10により、本発明の対象物認識方法が実施される。 The object recognition apparatus 10 is an electronic unit configured by a CPU, a memory, various interface circuits, and the like (not shown), and a captured image is obtained by executing a program for object recognition and steering control held in the memory by the CPU. It functions as an acquisition unit 11, an edge image generation unit 12, a candidate image part extraction unit 13, an object recognition unit 14, and a steering control unit 15. Further, the object recognition method of the present invention is implemented by the object recognition apparatus 10.
以下、図2に示したフローチャートに従って、対象物認識装置10により、道路上に存在する対象物(レーンマーク、他車両等)を認識する処理について説明する。対象物認識装置10は、所定の制御周期毎に図2に示したフローチャートによる処理を実行して、車両1が走行している道路上に存在する対象物を認識する。 Hereinafter, processing for recognizing an object (lane mark, other vehicle, etc.) existing on the road by the object recognition device 10 will be described according to the flowchart shown in FIG. The target object recognition apparatus 10 performs the process according to the flowchart shown in FIG. 2 at every predetermined control period, and recognizes the target object existing on the road on which the vehicle 1 is traveling.
図2のSTEP1は撮像画像取得部11による処理である。撮像画像取得部11は、カメラ2から出力される車両1の周囲(前方)の映像信号を入力して、この映像信号のカラー成分(R値,G値,B値)をデモザイキングし、各画素のデータとしてR値,G値,B値を有するカラーの撮像画像21を取得する。そして、この車両1の前方の撮像画像21のデータを画像メモリ20に保持する。 STEP 1 in FIG. 2 is processing by the captured image acquisition unit 11. The captured image acquisition unit 11 inputs a video signal around the vehicle 1 output from the camera 2 (front), and demosaices the color components (R value, G value, B value) of the video signal. A color captured image 21 having R value, G value, and B value as pixel data is acquired. Then, data of the captured image 21 in front of the vehicle 1 is held in the image memory 20.
続くSTEP2はエッジ画像生成部12による処理である。エッジ画像生成部12は、撮像画像21の各画素のカラー成分を輝度に変換する処理を行って、グレースケール画像(多値画像)を生成する。そして、エッジ画像生成部12は、グレースケール画像からエッジ点(周囲部の画素(画像部分)との輝度差(輝度の変化量)が所定値以上である画素。輝度が暗から明に変化する正のエッジ点、及び輝度が明から暗に変化する負のエッジ点を含む)を抽出して、エッジ画像22(図1参照)を生成する。 The subsequent STEP 2 is processing by the edge image generation unit 12. The edge image generation unit 12 performs a process of converting the color component of each pixel of the captured image 21 into luminance, and generates a grayscale image (multi-valued image). Then, the edge image generation unit 12 is a pixel in which the luminance difference (luminance change amount) from the edge point (the surrounding pixel (image portion)) is a predetermined value or more from the grayscale image. The luminance changes from dark to bright. Edge image 22 (see FIG. 1) is generated by extracting positive edge points and negative edge points whose luminance changes from light to dark.
なお、カメラ2がモノクロカメラであるときには、各画素の輝度からグレースケールの撮像画像が得られるで、上述したカラーの撮像画像からグレースケール画像を生成する処理は不要である。 Note that when the camera 2 is a monochrome camera, a grayscale captured image is obtained from the luminance of each pixel, and thus the above-described processing for generating a grayscale image from a color captured image is not necessary.
ここで、図3(a)に示したIm1は撮像画像21から生成されたグレースケール画像の例であり、車両1(自車両)が走行している道路30に敷設された右端の連続線レーンマークの画像部分31a、左端の連続線レーンマークの画像部分32a、及び中央部の破線レーンマークの画像部分33a〜35aが含まれている。また、Im1には、道路30の脇に沿って設置された連続路側物(車線分離ポール等)の画像部分41a〜43aが含まれている。 Here, Im1 shown in FIG. 3A is an example of a grayscale image generated from the captured image 21, and the rightmost continuous line lane laid on the road 30 on which the vehicle 1 (own vehicle) is traveling. The image portion 31a of the mark, the image portion 32a of the continuous line lane mark at the left end, and the image portions 33a to 35a of the broken line lane mark at the center are included. Also, Im1 includes image portions 41a to 43a of continuous roadside objects (lane separation poles and the like) installed along the side of the road 30.
図3(b)に示したIm2は、グレースケール画像Im1に対してエッジ抽出処理を行うことにより生成されたエッジ画像である。エッジ画像Im2においては、Im1の画像部分31aに対応する画像部分31b、画像部分32aに対応する画像部分32b、画像部分33a〜35aに対応する画像部分33b〜35b、画像部分41a〜43aに対応する画像部分41b〜43bが抽出されている。 Im2 illustrated in FIG. 3B is an edge image generated by performing edge extraction processing on the grayscale image Im1. The edge image Im2 corresponds to an image portion 31b corresponding to the image portion 31a of Im1, an image portion 32b corresponding to the image portion 32a, image portions 33b to 35b corresponding to the image portions 33a to 35a, and image portions 41a to 43a. Image portions 41b to 43b are extracted.
続くSTEP3〜STEP4は、候補画像部分抽出部13による処理である。候補画像部分抽出部13は、エッジ画像Im2に対して、ひとかたまりになっているエッジ点(以下、エッジ部分という)にラベルを付するラべリングと、近接したエッジ部分を同一物体の画像部分であるとして関連付けるクラスタリングを行う。 Subsequent STEP 3 to STEP 4 are processes performed by the candidate image portion extraction unit 13. The candidate image portion extraction unit 13 labels the edge image Im2 with a label for a group of edge points (hereinafter referred to as edge portions) and the adjacent edge portions as image portions of the same object. Perform clustering to associate as there is.
また、候補画像部分抽出部13は、STEP4で、クラスタリングされた画像部分のうち、y方向(実空間における鉛直方向に対応する方向、本発明の特定方向に相当する)に所定長以上の長さを有し、且つ、一定方向(例えば、車両1の進行方向)に並んだ画像部分を、候補画像部分として抽出する。図3(b)の例では、D1方向に並んだ画像部分41b〜43b(連続路側物の画像部分)が、複数の候補画像部分として抽出される。 In STEP 4, the candidate image portion extraction unit 13 has a length equal to or longer than a predetermined length in the y direction (the direction corresponding to the vertical direction in the real space, which corresponds to the specific direction of the present invention) among the clustered image portions. And image portions arranged in a certain direction (for example, the traveling direction of the vehicle 1) are extracted as candidate image portions. In the example of FIG. 3B, image portions 41b to 43b (image portions of continuous roadside objects) arranged in the direction D1 are extracted as a plurality of candidate image portions.
なお、候補画像部分抽出部13による処理工程は、本発明の対象物認識方法における候補画像抽出工程に相当する。 In addition, the process process by the candidate image part extraction part 13 is corresponded to the candidate image extraction process in the target object recognition method of this invention.
続くSTEP5〜STEP7は、対象物認識部14による処理である。なお、対象物認識部14による処理工程は、本発明の対象物認識方法における対象物認識工程に相当する。 Subsequent STEP5 to STEP7 are processes by the object recognition unit 14. In addition, the process process by the target object recognition part 14 is corresponded to the target object recognition process in the target object recognition method of this invention.
対象物認識部14は、STEP5で、図4に示したように、候補画像部分41b〜43bの下端部を繋ぐ線60(最小二乗法等により求めた近似曲線)を求める。そして、線60を底辺としてy方向に延びる範囲65(図4では斜線で示している)を除外して、撮像画像における注目領域を設定する。これにより、連続路側物の画像部分を含む道路脇の画像範囲を除外した注目領域に基づいて、対象物を効率良く認識することを可能としている。 In STEP 5, as shown in FIG. 4, the object recognition unit 14 obtains a line 60 (approximate curve obtained by the least square method or the like) connecting the lower end portions of the candidate image portions 41b to 43b. Then, a region of interest in the captured image is set by excluding a range 65 (indicated by hatching in FIG. 4) extending in the y direction with the line 60 as a base. Thereby, it is possible to efficiently recognize the object based on the attention area excluding the roadside image range including the image portion of the continuous roadside object.
続くSTEP6で、対象物認識部14は、注目領域からレーンマークの画像部分の候補(図4では、31b,32b,33b〜35b)を抽出し、各レーンマークの画像部分の候補に対して、カメラ座標から実空間座標への逆射影変換を行って、各レーンマークの画像部分の候補に対応する実空間での位置を算出する。次のSTEP7で、対象物認識部14は、レーンマークの画像部分の候補に対応する実空間での位置に基づいて、車線の境界を認識する。 In subsequent STEP 6, the object recognition unit 14 extracts lane mark image portion candidates (31b, 32b, 33b to 35b in FIG. 4) from the region of interest, and for each lane mark image portion candidate, The back projection transformation from the camera coordinates to the real space coordinates is performed, and the position in the real space corresponding to the candidate image portion of each lane mark is calculated. In the next STEP 7, the object recognition unit 14 recognizes the boundary of the lane based on the position in the real space corresponding to the candidate lane mark image portion.
STEP8は操舵制御部15による処理である。操舵制御部15は、車両1が車線の中心位置付近を走行するように、又は車線からの逸脱を抑制するように操舵機構7を作動させて、車両1の運転者の運転操作をアシストする。この場合、操舵制御部15は、必要に応じて、スピーカ5からの音出力及び表示器6への表示により、運転者に対する注意喚起を行う。 STEP 8 is processing by the steering control unit 15. The steering control unit 15 assists the driving operation of the driver of the vehicle 1 by operating the steering mechanism 7 so that the vehicle 1 travels near the center position of the lane or suppresses deviation from the lane. In this case, the steering control unit 15 alerts the driver by sound output from the speaker 5 and display on the display 6 as necessary.
[変形形態]
対象物認識部14による認識対象は、道路に敷設されたレーンマークの他、先行車等の他車両や、道路標識等の道路上に存在する物体であってもよい。この場合にも、道路脇の画像領域を除外して、道路上に存在する物体を効率良く認識することができる。
[Deformation]
In addition to the lane mark laid on the road, the object to be recognized by the object recognition unit 14 may be another vehicle such as a preceding vehicle or an object existing on the road such as a road sign. Also in this case, an object existing on the road can be recognized efficiently by excluding the image area on the side of the road.
上記実施形態では、図4に示したように、候補画像部分41b〜43bの下端部を接続する線を用いて除外範囲65を決定したが、候補画像部分41b〜43bの下端部以外(上端部、中間部等)を繋ぐ線を用いてもよい。 In the above embodiment, as illustrated in FIG. 4, the exclusion range 65 is determined using a line connecting the lower end portions of the candidate image portions 41 b to 43 b, but other than the lower end portions (upper end portions) of the candidate image portions 41 b to 43 b. , Intermediate portions, etc.) may be used.
1…車両(自車両)、2…カメラ、7…操舵機構、10…対象物認識装置、11…撮像画像取得部、12…エッジ画像生成部、13…候補画像部分抽出部、14…対象物認識部、15…操舵制御部、20…画像メモリ、21…撮像画像、22…エッジ画像。 DESCRIPTION OF SYMBOLS 1 ... Vehicle (own vehicle), 2 ... Camera, 7 ... Steering mechanism, 10 ... Object recognition apparatus, 11 ... Captured image acquisition part, 12 ... Edge image generation part, 13 ... Candidate image part extraction part, 14 ... Object Recognizing unit, 15 ... steering control unit, 20 ... image memory, 21 ... captured image, 22 ... edge image.
Claims (5)
前記撮像画像において、前記複数の候補画像部分のうち、画像上で最も左にある候補画像部分の位置と最も右にある候補画像部分の位置とを左右端部とした前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識部とを
備えたことを特徴とする対象物認識装置。 A candidate image part extracting unit that extracts a plurality of candidate image parts having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by a camera; and
In the captured image, among the plurality of candidate image portions, the plurality of candidate image portions having left and right end positions as a leftmost candidate image portion position and a rightmost candidate image portion position. An object recognition device comprising: an object recognition unit for recognizing an object based on an area excluding a range extending in the specific direction with a connecting line as a base.
前記対象物認識部は、前記複数の候補画像部分を繋ぐ線として、前記複数の候補画像部分の前記特定方向の下端部を繋ぐ線を用いることを特徴とする対象物認識装置。 The object recognition apparatus according to claim 1,
The target object recognition unit uses a line connecting lower end portions in the specific direction of the plurality of candidate image portions as a line connecting the plurality of candidate image portions.
前記カメラは車両に搭載されて該車両の前方を撮像し、
前記一定方向は前記車両の進行方向であることを特徴とする対象物認識装置。 In the object recognition device according to claim 1 or 2,
The camera is mounted on a vehicle and images the front of the vehicle,
2. The object recognition apparatus according to claim 1, wherein the predetermined direction is a traveling direction of the vehicle.
前記カメラによる撮像画像から、実空間における鉛直方向に相当する特定方向について所定長以上の長さを有し、且つ一定方向に連続した複数の候補画像部分を抽出する候補画像部分抽出部と、
前記撮像画像において、前記複数の候補画像部分のうち、画像上で最も左にある候補画像部分の位置と最も右にある候補画像部分の位置とを左右端部とした前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識部と
を備えたことを特徴とする車両。 A camera that captures the surroundings,
A candidate image part extraction unit that extracts a plurality of candidate image parts having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by the camera; and
In the captured image, among the plurality of candidate image portions, the plurality of candidate image portions having left and right end positions as a leftmost candidate image portion position and a rightmost candidate image portion position. A vehicle comprising: an object recognition unit that recognizes an object based on an area excluding a range extending in the specific direction with a connecting line as a base.
前記撮像画像において、前記複数の候補画像部分のうち、画像上で最も左にある候補画像部分の位置と最も右にある候補画像部分の位置とを左右端部とした前記複数の候補画像部分を繋ぐ線を底辺として前記特定方向に延びる範囲を除外した領域に基づいて、対象物を認識する対象物認識工程と
を含むことを特徴とする対象物認識方法。 A candidate image extraction step of extracting a plurality of candidate image portions having a length equal to or longer than a predetermined length in a specific direction corresponding to a vertical direction in real space from a captured image by a camera; and
In the captured image, among the plurality of candidate image portions, the plurality of candidate image portions having left and right end positions as a leftmost candidate image portion position and a rightmost candidate image portion position. And a target object recognition step for recognizing a target object based on a region excluding a range extending in the specific direction with a connecting line as a base.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014083220A JP6270604B2 (en) | 2014-04-14 | 2014-04-14 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014083220A JP6270604B2 (en) | 2014-04-14 | 2014-04-14 | Object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015203993A JP2015203993A (en) | 2015-11-16 |
JP6270604B2 true JP6270604B2 (en) | 2018-01-31 |
Family
ID=54597415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014083220A Active JP6270604B2 (en) | 2014-04-14 | 2014-04-14 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6270604B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5012522B2 (en) * | 2008-01-15 | 2012-08-29 | 株式会社豊田中央研究所 | Roadside boundary surface detection device |
JP4533936B2 (en) * | 2008-02-01 | 2010-09-01 | 日立オートモティブシステムズ株式会社 | Image processing apparatus and vehicle detection apparatus including the same |
JP5434277B2 (en) * | 2009-05-29 | 2014-03-05 | 日産自動車株式会社 | Driving support device and driving support method |
-
2014
- 2014-04-14 JP JP2014083220A patent/JP6270604B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015203993A (en) | 2015-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
US9183447B1 (en) | Object detection using candidate object alignment | |
KR101605514B1 (en) | Apparatus and method for recognizing lane | |
US10943141B2 (en) | Object detection device and object detection method | |
JP6141787B2 (en) | Lane mark recognition device | |
JP5904925B2 (en) | Vehicle periphery monitoring device | |
JP6202635B2 (en) | Method and system for lane relative position estimation for driver assistance system | |
JP6141788B2 (en) | Lane mark recognition device | |
US20170151943A1 (en) | Method, apparatus, and computer program product for obtaining object | |
JP2012243051A (en) | Environment recognition device and environment recognition method | |
US9558410B2 (en) | Road environment recognizing apparatus | |
JP6515704B2 (en) | Lane detection device and lane detection method | |
JP6230498B2 (en) | Object recognition device | |
US9824449B2 (en) | Object recognition and pedestrian alert apparatus for a vehicle | |
JP6431299B2 (en) | Vehicle periphery monitoring device | |
JP5345999B2 (en) | Lane mark recognition device | |
JP6132807B2 (en) | Lane mark recognition device | |
JP6270604B2 (en) | Object recognition device | |
US9030560B2 (en) | Apparatus for monitoring surroundings of a vehicle | |
JP2012160116A (en) | Object identification device | |
JP6173962B2 (en) | Lane mark recognition device | |
KR102109114B1 (en) | Apparatus and Method for Recognizing a Pedestrian | |
KR20140076043A (en) | Device and method for detecting pedestrian candidate | |
JP5289509B2 (en) | Lane mark recognition device | |
JP6134693B2 (en) | Object detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170228 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170919 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6270604 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |