JP5300309B2 - Obstacle recognition device - Google Patents

Obstacle recognition device Download PDF

Info

Publication number
JP5300309B2
JP5300309B2 JP2008113923A JP2008113923A JP5300309B2 JP 5300309 B2 JP5300309 B2 JP 5300309B2 JP 2008113923 A JP2008113923 A JP 2008113923A JP 2008113923 A JP2008113923 A JP 2008113923A JP 5300309 B2 JP5300309 B2 JP 5300309B2
Authority
JP
Japan
Prior art keywords
image
vehicle
obstacle
images
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008113923A
Other languages
Japanese (ja)
Other versions
JP2009262736A (en
Inventor
敏夫 伊東
和義 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2008113923A priority Critical patent/JP5300309B2/en
Priority to PCT/JP2008/073328 priority patent/WO2009130823A1/en
Publication of JP2009262736A publication Critical patent/JP2009262736A/en
Application granted granted Critical
Publication of JP5300309B2 publication Critical patent/JP5300309B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

An obstacle recognition device correctly recognizes an obstacle in the rear of a driver's own vehicle by simple processing of photographed images when another vehicle exists in front or rear of the driver's own vehicle or when a front image cannot be obtained. Based on the images photographed by a photographing means (3) of the driver's own vehicle (1) being driven, a generation means of the obstacle recognition device (2) superimposes portions including no vehicle in a plurality of frames of front images or rear images to generate an image including no vehicle, and a recognition means recognizes the obstacle included in the rear images, from image portions where the images including no vehicle and rear images identified by an identification means are different from each other.

Description

この発明は、撮影画像を処理して自車の後方の障害物を認識する障害物認識装置に関し、詳しくは、自車の前後に障害物としての車両が存在するときの認識の改良に関する。   The present invention relates to an obstacle recognition device that recognizes an obstacle behind a host vehicle by processing a captured image, and more particularly, to an improvement in recognition when a vehicle as an obstacle exists before and after the host vehicle.

従来、車両のプリクラッシュセーフティ(被害軽減や衝突回避等)を実現する場合、走行中の自車の前方や後方の障害物をどのようにして認識するかが重要であり、とくに、後方から接近する車両のような障害物に対する的確な認識が望まれている。   Conventionally, when realizing pre-crash safety (reduction of damage, collision avoidance, etc.) of a vehicle, it is important how to recognize obstacles ahead and behind the traveling vehicle, especially approaching from behind. Accurate recognition of obstacles such as vehicles is desired.

そして、前記障害物を認識する装置として、従来、自車に搭載したカメラにより自車の前方又は後方を一定時間毎に撮影し、時間が前後する2枚の撮影画像について射影変換を施した後に差分をとり、その差分から時間ずれが生じた特徴点を検出して動きベクトルのオプティカルフローを検出し、この検出に基づいて自車の前方や後方の車両等の障害物(路面垂直物)を認識する装置が提案されている(例えば、特許文献1参照)。
特許第3463858号公報(例えば、請求項1、段落[0014]、[0041]−[0045]、[0118]、図1〜図3)
And as an apparatus for recognizing the obstacle, conventionally, after the front or rear of the own vehicle is photographed at regular intervals by a camera mounted on the own vehicle, projective transformation is performed on two photographed images whose times are before and after. The difference is taken, the feature point where the time lag has occurred is detected from the difference, and the optical flow of the motion vector is detected. Based on this detection, the obstacle (vertical road surface object) such as the vehicle in front of or behind the vehicle is detected. A recognition device has been proposed (see, for example, Patent Document 1).
Japanese Patent No. 3463858 (for example, claim 1, paragraphs [0014], [0041]-[0045], [0118], FIGS. 1 to 3)

前記特許文献1に記載の従来装置の場合、時間が前後する2枚の撮影画像の射影変換後の差分画像から前記動きベクトルのオプティカルフローを検出することで、後方から接近する車両のような路上の障害物の検出を可能にしているが、この場合、撮影画像の障害物と自車との距離や形状の時間変化伴う僅かな差から障害物を認識する構成であるため、前記オプティカルフローを検出する複雑な画像処理が必要であるだけでなく、障害物の認識が容易でなく、状況によっては障害物を認識できないおそれがあり、障害物を安定して確実に認識することができない問題がある。   In the case of the conventional device described in Patent Document 1, a road such as a vehicle approaching from the rear is detected by detecting the optical flow of the motion vector from the difference image after projective transformation of two captured images whose time is around. However, in this case, since the obstacle is recognized from a slight difference with time and change in the distance and shape of the captured image between the obstacle and the own vehicle, the optical flow is reduced. In addition to the need for complex image processing to detect, there is a problem that obstacles are not easily recognized, and obstacles may not be recognized depending on the situation, and obstacles cannot be recognized stably and reliably. is there.

そこで、本願の出願人は、走行する自車の複数方向からみた路面撮影が可能な撮影手段と、略同じ路面領域についての前記撮影手段の異なる複数方向からの撮影画像を取得する画像取得手段と、前記画像取得手段が取得した複数方向からの撮影画像に含まれた所定の監視範囲を抽出して同定する同定手段と、前記同定手段の同定結果により、前記監視範囲の撮影画像間で異なる画像部分を路面に垂直な障害物として認識する認識手段とを備えた障害物認識装置を既に出願している(特願2007−186549号)。   Therefore, the applicant of the present application is a photographing unit capable of photographing a road surface viewed from a plurality of directions of the traveling vehicle, and an image obtaining unit for obtaining photographed images from a plurality of different directions of the photographing unit for substantially the same road surface area. An identification unit that extracts and identifies a predetermined monitoring range included in a captured image from a plurality of directions acquired by the image acquisition unit, and an image that differs between the captured images in the monitoring range depending on the identification result of the identification unit An obstacle recognition apparatus having a recognition means for recognizing a portion as an obstacle perpendicular to the road surface has already been filed (Japanese Patent Application No. 2007-186549).

この既出願の障害物認識装置は、例えば時刻tmに撮影手段が撮影した自車前方の一定の路面領域の撮影画像(前方画像)と、自車がその路面領域を通過して時刻tnに撮影手段が撮影した自車後方の略同じ路面領域の撮影画像(後方画像)とにつき、同定手段により、略同じ監視範囲を抽出してその画像の異同(濃淡の差)から路上の障害物を同定する。   The obstacle recognition device of the already-applied application is, for example, a photographed image (front image) of a certain road surface area in front of the own vehicle photographed by the photographing means at time tm, and photographed at time tn when the own vehicle passes through the road surface region. For the captured image (rear image) of the same road surface area behind the host vehicle taken by the means, the identification means extracts almost the same monitoring range and identifies obstacles on the road from the difference in the images (difference in shade) To do.

すなわち、自車前方に障害物があれば、前方画像の監視範囲には障害物が存在するが、後方画像監視範囲には障害物が存在しない状態になる。逆に、自車後方に障害物があれば、前方画像の監視範囲には障害物が存在しないが、後方画像の監視範囲には障害物が存在する状態になる。そして、自車の前方または後方に障害物が存在するときは、前記前方画像と前記後方画像のいずれか一方の監視範囲にのみ障害物が含まれ、両画像の監視範囲の内容が大きく異なることから、前記既出願の障害物認識装置は、オプティカルフローを検出する複雑な画像処理等を行うことなく、簡単な画像の濃淡(明暗)の差から自車の前方または後方の障害物を容易に安定して確実に認識することができる。   That is, if there is an obstacle ahead of the host vehicle, there is an obstacle in the monitoring range of the front image, but there is no obstacle in the rear image monitoring range. On the contrary, if there is an obstacle behind the host vehicle, there is no obstacle in the monitoring range of the front image, but there is an obstacle in the monitoring range of the rear image. And when an obstacle exists ahead or behind the host vehicle, the obstacle is included only in the monitoring range of either the front image or the rear image, and the contents of the monitoring range of both images are greatly different. Thus, the previously-obtained obstacle recognition device can easily detect obstacles in front of or behind the host vehicle from the difference in lightness and darkness of a simple image without performing complicated image processing or the like for detecting an optical flow. It can be recognized stably and reliably.

しかしながら、前記既出願の障害物認識装置の場合、自車の前後に車両が存在して前方画像と後方画像の車両が重なると、自車の後方に障害物としての車両が存在するのか否かが分からない。なお、自車の前方についても同様である。   However, in the case of the obstacle recognition device of the already-filed application, if a vehicle exists before and after the own vehicle and the vehicle in the front image and the rear image overlap, whether or not the vehicle as an obstacle exists behind the own vehicle. I do n’t know. The same applies to the front of the vehicle.

そのため、自車の前後に障害物としての車両が存在するときには、とくに後方から接近する車両のような自車の後方の障害物の的確な認識が困難になる。   Therefore, when vehicles as obstacles exist before and after the own vehicle, it is difficult to accurately recognize the obstacles behind the own vehicle such as a vehicle approaching from behind.

また、何らかの原因で前方画像が得られなくなったときにも、自車の後方の障害物の的確な認識が困難になる。 Further, even when the front image is Tsu kuna such obtained for some reason, accurate recognition of the vehicle behind the obstacle becomes difficult.

本発明は、撮影画像の簡単な処理により、自車の前後に車両が存在する場合や前方画像が得られなくなった場合に自車の後方の障害物を的確に認識できるようにすることを目的とする。   An object of the present invention is to make it possible to accurately recognize an obstacle behind a host vehicle when a vehicle is present before and after the host vehicle or when a front image cannot be obtained by simple processing of captured images. And

上記した目的を達成するために、本発明の障害物認識装置は、走行する自車の前後方向の路面撮影が可能な撮影手段と、略同じ路面領域について前記撮影手段が撮影した前方画像及び後方画像を取得する画像取得手段と、前記画像取得手段により取得された前方画像の車両が存在しない領域を複数フレームにわたって重ね合わせ、車両が存在しない前方画像を生成する生成手段と、前記生成手段により生成された前方画像の路面領域内の後方画像を同定する同定手段と、前記生成手段により生成された前方画像と前記同定手段により同定された後方画像との異なる画像部分から、後方画像の車両を認識する認識手段とを備えたことを特徴としている(請求項1)。 In order to achieve the above-described object, the obstacle recognition device according to the present invention includes a photographing unit capable of photographing a road surface in the front-rear direction of a traveling vehicle, and a front image and a rear side photographed by the photographing unit over substantially the same road surface area. an image obtaining unit for obtaining an image, an area where the vehicle is not present in the front image image acquired by the image acquisition unit superposing over a plurality of frames, and generating means for generating a front image of the vehicle is not present, by the generation unit and identifying means for identifying a rear image of the road surface in the area of the generated front image, different image portions of the rear image identified by the forward image and the identification means generated by said generating means, a vehicle rear image And recognizing means for recognizing (claim 1).

また、本願の障害物認識装置は、前記画像取得手段の取得後の撮影画像に対して射影変換を行う射影変換手段をさらに備えたことを特徴としている(請求項2)。   The obstacle recognition apparatus of the present application further includes a projective conversion unit that performs a projective conversion on the captured image obtained by the image acquisition unit (claim 2).

請求項1の発明によれば、自車の前後に車両が存在していても、撮影手段が前方画像及び後方画像を撮影するときには、生成手段により、画像取得手段が取得した複数フレームの前方画像の車両が存在しない部分を重ね合わせて車両の存在しない前方画像が生成される。 According to the first aspect of the present invention, even when a vehicle is present before and after the host vehicle, when the imaging unit captures the front image and the rear image, the generation unit acquires the front images of a plurality of frames acquired by the image acquisition unit. The front image without the vehicle is generated by superimposing the portions where the vehicle does not exist.

また、同定手段により、画像取得手段が取得した後方画像であって、生成手段による前記車両の存在しない前方画像の路面領域内の画像が同定される。 Further, the identification unit identifies a rear image acquired by the image acquisition unit, and an image in the road surface area of the front image where the vehicle does not exist by the generation unit .

そして、認識手段により、生成手段による前記車両の存在しない前方画像と前記同定手段が同定した後方画像との異なる画像部分から後方画像の車両が容易に認識される。 Then, the recognition unit, a vehicle rear image is easily recognized by the generation means from the different image portions of the rear image existing front image and the identifying means does not have identified the vehicle.

したがって、自車の前後に車両が存在する場合に、前方画像及び後方画像を用いた簡単な画像処理により後方から接近する車両の的確な認識が行える。 Therefore, when there are vehicles before and after the host vehicle, it is possible to accurately recognize a vehicle approaching from behind by simple image processing using the front image and the rear image.

一方、何らかの原因で撮影手段が前方画像を撮影できなくなると、生成手段により、画像取得手段が取得した複数フレームの後方画像の車両が存在しない部分を重ね合わせて車両の存在しない画像が生成される。   On the other hand, when the photographing unit cannot capture the front image for some reason, the generation unit generates an image without the vehicle by superimposing the portions of the rear images of the plurality of frames acquired by the image acquisition unit without the vehicle. .

また、同定手段により、前記車両の存在しない画像の路面領域内に車両が存在する後方画像が同定される。   Moreover, the rear image in which the vehicle exists in the road surface area of the image in which the vehicle does not exist is identified by the identification unit.

そして、認識手段により、前記車両の存在しない画像と前記同定手段が同定した後方画像との異なる画像部分から後方画像の障害物(車両)が容易に認識される。   Then, the obstacle (vehicle) in the rear image is easily recognized by the recognizing unit from different image portions of the image in which the vehicle does not exist and the rear image identified by the identifying unit.

したがって、何らかの原因で前方画像が得られなくなった場合には、後方画像を用いた簡単な画像処理により自車の後方の障害物の的確な認識が行える。   Therefore, when the front image cannot be obtained for some reason, the obstacle behind the host vehicle can be accurately recognized by simple image processing using the rear image.

請求項2の発明によれば、射影変換手段の射影変換により、前方画像と後方画像とにつき、それぞれの撮影範囲を俯瞰(鳥瞰)した射影変換画像が得られる。そのため、同定手段の画像の同定及び認識手段の認識が射影変換画像を用いて一層容易に行える利点がある。   According to the second aspect of the present invention, a projective conversion image obtained by bird's-eye view (bird's-eye view) of each photographing range is obtained for the front image and the rear image by the projective conversion of the projective conversion means. Therefore, there is an advantage that the identification means can identify the image and recognize the recognition means more easily using the projective transformation image.

つぎに、本発明をより詳細に説明するため、一実施形態について、図1〜図12を参照して詳述する。   Next, in order to describe the present invention in more detail, an embodiment will be described in detail with reference to FIGS.

図1は自車1に搭載された障害物認識装置2のブロック構成を示し、図2は障害物認識装置2の撮像手段の構成例を示す。図3は障害物認識装置2の動作説明用のフローチャートである。図4、図5及び図7〜図12は障害物認識装置2の処理を説明する画像例を示し、図6は射影変換の説明図である。   FIG. 1 shows a block configuration of an obstacle recognition device 2 mounted on the host vehicle 1, and FIG. 2 shows a configuration example of an imaging means of the obstacle recognition device 2. FIG. 3 is a flowchart for explaining the operation of the obstacle recognition apparatus 2. 4, 5, and 7 to 12 show examples of images for explaining the processing of the obstacle recognition apparatus 2, and FIG. 6 is an explanatory diagram of projective transformation.

図1に示すように、自車1に搭載された障害物認識装置2は、撮影手段3と、その撮影画像を処理して同定するマイクロコンピュータ構成の画像処理手段4と、撮影画像等を書き換え自在に蓄積するデータ蓄積手段5によって構成される。   As shown in FIG. 1, the obstacle recognition device 2 mounted on the host vehicle 1 rewrites a photographing means 3, an image processing means 4 having a microcomputer configuration for processing and identifying the photographed image, a photographed image and the like. It is comprised by the data storage means 5 which accumulate | stores freely.

撮影手段3は、走行する自車1の前後の方向からみた路面撮影が可能なモノクロ或いはカラーの単眼カメラからなり、撮影した時々刻々のフレーム画像を出力する。なお、撮影手段3は具体的には、例えば図2に示すように、自車1の前方監視用のインナミラー前方の単眼カメラ3aと、後方監視用のバックドア上方の単眼カメラ3bとからなる。そして、両単眼カメラ3a、3bは同じものであり、例えば動画像を1/30秒間隔で静止画に切り分けて出力する。また、単眼カメラ3a、3bの設置角度は、射影変換を行ったときに車両脇の白線が多く使えるように、無限遠点を画像上部に含む角度に設定される。   The photographing means 3 is composed of a monochrome or color monocular camera capable of photographing a road surface as viewed from the front and rear directions of the traveling vehicle 1 and outputs a frame image taken every moment. Specifically, as shown in FIG. 2, for example, the photographing unit 3 includes a monocular camera 3 a in front of the inner mirror for monitoring the front of the vehicle 1 and a monocular camera 3 b above the back door for rear monitoring. . The monocular cameras 3a and 3b are the same, and for example, a moving image is divided into still images at 1/30 second intervals and output. In addition, the installation angle of the monocular cameras 3a and 3b is set to an angle including an infinite point at the top of the image so that many white lines on the side of the vehicle can be used when projective transformation is performed.

つぎに、画像処理手段4は本発明の画像取得手段、射影変換手段、生成手段、認識手段を形成するとともに、後述する微分2値化手段、膨張手段、演算手段、収縮手段を形成し、自車1の走行中に図3のステップS1〜S10の認識処理プログラムをくり返し実行する。   Next, the image processing means 4 forms the image acquisition means, projective transformation means, generation means, and recognition means of the present invention, and forms differential binarization means, expansion means, calculation means, and contraction means, which will be described later. While the vehicle 1 is traveling, the recognition processing program in steps S1 to S10 in FIG. 3 is repeatedly executed.

前記画像取得手段は、図3のステップS1において、単眼カメラ3aが撮影した図4の自車1の前方の路面領域の撮影画像(以下、前方画像という)F1を取り込んでデータ蓄積手段5に保持し、車速センサ(図示せず)の自車速等から決定した微小時間Δtだけ遅れた時刻tbに単眼カメラ3bが撮影した図5の自車1の後方の略同じ路面領域の撮影画像(以下、後方画像という)B1を取り込んでデータ蓄積手段5に保持する。なお、自車1の前後に路面に垂直な障害物としての車両(前方の車両α、後方の車両β)が存在し、前方画像F1は車両αを含み、後方画像B1は車両βを含む。   The image acquisition means captures a captured image (hereinafter referred to as a front image) F1 of the road surface area in front of the host vehicle 1 of FIG. 4 captured by the monocular camera 3a in step S1 of FIG. Then, a captured image of the substantially same road surface area behind the host vehicle 1 of FIG. 5 taken by the monocular camera 3b at a time tb delayed by a minute time Δt determined from the host vehicle speed or the like of a vehicle speed sensor (not shown) B1) (referred to as a rear image) is captured and held in the data storage means 5. In addition, the vehicle (front vehicle (alpha) and back vehicle (beta)) as an obstruction perpendicular | vertical to a road surface exists before and behind the own vehicle 1, the front image F1 contains the vehicle (alpha), and the back image B1 contains the vehicle (beta).

前記射影変換手段は、本実施形態の場合、図3のステップS2により前方画像F1及び後方画像B1に射影変換を行う。   In the case of this embodiment, the projective transformation means performs projective transformation on the front image F1 and the rear image B1 in step S2 of FIG.

この射影変換は図6に示すように、ある平面L上の点 P(x、 y)を投影中心 Oに関して、他の平面 L0上の点 P0(u、v)として投影する周知の座標変換であり、単眼カメラ3a、3bの撮影路面が平面と仮定できる道路環境にあっては、任意の視点からみた画像に射影変換することができる。   As shown in FIG. 6, this projective transformation is a well-known coordinate transformation in which a point P (x, y) on a plane L is projected as a point P0 (u, v) on another plane L0 with respect to the projection center O. Yes, in a road environment where the photographing road surface of the monocular cameras 3a and 3b can be assumed to be a plane, it can be projectively transformed into an image viewed from an arbitrary viewpoint.

そして、前方状況を単眼カメラ3aで撮影した前方画像F1と、後方状況を単眼カメラ3bで撮影した後方画像B1とにつき、道路面を平面と仮定し路面の白線が平行になるように射影変換すると、路面を上方からみた図4の前方画像F2、図5の後方画像B2が得られる。   Then, for the front image F1 obtained by photographing the front situation with the monocular camera 3a and the rear image B1 obtained by photographing the rear situation with the monocular camera 3b, projective transformation is performed so that the road surface is a plane and the white lines of the road surface are parallel. A front image F2 in FIG. 4 and a rear image B2 in FIG. 5 as seen from above are obtained.

なお、前方画像F2は下側が自車1側であり、後方画像B2は上側が自車1側である。また、後述の画像の重ね合わせによって自車1の後方の障害物を認識するため、実際には、前方画像F2、後方画像F3は正規化して重ね合わせが可能なように形成することが望ましい。そのため、(i)単眼カメラ3a、3bにより同じ領域を撮影する。(ii)単眼カメラ3a、3bの角度、高さを用いて道路面は完全な平面であるという仮定のもとに、射影変換によって真上からみた画像を生成する。このとき、ハフ変換を用いて常に車線の両脇の白線を抽出し、平行になる様に角度の調整を行う。(iii)ハフ変換によって得られた白線の直線成分によって前方画像F2と後方画像B2との車線の幅と向きを合わせる。(vi)自車1から移動した距離は車速等から把握できるので、前方画像F2と後方画像B2とについて、テンプレートマッチング等により、走行車線よりやや大きく取った領域の正確な位置合わせを行う。   The lower side of the front image F2 is the own vehicle 1 side, and the upper side of the rear image B2 is the own vehicle 1 side. In addition, in order to recognize an obstacle behind the host vehicle 1 by superimposing images described later, it is actually desirable to normalize the front image F2 and the rear image F3 so that they can be superimposed. Therefore, (i) the same area is imaged by the monocular cameras 3a and 3b. (Ii) An image viewed from directly above is generated by projective transformation on the assumption that the road surface is a perfect plane using the angles and heights of the monocular cameras 3a and 3b. At this time, the white lines on both sides of the lane are always extracted using the Hough transform, and the angle is adjusted so as to be parallel. (Iii) The width and direction of the lanes of the front image F2 and the rear image B2 are matched with the straight line component of the white line obtained by the Hough transform. (Vi) Since the distance moved from the own vehicle 1 can be grasped from the vehicle speed or the like, the front image F2 and the rear image B2 are accurately aligned in an area slightly larger than the traveling lane by template matching or the like.

このようにして得られた前方画像F2と後方画像B2を重ね合わせて濃淡の差分をとると、その差分画像は単眼カメラ3a、3bに近い領域は暗くなり、太陽光等の照明光に対する単眼カメラ3a、3bの向きによっても濃淡が大きく変化する。また、前記濃淡の変化の具合は道路面の材質等によっても異なる。さらに、重ね合わせの僅かな位置ずれによって広範囲の濃淡誤差が生じる。そのため、前記差分画像からは車両等の障害物を認識できない可能性がある。そこで、本実施形態においては、以下に説明する微分2値化手段、膨張手段、演算手段、収縮手段により、画像を微分して2値化した後、画像処理において周知の膨張処理、排他的論理和演算、収縮処理を行って、それらの不都合を解消する。   When the front image F2 and the rear image B2 obtained in this way are overlapped to obtain a difference in density, the difference image is dark in the area close to the monocular cameras 3a and 3b, and a monocular camera for illumination light such as sunlight. The shade varies greatly depending on the direction of 3a and 3b. In addition, the degree of change in the shade varies depending on the material of the road surface. Furthermore, a wide range of shading errors occurs due to a slight misalignment of the overlay. Therefore, there is a possibility that an obstacle such as a vehicle cannot be recognized from the difference image. Therefore, in this embodiment, after the image is differentiated and binarized by differential binarization means, expansion means, calculation means, and contraction means described below, well-known expansion processing and exclusive logic are used in image processing. Perform the sum operation and contraction process to eliminate these disadvantages.

前記微分2値化手段は、画像取得手段が取得した前方画像F1、後方画像B1又はそれらを射影変換した前方画像F2、後方画像B2を微分して2値化する手段であり、射影変換手段を備える本実施形態の場合、図3のステップS3により前方画像F2、後方画像B2を微分処理して濃淡を強調し、その後、所定の閾値で微分エッジを2値化する。なお、前記微分処理においては、路面の細かい凸凹に基づく不要な微分値が生じないように平滑化を施してから前方画像F2、後方画像B2の微分値をとることが好ましい。   The differential binarization means is means for differentiating and binarizing the front image F1, the rear image B1 acquired by the image acquisition means, or the front image F2 and the rear image B2 obtained by projective transformation thereof. In the case of this embodiment provided, the front image F2 and the rear image B2 are differentiated by step S3 in FIG. 3 to emphasize the density, and then the differential edge is binarized with a predetermined threshold. In the differentiation process, it is preferable to obtain the differential values of the front image F2 and the rear image B2 after performing smoothing so that unnecessary differential values based on the unevenness of the road surface are not generated.

前記膨張処理は、前方画像F2、後方画像B2のような画像を微分して2値化した2値化画像に対して、論理「1」の画素が形成する線幅を太くする処理であり、簡単には、処理対象の2値化画像を例えば4画素又は8画素の適当な小領域に分割し、各小領域の各画素の1つでも「1」であればその小領域の全画素を「1」にすることで実現される。   The dilation process is a process of increasing the line width formed by the logic “1” pixels with respect to a binarized image obtained by differentiating and binarizing images such as the front image F2 and the rear image B2. For simplicity, the binarized image to be processed is divided into appropriate small areas of, for example, 4 pixels or 8 pixels. If even one of the pixels in each small area is “1”, all the pixels in the small area are This is realized by setting “1”.

そして、前記微分2値化手段により画像F2、B2それぞれを微分し、2値化した画像に対して前記膨張処理を行うと、図7の前方画像F3、後方画像B3が得られる。   Then, when each of the images F2 and B2 is differentiated by the differential binarization means and the expansion processing is performed on the binarized image, a front image F3 and a rear image B3 in FIG. 7 are obtained.

ところで、前記膨張処理を施すと、画像の点や線が膨張して画像のずれが緩和される。そして、膨張処理後の画像F3、B3の排他的論理和をとると、いずれか一方の画像にしか存在しない車両α、β等の物体のエッジ(異なる画像部分)は膨張処理をした後でも残り、両方の画像F3、B3に共通に存在する道路標示等は消える。さらに、排他的論理和をとって形成された画像を収縮処理して画像中の点や線を元の太さに戻すと、道路標示等の前記排他的論理和をとっても消え残っていた不要な画像部分も消え、認識対象の物体のエッジ部分だけが元に戻る。そして、車両α、βが重ならなければ、それらのエッジ部分から車両α、βを認識できる。   By the way, when the expansion process is performed, the dots and lines of the image are expanded to reduce the image shift. When the exclusive OR of the images F3 and B3 after the expansion processing is taken, the edges (different image portions) of the objects such as the vehicles α and β that exist only in one of the images remain after the expansion processing is performed. The road markings that are common to both images F3 and B3 disappear. Furthermore, when the image formed by taking the exclusive OR is contracted and the points and lines in the image are restored to the original thickness, the unnecessary OR which has been left unerased even after the exclusive OR such as road marking is removed. The image portion also disappears, and only the edge portion of the recognition target object is restored. If the vehicles α and β do not overlap, the vehicles α and β can be recognized from their edge portions.

そこで、前記演算手段により画像F3、B3の排他的論理和を演算して重ね合わせると、図7の合成画像FB3が得られる。さらに、前記収縮手段により、合成画像FB3の収縮処理を行うと、図7の画像FB4が得られる。   Therefore, when the exclusive OR of the images F3 and B3 is calculated by the calculating means and superimposed, the composite image FB3 of FIG. 7 is obtained. Furthermore, when the contraction process is performed on the composite image FB3 by the contraction unit, an image FB4 in FIG. 7 is obtained.

ここで、合成画像FB3は図7の実線枠aで囲まれた部分が前方画像F3であり、同図の実線枠bで囲まれた部分が後方画像B3である。そして、自車1の前後に車両α、βが存在する場合、図7の実線枠a、bが交錯することからも明らかなように、合成画像FB3の車両α、βが重なり合って1つの物体のようになる。そのため、収縮処理後の画像FB4から自車1の後方の障害物としての車両βを分離して認識することはできない。この点は、微分2値化前の画像F1、B1を重ね合わせてそれらの濃淡の差の画像を得、その画像から車両βを認識する場合も同様である。そして、車両βを分離して認識できなければ、認識結果からは自車1からの車両βまでの距離等が分からず、衝突の可能性の判断等が行えない。   Here, in the synthesized image FB3, the part surrounded by the solid line frame a in FIG. 7 is the front image F3, and the part surrounded by the solid line frame b in FIG. 7 is the rear image B3. When vehicles α and β exist before and after the host vehicle 1, as shown by the crossing of the solid line frames a and b in FIG. 7, the vehicles α and β in the composite image FB3 overlap to form one object. become that way. Therefore, the vehicle β as an obstacle behind the host vehicle 1 cannot be recognized separately from the image FB4 after the contraction process. The same applies to the case where the images F1 and B1 before the binarization are overlapped to obtain an image of the difference between the shades and the vehicle β is recognized from the image. If the vehicle β cannot be recognized separately, the distance from the vehicle 1 to the vehicle β cannot be determined from the recognition result, and the possibility of a collision cannot be determined.

ところで、自車1の走行に伴う撮影手段3の撮影位置の変化にしたがって、例えば単眼カメラ3aの撮影路面も図8に示すように時間変化して前進し、同時に前方の車両αも前に進む。この点は、単眼カメラ3bの撮影路面及び車両βについても同様である。   By the way, according to the change in the photographing position of the photographing means 3 accompanying the traveling of the own vehicle 1, for example, the photographing road surface of the monocular camera 3a moves forward with time change as shown in FIG. 8, and the vehicle α ahead also advances forward at the same time. . The same applies to the photographing road surface of the monocular camera 3b and the vehicle β.

そして、各時刻t1、t2、t3、…の前方画像F2(t1)、F2(t2)、F2(t3)、…及び、前方画像F3(t1)、F3(t2)、F3(t3)、…のカメラ側端部から車両αまでの範囲は車両αが存在せず、路面のみとなる。この点は、例えば膨張処理する前の微分2値化した前方画像F3*を拡大して示した図10からも明らかである。図10の実線枠cは車両αの部分でありそれより手前の実線枠dの部分が路面部分である。   Then, the front images F2 (t1), F2 (t2), F2 (t3),... And the front images F3 (t1), F3 (t2), F3 (t3),... At each time t1, t2, t3,. In the range from the camera side end of the vehicle to the vehicle α, there is no vehicle α and only the road surface. This point is also apparent from FIG. 10, for example, which shows an enlarged front image F3 * that has been binarized before being subjected to expansion processing. The solid line frame c in FIG. 10 is a part of the vehicle α, and the part of the solid line frame d in front of it is a road surface part.

そして、複数フレームにわたって前方画像F2(t1)、F2(t2)、F2(t3)、…又は、前方画像F3(t1)、F3(t2)、F3(t3)、…の車両αが存在しない路面部分を重ね合わせると、図9に模式的に示すように、それらの路面部分を継ぎ合わせた前方画像、すなわち、車両αが存在しない前方画像Frを生成できる。   And the road surface where the vehicle α of the front images F2 (t1), F2 (t2), F2 (t3),... Or the front images F3 (t1), F3 (t2), F3 (t3),. When the portions are overlapped, as shown schematically in FIG. 9, a front image obtained by joining the road surface portions, that is, a front image Fr without the vehicle α can be generated.

さらに、前方画像Frが生成されると、自車1の前方に車両αが存在していても、前方画像Frとその路面領域内の適当な時刻の後方画像B2又は後方画像B3とに基づいて、自車1の後方の車両βを分離して認識できる。   Furthermore, when the front image Fr is generated, even if the vehicle α is present in front of the host vehicle 1, it is based on the front image Fr and the rear image B2 or the rear image B3 at an appropriate time within the road surface area. The vehicle β behind the host vehicle 1 can be recognized separately.

また、何らかの原因で前方画像F1が得られないときは、複数フレームにわたって後方画像B2又は後方画像B3の車両βが存在しない路面部分を重ね合わせ、前方画像Frに対応する後方画像Brを生成し、後方画像Brとその路面領域内の適当な時刻の後方画像B2又は後方画像B3とに基づいて、自車1の後方の車両βを分離して認識できる。   Further, when the front image F1 cannot be obtained for some reason, the road surface portion where the vehicle β of the rear image B2 or the rear image B3 does not exist is overlapped over a plurality of frames, and the rear image Br corresponding to the front image Fr is generated. Based on the rear image Br and the rear image B2 or the rear image B3 at an appropriate time in the road surface area, the vehicle β behind the host vehicle 1 can be separated and recognized.

そこで、前記生成手段は例えば時々刻々の前方画像F2及び後方画像B2をデータ蓄積手段5に保持し、図3のステップS4により、前方画像F2が得られる場合、前方画像F2の車両αが存在しない領域を複数フレーム(具体的には自車1の車速等で定まる数フレーム乃至十数フレーム程度)にわたって重ね合わせ、車両αが存在しない前方画像Frを生成する。なお、前方画像F2が得られない場合は、後方画像B2の車両βが存在しない領域を複数フレームにわたって重ね合わせ、車両βが存在しない後方画像Brを生成する。   Therefore, for example, the generation unit holds the forward image F2 and the rear image B2 every moment in the data storage unit 5, and when the front image F2 is obtained by step S4 in FIG. 3, the vehicle α of the front image F2 does not exist. The regions are overlapped over a plurality of frames (specifically, several frames to about a dozen frames determined by the vehicle speed or the like of the host vehicle 1), and the front image Fr without the vehicle α is generated. In addition, when the front image F2 is not obtained, the area | region where the vehicle (beta) of the back image B2 does not exist is overlapped over several frames, and the back image Br without the vehicle (beta) is produced | generated.

前記同定手段は、図3のステップS5により、自車1の車速、現在位置等に基づいて前方画像Fr又は後方画像Brの路面領域内の後方画像B2をデータ蓄積手段5から読み出し、認識対象の後方画像B2を同定する。   In step S5 of FIG. 3, the identification unit reads the rear image B2 in the road surface area of the front image Fr or the rear image Br from the data storage unit 5 based on the vehicle speed of the host vehicle 1, the current position, etc. The rear image B2 is identified.

前記膨張手段は、図3のステップS6により、前方画像Fr又は後方画像Brと、認識対象の後方画像B2との膨張処理を行う。   The expansion means performs an expansion process on the front image Fr or the rear image Br and the recognition target rear image B2 in step S6 of FIG.

前記演算手段は、図3のステップS7により、前方画像Fr又は後方画像Brと、認識対象の後方画像B2との排他的論理和を演算し、前方画像Fr又は後方画像Brと認識対象の後方画像B2との共通して重なる道路標示等の部分の大半を打ち消す。このとき、異なる部分、すなわち、車両βの部分は膨張処理された太い輪郭線になる。なお、排他的論理和の演算に代えて、差を求める演算を行ってもよく、この場合、例えば演算結果が「−1」となる画素を「0」とすることで同じ結果が得られる。   The calculation means calculates an exclusive OR of the front image Fr or the rear image Br and the rear image B2 to be recognized in step S7 of FIG. 3, and the front image Fr or the rear image Br and the rear image of the recognition target. Cancel most of the road markings that overlap with B2. At this time, a different part, that is, a part of the vehicle β becomes a thick contour line subjected to the expansion process. Note that an operation for obtaining a difference may be performed instead of the exclusive OR operation. In this case, for example, the same result can be obtained by setting a pixel having an operation result of “−1” to “0”.

前記収縮手段は、前記排他的論理和の演算により形成された合成画像に対して、図3のステップS8により前記膨張処理と逆の収縮処理を施し、前記合成画像の線幅を細くして戻し、略車両βのみとなった合成画像(収縮画像)形成する。   The contraction means performs a contraction process opposite to the expansion process in step S8 of FIG. 3 on the composite image formed by the exclusive OR operation, and narrows the line width of the composite image and returns it. Then, a composite image (shrinkage image) having substantially only the vehicle β is formed.

前記認識手段は、前記収縮手段により形成された合成画像に基づき、図3のステップS9により前方画像Fr又は後方画像Brと前記同定手段により同定された認識対象の後方画像B2との異なる画像部分から、後方画像B2の路面に垂直な障害物としての車両βを認識し、認識結果を自車1の被害軽減や衝突回避の衝突予測処理手段(図示せず)等に送る。このとき、例えば撮影画像F1、F2上の車両βの高さから車両βまでの距離が簡単に分かる。   Based on the composite image formed by the contraction means, the recognition means starts from a different image portion between the front image Fr or the rear image Br and the recognition target rear image B2 identified by the identification means in step S9 of FIG. Then, the vehicle β as an obstacle perpendicular to the road surface of the rear image B2 is recognized, and the recognition result is sent to a collision prediction processing means (not shown) for reducing damage or avoiding collision of the own vehicle 1. At this time, for example, the distance from the height of the vehicle β on the captured images F1 and F2 to the vehicle β is easily known.

そして、前方画像F2から生成された前方画像Frの実際の画像例は図11の画像Fr1に示すようになり、それを微分2値化して膨張処理すると、同図の画像Fr2が得られる。また、図12は前記排他的論理和の演算により形成される合成画像Fexor、認識結果の画像Fdetを示し、画像Fdetの実線枠eの部分が車両βである。   An actual image example of the forward image Fr generated from the forward image F2 is as shown in an image Fr1 in FIG. 11, and when it is differentiated and expanded, an image Fr2 in the same figure is obtained. FIG. 12 shows a composite image Fexor formed by the exclusive OR operation and a recognition result image Fdet, and the solid line frame e of the image Fdet is the vehicle β.

したがって、本実施形態の障害物認識装置2は、自車1の前後に車両が存在していても、撮影手段3が前方画像F1及び後方画像B1を撮影するときには、生成手段により、画像取得手段が取得して形成された複数フレームの前方画像F2(又はF3)の車両αが存在しない部分を重ね合わせて車両の存在しない前方画像Frを生成する。   Therefore, the obstacle recognizing device 2 according to the present embodiment uses the generating unit to obtain the image acquiring unit when the photographing unit 3 captures the front image F1 and the rear image B1 even when a vehicle exists before and after the host vehicle 1. The front image Fr without the vehicle is generated by superimposing the portions where the vehicle α does not exist in the front image F2 (or F3) of the plurality of frames formed by acquiring.

また、同定手段により、前方画像Frの路面領域内の後方画像B3が同定され、認識手段により、前方画像Frと前記同定手段が同定した後方画像B3との異なる画像部分から後方画像B3の障害物(車両β)を容易に認識することができる。   Further, the rear image B3 in the road surface area of the front image Fr is identified by the identification unit, and the obstacle of the rear image B3 from the different image portion of the front image Fr and the rear image B3 identified by the identification unit is identified by the recognition unit. (Vehicle β) can be easily recognized.

したがって、自車1の前後に車両α、βが存在する場合に、前方画像F1及び後方画像B1を用いた簡単な画像処理により後方から接近する車両βのような自車1の後方の障害物の的確な認識を行うことができる。   Therefore, when vehicles α and β exist before and after the host vehicle 1, obstacles behind the host vehicle 1 such as the vehicle β approaching from the rear by simple image processing using the front image F1 and the rear image B1. Can be recognized accurately.

また、何らかの原因で前方画像F1が得られなくなった場合には、後方画像Brを用いた簡単な画像処理により前記と同様にして自車1の後方の障害物の的確な認識が行える。   Further, when the front image F1 cannot be obtained for some reason, the obstacle behind the host vehicle 1 can be accurately recognized in the same manner as described above by simple image processing using the rear image Br.

さらに、射影変換手段の射影変換により、射影変換した前方画像F2、後方画像B2を用いて一層容易に各処理が行える利点があり、しかも、膨張処理、収縮処理を行うので、認識精度が一層向上する。   Furthermore, there is an advantage that each process can be performed more easily using the front image F2 and the rear image B2 obtained by projective conversion by the projective conversion by the projective conversion means, and further, the recognition accuracy is further improved because the expansion process and the contraction process are performed. To do.

なお、射影変換を省いてもよく、処理を簡単にするため、膨張処理、収縮処理を省いてもよい。   Note that projective transformation may be omitted, and expansion processing and contraction processing may be omitted in order to simplify processing.

そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行ううことが可能である。   The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention.

例えば、前記実施形態においては、射影変換を微分2値化前に行ったが、射影変換は微分2値化後等のどのタイミングで行ってもよい。   For example, in the embodiment, the projective transformation is performed before the differential binarization. However, the projective transformation may be performed at any timing such as after the differential binarization.

そして、本発明は、種々の車両の障害物認識に適用することができる。   The present invention can be applied to obstacle recognition of various vehicles.

本発明の一実施形態のブロック図である。It is a block diagram of one embodiment of the present invention. 図1の撮像手段の構成例の説明図である。It is explanatory drawing of the structural example of the imaging means of FIG. 図1の動作説明用のフローチャートである。It is a flowchart for operation | movement description of FIG. 自車の前方の車両が存在する撮影画像例の説明図である。It is explanatory drawing of the example of a picked-up image in which the vehicle ahead of the own vehicle exists. 自車の後方の車両が存在する撮影画像例の説明図である。It is explanatory drawing of the example of a picked-up image in which the vehicle of the back of the own vehicle exists. 図1の射影変換の説明図である。It is explanatory drawing of the projective transformation of FIG. 図1の処理を説明する画像例の説明図である。It is explanatory drawing of the example of an image explaining the process of FIG. 車両が存在しない部分を重ね合わせた画像の生成過程の説明図である。It is explanatory drawing of the production | generation process of the image which piled up the part which a vehicle does not exist. 車両が存在しない部分を重ね合わせた画像の模式図である。It is a schematic diagram of the image which overlapped the part where a vehicle does not exist. 撮影画像の車両が存在しない部分の説明図である。It is explanatory drawing of the part from which the vehicle of a picked-up image does not exist. 車両が存在しない部分を重ね合わせた画像例の説明図である。It is explanatory drawing of the example of an image which piled up the part in which a vehicle does not exist. 図11の画像に基づく認識の説明図である。It is explanatory drawing of the recognition based on the image of FIG.

符号の説明Explanation of symbols

1 自車
2 障害物認識装置
3 撮影手段
4 画像処理手段
DESCRIPTION OF SYMBOLS 1 Own vehicle 2 Obstacle recognition apparatus 3 Imaging | photography means 4 Image processing means

Claims (2)

走行する自車の前後方向の路面撮影が可能な撮影手段と、
略同じ路面領域について前記撮影手段が撮影した前方画像及び後方画像を取得する画像取得手段と、
前記画像取得手段により取得された前方画像の車両が存在しない領域を複数フレームにわたって重ね合わせ、車両が存在しない前方画像を生成する生成手段と、
前記生成手段により生成された前方画像の路面領域内の後方画像を同定する同定手段と、
前記生成手段により生成された前方画像と前記同定手段により同定された後方画像との異なる画像部分から、後方画像の車両を認識する認識手段とを備えたことを特徴とする障害物認識装置。
Photographing means capable of photographing the road surface in the front-rear direction of the traveling vehicle;
Image acquisition means for acquiring a front image and a rear image captured by the imaging means for substantially the same road surface area;
The region in which the vehicle is not present in the front image image acquired by the image acquisition unit superposing over a plurality of frames, and generating means for generating a front image of the vehicle is not present,
Identifying means for identifying a rear image in the road surface area of the front image generated by the generating means;
An obstacle recognizing apparatus comprising: a recognizing unit for recognizing a vehicle in a rear image from different image portions of the front image generated by the generating unit and the rear image identified by the identifying unit.
請求項1記載の障害物認識装置において、
前記画像取得手段の取得後の撮影画像に対して射影変換を行う射影変換手段をさらに備えたことを特徴とする障害物認識装置。
The obstacle recognition apparatus according to claim 1,
An obstacle recognition apparatus, further comprising projective conversion means for performing projective conversion on a captured image obtained by the image acquisition means.
JP2008113923A 2008-04-24 2008-04-24 Obstacle recognition device Expired - Fee Related JP5300309B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008113923A JP5300309B2 (en) 2008-04-24 2008-04-24 Obstacle recognition device
PCT/JP2008/073328 WO2009130823A1 (en) 2008-04-24 2008-12-22 Obstacle recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008113923A JP5300309B2 (en) 2008-04-24 2008-04-24 Obstacle recognition device

Publications (2)

Publication Number Publication Date
JP2009262736A JP2009262736A (en) 2009-11-12
JP5300309B2 true JP5300309B2 (en) 2013-09-25

Family

ID=41216568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008113923A Expired - Fee Related JP5300309B2 (en) 2008-04-24 2008-04-24 Obstacle recognition device

Country Status (2)

Country Link
JP (1) JP5300309B2 (en)
WO (1) WO2009130823A1 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2946727B2 (en) * 1990-10-26 1999-09-06 日産自動車株式会社 Obstacle detection device for vehicles
JP3540005B2 (en) * 1994-04-22 2004-07-07 株式会社デンソー Obstacle detection device
JP3494434B2 (en) * 1999-10-21 2004-02-09 松下電器産業株式会社 Parking assistance device
JP3847547B2 (en) * 2000-10-17 2006-11-22 三菱電機株式会社 Vehicle periphery monitoring support device
JP3997945B2 (en) * 2003-04-23 2007-10-24 株式会社デンソー Peripheral image display device
JP4192680B2 (en) * 2003-05-28 2008-12-10 アイシン精機株式会社 Moving object periphery monitoring device
JP4907883B2 (en) * 2005-03-09 2012-04-04 株式会社東芝 Vehicle periphery image display device and vehicle periphery image display method
US8885045B2 (en) * 2005-08-02 2014-11-11 Nissan Motor Co., Ltd. Device and method for monitoring vehicle surroundings
JP4687411B2 (en) * 2005-11-15 2011-05-25 株式会社デンソー Vehicle peripheral image processing apparatus and program
JP4797877B2 (en) * 2006-08-14 2011-10-19 日産自動車株式会社 VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD

Also Published As

Publication number Publication date
JP2009262736A (en) 2009-11-12
WO2009130823A1 (en) 2009-10-29

Similar Documents

Publication Publication Date Title
EP2924653B1 (en) Image processing apparatus and image processing method
US7684590B2 (en) Method of recognizing and/or tracking objects
KR101243108B1 (en) Apparatus and method for displaying rear image of vehicle
KR101449160B1 (en) Apparatus and method for providing information of blind spot
JP6316976B2 (en) In-vehicle image recognition device
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP6597792B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2010256995A (en) Object recognition apparatus
KR101840974B1 (en) Lane identification system for autonomous drive
US20180208201A1 (en) System and method for a full lane change aid system with augmented reality technology
JP2009053818A (en) Image processor and method thereof
JP2007280132A (en) Travel guide obstacle detector, and controller for vehicle
US11514683B2 (en) Outside recognition apparatus for vehicle
JP2008158640A (en) Moving object detection apparatus
JPWO2018123641A1 (en) RUNNING AREA DETECTION DEVICE AND RUNNING SUPPORT SYSTEM
WO2017099199A1 (en) Image processing device, object recognition device, apparatus control system, image processing method and program
US9558410B2 (en) Road environment recognizing apparatus
JP5521217B2 (en) Obstacle detection device and obstacle detection method
KR20160126254A (en) System for detecting road area
JP2011103058A (en) Erroneous recognition prevention device
JP4791086B2 (en) Collision avoidance system
JP5300309B2 (en) Obstacle recognition device
JP4106163B2 (en) Obstacle detection apparatus and method
WO2014050285A1 (en) Stereo camera device
JPWO2018146997A1 (en) Three-dimensional object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130618

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees