JP2013161190A - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP2013161190A JP2013161190A JP2012021212A JP2012021212A JP2013161190A JP 2013161190 A JP2013161190 A JP 2013161190A JP 2012021212 A JP2012021212 A JP 2012021212A JP 2012021212 A JP2012021212 A JP 2012021212A JP 2013161190 A JP2013161190 A JP 2013161190A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional object
- change pattern
- luminance change
- image
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、ステレオカメラを用いる物体認識装置に関する。 The present invention relates to an object recognition apparatus using a stereo camera.
従来から、ステレオカメラから車線候補領域を検出し、視差から算出される立体物の実空間上の大きさが予め設定された閾値以内で、且つ立体物の上下方向の輝度変化が一定のパターンを有する場合にその立体物を走行誘導障害物として検出する技術が知られている(例えば、特許文献1参照)。 Conventionally, a lane candidate area is detected from a stereo camera, and the size of the three-dimensional object in real space calculated from the parallax is within a preset threshold value, and the luminance change in the vertical direction of the three-dimensional object is constant. When it has, the technique which detects the solid object as a driving | running | working guidance obstacle is known (for example, refer patent document 1).
ところで、ステレオカメラで取得した画像における遠方側の領域では立体物であっても十分な視差が得られない場合がある。特に縁石や歩道帯などの高さが低い立体物については、遠方になるにつれて視差に基づく検出が困難となる。 By the way, there is a case where sufficient disparity cannot be obtained even in the case of a three-dimensional object in a far region in an image acquired by a stereo camera. In particular, for a three-dimensional object such as a curb or a sidewalk, the detection based on parallax becomes difficult as the distance increases.
そこで、本発明は、遠方領域における物体認識精度を高めることができる物体認識装置の提供を目的とする。 Accordingly, an object of the present invention is to provide an object recognition apparatus that can improve the object recognition accuracy in a far region.
上記目的を達成するため、本発明の一局面によれば、ステレオカメラと、
前記ステレオカメラにより取得した画像を処理する処理装置とを含み、
前記処理装置は、前記ステレオカメラにより取得した2つの画像から視差を算出し、前記算出した視差に基づいて立体物を検出すると共に、前記ステレオカメラにより取得した2つの画像のうちの一方の画像において、水平ラインに沿った前記立体物の輝度変化パターンを生成し、前記輝度変化パターンの検索を前記立体物の検出位置よりも遠方に向けて実行することを特徴とする、物体認識装置が提供される。
In order to achieve the above object, according to one aspect of the present invention, a stereo camera;
A processing device for processing an image acquired by the stereo camera,
The processing device calculates a parallax from two images acquired by the stereo camera, detects a three-dimensional object based on the calculated parallax, and in one of the two images acquired by the stereo camera. An object recognition device is provided, wherein a brightness change pattern of the three-dimensional object along a horizontal line is generated, and the search of the brightness change pattern is performed farther than a detection position of the three-dimensional object. The
本発明によれば、遠方領域における物体認識精度を高めることができる物体認識装置が得られる。 ADVANTAGE OF THE INVENTION According to this invention, the object recognition apparatus which can improve the object recognition precision in a distant area | region is obtained.
以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。 The best mode for carrying out the present invention will be described below with reference to the drawings.
図1は、本発明の一実施例による物体認識装置1の要部構成を示した図である。物体認識装置1は、撮像装置10とステレオECU(Electric Control Unit)20を備える。ECUは、中央処理演算装置(CPU)、プログラムを記憶するROM、データを一時的に記憶するRAM、入力インターフェース、出力インターフェースなどの複数の回路要素が一ユニットとして構成されたものである。
FIG. 1 is a diagram showing a main configuration of an
撮像装置10は、撮像素子11,12やレンズ15,16を備えるステレオカメラ17を含む。また、撮像装置10は、カメラCPU13、画像出力部14等を有する。撮像素子11,12は、例えば、CCD(Charge Coupled Device)で構成されている。カメラCPU13は、ステレオECU20からの制御信号に基づいてカメラ側の露出等の制御を行う。カメラCPU13は、出力インターフェースである画像出力部14を介して、撮像素子11,12による撮像画像を画像信号としてステレオECU20に送信する。なお、撮像素子は2個に限らず、それ以上の数を有してもよい。また、撮像素子11,12やレンズ15,16は、必ずしも同一のカメラユニット内に配置される必要はなく、車両横方向に離間して配置されていればよい。
The
ステレオECU20は、入力インターフェースである画像入力部21、幾何変換LSI22、画像処理LSI24、各処理部を監督するSV−CPU23等を有する。
The
撮像装置10の画像出力部14から出力された画像信号は、ステレオECU20の入力インターフェースである画像入力部21に送られる。画像出力部14と画像入力部21は、所定のデジタル伝送方式のインターフェースである。
The image signal output from the
画像信号を受けた画像入力部21は、画像信号の画像データを幾何変換LSI22に送る。幾何変換LSI22は、キャリブレーションデータを用いて、ステレオ演算処理等に使用されるステレオカメラ17の撮像画像から、撮像素子11,12やレンズ15,16等によるハード的な内部誤差要因(レンズ歪み、光軸ずれ、焦点距離ずれ及び撮像素子歪み等)の影響を取り除き、エピポーラ線を画像水平線にあわせる周知の処理を行う。幾何変換LSI22は、メモリ25に記憶された幾何変換用のLUT(Look Up Table)に基づき入力画像を変換する。
Upon receiving the image signal, the
画像処理LSI24は、幾何変換LSI22からの幾何変換された画像データに基づいて画像認識処理を行う。画像処理プログラムや処理すべき画像はメモリ26に記録され、画像処理LSI24は、それらを読み込んで画像認識処理を行う。画像認識処理は、視差画像(視差情報)に基づく物体認識処理と、輝度変化パターン探索処理とを含む。
The
視差画像に基づく物体認識処理は、例えば左右に配置された撮像素子11,12により撮像された一対の画像の相関を求め、同一物体に対する視差に基づいて三角測量の要領でその物体までの距離を算出するものである。つまり、画像処理LSI24は、撮像素子11,12により撮像された一組のステレオ画像から同一の撮像対象物が写っている部分を抽出し、一組のステレオ画像同士でその撮像対象物の同一点を対応づけ、対応づけられた点(対応点)のずれ量(視差)を求めることによって撮像対象物までの距離を算出する。撮像対象物が前方にある場合、撮像素子11による画像と撮像素子12による画像とを重ね合わせると、撮像対象物が左右横方向にずれる。そして、片方の画像を1画素ずつシフトしながら最も重なり合う位置を求める。このときシフトした画素数をnとする。レンズの焦点距離をf、光軸間の距離をm、画素ピッチをdとすると、撮像対象物までの距離Lは、L=(f・m)/(n・d)という関係式が成立する。この(n・d)の項が視差である。輝度変化パターン探索処理については後述する。
In the object recognition processing based on the parallax image, for example, a correlation between a pair of images captured by the
SV−CPU23は、各処理部を監督(supervisor)するCPUである。画像処理LSI24が兼ねても可である。SV−CPU23は、画像処理LSI24の処理画像に基づいて算出されたカメラ制御値(例えば、露出調整のパラメータであるシャッタスピード情報)を撮像装置10内のカメラCPU13に送信・指示する。
The SV-
このような撮像装置10やステレオECU20を車両に搭載することによって、路上の障害物等の画像認識情報を利用する制御に使用することが可能である。例えば、SV−CPU23が、車内LANを介して、画像認識処理結果(障害物認識結果)を必要とする他のECUにその結果を送信すればよい。他のECUとは、例えば、ACC(オートクルーズコントロール)等の先行車追従システム、衝突回避・衝突軽減システムを制御するECU、車線維持支援システムや車線逸脱警報システムを制御するECU、車間ECU、ブレーキECU等である。
By mounting such an
図2は、本実施例のステレオECU20により実現される主要処理の一例を示すフローチャートである。図2に示す処理ルーチンは、車両のイグニッションスイッチがオンの間、所定周期毎に繰り返し実行されてもよい。
FIG. 2 is a flowchart showing an example of main processing realized by the
ステップ200では、エッジ検出が行われる。エッジ検出は、ステレオカメラ17の撮像素子11,12のいずれかによる画像に対して実行されてよい。ここでは、ステレオカメラ17の撮像素子11よる画像が右側の画像(右画像)であり、撮像素子12よる画像が左側の画像(左画像)であり、右画像を基準画像とする。この場合、エッジ検出は、右画像において実行されてよい。図3(A)は、エッジ検出結果の一例を示す。図中において太線部分E1−E6は、検出されたエッジを示す。図3に示す例では、道路の白線と共に、道路脇の縁石がエッジ検出されている。即ち、図3においては、道路の白線に係るエッジが符合E5,E6で指示され、縁石に係るエッジが符合E1,E2,E3で指示されている。縁石は、エッジE1,E2に係る上縁を有し、エッジE3に係る縁部で道路に繋がっている。即ち、縁石は、エッジE1,E2に係る上縁間の幅を有して道路上に立設されている。
In
ステップ202では、ステレオカメラ17の左右の画素の水平方向のずれ量(即ち視差)が算出される。即ち、ステレオカメラ17の撮像素子11,12による各画像間の各対応点の視差が算出され、視差画像が生成される。具体的には、ステップ200でエッジ検出された画素に対応する画素を左画像上で探索して左右画素間の視差を算出する。次に視差の統計(局所領域における視差分布等)を用いて路面点を取り除き、立体物となる点(立体物検出点)のみを検出(抽出)する。図3(B)は、立体物検出点の一例を示す。図中において白い各点は、立体物検出点を示す。図3に示す例では、道路脇の縁石が立体物検出点として検出されている。即ち、縁石の上縁(両側)に沿って立体物検出点が出現している。
In step 202, a horizontal shift amount (that is, parallax) between the left and right pixels of the
ここで、ステップ202の立体物検出処理は、好ましくは、視差量が十分に大きくなる画素領域内でのみ実行される。例えば、立体物検出処理は、上記ステップ200で算出した視差が一定値以上である画素領域内(即ち近距離領域)でのみ実行される。一定値は、視差情報に基づいて障害物(立体物)を精度良く認識することができる視差の下限値に対応してよい。この一定値は、ステレオカメラ17の撮像素子11,12の性能や要求される精度等に応じて変化し、実験等により適合されてよい。図3に示す例では、近距離領域においてのみ道路脇の縁石が立体物検出点として検出されている。尚、視差が一定値未満の画素領域(遠距離領域)では、道路脇の縁石のような高さの低い立体物の検出は困難である。
Here, the three-dimensional object detection process in step 202 is preferably executed only in a pixel region where the amount of parallax is sufficiently large. For example, the three-dimensional object detection process is executed only in a pixel area (that is, a short distance area) where the parallax calculated in
ステップ204では、立体物検出点を結んだ線(一点鎖線)を中心として左右に広がる縁石候補領域が設定される。縁石候補領域の幅(左右に広がるピクセル数)は、固定値であってもよいし、各立体物検出点の距離に応じて可変されてもよい。後者の場合、立体物検出点の距離が遠くなるほど縁石候補領域の幅が小さくなる態様で可変されてもよい。図4は、縁石候補領域の設定例を示す図である。図4に示す例では、縁石候補領域は、符合70が付された枠内に設定されている。尚、図4に示す例では、立体物検出点を結んだ線(一点鎖線)は、縁石の上縁(両側)の幅方向中心に設定されている。この場合、縁石候補領域の幅(左右に広がるピクセル数)は、縁石の幅に応じた値であってよく、同様に、各立体物検出点の距離に応じて可変されてよい。尚、縁石候補領域の中心ライン(一点鎖線)の決め方は任意であり、縁石候補領域が、縁石候補となる立体物検出点を幅方向の中心付近に含むように設定されていればよい。
In step 204, a curb candidate area extending left and right around the line connecting the three-dimensional object detection points (one-dot chain line) is set. The width of the curb candidate area (the number of pixels extending to the left and right) may be a fixed value or may be varied according to the distance between the three-dimensional object detection points. In the latter case, the width of the curb candidate area may be reduced as the distance between the three-dimensional object detection points increases. FIG. 4 is a diagram illustrating a setting example of a curb candidate area. In the example shown in FIG. 4, the curb candidate area is set within a frame with a
ステップ206では、上記ステップ204で設定した縁石候補領域内の水平ラインに沿った輝度値が計測され、上記ステップ204で設定した縁石候補領域内の水平ラインに沿った輝度変化パターンが生成され記録される。輝度値を計測する水平ラインの本数は、任意であってよい。例えば、輝度変化パターンは、上記ステップ204で設定した縁石候補領域の上下方向の中心に位置する水平ラインに基づくものであってもよいし、代表となる複数本の水平ラインを決めてそれらの統計値(平均、分散など)に基づくものであってもよい。図5は、輝度変化パターンの生成例を示す図であり、図5(A)は、水平ラインの一例を示し、図5(B)は、輝度変化パターンの一例を示す図である。図5(A)に示す例では、輝度変化パターンを生成するための水平ラインは、符合90を付された矢印で示されている。図5(B)には、横軸に水平ライン上の各画素のX座標(画像平面でのX座標)が示され、縦軸に水平ライン上の各画素の輝度値が示されている。
In step 206, the luminance value along the horizontal line in the curb candidate area set in step 204 is measured, and the luminance change pattern along the horizontal line in the curb candidate area set in step 204 is generated and recorded. The The number of horizontal lines for measuring the luminance value may be arbitrary. For example, the luminance change pattern may be based on a horizontal line positioned at the center in the vertical direction of the curb candidate area set in step 204 above, or a plurality of representative horizontal lines are determined and their statistics are calculated. It may be based on values (average, variance, etc.). FIG. 5 is a diagram illustrating an example of generation of a brightness change pattern, FIG. 5A illustrates an example of a horizontal line, and FIG. 5B illustrates an example of a brightness change pattern. In the example shown in FIG. 5A, a horizontal line for generating a luminance change pattern is indicated by an arrow with a
ステップ208では、上記ステップ206で生成された輝度変化パターンに基づいて、同様の輝度変化パターンの存在が遠方に向かって探索される。これは、縁石が遠方まで延在する場合には、縁石に起因した同様の輝度変化パターンが遠方まで延在するはずであるためである。これにより、視差情報だけでは検出が困難な遠方の縁石についても検出することが可能となる。尚、遠方に向かうにつれて縁石の水平方向の画素数が少なくなるので、照合される輝度変化パターンは水平方向で縮小されてよい。尚、上記ステップ206で生成された輝度変化パターンと同様の輝度変化パターンを探索する際、上記ステップ206で生成された輝度変化パターンにおける中心ライン(図5の一点鎖線)付近のパターンが特に重要視されてもよい。即ち、立体物検出点付近の輝度変化パターンに重い重み付けを与える態様で、輝度変化パターンの探索が実行されてもよい。 In step 208, based on the luminance change pattern generated in step 206, the presence of a similar luminance change pattern is searched for far away. This is because when the curb extends far, a similar luminance change pattern due to the curb should extend far. Thereby, it is possible to detect a distant curb that is difficult to detect only by the parallax information. Since the number of pixels in the horizontal direction of the curb decreases with increasing distance, the brightness change pattern to be verified may be reduced in the horizontal direction. It should be noted that when searching for a luminance change pattern similar to the luminance change pattern generated in step 206, the pattern near the center line (the dashed line in FIG. 5) in the luminance change pattern generated in step 206 is particularly important. May be. That is, the search for the luminance change pattern may be performed in a manner in which a heavy weight is given to the luminance change pattern near the three-dimensional object detection point.
本ステップ208において、輝度変化パターンの探索は、輝度変化パターンの探索領域に限定して実行されてよい。図6は、輝度変化パターンの探索領域の一例を示す図である。図6に示す例では、輝度変化パターンの探索領域は、符合80を付された枠内に設定されている。輝度変化パターン探索領域80は、縁石候補領域70を基準に設定されてよい。輝度変化パターン探索領域80は、縁石候補領域70から連続する態様で、縁石候補領域70よりも遠方側の領域(視差が一定値未満である画素領域)に設定される。この際、輝度変化パターン探索領域80は、立体物検出点を結んだ線(図5(A)の一点鎖線参照)の延長線を含む範囲で延在してもよい。
In step 208, the search for the luminance change pattern may be executed only in the search region for the luminance change pattern. FIG. 6 is a diagram illustrating an example of a search region for luminance change patterns. In the example shown in FIG. 6, the search area for the luminance change pattern is set within a frame marked with
ステップ210では、上記ステップ202で検出された立体物(本例の場合、縁石)と、上記ステップ208で探索により検出された立体物とが、縁石領域として確定され、結果が出力される。即ち、上記ステップ206で生成された輝度変化パターンと同様の輝度変化パターンを有する画素領域が、上記ステップ202で検出された立体物検出点の領域と共に縁石領域として確定される。 In Step 210, the solid object detected in Step 202 (in this example, curbstone) and the solid object detected in the search in Step 208 are determined as a curb area, and the result is output. That is, a pixel area having a luminance change pattern similar to the luminance change pattern generated in step 206 is determined as a curb area together with the three-dimensional object detection point area detected in step 202.
以上説明した本実施例の物体認識装置1によれば、とりわけ、以下のような優れた効果が奏される。
According to the
本実施例によれば、上述の如く、視差量が十分得られない遠方領域においては、近距離領域で視差情報に基づいて検出された立体物の輝度変化パターンに基づいて、同立体物(正確には同立体物の連続部分)が検出されるので、視差量が十分得られない遠方領域においても精度良く立体物を検出することができる。特に縁石や歩道帯などの高さが低い立体物については、遠方になるにつれて視差に基づく検出が困難となるが、本実施例によれば、かかる高さが低い立体物についても、遠方領域において精度良く検出することができる。また、遠方領域における立体物の検出に用いる輝度変化パターンは、上述の如く、近距離領域で視差情報に基づいて検出された立体物の輝度測定値に基づいて生成されるので、立体物を表す輝度変化パターンとしての信頼性が高く、遠方領域において同立体物を高い信頼性で検出することができる。 According to the present embodiment, as described above, in a distant region where a sufficient amount of parallax is not obtained, the same three-dimensional object (accurately based on the luminance change pattern of the three-dimensional object detected based on the disparity information in the short-distance region. In this case, the three-dimensional object can be detected with high accuracy even in a remote area where a sufficient amount of parallax is not obtained. Especially for solid objects such as curbs and sidewalks that are low in height, it becomes difficult to detect based on parallax as the distance increases. It can be detected with high accuracy. In addition, the luminance change pattern used for detecting the three-dimensional object in the far region is generated based on the luminance measurement value of the three-dimensional object detected based on the parallax information in the short-distance region as described above, and thus represents the three-dimensional object. The reliability as a luminance change pattern is high, and the same three-dimensional object can be detected with high reliability in a distant region.
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。 The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.
例えば、上述した実施例では、輝度変化パターンを照合して検出される立体物は、縁石であったが、同様の検出方法は、縁石以外の立体物を検出するためにも有効に利用することができる。特に、上述した実施例による検出方法は、道路に沿って近距離から遠方へと連続的に延在する立体物を検出するのに好適である。かかる立体物としては、縁石以外のも、ガードレールや側壁、歩道(段差)等が存在する。尚、立体物が歩道である場合等、立体物検出点は、2本で遠方へと延びる縁石の場合(図3等参照)と異なり、1本で遠方に延びる態様で出現しうる。この場合、縁石候補領域70に相当する領域は、当該1本の立体物検出点を中心として所定の幅で設定されればよい。
For example, in the above-described embodiment, the three-dimensional object detected by collating the brightness change pattern is a curb, but the same detection method should be used effectively to detect a three-dimensional object other than the curb. Can do. In particular, the detection method according to the above-described embodiment is suitable for detecting a three-dimensional object continuously extending along a road from a short distance to a long distance. As such a three-dimensional object, there are a guard rail, a side wall, a sidewalk (step) and the like other than the curb. Note that, in the case where the three-dimensional object is a sidewalk, the three-dimensional object detection point may appear in a mode that extends far by one, unlike a curb that extends far by two (see FIG. 3 and the like). In this case, a region corresponding to the
また、上述した実施例では、処理効率を高めるために、検出された立体物検出点に基づいてこれらの立体物検出点が主に含まれるように範囲を限定した縁石候補領域70を生成し、縁石候補領域70内の水平ラインで輝度変化パターンを生成しているが、画像の端から端までの水平ラインで輝度変化パターンを生成してもよい。
Moreover, in the Example mentioned above, in order to raise processing efficiency, based on the detected solid object detection point, the
また、上述した実施例では、処理効率を高めるために、検出された立体物検出点に基づいて、これらが遠方領域において存在する蓋然性が高い領域に、輝度変化パターン探索領域80を設定し、輝度変化パターン探索領域80内で探索を行っている。しかしながら、例えば視差が一定値未満の領域の全体に亘って探索を行ってもよい。即ち、輝度変化パターン探索領域80は任意の態様で設定されてもよい。
Further, in the above-described embodiment, in order to increase the processing efficiency, the luminance change
また、図1には、特定のハードウェア構成を備える物体認識装置1が開示されているが、物体認識装置1のハードウェア構成は任意であってよい。また、図1に示すハードウェア構成において、カメラCPU13及びステレオECU20の機能分担も任意であり、一方の機能の一部又は全部が他方により実現されてもよい。
Moreover, although the
1 物体認識装置
10 撮像装置
11,12 撮像素子
13 カメラCPU
14 画像出力部
15,16 レンズ
17 ステレオカメラ
20 ステレオECU
21 画像入力部
22 幾何変換LSI
23 SV−CPU
24 画像処理LSI
25,26 メモリ
28 EEPROM
70 縁石候補領域
80 輝度変化パターン探索領域
90 水平ライン
DESCRIPTION OF
14
21
23 SV-CPU
24 Image processing LSI
25, 26
70
Claims (4)
前記ステレオカメラにより取得した画像を処理する処理装置とを含み、
前記処理装置は、前記ステレオカメラにより取得した2つの画像から視差を算出し、前記算出した視差に基づいて立体物を検出すると共に、前記ステレオカメラにより取得した2つの画像のうちの一方の画像において、水平ラインに沿った前記立体物の輝度変化パターンを生成し、前記輝度変化パターンの検索を前記立体物の検出位置よりも遠方に向けて実行することを特徴とする、物体認識装置。 A stereo camera,
A processing device for processing an image acquired by the stereo camera,
The processing device calculates a parallax from two images acquired by the stereo camera, detects a three-dimensional object based on the calculated parallax, and in one of the two images acquired by the stereo camera. An object recognition apparatus characterized by generating a luminance change pattern of the three-dimensional object along a horizontal line, and executing the search for the luminance change pattern farther than the detection position of the three-dimensional object.
前記処理装置は、前記輝度変化パターンの検索を、算出した視差が所定値未満の画素領域において実行する、請求項1に記載の物体認識装置。 The processing device detects the three-dimensional object in a short-distance pixel region where the calculated parallax is a predetermined value or more,
The object recognition device according to claim 1, wherein the processing device executes the search for the luminance change pattern in a pixel region where the calculated parallax is less than a predetermined value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012021212A JP2013161190A (en) | 2012-02-02 | 2012-02-02 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012021212A JP2013161190A (en) | 2012-02-02 | 2012-02-02 | Object recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013161190A true JP2013161190A (en) | 2013-08-19 |
Family
ID=49173400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012021212A Pending JP2013161190A (en) | 2012-02-02 | 2012-02-02 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013161190A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015053100A1 (en) * | 2013-10-07 | 2015-04-16 | 日立オートモティブシステムズ株式会社 | Object detection device and vehicle using same |
EP2960829A2 (en) | 2014-06-24 | 2015-12-30 | Toyota Jidosha Kabushiki Kaisha | Lane boundary estimation device and lane boundary estimation method |
CN106203398A (en) * | 2016-07-26 | 2016-12-07 | 东软集团股份有限公司 | A kind of detect the method for lane boundary, device and equipment |
US9676330B2 (en) | 2012-06-19 | 2017-06-13 | Toyota Jidosha Kabushiki Kaisha | Roadside object detection apparatus |
US11741718B2 (en) | 2021-05-18 | 2023-08-29 | Hitachi Astemo, Ltd. | Light interference detection during vehicle navigation |
WO2023224078A1 (en) * | 2022-05-18 | 2023-11-23 | 株式会社小糸製作所 | Automotive sensing system and method for detecting curb |
-
2012
- 2012-02-02 JP JP2012021212A patent/JP2013161190A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9676330B2 (en) | 2012-06-19 | 2017-06-13 | Toyota Jidosha Kabushiki Kaisha | Roadside object detection apparatus |
WO2015053100A1 (en) * | 2013-10-07 | 2015-04-16 | 日立オートモティブシステムズ株式会社 | Object detection device and vehicle using same |
JP2015075800A (en) * | 2013-10-07 | 2015-04-20 | 日立オートモティブシステムズ株式会社 | Object detection device and vehicle using object detection device |
US9886649B2 (en) | 2013-10-07 | 2018-02-06 | Hitachi Automotive Systems, Ltd. | Object detection device and vehicle using same |
EP2960829A2 (en) | 2014-06-24 | 2015-12-30 | Toyota Jidosha Kabushiki Kaisha | Lane boundary estimation device and lane boundary estimation method |
EP2960829A3 (en) * | 2014-06-24 | 2016-01-20 | Toyota Jidosha Kabushiki Kaisha | Lane boundary estimation device and lane boundary estimation method |
CN106203398A (en) * | 2016-07-26 | 2016-12-07 | 东软集团股份有限公司 | A kind of detect the method for lane boundary, device and equipment |
JP2018018483A (en) * | 2016-07-26 | 2018-02-01 | 東軟集団股▲分▼有限公司 | Method, apparatus, and device for detecting lane boundary |
US10133941B2 (en) | 2016-07-26 | 2018-11-20 | Neusoft Corporation | Method, apparatus and device for detecting lane boundary |
CN106203398B (en) * | 2016-07-26 | 2019-08-13 | 东软集团股份有限公司 | A kind of method, apparatus and equipment detecting lane boundary |
US11741718B2 (en) | 2021-05-18 | 2023-08-29 | Hitachi Astemo, Ltd. | Light interference detection during vehicle navigation |
WO2023224078A1 (en) * | 2022-05-18 | 2023-11-23 | 株式会社小糸製作所 | Automotive sensing system and method for detecting curb |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5829980B2 (en) | Roadside detection device | |
JP6013884B2 (en) | Object detection apparatus and object detection method | |
JP5863536B2 (en) | Outside monitoring device | |
JP6787157B2 (en) | Vehicle control device | |
JP5561064B2 (en) | Vehicle object recognition device | |
WO2011080943A1 (en) | Road-shoulder detecting device and vehicle using road-shoulder detecting device | |
JP6819281B2 (en) | Collision detection device and collision detection system | |
JP2013161190A (en) | Object recognition device | |
JP2013164351A (en) | Stereo parallax calculation device | |
JP6837262B2 (en) | Travelable area detection device and travel support system | |
US20210042945A1 (en) | Stereo camera device | |
JP2012159469A (en) | Vehicle image recognition device | |
US8160300B2 (en) | Pedestrian detecting apparatus | |
JP2007264712A (en) | Lane detector | |
JP2018060422A (en) | Object detection device | |
JP4956099B2 (en) | Wall detector | |
JP2008309637A (en) | Obstruction measuring method, obstruction measuring apparatus, and obstruction measuring system | |
JP2008027046A (en) | Lane recognition device | |
JP6044084B2 (en) | Moving object position and orientation estimation apparatus and method | |
JP2014130429A (en) | Photographing device and three-dimensional object area detection program | |
JP2017129543A (en) | Stereo camera device and vehicle | |
JP2007310591A (en) | Image processor and parking space determination method | |
JP2013161187A (en) | Object recognition device | |
JP2006072757A (en) | Object detection system | |
JP2019061314A (en) | Object distance detection apparatus |