JP2008015771A - Image recognition device, image recognition method, and vehicle control device - Google Patents
Image recognition device, image recognition method, and vehicle control device Download PDFInfo
- Publication number
- JP2008015771A JP2008015771A JP2006185901A JP2006185901A JP2008015771A JP 2008015771 A JP2008015771 A JP 2008015771A JP 2006185901 A JP2006185901 A JP 2006185901A JP 2006185901 A JP2006185901 A JP 2006185901A JP 2008015771 A JP2008015771 A JP 2008015771A
- Authority
- JP
- Japan
- Prior art keywords
- image
- interval
- extraction
- recognition
- determination target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、カメラが撮影した入力画像から特定の物体を画像認識する画像認識装置、およびその方法に関し、特に歩行者を認識する画像認識装置、画像認識方法および車両制御装置に関する。 The present invention relates to an image recognition apparatus that recognizes a specific object from an input image captured by a camera, and a method thereof, and more particularly, to an image recognition apparatus that recognizes a pedestrian, an image recognition method, and a vehicle control apparatus.
車両の走行中においては、特に歩行者との衝突回避が重要である。そこで近年、画像認識やレーダ検知を用いて自車両周辺の歩行者を認識する技術が考案されてきた(例えば、特許文献1参照。)。 It is particularly important to avoid collisions with pedestrians while the vehicle is running. Therefore, in recent years, a technique for recognizing pedestrians around the own vehicle using image recognition and radar detection has been devised (see, for example, Patent Document 1).
しかしながら、従来、歩行者のテンプレート画像にパターンマッチする領域を見つけるためには、画像中の位置に関係なく一画素ずつずらしてサーチを行なっており、大きな演算量が必要であり、そのため、歩行者認識に要する処理時間が大きくなるという問題点があった。 However, conventionally, in order to find an area that matches the pattern image of a pedestrian, a search is performed by shifting one pixel at a time regardless of the position in the image, which requires a large amount of computation. There is a problem that the processing time required for recognition increases.
一方で、画像内に歩行者の像が存在する可能性や像のサイズは、画像内の位置によって異なり、均一ではない。走行中の車両から歩行者を認識して危険回避に使用する場合、歩行者の認識までに要する時間の短縮が非常に重要であるので、画像中の位置に応じてマッチング間隔を制御することで処理を効率化し、歩行者認識の精度を維持しつつ演算量を削減することが課題となっていた。 On the other hand, the possibility that a pedestrian image exists in the image and the size of the image vary depending on the position in the image and are not uniform. When recognizing a pedestrian from a running vehicle and using it to avoid danger, it is very important to shorten the time required to recognize the pedestrian, so it is possible to control the matching interval according to the position in the image. There has been a problem of reducing the amount of calculation while improving the efficiency of processing and maintaining the accuracy of pedestrian recognition.
本発明は、上述した従来技術における問題点を解消し、課題を解決するためになされたものであり、認識精度を維持しつつ演算量を削減し、高速で高精度な画像認識装置、画像認識方法および車両制御装置を提供することを目的とする。 The present invention has been made to solve the above-described problems in the prior art and to solve the problems, and reduces the amount of calculation while maintaining the recognition accuracy, and achieves a high-speed and high-accuracy image recognition apparatus and image recognition. It is an object to provide a method and a vehicle control device.
上述した課題を解決し、目的を達成するため、本発明に係る画像認識装置、画像認識方法および車両制御装置は、カメラが撮影した入力画像から判定対象領域を抽出し、判定対象領域の画像と基準画像とを比較して特定の物体の存在を認識する場合に、判定対象領域の入力画像内における位置に基づいて、抽出位置の間隔を制御する。 In order to solve the above-described problems and achieve the object, an image recognition device, an image recognition method, and a vehicle control device according to the present invention extract a determination target region from an input image captured by a camera, When the presence of a specific object is recognized by comparing with the reference image, the interval between the extraction positions is controlled based on the position of the determination target region in the input image.
本発明によれば画像認識装置、画像認識方法および車両制御装置は、画面内の位置に基づいて異なる間隔で判定対象領域を抽出して、特定の物体が存在する可能性の高い場所を効率的に探索するので、認識精度を維持しつつ演算量を削減し、高速で高精度な画像認識装置、画像認識方法および車両制御装置を得ることができるという効果を奏する。 According to the present invention, an image recognition device, an image recognition method, and a vehicle control device efficiently extract a place where a specific object is likely to exist by extracting determination target regions at different intervals based on a position in a screen. Therefore, it is possible to obtain a high-speed and high-accuracy image recognition apparatus, image recognition method, and vehicle control apparatus while maintaining the recognition accuracy.
以下に添付図面を参照して、この発明に係る画像認識装置、画像認識方法および車両制御装置の好適な実施例について詳細に説明する。 Exemplary embodiments of an image recognition device, an image recognition method, and a vehicle control device according to the present invention will be described below in detail with reference to the accompanying drawings.
まず、本発明における画像認識方法について図1を参照して説明する。本発明では、カメラが撮影した画像から判定対象領域を切り出す場合に、判定対象領域の入力画像内における位置に基づいて、切り出し(抽出)の間隔を制御する。 First, an image recognition method according to the present invention will be described with reference to FIG. In the present invention, when a determination target region is cut out from an image captured by the camera, the interval of extraction (extraction) is controlled based on the position of the determination target region in the input image.
たとえば、図1に示した画像P1では、画像内の下方から判定領域を切り出す場合は、上方から切り出す場合に比して切り出し間隔を大きくしている。これは、画像内の下方に現れる歩行者像は自車両から近い位置にいる歩行者の像であり、自車両から歩行者までの距離が近いほど歩行者像の入力画像内でのサイズが大きくなり、間隔を大きくしても歩行者像の一部が判定領域内にかかる可能性が高まるためである(一方、画像内の上方に現れる歩行者像は、自車両から遠い位置に居る歩行者の像であり、像のサイズが小さくなるために判定領域の切り出し間隔を小さくしないと検出漏れを生じる可能性がある。)。 For example, in the image P1 shown in FIG. 1, when the determination area is cut out from the lower side in the image, the cut-out interval is made larger than that from the upper side. This is because the pedestrian image that appears in the lower part of the image is an image of a pedestrian close to the host vehicle, and the closer the distance from the host vehicle to the pedestrian, the larger the size of the pedestrian image in the input image. This is because even if the interval is increased, there is a higher possibility that a part of the pedestrian image will fall within the determination region. (On the other hand, the pedestrian image that appears in the upper part of the image is a pedestrian located far from the host vehicle. Since the image size is small, detection omission may occur unless the cut-out interval of the determination region is reduced.
こうして比較的広い間隔で切り出した判定対象領域に、歩行者像の一部が含まれていれば、パターンマッチングを行なうことで判定対象領域に含まれた部分の歩行者像全体に対する割合に応じたテンプレートとの一致度が得られる。 If a part of the pedestrian image is included in the determination target area cut out at a relatively wide interval in this way, pattern matching is performed to respond to the ratio of the part included in the determination target area to the entire pedestrian image The degree of matching with the template is obtained.
そこで、比較的一致度の高い判定対象領域について、その周辺に対してずらしマッチングをおこなったり、切り出し領域のサイズを大きくして再度パターンマッチングを行なうことで、歩行者像全体を含んで判定対象領域を切り出すことができる。 Therefore, the determination target area including the entire pedestrian image can be obtained by shifting and matching the determination target area with a relatively high degree of matching, or by performing pattern matching again by increasing the size of the cutout area. Can be cut out.
このように、画像中の位置から歩行者の位置を予想し、予想結果に合わせて切り出し間隔を制御する(たとえば自車両から近い位置に対しては探索領域の間隔を大きく、自車両から遠い位置に対しては、探索領域の間隔を小さくする)ことで、効率的に歩行者像を得ることができる。 In this way, the position of the pedestrian is predicted from the position in the image, and the cutout interval is controlled in accordance with the prediction result (for example, the position of the search area is large for a position close to the host vehicle and the position is far from the host vehicle. In contrast, the pedestrian image can be efficiently obtained by reducing the interval between the search areas.
なお、探索領域(判定対象領域)自体の大きさについては、自車両から近い位置ほど、歩行者像は大きくなると予想されるので、それに合わせて画像の下方の探索領域は大きくし、画像の上方の探索領域は小さくすることでマッチングを取り易くすることが好適である。 As for the size of the search area (determination target area) itself, the closer to the vehicle, the larger the pedestrian image, so the search area below the image is enlarged accordingly, It is preferable to make matching easier by reducing the search area.
つづいて、図2を参照し、本発明の実施例である車載用の画像認識装置10の概要構成を説明する。同図に示すように、車両に搭載された画像認識装置10は、ナビゲーション装置30、カメラ31、レーダ33およびプリクラッシュECU40と接続している。
Next, with reference to FIG. 2, a schematic configuration of the in-vehicle
ナビゲーション装置30は、GPS(Global Positioning System)人工衛星と通信して特定した自車両の位置と、予め記憶した地図データ30aとを利用して走行経路の設定および誘導を行なう車載装置である。また、ナビゲーション装置30は、画像認識装置10に対して自車両の位置情報や周辺の地図情報、走行予定経路などを提供する。
The navigation device 30 is an in-vehicle device that sets and guides a travel route using the position of the host vehicle specified by communicating with a GPS (Global Positioning System) artificial satellite and
カメラ31は、自車両周辺を撮影し、撮影結果を画像認識装置10に入力する。レーダ33は、自車両の周辺の物体検知、および物体までの距離測定を行なって画像認識装置10に入力する。
The camera 31 captures the vicinity of the host vehicle and inputs the captured result to the
プリクラッシュECU40は、画像認識装置10が自車両の衝突を予測した場合に、画像認識装置10の制御をうけ、ブレーキ41やエンジン制御装置(EFI)42による車両の動作制御、またディスプレイ43やスピーカ44による通知を実行する電子制御装置である。
The pre-crash ECU 40 receives the control of the
ディスプレイ43はユーザ、すなわち自車両乗員に対して表示による通知を行なう出力手段であり、スピーカ44は音声による通知を行なう出力手段である。ディスプレイ43およびスピーカ44は、プリクラッシュECU40からの制御を受けて出力を行なう他、ナビゲーション装置30や図示しない車載オーディオ装置など各種車載装置で共用することができる。
The display 43 is an output means for notifying the user, that is, the vehicle occupant by display, and the
画像認識装置10は、その内部に前処理部11、車両認識部16、白線認識部17、歩行者認識部18および衝突判定部20を有する。ここで、車両認識部16、白線認識部17、歩行者認識部18および衝突判定部20は、例えば単一のマイコン10a(CPU、ROM、RAMの組み合わせからなる演算処理ユニット)などによって実現することが好適である。
The
前処理部11は、カメラ31が撮影した画像に対してフィルタリングやエッジ検出、輪郭抽出などの処理を施した後、車両認識部16、白線認識部17および歩行者認識部18に出力する。
The preprocessing unit 11 performs processing such as filtering, edge detection, and contour extraction on the image captured by the camera 31, and then outputs the image to the
車両認識部16は、前処理部11が出力した画像に対してパターンマッチングなどを施して車両を認識し、認識結果を衝突判定部20に出力する。また、白線認識部17は、前処理部11が出力した画像に対してパターンマッチングなどを施して白線を認識し、認識結果を衝突判定部20に出力する。
The
歩行者認識部18は、前処理部11が出力した画像(入力画像)から歩行者像を認識する処理部であり、その内部に切り出し部18a、間隔設定部18b、認識処理部18cを有する。
The
切り出し部18aは、入力画像から判定対象領域を切り出す処理を行なう。間隔設定部18bは、切り出し部18aによる判定対象領域の切り出し間隔を制御する処理部である。認識処理部18cは、切り出された判定対象領域内の画像とテンプレートとを比較して歩行者の存在を認識する処理を行なう。
The
衝突判定部20は、車両認識部16、白線認識部17、歩行者認識部18による認識結果、レーダ33による検知結果およびナビゲーション装置30が出力する位置情報を用いて、歩行者や他車両と自車両との衝突危険度を判定する。
The collision determination unit 20 uses the recognition results obtained by the
具体的には衝突判定部20は、歩行者や他車両との衝突が発生する確率、衝突する時間、衝突する位置までの距離、衝突する角度などを判定し、その判定結果に基づいてディスプレイ43に対する情報表示指示、スピーカ44に対する警告音声出力指示、ブレーキ制御指示やEFI制御指示などをプリクラッシュECU40に対して出力する。
Specifically, the collision determination unit 20 determines the probability of a collision with a pedestrian or another vehicle, the collision time, the distance to the collision position, the collision angle, and the like, and the display 43 based on the determination result. Information display instruction, warning sound output instruction to the
つづいて、判定対象領域の切り出し間隔制御についてさらに説明する。まず図3に示したように、画像P2の下方に歩行者像が存在する場合、比較的広い間隔で切り出した判定対象領域に対してパターンマッチングを施し、その一致度(マッチング率)の推移を取得すれば、歩行者が存在する可能性のある大まかな場所を得ることができる。即ち、ここではサーチ(サンプリング)間隔が大きいため、マッチング率も粗い値となる。 Next, the cutout interval control of the determination target area will be further described. First, as shown in FIG. 3, when a pedestrian image exists below the image P2, pattern matching is performed on the determination target region cut out at a relatively wide interval, and the transition of the matching degree (matching rate) is changed. If acquired, a rough place where a pedestrian may exist can be obtained. In other words, since the search (sampling) interval is large here, the matching rate is also a rough value.
そこで、同図の画像P3に示したように、比較的一致度の高い判定対象領域について、その周辺に対して横方向(画像のx軸方向、地面に水平かつ自車両の進行方向に直交する方向)に間隔を短くした切り出しを行なってパターンマッチングし、横方向でマッチング率のピークが得られる位置を探索する。即ち、ここではサーチ間隔が小さいため、マッチング率を細かく見ることができ、詳細なピーク値を検出できる。 Therefore, as shown in the image P3 in the figure, the determination target region having a relatively high degree of coincidence is lateral to the periphery (the x-axis direction of the image, horizontal to the ground, and orthogonal to the traveling direction of the host vehicle). (Direction) is cut out with a short interval, pattern matching is performed, and a position where a peak of the matching rate is obtained in the horizontal direction is searched. That is, since the search interval is small here, the matching rate can be seen in detail, and a detailed peak value can be detected.
さらにその後、図4の画像P4に示したように、縦方向(画像のy軸方向、地面に対する垂直方向と自車両進行方向の合成方向)に間隔を短くした切り出しを行なってパターンマッチングし、縦方向でマッチング率のピーク得られる位置を探索すると、画像P5に示したように歩行者像全体を含んだ判定対象領域を切り出すことができる。 After that, as shown in the image P4 in FIG. 4, the pattern matching is performed by performing cutout with a shorter interval in the vertical direction (the y-axis direction of the image, the combined direction of the vertical direction with respect to the ground and the traveling direction of the host vehicle), When the position where the peak of the matching rate is obtained in the direction is searched, the determination target region including the entire pedestrian image can be cut out as shown in the image P5.
ここで、歩行者認識には複数のテンプレートを使用し、いずれかのテンプレートとのマッチング率が所定値以上であれば歩行者であると判定することが多い。この場合、複数のテンプレートのいずれかによって歩行者が存在すると判定した後はその判定対象領域を以降の切り出しから除外する(他のテンプレートによるパターンマッチングを省略する)ことで、演算量をさらに削減することができる。 Here, a plurality of templates are used for pedestrian recognition, and it is often determined that the person is a pedestrian if the matching rate with any template is equal to or higher than a predetermined value. In this case, after determining that there is a pedestrian by any of a plurality of templates, the calculation target amount is further reduced by excluding the determination target region from the subsequent clipping (pattern matching by other templates is omitted). be able to.
また、歩行者認識は、カメラ31による画像撮影ごと(例えば数msecごと)に実行する。そこで、前回の入力画像において歩行者を認識した位置近傍の切り出しを優先することで、歩行者認識を高速化することができる。 In addition, pedestrian recognition is performed every time an image is captured by the camera 31 (for example, every several msec). Therefore, by prioritizing the cutout in the vicinity of the position where the pedestrian is recognized in the previous input image, the pedestrian recognition can be speeded up.
例えば図5に示した画像P7では、前回に撮影した画像において右下方に歩行者が存在していた。歩行者の移動速度に比してカメラ31の撮影間隔は十分に短いので、画像P7においても前回に近い位置に歩行者が存在する可能性が高い。 For example, in the image P7 shown in FIG. 5, a pedestrian is present in the lower right in the image taken last time. Since the shooting interval of the camera 31 is sufficiently shorter than the moving speed of the pedestrian, there is a high possibility that the pedestrian is present at a position close to the previous time in the image P7.
そこで、画像P7に対する判定対象領域の切り出しでは、まず前回歩行者が存在した右下近傍で短い間隔の判定対象領域の切り出しをおこない、その後、通常の間隔および通常の順序で(同図では左上から)判定対象領域の切り出しを行なっている。 Therefore, in the segmentation of the determination target region with respect to the image P7, first, the determination target region with a short interval is segmented near the lower right where the pedestrian existed last time, and thereafter, in a normal interval and a normal order (from the upper left in the figure). ) The determination target area is cut out.
また、歩行者が画像内に新たに現れる場合、撮影画像の左端もしくは右端から現れる可能性が高い。そこで、図6に画像P8として示したように、入力画像における左右の端部近傍から判定領域を切り出す場合には、切り出し間隔を小さくすることが望ましい。 Further, when a pedestrian newly appears in the image, there is a high possibility that the pedestrian will appear from the left end or the right end of the captured image. Therefore, as shown as an image P8 in FIG. 6, when the determination region is cut out from the vicinity of the left and right end portions in the input image, it is desirable to reduce the cut-out interval.
同様に、歩行者が物陰から急に現れることも考えられるので、図7に画像P9として示したように、物陰、すなわち歩行者を遮蔽する可能性のある物体、例えば他車両や建物、樹木などを認識済みであるならば、遮蔽物近傍の切り出し間隔を小さくするが望ましい。なお、遮蔽物の認識には、車両認識部16などによる画像認識や、レーダ33の出力などを用いることができる。
Similarly, since a pedestrian may suddenly appear from behind the object, as shown as an image P9 in FIG. 7, the object, that is, an object that may block the pedestrian, such as another vehicle, a building, a tree, etc. If it is already recognized, it is desirable to reduce the cut-out interval near the shield. For the recognition of the shielding object, image recognition by the
つづいて、図8を参照し、図2に示した画像認識装置10全体の処理動作について説明する。同図に示す処理フローは、電源スイッチ(イグニッションスイッチなどと連動していてもよい)がオンされ、カメラ31が画像を撮影した場合に開始され、画像フレームの処理ごと(例えば数msecごと)に繰り返し実行される処理である。
Next, the processing operation of the entire
まず、画像認識装置10は、カメラ31が撮影した画像に対して前処理部11によるフィルタリング、エッジ検出、輪郭抽出などの処理を施す(ステップS101)。つぎに、白線認識部16による白線認識処理(ステップS102)および車両認識部16による車両認識処理(ステップS103)を実行する。
First, the
その後、歩行者認識部18が歩行者認識を実行し(ステップS104)、衝突判定部20が衝突判定を行なって(ステップS105)、判定結果をプリクラッシュECU40に出力し(ステップS106)、処理を終了する。
Thereafter, the
ここで、ステップS104として示した歩行者認識処理部18の具体的な処理内容を図9に示す。同図に示すように、歩行者認識部18は、まず間隔設定部18bによる切り出し間隔の設定を行い(ステップS201)、設定した切り出し間隔で切り出し処理部18aによる判定対象領域の切り出しを行なう(ステップS202)。判定対象領域は背景画像を差分して残った特異な画像を候補領域とし、これを取り囲んだ領域を判定対象とする。
Here, the concrete processing content of the pedestrian
つぎに、認識処理部18cがテンプレートとのマッチング率を算出し(ステップS203)、マッチング率のピーク値、すなわち判定対象領域に歩行者像が完全に入った状態でのマッチング率の値を探索し、このピーク値と閾値とを比較し、閾値を越えたか否かによって歩行者の有無を判定して(ステップS204)、処理を終了する。認識にあたっては形状の一致度(%)が判定の閾値を超えたか否かで判断する。
Next, the
つぎに、プリクラッシュECU40の処理動作について図10のフローチャートを参照して説明する。同図に示す処理フローは、プリクラッシュECU40の動作中に繰り返し実行される。
Next, the processing operation of the
まず、プリクラッシュECU40は、画像認識装置10から衝突判定結果を衝突判定情報として取得する(ステップS301)。そして、衝突の危険度が大きい場合には(ステップS302,Yes)、ディスプレイ43とスピーカ44を用いて運転者に報知する(ステップS303)とともに、ブレーキ41およびEFI42を制御して自車両の走行状態を制御し(ステップS304)、処理を終了する。
First, the
上述してきたように、本実施例にかかる画像認識装置10は、カメラが撮影した画像から判定対象領域を切り出す場合に、判定対象領域の入力画像内における位置に基づいて、切り出しの間隔を制御するので、パターンマッチングの精度を維持しつつ演算量を削減し、認識処理を高速化することができる。
As described above, when the
なお、切り出し間隔の他に、判定対象領域のサイズについても画像内における位置に合わせて制御するようにしてもよい。 In addition to the cutout interval, the size of the determination target area may be controlled according to the position in the image.
また、本発明ではパターンマッチングによる認識を例に説明を行なったが、本発明はこれに限定されるものではなく、判定対象領域を切り出して行なう任意に認識手法に適用することが可能である。 In the present invention, recognition by pattern matching has been described as an example. However, the present invention is not limited to this, and can be applied to any recognition method in which a determination target region is cut out.
同様に、本実施例では特定の物体として歩行者を認識する場合を例に説明を行なったが、他の物体、例えば道路上の落下物などの認識についても適用することができる。 Similarly, in this embodiment, the case where a pedestrian is recognized as a specific object has been described as an example, but the present invention can also be applied to recognition of other objects such as a falling object on a road.
以上のように、本発明にかかる画像認識装置、画像認識方法および車両制御装置は、車両における画像認識に有用であり、特に認識処理負荷の軽減に適している。 As described above, the image recognition device, the image recognition method, and the vehicle control device according to the present invention are useful for image recognition in a vehicle and are particularly suitable for reducing the recognition processing load.
10 画像認識装置
10a マイコン
16 車両認識部
17 白線認識部
18 歩行者認識部
18a 切り出し部
18b 間隔設定部
18c 認識処理部
20 衝突判定部
30 ナビゲーション装置
30a 地図データ
31 カメラ
33 レーダ
40 プリクラッシュECU
41 ブレーキ
42 EFI
43 ディスプレイ
44 スピーカ
DESCRIPTION OF
41 Brake 42 EFI
43
Claims (10)
前記判定対象領域の画像と基準画像とを比較して特定の物体の存在を認識する認識手段と、
前記入力画像内における位置に基づいて、前記抽出手段による判定対象領域の抽出位置の間隔を制御する間隔制御手段と、
を備えたことを特徴とする画像認識装置。 Extraction means for extracting a determination target region from an input image captured by the camera;
Recognition means for comparing the image of the determination target region with a reference image to recognize the presence of a specific object;
Based on the position in the input image, interval control means for controlling the interval of the extraction position of the determination target region by the extraction means;
An image recognition apparatus comprising:
前記判定対象領域の画像と基準画像とを比較して特定の物体の存在を認識する認識工程と、
前記入力画像内における位置に基づいて、前記抽出手段による判定対象領域の抽出位置の間隔を制御する間隔制御工程と、
を含んだことを特徴とする画像認識方法。 An extraction step of extracting a determination target region from an input image captured by the camera;
A recognition step of recognizing the presence of a specific object by comparing the image of the determination target region with a reference image;
An interval control step for controlling an interval of extraction positions of the determination target region by the extraction unit based on a position in the input image;
An image recognition method comprising:
前記判定対象領域の画像と基準画像とを比較して特定の物体の存在を認識する認識手段と、
前記入力画像内における位置に基づいて、前記抽出手段による判定対象領域の抽出位置の間隔を制御する間隔制御手段と、
前記認識手段による認識結果に基づいて、運転者に対する報知制御、および/または車両の走行状態を制御する走行制御を実行する制御手段と、
を備えたことを特徴とする車両制御装置。 Extraction means for extracting a determination target region from an input image captured by the camera;
Recognizing means for recognizing the presence of a specific object by comparing the image of the determination target region with a reference image;
Based on the position in the input image, interval control means for controlling the interval of the extraction position of the determination target region by the extraction means;
Control means for executing notification control for the driver and / or traveling control for controlling the traveling state of the vehicle based on the recognition result by the recognition means;
A vehicle control device comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006185901A JP2008015771A (en) | 2006-07-05 | 2006-07-05 | Image recognition device, image recognition method, and vehicle control device |
US11/822,232 US20080008355A1 (en) | 2006-07-05 | 2007-07-03 | Image recognition apparatus, image recognition method, and vehicle control apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006185901A JP2008015771A (en) | 2006-07-05 | 2006-07-05 | Image recognition device, image recognition method, and vehicle control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008015771A true JP2008015771A (en) | 2008-01-24 |
JP2008015771A5 JP2008015771A5 (en) | 2010-05-20 |
Family
ID=39072722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006185901A Pending JP2008015771A (en) | 2006-07-05 | 2006-07-05 | Image recognition device, image recognition method, and vehicle control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008015771A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128919A (en) * | 2008-11-28 | 2010-06-10 | Hitachi Automotive Systems Ltd | Object detection apparatus |
JP2013008328A (en) * | 2011-06-27 | 2013-01-10 | Clarion Co Ltd | Vehicle periphery monitoring system |
JP2013105419A (en) * | 2011-11-16 | 2013-05-30 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
EP2669849A2 (en) | 2012-05-30 | 2013-12-04 | Hitachi Ltd. | Object detecting device and object detecting method |
JP2014044730A (en) * | 2013-09-24 | 2014-03-13 | Clarion Co Ltd | Image processing apparatus |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07220076A (en) * | 1994-01-28 | 1995-08-18 | Sanyo Electric Co Ltd | Image processing device |
JP2004235711A (en) * | 2003-01-28 | 2004-08-19 | Nissan Motor Co Ltd | Target tracking system and method therefor |
-
2006
- 2006-07-05 JP JP2006185901A patent/JP2008015771A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07220076A (en) * | 1994-01-28 | 1995-08-18 | Sanyo Electric Co Ltd | Image processing device |
JP2004235711A (en) * | 2003-01-28 | 2004-08-19 | Nissan Motor Co Ltd | Target tracking system and method therefor |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128919A (en) * | 2008-11-28 | 2010-06-10 | Hitachi Automotive Systems Ltd | Object detection apparatus |
JP2013008328A (en) * | 2011-06-27 | 2013-01-10 | Clarion Co Ltd | Vehicle periphery monitoring system |
US9177196B2 (en) | 2011-06-27 | 2015-11-03 | Clarion Co., Ltd. | Vehicle periphery monitoring system |
JP2013105419A (en) * | 2011-11-16 | 2013-05-30 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
EP2669849A2 (en) | 2012-05-30 | 2013-12-04 | Hitachi Ltd. | Object detecting device and object detecting method |
JP2013250604A (en) * | 2012-05-30 | 2013-12-12 | Hitachi Ltd | Object detecting device and object detecting method |
US9465998B2 (en) | 2012-05-30 | 2016-10-11 | Hitachi, Ltd. | Object detecting device and object detecting method |
JP2014044730A (en) * | 2013-09-24 | 2014-03-13 | Clarion Co Ltd | Image processing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4322913B2 (en) | Image recognition apparatus, image recognition method, and electronic control apparatus | |
JP4790454B2 (en) | Image recognition device, vehicle control device, image recognition method, and vehicle control method | |
US20080008355A1 (en) | Image recognition apparatus, image recognition method, and vehicle control apparatus | |
JP2007328630A (en) | Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device | |
US9731661B2 (en) | System and method for traffic signal recognition | |
RU2634852C1 (en) | Traffic light detecting device and traffic light detecting method | |
US9904846B2 (en) | Pedestrian behavior predicting device and pedestrian behavior predicting method | |
US20170259814A1 (en) | Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object | |
EP2963633A1 (en) | Object sensing device | |
JP2007072665A (en) | Object discrimination device, object discrimination method and object discrimination program | |
JP2008021034A (en) | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller | |
US20140002657A1 (en) | Forward collision warning system and forward collision warning method | |
JP4757808B2 (en) | Image recognition device, image recognition method, vehicle control device, and vehicle control method | |
JP6165120B2 (en) | Traveling line recognition device | |
US20140233795A1 (en) | Driver assistance system, driver assistance method and information storage medium | |
JP2009132259A (en) | Vehicle surrounding-monitoring device | |
JP2008015771A (en) | Image recognition device, image recognition method, and vehicle control device | |
JP2009070344A (en) | Image recognition device, image recognition method, and electronic control device | |
US20170103652A1 (en) | Driving support apparatus | |
JP2007064894A (en) | Object detector, object detecting method, and object detection program | |
JP2010072947A (en) | Obstacle detection device | |
JP2007219836A (en) | Vehicle travel support device | |
JP2008015770A (en) | Image recognition device and image recognition method | |
JP5838948B2 (en) | Object identification device | |
JP2007328631A (en) | Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090622 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100329 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110201 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110726 |