JP2008015771A - Image recognition device, image recognition method, and vehicle control device - Google Patents

Image recognition device, image recognition method, and vehicle control device Download PDF

Info

Publication number
JP2008015771A
JP2008015771A JP2006185901A JP2006185901A JP2008015771A JP 2008015771 A JP2008015771 A JP 2008015771A JP 2006185901 A JP2006185901 A JP 2006185901A JP 2006185901 A JP2006185901 A JP 2006185901A JP 2008015771 A JP2008015771 A JP 2008015771A
Authority
JP
Japan
Prior art keywords
image
interval
extraction
recognition
determination target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006185901A
Other languages
Japanese (ja)
Other versions
JP2008015771A5 (en
Inventor
Yoshiko Okamoto
佳子 岡本
Katsumi Sakata
克己 阪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2006185901A priority Critical patent/JP2008015771A/en
Priority to US11/822,232 priority patent/US20080008355A1/en
Publication of JP2008015771A publication Critical patent/JP2008015771A/en
Publication of JP2008015771A5 publication Critical patent/JP2008015771A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce computing volume while maintaining recognition accuracy in recognition of a pedestrian. <P>SOLUTION: When a frame of a determination object area is captured from an image P1 shot by a camera, and if the frame of the determination area is captured from a lower side in the image, the capturing spacing is made larger compared with the case when capturing is made from the upper side. Then, the matching levels with the template in the captured determination object area which is captured with comparatively large spacing is compared. For the determination object area of comparatively high matching rate, the determination target area including whole pedestrian image is captured by performing shift matching to the circumference or performing the pattern matching for the second time by enlarging the size of the capturing area. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、カメラが撮影した入力画像から特定の物体を画像認識する画像認識装置、およびその方法に関し、特に歩行者を認識する画像認識装置、画像認識方法および車両制御装置に関する。   The present invention relates to an image recognition apparatus that recognizes a specific object from an input image captured by a camera, and a method thereof, and more particularly, to an image recognition apparatus that recognizes a pedestrian, an image recognition method, and a vehicle control apparatus.

車両の走行中においては、特に歩行者との衝突回避が重要である。そこで近年、画像認識やレーダ検知を用いて自車両周辺の歩行者を認識する技術が考案されてきた(例えば、特許文献1参照。)。   It is particularly important to avoid collisions with pedestrians while the vehicle is running. Therefore, in recent years, a technique for recognizing pedestrians around the own vehicle using image recognition and radar detection has been devised (see, for example, Patent Document 1).

特開2002−362302号公報JP 2002-362302 A

しかしながら、従来、歩行者のテンプレート画像にパターンマッチする領域を見つけるためには、画像中の位置に関係なく一画素ずつずらしてサーチを行なっており、大きな演算量が必要であり、そのため、歩行者認識に要する処理時間が大きくなるという問題点があった。   However, conventionally, in order to find an area that matches the pattern image of a pedestrian, a search is performed by shifting one pixel at a time regardless of the position in the image, which requires a large amount of computation. There is a problem that the processing time required for recognition increases.

一方で、画像内に歩行者の像が存在する可能性や像のサイズは、画像内の位置によって異なり、均一ではない。走行中の車両から歩行者を認識して危険回避に使用する場合、歩行者の認識までに要する時間の短縮が非常に重要であるので、画像中の位置に応じてマッチング間隔を制御することで処理を効率化し、歩行者認識の精度を維持しつつ演算量を削減することが課題となっていた。   On the other hand, the possibility that a pedestrian image exists in the image and the size of the image vary depending on the position in the image and are not uniform. When recognizing a pedestrian from a running vehicle and using it to avoid danger, it is very important to shorten the time required to recognize the pedestrian, so it is possible to control the matching interval according to the position in the image. There has been a problem of reducing the amount of calculation while improving the efficiency of processing and maintaining the accuracy of pedestrian recognition.

本発明は、上述した従来技術における問題点を解消し、課題を解決するためになされたものであり、認識精度を維持しつつ演算量を削減し、高速で高精度な画像認識装置、画像認識方法および車両制御装置を提供することを目的とする。   The present invention has been made to solve the above-described problems in the prior art and to solve the problems, and reduces the amount of calculation while maintaining the recognition accuracy, and achieves a high-speed and high-accuracy image recognition apparatus and image recognition. It is an object to provide a method and a vehicle control device.

上述した課題を解決し、目的を達成するため、本発明に係る画像認識装置、画像認識方法および車両制御装置は、カメラが撮影した入力画像から判定対象領域を抽出し、判定対象領域の画像と基準画像とを比較して特定の物体の存在を認識する場合に、判定対象領域の入力画像内における位置に基づいて、抽出位置の間隔を制御する。   In order to solve the above-described problems and achieve the object, an image recognition device, an image recognition method, and a vehicle control device according to the present invention extract a determination target region from an input image captured by a camera, When the presence of a specific object is recognized by comparing with the reference image, the interval between the extraction positions is controlled based on the position of the determination target region in the input image.

本発明によれば画像認識装置、画像認識方法および車両制御装置は、画面内の位置に基づいて異なる間隔で判定対象領域を抽出して、特定の物体が存在する可能性の高い場所を効率的に探索するので、認識精度を維持しつつ演算量を削減し、高速で高精度な画像認識装置、画像認識方法および車両制御装置を得ることができるという効果を奏する。   According to the present invention, an image recognition device, an image recognition method, and a vehicle control device efficiently extract a place where a specific object is likely to exist by extracting determination target regions at different intervals based on a position in a screen. Therefore, it is possible to obtain a high-speed and high-accuracy image recognition apparatus, image recognition method, and vehicle control apparatus while maintaining the recognition accuracy.

以下に添付図面を参照して、この発明に係る画像認識装置、画像認識方法および車両制御装置の好適な実施例について詳細に説明する。   Exemplary embodiments of an image recognition device, an image recognition method, and a vehicle control device according to the present invention will be described below in detail with reference to the accompanying drawings.

まず、本発明における画像認識方法について図1を参照して説明する。本発明では、カメラが撮影した画像から判定対象領域を切り出す場合に、判定対象領域の入力画像内における位置に基づいて、切り出し(抽出)の間隔を制御する。   First, an image recognition method according to the present invention will be described with reference to FIG. In the present invention, when a determination target region is cut out from an image captured by the camera, the interval of extraction (extraction) is controlled based on the position of the determination target region in the input image.

たとえば、図1に示した画像P1では、画像内の下方から判定領域を切り出す場合は、上方から切り出す場合に比して切り出し間隔を大きくしている。これは、画像内の下方に現れる歩行者像は自車両から近い位置にいる歩行者の像であり、自車両から歩行者までの距離が近いほど歩行者像の入力画像内でのサイズが大きくなり、間隔を大きくしても歩行者像の一部が判定領域内にかかる可能性が高まるためである(一方、画像内の上方に現れる歩行者像は、自車両から遠い位置に居る歩行者の像であり、像のサイズが小さくなるために判定領域の切り出し間隔を小さくしないと検出漏れを生じる可能性がある。)。   For example, in the image P1 shown in FIG. 1, when the determination area is cut out from the lower side in the image, the cut-out interval is made larger than that from the upper side. This is because the pedestrian image that appears in the lower part of the image is an image of a pedestrian close to the host vehicle, and the closer the distance from the host vehicle to the pedestrian, the larger the size of the pedestrian image in the input image. This is because even if the interval is increased, there is a higher possibility that a part of the pedestrian image will fall within the determination region. (On the other hand, the pedestrian image that appears in the upper part of the image is a pedestrian located far from the host vehicle. Since the image size is small, detection omission may occur unless the cut-out interval of the determination region is reduced.

こうして比較的広い間隔で切り出した判定対象領域に、歩行者像の一部が含まれていれば、パターンマッチングを行なうことで判定対象領域に含まれた部分の歩行者像全体に対する割合に応じたテンプレートとの一致度が得られる。   If a part of the pedestrian image is included in the determination target area cut out at a relatively wide interval in this way, pattern matching is performed to respond to the ratio of the part included in the determination target area to the entire pedestrian image The degree of matching with the template is obtained.

そこで、比較的一致度の高い判定対象領域について、その周辺に対してずらしマッチングをおこなったり、切り出し領域のサイズを大きくして再度パターンマッチングを行なうことで、歩行者像全体を含んで判定対象領域を切り出すことができる。   Therefore, the determination target area including the entire pedestrian image can be obtained by shifting and matching the determination target area with a relatively high degree of matching, or by performing pattern matching again by increasing the size of the cutout area. Can be cut out.

このように、画像中の位置から歩行者の位置を予想し、予想結果に合わせて切り出し間隔を制御する(たとえば自車両から近い位置に対しては探索領域の間隔を大きく、自車両から遠い位置に対しては、探索領域の間隔を小さくする)ことで、効率的に歩行者像を得ることができる。   In this way, the position of the pedestrian is predicted from the position in the image, and the cutout interval is controlled in accordance with the prediction result (for example, the position of the search area is large for a position close to the host vehicle and the position is far from the host vehicle. In contrast, the pedestrian image can be efficiently obtained by reducing the interval between the search areas.

なお、探索領域(判定対象領域)自体の大きさについては、自車両から近い位置ほど、歩行者像は大きくなると予想されるので、それに合わせて画像の下方の探索領域は大きくし、画像の上方の探索領域は小さくすることでマッチングを取り易くすることが好適である。   As for the size of the search area (determination target area) itself, the closer to the vehicle, the larger the pedestrian image, so the search area below the image is enlarged accordingly, It is preferable to make matching easier by reducing the search area.

つづいて、図2を参照し、本発明の実施例である車載用の画像認識装置10の概要構成を説明する。同図に示すように、車両に搭載された画像認識装置10は、ナビゲーション装置30、カメラ31、レーダ33およびプリクラッシュECU40と接続している。   Next, with reference to FIG. 2, a schematic configuration of the in-vehicle image recognition apparatus 10 which is an embodiment of the present invention will be described. As shown in the figure, the image recognition device 10 mounted on the vehicle is connected to a navigation device 30, a camera 31, a radar 33, and a pre-crash ECU 40.

ナビゲーション装置30は、GPS(Global Positioning System)人工衛星と通信して特定した自車両の位置と、予め記憶した地図データ30aとを利用して走行経路の設定および誘導を行なう車載装置である。また、ナビゲーション装置30は、画像認識装置10に対して自車両の位置情報や周辺の地図情報、走行予定経路などを提供する。   The navigation device 30 is an in-vehicle device that sets and guides a travel route using the position of the host vehicle specified by communicating with a GPS (Global Positioning System) artificial satellite and map data 30a stored in advance. In addition, the navigation device 30 provides the image recognition device 10 with location information of the host vehicle, surrounding map information, a planned travel route, and the like.

カメラ31は、自車両周辺を撮影し、撮影結果を画像認識装置10に入力する。レーダ33は、自車両の周辺の物体検知、および物体までの距離測定を行なって画像認識装置10に入力する。   The camera 31 captures the vicinity of the host vehicle and inputs the captured result to the image recognition apparatus 10. The radar 33 detects an object around the own vehicle and measures a distance to the object and inputs the detected object to the image recognition apparatus 10.

プリクラッシュECU40は、画像認識装置10が自車両の衝突を予測した場合に、画像認識装置10の制御をうけ、ブレーキ41やエンジン制御装置(EFI)42による車両の動作制御、またディスプレイ43やスピーカ44による通知を実行する電子制御装置である。   The pre-crash ECU 40 receives the control of the image recognition device 10 when the image recognition device 10 predicts a collision of the host vehicle, controls the operation of the vehicle by the brake 41 and the engine control device (EFI) 42, and displays the display 43 and the speaker. 44 is an electronic control device that executes notification by 44.

ディスプレイ43はユーザ、すなわち自車両乗員に対して表示による通知を行なう出力手段であり、スピーカ44は音声による通知を行なう出力手段である。ディスプレイ43およびスピーカ44は、プリクラッシュECU40からの制御を受けて出力を行なう他、ナビゲーション装置30や図示しない車載オーディオ装置など各種車載装置で共用することができる。   The display 43 is an output means for notifying the user, that is, the vehicle occupant by display, and the speaker 44 is an output means for notifying by voice. The display 43 and the speaker 44 can be shared by various in-vehicle devices such as the navigation device 30 and an in-vehicle audio device (not shown) in addition to performing output under the control of the pre-crash ECU 40.

画像認識装置10は、その内部に前処理部11、車両認識部16、白線認識部17、歩行者認識部18および衝突判定部20を有する。ここで、車両認識部16、白線認識部17、歩行者認識部18および衝突判定部20は、例えば単一のマイコン10a(CPU、ROM、RAMの組み合わせからなる演算処理ユニット)などによって実現することが好適である。   The image recognition apparatus 10 includes a preprocessing unit 11, a vehicle recognition unit 16, a white line recognition unit 17, a pedestrian recognition unit 18, and a collision determination unit 20 therein. Here, the vehicle recognition unit 16, the white line recognition unit 17, the pedestrian recognition unit 18, and the collision determination unit 20 are realized by, for example, a single microcomputer 10a (an arithmetic processing unit including a combination of a CPU, a ROM, and a RAM). Is preferred.

前処理部11は、カメラ31が撮影した画像に対してフィルタリングやエッジ検出、輪郭抽出などの処理を施した後、車両認識部16、白線認識部17および歩行者認識部18に出力する。   The preprocessing unit 11 performs processing such as filtering, edge detection, and contour extraction on the image captured by the camera 31, and then outputs the image to the vehicle recognition unit 16, the white line recognition unit 17, and the pedestrian recognition unit 18.

車両認識部16は、前処理部11が出力した画像に対してパターンマッチングなどを施して車両を認識し、認識結果を衝突判定部20に出力する。また、白線認識部17は、前処理部11が出力した画像に対してパターンマッチングなどを施して白線を認識し、認識結果を衝突判定部20に出力する。   The vehicle recognition unit 16 performs pattern matching on the image output from the preprocessing unit 11 to recognize the vehicle, and outputs the recognition result to the collision determination unit 20. Further, the white line recognition unit 17 recognizes a white line by performing pattern matching or the like on the image output from the preprocessing unit 11, and outputs the recognition result to the collision determination unit 20.

歩行者認識部18は、前処理部11が出力した画像(入力画像)から歩行者像を認識する処理部であり、その内部に切り出し部18a、間隔設定部18b、認識処理部18cを有する。   The pedestrian recognition unit 18 is a processing unit that recognizes a pedestrian image from the image (input image) output by the preprocessing unit 11, and includes a cutout unit 18a, an interval setting unit 18b, and a recognition processing unit 18c.

切り出し部18aは、入力画像から判定対象領域を切り出す処理を行なう。間隔設定部18bは、切り出し部18aによる判定対象領域の切り出し間隔を制御する処理部である。認識処理部18cは、切り出された判定対象領域内の画像とテンプレートとを比較して歩行者の存在を認識する処理を行なう。   The cutout unit 18a performs a process of cutting out the determination target region from the input image. The interval setting unit 18b is a processing unit that controls the cut-out interval of the determination target region by the cut-out unit 18a. The recognition processing unit 18c performs a process of recognizing the presence of a pedestrian by comparing the extracted image in the determination target region with the template.

衝突判定部20は、車両認識部16、白線認識部17、歩行者認識部18による認識結果、レーダ33による検知結果およびナビゲーション装置30が出力する位置情報を用いて、歩行者や他車両と自車両との衝突危険度を判定する。   The collision determination unit 20 uses the recognition results obtained by the vehicle recognition unit 16, the white line recognition unit 17, the pedestrian recognition unit 18, the detection result obtained by the radar 33, and the position information output from the navigation device 30, and automatically detects the collision with the pedestrian and other vehicles. Determine the risk of collision with the vehicle.

具体的には衝突判定部20は、歩行者や他車両との衝突が発生する確率、衝突する時間、衝突する位置までの距離、衝突する角度などを判定し、その判定結果に基づいてディスプレイ43に対する情報表示指示、スピーカ44に対する警告音声出力指示、ブレーキ制御指示やEFI制御指示などをプリクラッシュECU40に対して出力する。   Specifically, the collision determination unit 20 determines the probability of a collision with a pedestrian or another vehicle, the collision time, the distance to the collision position, the collision angle, and the like, and the display 43 based on the determination result. Information display instruction, warning sound output instruction to the speaker 44, brake control instruction, EFI control instruction, and the like are output to the pre-crash ECU 40.

つづいて、判定対象領域の切り出し間隔制御についてさらに説明する。まず図3に示したように、画像P2の下方に歩行者像が存在する場合、比較的広い間隔で切り出した判定対象領域に対してパターンマッチングを施し、その一致度(マッチング率)の推移を取得すれば、歩行者が存在する可能性のある大まかな場所を得ることができる。即ち、ここではサーチ(サンプリング)間隔が大きいため、マッチング率も粗い値となる。   Next, the cutout interval control of the determination target area will be further described. First, as shown in FIG. 3, when a pedestrian image exists below the image P2, pattern matching is performed on the determination target region cut out at a relatively wide interval, and the transition of the matching degree (matching rate) is changed. If acquired, a rough place where a pedestrian may exist can be obtained. In other words, since the search (sampling) interval is large here, the matching rate is also a rough value.

そこで、同図の画像P3に示したように、比較的一致度の高い判定対象領域について、その周辺に対して横方向(画像のx軸方向、地面に水平かつ自車両の進行方向に直交する方向)に間隔を短くした切り出しを行なってパターンマッチングし、横方向でマッチング率のピークが得られる位置を探索する。即ち、ここではサーチ間隔が小さいため、マッチング率を細かく見ることができ、詳細なピーク値を検出できる。   Therefore, as shown in the image P3 in the figure, the determination target region having a relatively high degree of coincidence is lateral to the periphery (the x-axis direction of the image, horizontal to the ground, and orthogonal to the traveling direction of the host vehicle). (Direction) is cut out with a short interval, pattern matching is performed, and a position where a peak of the matching rate is obtained in the horizontal direction is searched. That is, since the search interval is small here, the matching rate can be seen in detail, and a detailed peak value can be detected.

さらにその後、図4の画像P4に示したように、縦方向(画像のy軸方向、地面に対する垂直方向と自車両進行方向の合成方向)に間隔を短くした切り出しを行なってパターンマッチングし、縦方向でマッチング率のピーク得られる位置を探索すると、画像P5に示したように歩行者像全体を含んだ判定対象領域を切り出すことができる。   After that, as shown in the image P4 in FIG. 4, the pattern matching is performed by performing cutout with a shorter interval in the vertical direction (the y-axis direction of the image, the combined direction of the vertical direction with respect to the ground and the traveling direction of the host vehicle), When the position where the peak of the matching rate is obtained in the direction is searched, the determination target region including the entire pedestrian image can be cut out as shown in the image P5.

ここで、歩行者認識には複数のテンプレートを使用し、いずれかのテンプレートとのマッチング率が所定値以上であれば歩行者であると判定することが多い。この場合、複数のテンプレートのいずれかによって歩行者が存在すると判定した後はその判定対象領域を以降の切り出しから除外する(他のテンプレートによるパターンマッチングを省略する)ことで、演算量をさらに削減することができる。   Here, a plurality of templates are used for pedestrian recognition, and it is often determined that the person is a pedestrian if the matching rate with any template is equal to or higher than a predetermined value. In this case, after determining that there is a pedestrian by any of a plurality of templates, the calculation target amount is further reduced by excluding the determination target region from the subsequent clipping (pattern matching by other templates is omitted). be able to.

また、歩行者認識は、カメラ31による画像撮影ごと(例えば数msecごと)に実行する。そこで、前回の入力画像において歩行者を認識した位置近傍の切り出しを優先することで、歩行者認識を高速化することができる。   In addition, pedestrian recognition is performed every time an image is captured by the camera 31 (for example, every several msec). Therefore, by prioritizing the cutout in the vicinity of the position where the pedestrian is recognized in the previous input image, the pedestrian recognition can be speeded up.

例えば図5に示した画像P7では、前回に撮影した画像において右下方に歩行者が存在していた。歩行者の移動速度に比してカメラ31の撮影間隔は十分に短いので、画像P7においても前回に近い位置に歩行者が存在する可能性が高い。   For example, in the image P7 shown in FIG. 5, a pedestrian is present in the lower right in the image taken last time. Since the shooting interval of the camera 31 is sufficiently shorter than the moving speed of the pedestrian, there is a high possibility that the pedestrian is present at a position close to the previous time in the image P7.

そこで、画像P7に対する判定対象領域の切り出しでは、まず前回歩行者が存在した右下近傍で短い間隔の判定対象領域の切り出しをおこない、その後、通常の間隔および通常の順序で(同図では左上から)判定対象領域の切り出しを行なっている。   Therefore, in the segmentation of the determination target region with respect to the image P7, first, the determination target region with a short interval is segmented near the lower right where the pedestrian existed last time, and thereafter, in a normal interval and a normal order (from the upper left in the figure). ) The determination target area is cut out.

また、歩行者が画像内に新たに現れる場合、撮影画像の左端もしくは右端から現れる可能性が高い。そこで、図6に画像P8として示したように、入力画像における左右の端部近傍から判定領域を切り出す場合には、切り出し間隔を小さくすることが望ましい。   Further, when a pedestrian newly appears in the image, there is a high possibility that the pedestrian will appear from the left end or the right end of the captured image. Therefore, as shown as an image P8 in FIG. 6, when the determination region is cut out from the vicinity of the left and right end portions in the input image, it is desirable to reduce the cut-out interval.

同様に、歩行者が物陰から急に現れることも考えられるので、図7に画像P9として示したように、物陰、すなわち歩行者を遮蔽する可能性のある物体、例えば他車両や建物、樹木などを認識済みであるならば、遮蔽物近傍の切り出し間隔を小さくするが望ましい。なお、遮蔽物の認識には、車両認識部16などによる画像認識や、レーダ33の出力などを用いることができる。   Similarly, since a pedestrian may suddenly appear from behind the object, as shown as an image P9 in FIG. 7, the object, that is, an object that may block the pedestrian, such as another vehicle, a building, a tree, etc. If it is already recognized, it is desirable to reduce the cut-out interval near the shield. For the recognition of the shielding object, image recognition by the vehicle recognition unit 16 or the output of the radar 33 can be used.

つづいて、図8を参照し、図2に示した画像認識装置10全体の処理動作について説明する。同図に示す処理フローは、電源スイッチ(イグニッションスイッチなどと連動していてもよい)がオンされ、カメラ31が画像を撮影した場合に開始され、画像フレームの処理ごと(例えば数msecごと)に繰り返し実行される処理である。   Next, the processing operation of the entire image recognition apparatus 10 shown in FIG. 2 will be described with reference to FIG. The processing flow shown in the figure is started when a power switch (which may be linked to an ignition switch or the like) is turned on and the camera 31 captures an image, and for each processing of an image frame (for example, every several msec). This process is repeatedly executed.

まず、画像認識装置10は、カメラ31が撮影した画像に対して前処理部11によるフィルタリング、エッジ検出、輪郭抽出などの処理を施す(ステップS101)。つぎに、白線認識部16による白線認識処理(ステップS102)および車両認識部16による車両認識処理(ステップS103)を実行する。   First, the image recognition apparatus 10 performs processing such as filtering, edge detection, and contour extraction by the preprocessing unit 11 on an image captured by the camera 31 (step S101). Next, the white line recognition process (step S102) by the white line recognition part 16 and the vehicle recognition process (step S103) by the vehicle recognition part 16 are performed.

その後、歩行者認識部18が歩行者認識を実行し(ステップS104)、衝突判定部20が衝突判定を行なって(ステップS105)、判定結果をプリクラッシュECU40に出力し(ステップS106)、処理を終了する。   Thereafter, the pedestrian recognition unit 18 performs pedestrian recognition (step S104), the collision determination unit 20 performs collision determination (step S105), and outputs the determination result to the pre-crash ECU 40 (step S106). finish.

ここで、ステップS104として示した歩行者認識処理部18の具体的な処理内容を図9に示す。同図に示すように、歩行者認識部18は、まず間隔設定部18bによる切り出し間隔の設定を行い(ステップS201)、設定した切り出し間隔で切り出し処理部18aによる判定対象領域の切り出しを行なう(ステップS202)。判定対象領域は背景画像を差分して残った特異な画像を候補領域とし、これを取り囲んだ領域を判定対象とする。   Here, the concrete processing content of the pedestrian recognition process part 18 shown as step S104 is shown in FIG. As shown in the figure, the pedestrian recognition unit 18 first sets a cut-out interval by the interval setting unit 18b (step S201), and cuts out the determination target region by the cut-out processing unit 18a at the set cut-out interval (step S201). S202). As the determination target area, a unique image remaining after the background image difference is set as a candidate area, and an area surrounding the specific image is set as a determination target.

つぎに、認識処理部18cがテンプレートとのマッチング率を算出し(ステップS203)、マッチング率のピーク値、すなわち判定対象領域に歩行者像が完全に入った状態でのマッチング率の値を探索し、このピーク値と閾値とを比較し、閾値を越えたか否かによって歩行者の有無を判定して(ステップS204)、処理を終了する。認識にあたっては形状の一致度(%)が判定の閾値を超えたか否かで判断する。   Next, the recognition processing unit 18c calculates the matching rate with the template (step S203), and searches for the peak value of the matching rate, that is, the value of the matching rate when the pedestrian image is completely in the determination target region. The peak value is compared with a threshold value, and the presence or absence of a pedestrian is determined based on whether or not the threshold value is exceeded (step S204), and the process ends. In recognition, the determination is made based on whether or not the degree of coincidence (%) of the shape exceeds a determination threshold.

つぎに、プリクラッシュECU40の処理動作について図10のフローチャートを参照して説明する。同図に示す処理フローは、プリクラッシュECU40の動作中に繰り返し実行される。   Next, the processing operation of the pre-crash ECU 40 will be described with reference to the flowchart of FIG. The processing flow shown in the figure is repeatedly executed during the operation of the pre-crash ECU 40.

まず、プリクラッシュECU40は、画像認識装置10から衝突判定結果を衝突判定情報として取得する(ステップS301)。そして、衝突の危険度が大きい場合には(ステップS302,Yes)、ディスプレイ43とスピーカ44を用いて運転者に報知する(ステップS303)とともに、ブレーキ41およびEFI42を制御して自車両の走行状態を制御し(ステップS304)、処理を終了する。   First, the pre-crash ECU 40 acquires a collision determination result from the image recognition device 10 as collision determination information (step S301). When the risk of collision is high (step S302, Yes), the display 43 and the speaker 44 are used to notify the driver (step S303), and the brake 41 and the EFI 42 are controlled to control the traveling state of the host vehicle. Is controlled (step S304), and the process is terminated.

上述してきたように、本実施例にかかる画像認識装置10は、カメラが撮影した画像から判定対象領域を切り出す場合に、判定対象領域の入力画像内における位置に基づいて、切り出しの間隔を制御するので、パターンマッチングの精度を維持しつつ演算量を削減し、認識処理を高速化することができる。   As described above, when the image recognition device 10 according to the present embodiment cuts out the determination target region from the image captured by the camera, the image recognition apparatus 10 controls the cut-out interval based on the position of the determination target region in the input image. Therefore, the amount of calculation can be reduced while maintaining the accuracy of pattern matching, and the recognition process can be speeded up.

なお、切り出し間隔の他に、判定対象領域のサイズについても画像内における位置に合わせて制御するようにしてもよい。   In addition to the cutout interval, the size of the determination target area may be controlled according to the position in the image.

また、本発明ではパターンマッチングによる認識を例に説明を行なったが、本発明はこれに限定されるものではなく、判定対象領域を切り出して行なう任意に認識手法に適用することが可能である。   In the present invention, recognition by pattern matching has been described as an example. However, the present invention is not limited to this, and can be applied to any recognition method in which a determination target region is cut out.

同様に、本実施例では特定の物体として歩行者を認識する場合を例に説明を行なったが、他の物体、例えば道路上の落下物などの認識についても適用することができる。   Similarly, in this embodiment, the case where a pedestrian is recognized as a specific object has been described as an example, but the present invention can also be applied to recognition of other objects such as a falling object on a road.

以上のように、本発明にかかる画像認識装置、画像認識方法および車両制御装置は、車両における画像認識に有用であり、特に認識処理負荷の軽減に適している。   As described above, the image recognition device, the image recognition method, and the vehicle control device according to the present invention are useful for image recognition in a vehicle and are particularly suitable for reducing the recognition processing load.

本発明における画像認識方法について説明する説明図である。It is explanatory drawing explaining the image recognition method in this invention. 本発明の実施例にかかる画像認識装置の概要構成を示す概要構成図である。1 is a schematic configuration diagram illustrating a schematic configuration of an image recognition apparatus according to an embodiment of the present invention. マッチング率のピーク値探索について説明する説明図である(その1)。It is explanatory drawing explaining the peak value search of a matching rate (the 1). マッチング率のピーク値探索について説明する説明図である(その2)。It is explanatory drawing explaining the peak value search of a matching rate (the 2). 前回の認識結果を利用した切り出し間隔制御について説明する説明図である。It is explanatory drawing explaining clipping interval control using the last recognition result. 画面の左右端部の切り出し間隔を短くする場合の制御について説明する説明図である。It is explanatory drawing explaining the control in the case of shortening the cutting-out space | interval of the right-and-left edge part of a screen. 遮蔽物近傍の切り出し間隔を短くする場合の制御について説明する説明図である。It is explanatory drawing explaining the control in the case of shortening the cut-out space | interval of a shield vicinity. 画像認識装置10の処理動作について説明するフローチャートである。4 is a flowchart for explaining a processing operation of the image recognition apparatus 10. 歩行者認識処理の具体的な処理動作について説明するフローチャートである。It is a flowchart explaining the specific process operation | movement of a pedestrian recognition process. プリクラッシュECU40の処理動作について説明するフローチャートである。4 is a flowchart illustrating a processing operation of a pre-crash ECU 40.

符号の説明Explanation of symbols

10 画像認識装置
10a マイコン
16 車両認識部
17 白線認識部
18 歩行者認識部
18a 切り出し部
18b 間隔設定部
18c 認識処理部
20 衝突判定部
30 ナビゲーション装置
30a 地図データ
31 カメラ
33 レーダ
40 プリクラッシュECU
41 ブレーキ
42 EFI
43 ディスプレイ
44 スピーカ
DESCRIPTION OF SYMBOLS 10 Image recognition apparatus 10a Microcomputer 16 Vehicle recognition part 17 White line recognition part 18 Pedestrian recognition part 18a Cutout part 18b Space | interval setting part 18c Recognition processing part 20 Collision determination part 30 Navigation apparatus 30a Map data 31 Camera 33 Radar 40 Pre-crash ECU
41 Brake 42 EFI
43 Display 44 Speaker

Claims (10)

カメラが撮影した入力画像から判定対象領域を抽出する抽出手段と、
前記判定対象領域の画像と基準画像とを比較して特定の物体の存在を認識する認識手段と、
前記入力画像内における位置に基づいて、前記抽出手段による判定対象領域の抽出位置の間隔を制御する間隔制御手段と、
を備えたことを特徴とする画像認識装置。
Extraction means for extracting a determination target region from an input image captured by the camera;
Recognition means for comparing the image of the determination target region with a reference image to recognize the presence of a specific object;
Based on the position in the input image, interval control means for controlling the interval of the extraction position of the determination target region by the extraction means;
An image recognition apparatus comprising:
前記間隔制御手段は、前記判定対象領域の前記入力画像内における縦方向の位置に基づき、画像内の下方から判定領域を抽出する場合は、上方から抽出する場合に比して抽出間隔を大きくすることを特徴とする請求項1に記載の画像認識装置。   The interval control means increases the extraction interval when extracting the determination area from the lower side in the image based on the vertical position of the determination target area in the input image as compared with the case of extracting from the upper side. The image recognition apparatus according to claim 1. 前記間隔制御手段は、前記入力画像における左右の端部近傍から判定領域を抽出する場合に抽出間隔を小さくすることを特徴とする請求項1または2に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the interval control unit reduces the extraction interval when a determination region is extracted from the vicinity of left and right end portions in the input image. 前記間隔制御手段は、前記特定の物体を遮蔽する可能性のある物体を認識済みである場合に、該遮蔽物近傍の抽出間隔を小さくすることを特徴とする請求項1〜3のいずれか一つに記載の画像認識装置。   The said space | interval control means makes small the extraction space | interval of this shielding object vicinity, when the object which may shield the said specific object has been recognized. The image recognition apparatus described in one. 前記間隔制御手段は、前記認識手段が複数の基準画像を使用する場合に、前記複数の基準画像のいずれかによって前記特定の物体が存在すると判定された領域を以降の抽出から除外することを特徴とする請求項1〜4のいずれか一つに記載の画像認識装置。   When the recognition unit uses a plurality of reference images, the interval control unit excludes a region determined by any of the plurality of reference images that the specific object is present from subsequent extraction. The image recognition apparatus according to any one of claims 1 to 4. 前記間隔制御手段は、時系列に撮影された入力画像に対して順次画像認識を行なう場合に、前回の入力画像において前記特定の物体を認識した位置近傍の抽出間隔を小さくすることを特徴とする請求項1〜5のいずれか一つに記載の画像認識装置。   The interval control means reduces the extraction interval in the vicinity of the position where the specific object is recognized in the previous input image when sequentially recognizing the input images taken in time series. The image recognition apparatus as described in any one of Claims 1-5. 前記間隔制御手段は、前記認識手段による認識処理によって前記基準画像との一致度が比較的高いと判定された位置近傍に対して、抽出間隔を小さくした抽出を再度行なわせることを特徴とする請求項1〜6のいずれか一つに記載の画像認識装置。   The interval control means causes the extraction with a reduced extraction interval to be performed again for the vicinity of the position determined to have a relatively high degree of coincidence with the reference image by the recognition processing by the recognition means. Item 7. The image recognition device according to any one of Items 1 to 6. 前記特定の物体は歩行者であることを特徴とする請求項1〜7のいずれか一つに記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the specific object is a pedestrian. カメラが撮影した入力画像から判定対象領域を抽出する抽出工程と、
前記判定対象領域の画像と基準画像とを比較して特定の物体の存在を認識する認識工程と、
前記入力画像内における位置に基づいて、前記抽出手段による判定対象領域の抽出位置の間隔を制御する間隔制御工程と、
を含んだことを特徴とする画像認識方法。
An extraction step of extracting a determination target region from an input image captured by the camera;
A recognition step of recognizing the presence of a specific object by comparing the image of the determination target region with a reference image;
An interval control step for controlling an interval of extraction positions of the determination target region by the extraction unit based on a position in the input image;
An image recognition method comprising:
カメラが撮影した入力画像から判定対象領域を抽出する抽出手段と、
前記判定対象領域の画像と基準画像とを比較して特定の物体の存在を認識する認識手段と、
前記入力画像内における位置に基づいて、前記抽出手段による判定対象領域の抽出位置の間隔を制御する間隔制御手段と、
前記認識手段による認識結果に基づいて、運転者に対する報知制御、および/または車両の走行状態を制御する走行制御を実行する制御手段と、
を備えたことを特徴とする車両制御装置。
Extraction means for extracting a determination target region from an input image captured by the camera;
Recognizing means for recognizing the presence of a specific object by comparing the image of the determination target region with a reference image;
Based on the position in the input image, interval control means for controlling the interval of the extraction position of the determination target region by the extraction means;
Control means for executing notification control for the driver and / or traveling control for controlling the traveling state of the vehicle based on the recognition result by the recognition means;
A vehicle control device comprising:
JP2006185901A 2006-07-05 2006-07-05 Image recognition device, image recognition method, and vehicle control device Pending JP2008015771A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006185901A JP2008015771A (en) 2006-07-05 2006-07-05 Image recognition device, image recognition method, and vehicle control device
US11/822,232 US20080008355A1 (en) 2006-07-05 2007-07-03 Image recognition apparatus, image recognition method, and vehicle control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006185901A JP2008015771A (en) 2006-07-05 2006-07-05 Image recognition device, image recognition method, and vehicle control device

Publications (2)

Publication Number Publication Date
JP2008015771A true JP2008015771A (en) 2008-01-24
JP2008015771A5 JP2008015771A5 (en) 2010-05-20

Family

ID=39072722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006185901A Pending JP2008015771A (en) 2006-07-05 2006-07-05 Image recognition device, image recognition method, and vehicle control device

Country Status (1)

Country Link
JP (1) JP2008015771A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128919A (en) * 2008-11-28 2010-06-10 Hitachi Automotive Systems Ltd Object detection apparatus
JP2013008328A (en) * 2011-06-27 2013-01-10 Clarion Co Ltd Vehicle periphery monitoring system
JP2013105419A (en) * 2011-11-16 2013-05-30 Honda Motor Co Ltd Vehicle periphery monitoring device
EP2669849A2 (en) 2012-05-30 2013-12-04 Hitachi Ltd. Object detecting device and object detecting method
JP2014044730A (en) * 2013-09-24 2014-03-13 Clarion Co Ltd Image processing apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220076A (en) * 1994-01-28 1995-08-18 Sanyo Electric Co Ltd Image processing device
JP2004235711A (en) * 2003-01-28 2004-08-19 Nissan Motor Co Ltd Target tracking system and method therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220076A (en) * 1994-01-28 1995-08-18 Sanyo Electric Co Ltd Image processing device
JP2004235711A (en) * 2003-01-28 2004-08-19 Nissan Motor Co Ltd Target tracking system and method therefor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128919A (en) * 2008-11-28 2010-06-10 Hitachi Automotive Systems Ltd Object detection apparatus
JP2013008328A (en) * 2011-06-27 2013-01-10 Clarion Co Ltd Vehicle periphery monitoring system
US9177196B2 (en) 2011-06-27 2015-11-03 Clarion Co., Ltd. Vehicle periphery monitoring system
JP2013105419A (en) * 2011-11-16 2013-05-30 Honda Motor Co Ltd Vehicle periphery monitoring device
EP2669849A2 (en) 2012-05-30 2013-12-04 Hitachi Ltd. Object detecting device and object detecting method
JP2013250604A (en) * 2012-05-30 2013-12-12 Hitachi Ltd Object detecting device and object detecting method
US9465998B2 (en) 2012-05-30 2016-10-11 Hitachi, Ltd. Object detecting device and object detecting method
JP2014044730A (en) * 2013-09-24 2014-03-13 Clarion Co Ltd Image processing apparatus

Similar Documents

Publication Publication Date Title
JP4322913B2 (en) Image recognition apparatus, image recognition method, and electronic control apparatus
JP4790454B2 (en) Image recognition device, vehicle control device, image recognition method, and vehicle control method
US20080008355A1 (en) Image recognition apparatus, image recognition method, and vehicle control apparatus
JP2007328630A (en) Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device
US9731661B2 (en) System and method for traffic signal recognition
RU2634852C1 (en) Traffic light detecting device and traffic light detecting method
US9904846B2 (en) Pedestrian behavior predicting device and pedestrian behavior predicting method
US20170259814A1 (en) Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object
EP2963633A1 (en) Object sensing device
JP2007072665A (en) Object discrimination device, object discrimination method and object discrimination program
JP2008021034A (en) Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
US20140002657A1 (en) Forward collision warning system and forward collision warning method
JP4757808B2 (en) Image recognition device, image recognition method, vehicle control device, and vehicle control method
JP6165120B2 (en) Traveling line recognition device
US20140233795A1 (en) Driver assistance system, driver assistance method and information storage medium
JP2009132259A (en) Vehicle surrounding-monitoring device
JP2008015771A (en) Image recognition device, image recognition method, and vehicle control device
JP2009070344A (en) Image recognition device, image recognition method, and electronic control device
US20170103652A1 (en) Driving support apparatus
JP2007064894A (en) Object detector, object detecting method, and object detection program
JP2010072947A (en) Obstacle detection device
JP2007219836A (en) Vehicle travel support device
JP2008015770A (en) Image recognition device and image recognition method
JP5838948B2 (en) Object identification device
JP2007328631A (en) Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090622

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110726