JP2007328631A - Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device - Google Patents

Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device Download PDF

Info

Publication number
JP2007328631A
JP2007328631A JP2006160149A JP2006160149A JP2007328631A JP 2007328631 A JP2007328631 A JP 2007328631A JP 2006160149 A JP2006160149 A JP 2006160149A JP 2006160149 A JP2006160149 A JP 2006160149A JP 2007328631 A JP2007328631 A JP 2007328631A
Authority
JP
Japan
Prior art keywords
pedestrian
reference pattern
input image
detection
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006160149A
Other languages
Japanese (ja)
Inventor
Katsumi Sakata
克己 阪田
Minoru Fujioka
稔 藤岡
Koji Yamashita
浩嗣 山下
Yoshikazu Hashimoto
欣和 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Fujitsu Ltd
Original Assignee
Denso Ten Ltd
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Fujitsu Ltd filed Critical Denso Ten Ltd
Priority to JP2006160149A priority Critical patent/JP2007328631A/en
Publication of JP2007328631A publication Critical patent/JP2007328631A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect a region where an object may exist with high accuracy from an image of an on-vehicle camera. <P>SOLUTION: A pedestrian candidate region detecting section 19 detects a pedestrian candidate region from an input image that is photographed by a camera 31 and processed by a preprocessing section 11, a pedestrian recognizing section 18 recognizes a pedestrian, a learning processing section 12 creates a reference pattern from the region having no pedestrian of the input image and updates a reference pattern database 15, and it is used for detecting a next pedestrian candidate region. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、車載カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置、物体候補領域検出方法、および、かかる物体候補領域検出を用いた歩行者認識装置、車両制御装置に関する。   The present invention relates to an object candidate area detection device, an object candidate area detection method, and an object candidate area detection for detecting an area where a specific object may exist as an object candidate area from an input image taken by an in-vehicle camera. The present invention relates to a pedestrian recognition device and a vehicle control device used.

従来、カメラが撮影した画像に対する画像認識によって、歩行者などを検出する技術が考案されている。例えば、特許文献1は、特定の場所に固定した定点カメラが撮影した画像から、歩行者や車両を認識する技術を開示している。   Conventionally, a technique for detecting a pedestrian or the like by image recognition on an image captured by a camera has been devised. For example, Patent Document 1 discloses a technique for recognizing a pedestrian or a vehicle from an image taken by a fixed point camera fixed at a specific location.

また、かかる画像認識の具体的な手法としては、予め背景パターンを学習し、入力画像と背景パターンとの差異を顕著性として算出する顕著性算出手法(顕著性アルゴリズム)が適用可能である(例えば特許文献2参照。)。   Further, as a specific method of such image recognition, a saliency calculation method (saliency algorithm) that learns a background pattern in advance and calculates a difference between an input image and a background pattern as saliency can be applied (for example, (See Patent Document 2).

特開2002−190012号公報Japanese Patent Laid-Open No. 2002-190012 特開2001−236508号公報JP 2001-236508 A

ところで近年、車両にカメラなどを搭載し、車載カメラからの映像によって歩行者などを認識することで運転を支援し、事故を防止する技術の実現が重要な課題となっている。   By the way, in recent years, it has become an important issue to implement a technology that supports a driving by mounting a camera or the like on a vehicle and recognizing a pedestrian or the like by an image from the in-vehicle camera and preventing an accident.

しかしながら車載カメラなど移動体から撮影した画像では、その移動によって背景画像が常に変化する。そのため、上述した顕著性算出手法を使用しても、背景パターンの設定のために学習する必要のある事象が大きくなり、検出精度が低下するという問題点があった。   However, in an image taken from a moving body such as an in-vehicle camera, the background image always changes due to the movement. Therefore, even if the above-described saliency calculation method is used, there is a problem that an event that needs to be learned for setting a background pattern becomes large and detection accuracy is lowered.

本発明は、上述した従来技術における問題点を解消し、課題を解決するためになされたものであり、車載カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置、物体候補領域検出方法、および高精度に歩行者を認識する歩行者認識装置、歩行者認識を用いる車両制御装置を提供することを目的とする。   The present invention has been made to solve the above-described problems in the prior art and to solve the problems, and is an object candidate area for detecting an area where an object may exist with high accuracy from an image of a vehicle-mounted camera. An object is to provide a detection device, an object candidate region detection method, a pedestrian recognition device that recognizes a pedestrian with high accuracy, and a vehicle control device that uses pedestrian recognition.

上述した課題を解決し、目的を達成するため、請求項1の発明に係る物体候補領域検出装置は、カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置であって、現在カメラが入力した入力画像から切り出した被判定領域と、予め入力画像を記憶した基準パターンとの比較によって、前記被判定領域のうち、前記物体候補領域を検出する検出手段と、前記検出の結果を用い、現在の入力画像のうち前記特定の物体が存在しない領域を用いて前記基準パターンを更新する基準パターン更新手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the object candidate area detection device according to the invention of claim 1 uses, as an object candidate area, an area in which a specific object may exist from an input image captured by a camera. An object candidate area detection device for detecting, wherein a comparison is made between a determination area cut out from an input image currently input by a camera and a reference pattern in which an input image is stored in advance, and the object candidate area of the determination area And a reference pattern updating means for updating the reference pattern using a region in which the specific object does not exist in the current input image using the detection result. To do.

この請求項1の発明によれば物体候補領域検出装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出するとともに、検出の結果を用い、入力画像のうち特定の物体が存在しない領域を用いて基準パターンを更新する。   According to the first aspect of the present invention, the object candidate area detection device detects an object candidate area by comparing the determination area cut out from the input image with the reference pattern, and uses the detection result to identify the input image. The reference pattern is updated using an area where no object exists.

また、請求項2の発明に係る物体候補領域検出装置は、請求項1に記載の発明において、前記基準パターン更新手段は、前記検出手段による検出の結果、物体候補領域が存在しない場合に、前記入力画像全体から前記基準パターンを更新することを特徴とする。   An object candidate area detection device according to a second aspect of the present invention is the object candidate area detection apparatus according to the first aspect, wherein the reference pattern update means detects the object candidate area when there is no object candidate area as a result of detection by the detection means. The reference pattern is updated from the entire input image.

この請求項2の発明によれば物体候補領域検出装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出するとともに、検出の結果、物体候補領域が存在しない場合に、入力画像全体から基準パターンを更新する。   According to the second aspect of the present invention, the object candidate area detection device detects the object candidate area by comparing the determination target area cut out from the input image with the reference pattern, and when the object candidate area does not exist as a result of the detection. In addition, the reference pattern is updated from the entire input image.

また、請求項3の発明に係る物体候補領域検出装置は、請求項1または2に記載の発明において、前記基準パターン更新手段は、前記検出手段が検出した物体候補領域を前記入力画像から除外して前記基準パターンを更新することを特徴とする。   According to a third aspect of the present invention, in the object candidate region detection device according to the first or second aspect, the reference pattern update unit excludes the object candidate region detected by the detection unit from the input image. And updating the reference pattern.

この請求項3の発明によれば物体候補領域検出装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出するとともに、入力画像のから物体候補領域を除外した画像を用いて基準パターンを更新する。   According to the third aspect of the present invention, the object candidate area detection device detects an object candidate area by comparing the determination area cut out from the input image with the reference pattern, and an image in which the object candidate area is excluded from the input image. Is used to update the reference pattern.

また、請求項4の発明に係る物体候補領域検出装置は、請求項1,2または3に記載の発明において、前記物体候補領域に前記特定の物体が存在するか否かを認識する物体認識手段をさらに備え、前記基準パターン更新手段は、前記物体認識手段による認識の結果、前記特定の物体が存在しない場合に前記入力画像全体から前記基準パターンを更新することを特徴とする。   According to a fourth aspect of the present invention, there is provided the object candidate area detecting device according to the first, second or third aspect, wherein the object recognition means recognizes whether or not the specific object exists in the object candidate area. The reference pattern update means updates the reference pattern from the entire input image when the specific object does not exist as a result of recognition by the object recognition means.

この請求項4の発明によれば物体候補領域検出装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出し、特定の物体が存在するか否かを認識するとともに、認識の結果、特定の物体が存在しない場合に入力画像全体から基準パターンを更新する。   According to the fourth aspect of the present invention, the object candidate area detection device detects an object candidate area by comparing the determination area extracted from the input image with the reference pattern, and recognizes whether or not a specific object exists. At the same time, if the specific object does not exist as a result of recognition, the reference pattern is updated from the entire input image.

また、請求項5の発明に係る物体候補領域検出装置は、請求項1〜4のいずれか一つに記載の発明において、前記物体候補領域に前記特定の物体が存在するか否かを認識する物体認識手段をさらに備え、前記基準パターン更新手段は、前記物体認識手段が認識した特定の物体を前記入力画像から除外して前記基準パターンを更新することを特徴とする。   An object candidate region detection apparatus according to claim 5 recognizes whether or not the specific object exists in the object candidate region in the invention according to any one of claims 1 to 4. The apparatus further comprises object recognition means, wherein the reference pattern update means updates the reference pattern by excluding a specific object recognized by the object recognition means from the input image.

この請求項5の発明によれば物体候補領域検出装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出し、特定の物体が存在するか否かを認識するとともに、認識した特定の物体を入力画像から除外して基準パターンを更新する。   According to the fifth aspect of the present invention, the object candidate area detection device detects an object candidate area by comparing the determination area extracted from the input image with the reference pattern, and recognizes whether or not a specific object exists. At the same time, the recognized specific object is excluded from the input image and the reference pattern is updated.

また、請求項6の発明に係る物体候補領域検出方法は、カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出方法であって、現在カメラが入力した入力画像から切り出した被判定領域と、予め入力画像を記憶した基準パターンとの比較によって、前記被判定領域のうち、前記物体候補領域を検出する検出工程と、前記検出の結果を用い、前記入力画像のうち前記特定の物体が存在しない領域を用いて前記基準パターンを更新する基準パターン更新工程と、を含んだことを特徴とする。   The object candidate area detection method according to the invention of claim 6 is an object candidate area detection method for detecting an area where a specific object may exist as an object candidate area from an input image captured by a camera, A detection step of detecting the object candidate area in the determination area by comparing the determination area cut out from the input image currently input by the camera and a reference pattern in which the input image is stored in advance, and the detection result And a reference pattern update step of updating the reference pattern using a region where the specific object does not exist in the input image.

この請求項6の発明によれば物体候補領域検出方法は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出するとともに、検出の結果を用い、入力画像のうち特定の物体が存在しない領域を用いて基準パターンを更新する。   According to the sixth aspect of the present invention, the object candidate region detection method detects an object candidate region by comparing the determination target region cut out from the input image with the reference pattern, and uses the detection result to identify the input candidate image. The reference pattern is updated using an area where no object exists.

また、請求項7の発明に係る歩行者認識装置は、車載カメラが撮影した入力画像から歩行者を認識する歩行者認識装置であって、現在カメラが入力した入力画像から切り出した被判定領域と、予め入力画像を記憶した基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、前記検出の結果を用い、現在の入力画像のうち前記特定の物体が存在しない領域を用いて前記基準パターンを更新する基準パターン更新手段と、を備えたことを特徴とする。   The pedestrian recognition device according to the invention of claim 7 is a pedestrian recognition device for recognizing a pedestrian from an input image taken by an in-vehicle camera, and a to-be-determined area cut out from an input image currently input by the camera Detecting means for detecting an area where a pedestrian may exist as a pedestrian candidate area by comparison with a reference pattern in which an input image is stored in advance, and whether the pedestrian candidate area corresponds to a pedestrian Pedestrian discrimination means for discriminating; and reference pattern update means for updating the reference pattern using a region where the specific object does not exist in the current input image using the detection result. And

この請求項7の発明によれば歩行者認識装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって検出された歩行者候補領域が歩行者であるか否かを判別するとともに、歩行者候補領域の検出の結果を用い、入力画像のうち歩行者が存在しない領域を用いて基準パターンを更新する。   According to the invention of claim 7, the pedestrian recognition device determines whether or not the pedestrian candidate area detected by comparing the determination target area cut out from the input image with the reference pattern is a pedestrian, Using the result of detection of the pedestrian candidate area, the reference pattern is updated using an area where no pedestrian exists in the input image.

また、請求項8の発明に係る車両制御装置は、現在カメラが入力した入力画像から切り出した被判定領域と、予め入力画像を記憶した基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、前記検出の結果を用い、現在の入力画像のうち前記特定の物体が存在しない領域を用いて前記基準パターンを更新する基準パターン更新手段と、前記歩行者判別手段によって歩行者が認識された場合に、歩行者の存在について報知する報知制御、および/または車両の走行状態を制御する走行制御を実行する制御手段と、を備えたことを特徴とする。   In the vehicle control device according to the eighth aspect of the present invention, there is a possibility that a pedestrian exists by comparing the determination area cut out from the input image currently input by the camera and the reference pattern in which the input image is stored in advance. Detection means for detecting an area as a pedestrian candidate area; pedestrian discrimination means for determining whether the pedestrian candidate area corresponds to a pedestrian; and Reference pattern updating means for updating the reference pattern using a region where no specific object exists, and notification control for notifying the presence of a pedestrian when a pedestrian is recognized by the pedestrian discrimination means, and / or And control means for executing travel control for controlling the travel state of the vehicle.

この請求項8の発明によれば車両制御装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって検出された歩行者候補領域が歩行者であるか否かを判別し、判別結果に基づいて車両を制御するとともに、歩行者候補領域の検出の結果を用い、入力画像のうち歩行者が存在しない領域を用いて基準パターンを更新する。   According to the eighth aspect of the invention, the vehicle control device determines whether or not the pedestrian candidate region detected by comparing the determination target region cut out from the input image with the reference pattern is a pedestrian, and the determination result And the reference pattern is updated using a region where no pedestrian exists in the input image using the result of detection of the pedestrian candidate region.

請求項1の発明によれば物体候補領域検出装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出するとともに、検出の結果を用い、入力画像のうち特定の物体が存在しない領域を用いて基準パターンを更新するので、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。   According to the first aspect of the present invention, the object candidate region detection device detects an object candidate region by comparing the determination target region cut out from the input image with the reference pattern, and uses the detection result to specify a specific part of the input image. Since the reference pattern is updated using a region where no object exists, there is an effect that it is possible to obtain an object candidate region detection device that detects a region where an object may exist with high accuracy from a camera image.

また、請求項2の発明によれば物体候補領域検出装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出するとともに、検出の結果、物体候補領域が存在しない場合に、入力画像全体から基準パターンを更新するので、状況に応じた基準パターンを簡易に更新し、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。   According to the invention of claim 2, the object candidate area detection device detects the object candidate area by comparing the determination area cut out from the input image with the reference pattern, and the object candidate area does not exist as a result of the detection. In this case, since the reference pattern is updated from the entire input image, the reference pattern according to the situation is easily updated, and an object candidate area detection device that detects an area where an object may exist with high accuracy from the camera image There is an effect that can be obtained.

また、請求項3の発明によれば物体候補領域検出装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出するとともに、入力画像のから物体候補領域を除外した画像を用いて基準パターンを更新するので、歩行者候補領域が存在する画像からであっても基準パターンを更新し、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。   According to the invention of claim 3, the object candidate area detection device detects the object candidate area by comparing the determination area cut out from the input image and the reference pattern, and excludes the object candidate area from the input image. Since the reference pattern is updated using an image, the reference pattern is updated even from an image in which a pedestrian candidate area exists, and an object that can detect an area where an object may exist with high accuracy from the camera image There is an effect that a candidate area detecting device can be obtained.

また、請求項4の発明によれば物体候補領域検出装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出し、特定の物体が存在するか否かを認識するとともに、認識の結果、特定の物体が存在しない場合に入力画像全体から基準パターンを更新するので、状況に応じた基準パターンを簡易に更新し、カメラの画像から高精度に特定の物体を認識する物体候補領域検出装置を得ることができるという効果を奏する。   According to a fourth aspect of the present invention, the object candidate area detection device detects an object candidate area by comparing the determination area cut out from the input image with a reference pattern, and recognizes whether or not a specific object exists. In addition, if the specific object does not exist as a result of recognition, the reference pattern is updated from the entire input image, so the reference pattern according to the situation is easily updated, and the specific object is recognized from the camera image with high accuracy. It is possible to obtain an object candidate area detection device that performs the above-described process.

また、請求項5の発明によれば物体候補領域検出装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出し、特定の物体が存在するか否かを認識するとともに、認識した特定の物体を入力画像から除外して基準パターンを更新するので、対象となる物体が存在する画像からであっても基準パターンを更新し、カメラの画像から高精度に特定の物体を認識する物体候補領域検出装置を得ることができるという効果を奏する。   According to the invention of claim 5, the object candidate area detection device detects an object candidate area by comparing the determination area cut out from the input image with the reference pattern, and recognizes whether or not a specific object exists. In addition, since the reference pattern is updated by excluding the recognized specific object from the input image, the reference pattern is updated even from an image in which the target object exists, and the specific image is accurately identified from the camera image. There is an effect that an object candidate area detecting device for recognizing an object can be obtained.

また、請求項6の発明によれば物体候補領域検出方法は、入力画像から切り出した被判定領域と基準パターンとの比較によって物体候補領域を検出するとともに、検出の結果を用い、入力画像のうち特定の物体が存在しない領域を用いて基準パターンを更新するので、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出方法を得ることができるという効果を奏する。   According to the invention of claim 6, the object candidate area detection method detects an object candidate area by comparing the determination target area cut out from the input image with a reference pattern, Since the reference pattern is updated using a region where a specific object does not exist, an object candidate region detection method for detecting a region where an object may exist with high accuracy can be obtained from a camera image. .

また、請求項7の発明によれば歩行者認識装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって検出された歩行者候補領域が歩行者であるか否かを判別するとともに、歩行者候補領域の検出の結果を用い、入力画像のうち歩行者が存在しない領域を用いて基準パターンを更新するので、カメラの画像から高精度に歩行者を認識する歩行者認識装置を得ることができるという効果を奏する。   According to the invention of claim 7, the pedestrian recognition apparatus determines whether or not the pedestrian candidate area detected by comparing the determination area cut out from the input image with the reference pattern is a pedestrian. Since the reference pattern is updated using the area where no pedestrian exists in the input image using the detection result of the pedestrian candidate area, a pedestrian recognition device that recognizes the pedestrian with high accuracy from the camera image is obtained. There is an effect that can be.

また、請求項8の発明によれば車両制御装置は、入力画像から切り出した被判定領域と基準パターンとの比較によって検出された歩行者候補領域が歩行者であるか否かを判別し、判別結果に基づいて車両を制御するとともに、歩行者候補領域の検出の結果を用い、入力画像のうち歩行者が存在しない領域を用いて基準パターンを更新するので、カメラの画像から高精度に歩行者を認識し、その安全を確保する車両制御装置を得ることができるという効果を奏する。   According to the invention of claim 8, the vehicle control device determines whether or not the pedestrian candidate region detected by comparing the determination target region cut out from the input image with the reference pattern is a pedestrian. The vehicle is controlled based on the result, and the reference pattern is updated using the area where no pedestrian exists in the input image using the result of detection of the pedestrian candidate area. It is possible to obtain a vehicle control device that recognizes the vehicle and secures its safety.

以下に添付図面を参照して、この発明に係る物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置の好適な実施例について詳細に説明する。   Exemplary embodiments of an object candidate region detection device, an object candidate region detection method, a pedestrian recognition device, and a vehicle control device according to the present invention will be described below in detail with reference to the accompanying drawings.

図1は、本発明の実施例1である車載用の画像認識装置10の概要構成を示す概要構成図である。車両は以下の構成を有している。同図に示すように、画像認識装置10は、ナビゲーション装置30、カメラ31、およびプリクラッシュECU40と接続している。   FIG. 1 is a schematic configuration diagram showing a schematic configuration of an in-vehicle image recognition apparatus 10 that is Embodiment 1 of the present invention. The vehicle has the following configuration. As shown in the figure, the image recognition device 10 is connected to a navigation device 30, a camera 31, and a pre-crash ECU 40.

ナビゲーション装置30は、GPS(Global Positioning System)人工衛星と通信して特定した自車両の位置と、予め記憶した地図データ30aとを利用して走行経路の設定および誘導を行なう車載装置である。また、ナビゲーション装置30は、画像認識装置10に対して自車両の位置情報や周辺の地図情報、道路に関する情報などを提供する。   The navigation device 30 is an in-vehicle device that sets and guides a travel route using the position of the host vehicle specified by communicating with a GPS (Global Positioning System) artificial satellite and map data 30a stored in advance. In addition, the navigation device 30 provides the image recognition device 10 with position information of the own vehicle, surrounding map information, information about roads, and the like.

カメラ31は、自車両周辺を撮影し、撮影結果を画像認識装置10に入力する。プリクラッシュECU40は、画像認識部10が自車両の衝突を予測した場合に、ディスプレイ43やスピーカ44による乗員への通知、ブレーキ41、エンジン制御装置(EFI)42による車両の動作制御を実行する電子制御装置であり、車両制御装置として機能する。   The camera 31 captures the vicinity of the host vehicle and inputs the captured result to the image recognition apparatus 10. When the image recognition unit 10 predicts a collision of the host vehicle, the pre-crash ECU 40 is an electronic device that performs notification of occupants by the display 43 and the speaker 44, and the operation control of the vehicle by the brake 41 and the engine control device (EFI) 42. It is a control device and functions as a vehicle control device.

画像認識装置10は、その内部に前処理部11、学習処理部12、基準パターンデータベース15、車両認識部16、白線認識部17、歩行者認識部18、歩行者候補領域検出部19および衝突判定部20を有する。ここで、学習処理部12、基準パターンデータベース15、車両認識部16、白線認識部17、歩行者認識部18、歩行者候補領域検出部19および衝突判定部20は、例えば単一のマイコン10a(CPU、ROM、RAMの組み合わせからなる演算処理ユニット)などによって実現することが好適である。   The image recognition apparatus 10 includes a preprocessing unit 11, a learning processing unit 12, a reference pattern database 15, a vehicle recognition unit 16, a white line recognition unit 17, a pedestrian recognition unit 18, a pedestrian candidate region detection unit 19, and a collision determination. Part 20. Here, the learning processing unit 12, the reference pattern database 15, the vehicle recognition unit 16, the white line recognition unit 17, the pedestrian recognition unit 18, the pedestrian candidate area detection unit 19, and the collision determination unit 20 are, for example, a single microcomputer 10 a ( An arithmetic processing unit (combination of CPU, ROM, and RAM) is preferable.

前処理部11は、カメラ31が撮影した画像に対してフィルタリングやエッジ検出、輪郭抽出などの処理を施した後、車両認識部16、白線認識部17および歩行者候補領域検出部19に出力する。   The preprocessing unit 11 performs processing such as filtering, edge detection, and contour extraction on the image captured by the camera 31, and then outputs the image to the vehicle recognition unit 16, the white line recognition unit 17, and the pedestrian candidate region detection unit 19. .

車両認識部16は、前処理部11が出力した画像に対してパターンマッチングなどを施して車両を認識し、認識結果を衝突判定部20に出力する。また、白線認識部18も同様に、前処理部11が出力した画像に対してパターンマッチングなどを施して白線を認識し、認識結果を衝突判定部20に出力する。   The vehicle recognition unit 16 performs pattern matching on the image output from the preprocessing unit 11 to recognize the vehicle, and outputs the recognition result to the collision determination unit 20. Similarly, the white line recognition unit 18 performs pattern matching on the image output from the preprocessing unit 11 to recognize a white line and outputs the recognition result to the collision determination unit 20.

一方、歩行者候補領域検出部19は、顕著性アルゴリズムを用いて、前処理部11が出力した画像から歩行者が存在する可能性のある領域を検出し、検出結果を歩行者認識部18に出力する。その後、歩行者認識部18が歩行者候補領域に対してパターンマッチングやニューラルネットワークによるニューロ判定処理を施して歩行者を認識し、衝突判定部20に出力する。そして、歩行者を認識した場合には歩行者までの距離を画像処理などで算出し、歩行者情報としてその距離も衝突判定部20に出力する。   On the other hand, the pedestrian candidate area detection unit 19 detects an area where a pedestrian may exist from the image output by the preprocessing unit 11 using a saliency algorithm, and the detection result is sent to the pedestrian recognition unit 18. Output. Thereafter, the pedestrian recognition unit 18 performs pattern matching or neuro-determination processing using a neural network on the pedestrian candidate region to recognize the pedestrian and outputs the pedestrian to the collision determination unit 20. And when a pedestrian is recognized, the distance to a pedestrian is calculated by image processing etc., and the distance is also output to the collision determination part 20 as pedestrian information.

衝突判定部20は、車両認識部16、白線認識部17、歩行者認識部18による認識結果およびナビゲーション装置30が出力する位置情報を用いて、歩行者や他車両と自車両との衝突を予測し、予測結果をプリクラッシュECU40に出力する。一方、プリクラッシュECU40は予測結果(歩行者が前方に存在し、距離が数mに近づいているなど)に基づき、衝突の可能性があれば運転者にディスプレイ43やスピーカ44などにより報知制御を行なうと共に、衝突の危険度によっては車両の走行制御(ブレーキ制御、アクセル制御など)を行なう。   The collision determination unit 20 predicts a collision between a pedestrian or another vehicle and the host vehicle using the recognition results obtained by the vehicle recognition unit 16, the white line recognition unit 17, the pedestrian recognition unit 18, and the position information output by the navigation device 30. Then, the prediction result is output to the pre-crash ECU 40. On the other hand, the pre-crash ECU 40 controls the driver using the display 43 or the speaker 44 if there is a possibility of a collision based on the prediction result (eg, a pedestrian is present ahead and the distance is close to several meters). In addition, vehicle travel control (brake control, accelerator control, etc.) is performed depending on the risk of collision.

ここで、車両や白線など形状のバリエーションの少ないものを認識する場合には、前処理部11が出力した画像に対して直接パターンマッチングを行なうが、歩行者のように形状の変化が激しい物体を認識する場合には、顕著性アルゴリズムによって予め候補領域を検出することによって検出精度の向上と処理負荷の軽減を図る。   Here, when recognizing a vehicle or a white line with little variation in shape, pattern matching is directly performed on the image output by the pre-processing unit 11. In the case of recognition, the detection accuracy is improved and the processing load is reduced by detecting candidate regions in advance by a saliency algorithm.

顕著性アルゴリズムによる候補領域の検出について図2を参照して説明する。同図に示すように、顕著性アルゴリズムは、まず学習プロセスによって基準パターンを更新し、歩行者候補領域検出プロセスでは入力画像と基準パターンとの比較によって顕著性を算出する。   Detection of candidate areas by the saliency algorithm will be described with reference to FIG. As shown in the figure, the saliency algorithm first updates the reference pattern by the learning process, and the pedestrian candidate area detection process calculates the saliency by comparing the input image with the reference pattern.

学習プロセスでは、本装置を使用する前に予め複数の学習用の画像を入力し、学習用画像から学習領域を切り出す。この学習領域は、画像内における歩行者のサイズに合わせ、例えば20×20ピクセルのサイズで切り出す。学習用の画像は、歩行者などターゲットを含まない道路などの背景画像である。   In the learning process, a plurality of learning images are input in advance before using the apparatus, and a learning area is cut out from the learning image. This learning area is cut out in a size of 20 × 20 pixels, for example, in accordance with the size of the pedestrian in the image. The learning image is a background image of a road or the like that does not include a target such as a pedestrian.

この切り出した学習領域をN次元(Nは画素数であり、20×20ピクセルであれば400次元)のベクトルとして扱い、全ての学習領域についてN次元の主成分分析を行なって、特徴ベクトル(N次元ベクトルの主成分)を算出する。この特徴ベクトルの算出を全ての学習画像に対して実行し、共通するベクトル成分を基準パターンとする。   This cut-out learning area is treated as an N-dimensional (N is the number of pixels, and if it is 20 × 20 pixels, 400 dimensions) vector, N-dimensional principal component analysis is performed on all learning areas, and a feature vector (N The principal component of the dimension vector) is calculated. The calculation of the feature vector is executed for all learning images, and the common vector component is used as a reference pattern.

歩行者候補領域検出プロセスでは、カメラが撮影した入力画像から学習領域のサイズと同一サイズの判定領域を切り出す。そして、この切り出した判定領域をN次元ベクトルとし、基準パターンで展開する(内積をとる)。   In the pedestrian candidate area detection process, a determination area having the same size as the learning area is cut out from the input image captured by the camera. Then, the cut-out determination area is set as an N-dimensional vector and developed with a reference pattern (takes an inner product).

この展開によって、判定領域のうち基準パターンと類似のベクトル成分が得られるので、展開して得られたベクトルと判定領域のベクトルとの残差を顕著性(基準パターンからの乖離度を示す値)として算出し、顕著性の高い領域のみを歩行者候補領域として残した結果画像を出力する。   By this expansion, a vector component similar to the reference pattern is obtained in the judgment area, so that the residual between the vector obtained by the development and the vector of the judgment area is significant (a value indicating the degree of deviation from the reference pattern). And outputs a result image in which only a highly significant area is left as a pedestrian candidate area.

ところが、入力する学習用画像によっては適切な基準パターンが得られず、候補領域の検出精度が低下することがある。例えば、学習用画像として多様な画像を使用すると、各学習用画像が異なる主成分を有するために、そこから得られる基準パターンは多くの方向を有することとなり、歩行者との残差を得ることが困難になる。すなわち、歩行者の特徴が背景に埋もれてしまい、顕著性なしと判断される。   However, depending on the learning image to be input, an appropriate reference pattern cannot be obtained, and the detection accuracy of the candidate area may decrease. For example, when various images are used as learning images, each learning image has a different main component, so that the reference pattern obtained therefrom has many directions, and a residual with a pedestrian is obtained. Becomes difficult. That is, the pedestrian's features are buried in the background, and it is determined that there is no saliency.

また、顕著性が少ないところまで閾値を下げ、少しでも顕著性があれば歩行者候補として検出するようにすると、歩行者以外でも顕著性有りとして検出してしまい、逆に検出精度が低くなる。例えば図3に示すように、入力画像から樹木と建物以外の物体を検知すべく、樹木と建物を学習用画像として入力すると、樹木の特徴と建物の特徴が混合した基準パターンが作成される。   Further, if the threshold is lowered to a point where there is little saliency, and if any saliency is present, it is detected as a pedestrian candidate. For example, as shown in FIG. 3, when a tree and a building are input as learning images in order to detect objects other than trees and buildings from the input image, a reference pattern in which the characteristics of the trees and the characteristics of the buildings are mixed is created.

その結果、樹木の画像を判定した場合も建物の画像を判定した場合も、基準パターンと異なる、すなわち「顕著性あり」と判定される可能性がある。   As a result, it may be determined that the tree pattern or the building image is different from the reference pattern, that is, “conspicuous”.

このように、学習プロセスにおいて入力する事象が大きい(学習用画像間の共通性が低く、多岐にわたる)場合には、適切な基準パターンが得られず、顕著性の検出精度が低くなり、歩行者の検出漏れが発生したり、多数の領域が「顕著性のある歩行者候補領域」として出力されることなる。その結果、歩行者認識部18での処理負荷上昇と認識精度低下が引き起こされる。   In this way, when the events to be input in the learning process are large (the commonality between the images for learning is low and wide-ranging), an appropriate reference pattern cannot be obtained, the saliency detection accuracy is low, and the pedestrian Or a large number of areas are output as “significant pedestrian candidate areas”. As a result, a processing load increase and a recognition accuracy decrease in the pedestrian recognition unit 18 are caused.

そこで、画像認識装置10は、図4に示すように入力画像から歩行者を認識した後、使用した入力画像や歩行者候補領域を検出した結果画像を学習用画像として学習処理部12が基準パターンを作成し、基準パターンデータベース15を更新する。   Therefore, in the image recognition apparatus 10, after the pedestrian is recognized from the input image as shown in FIG. 4, the learning processing unit 12 uses the result image obtained by detecting the used input image and the pedestrian candidate area as a learning image. And the reference pattern database 15 is updated.

作成した基準パターンは、歩行者領域選出部19が次の歩行者候補領域の検出に使用するので、図5に示すように、顕著性の算出時に使用される基準パターンは、前回の歩行者認識時の背景画像から得られることとなる。そのため、車載のカメラ31が撮影した画像であっても、車両の移動による背景の変化の影響を極めて小さくすることができ、定点カメラの撮影画像に対する顕著性算出と同様に高い精度で歩行者候補領域を検出することが可能となる。すなわち、顕著性算出では、現在のフレーム画像と一つ前のフレームを含んだ学習(基準)パターンで比較される。各フレーム間は数msec程度なので、一つ前のフレームは現在のフレーム画像と大きな変化が無いため、現フレームに近い学習パターンで比較することができ、精度が高くなる。   Since the created reference pattern is used by the pedestrian area selection unit 19 for detection of the next pedestrian candidate area, as shown in FIG. 5, the reference pattern used when calculating the saliency is the previous pedestrian recognition. It will be obtained from the background image of the time. Therefore, even if the image is taken by the in-vehicle camera 31, the influence of the background change due to the movement of the vehicle can be made extremely small, and the pedestrian candidate can be obtained with high accuracy in the same manner as the saliency calculation for the taken image of the fixed point camera. An area can be detected. That is, in the saliency calculation, the current frame image and the learning (reference) pattern including the previous frame are compared. Since each frame is about several milliseconds, the previous frame is not significantly different from the current frame image, so that it can be compared with a learning pattern close to the current frame, and the accuracy is improved.

ここで、歩行者候補領域検出部19による検出の結果、歩行者候補領域が存在しない場合や、歩行者候補領域が存在しても歩行者認識部18によって歩行者ではないと認識された場合には、図6に示すように入力画像をそのまま学習用画像として使用することができる。   Here, as a result of detection by the pedestrian candidate area detection unit 19, when the pedestrian candidate area does not exist, or when the pedestrian recognition unit 18 recognizes that the pedestrian candidate area exists, it is not a pedestrian. As shown in FIG. 6, the input image can be used as it is as a learning image.

一方、歩行者認識部18が歩行者を認識した場合、学習処理部12は、その内部の歩行者マスク処理部12aによって入力画像から歩行者に対応する領域を除去した画像を学習用画像として使用する。   On the other hand, when the pedestrian recognition unit 18 recognizes a pedestrian, the learning processing unit 12 uses an image obtained by removing an area corresponding to the pedestrian from the input image by the pedestrian mask processing unit 12a therein as a learning image. To do.

つづいて、マイコン10aにおける歩行者認識の処理動作について図7のフローチャートを参照して説明する。なお、この処理フローは、IGオンによりマイコン10aに電源が供給されてスタートし、画像処理装置10が画像認識を実行中である場合に、画像フレームの処理ごと(例えば数msecごと)に繰り返し実行される処理である。また、マイコン10aは白線認識や車両認識も行うが、本処理フローでは説明を省略している。   Next, the processing operation for pedestrian recognition in the microcomputer 10a will be described with reference to the flowchart of FIG. This processing flow starts when power is supplied to the microcomputer 10a when the IG is turned on, and is repeatedly executed for each image frame processing (for example, every several milliseconds) when the image processing apparatus 10 is executing image recognition. Process. The microcomputer 10a also performs white line recognition and vehicle recognition, but a description thereof is omitted in this processing flow.

まず、歩行者候補領域検出部19が判定領域を切り出し(ステップS101)、歩行者候補領域検出部19が歩行者候補領域を検出する(ステップS102)。さらに、歩行者認識部18が歩行者候補領域に対してパターンマッチングを行なって、歩行者候補領域が歩行者であるか否かを判定する(ステップS103)。   First, the pedestrian candidate area detection unit 19 cuts out the determination area (step S101), and the pedestrian candidate area detection unit 19 detects the pedestrian candidate area (step S102). Further, the pedestrian recognition unit 18 performs pattern matching on the pedestrian candidate area, and determines whether or not the pedestrian candidate area is a pedestrian (step S103).

その結果、入力画像内に歩行者が存在しなければ(ステップS104,No)、学習処理部12は画像全体から基準パターンを作成し(ステップS105)、基準パターンデータベースを更新して(ステップS106)、処理を終了する。   As a result, if there is no pedestrian in the input image (No at Step S104), the learning processing unit 12 creates a reference pattern from the entire image (Step S105), and updates the reference pattern database (Step S106). The process is terminated.

一方、歩行者が存在する場合には(ステップS104,Yes)、まず歩行者情報と歩行者までの距離を衝突判定部20に出力する(ステップS107)。そして歩行者マスク処理部12aによって歩行者をマスクした(ステップS108)後、基準パターンを作成し(ステップS109)、基準パターンデータベースを更新して(ステップS106)、処理を終了する。   On the other hand, when a pedestrian exists (step S104, Yes), first, the pedestrian information and the distance to the pedestrian are output to the collision determination unit 20 (step S107). And after masking a pedestrian by the pedestrian mask process part 12a (step S108), a reference pattern is produced (step S109), a reference pattern database is updated (step S106), and a process is complete | finished.

ここで、「更新」とは、今まで学習した背景画のベクトル成分に対し、最新のフレーム画のベクトル成分を加算し、ベクトル成分を変更することである。   Here, “update” means adding the latest frame image vector component to the background image vector component learned so far to change the vector component.

なお、歩行者のマスクについては、歩行者認識部18によって認識された歩行者の画像のみを除去しても良いし、歩行者認識部18によって歩行者であると認識された歩行者候補領域自体を除去しても良い。また、歩行者認識部18による認識結果によらず、歩行者候補領域検出部19による検出結果に基づいて全ての歩行者候補領域を除去しても良い。   As for the pedestrian mask, only the pedestrian image recognized by the pedestrian recognition unit 18 may be removed, or the pedestrian candidate area itself recognized as a pedestrian by the pedestrian recognition unit 18. May be removed. Moreover, you may remove all the pedestrian candidate areas based on the detection result by the pedestrian candidate area | region detection part 19 irrespective of the recognition result by the pedestrian recognition part 18. FIG.

さらに、学習用画像として使用する画像は、カメラ31が撮影した画像を直接使用しても良いし、前処理部11が出力する画像であっても良い。さらに他の任意の処理部による処理結果画像を用いても良い。   Furthermore, the image used as the learning image may be an image captured by the camera 31 or may be an image output by the preprocessing unit 11. Furthermore, a processing result image by another arbitrary processing unit may be used.

つぎに、プリクラッシュECU40の処理動作について図8のフローチャートを参照して説明する。なお、この処理フローは、IGオンなどにより電源が供給されてスタートし、繰り返し実行される処理である。   Next, the processing operation of the pre-crash ECU 40 will be described with reference to the flowchart of FIG. This process flow is a process that starts when power is supplied when IG is turned on and the like, and is repeatedly executed.

まず、プリクラッシュECU40は、画像認識装置10から画像認識の結果を示すデータを受信する(ステップS201)。そして、歩行者などと衝突の危険性が高い場合には(ステップS202,Yes)、スピーカ44によるブザーなどの警告音出力やディスプレイ43による表示出力によって運転者に報知し(ステップS203)、ブレーキ41やEFI42による車両制御を実行して(ステップS204)、処理を終了する。   First, the pre-crash ECU 40 receives data indicating the result of image recognition from the image recognition device 10 (step S201). If the risk of collision with a pedestrian or the like is high (step S202, Yes), the driver 44 is notified by a warning sound output such as a buzzer by the speaker 44 or a display output by the display 43 (step S203). Or vehicle control by EFI 42 is executed (step S204), and the process is terminated.

上述してきたように、本実施例にかかる画像認識装置10は、走行中にカメラ31が撮影した画像から随時基準パターンを作成することで、顕著性アルゴリズムによる歩行者候補領域の検出精度を向上している。   As described above, the image recognition apparatus 10 according to the present embodiment improves the detection accuracy of the pedestrian candidate area by the saliency algorithm by creating a reference pattern as needed from the image captured by the camera 31 during traveling. ing.

なお、本実施例では、車載カメラが撮影した画像から特定の物体、すなわち歩行者を認識する場合を例に説明を行なったが、例えば移動(回転)可能な交通監視用のカメラが撮影した画像に対しても適用可能である。また、本実施例では顕著性算出を適用したが、これに限らず背景画像を基準パターンとして記憶し、現在画像との差分により、候補画を抽出する背景差分法を適用しても良い。   In this embodiment, the case where a specific object, that is, a pedestrian is recognized from an image captured by the in-vehicle camera is described as an example. For example, an image captured by a movable (rotating) traffic monitoring camera is used. It is applicable to. In this embodiment, the saliency calculation is applied. However, the present invention is not limited to this, and a background difference method of storing a background image as a reference pattern and extracting a candidate image based on a difference from the current image may be applied.

以上のように、本発明にかかる物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置は、車両における画像認識に有用であり、特に歩行者候補領域の検出精度向上に適している。   As described above, the object candidate region detection device, the object candidate region detection method, the pedestrian recognition device, and the vehicle control device according to the present invention are useful for image recognition in a vehicle, and particularly for improving detection accuracy of a pedestrian candidate region. Is suitable.

本発明の実施例にかかる画像認識装置の概要構成を示す概要構成図である。1 is a schematic configuration diagram illustrating a schematic configuration of an image recognition apparatus according to an embodiment of the present invention. 顕著性アルゴリズムによる候補領域の検出について説明する説明図である。It is explanatory drawing explaining the detection of the candidate area | region by a saliency algorithm. 候補領域の検出精度低下について説明する説明図である。It is explanatory drawing explaining the detection accuracy fall of a candidate area | region. 本発明に係る基準パターンの作成について説明する説明図である。It is explanatory drawing explaining preparation of the reference pattern which concerns on this invention. 本発明に係る顕著性算出について説明する説明図である。It is explanatory drawing explaining saliency calculation which concerns on this invention. 学習用画像と歩行者のマスクについて説明する説明図である。It is explanatory drawing explaining the image for learning, and a pedestrian's mask. 基準パターン更新の処理動作について説明するフローチャートである。It is a flowchart explaining the processing operation | movement of a reference | standard pattern update. 図1に示したプリクラッシュECUの処理動作について説明するフローチャートである。It is a flowchart explaining the processing operation of the pre-crash ECU shown in FIG.

符号の説明Explanation of symbols

10 画像認識装置
10a マイコン
11 前処理部
12 学習処理部
12a 歩行者マスク処理部
12b 車線認識部
15 基準パターンデータベース
16 車両認識部
17 白線認識部
18 歩行者認識部
19 歩行者候補領域検出部
20 衝突判定部
30 ナビゲーション装置
30a 地図データ
31 カメラ
DESCRIPTION OF SYMBOLS 10 Image recognition apparatus 10a Microcomputer 11 Pre-processing part 12 Learning processing part 12a Pedestrian mask processing part 12b Lane recognition part 15 Reference pattern database 16 Vehicle recognition part 17 White line recognition part 18 Pedestrian recognition part 19 Pedestrian candidate area | region detection part 20 Collision Determining unit 30 Navigation device 30a Map data 31 Camera

Claims (8)

カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置であって、
現在カメラが入力した入力画像から切り出した被判定領域と、予め入力画像を記憶した基準パターンとの比較によって、前記被判定領域のうち、前記物体候補領域を検出する検出手段と、
前記検出の結果を用い、現在の入力画像のうち前記特定の物体が存在しない領域を用いて前記基準パターンを更新する基準パターン更新手段と、
を備えたことを特徴とする物体候補領域検出装置。
An object candidate area detection device that detects an area where a specific object may exist from an input image captured by a camera as an object candidate area,
A detection means for detecting the object candidate area in the determination area by comparing the determination area cut out from the input image currently input by the camera and a reference pattern in which the input image is stored in advance;
Using the detection result, reference pattern update means for updating the reference pattern using a region in which the specific object does not exist in the current input image;
An object candidate area detecting apparatus comprising:
前記基準パターン更新手段は、前記検出手段による検出の結果、物体候補領域が存在しない場合に、前記入力画像全体から前記基準パターンを更新することを特徴とする請求項1に記載の物体候補領域検出装置。   2. The object candidate region detection according to claim 1, wherein the reference pattern update unit updates the reference pattern from the entire input image when an object candidate region does not exist as a result of detection by the detection unit. apparatus. 前記基準パターン更新手段は、前記検出手段が検出した物体候補領域を前記入力画像から除外して前記基準パターンを更新することを特徴とする請求項1または2に記載の物体候補領域検出装置。   The object candidate region detection apparatus according to claim 1, wherein the reference pattern update unit updates the reference pattern by excluding the object candidate region detected by the detection unit from the input image. 前記物体候補領域に前記特定の物体が存在するか否かを認識する物体認識手段をさらに備え、前記基準パターン更新手段は、前記物体認識手段による認識の結果、前記特定の物体が存在しない場合に前記入力画像全体から前記基準パターンを更新することを特徴とする請求項1,2または3に記載の物体候補領域検出装置。   Object recognition means for recognizing whether or not the specific object is present in the object candidate area is further provided, and the reference pattern update means is configured to detect when the specific object does not exist as a result of recognition by the object recognition means. The object candidate region detection apparatus according to claim 1, wherein the reference pattern is updated from the entire input image. 前記物体候補領域に前記特定の物体が存在するか否かを認識する物体認識手段をさらに備え、前記基準パターン更新手段は、前記物体認識手段が認識した特定の物体を前記入力画像から除外して前記基準パターンを更新することを特徴とする請求項1〜4のいずれか一つに記載の物体候補領域検出装置。   The apparatus further comprises object recognition means for recognizing whether or not the specific object exists in the object candidate area, and the reference pattern update means excludes the specific object recognized by the object recognition means from the input image. The object candidate region detection apparatus according to claim 1, wherein the reference pattern is updated. カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出方法であって、
現在カメラが入力した入力画像から切り出した被判定領域と、予め入力画像を記憶した基準パターンとの比較によって、前記被判定領域のうち、前記物体候補領域を検出する検出工程と、
前記検出の結果を用い、前記入力画像のうち前記特定の物体が存在しない領域を用いて前記基準パターンを更新する基準パターン更新工程と、
を含んだことを特徴とする物体候補領域検出方法。
An object candidate area detection method for detecting an area where a specific object may exist from an input image captured by a camera as an object candidate area,
A detection step of detecting the object candidate area among the determination areas by comparing the determination area extracted from the input image currently input by the camera and a reference pattern in which the input image is stored in advance.
Using the detection result, a reference pattern update step of updating the reference pattern using a region in the input image where the specific object does not exist;
The object candidate area | region detection method characterized by including.
車載カメラが撮影した入力画像から歩行者を認識する歩行者認識装置であって、
現在カメラが入力した入力画像から切り出した被判定領域と、予め入力画像を記憶した基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、
当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、
前記検出の結果を用い、現在の入力画像のうち前記特定の物体が存在しない領域を用いて前記基準パターンを更新する基準パターン更新手段と、
を備えたことを特徴とする歩行者認識装置。
A pedestrian recognition device that recognizes a pedestrian from an input image taken by an in-vehicle camera,
A detection means for detecting, as a pedestrian candidate region, a region where a pedestrian may exist by comparing a determination target region cut out from an input image currently input by a camera and a reference pattern in which an input image is stored in advance
Pedestrian determination means for determining whether the pedestrian candidate area corresponds to a pedestrian,
Using the detection result, reference pattern update means for updating the reference pattern using a region in which the specific object does not exist in the current input image;
A pedestrian recognition device comprising:
現在カメラが入力した入力画像から切り出した被判定領域と、予め入力画像を記憶した基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、
当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、
前記検出の結果を用い、現在の入力画像のうち前記特定の物体が存在しない領域を用いて前記基準パターンを更新する基準パターン更新手段と、
前記歩行者判別手段によって歩行者が認識された場合に、歩行者の存在について報知する報知制御、および/または車両の走行状態を制御する走行制御を実行する制御手段と、
を備えたことを特徴とする車両制御装置。
A detection means for detecting, as a pedestrian candidate region, a region where a pedestrian may exist by comparing a determination target region cut out from an input image currently input by a camera and a reference pattern in which the input image is stored in advance;
Pedestrian determination means for determining whether the pedestrian candidate area corresponds to a pedestrian,
Using the detection result, reference pattern update means for updating the reference pattern using a region in which the specific object does not exist in the current input image;
Control means for executing notification control for notifying the presence of a pedestrian and / or running control for controlling the running state of the vehicle when a pedestrian is recognized by the pedestrian discrimination means;
A vehicle control device comprising:
JP2006160149A 2006-06-08 2006-06-08 Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device Pending JP2007328631A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006160149A JP2007328631A (en) 2006-06-08 2006-06-08 Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006160149A JP2007328631A (en) 2006-06-08 2006-06-08 Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device

Publications (1)

Publication Number Publication Date
JP2007328631A true JP2007328631A (en) 2007-12-20

Family

ID=38929046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006160149A Pending JP2007328631A (en) 2006-06-08 2006-06-08 Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device

Country Status (1)

Country Link
JP (1) JP2007328631A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018220706A1 (en) * 2017-05-30 2018-12-06 三菱電機株式会社 Image processing device and image processing method
JP2020003400A (en) * 2018-06-29 2020-01-09 国立大学法人金沢大学 Lateral position estimating device and lateral position estimating method
US10733705B2 (en) 2017-12-27 2020-08-04 Honda Motor Co., Ltd. Information processing device, learning processing method, learning device, and object recognition device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090277A (en) * 1998-09-10 2000-03-31 Hitachi Denshi Ltd Reference background image updating method, method and device for detecting intruding object
JP2004109006A (en) * 2002-09-19 2004-04-08 Fuji Heavy Ind Ltd Object detector

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090277A (en) * 1998-09-10 2000-03-31 Hitachi Denshi Ltd Reference background image updating method, method and device for detecting intruding object
JP2004109006A (en) * 2002-09-19 2004-04-08 Fuji Heavy Ind Ltd Object detector

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018220706A1 (en) * 2017-05-30 2018-12-06 三菱電機株式会社 Image processing device and image processing method
US10733705B2 (en) 2017-12-27 2020-08-04 Honda Motor Co., Ltd. Information processing device, learning processing method, learning device, and object recognition device
JP2020003400A (en) * 2018-06-29 2020-01-09 国立大学法人金沢大学 Lateral position estimating device and lateral position estimating method
JP7228219B2 (en) 2018-06-29 2023-02-24 国立大学法人金沢大学 Lateral position estimation device and lateral position estimation method

Similar Documents

Publication Publication Date Title
JP2007328630A (en) Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device
JP4790454B2 (en) Image recognition device, vehicle control device, image recognition method, and vehicle control method
JP4322913B2 (en) Image recognition apparatus, image recognition method, and electronic control apparatus
JP2007329762A (en) Apparatus and method for detecting object candidate area, walker recognition apparatus, and vehicle controller
JP2008181423A (en) Pedestrian recognition device and pedestrian recognition method
JP2007072665A (en) Object discrimination device, object discrimination method and object discrimination program
JP2014026539A (en) Vehicle behavior prediction device
JP2006031162A (en) Moving obstacle detection device
US20150220796A1 (en) Sign recognition apparatus and method for determining left- or right-hand traffic division and distance unit
JP2009236623A (en) Object detector, periphery monitoring apparatus, driving support system, and object detection method
US11572052B2 (en) Vehicle control for facilitating control of a vehicle passing a prececeding vehicle
US20080008355A1 (en) Image recognition apparatus, image recognition method, and vehicle control apparatus
JP2008186170A (en) Driving support system and driving support method
US20210001856A1 (en) Vehicle control device and vehicle control method
US10176714B2 (en) Driving support apparatus
JP2008143387A (en) Surrounding area monitoring device and surrounding area monitoring method
JP4913101B2 (en) Road shape detection device for vehicles
JP2007334554A (en) Obstacle detection device and obstacle detection method
JP2010039718A (en) Vehicle control device, vehicle control method, and vehicle control processing program
JP7184951B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
US20220398463A1 (en) Ultrasonic system and method for reconfiguring a machine learning model used within a vehicle
AU2019348095A1 (en) Prompting method and system for vehicle, and vehicle
JP7286691B2 (en) Determination device, vehicle control device, determination method, and program
JP2007328631A (en) Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device
JP2008015771A (en) Image recognition device, image recognition method, and vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090316

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110719