JP2011188094A - Object recognition device and program - Google Patents

Object recognition device and program Download PDF

Info

Publication number
JP2011188094A
JP2011188094A JP2010049224A JP2010049224A JP2011188094A JP 2011188094 A JP2011188094 A JP 2011188094A JP 2010049224 A JP2010049224 A JP 2010049224A JP 2010049224 A JP2010049224 A JP 2010049224A JP 2011188094 A JP2011188094 A JP 2011188094A
Authority
JP
Japan
Prior art keywords
image
recognition
evaluation value
gain
specific object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010049224A
Other languages
Japanese (ja)
Other versions
JP5515871B2 (en
Inventor
Fumihiro Okumura
文洋 奥村
Kiyosumi Shirodono
清澄 城殿
Koji Yasuda
浩志 安田
Takashi Machida
貴史 町田
Akira Omuro
朗 大室
Toshiki Sugiura
豪軌 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2010049224A priority Critical patent/JP5515871B2/en
Publication of JP2011188094A publication Critical patent/JP2011188094A/en
Application granted granted Critical
Publication of JP5515871B2 publication Critical patent/JP5515871B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce blur or noise of an image, and obtain an image suitable for recognizing a specific object. <P>SOLUTION: A window image extraction unit 22 extracts a window image from an image captured by an imaging device 12, a recognition unit 24 recognizes whether the window image shows a specific object or not, an image characteristic extraction unit 42 extracts image characteristics from the window image based on the recognition result, an evaluation value calculation unit 44 plots the extracted image characteristics on an evaluation value map in which a relationship between the characteristics of the image and ease of recognition is defined, and calculates the evaluation value, and an imaging control value calculation unit 46 calculates an exposure time and a gain so that a product of the exposure time and the gain may become constant and outputs them to the imaging device 12. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、物体認識装置及びプログラムに係り、特に、撮像した画像から特定の物体を認識する場合において、認識に適した画像が撮像されるように撮像装置を制御する物体認識装置及びプログラムに関する。   The present invention relates to an object recognition apparatus and program, and more particularly to an object recognition apparatus and program for controlling an imaging apparatus so that an image suitable for recognition is captured when a specific object is recognized from the captured image.

近年、車載カメラで撮像した車両周辺の映像を画像処理し、歩行者や車両等の特定の物体を認識してドライバに認識結果を提示する物体認識装置を搭載する車両が増加している。このような物体認識装置においては、認識に適した画像が得られるように制御する必要がある。   2. Description of the Related Art In recent years, an increasing number of vehicles are equipped with an object recognition device that performs image processing on images around a vehicle imaged by an in-vehicle camera, recognizes a specific object such as a pedestrian or vehicle, and presents a recognition result to a driver. In such an object recognition apparatus, it is necessary to control so as to obtain an image suitable for recognition.

例えば、測光センサにより測光を行い、この測光信号に基づいてCCDの電子シャッタの露出時間を決定する車載監視カメラの露出制御方法が提案されている(特許文献1参照)。特許文献1に記載の露出制御方法では、測光信号に基づく露出時間を基準としてオートブラケティング撮影を行い、メモリに入力された3個の画像データから適正露出となる画像データまたは適正露出に最も近い画像データが選択され、これが画像処理部に入力されるとともに新たな基準露出時間に設定され、次のオートブラケティング撮影が行なわれる。   For example, an exposure control method for an in-vehicle monitoring camera has been proposed in which photometry is performed by a photometric sensor and the exposure time of an electronic shutter of a CCD is determined based on the photometric signal (see Patent Document 1). In the exposure control method described in Patent Document 1, auto bracketing shooting is performed based on an exposure time based on a photometric signal, and the image data that is the proper exposure from the three pieces of image data input to the memory or the closest to the proper exposure. Image data is selected, input to the image processing unit, set to a new reference exposure time, and the next auto bracketing shooting is performed.

また、判定標識を含む画像から物体を検出し、視程状態を示す視程評価値と視程状態における物体検出手段の検出性能の信頼度とが対応づけられた基準情報を信頼度判定情報格納手段に予め格納しておき、判定標識を含む画像から判定標識領域の画像特徴を抽出し、抽出された画像特徴に基づいて視程評価値を算出し、算出した視程評価値を信頼度判定情報格納手段に格納された基準情報と照合して物体検出手段の検出性能の信頼度を判定し、検出結果と判定結果とに基づいて所定の処理を実行する画像処理装置が提案されている(特許文献2参照)。   In addition, reference information in which an object is detected from the image including the determination mark and the visibility evaluation value indicating the visibility state is associated with the reliability of the detection performance of the object detection means in the visibility state is stored in the reliability determination information storage unit in advance. And storing, extracting the image feature of the determination marker region from the image including the determination indicator, calculating the visibility evaluation value based on the extracted image feature, and storing the calculated visibility evaluation value in the reliability determination information storage means An image processing apparatus has been proposed in which the reliability of the detection performance of the object detection unit is determined by collating with the reference information, and a predetermined process is executed based on the detection result and the determination result (see Patent Document 2). .

また、通常モード及び手ぶれ低減(hjr)モードを有するカメラシステムにおいて、通常モードの露光時間とゲインとを乗算することによって第1の露光時間−ゲインの積を生成し、第1の露光時間−ゲインの積とhjrモードのための第2の露光時間−ゲインの積との間の差分を低減するように、通常モードの露光時間とゲインを修正してhjrモードのための露光時間及びゲインを求めるカメラシステムが提案されている(特許文献3参照)。   Further, in a camera system having a normal mode and a camera shake reduction (hjr) mode, a first exposure time-gain product is generated by multiplying a normal mode exposure time by a gain to obtain a first exposure time-gain. The exposure time and gain for the hjr mode are determined by modifying the exposure time and gain in the normal mode so as to reduce the difference between the product of the second and the second exposure time-gain product for the hjr mode. A camera system has been proposed (see Patent Document 3).

特開2007−295093号公報JP 2007-295093 A 特開2001−84377号公報JP 2001-84377 A 特表2010−504718号公報Japanese translation of PCT publication 2010-504718

しかしながら、特許文献1に記載の露光制御方法により得られた適正露出により、必ずしも認識に適した画像が得られるわけではない、という問題がある。例えば、測光信号の結果が低ければ、露光時間を長くすることが考えられるが、露光時間を長くすると、ぶれを伴った認識に不向きな画像となってしまう。また、露光時間を短くしてゲインを上げることも考えられるが、この場合には、画像のノイズが増加してしまい、やはり認識に不向きな画像となってしまう。   However, there is a problem that an image suitable for recognition is not necessarily obtained by appropriate exposure obtained by the exposure control method described in Patent Document 1. For example, if the result of the photometric signal is low, the exposure time can be increased. However, if the exposure time is increased, the image is unsuitable for recognition with blurring. Although it is possible to increase the gain by shortening the exposure time, in this case, the noise of the image increases, and the image is also unsuitable for recognition.

また、特許文献2に記載の画像処理装置では、エッジ強度、周波数成分、色等を元に画像が認識に適しているかを評価しているが、その評価と撮像パラメータとの関係についは記載されていないため、認識に適した画像を得ることができない、という問題がある。   The image processing apparatus described in Patent Document 2 evaluates whether an image is suitable for recognition based on edge strength, frequency component, color, and the like, but the relationship between the evaluation and imaging parameters is described. Therefore, there is a problem that an image suitable for recognition cannot be obtained.

また、特許文献3に記載のカメラシステムでは、通常モードの露光時間とゲインとの積を基準として手ぶれ低減モードの露光時間及びゲインを決定しているが、通常モードの露光時間及びゲインにより得られる画像が認識に適していない場合には、認識に適していない画像が得られ続けてしまう、という問題がある。   In the camera system described in Patent Document 3, the exposure time and gain in the camera shake reduction mode are determined based on the product of the exposure time and gain in the normal mode, but can be obtained by the exposure time and gain in the normal mode. If the image is not suitable for recognition, there is a problem that images that are not suitable for recognition continue to be obtained.

本発明は、上述した問題を解決するために成されたものであり、画像のぶれやノイズを低減して、特定の物体を認識するために認識に適した画像を得ることができる物体認識装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and can reduce an image blur and noise to obtain an image suitable for recognition for recognizing a specific object. And to provide a program.

上記目的を達成するために、本発明の物体認識装置は、撮像手段により設定された露光時間で撮像され蓄積された電荷を設定されたゲインで増幅することにより得られた撮像画像に含まれる特定の物体を示す画像を認識する認識手段と、前記認識手段により認識された特定の物体を示す画像及び該特定の物体を示す画像の周辺画像を含む部分画像の特性を抽出する抽出手段と、予め定めた画像の特性と前記認識手段による認識の容易さとの関係、及び前記抽出手段により抽出された前記部分画像の特性に基づいて、前記認識手段で認識された前記特定の物体を示す画像の認識の容易さを示す評価値を算出する評価値算出手段と、前記評価値算出手段で算出される評価値が高くなり、かつ前記露光時間と前記ゲインとの積が所定値となるように前記露光時間及び前記ゲインを制御する撮像制御手段と、を含んで構成されている。   In order to achieve the above object, the object recognition apparatus of the present invention provides a specific image included in a captured image obtained by amplifying charges accumulated and stored with an exposure time set by an imaging unit with a set gain. Recognizing means for recognizing an image showing the object, an extracting means for extracting characteristics of a partial image including an image showing the specific object recognized by the recognizing means and a peripheral image of the image showing the specific object, Recognition of an image indicating the specific object recognized by the recognition means based on the relationship between the defined image characteristics and the ease of recognition by the recognition means, and the characteristics of the partial image extracted by the extraction means An evaluation value calculating means for calculating an evaluation value indicating the ease of the evaluation, an evaluation value calculated by the evaluation value calculating means is increased, and a product of the exposure time and the gain is a predetermined value. Is configured to include a, an imaging control means for controlling the serial exposure time and the gain.

本発明の物体認識装置によれば、認識手段が、撮像手段により設定された露光時間で撮像され蓄積された電荷を設定されたゲインで増幅することにより得られた撮像画像に含まれる特定の物体を示す画像を認識し、抽出手段が、認識手段により認識された特定の物体を示す画像及び特定の物体を示す画像の周辺画像を含む部分画像の特性を抽出する。そして、評価値算出手段が、予め定めた画像の特性と認識手段による認識の容易さとの関係、及び抽出手段により抽出された部分画像の特性に基づいて、認識手段で認識された特定の物体を示す画像の認識の容易さを示す評価値を算出する。そして、撮像制御手段が、評価値算出手段で算出される評価値が高くなり、かつ露光時間とゲインとの積が所定値となるように露光時間及びゲインを制御する。ここで、所定値とは、露光時間とゲインとの積が、現在設定されている露光時間とゲインとの積と一定値となる値、及び一定値に若干の幅を持たせた値とすることができる。   According to the object recognition apparatus of the present invention, the specific object included in the captured image obtained by the recognition unit amplifying the charge captured and accumulated with the exposure time set by the imaging unit with the set gain. The extraction unit extracts the characteristics of the partial image including the image indicating the specific object recognized by the recognition unit and the peripheral image of the image indicating the specific object. Then, the evaluation value calculation means determines the specific object recognized by the recognition means based on the relationship between the predetermined image characteristics and the ease of recognition by the recognition means, and the characteristics of the partial image extracted by the extraction means. An evaluation value indicating the ease of recognizing the displayed image is calculated. Then, the imaging control unit controls the exposure time and the gain so that the evaluation value calculated by the evaluation value calculation unit is high and the product of the exposure time and the gain becomes a predetermined value. Here, the predetermined value is a value in which the product of the exposure time and the gain is a constant value with the currently set product of the exposure time and the gain, and a value in which the constant value has a slight width. be able to.

このように、予め定めた画像の特性と認識の容易さを示す評価値との関係、及び部分画像の特性に基づいて算出される評価値が高くなり、かつ露光時間とゲインとの積が所定値となる露光時間及びゲインを算出するため、画像のぶれやノイズを低減して、特定の物体を認識するために認識に適した画像を得ることができる。   As described above, the relationship between the predetermined image characteristic and the evaluation value indicating the ease of recognition and the evaluation value calculated based on the characteristic of the partial image are high, and the product of the exposure time and the gain is predetermined. Since the exposure time and gain as values are calculated, image blur and noise can be reduced, and an image suitable for recognition in order to recognize a specific object can be obtained.

また、前記撮像制御手段は、前記評価値算出手段により算出された評価値が予め定めた評価値閾値より低い場合に、前記露光時間及び前記ゲインを制御するようにすることができる。   Further, the imaging control means can control the exposure time and the gain when the evaluation value calculated by the evaluation value calculation means is lower than a predetermined evaluation value threshold.

また、本発明の物体認識装置は、前記認識手段の認識結果に基づいて、前記特定の物体を示す画像の特定の物体らしさを認識の信頼度として算出する信頼度算出手段を含んで構成することができ、前記撮像制御手段は、前記信頼度算出手段により算出された信頼度が予め定めた信頼度閾値より低い場合に、前記露光時間及び前記ゲインを制御するようにすることができる。   Further, the object recognition apparatus of the present invention includes a reliability calculation unit that calculates a specific object-likeness of an image showing the specific object as a recognition reliability based on a recognition result of the recognition unit. The imaging control means can control the exposure time and the gain when the reliability calculated by the reliability calculation means is lower than a predetermined reliability threshold.

また、本発明の物体認識装置は、前記評価値算出手段により算出された評価値を時系列に記憶手段に記憶するように制御する記憶制御手段を含んで構成することができ、前記撮像制御手段は、前記記憶制御手段により前記記憶手段に記憶された時系列の評価値に基づいて、前記評価値の変化量が予め定めた評価値変化量閾値より大きい場合に、前記露光時間及び前記ゲインを制御するようにすることができる。   Further, the object recognition apparatus of the present invention may be configured to include a storage control unit that controls the storage unit to store the evaluation values calculated by the evaluation value calculation unit in time series, and the imaging control unit Is based on the time-series evaluation values stored in the storage means by the storage control means, and when the change amount of the evaluation value is larger than a predetermined evaluation value change amount threshold, the exposure time and the gain are Can be controlled.

また、本発明の物体認識装置は、前記認識手段の認識結果に基づいて、前記特定の物体を示す画像の特定の物体らしさを認識の信頼度として算出する信頼度算出手段を含んで構成することができ、前記記憶制御手段は、前記信頼度算出手段により算出された信頼度を時系列に前記記憶手段に記憶するように制御し、前記撮像制御手段は、前記記憶制御手段により前記記憶手段に記憶された時系列の信頼度に基づいて、前記信頼度が低下する方向に変化した変化量が予め定めた信頼度変化量閾値より大きい場合に、前記露光時間及び前記ゲインを制御するようにすることができる。   Further, the object recognition apparatus of the present invention includes a reliability calculation unit that calculates a specific object-likeness of an image showing the specific object as a recognition reliability based on a recognition result of the recognition unit. And the storage control unit controls the storage unit to store the reliability calculated by the reliability calculation unit in time series, and the imaging control unit stores the reliability in the storage unit by the storage control unit. Based on the stored time-series reliability, the exposure time and the gain are controlled when the amount of change in the direction in which the reliability decreases is larger than a predetermined reliability change amount threshold. be able to.

また、本発明の物体認識装置は、前記撮像手段が搭載された車両の運動を検出する検出手段を含んで構成することができ、前記撮像制御手段は、前記検出手段により検出された車両の運動の大きさが予め定めた運動閾値より大きい場合に、前記露光時間及び前記ゲインを制御するようにすることができる。   Further, the object recognition apparatus of the present invention can be configured to include detection means for detecting the movement of the vehicle on which the imaging means is mounted, and the imaging control means can detect the movement of the vehicle detected by the detection means. The exposure time and the gain can be controlled when the magnitude of is greater than a predetermined motion threshold.

このように、評価値、信頼度、評価値の変化量、信頼度の変化量、及び車両運動の大きさに基づいて、撮像制御手段による制御を行うため、撮像制御が必要ない場合の不要な処理を抑制することができる。   As described above, since the control by the imaging control unit is performed based on the evaluation value, the reliability, the amount of change in the evaluation value, the amount of change in the reliability, and the magnitude of the vehicle motion, it is unnecessary when the imaging control is not necessary. Processing can be suppressed.

また、本発明の物体認識装置は、前記記憶制御手段により前記記憶手段に記憶された時系列の評価値に基づいて、前記算出手段で評価値を算出する際に用いる前記予め定めた画像の特性と前記認識手段による認識の容易さとの関係を更新する更新手段を含んで構成することができる。これにより、より適切な評価値を算出することができる。   Further, the object recognition apparatus of the present invention is characterized in that the predetermined image characteristic used when the evaluation unit calculates the evaluation value based on the time-series evaluation value stored in the storage unit by the storage control unit. And updating means for updating the relationship between the recognition means and the ease of recognition by the recognition means. Thereby, a more appropriate evaluation value can be calculated.

また、前記部分画像の特性を、前記部分画像のエッジ方向のヒストグラムの頻度の平均及び頻度の分散、前記部分画像のパワースペクトルの総和と前記部分画像の高周波成分のパワースペクトルの総和との比、または前記部分画像の輝度値のヒストグラムの最大値と最小値との比とすることができる。   Further, the characteristics of the partial image, the average of the histogram of the edge direction of the partial image and the variance of the frequency, the ratio of the sum of the power spectrum of the partial image and the sum of the power spectrum of the high-frequency component of the partial image, Or it can be set as the ratio between the maximum value and the minimum value of the histogram of the luminance value of the partial image.

また、前記認識手段は、前記撮像画像のエッジ方向のヒストグラムと予め記憶した特定の物体を示す画像のエッジ方向のヒストグラムとを比較することにより特定の物体を示す画像を認識し、前記抽出手段は、前記認識手段で得られた部分画像のエッジ方向のヒストグラムを用いて、エッジ方向のヒストグラムの頻度の平均及び頻度の分散を前記部分画像の特性として抽出するようにすることができる。このように、認識手段で得られたエッジ方向のヒストグラムを抽出手段で再利用することにより、計算量を削減することができる。   The recognition unit recognizes an image indicating a specific object by comparing a histogram of the edge direction of the captured image and a histogram of the edge direction of the image indicating the specific object stored in advance, and the extracting unit By using the histogram of the edge direction of the partial image obtained by the recognition means, the average frequency and the variance of the frequency of the edge direction histogram can be extracted as the characteristics of the partial image. In this way, the amount of calculation can be reduced by reusing the histogram in the edge direction obtained by the recognition means by the extraction means.

また、物体認識プログラムは、コンピュータを、撮像手段により設定された露光時間で撮像され蓄積された電荷を設定されたゲインで増幅することにより得られた撮像画像に含まれる特定の物体を示す画像を認識する認識手段、前記認識手段により認識された特定の物体を示す画像及び該特定の物体を示す画像の周辺画像を含む部分画像の特性を抽出する抽出手段、予め定めた画像の特性と前記認識手段による認識の容易さとの関係、及び前記抽出手段により抽出された前記部分画像の特性に基づいて、前記認識手段で認識された前記特定の物体を示す画像の認識の容易さを示す評価値を算出する評価値算出手段、及び前記評価値算出手段で算出される評価値が高くなり、かつ前記露光時間と前記ゲインとの積が所定値となるように前記露光時間及び前記ゲインを制御する撮像制御手段として機能させるためのプログラムである。   The object recognition program also displays an image indicating a specific object included in a captured image obtained by amplifying a computer with a set gain, the charge captured and accumulated with the exposure time set by the imaging means. Recognizing recognition means, extracting means for extracting characteristics of a partial image including an image showing a specific object recognized by the recognizing means and a peripheral image of the image showing the specific object, characteristics of the predetermined image and the recognition An evaluation value indicating the ease of recognizing the image representing the specific object recognized by the recognizing means based on the relationship with the ease of recognizing by the means and the characteristics of the partial image extracted by the extracting means. The evaluation value calculating means for calculating and the exposure value so that the evaluation value calculated by the evaluation value calculating means becomes high and the product of the exposure time and the gain becomes a predetermined value. It is between and program for functioning as an imaging control unit configured to control the gain.

なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。   The storage medium for storing the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk or an IC card. Furthermore, the program may be downloaded from a server or the like connected to the network.

以上説明したように、本発明によれば、予め定めた画像の特性と認識の容易さを示す評価値との関係、及び部分画像の特性に基づいて算出される評価値が高くなり、かつ露光時間とゲインとの積が所定値となる露光時間及びゲインを算出するため、画像のぶれやノイズを低減して、特定の物体を認識するために認識に適した画像を得ることができる、という効果が得られる。   As described above, according to the present invention, the evaluation value calculated based on the relationship between the predetermined image characteristic and the evaluation value indicating the ease of recognition and the characteristic of the partial image is increased, and the exposure is performed. Since the exposure time and gain at which the product of time and gain becomes a predetermined value are calculated, it is possible to reduce image blurring and noise and obtain an image suitable for recognition for recognizing a specific object. An effect is obtained.

第1の実施の形態に係る物体認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object recognition apparatus which concerns on 1st Embodiment. 評価値マップの一例を示す図である。It is a figure which shows an example of an evaluation value map. 露光時間及びゲインの算出を説明するための図である。It is a figure for demonstrating calculation of exposure time and a gain. 第1の実施の形態の物体認識装置における物体認識処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the object recognition process routine in the object recognition apparatus of 1st Embodiment. 画像特性の抽出及び評価値算出の流れを示すイメージ図である。It is an image figure which shows the flow of extraction of an image characteristic, and evaluation value calculation. 第2の実施の形態に係る物体認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object recognition apparatus which concerns on 2nd Embodiment. 急激な車両運動による評価値の変動を説明するための図である。It is a figure for demonstrating the fluctuation | variation of the evaluation value by rapid vehicle motion. 第2の実施の形態の物体認識装置における物体認識処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the object recognition process routine in the object recognition apparatus of 2nd Embodiment. 画像特性の他の例を説明するための図である。It is a figure for demonstrating the other example of an image characteristic. 画像特性の他の例を説明するための図である。It is a figure for demonstrating the other example of an image characteristic.

以下、図面を参照して本発明の実施の形態を詳細に説明する。本実施の形態では、車両に搭載された物体認識装置に本発明を適用した場合について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case where the present invention is applied to an object recognition apparatus mounted on a vehicle will be described.

図1に示すように、第1の実施の形態に係る物体認識装置10は、認識対象領域を含む範囲を撮像する撮像装置12と、撮像装置12から出力される撮像画像に基づいて特定の物体を認識する物体認識処理ルーチンを実行するコンピュータ16と、コンピュータ16での処理結果を表示するための表示装置18と、を備えている。   As illustrated in FIG. 1, the object recognition device 10 according to the first embodiment includes an imaging device 12 that captures a range including a recognition target region, and a specific object based on a captured image output from the imaging device 12. The computer 16 that executes the object recognition processing routine for recognizing the image and the display device 18 for displaying the processing result of the computer 16 are provided.

撮像装置12は、認識対象領域を含む範囲を設定された露光時間で撮像し、画像信号を生成する撮像部(図示省略)と、撮像部で生成されたアナログ信号を設定されたゲインで増幅するゲイン調整部(図示省略)と、ゲイン調整されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。   The imaging device 12 images a range including a recognition target region with a set exposure time, and amplifies an imaging unit (not shown) that generates an image signal, and an analog signal generated by the imaging unit with a set gain. A gain adjustment unit (not shown), an A / D conversion unit (not shown) that converts an image signal that is a gain-adjusted analog signal into a digital signal, and temporarily stores the A / D converted image signal Image memory (not shown).

コンピュータ16は、物体認識装置10全体の制御を司るCPU、後述する物体認識処理ルーチンのプログラム等及び各種情報を記憶した記憶媒体としてのROMまたはHDD、ワークエリアとしてデータを一時格納するRAM、及びこれらを接続するバスを含んで構成されている。このような構成の場合には、各構成要素の機能を実現するためのプログラムをROMやHDD等の記憶媒体に記憶しておき、これをCPUが実行することによって、各機能が実現されるようにする。   The computer 16 includes a CPU that controls the entire object recognition apparatus 10, a ROM or HDD as a storage medium that stores a program for an object recognition processing routine, which will be described later, and various types of information, a RAM that temporarily stores data as a work area, and these It is comprised including the bus which connects. In the case of such a configuration, a program for realizing the function of each component is stored in a storage medium such as a ROM or HDD, and each function is realized by executing the program by the CPU. To.

このコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、撮像装置12で撮像されコンピュータ16へ入力された撮像画像に含まれる特定の物体を示す画像を認識する特定物体認識部20と、特定物体認識部20での認識結果に基づいて、認識の容易な画像が得られるように撮像装置12を制御する撮像制御部40と、を含んだ構成で表すことができる。   If the computer 16 is described with functional blocks divided for each function realizing means determined based on hardware and software, it is included in the captured image captured by the imaging device 12 and input to the computer 16 as shown in FIG. A specific object recognition unit 20 for recognizing an image indicating a specific object to be detected, and an imaging control unit 40 for controlling the imaging device 12 so as to obtain an image that can be easily recognized based on a recognition result in the specific object recognition unit 20. And can be represented by a configuration including

特定物体認識部20は、さらに、入力された撮像画像から所定領域のウインドウ画像を抽出するウインドウ画像抽出部22と、ウインドウ画像抽出部22により抽出されたウインドウ画像と識別モデルとを比較することにより、ウインドウ画像が特定の物体か否かを認識する認識部24と、識別モデルが記憶された識別モデル記憶部26と、認識結果を撮像画像に重畳して表示するように表示装置18を制御する表示制御部28と、を含んだ構成で表すことができる。   The specific object recognition unit 20 further compares a window image extraction unit 22 that extracts a window image of a predetermined region from the input captured image, and the window image extracted by the window image extraction unit 22 and the identification model. The recognition unit 24 for recognizing whether or not the window image is a specific object, the identification model storage unit 26 in which the identification model is stored, and the display device 18 are controlled so as to display the recognition result superimposed on the captured image. And a display control unit 28.

ウインドウ画像抽出部22は、撮像画像から予め定められたサイズのウインドウ(探索ウインドウと呼称)を1ステップにつき、予め定められた移動量(探索ステップと呼称)だけ移動させながら画像を切り取る。ここでは、切り取った画像をウインドウ画像といい、ウインドウ画像のサイズ(すなわち探索ウインドウのサイズ)をウインドウサイズと呼称する。ウインドウサイズは様々なサイズの物体を認識するために複数種設定されており、ウインドウ画像抽出部22は、設定されている全てのウインドウサイズの探索ウインドウを用いてウインドウ画像を抽出する。また、ウインドウ画像抽出部22は、抽出したウインドウ画像を予め設定された画素数の画像(例えば、横16×縦32画素の画像)に変換する。   The window image extraction unit 22 cuts an image from a captured image while moving a predetermined size window (referred to as a search window) by a predetermined movement amount (referred to as a search step) per step. Here, the cut image is referred to as a window image, and the size of the window image (that is, the size of the search window) is referred to as a window size. A plurality of types of window sizes are set for recognizing objects of various sizes, and the window image extraction unit 22 extracts window images using search windows of all set window sizes. In addition, the window image extraction unit 22 converts the extracted window image into an image having a preset number of pixels (for example, an image of 16 horizontal x 32 vertical pixels).

認識部24は、例えば、SVM(Support Vector Machine)やHOG(Histogram of Oriented Gradient)等の手法を用いて、ウインドウ画像が特定の物体を示す画像であるか否かを認識する。   The recognizing unit 24 recognizes whether or not the window image is an image indicating a specific object by using a technique such as SVM (Support Vector Machine) or HOG (Histogram of Oriented Gradient).

識別モデル記憶部26には、認識部24による認識の手法に応じて予め学習により生成された識別モデルが記憶されている。なお、ここでは、識別モデル記憶部26をコンピュータ16に設ける場合について説明するが、他の外部装置の記憶手段に識別モデルを記憶しておき、ネットワークや通信手段を介して他の外部装置に接続して、他の外部装置の記憶手段に記憶された識別モデルを読み込むような構成としてもよい。   The identification model storage unit 26 stores an identification model generated by learning in advance according to the recognition method by the recognition unit 24. Although the case where the identification model storage unit 26 is provided in the computer 16 will be described here, the identification model is stored in the storage unit of another external device and connected to the other external device via a network or communication unit. And it is good also as a structure which reads the identification model memorize | stored in the memory | storage means of another external apparatus.

撮像制御部40は、さらに、認識部24で特定の物体を示す画像と認識されたウインドウ画像の画像特性を抽出する画像特性抽出部42と、画像特性抽出部42で抽出されたウインドウ画像の画像特性及び予め定めた評価値マップに基づいて、ウインドウ画像の認識の容易さを示す評価値を算出する評価値算出部44と、評価値算出部44で算出された評価値に基づいて、撮像装置に設定された露光時間及びゲインを制御するための撮像制御値を算出して、撮像装置12に出力する撮像制御値算出部46と、を含んだ構成で表すことができる。   The imaging control unit 40 further extracts an image characteristic extraction unit 42 that extracts an image characteristic of a window image recognized as an image showing a specific object by the recognition unit 24, and an image of the window image extracted by the image characteristic extraction unit 42. Based on the characteristics and a predetermined evaluation value map, an evaluation value calculation unit 44 that calculates an evaluation value indicating the ease of recognizing the window image, and an imaging device based on the evaluation value calculated by the evaluation value calculation unit 44 And an imaging control value calculation unit 46 that calculates an imaging control value for controlling the exposure time and gain set in the above and outputs the imaging control value to the imaging device 12.

画像特性抽出部42は、認識部24で特定の物体を示す画像と認識されたウインドウ画像、そのウインドウ画像の大きさ、撮像画像上でのウインドウ画像の位置、認識された物体の属性(歩行者、二輪車、車両等)を取得する。なお、ここでは、認識結果に含まれる情報の1つとしてウインドウ画像を取得することとするが、特定の物体を示す画像及びその周辺画像を含む部分画像を取得すればよい。また、周辺画像も含めて取得するのは、背景の複雑さ等によっても認識の容易さが異なるため、背景も含めた画像を用いて認識の容易さを評価するためである。   The image characteristic extraction unit 42 recognizes the window image recognized as an image showing a specific object by the recognition unit 24, the size of the window image, the position of the window image on the captured image, and the attribute of the recognized object (pedestrian , Motorcycles, vehicles, etc.). Here, the window image is acquired as one piece of information included in the recognition result, but a partial image including an image indicating a specific object and its peripheral image may be acquired. Further, the reason for including the peripheral image is to evaluate the ease of recognition using the image including the background because the ease of recognition varies depending on the complexity of the background.

また、画像特性抽出部42は、取得されたウインドウ画像からエッジを検出し、検出されたエッジの方向別の頻度を示すエッジ方向のヒストグラムを生成する。一般的に、認識に適した画像には様々な方向のエッジが適度に含まれていることが予想されるため、ここでは、エッジ方向のヒストグラムの頻度の平均及び頻度の分散をウインドウ画像の特性として抽出する。   Further, the image characteristic extraction unit 42 detects an edge from the acquired window image, and generates a histogram of the edge direction indicating the frequency according to the direction of the detected edge. In general, it is expected that an image suitable for recognition will include edges in various directions in an appropriate manner. Extract as

評価値算出部44は、予め定めた評価値マップを用いて、画像特性抽出部42で抽出されたウインドウ画像の画像特性に対する評価値を算出する。図2に示すように、評価値マップは、画像特性と評価値との関係を定めたもので、評価値は画像が認識に適しているほど高い。評価値マップは、認識結果が既知の画像及びその画像特性を、横軸に頻度の平均、縦軸に頻度の分散を取ったグラフに複数プロットし、良好に撮像された画像の画像特性が多くプロットされている領域は評価値を高くし、画像のぶれやノイズが生じている画像の画像特性が多くプロットされている領域は評価値を低くして、複数段階の領域を設定することで作成することができる。例えば、図2に示すように、中心部ほど評価値が高く、外側へ向かうほど評価値が低い等高線のマップを作成することができる。   The evaluation value calculation unit 44 calculates an evaluation value for the image characteristics of the window image extracted by the image characteristic extraction unit 42 using a predetermined evaluation value map. As shown in FIG. 2, the evaluation value map defines the relationship between image characteristics and evaluation values, and the evaluation value is higher as the image is suitable for recognition. An evaluation value map plots multiple images with known recognition results and their image characteristics on a graph with the frequency averaged on the horizontal axis and the frequency variance on the vertical axis, and many image characteristics of well-captured images Created by setting a multi-step area with a high evaluation value for the plotted area, and a low evaluation value for the area where many image characteristics of the image with blurred image and noise are generated. can do. For example, as shown in FIG. 2, it is possible to create a map of contour lines having a higher evaluation value at the center and a lower evaluation value toward the outside.

この評価値マップを用いて、画像特性と評価値との関係をより詳細に説明する。例えば、同図中Aに示す位置に画像特性がプロットされたウインドウ画像は、認識に適した評価値の高い画像であるとする。この評価値の高い画像と同じ明るさで撮影された画像であっても、露光時間が長くゲインが低いほど、車両運動の影響を受けて強いぶれが生じた画像となり、認識には適さない評価値の低い画像となる。このような画像から検出されるエッジの量は少なく、またぶれの方向性によりエッジ方向のヒストグラムに偏りが生じる。すなわち、頻度の平均は小さくなり、頻度の分散は大きくなる。この場合、同図中Bに示す位置にプロットされる。一方、評価値の高い画像と同じ明るさで撮影された画像であっても、露光時間が短くゲインが高いほど、画像全体のノイズが多くなり、認識には適さない評価値の低い画像となる。このような画像から検出されるエッジは様々な方向に均等にばらつくため、頻度の分散は低くなり、同図中Cに示す位置にプロットされる。   The relationship between image characteristics and evaluation values will be described in more detail using this evaluation value map. For example, it is assumed that the window image in which the image characteristics are plotted at the position indicated by A in the figure is an image having a high evaluation value suitable for recognition. Even if the image was shot at the same brightness as the image with a high evaluation value, the longer the exposure time and the lower the gain, the more the image is affected by the movement of the vehicle and the image is strongly blurred. The image becomes a low value. The amount of edges detected from such an image is small, and the edge direction histogram is biased due to the directionality of the blur. That is, the average frequency becomes smaller and the frequency variance becomes larger. In this case, it is plotted at a position indicated by B in FIG. On the other hand, even an image shot at the same brightness as an image with a high evaluation value, as the exposure time is short and the gain is high, the noise of the entire image increases, resulting in an image with a low evaluation value that is not suitable for recognition. . Since the edges detected from such an image are evenly distributed in various directions, the frequency dispersion is low and is plotted at a position indicated by C in FIG.

撮像制御値算出部46は、評価値マップに基づいて、評価値が高くなるように撮像制御値として露光時間及びゲインを算出する。具体的には、図3に示すように、画像の明るさを一定に保つために、露光時間とゲインとの積が一定となるように露光時間及びゲインを変更した場合の評価値の変化を示す直線を評価値マップ上に対応させる。そして、この直線上で評価値が最大となる点に対応する露光時間及びゲインを撮像制御値として算出する。なお、露光時間とゲインとの積が一定とは、厳密に一定の場合とする場合に限らず、評価値マップにおける評価値の設定に応じて、露光時間とゲインとの積が所定値または所定値±αとなる範囲を含む。撮像制御値算出部46は、算出した撮像制御値を撮像装置12へ出力する。撮像装置12では、撮像制御値算出部46で算出された露光時間及びゲインを設定し、設定された露光時間及びゲインで撮像を行う。   The imaging control value calculation unit 46 calculates the exposure time and the gain as the imaging control value based on the evaluation value map so that the evaluation value becomes high. Specifically, as shown in FIG. 3, in order to keep the brightness of the image constant, the change in the evaluation value when the exposure time and the gain are changed so that the product of the exposure time and the gain is constant. The straight line shown is made to correspond on the evaluation value map. Then, the exposure time and gain corresponding to the point where the evaluation value is maximum on this straight line are calculated as the imaging control value. Note that the product of the exposure time and the gain being constant is not limited to a strictly constant case, and the product of the exposure time and the gain is a predetermined value or a predetermined value depending on the setting of the evaluation value in the evaluation value map. Including the range of ± α. The imaging control value calculation unit 46 outputs the calculated imaging control value to the imaging device 12. In the imaging device 12, the exposure time and gain calculated by the imaging control value calculation unit 46 are set, and imaging is performed with the set exposure time and gain.

次に、図4を参照して、第1の実施の形態の物体認識装置10のコンピュータ16で実行される物体認識処理ルーチンについて説明する。   Next, an object recognition processing routine executed by the computer 16 of the object recognition apparatus 10 according to the first embodiment will be described with reference to FIG.

ステップ100で、撮像装置12で撮像された撮像画像を取得し、次に、ステップ102で、撮像画像に対して例えば16×32画素の探索ウインドウを撮像画像の所定領域(例えば、左上角の領域)に設定し、設定した探索ウインドウを用いて、撮像画像から16×32画素のウインドウ画像を抽出する。   In step 100, a captured image captured by the imaging device 12 is acquired. Next, in step 102, a search window of, for example, 16 × 32 pixels is displayed on the captured image, for example, a predetermined region (for example, an upper left corner region) of the captured image. And a 16 × 32 pixel window image is extracted from the captured image using the set search window.

次に、ステップ104で、識別モデル記憶部26に記憶された識別モデルを用いて、SVMやHOG等の手法を用いてウインドウ画像が特定の物体を示す画像か否かを認識する。   Next, in step 104, using the identification model stored in the identification model storage unit 26, it is recognized whether or not the window image is an image showing a specific object using a technique such as SVM or HOG.

次に、ステップ106で、上記ステップ104の認識結果に基づいて、ウインドウ画像が特定の物体を示す画像か否かを判定する。肯定判定される場合には、ステップ108へ移行し、否定判定される場合には、処理を終了する。   Next, in step 106, based on the recognition result in step 104, it is determined whether or not the window image is an image showing a specific object. If the determination is affirmative, the process proceeds to step 108, and if the determination is negative, the process ends.

ステップ108では、図5に示すように、上記ステップ104の認識結果として、特定の物体を示す画像と認識されたウインドウ画像、そのウインドウ画像の大きさ、撮像画像上でのウインドウ画像の位置、認識された物体の属性(歩行者、二輪車、車両等)を取得する。そして、取得されたウインドウ画像からエッジを検出し、検出されたエッジの方向別の頻度を示すエッジ方向のヒストグラムを生成する。そして、ウインドウ画像の画像特性として、エッジ方向のヒストグラムの頻度の平均及び頻度の分散を抽出する。   In step 108, as shown in FIG. 5, as the recognition result in step 104, the window image recognized as an image showing a specific object, the size of the window image, the position of the window image on the captured image, recognition The attribute (such as a pedestrian, a two-wheeled vehicle, or a vehicle) of the selected object is acquired. Then, an edge is detected from the acquired window image, and a histogram of the edge direction indicating the frequency according to the direction of the detected edge is generated. Then, as the image characteristics of the window image, the average frequency and the frequency variance of the histogram in the edge direction are extracted.

次に、ステップ110で、上記ステップ108で抽出した画像特性を、予め定めた評価値マップにプロットし、画像特性に対応した認識の容易さを示す評価値Eを算出する。   Next, in step 110, the image characteristic extracted in step 108 is plotted on a predetermined evaluation value map, and an evaluation value E indicating the ease of recognition corresponding to the image characteristic is calculated.

次に、ステップ112で、上記ステップ110で算出した評価値Eが予め定めた評価値閾値Ethより小さいか否かを判定することにより、上記ステップ102で抽出されたウインドウ画像が認識に適した画像か否かを判定する。E<Ethの場合には、認識に適した画像ではないと判定して、ステップ114へ移行し、E≧Ethの場合には、認識に適した画像であると判定して、そのまま処理を終了する。   Next, in step 112, by determining whether or not the evaluation value E calculated in step 110 is smaller than a predetermined evaluation value threshold Eth, the window image extracted in step 102 is an image suitable for recognition. It is determined whether or not. If E <Eth, it is determined that the image is not suitable for recognition, and the process proceeds to step 114. If E ≧ Eth, it is determined that the image is suitable for recognition, and the process ends. To do.

ステップ114では、露光時間とゲインとの積が一定となるように露光時間及びゲインを変更した場合の評価値の変化を示す直線を評価値マップ上に対応させ、この直線上で評価値が最大となる点に対応する露光時間及びゲインを撮像制御値として算出し、算出した撮像制御値を撮像装置12へ出力して、処理を終了する。   In step 114, a straight line indicating a change in evaluation value when the exposure time and gain are changed so that the product of the exposure time and gain is constant is made to correspond on the evaluation value map, and the evaluation value is maximum on this straight line. The exposure time and gain corresponding to the points are calculated as imaging control values, the calculated imaging control values are output to the imaging device 12, and the process ends.

これにより、次のフレームの撮像画像は、評価値が高くなるように露光時間及びゲインが設定された撮像装置12で撮像された認識に適した撮像画像となる。   Thereby, the captured image of the next frame becomes a captured image suitable for recognition captured by the imaging device 12 in which the exposure time and the gain are set so that the evaluation value becomes high.

また、上記ステップ102のウインドウ画像の抽出処理では、探索ウインドウの各サイズについて撮像画像全体を走査しながらウインドウ画像を抽出し、上記ステップ104で抽出された各ウインドウ画像について認識処理を行うため、1つの撮像画像から複数の特定の物体を示すウインドウ画像が認識される場合もある。その場合には、ウインドウ画像毎に上記ステップ108及びステップ110の処理を実行して評価値Eを算出し、いずれか1つの評価値Eが評価値閾値Ethより小さい場合に、上記ステップ112で肯定判定されるようにしたり、全ての評価値Eが評価値閾値Ethより小さい場合に、上記ステップ112で肯定判定されるようにしたりすることができる。   In the window image extraction process in step 102, the window image is extracted while scanning the entire captured image for each size of the search window, and the recognition process is performed on each window image extracted in step 104. In some cases, a window image indicating a plurality of specific objects is recognized from one captured image. In that case, the processing of step 108 and step 110 is executed for each window image to calculate the evaluation value E. If any one of the evaluation values E is smaller than the evaluation value threshold Eth, the determination in step 112 is affirmed. It is possible to make a determination, or when all the evaluation values E are smaller than the evaluation value threshold Eth, an affirmative determination can be made in step 112 above.

以上説明したように、第1の実施の形態の物体認識装置によれば、予め定めた画像の特性と認識の容易さを示す評価値との関係を示す評価値マップに、特定の物体を示す画像であると認識されたウインドウ画像の画像特性をプロットして評価値を算出し、画像の明るさを保ったままこの評価値が最大となる露光時間及びゲインを算出するため、画像のぶれやノイズを低減して、特定の物体を認識するために認識に適した撮像画像を得ることができる。   As described above, according to the object recognition apparatus of the first embodiment, a specific object is indicated in the evaluation value map indicating the relationship between the predetermined image characteristic and the evaluation value indicating the ease of recognition. An image characteristic of a window image recognized as an image is plotted to calculate an evaluation value, and the exposure time and gain at which the evaluation value is maximized while maintaining the brightness of the image are calculated. Noise can be reduced and a captured image suitable for recognition in order to recognize a specific object can be obtained.

なお、第1の実施の形態では、評価値が評価値閾値より小さい場合に撮像制御値を算出する場合について説明たが、上記ステップ112の処理を省略して、評価値の閾値判定を行うことなく、評価値が高くなるように撮像制御値を算出するようにしてもよい。   In the first embodiment, the case where the imaging control value is calculated when the evaluation value is smaller than the evaluation value threshold has been described. However, the threshold value determination of the evaluation value is performed by omitting the process of step 112 above. Alternatively, the imaging control value may be calculated so that the evaluation value becomes high.

次に、第2の実施の形態について説明する。車両に急激な運動が生じた場合に撮像制御の処理を行う点が第1の実施の形態とは異なる。なお、第1の実施の形態の物体認識装置10と同一の構成については、同一の符号を付して説明を省略する。   Next, a second embodiment will be described. It differs from the first embodiment in that imaging control processing is performed when a sudden movement occurs in the vehicle. In addition, about the structure same as the object recognition apparatus 10 of 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

図6に示すように、第2の実施の形態の物体認識装置210は、撮像装置12と、加速度センサやヨーレートセンサ等の車両の運動を検出する車両運動センサ14と、コンピュータ216と、表示装置18と、を備えている。コンピュータ216をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図6に示すように、撮像装置12で撮像されコンピュータ216へ入力された撮像画像に含まれる特定の物体を示す画像を認識する特定物体認識部20と、急激な車両運動が検出された場合に、特定物体認識部20での認識結果に基づいて、認識に適した画像が得られるように撮像装置12を制御する撮像制御部240と、を含んだ構成で表すことができる。   As shown in FIG. 6, the object recognition device 210 according to the second embodiment includes an imaging device 12, a vehicle motion sensor 14 that detects the motion of the vehicle such as an acceleration sensor and a yaw rate sensor, a computer 216, and a display device. 18. When the computer 216 is described in terms of functional blocks divided for each function realization means determined based on hardware and software, as shown in FIG. 6, the computer 216 is included in a captured image captured by the imaging device 12 and input to the computer 216. A specific object recognition unit 20 that recognizes an image indicating a specific object and an image suitable for recognition can be obtained based on the recognition result of the specific object recognition unit 20 when a sudden vehicle motion is detected. And an imaging control unit 240 that controls the imaging device 12.

撮像制御部240は、さらに、画像特性抽出部42と、評価値算出部44と、認識部24での認識結果に基づいて、認識の信頼度を算出する信頼度算出部48と、評価値算出部44で算出された評価値、及び信頼度算出部48で算出された信頼度を時系列に所定の記憶領域に記憶するように制御する時系列記憶制御部50と、撮像制御を開始するか否かを判定する制御開始判定部52と、時系列に記憶された評価値に基づいて、評価値マップを更新する評価値マップ更新部54と、撮像制御値算出部46と、を含んだ構成で表すことができる。   The imaging control unit 240 further includes an image characteristic extraction unit 42, an evaluation value calculation unit 44, a reliability calculation unit 48 that calculates the reliability of recognition based on the recognition result in the recognition unit 24, and an evaluation value calculation. A time-series storage control unit 50 for controlling the evaluation value calculated by the unit 44 and the reliability calculated by the reliability calculation unit 48 to be stored in a predetermined storage area in time series, and whether to start imaging control A configuration including a control start determination unit 52 that determines whether or not, an evaluation value map update unit 54 that updates an evaluation value map based on evaluation values stored in time series, and an imaging control value calculation unit 46 Can be expressed as

信頼度算出部48は、認識部24での認識結果に基づいて、認識結果が正しい場合に高く、画像のボケなどによって誤認識の可能性が生じている場合に低くなるような認識の信頼度Rを算出する。認識部24でSVMやHOG等の手法を用いて、ウインドウ画像と識別モデルとを比較して特定の対象物らしさを示すスコアを算出し、このスコアが所定の閾値以上か否かにより認識を行う場合には、このスコアをそのまま信頼度Rとして用いることができる。また、複数の判別器を多段に構成して認識を行う手法では、何段目の判別器まで判別できたか等に応じて、信頼度Rを算出するようにしてもよい。   The reliability calculation unit 48 is based on the recognition result in the recognition unit 24 and is high when the recognition result is correct, and low when there is a possibility of erroneous recognition due to blurring of the image. R is calculated. The recognition unit 24 uses a method such as SVM or HOG to compare the window image with the identification model to calculate a score indicating the likelihood of a specific object, and performs recognition based on whether the score is equal to or greater than a predetermined threshold. In this case, this score can be used as the reliability R as it is. Further, in the method of performing recognition by configuring a plurality of discriminators in multiple stages, the reliability R may be calculated according to how many classifiers have been discriminated.

時系列記憶制御部50は、特定の物体を示す画像と認識されたウインドウ画像、そのウインドウ画像の大きさ、撮像画像上でのウインドウ画像の位置、認識された物体の属性(歩行者、二輪車、車両等)等の認識結果と、評価値算出部44で算出された評価値E、及び信頼度算出部48で算出された信頼度Rとを対応付けて、時系列に所定の記憶領域に記憶するように制御する。物体の属性が同じ場合には、画像上での位置や大きさの変化の程度が最小となるように追跡を行って、時系列での対応付けを行う。例えば、物体の属性毎の動きの速度やパターンの情報を予め保持しておき、保持した情報を参照して物体の属性に応じて追跡を行う。また、追跡の際に物体の動きをカルマンフィルタなどによって予測してもよい。また、時系列の対応付けの際に、対応付けられた物体同士の位置の誤差の総和が最小となるようにRANSAC(Random Sample Consensus)等の手法を用いて最適化を行ってもよい。   The time-series storage control unit 50 recognizes a window image recognized as an image showing a specific object, the size of the window image, the position of the window image on the captured image, and the attribute of the recognized object (pedestrian, two-wheeled vehicle, Vehicle recognition), the evaluation value E calculated by the evaluation value calculation unit 44, and the reliability R calculated by the reliability calculation unit 48 are associated with each other and stored in a predetermined storage area in time series. Control to do. When the attributes of the object are the same, tracking is performed so as to minimize the degree of change in position and size on the image, and time-series association is performed. For example, information on the speed and pattern of movement for each attribute of the object is stored in advance, and tracking is performed according to the attribute of the object with reference to the stored information. Further, the movement of the object may be predicted by a Kalman filter or the like during tracking. Further, in time series association, optimization may be performed using a technique such as RANSAC (Random Sample Consensus) so that the sum of errors in the positions of the associated objects is minimized.

制御開始判定部52は、所定の記憶領域に記憶された評価値Eの時系列の変化量ΔEが予め定めた評価値変化量閾値ΔEthを超えたか否か、所定の記憶領域に記憶された信頼度Rの時系列の変化量であって信頼度Rが低下する方向への変化量ΔRが予め定めた信頼度変化量閾値ΔRthを超えたか否か、及び車両運動センサ14により検出された検出値が示す車両の運動の大きさMが予め定めた運動閾値Mthより大きいか否かにより、撮像制御を開始するか否かを判定する。図7に示すように、急激な車両運動が生じた際には、評価値Eにも大きな変動が生じる。また同時に信頼度Rも低下する傾向が強い。急激な車両運動は、撮像画像にぶれが生じる程度の運動であり、例えば、車両の右左折時の運動を想定し、このような急激な車両運動を検出可能な閾値として運動閾値Mthを定めておく。また、評価値変化量閾値ΔEth及び信頼度変化量閾値ΔRthについても、同様の急激な車両運動が生じた場合の評価値及び信頼度の変化に基づいて、適切な値を定めておく。   The control start determination unit 52 determines whether or not the time-series change amount ΔE of the evaluation value E stored in the predetermined storage area has exceeded a predetermined evaluation value change amount threshold value ΔEth, and the reliability stored in the predetermined storage area. A time series change amount of the degree R and whether or not the change amount ΔR in the direction in which the reliability R decreases exceeds a predetermined reliability change amount threshold value ΔRth, and a detection value detected by the vehicle motion sensor 14 Whether or not the imaging control is to be started is determined based on whether or not the vehicle motion magnitude M indicated by is greater than a predetermined motion threshold Mth. As shown in FIG. 7, when an abrupt vehicle motion occurs, the evaluation value E also varies greatly. At the same time, the reliability R tends to decrease. Sudden vehicle movement is movement that causes a shake in a captured image. For example, assuming a movement of a vehicle when turning right or left, a movement threshold Mth is set as a threshold at which such a sudden vehicle movement can be detected. deep. Also, for the evaluation value change threshold ΔEth and the reliability change threshold ΔRth, appropriate values are determined based on the evaluation value and the reliability change when a similar sudden vehicle motion occurs.

また、評価値Eの変化、信頼度Rの変化、及び車両の運動の大きさMのいずれか1つを用いても急激な車両運動を検出することはできるが、物体や背景画像の変化などにより、車両の運動の大きさMが運動閾値Mthを超えなくても評価値Eが大きく変化する場合や、評価値Eに変化はなくても信頼度Rが低下する場合等が生じる可能性があるため、ここでは、これら3つの値を統合的に用いて、適切な制御開始タイミングを判定する。   In addition, a sudden vehicle motion can be detected using any one of a change in the evaluation value E, a change in the reliability R, and the magnitude M of the vehicle motion, but a change in an object or a background image, etc. Therefore, there is a possibility that the evaluation value E changes greatly even if the magnitude M of the vehicle movement does not exceed the movement threshold value Mth, or the reliability R decreases even if the evaluation value E does not change. Therefore, here, these three values are used in an integrated manner to determine an appropriate control start timing.

評価値マップ更新部54は、所定の記憶領域に記憶された時系列の評価値Eに基づいて、評価値マップの形状を拡縮、変形、回転等して、急激な車両運動により撮像制御を開始することになった事象に対応して評価値マップを更新する。具体的には、評価値Eのばらつきが大きい場合には評価値マップを拡大したり、評価値Eに偏りがある場合には、その偏った方向へのみ拡大(変形)したりする。撮像制御値算出部46は、評価値マップ更新部54で更新された評価値マップを用いて撮像制御値を算出する。   The evaluation value map update unit 54 starts imaging control by abrupt vehicle motion by expanding, reducing, deforming, rotating, or the like the shape of the evaluation value map based on the time-series evaluation value E stored in a predetermined storage area. The evaluation value map is updated corresponding to the event that is to be performed. Specifically, the evaluation value map is enlarged when the variation of the evaluation value E is large, or when the evaluation value E is biased, it is expanded (deformed) only in the biased direction. The imaging control value calculation unit 46 calculates the imaging control value using the evaluation value map updated by the evaluation value map update unit 54.

次に、図8を参照して、第2の実施の形態の物体認識装置210のコンピュータ216で実行される物体認識処理ルーチンについて説明する。なお、第1の実施の形態と同一の処理については、同一の符号を付して説明を省略する。   Next, an object recognition processing routine executed by the computer 216 of the object recognition apparatus 210 according to the second embodiment will be described with reference to FIG. In addition, about the process same as 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

ステップ100〜ステップ110を経て、画像特性に対応した認識の容易さを示す評価値Eを算出する。   Through step 100 to step 110, an evaluation value E indicating the ease of recognition corresponding to the image characteristics is calculated.

次に、ステップ250で、上記ステップ104での認識結果に基づいて、認識結果が正しい場合に高く、画像のボケなどによって誤認識の可能性が生じている場合に低くなる認識の信頼度Rを算出する。   Next, in step 250, based on the recognition result in step 104, the recognition reliability R is high when the recognition result is correct and low when there is a possibility of erroneous recognition due to blurring of the image. calculate.

次に、ステップ252で、特定の物体を示す画像と認識されたウインドウ画像、そのウインドウ画像の大きさ、撮像画像上でのウインドウ画像の位置、認識された物体の属性(歩行者、二輪車、車両等)等の認識結果と、上記ステップ110 で算出された評価値E、及び上記ステップ250で算出された信頼度Rとを対応付けて、時系列に所定の記憶領域に記憶するように制御する。   Next, in step 252, the window image recognized as an image showing a specific object, the size of the window image, the position of the window image on the captured image, and the attributes of the recognized object (pedestrian, two-wheeled vehicle, vehicle And the like, the evaluation value E calculated in step 110, and the reliability R calculated in step 250 are associated with each other and controlled so as to be stored in a predetermined storage area in time series. .

次に、ステップ254で、車両運動センサ14で検出された検出値を取得し、次に、ステップ256で、所定の記憶領域に記憶された評価値Eの時系列の変化量ΔEが予め定めた評価値変化量閾値ΔEthを超えたか否か、所定の記憶領域に記憶された信頼度Rの時系列の変化量であって信頼度Rが低下する方向への変化量ΔRが予め定めた信頼度変化量閾値ΔRthを超えたか否か、及び車両運動センサ14により検出された検出値が示す車両の運動の大きさMが予め定めた運動閾値Mthより大きいか否かにより、撮像制御を開始するか否かを判定する。撮像制御を開始する場合には、ステップ258へ移行し、撮像制御を開始しない場合には、処理を終了する。   Next, in step 254, a detection value detected by the vehicle motion sensor 14 is acquired. Next, in step 256, a time-series change amount ΔE of the evaluation value E stored in a predetermined storage area is determined in advance. Whether the evaluation value change amount threshold value ΔEth has been exceeded or not, whether or not the change amount ΔR in the direction of decreasing reliability R stored in a predetermined storage area in a time series is a predetermined reliability Whether to start the imaging control depending on whether or not the change amount threshold value ΔRth has been exceeded and whether or not the magnitude M of the vehicle motion indicated by the detection value detected by the vehicle motion sensor 14 is greater than a predetermined motion threshold value Mth. Determine whether or not. When imaging control is started, the process proceeds to step 258, and when imaging control is not started, the process is terminated.

ステップ258では、所定の記憶領域に記憶された時系列の評価値Eに基づいて、評価値マップの形状を拡縮、変形、回転等して、急激な車両運動により撮像制御を開始することになった事象に対応して評価値マップを更新し、次に、ステップ260で、更新された評価値マップを用いて撮像制御値を算出する。   In step 258, based on the time-series evaluation value E stored in a predetermined storage area, the shape of the evaluation value map is enlarged, reduced, deformed, rotated, etc., and imaging control is started by a rapid vehicle motion. The evaluation value map is updated in response to the event, and in step 260, the imaging control value is calculated using the updated evaluation value map.

以上説明したように、第2の実施の形態の物体認識装置によれば、予め定めた画像の特性と認識の容易さを示す評価値との関係を示す評価値マップに、特定の物体を示す画像であると認識されたウインドウ画像の画像特性をプロットして評価値を算出し、画像の明るさを保ったままこの評価値が最大となる露光時間及びゲインを算出するため、画像のぶれやノイズを低減して、特定の物体を認識するために認識に適した撮像画像を得ることができる。また、急激な車両運動を検出して撮像制御を開始するか否かを判定するため、撮像制御を行う必要がない場合の不要な処理を抑制することができる。   As described above, according to the object recognition apparatus of the second embodiment, a specific object is indicated on the evaluation value map indicating the relationship between the predetermined image characteristic and the evaluation value indicating the ease of recognition. An image characteristic of a window image recognized as an image is plotted to calculate an evaluation value, and the exposure time and gain at which the evaluation value is maximized while maintaining the brightness of the image are calculated. Noise can be reduced and a captured image suitable for recognition in order to recognize a specific object can be obtained. In addition, since it is determined whether or not imaging control is started by detecting a sudden vehicle motion, unnecessary processing when it is not necessary to perform imaging control can be suppressed.

なお、上記第1及び第2の実施の形態では、画像特性として、エッジ方向のヒストグラムの頻度の平均及び頻度の分散を用いる場合について説明したが、これに限定されない。例えば、最大の頻度を持つエッジ方向や頻度の最大値と最小値との比などを含んでもよく、頻度の平均及び頻度の分散とあわせて高次元の評価値マップを構成するようにしてもよい。   In the first and second embodiments, the case where the average of the frequency of the histogram in the edge direction and the variance of the frequency are used as the image characteristics has been described. However, the present invention is not limited to this. For example, the edge direction having the maximum frequency, the ratio between the maximum value and the minimum value of the frequency, and the like may be included, and the high-dimensional evaluation value map may be configured together with the frequency average and the frequency variance. .

また、図9に示すように、特定の物体を示す画像及びその周辺画像を含む部分画像(本実施の形態では、ウインドウ画像)全体のパワースペクトルの総和と部分画像の高周波成分のパワースペクトルの総和との比を画像特性として用いてもよい。撮像画像に生じるノイズは、撮像シーンに依存しない高周波成分として撮像画像に加えられるため、フーリエ変換などの周波数変換によってノイズ量を推定することができる。そこで、部分画像を周波数変換した後のパワースペクトルのうち、部分画像全体のパワースペクトルの総和と部分画像の高周波成分のパワースペクトルの総和との比を、認識の容易さを示す評価値と対応させるための画像特性として用いることができる。   Also, as shown in FIG. 9, the sum of the power spectra of the entire partial image (in this embodiment, the window image) including the image showing the specific object and its peripheral image, and the sum of the power spectra of the high-frequency components of the partial image. The ratio may be used as an image characteristic. Since noise generated in the captured image is added to the captured image as a high-frequency component independent of the captured scene, the amount of noise can be estimated by frequency conversion such as Fourier transform. Therefore, the ratio between the sum of the power spectrum of the entire partial image and the sum of the power spectrum of the high frequency components of the partial image in the power spectrum after frequency conversion of the partial image is made to correspond to the evaluation value indicating the ease of recognition. Can be used as an image characteristic.

また、図10に示すように、部分画像の輝度値のヒストグラムの最大値に対する最小値の比を画像特性として用いてもよい。撮像画像に生じるノイズは、輝度値に対して均等に加えられるため、最大の頻度を持つ輝度値におけるノイズの影響よりも最小の頻度を持つ輝度値におけるノイズの影響の方が大きくなる。そこで、部分画像の輝度値のヒストグラムの最大値に対する最小値の比を算出することでノイズの量を推定することができるため、この比を画像特性として用いることができる。   Also, as shown in FIG. 10, the ratio of the minimum value to the maximum value of the histogram of the luminance value of the partial image may be used as the image characteristic. Since noise generated in the captured image is evenly added to the luminance value, the influence of the noise on the luminance value having the minimum frequency is larger than the influence of the noise on the luminance value having the maximum frequency. Therefore, since the amount of noise can be estimated by calculating the ratio of the minimum value of the luminance value of the partial image to the maximum value of the histogram, this ratio can be used as the image characteristic.

また、認識部での認識の手法が、エッジ方向のヒストグラムを用いるものであれば、画像特性抽出部において、認識部で得たエッジ方向のヒストグラムを再利用して画像特性を抽出するようにしてもよい。これにより、計算量を削減することができる。   Also, if the recognition method in the recognition unit uses an edge direction histogram, the image characteristic extraction unit may reuse the edge direction histogram obtained in the recognition unit to extract the image characteristic. Also good. Thereby, the amount of calculation can be reduced.

10、210 物体認識装置
12 撮像装置
14 車両運動センサ
16、216 コンピュータ
18 表示装置
20 特定物体認識部
22 ウインドウ画像抽出部
24 認識部
26 識別モデル記憶部
28 表示制御部
40、240 撮像制御部
42 画像特性抽出部
44 評価値算出部
46 撮像制御値算出部
48 信頼度算出部
50 時系列記憶制御部
52 制御開始判定部
54 評価値マップ更新部
DESCRIPTION OF SYMBOLS 10,210 Object recognition apparatus 12 Imaging apparatus 14 Vehicle motion sensor 16, 216 Computer 18 Display apparatus 20 Specific object recognition part 22 Window image extraction part 24 Recognition part 26 Identification model memory | storage part 28 Display control part 40, 240 Imaging control part 42 Image Characteristic extraction unit 44 Evaluation value calculation unit 46 Imaging control value calculation unit 48 Reliability calculation unit 50 Time series storage control unit 52 Control start determination unit 54 Evaluation value map update unit

Claims (11)

撮像手段により設定された露光時間で撮像され蓄積された電荷を設定されたゲインで増幅することにより得られた撮像画像に含まれる特定の物体を示す画像を認識する認識手段と、
前記認識手段により認識された特定の物体を示す画像及び該特定の物体を示す画像の周辺画像を含む部分画像の特性を抽出する抽出手段と、
予め定めた画像の特性と前記認識手段による認識の容易さとの関係、及び前記抽出手段により抽出された前記部分画像の特性に基づいて、前記認識手段で認識された前記特定の物体を示す画像の認識の容易さを示す評価値を算出する評価値算出手段と、
前記評価値算出手段で算出される評価値が高くなり、かつ前記露光時間と前記ゲインとの積が所定値となるように前記露光時間及び前記ゲインを制御する撮像制御手段と、
を含む物体認識装置。
Recognizing means for recognizing an image showing a specific object included in a picked-up image obtained by amplifying charges accumulated by the exposure time set by the image pickup means with a set gain;
Extraction means for extracting characteristics of a partial image including an image showing the specific object recognized by the recognition means and a peripheral image of the image showing the specific object;
Based on the relationship between the characteristics of the predetermined image and the ease of recognition by the recognition means, and the characteristics of the partial image extracted by the extraction means, the image showing the specific object recognized by the recognition means Evaluation value calculating means for calculating an evaluation value indicating ease of recognition;
An imaging control means for controlling the exposure time and the gain so that an evaluation value calculated by the evaluation value calculation means is high and a product of the exposure time and the gain becomes a predetermined value;
An object recognition apparatus including:
前記撮像制御手段は、前記評価値算出手段により算出された評価値が予め定めた評価値閾値より低い場合に、前記露光時間及び前記ゲインを制御する請求項1記載の物体認識装置。   The object recognition apparatus according to claim 1, wherein the imaging control unit controls the exposure time and the gain when the evaluation value calculated by the evaluation value calculation unit is lower than a predetermined evaluation value threshold. 前記認識手段の認識結果に基づいて、前記特定の物体を示す画像の特定の物体らしさを認識の信頼度として算出する信頼度算出手段を含み、
前記撮像制御手段は、前記信頼度算出手段により算出された信頼度が予め定めた信頼度閾値より低い場合に、前記露光時間及び前記ゲインを制御する請求項1または請求項2項記載の物体認識装置。
Based on the recognition result of the recognition means, including a reliability calculation means for calculating the specific object likelihood of the image showing the specific object as the recognition reliability;
The object recognition according to claim 1, wherein the imaging control unit controls the exposure time and the gain when the reliability calculated by the reliability calculation unit is lower than a predetermined reliability threshold. apparatus.
前記評価値算出手段により算出された評価値を時系列に記憶手段に記憶するように制御する記憶制御手段を含み、
前記撮像制御手段は、前記記憶制御手段により前記記憶手段に記憶された時系列の評価値に基づいて、前記評価値の変化量が予め定めた評価値変化量閾値より大きい場合に、前記露光時間及び前記ゲインを制御する請求項1〜請求項3のいずれか1項記載の物体認識装置。
Storage control means for controlling to store the evaluation values calculated by the evaluation value calculation means in time series in the storage means,
The imaging control means, when the change amount of the evaluation value is larger than a predetermined evaluation value change amount threshold value based on the time-series evaluation value stored in the storage means by the storage control means, the exposure time The object recognition apparatus according to any one of claims 1 to 3, wherein the gain is controlled.
前記認識手段の認識結果に基づいて、前記特定の物体を示す画像の特定の物体らしさを認識の信頼度として算出する信頼度算出手段を含み、
前記記憶制御手段は、前記信頼度算出手段により算出された信頼度を時系列に前記記憶手段に記憶するように制御し、
前記撮像制御手段は、前記記憶制御手段により前記記憶手段に記憶された時系列の信頼度に基づいて、前記信頼度が低下する方向に変化した変化量が予め定めた信頼度変化量閾値より大きい場合に、前記露光時間及び前記ゲインを制御する請求項1〜請求項4のいずれか1項記載の物体認識装置。
Based on the recognition result of the recognition means, including a reliability calculation means for calculating the specific object likelihood of the image showing the specific object as the recognition reliability;
The storage control means controls the storage means to store the reliability calculated by the reliability calculation means in time series;
The imaging control unit is configured such that, based on the time-series reliability stored in the storage unit by the storage control unit, a change amount that has changed in a direction in which the reliability decreases is greater than a predetermined reliability change amount threshold value. 5. The object recognition apparatus according to claim 1, wherein the exposure time and the gain are controlled.
前記撮像手段が搭載された車両の運動を検出する検出手段を含み、
前記撮像制御手段は、前記検出手段により検出された車両の運動の大きさが予め定めた運動閾値より大きい場合に、前記露光時間及び前記ゲインを制御する請求項1〜請求項5のいずれか1項記載の物体認識装置。
Including detection means for detecting movement of the vehicle on which the imaging means is mounted;
The imaging control means controls the exposure time and the gain when the magnitude of vehicle motion detected by the detection means is larger than a predetermined motion threshold. Item recognition apparatus.
前記記憶制御手段により前記記憶手段に記憶された時系列の評価値に基づいて、前記算出手段で評価値を算出する際に用いる前記予め定めた画像の特性と前記認識手段による認識の容易さとの関係を更新する更新手段を含む請求項1〜請求項6のいずれか1項記載の物体認識装置。   Based on the time-series evaluation values stored in the storage means by the storage control means, the predetermined image characteristics used when calculating the evaluation values by the calculation means and the ease of recognition by the recognition means The object recognition apparatus according to claim 1, further comprising an updating unit that updates the relationship. 前記部分画像の特性を、前記部分画像のエッジ方向のヒストグラムの頻度の平均及び頻度の分散、前記部分画像のパワースペクトルの総和と前記部分画像の高周波成分のパワースペクトルの総和との比、または前記部分画像の輝度値のヒストグラムの最大値と最小値との比とした請求項1〜請求項7のいずれか1項記載の物体認識装置。   The characteristic of the partial image is obtained by calculating an average frequency and a frequency dispersion of a histogram in an edge direction of the partial image, a ratio between a sum of power spectra of the partial image and a sum of power spectra of high-frequency components of the partial image, or The object recognition apparatus according to any one of claims 1 to 7, wherein a ratio between a maximum value and a minimum value of a histogram of luminance values of partial images is set. 前記認識手段は、前記撮像画像のエッジ方向のヒストグラムと予め記憶した特定の物体を示す画像のエッジ方向のヒストグラムとを比較することにより特定の物体を示す画像を認識し、
前記抽出手段は、前記認識手段で得られた部分画像のエッジ方向のヒストグラムを用いて、エッジ方向のヒストグラムの頻度の平均及び頻度の分散を前記部分画像の特性として抽出する
請求項1〜請求項8のいずれか1項記載の物体認識装置。
The recognition means recognizes an image showing a specific object by comparing a histogram of the edge direction of the captured image and a histogram of the edge direction of an image showing the specific object stored in advance,
The extraction means extracts an average frequency and a variance of the frequency of the edge direction histogram as characteristics of the partial image using the edge direction histogram of the partial image obtained by the recognition means. 9. The object recognition apparatus according to any one of items 8.
コンピュータを、
撮像手段により設定された露光時間で撮像され蓄積された電荷を設定されたゲインで増幅することにより得られた撮像画像に含まれる特定の物体を示す画像を認識する認識手段、
前記認識手段により認識された特定の物体を示す画像及び該特定の物体を示す画像の周辺画像を含む部分画像の特性を抽出する抽出手段、
予め定めた画像の特性と前記認識手段による認識の容易さとの関係、及び前記抽出手段により抽出された前記部分画像の特性に基づいて、前記認識手段で認識された前記特定の物体を示す画像の認識の容易さを示す評価値を算出する評価値算出手段、及び
前記評価値算出手段で算出される評価値が高くなり、かつ前記露光時間と前記ゲインとの積が所定値となるように前記露光時間及び前記ゲインを制御する撮像制御手段
として機能させるための物体認識プログラム。
Computer
Recognizing means for recognizing an image indicating a specific object included in a picked-up image obtained by amplifying charges accumulated by an exposure time set by the image pickup means with a set gain;
Extraction means for extracting characteristics of a partial image including an image showing the specific object recognized by the recognition means and a peripheral image of the image showing the specific object;
Based on the relationship between the characteristics of the predetermined image and the ease of recognition by the recognition means, and the characteristics of the partial image extracted by the extraction means, the image showing the specific object recognized by the recognition means An evaluation value calculating means for calculating an evaluation value indicating ease of recognition, and the evaluation value calculated by the evaluation value calculating means is high, and the product of the exposure time and the gain is a predetermined value. An object recognition program for functioning as an imaging control means for controlling an exposure time and the gain.
コンピュータを、請求項1〜請求項9のいずれか1項記載の物体認識装置を構成する各手段として機能させるための物体認識プログラム。   The object recognition program for functioning a computer as each means which comprises the object recognition apparatus of any one of Claims 1-9.
JP2010049224A 2010-03-05 2010-03-05 Object recognition apparatus and program Expired - Fee Related JP5515871B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010049224A JP5515871B2 (en) 2010-03-05 2010-03-05 Object recognition apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010049224A JP5515871B2 (en) 2010-03-05 2010-03-05 Object recognition apparatus and program

Publications (2)

Publication Number Publication Date
JP2011188094A true JP2011188094A (en) 2011-09-22
JP5515871B2 JP5515871B2 (en) 2014-06-11

Family

ID=44793884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010049224A Expired - Fee Related JP5515871B2 (en) 2010-03-05 2010-03-05 Object recognition apparatus and program

Country Status (1)

Country Link
JP (1) JP5515871B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013192227A (en) * 2012-03-13 2013-09-26 Samsung Electronics Co Ltd Method and apparatus for deblurring non-uniform motion blur in large scale input image on the basis of tile unit
JP2014086909A (en) * 2012-10-24 2014-05-12 Denso Corp Control table generation method, recording medium and imaging control device
CN104506780A (en) * 2014-12-25 2015-04-08 深圳市锐明视讯技术有限公司 Image adjusting method and device of vehicular imaging equipment
WO2016075969A1 (en) * 2014-11-10 2016-05-19 ソニー株式会社 Signal processing device and image capturing system
KR102051397B1 (en) * 2012-07-02 2020-01-09 현대모비스 주식회사 Apparatus and Method for Assisting Safe Driving
CN111868564A (en) * 2018-03-22 2020-10-30 日立汽车系统株式会社 Object recognition device
CN112385208A (en) * 2018-10-26 2021-02-19 松下知识产权经营株式会社 Image recognition device and image recognition method
US11647279B2 (en) 2019-03-25 2023-05-09 Nec Corporation Information processing apparatus, camera control method, program, camera apparatus, and image processing system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141515A (en) * 1997-07-24 1999-02-12 Minolta Co Ltd Still camera
JP2008017259A (en) * 2006-07-07 2008-01-24 Matsushita Electric Ind Co Ltd Image recognition camera
JP2008060874A (en) * 2006-08-31 2008-03-13 Hitachi Ltd On-vehicle camera and stain detector for on-vehicle camera
JP2009055539A (en) * 2007-08-29 2009-03-12 Sony Corp Imaging device and method
JP2010027000A (en) * 2008-07-24 2010-02-04 Sony Corp Image detection device and image detection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141515A (en) * 1997-07-24 1999-02-12 Minolta Co Ltd Still camera
JP2008017259A (en) * 2006-07-07 2008-01-24 Matsushita Electric Ind Co Ltd Image recognition camera
JP2008060874A (en) * 2006-08-31 2008-03-13 Hitachi Ltd On-vehicle camera and stain detector for on-vehicle camera
JP2009055539A (en) * 2007-08-29 2009-03-12 Sony Corp Imaging device and method
JP2010027000A (en) * 2008-07-24 2010-02-04 Sony Corp Image detection device and image detection method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013192227A (en) * 2012-03-13 2013-09-26 Samsung Electronics Co Ltd Method and apparatus for deblurring non-uniform motion blur in large scale input image on the basis of tile unit
KR101810876B1 (en) * 2012-03-13 2018-01-26 삼성전자주식회사 A method and an apparatus for debluring non-uniform motion blur of a large scale input image based on a tile unit
KR102051397B1 (en) * 2012-07-02 2020-01-09 현대모비스 주식회사 Apparatus and Method for Assisting Safe Driving
JP2014086909A (en) * 2012-10-24 2014-05-12 Denso Corp Control table generation method, recording medium and imaging control device
WO2016075969A1 (en) * 2014-11-10 2016-05-19 ソニー株式会社 Signal processing device and image capturing system
CN104506780A (en) * 2014-12-25 2015-04-08 深圳市锐明视讯技术有限公司 Image adjusting method and device of vehicular imaging equipment
CN111868564A (en) * 2018-03-22 2020-10-30 日立汽车系统株式会社 Object recognition device
CN111868564B (en) * 2018-03-22 2024-05-07 日立安斯泰莫株式会社 Object recognition device
CN112385208A (en) * 2018-10-26 2021-02-19 松下知识产权经营株式会社 Image recognition device and image recognition method
US11647279B2 (en) 2019-03-25 2023-05-09 Nec Corporation Information processing apparatus, camera control method, program, camera apparatus, and image processing system

Also Published As

Publication number Publication date
JP5515871B2 (en) 2014-06-11

Similar Documents

Publication Publication Date Title
JP5515871B2 (en) Object recognition apparatus and program
US8391555B2 (en) Lane recognition apparatus for vehicle, vehicle thereof, and lane recognition program for vehicle
US9842269B2 (en) Video processing apparatus, video processing method, and recording medium
JP6230751B1 (en) Object detection apparatus and object detection method
US10853950B2 (en) Moving object detection apparatus, moving object detection method and program
JP4540705B2 (en) Image processing method, image processing system, imaging apparatus, image processing apparatus, and computer program
JP2010118862A (en) Image processor, imaging apparatus and image processing method
JP4937029B2 (en) Object detection apparatus and program
CN111382722B (en) License plate image optimization method, image processing device and device with storage function
US20230394795A1 (en) Information processing device, information processing method, and program recording medium
CN108369739B (en) Object detection device and object detection method
JP2010262576A (en) Subject detecting apparatus and program
JP2009157581A (en) Pedestrian detection device
JP6340228B2 (en) Object detection device
JP5173549B2 (en) Image processing apparatus and imaging apparatus
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2010211460A (en) Device for creating identification model, object detection device, and program for creating identification model
US10210414B2 (en) Object detection system and computer program product
JP2008165496A (en) Image normalization device, object detection device, object detection system and program
JP5020920B2 (en) Pedestrian detection device and program
US8693769B2 (en) Image classification methods and systems
JP5270319B2 (en) Image monitoring device
JP2007189432A (en) Imaging apparatus for vehicle
US20200211194A1 (en) Attached object detection apparatus
JP4239834B2 (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

LAPS Cancellation because of no payment of annual fees