JP2012068965A - Image recognition device - Google Patents

Image recognition device Download PDF

Info

Publication number
JP2012068965A
JP2012068965A JP2010214052A JP2010214052A JP2012068965A JP 2012068965 A JP2012068965 A JP 2012068965A JP 2010214052 A JP2010214052 A JP 2010214052A JP 2010214052 A JP2010214052 A JP 2010214052A JP 2012068965 A JP2012068965 A JP 2012068965A
Authority
JP
Japan
Prior art keywords
image
pedestrian
learning model
contrast
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010214052A
Other languages
Japanese (ja)
Other versions
JP5423631B2 (en
Inventor
Nobuhiko Inoue
展彦 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2010214052A priority Critical patent/JP5423631B2/en
Publication of JP2012068965A publication Critical patent/JP2012068965A/en
Application granted granted Critical
Publication of JP5423631B2 publication Critical patent/JP5423631B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image recognition device with improved performance in detection of an detection object.SOLUTION: The image recognition device 100 detects an image 50a showing a pedestrian existing in a front area from a front view image 50 generated by an infrared camera 10. The infrared camera 10 generates a front view image of which contrast is adjusted by changing camera gain in response to brightness in the front area. Therefore, the image recognition device 100 includes a database 30 for storing a plurality of previous learning models 31-33 generated according to contrasts of sample images 61a-63a of a plurality of groups, an optimal model selection part 27 for selecting a previous leaning model 31, 32 or 33 corresponding to the camera gain from the plurality of previous leaning models 31-33 stored in the database 30, and a pedestrian recognition part 21 for detecting an image 50a indicating a pedestrian from the front view image 50 based on the selected previous learning model 34.

Description

撮像手段によって生成される画像から検知対象物を表す画像を検知する画像認識装置に関する。   The present invention relates to an image recognition device that detects an image representing a detection target from an image generated by an imaging unit.

従来、カメラ等の撮像手段によって生成された画像から、人間又は人間の顔等の検知対象物を表す画像を検知する画像認識の技術が知られている(例えば特許文献1及び特許文献2)。   2. Description of the Related Art Conventionally, an image recognition technique for detecting an image representing a detection target such as a human or a human face from an image generated by an imaging unit such as a camera is known (for example, Patent Document 1 and Patent Document 2).

このような技術の一種として、例えば特許文献1には、対象物検知装置及び学習用データベース生成装置が開示されている。対象物検知装置は、車両の周辺領域を撮影する画像入力装置と、検出用辞書を記憶する検出用辞書記憶装置と、画像入力装置によって撮像された画像から検出用辞書に基づいて対象物の画像を検知する識別装置と、を備えている。一方、学習用データベース生成装置は、上述した検出用辞書記憶装置に記憶される検出用辞書を、予め撮像された複数の画像を用いて作成する。このように、複数の画像を用いて作成した検出用辞書に基づくことにより、対象物検知装置の識別装置は、撮像された画像から対象物の画像を精度良く検知できるようになる。   As one type of such technology, for example, Patent Literature 1 discloses an object detection device and a learning database generation device. The object detection device includes an image input device that captures an area around the vehicle, a detection dictionary storage device that stores a detection dictionary, and an image of the object based on the detection dictionary from an image captured by the image input device. And an identification device for detecting. On the other hand, the learning database generation device creates a detection dictionary stored in the above-described detection dictionary storage device using a plurality of images captured in advance. As described above, based on the detection dictionary created using a plurality of images, the identification device of the target object detection apparatus can accurately detect the target object image from the captured image.

また、特許文献2に開示の顔認識装置は、人物の顔を撮影するためのカメラと、複数の辞書情報を記憶する辞書情報保持部と、複数の辞書情報のうちの一つを選択する辞書切換部と、カメラによって撮像された画像から選択された辞書情報に基づいて顔の画像を検知する認識部と、を備えている。さらに特許文献2に開示の顔認識装置は、カメラによる画像が、顔の画像の検知に適切な照明環境下で撮影されたか否かを、当該画像の明るさに基づいて判定する照明環境判定部を備えている。この顔認識装置は、カメラによる画像を辞書情報として辞書情報保持部に蓄積する際、照明環境判定部による判定結果を属性情報として画像に付加する。   Further, a face recognition device disclosed in Patent Document 2 includes a camera for photographing a person's face, a dictionary information holding unit that stores a plurality of dictionary information, and a dictionary that selects one of the plurality of dictionary information. A switching unit; and a recognition unit that detects a face image based on dictionary information selected from an image captured by the camera. Furthermore, the face recognition device disclosed in Patent Document 2 includes an illumination environment determination unit that determines whether an image captured by a camera is captured in an illumination environment suitable for detecting a face image based on the brightness of the image. It has. The face recognition device adds the determination result by the illumination environment determination unit to the image as attribute information when storing the image from the camera as dictionary information in the dictionary information holding unit.

以上の構成により、特許文献2に開示の顔認識装置では、辞書切換部は、画像を撮影した際の照明環境の判定結果を照明環境判定部から取得し、当該判定結果に類似する辞書情報を、複数の辞書情報ら選択する。認識部は、類似した属性情報が付加された辞書情報に基づくことにより、カメラによって撮影された人物の顔を的確に検知できるようになる。   With the configuration described above, in the face recognition device disclosed in Patent Document 2, the dictionary switching unit obtains the determination result of the illumination environment when the image is captured from the illumination environment determination unit, and dictionary information similar to the determination result is obtained. Select a plurality of dictionary information. Based on the dictionary information to which similar attribute information is added, the recognition unit can accurately detect the face of a person photographed by the camera.

特開2007−272420号公報JP 2007-272420 A 特開2005−84815号公報JP 2005-84815 A

さて、特許文献2に開示の顔認識装置が備えるカメラと異なり、特許文献1に開示の対象物検知装置に用いられるカメラ等の画像入力装置は、車両の周辺領域の明るさに応じて撮像ゲインを変更することができる。車両に用いられる対象物検知装置では、車両の走行によって周辺領域の明るさが変化し易いためである。車両の走行によって周辺領域の明るさが変化した場合でも、カメラは、撮像ゲインを変更することにより、周辺領域の明るさに応じてコントラストの調整された画像を生成することができる。   Now, unlike the camera included in the face recognition device disclosed in Patent Document 2, an image input device such as a camera used in the object detection device disclosed in Patent Document 1 has an imaging gain according to the brightness of the surrounding area of the vehicle. Can be changed. This is because in the object detection device used in the vehicle, the brightness of the surrounding area easily changes as the vehicle travels. Even when the brightness of the surrounding area changes due to traveling of the vehicle, the camera can generate an image whose contrast is adjusted according to the brightness of the surrounding area by changing the imaging gain.

以上のようなカメラが撮像手段として用いられた場合、撮像ゲインの変更に伴い、カメラによって撮像される周辺画像に写る検知対象物を表す画像と、背景の画像とのコントラストが変動する。特許文献1に開示の構成においては、様々なコントラストの画像を用いて検出用辞書を作成した場合、検知の精度を維持するためには、検出用辞書の容量が大きくなってしまう。すると、識別装置は、容量の増大した検出用辞書に基づいて検知を行わなければならなくなる。故に、対象物の検知が高速に行われなくなるおそれが生じてしまう。   When the camera as described above is used as the imaging unit, the contrast between the image representing the detection target in the peripheral image captured by the camera and the background image varies as the imaging gain is changed. In the configuration disclosed in Patent Document 1, when a detection dictionary is created using images with various contrasts, the capacity of the detection dictionary increases in order to maintain detection accuracy. Then, the identification device has to perform detection based on the detection dictionary having an increased capacity. Therefore, there is a possibility that the detection of the object cannot be performed at high speed.

そこで、検出用辞書の容量を低減するため、例えば特許文献2の構成のように、画像の明るさに基づいてカメラによる画像を複数の辞書情報に分類する形態を考える。しかし、画像の明るさは、検知対象物を表す画像と背景の画像とのコントラストに対応しない。例えば、全体として同じ明るさの画像であっても、暗い周辺領域を高い撮像ゲインにて撮像した画像と、明るい周辺領域を低い撮像ゲインにて撮像した画像とが存在する。前者では、検知対象物を表す画像と背景の画像とのコントラストは高くなるが、後者では、当該コントラストは低くなる。   Therefore, in order to reduce the capacity of the detection dictionary, consider a form in which an image from a camera is classified into a plurality of dictionary information based on the brightness of the image, as in the configuration of Patent Document 2, for example. However, the brightness of the image does not correspond to the contrast between the image representing the detection target and the background image. For example, even if the images have the same brightness as a whole, there are an image obtained by imaging a dark peripheral area with a high imaging gain and an image obtained by imaging a bright peripheral area with a low imaging gain. In the former, the contrast between the image representing the detection object and the background image is high, but in the latter, the contrast is low.

故に、辞書切換手段が、画像の明るさの情報に類似した属性情報を有する辞書情報を選択したとしても、画像のコントラストと、辞書切換手段によって選択された辞書情報に含まれる画像のコントラストとは、互いに対応しない。このように、周辺画像のコントラストに対応した辞書情報を用いることができないので、認識部は、画像から対象物の画像を高精度に検知することができないのである。   Therefore, even if the dictionary switching means selects dictionary information having attribute information similar to the brightness information of the image, the contrast of the image and the contrast of the image included in the dictionary information selected by the dictionary switching means , Do not correspond to each other. Thus, since the dictionary information corresponding to the contrast of the peripheral image cannot be used, the recognition unit cannot detect the image of the target object from the image with high accuracy.

本発明は、上記問題点に鑑みてなされたものであって、その目的は、検知対象物の検知性能が向上した画像認識装置を提供することである。   The present invention has been made in view of the above problems, and an object thereof is to provide an image recognition apparatus with improved detection performance of a detection target.

上記目的を達成するために、請求項1に記載の発明では、車両の周辺領域を撮影する撮像手段によって生成される周辺画像から、周辺領域に存在する検知対象物を表す画像を検知する画像認識装置であって、周辺領域の明るさに応じて撮像ゲインを変更することによりコントラストの調整された周辺画像、を生成する撮像手段と、学習の基準となる複数群のサンプル画像のコントラストに応じて作成された複数の事前学習モデルを記憶する記憶手段と、周辺画像を撮影した際の撮像ゲインを撮像手段から取得し、当該撮像ゲインに対応する事前学習モデルを、記憶手段に記憶された複数の事前学習モデルから選択するモデル選択手段と、モデル選択手段によって選択される事前学習モデルに基づいて、撮像手段によって撮像された周辺画像から、検知対象物を表す画像を検知する検知手段と、を備える。   In order to achieve the above object, according to the first aspect of the present invention, the image recognition for detecting an image representing a detection target existing in the peripheral area from the peripheral image generated by the imaging means for capturing the peripheral area of the vehicle. An imaging unit that generates a peripheral image in which contrast is adjusted by changing an imaging gain according to brightness of a peripheral region, and according to contrast of a plurality of groups of sample images serving as a learning reference A storage unit that stores the plurality of pre-learning models that have been created, and an imaging gain when the peripheral image is captured from the imaging unit, and a plurality of pre-learning models that correspond to the imaging gain are stored in the storage unit. Based on the model selection means to select from the pre-learning model and the pre-learning model selected by the model selection means, the peripheral image captured by the imaging means Comprises a detection means for detecting an image representing the object to be detected, the.

この発明によれば、撮像手段においては、撮像ゲインの変更によって周辺画像のコントラストが調整されるので、撮像ゲインの情報は、周辺画像のコントラストを示す指標となる。選択手段は、この撮像ゲインの情報に対応する事前学習モデルを選択する。故に、周辺画像のコントラストと、モデル選択手段によって選択された事前学習モデルを作成する際に用いられたサンプル画像群のコントラストとが、互いに対応し得る。このように、周辺画像のコントラストに対応した事前学習モデルに基づくことによって、検知手段は、周辺画像から検知対象物を表す画像を高精度に検知できるようになる。   According to the present invention, in the imaging unit, the contrast of the peripheral image is adjusted by changing the imaging gain, so the information on the imaging gain is an index indicating the contrast of the peripheral image. The selection means selects a pre-learning model corresponding to the imaging gain information. Therefore, the contrast of the surrounding image and the contrast of the sample image group used when creating the pre-learning model selected by the model selection unit can correspond to each other. As described above, based on the pre-learning model corresponding to the contrast of the peripheral image, the detection unit can detect the image representing the detection target object from the peripheral image with high accuracy.

加えて、各事前学習モデルは、各サンプル画像群のサンプル画像のコントラストに応じて作成されている。各サンプル画像群に含まれるサンプル画像のコントラストが近似しているので、サンプル画像群毎のサンプル画像の数を抑えつつ、検知の精度を維持できる事前学習モデルが構築され得る。このようにサンプル画像の数を抑えることにより、事前学習モデルの容量は抑制される。故に、検出手段は、検知対象物を表す画像を検知するための処理を高速で行うことができるようになる。   In addition, each pre-learning model is created according to the contrast of the sample images of each sample image group. Since the contrast of the sample images included in each sample image group is approximate, a pre-learning model that can maintain detection accuracy while suppressing the number of sample images for each sample image group can be constructed. Thus, the capacity | capacitance of a prior learning model is suppressed by suppressing the number of sample images. Therefore, the detection means can perform processing for detecting an image representing the detection target at high speed.

これらにより、画像認識装置は、高精度且つ高速に検知対象物を表す画像を検知することができるようになる。したがって、画像認識装置による検知対象物の検知性能の向上が実現される。   As a result, the image recognition apparatus can detect an image representing the detection target with high accuracy and high speed. Therefore, the detection performance of the detection target by the image recognition device is improved.

請求項2に記載の発明では、選択手段は、撮像手段から取得した撮像ゲインが高くなるほど、複数のサンプル画像群のうちでコントラストの高いサンプル画像群から作成された事前学習モデルを、複数の事前学習モデルから選択し、検知手段は、コントラストの高いサンプル画像群を用いて作成された事前学習モデルに基づいて、周辺画像から検知対象物を表す画像を検知することを特徴とする。   In the invention according to claim 2, the selection unit generates a plurality of pre-learning models created from a sample image group having a high contrast among the plurality of sample image groups as the imaging gain acquired from the imaging unit increases. The detection unit is selected from the learning model, and the detection unit detects an image representing the detection target from the peripheral image based on a pre-learning model created using a group of sample images with high contrast.

この発明によれば、周辺領域が暗い場合、撮像手段は、撮像ゲインを高くする。これにより、コントラストの高い周辺画像が生成される。故に、撮像ゲインが高くなるほど、コントラストの高いサンプル画像群を用いて作成された事前学習モデルを選択する選択手段とすることにより、周辺画像のコントラストと、選択された事前学習モデルの作成に用いられたサンプル画像群のコントラストとが、確実に対応し得る。そして、周辺画像の高いコントラストに対応する、コントラストの高いサンプル画像群を用いて作成された事前学習モデルに基づくことによって、検知手段は、周辺画像から検知対象物を表す画像を高精度に検知できるようになる。   According to the present invention, when the peripheral area is dark, the imaging unit increases the imaging gain. As a result, a peripheral image with high contrast is generated. Therefore, as the imaging gain increases, it is used to create the selected pre-learning model by selecting the pre-learning model created using a group of sample images with high contrast. The contrast of the sample image group can correspond with certainty. Based on a pre-learning model created using a high-contrast sample image group corresponding to the high contrast of the peripheral image, the detection unit can detect the image representing the detection target object from the peripheral image with high accuracy. It becomes like this.

請求項3に記載の発明では、各サンプル画像群は、検知対象物として想定されている想定物が写る想定物画像及び想定物以外の非想定物が写る非想定物画像を含み、各事前学習モデルは、想定物画像及び非想定物画像に基づいて、想定物を表す画像の特徴が学習されることにより構築されることを特徴とする。   In the invention according to claim 3, each sample image group includes an assumed object image in which an assumed object assumed as a detection object is captured and an unimagined object image in which an unexpected object other than the assumed object is captured, and each pre-learning The model is constructed by learning features of an image representing an assumed object based on the assumed object image and the non-assumed object image.

この発明によれば、検知対象物として想定されている想定物を表す画像の特徴を、事前学習モデルに学習させるに際して、想定物の写る想定物画像及び想定物以外の非想定物の写る非想定物画像が用いられる。これにより、事前学習モデルは、想定物画像に想定物が写っていることを学習することができると共に、非想定物画像に写る非想定物が想定物でないことを学習することができる。以上の学習により、想定物と非想定物との差異を学習した事前学習モデルに基づくことによって、検知手段は、周辺画像から検知対象物を表す画像を、確実に選別して検知できるようになる。   According to the present invention, when the pre-learning model learns the characteristics of the image representing the assumed object assumed as the detection target object, the assumed object image in which the assumed object is captured and the non-assumed image in which the non-assumed object other than the assumed object is captured. An object image is used. Thereby, the prior learning model can learn that the assumed object appears in the assumed object image, and can learn that the non-assumed object reflected in the unexpected object image is not the assumed object. By the above learning, based on the pre-learning model in which the difference between the assumed object and the unforeseen object is learned, the detection unit can reliably detect and detect the image representing the detection object from the surrounding images. .

請求項4に記載の発明では、撮像手段は、周辺領域の赤外線を検出することにより、周辺画像を生成する赤外線カメラを有することを特徴とする。   According to a fourth aspect of the present invention, the image pickup means includes an infrared camera that generates a peripheral image by detecting infrared light in the peripheral region.

この発明のように、撮像手段として赤外線カメラを有する場合、街灯及び対向車の前照灯等から放射される赤外線に起因して、当該赤外線カメラの撮像ゲインは著しく変化する。故に、周辺画像においては、検知対象物を表す画像と背景の画像とのコントラストが著しく変動する。しかし、上述した構成では、周辺画像のコントラストに対応した事前学習モデルに基づくことにより、検知手段は、周辺画像から検知対象物を表す画像を高精度に検知できる。このように、複数のサンプル画像群のコントラストに応じて作成された複数の事前学習モデルに基づくことによって検出精度を向上させる作用は、赤外線カメラにより周辺画像を生成する形態において、顕著に発揮されるのである。   When an infrared camera is provided as the imaging means as in the present invention, the imaging gain of the infrared camera changes remarkably due to infrared rays emitted from street lights and headlights of oncoming vehicles. Therefore, in the peripheral image, the contrast between the image representing the detection target and the background image varies significantly. However, in the configuration described above, based on the pre-learning model corresponding to the contrast of the peripheral image, the detection unit can detect the image representing the detection target object from the peripheral image with high accuracy. Thus, the effect of improving the detection accuracy by being based on a plurality of pre-learning models created according to the contrast of a plurality of sample image groups is remarkably exhibited in the form in which the peripheral image is generated by the infrared camera. It is.

本発明の一実施形態による画像認識装置の構成が概略的に示される構成図である。1 is a configuration diagram schematically illustrating a configuration of an image recognition apparatus according to an embodiment of the present invention. 画像認識回路が前方画像から歩行者を表す画像を検知するための処理を説明するための図である。It is a figure for demonstrating the process for an image recognition circuit to detect the image showing a pedestrian from a front image. カメラゲインが高い場合の前方画像を説明するための図であって、(a)は前方画像が示される図であり、(b)及び(c)は前方画像に写る歩行者を表す画像が拡大して示される図である。It is a figure for demonstrating a front image in case a camera gain is high, Comprising: (a) is a figure in which a front image is shown, (b) And (c) is an image showing the pedestrian reflected in a front image. It is a figure shown. カメラゲインが中程度の場合の前方画像を説明するための図であって、(a)は前方画像が示される図であり、(b)は前方画像に写る歩行者を表す画像が拡大して示される図である。It is a figure for demonstrating a front image in case a camera gain is medium, Comprising: (a) is a figure in which a front image is shown, (b) is an enlarged image showing the pedestrian reflected in a front image. FIG. カメラゲインが低い場合の前方画像を説明するための図であって、(a)は前方画像が示される図であり、(b)は前方画像に写る歩行者を表す画像が拡大して示される図である。It is a figure for demonstrating a front image when a camera gain is low, Comprising: (a) is a figure in which a front image is shown, (b) is expanded and the image showing the pedestrian reflected in a front image is shown. FIG. 事前学習モデルについて説明するための図である。It is a figure for demonstrating a prior learning model. 前方画像から歩行者を表す画像を検知する画像認識回路の処理が示されるフローチャートである。It is a flowchart in which the process of the image recognition circuit which detects the image showing a pedestrian from a front image is shown.

以下、本発明の一実施形態を図面に基づいて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1には、本発明の一実施形態による画像認識装置100の構成が示されている。画像認識装置100は、図2に示されるような車両の前方領域を撮像した前方画像50から、当該前方領域に存在する歩行者等の検知対象物を表す画像50aを検知する。   FIG. 1 shows a configuration of an image recognition apparatus 100 according to an embodiment of the present invention. The image recognition apparatus 100 detects an image 50a representing a detection target such as a pedestrian existing in the front area from the front image 50 obtained by imaging the front area of the vehicle as shown in FIG.

図1に示されるように、画像認識装置100は、赤外線カメラ10及び画像認識回路20等によって構成されている。画像認識装置100は、表示装置40と接続されており、検知結果を当該表示装置40に出力する。   As shown in FIG. 1, the image recognition apparatus 100 includes an infrared camera 10, an image recognition circuit 20, and the like. The image recognition device 100 is connected to the display device 40 and outputs a detection result to the display device 40.

赤外線カメラ10は、近赤外線を検出することにより、可視光の少ない環境下においても撮像可能である。赤外線カメラ10は、車両の進行方向を向けて設置されており、車両の周辺領域のうち、特に車両の前方領域を撮影することができる。赤外線カメラ10は、車両の前方領域を撮影することにより、周辺画像としての前方画像50を生成する。そして赤外線カメラ10は、生成した前方画像50を、画像認識回路20及び表示装置40に逐次出力する。   The infrared camera 10 can pick up an image even in an environment with little visible light by detecting near infrared rays. The infrared camera 10 is installed so that the traveling direction of the vehicle is directed, and can capture particularly the front region of the vehicle in the peripheral region of the vehicle. The infrared camera 10 captures a front area of the vehicle to generate a front image 50 as a peripheral image. Then, the infrared camera 10 sequentially outputs the generated front image 50 to the image recognition circuit 20 and the display device 40.

画像認識回路20は、各種の演算処理を行うプロセッサ、当該演算処理に用いられるプログラム等が格納されたフラッシュメモリ、及び演算の作業領域として機能するRAM等によって構成されている。加えて画像認識回路20は、赤外線カメラ10と接続され当該赤外線カメラ10から情報を取得するインタフェースを有している。   The image recognition circuit 20 includes a processor that performs various arithmetic processes, a flash memory that stores programs used for the arithmetic processes, a RAM that functions as a calculation work area, and the like. In addition, the image recognition circuit 20 has an interface that is connected to the infrared camera 10 and acquires information from the infrared camera 10.

画像認識回路20は、カメラゲイン取得部25、データベース30、最適モデル選択部27、及び歩行者認識部21を備えている。これら要素25、30、27、21は、画像認識回路20の機能ブロックである。これら要素25、30、27、21の機能は、画像認識回路20のプロセッサにおいて所定のプログラムが実行されることにより、当該画像認識回路20によって果たされる。   The image recognition circuit 20 includes a camera gain acquisition unit 25, a database 30, an optimal model selection unit 27, and a pedestrian recognition unit 21. These elements 25, 30, 27, and 21 are functional blocks of the image recognition circuit 20. The functions of these elements 25, 30, 27, and 21 are performed by the image recognition circuit 20 when a predetermined program is executed by the processor of the image recognition circuit 20.

カメラゲイン取得部25は、赤外線カメラ10からカメラゲインを取得する。カメラゲイン取得部25は、赤外線カメラ10から画像認識回路20に出力されている前方画像50が当該赤外線カメラ10によって撮影された際のカメラゲインの情報を、赤外線カメラ10から取得する。取得したカメラゲインの情報は、カメラゲイン取得部25を通じて最適モデル選択部27に取得される。   The camera gain acquisition unit 25 acquires a camera gain from the infrared camera 10. The camera gain acquisition unit 25 acquires, from the infrared camera 10, information on camera gain when the front image 50 output from the infrared camera 10 to the image recognition circuit 20 is captured by the infrared camera 10. The acquired camera gain information is acquired by the optimal model selection unit 27 through the camera gain acquisition unit 25.

データベース30は、複数の事前学習モデル31〜33を記憶している。これら事前学習モデル31〜33は、歩行者等の画像の特徴を学習させたものであって、後述する方法によって、学習の基準となる複数群のサンプル画像61a〜63aのコントラストに応じて作成されている。データベース30は、最適モデル選択部27と接続されており、当該最適モデル選択部27からの求めに応じて、記憶している複数の事前学習モデル31〜33のうちの一つを最適モデル選択部27に出力する。   The database 30 stores a plurality of prior learning models 31 to 33. These pre-learning models 31 to 33 are obtained by learning the characteristics of images of pedestrians and the like, and are created according to the contrast of a plurality of groups of sample images 61a to 63a serving as a learning reference by a method described later. ing. The database 30 is connected to the optimum model selection unit 27, and in response to a request from the optimum model selection unit 27, one of the stored prior learning models 31 to 33 is selected as the optimum model selection unit. 27.

最適モデル選択部27は、カメラゲイン取得部25を通じて取得したカメラゲインに対応する事前学習モデルを、データベース30に記憶されている複数の事前学習モデル31〜33から選択する。最適モデル選択部27は、取得したカメラゲインが高くなるほど、複数のサンプル画像群のうちでコントラストの高いものから作成された事前学習モデルを、複数の事前学習モデル31〜33から選択する。具体的に、最適モデル選択部27には、事前学習モデルを選択するためのカメラゲインの基準値が二つ予め設定されている。便宜的に、二つの基準値のうち、高い方を第一基準値、低い方を第二基準値とする。最適モデル選択部27は、取得したカメラゲインが第一基準値よりも高い場合、事前学習モデル31を選択する。最適モデル選択部27は、取得したカメラゲインが第一基準値以下であって且つ第二基準値よりも高い場合、事前学習モデル32を選択する。最適モデル選択部27は、取得したカメラゲインが第二基準値以下であった場合、事前学習モデル33を選択する。最適モデル選択部27によって選択された事前学習モデル34は、データベース30から読み出され、歩行者認識部21に出力される。   The optimal model selection unit 27 selects a pre-learning model corresponding to the camera gain acquired through the camera gain acquisition unit 25 from the plurality of pre-learning models 31 to 33 stored in the database 30. The optimum model selection unit 27 selects a pre-learning model created from a plurality of sample image groups having a high contrast from the plurality of pre-learning models 31 to 33 as the acquired camera gain increases. Specifically, in the optimum model selection unit 27, two camera gain reference values for selecting a pre-learning model are set in advance. For convenience, of the two reference values, the higher one is the first reference value and the lower one is the second reference value. The optimal model selection unit 27 selects the pre-learning model 31 when the acquired camera gain is higher than the first reference value. The optimal model selection unit 27 selects the pre-learning model 32 when the acquired camera gain is equal to or lower than the first reference value and higher than the second reference value. The optimal model selection unit 27 selects the pre-learning model 33 when the acquired camera gain is equal to or less than the second reference value. The prior learning model 34 selected by the optimal model selection unit 27 is read from the database 30 and output to the pedestrian recognition unit 21.

歩行者認識部21は、赤外線カメラ10、最適モデル選択部27、及び表示装置40と接続されている。歩行者認識部21は、赤外線カメラ10によって撮像された前方画像50を取得する。歩行者認識部21は、最適モデル選択部27によって選択された事前学習モデル34を取得する。歩行者認識部21は、歩行者等の検知対象物の検知結果を、表示装置40に出力する。   The pedestrian recognition unit 21 is connected to the infrared camera 10, the optimum model selection unit 27, and the display device 40. The pedestrian recognition unit 21 acquires a front image 50 captured by the infrared camera 10. The pedestrian recognition unit 21 acquires the pre-learning model 34 selected by the optimal model selection unit 27. The pedestrian recognition unit 21 outputs a detection result of a detection target such as a pedestrian to the display device 40.

歩行者認識部21は、特徴量抽出部22及び照合部23を有している。   The pedestrian recognition unit 21 includes a feature amount extraction unit 22 and a collation unit 23.

特徴量抽出部22は、前方画像50を走査し、当該前方画像50に写る物体の特徴量データを抽出する。具体的には、図2に示されるように、特徴量抽出部22は、予め大きさの設定された探索ウィンドウ55によって、赤外線カメラ10から取得する前方画像50を走査する。特徴量抽出部22は、前方画像50の水平方向及び鉛直方向に、探索ウィンドウ55を移動させつつ(図2に示される破線の矢印を参照)、当該探索ウィンドウ55によって囲まれた範囲の画像56(以下、ウィンドウ画像56)を順に切り出す。さらに特徴量抽出部22は、切り出されたウィンドウ画像56を検知処理に適した特徴量データに変換する。特徴量抽出部22は、変換された特徴量データを照合部23に逐次出力する。   The feature amount extraction unit 22 scans the front image 50 and extracts feature amount data of an object shown in the front image 50. Specifically, as illustrated in FIG. 2, the feature amount extraction unit 22 scans the front image 50 acquired from the infrared camera 10 using a search window 55 having a predetermined size. The feature amount extraction unit 22 moves the search window 55 in the horizontal direction and the vertical direction of the front image 50 (see the dashed arrows shown in FIG. 2), and the image 56 in the range surrounded by the search window 55. (Hereinafter, window image 56) is cut out in order. Further, the feature amount extraction unit 22 converts the cut window image 56 into feature amount data suitable for detection processing. The feature amount extraction unit 22 sequentially outputs the converted feature amount data to the collation unit 23.

照合部23は、最適モデル選択部27によって選択された事前学習モデル34に基づいて、前方画像50から歩行者を表す画像50aを検知する。具体的に照合部23は、特徴量抽出部22によって抽出された特徴量データを、選択された事前学習モデル34と照合し、当該特徴量データが選択された事前学習モデル34に学習されている歩行者を表す画像50aの特徴量データに適合するか否かを判定する。選択された事前学習モデル34に学習されている特徴量データに適合する物体が検知された場合、照合部23は、前方画像50における当該物体の位置情報を検知結果として、図1に示される表示装置40に出力する。   The matching unit 23 detects an image 50 a representing a pedestrian from the front image 50 based on the pre-learning model 34 selected by the optimal model selection unit 27. Specifically, the collation unit 23 collates the feature amount data extracted by the feature amount extraction unit 22 with the selected pre-learning model 34, and the feature amount data is learned by the selected pre-learning model 34. It is determined whether or not it matches the feature amount data of the image 50a representing the pedestrian. When an object that matches the feature amount data learned by the selected pre-learning model 34 is detected, the collation unit 23 displays the position information of the object in the front image 50 as a detection result, as shown in FIG. Output to the device 40.

表示装置40は、車両室内のインスツルメントパネルの中央部等に配置される液晶ディスプレイの表示画面に種々の画像を表示することにより、運転者に種々の情報を提供する。本実施形態の表示装置40は、赤外線カメラ10と接続されており、当該赤外線カメラ10から前方画像50を取得することができる。表示装置40は、運転者等のユーザの操作に基づいて、表示画面に前方画像50を表示する。加えて表示装置40は、歩行者認識部21から取得する検出結果としての位置情報に基づいて、前方画像50における歩行者を表す画像50aを囲むように、枠状の画像を前方画像50に重畳して表示する(図3(a)等参照)。   The display device 40 provides various information to the driver by displaying various images on a display screen of a liquid crystal display disposed at the center of the instrument panel in the vehicle compartment. The display device 40 of the present embodiment is connected to the infrared camera 10 and can acquire the front image 50 from the infrared camera 10. The display device 40 displays the front image 50 on the display screen based on an operation of a user such as a driver. In addition, the display device 40 superimposes a frame-shaped image on the front image 50 so as to surround the image 50 a representing the pedestrian in the front image 50 based on the position information as the detection result acquired from the pedestrian recognition unit 21. Are displayed (see FIG. 3A, etc.).

次に、赤外線カメラ10によって撮像され、歩行者認識部21に出力される前方画像50について、図3〜5に基づいてさらに詳しく説明する。   Next, the front image 50 captured by the infrared camera 10 and output to the pedestrian recognition unit 21 will be described in more detail based on FIGS.

赤外線カメラ10(図1参照)は、前方領域の明るさに応じて、カメラゲインを変更することができる。カメラゲインとは、赤外線カメラ10において光の強さを電気信号に変換する際の増幅量の大きさを示している。カメラゲインは、赤外線カメラ10の感度を示すものである。   The infrared camera 10 (see FIG. 1) can change the camera gain according to the brightness of the front area. The camera gain indicates the amount of amplification when the intensity of light is converted into an electrical signal in the infrared camera 10. The camera gain indicates the sensitivity of the infrared camera 10.

図3に示されるのは、例えば、街灯及び交通量の少ない道路を車両が走行している等、前方領域が暗い場合に撮像される前方画像51である。前方領域が暗い場合、赤外線カメラ10は、カメラゲインを高めることにより、前方画像51のコントラストを調整する。この場合、前方画像51に写る歩行者を表す画像51a(図3(b),(c)参照)と、背景の画像とのコントラストは、高くなる。   FIG. 3 shows a front image 51 that is captured when the front area is dark, for example, when a vehicle is traveling on a streetlight and a road with a small amount of traffic. When the front area is dark, the infrared camera 10 adjusts the contrast of the front image 51 by increasing the camera gain. In this case, the contrast between the image 51a representing the pedestrian in the front image 51 (see FIGS. 3B and 3C) and the background image is high.

図4に示されるのは、街灯及び交通量の比較的多い道路を車両が走行している等、図3に示される状態よりも前方領域が明るい場合に撮像される前方画像52である。前方領域が明るくなると、赤外線カメラ10は、カメラゲインを抑えることにより、街灯から放射される光及び対向車の前照灯から放射させる光等によって、前方画像52に強いハレーションが生じないように調節する。この場合、前方画像52に写る歩行者を表す画像52a(図4(b)参照)と、背景の画像とのコントラストは、前方領域が暗い場合の歩行者を表す画像51aと比較して、低くなる。   FIG. 4 shows a front image 52 that is captured when the front region is brighter than the state shown in FIG. 3, such as when a vehicle is traveling on a streetlight and a road with a relatively large traffic volume. When the front area becomes brighter, the infrared camera 10 adjusts so that strong halation does not occur in the front image 52 due to light emitted from the streetlight and light emitted from the headlight of the oncoming vehicle by suppressing the camera gain. To do. In this case, the contrast between the image 52a representing the pedestrian shown in the front image 52 (see FIG. 4B) and the background image is lower than the image 51a representing the pedestrian when the front area is dark. Become.

図5に示されるのは、街灯及び交通量の非常多い道路を車両が走行しているなど、図4に示される状態よりも前方領域がさらに明るい場合の前方画像53である。前方領域が明るい場合、赤外線カメラ10は、カメラゲインを低くすることにより、街灯から放射される光及び対向車の前照灯から放射させる光等によって、前方画像53に強いハレーションが生じないように調節する。この場合、前方画像53に写る歩行者を表す画像53a(図5(b)参照)と、背景の画像のコントラストは、上述した歩行者を表す画像52aと比較して、さらに低くなる。   FIG. 5 shows a front image 53 in a case where the front area is brighter than the state shown in FIG. 4, such as when a vehicle is traveling on a streetlight and a road with a large amount of traffic. When the front area is bright, the infrared camera 10 reduces the camera gain so that strong halation does not occur in the front image 53 due to light emitted from the streetlight and light emitted from the headlight of the oncoming vehicle. Adjust. In this case, the contrast between the image 53a representing the pedestrian in the front image 53 (see FIG. 5B) and the background image is lower than that of the image 52a representing the pedestrian described above.

次に、データベース30に記憶されている事前学習モデル31〜33について、図6に基づいて詳しく説明する。   Next, the pre-learning models 31 to 33 stored in the database 30 will be described in detail with reference to FIG.

図6に示されるように、事前学習モデル31〜33は、学習モデル作成装置70によって作成される。事前学習モデル31〜33を作成するため、多数のサンプル画像61a〜63aが用いられる。多数のサンプル画像61a〜63aは、各サンプル画像のコントラストに応じて、複数のサンプル画像群61〜63に分類されている。本実施形態では、事前学習モデルの数に対応し、サンプル画像61a〜63aは、コントラストが高いサンプル画像群61、コントラストが中程度のサンプル画像群62、及びコントラストが低いサンプル画像群63、という三つの画像群に分類されている。   As shown in FIG. 6, the pre-learning models 31 to 33 are created by the learning model creation device 70. In order to create the pre-learning models 31 to 33, a large number of sample images 61a to 63a are used. Many sample images 61a-63a are classified into a plurality of sample image groups 61-63 according to the contrast of each sample image. In the present embodiment, the sample images 61a to 63a correspond to the number of pre-learning models, and the sample image group 61 having a high contrast, the sample image group 62 having a medium contrast, and the sample image group 63 having a low contrast. It is classified into one image group.

各サンプル画像群61〜63には、検知対象物として想定されている想定物、即ち歩行者の写る想定物画像64、及び歩行者以外の悲想定物のみが写る非想定物画像(図示されない)が含まれている。非想定物とは、具体的には、歩行者以外の車両、信号機、及び標識等である。各事前学習モデル31〜33は、想定物画像及び非想定物画像に基づいて、検知対象物である歩行者を表す画像50aの特徴が学習されることにより構築される。尚、図6(a)〜(c)に示されている画像は、想定物画像の一部である。   In each of the sample image groups 61 to 63, an assumed object that is assumed as a detection target, that is, an assumed object image 64 in which a pedestrian is photographed, and an unimagined object image in which only a supposed sad object other than a pedestrian is photographed (not shown). It is included. Specifically, non-assumed objects are vehicles other than pedestrians, traffic lights, signs, and the like. Each of the prior learning models 31 to 33 is constructed by learning the characteristics of the image 50a representing the pedestrian that is the detection target based on the assumed object image and the unforeseen object image. The images shown in FIGS. 6A to 6C are a part of the assumed object image.

学習モデル作成装置70は、サンプル画像を読み込み、歩行者認識部21と同様に、各サンプル画像を探索ウィンドウ55(図2参照)によって走査する。これにより、学習モデル作成装置70は、各サンプル画像からウィンドウ画像56(図2参照)を切り出す。そして、切り出されたウィンドウ画像56の特徴量データを学習する。本実施形態における学習モデル作成装置70では、特徴量データを学習するアルゴリズムとして、Adaboostアルゴリズムが使用される。   The learning model creation device 70 reads the sample images and scans each sample image by the search window 55 (see FIG. 2) in the same manner as the pedestrian recognition unit 21. Thereby, the learning model creation apparatus 70 cuts out the window image 56 (see FIG. 2) from each sample image. And the feature-value data of the cut-out window image 56 are learned. In the learning model creation apparatus 70 according to the present embodiment, the Adaboost algorithm is used as an algorithm for learning feature data.

学習モデル作成装置70は、特徴量データに重み付けをすることにより、歩行者を表す画像50aの特徴を事前学習モデル31に学習させる。具体的には、学習モデル作成装置70は、想定物画像64から抽出される特徴量データの重み付けを増やす。一方で、学習モデル作成装置70は、非想定物画像から抽出されてしまう特徴量データの重み付けを減らす。このように、多数の想定物画像64及び非想定物画像を読み込むことにより、学習モデル作成装置70は、歩行者が写っている画像に対しては強い反応を示し、歩行者が写っていない画像に対しては反応を示さないか又は弱い反応しか示さない、識別器としての事前学習モデル31〜33が作成される。   The learning model creation device 70 causes the pre-learning model 31 to learn the features of the image 50a representing the pedestrian by weighting the feature amount data. Specifically, the learning model creation device 70 increases the weighting of the feature amount data extracted from the assumed object image 64. On the other hand, the learning model creation apparatus 70 reduces the weighting of the feature amount data that is extracted from the unexpected image. In this way, by reading a large number of assumed object images 64 and non-assumed object images, the learning model creation apparatus 70 shows a strong reaction with respect to an image in which a pedestrian is shown, and an image in which no pedestrian is shown For the discriminator, pre-learning models 31 to 33 are created that show no response or only a weak response.

これらの事前学習モデル31〜33を作成する際、目標とする認識率及び誤認識率が予め設定される。認識率とは、事前学習モデルが想定物画像64を正しく想定物画像64と認識できる確率である。誤認識率とは、非想定物画像を誤って想定物画像64と認識してしまう確率である。目標として設定された認識率を上回り、且つ目標として設定された誤認識率を下回るようになるまで学習モデル作成装置70にサンプル画像61a〜63aを読み込ませることにより、歩行者を表す画像50aの特徴を学習した事前学習モデル31〜33が作成される。   When these pre-learning models 31 to 33 are created, target recognition rates and erroneous recognition rates are set in advance. The recognition rate is a probability that the prior learning model can correctly recognize the assumed object image 64 as the assumed object image 64. The misrecognition rate is a probability that an unexpected image is erroneously recognized as an assumed image 64. Features of the image 50a representing a pedestrian by causing the learning model creation device 70 to read the sample images 61a to 63a until the recognition rate set as the target exceeds the recognition rate set as the target and falls below the false recognition rate set as the target. The pre-learning models 31 to 33 that learn the above are created.

ここまで説明した学習モデル作成装置70に、分類された各サンプル画像群61〜63を読み込ませることにより、各事前学習モデル31〜33が作成される。コントラストの強いサンプル画像群61からは、カメラゲインが高いことにより歩行者を表す画像50aと背景の画像とのコントラストが高くなる場合に選択される事前学習モデル31が生成される。コントラストが中程度のサンプル画像群62からは、カメラゲインが中程度である場合に選択される事前学習モデル32が生成される。コントラストの低いサンプル画像群63からは、カメラゲインが低いことにより歩行者を表す画像50aと背景の画像とのコントラストが低い場合に選択される事前学習モデル33が生成される。以上により、照合部23は、カメラゲインが高い場合、コントラストの高いサンプル画像群61を用いて作成された事前学習モデル31に基づいて、前方画像50から歩行者を表す画像50aを検知することができる。一方照合部23は、カメラゲインが低い場合、コントラストの低いサンプル画像群63を用いて作成された事前学習モデル33に基づいて、前方画像50から歩行者を表す画像50aを検知することができる。   The pre-learning models 31 to 33 are created by causing the learning model creation device 70 described so far to read the classified sample image groups 61 to 63. The pre-learning model 31 selected when the contrast between the image 50a representing the pedestrian and the background image is high due to the high camera gain is generated from the sample image group 61 with high contrast. From the sample image group 62 having a medium contrast, a pre-learning model 32 that is selected when the camera gain is medium is generated. From the low-contrast sample image group 63, a pre-learning model 33 that is selected when the contrast between the image 50a representing the pedestrian and the background image is low due to low camera gain is generated. As described above, when the camera gain is high, the collation unit 23 can detect the image 50a representing the pedestrian from the front image 50 based on the pre-learning model 31 created using the sample image group 61 with high contrast. it can. On the other hand, when the camera gain is low, the collation unit 23 can detect the image 50a representing the pedestrian from the front image 50 based on the pre-learning model 33 created using the sample image group 63 with low contrast.

上述した事前学習モデル31〜33を生成する際に設定される認識率及び誤認識率の目標値は、事前学習モデル31〜33毎に異なっていてもよい。認識率は、事前学習モデルを作成するためのサンプル画像のコントラストが高くなるほど、高い値が設定されてよい。一方、誤認識率は、事前学習モデルを作成するためのサンプル画像のコントラストが低くなるほど、低い値が設定されてよい。   The target values of the recognition rate and the misrecognition rate set when generating the above-described pre-learning models 31 to 33 may be different for each of the pre-learning models 31 to 33. The recognition rate may be set to a higher value as the contrast of the sample image for creating the pre-learning model becomes higher. On the other hand, the false recognition rate may be set to a lower value as the contrast of the sample image for creating the pre-learning model becomes lower.

サンプル画像のコントラストが高ければ、歩行者を表す画像50aと背景の画像との輪郭が明確になる。故に、認識率の目標値が高く設定されても、又は、誤認識率の目標値が低く設定されても、これらの目標値を達成する事前学習モデル31が作成され得る。   If the contrast of the sample image is high, the outline between the image 50a representing the pedestrian and the background image becomes clear. Therefore, even if the target value of the recognition rate is set high or the target value of the erroneous recognition rate is set low, the pre-learning model 31 that achieves these target values can be created.

一方、サンプル画像のコントラストが低い場合、歩行者を表す画像50aと背景の画像との輪郭が曖昧になる。故に、認識率の目標値が高すぎると、又は誤認識率の目標値が低すぎると、事前学習モデルの作成が困難になる場合がある。加えて、事前学習モデルが作成された場合でも、事前学習モデル33の容量が増大してしまう。故に、サンプル画像のコントラストが低い場合には、サンプル画像のコントラストが高い場合よりも、認識率及び誤認識率の目標値は緩和されるのがよいのである。   On the other hand, when the contrast of the sample image is low, the outline between the image 50a representing the pedestrian and the background image becomes ambiguous. Therefore, if the target value of the recognition rate is too high or the target value of the erroneous recognition rate is too low, it may be difficult to create a pre-learning model. In addition, even when a pre-learning model is created, the capacity of the pre-learning model 33 increases. Therefore, when the contrast of the sample image is low, the target values of the recognition rate and the erroneous recognition rate should be relaxed as compared with the case where the contrast of the sample image is high.

次に、画像認識装置100が、前方画像50から歩行者を表す画像50aを検知する処理について、図7に基づいて詳しく説明する。以下説明する処理は、例えば、表示装置40に前方画像50を表示させるための操作をユーザが行うことにより、画像認識回路20によって実施される。画像認識回路20による処理は、表示装置40への前方画像50の表示を停止する操作をユーザが行うまで繰り返される。   Next, the process in which the image recognition apparatus 100 detects the image 50a representing the pedestrian from the front image 50 will be described in detail with reference to FIG. The process described below is performed by the image recognition circuit 20 when the user performs an operation for displaying the front image 50 on the display device 40, for example. The processing by the image recognition circuit 20 is repeated until the user performs an operation for stopping the display of the front image 50 on the display device 40.

S101では、歩行者認識部21によって、赤外線カメラ10から前方画像50を取得し、S102に進む。S102では、カメラゲイン取得部25によって、赤外線カメラ10からカメラゲインを取得し、S103に進む。   In S101, the pedestrian recognition unit 21 acquires the front image 50 from the infrared camera 10, and the process proceeds to S102. In S102, the camera gain acquisition unit 25 acquires the camera gain from the infrared camera 10, and the process proceeds to S103.

S103では、S102において取得したカメラゲイン対応する事前学習モデルを、最適モデル選択部27によって選択し、S104に進む。最適モデル選択部27によって選択された事前学習モデル34は、歩行者認識部21の照合部23に出力される。   In S103, the pre-learning model corresponding to the camera gain acquired in S102 is selected by the optimum model selection unit 27, and the process proceeds to S104. The prior learning model 34 selected by the optimal model selection unit 27 is output to the collation unit 23 of the pedestrian recognition unit 21.

S104では、探索ウィンドウ55によって前方画像50からウィンドウ画像56を順に切り出す。そして、切り出された各ウィンドウ画像56から、特徴量抽出部22によって、特徴量データを抽出し、S105に進む。抽出された特徴量データは、特徴量抽出部22から照合部23に出力される。   In S <b> 104, the window image 56 is cut out in order from the front image 50 by the search window 55. Then, the feature amount extraction unit 22 extracts feature amount data from each clipped window image 56, and the process proceeds to S105. The extracted feature amount data is output from the feature amount extraction unit 22 to the collation unit 23.

S105では、S104において抽出された特徴量データを、S103において選択された事前学習モデル34に学習されている歩行者を表す画像50aの特徴量データと照合し、S106に進む。S105では、歩行者を表す画像50aの特徴量データに適合するウィンドウ画像56が検知された場合、前方画像50における当該ウィンドウ画像56の位置情報を記憶する。   In S105, the feature amount data extracted in S104 is collated with the feature amount data of the image 50a representing the pedestrian learned by the pre-learning model 34 selected in S103, and the process proceeds to S106. In S105, when the window image 56 suitable for the feature amount data of the image 50a representing the pedestrian is detected, the position information of the window image 56 in the front image 50 is stored.

S106では、S105における照合の結果に基づき、前方画像50から検知対象物である歩行者を表す画像50aを検知したか否かを判定する。S106において、歩行者を表す画像50aを検知していないと判定した場合、S101に戻る。一方、S106において、前方画像50から歩行者を表す画像50aを検知していると判定した場合、S107に進む。   In S <b> 106, it is determined whether or not an image 50 a representing a pedestrian that is a detection target is detected from the front image 50 based on the collation result in S <b> 105. In S106, when it is determined that the image 50a representing the pedestrian is not detected, the process returns to S101. On the other hand, when it determines with detecting the image 50a showing the pedestrian from the front image 50 in S106, it progresses to S107.

S107では、S105において記憶した、ウィンドウ画像56の位置情報を検知結果として表示装置40に出力し、S101に戻る。表示装置40は、照合部23から取得した位置情報に基づいて、歩行者を表す画像50aを枠状の画像で囲んだ表示を、表示画面に映し出す。   In S107, the positional information of the window image 56 memorize | stored in S105 is output to the display apparatus 40 as a detection result, and it returns to S101. Based on the position information acquired from the collation unit 23, the display device 40 displays a display in which the image 50a representing the pedestrian is surrounded by a frame-shaped image on the display screen.

ここまで説明した本実施形態では、カメラゲインの情報は、前方画像50のコントラストを示す指標となる。故に、前方画像50のコントラストと、カメラゲインに応じて選択された事前学習モデル34を作成する際に用いられたサンプル画像群のコントラストとが、互いに対応し得る。このように、前方画像50のコントラストに対応した事前学習モデル34に基づくことによって、歩行者認識部21は、前方画像50から検知対象物である歩行者を表す画像50aを高精度に検知できるようになる。   In the present embodiment described so far, the camera gain information is an index indicating the contrast of the front image 50. Therefore, the contrast of the front image 50 and the contrast of the sample image group used when creating the pre-learning model 34 selected according to the camera gain can correspond to each other. Thus, based on the pre-learning model 34 corresponding to the contrast of the front image 50, the pedestrian recognition unit 21 can detect the image 50a representing the pedestrian as the detection target from the front image 50 with high accuracy. become.

加えて、各事前学習モデル31〜33は、コントラストに応じて分類された各サンプル画像群61〜63から作成されている。各サンプル画像群61〜63に含まれるサンプル画像61a〜63aのコントラストが近似しているので、サンプル画像群61〜63毎のサンプル画像の数を抑えつつ、検知の精度を維持できる事前学習モデル31〜33が構築され得る。このようにサンプル画像61a〜63aの数を抑えることにより、事前学習モデル31〜33の容量は抑制される。故に、照合部23は、歩行者を表す画像50aを検知するための処理を高速で行うことができるようになる。   In addition, each pre-learning model 31-33 is created from each sample image group 61-63 classified according to contrast. Since the contrast of the sample images 61a to 63a included in each of the sample image groups 61 to 63 is approximate, the prior learning model 31 that can maintain the detection accuracy while suppressing the number of sample images for each of the sample image groups 61 to 63. ~ 33 can be constructed. Thus, the capacity | capacitance of the prior learning models 31-33 is suppressed by suppressing the number of sample images 61a-63a. Therefore, the collation part 23 can perform the process for detecting the image 50a showing a pedestrian at high speed.

これらにより、画像認識装置100は、高精度且つ高速に歩行者を表す画像50aを検知することができるようになる。したがって、画像認識装置100による検知対象物の検知性能の向上が実現される。   Accordingly, the image recognition apparatus 100 can detect the image 50a representing the pedestrian with high accuracy and high speed. Therefore, the detection performance of the detection target by the image recognition apparatus 100 is improved.

加えて本実施形態では、最適モデル選択部27は、カメラゲインが高くなるほど、コントラストの高いサンプル画像郡61を用いて作成された事前学習モデルを選択する。カメラゲインが高くなるほど前方画像50のコントラストも高くなるので、前方画像50のコントラストと、選択された事前学習モデル34の作成に用いられたサンプル画像群61のコントラストとが、確実に対応し得る。そして、前方画像50のコントラストが高い場合には、コントラストの高いサンプル画像群61を用いて作成された事前学習モデル31に基づくことによって、前方画像50のコントラストが低い場合には、コントラストの低いサンプル画像群63を用いて作成された事前学習モデル33に基づくことによって、歩行者認識部21は、前方画像50から歩行者を表す画像50aを高精度に検知できるようになる。   In addition, in the present embodiment, the optimum model selection unit 27 selects a pre-learning model created using the sample image group 61 having a high contrast as the camera gain increases. Since the contrast of the front image 50 increases as the camera gain increases, the contrast of the front image 50 and the contrast of the sample image group 61 used to create the selected pre-learning model 34 can reliably correspond. And when the contrast of the front image 50 is high, it is based on the pre-learning model 31 created using the sample image group 61 having a high contrast. Based on the pre-learning model 33 created using the image group 63, the pedestrian recognition unit 21 can detect the image 50a representing the pedestrian from the front image 50 with high accuracy.

また本実施形態では、検知対象物として想定されている歩行者を表す画像50aの特徴を事前学習モデル31〜33に学習させるに際して、想定物画像64及び非想定物画像が用いられてうた。これにより、各事前学習モデル31〜33は、想定物画像64に歩行者が写っていることを学習できると共に、非想定物画像に写るものが歩行者でないことを学習できていた。以上の学習により、歩行者と歩行者以外のものとの差異を学習した各事前学習モデル31〜33に基づくことによって、歩行者認識部21は、前方画像50から歩行者を表す画像50aを、確実に選別して検知できるようになる。   Further, in the present embodiment, when the pre-learning models 31 to 33 learn the characteristics of the image 50a representing the pedestrian assumed as the detection target object, the assumed object image 64 and the unexpected object image are used. Thus, each of the prior learning models 31 to 33 can learn that a pedestrian is reflected in the assumed object image 64 and can learn that what is reflected in the non-imaginary object image is not a pedestrian. Based on each learning model 31-33 which learned the difference between a pedestrian and a thing other than a pedestrian by the above learning, the pedestrian recognition part 21 displays the image 50a showing a pedestrian from the front image 50, It will be possible to reliably select and detect.

さらに本実施形態では、コントラストの高いサンプル画像群61を用いて作成される事前学習モデル31は、コントラストの低いサンプル画像群63を用いて作成される事前学習モデル33よりも、モデル作成時の認識率及び誤認識率の目標値が厳しく設定されている。故に、カメラゲインが高い場合には、歩行者認識部21は、厳しい目標値を達成した事前学習モデル31に基づくことによって、歩行者を表す画像51aを確実に検知することができる。一方、カメラゲインが低い場合には、歩行者認識部21は、目標値の緩和によって容量の抑制された事前学習モデル33に基づくことによって、歩行者を表す画像53aを高速に検知し得る。これらのように、画像認識装置100は、検知の精度と処理の早さとの両立が図られる。   Furthermore, in the present embodiment, the pre-learning model 31 created using the sample image group 61 having a high contrast is recognized at the time of model creation than the pre-learning model 33 created using the sample image group 63 having a low contrast. Target values for rate and false recognition rate are strictly set. Therefore, when the camera gain is high, the pedestrian recognition unit 21 can reliably detect the image 51a representing the pedestrian based on the pre-learning model 31 that has achieved a strict target value. On the other hand, when the camera gain is low, the pedestrian recognition unit 21 can detect the image 53a representing the pedestrian at high speed based on the pre-learning model 33 whose capacity is suppressed by the relaxation of the target value. As described above, the image recognition apparatus 100 can achieve both the accuracy of detection and the speed of processing.

さらに本実施形態で用いられる赤外線カメラ10は、街灯及び対向車の前照灯等から放射される赤外線に起因して、カメラゲインが著しく変化する。故に、前方画像50においては、歩行者を表す画像50aと背景の画像とのコントラストも著しく変動する。しかし、上述した構成では、前方画像50のコントラストに対応した事前学習モデル31〜33に基づくことにより、歩行者認識部21は、前方画像50から歩行者を表す画像50aを高精度に検知できるようになる。このように、複数のサンプル画像群61〜63のコントラストに応じて作成された複数の事前学習モデル31〜33に基づくことによって検出精度を向上させる作用は、赤外線カメラ10により前方画像50を生成する形態において、顕著に発揮されるのである。   Furthermore, the camera gain of the infrared camera 10 used in the present embodiment changes significantly due to infrared rays radiated from street lights and headlights of oncoming vehicles. Therefore, in the front image 50, the contrast between the image 50a representing the pedestrian and the background image also varies significantly. However, in the configuration described above, the pedestrian recognition unit 21 can detect the image 50a representing the pedestrian from the front image 50 with high accuracy based on the pre-learning models 31 to 33 corresponding to the contrast of the front image 50. become. As described above, the action of improving the detection accuracy based on the plurality of pre-learning models 31 to 33 created according to the contrast of the plurality of sample image groups 61 to 63 generates the front image 50 by the infrared camera 10. In the form, it is exhibited remarkably.

尚、本実施形態において、赤外線カメラ10が特許請求の範囲に記載の「撮像手段」に相当し、歩行者認識部21が特許請求の範囲に記載の「検知手段」に相当し、カメラゲイン取得部25及び最適モデル選択部27が特許請求の範囲に記載の「モデル選択手段」に相当し、データベース30が特許請求の範囲に記載の「記憶手段」に相当し、前方画像50〜53が特許請求の範囲に記載の「周辺画像」に相当し、歩行者を表す画像50a〜53aが特許請求の範囲に記載の「検知対象物を表す画像」に相当し、カメラゲインが特許請求の範囲に記載の「撮像ゲイン」に相当する。   In the present embodiment, the infrared camera 10 corresponds to the “imaging means” recited in the claims, the pedestrian recognition unit 21 corresponds to the “detection means” recited in the claims, and obtains the camera gain. The unit 25 and the optimum model selection unit 27 correspond to “model selection means” recited in the claims, the database 30 corresponds to “storage means” recited in the claims, and the front images 50 to 53 represent patents. The image 50a to 53a representing a pedestrian corresponds to the “image representing the detection target” described in the claims, and the camera gain corresponds to the “peripheral image” recited in the claims. This corresponds to the “imaging gain” described.

(他の実施形態)
以上、本発明による一実施形態について説明したが、本発明は上記実施形態に限定して解釈されるものではなく、その要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
(Other embodiments)
As mentioned above, although one embodiment by the present invention was described, the present invention is not interpreted limited to the above-mentioned embodiment, and can be applied to various embodiments within the range which does not deviate from the gist.

上記実施形態において、最適モデル選択部27は、サンプル画像61a〜63aのコントラストに応じて作成された三つの事前学習モデル31〜33から、一つを選択していた。しかし、データベース30に記憶される事前学習モデルの数は、三つに限定されない。例えば、データベース30に記憶される事前学習モデルは、二つであってもよく、又は四つ以上であってもよい。   In the said embodiment, the optimal model selection part 27 selected one from the three prior learning models 31-33 produced according to the contrast of the sample images 61a-63a. However, the number of pre-learning models stored in the database 30 is not limited to three. For example, the number of pre-learning models stored in the database 30 may be two, or four or more.

上記実施形態において、最適モデル選択部27は、取得したカメラゲインに対応する事前学習モデルを選択していた。しかし、最適モデル選択部27は、カメラゲインと共に、他の情報に基づいて、事前学習モデルを選択してもよい。例えば、前方画像50における歩行者を表す画像50aの写り方は、降雨や積雪等の車両周囲の気象条件によっても変化する場合がある。故に、移動体通信網等の車両の外部との通信が可能な通信機、或いはレインセンサ等と接続され、気象情報を取得する気象情報取得手段を画像認識装置に設ける。この気象情報取得手段によって、画像認識装置は、降雨情報及び積雪情報等を取得できるようになる。そしてさらに、カメラゲインと共に気象情報にも対応する事前学習モデルを学習モデル作成装置70に作成させ、データベース30に記憶させておく。以上の構成によって、画像認識装置は、種々の気象条件下においても、前方画像50から的確に歩行者を表す画像50aを検知することができるようになる。   In the above embodiment, the optimal model selection unit 27 selects a pre-learning model corresponding to the acquired camera gain. However, the optimal model selection unit 27 may select the pre-learning model based on other information together with the camera gain. For example, the way in which the image 50a representing the pedestrian in the front image 50 is reflected may change depending on the weather conditions around the vehicle such as rain and snow. Therefore, the image recognition apparatus is provided with weather information acquisition means that is connected to a communication device that can communicate with the outside of the vehicle, such as a mobile communication network, or a rain sensor and acquires weather information. With this weather information acquisition means, the image recognition device can acquire rainfall information, snow cover information, and the like. Further, the learning model creation device 70 creates a pre-learning model corresponding to the weather information as well as the camera gain, and stores it in the database 30. With the above configuration, the image recognition apparatus can accurately detect an image 50a representing a pedestrian from the front image 50 even under various weather conditions.

上記実施形態において、各事前学習モデル31〜33に、歩行者を表す画像50aの特徴量データを学習させるアルゴリズムとして、Adaboostアルゴリズムが使用されていた。しかし、各事前学習モデル31〜33に特徴量データを学習させるために、種々の手法が用いられてよい。例えば、ニューラルネットワークを用いた特徴量の学習方法等が、事前学習モデルの作成に用いられてもよい。   In the above embodiment, the Adaboost algorithm is used as an algorithm for causing each of the pre-learning models 31 to 33 to learn the feature amount data of the image 50a representing the pedestrian. However, various methods may be used to cause each of the prior learning models 31 to 33 to learn feature amount data. For example, a feature amount learning method using a neural network may be used to create the prior learning model.

上記実施形態において、各事前学習モデル31を作成する際の、認識率及び誤認識率の目標値は、各サンプル画像群61〜63のコントラストに応じて変更されていた。しかし、これら認識率及び誤認識率は、各サンプル画像群61〜63のコントラストにかかわらず、一定の値であってもよい。   In the above embodiment, the target values of the recognition rate and the misrecognition rate when creating each pre-learning model 31 are changed according to the contrast of each of the sample image groups 61 to 63. However, these recognition rates and erroneous recognition rates may be constant values regardless of the contrast of the sample image groups 61 to 63.

上記実施形態では、前方画像50を撮像するための撮像手段として、赤外線カメラ10が用いられていた。しかし、前方画像50を撮像することができれば、撮像手段は、赤外線カメラ10に限定されない。例えば、可視光線を用いて撮像する可視光カメラが、撮像手段であってもよい。又は、撮像手段は、赤外線カメラ及び可視光カメラを共に有していてもよい。   In the above embodiment, the infrared camera 10 is used as an imaging unit for capturing the front image 50. However, the imaging means is not limited to the infrared camera 10 as long as the front image 50 can be captured. For example, a visible light camera that captures an image using visible light may be an imaging unit. Alternatively, the imaging means may have both an infrared camera and a visible light camera.

上記実施形態では、画像認識装置100は、検知対象物として歩行者を検知していた。しかし、画像認識装置によって検知される検知対象物は、歩行者に限定されない。例えば、車両、自転車又は二輪車に搭乗する人間、及び鹿や猪等の動物等が検知対象物として設定されていてもよい。   In the above embodiment, the image recognition device 100 detects a pedestrian as a detection target. However, the detection target detected by the image recognition device is not limited to a pedestrian. For example, a person who rides on a vehicle, a bicycle or a two-wheeled vehicle, an animal such as a deer or a frog may be set as the detection target.

10 赤外線カメラ(撮像手段)、20 画像認識回路、21 歩行者認識部(検知手段)、22 特徴量抽出部、23 照合部、25 カメラゲイン取得部(モデル選択手段)、27 最適モデル選択部(モデル選択手段)、30 データベース(記憶手段)、31〜34 事前学習モデル、40 表示装置、50〜53 前方画像(周辺画像)、50a〜53a 歩行者を表す画像、55 探索ウィンドウ、56 ウィンドウ画像、61〜63 サンプル画像群、61a〜63a サンプル画像、64 想定物画像、70 学習モデル作成装置、100 画像認識装置 DESCRIPTION OF SYMBOLS 10 Infrared camera (imaging means), 20 Image recognition circuit, 21 Pedestrian recognition part (detection means), 22 Feature amount extraction part, 23 Collation part, 25 Camera gain acquisition part (model selection means), 27 Optimal model selection part ( Model selection means), 30 database (storage means), 31-34 pre-learning model, 40 display device, 50-53 forward image (peripheral image), 50a-53a image representing a pedestrian, 55 search window, 56 window image, 61 to 63 sample image group, 61a to 63a sample image, 64 assumed object image, 70 learning model creation device, 100 image recognition device

Claims (4)

車両の周辺領域を撮影する撮像手段によって生成される周辺画像から、前記周辺領域に存在する検知対象物を表す画像を検知する画像認識装置であって、
前記周辺領域の明るさに応じて撮像ゲインを変更することによりコントラストの調整された前記周辺画像、を生成する前記撮像手段と、
学習の基準となる複数群のサンプル画像のコントラストに応じて作成された複数の事前学習モデルを記憶する記憶手段と、
前記周辺画像を撮影した際の前記撮像ゲインを前記撮像手段から取得し、当該撮像ゲインに対応する前記事前学習モデルを、前記記憶手段に記憶された複数の前記事前学習モデルから選択するモデル選択手段と、
前記モデル選択手段によって選択される前記事前学習モデルに基づいて、前記撮像手段によって撮像された前記周辺画像から、前記検知対象物を表す画像を検知する検知手段と、
を備えることを特徴とする画像認識装置。
An image recognition device that detects an image representing a detection target existing in the peripheral area from a peripheral image generated by an imaging unit that captures the peripheral area of the vehicle,
The imaging means for generating the peripheral image in which the contrast is adjusted by changing the imaging gain according to the brightness of the peripheral area;
Storage means for storing a plurality of pre-learning models created according to the contrast of a plurality of groups of sample images serving as a learning reference;
A model for acquiring the imaging gain when the peripheral image is captured from the imaging unit, and selecting the pre-learning model corresponding to the imaging gain from the plurality of the pre-learning models stored in the storage unit A selection means;
Detection means for detecting an image representing the detection target object from the peripheral image captured by the imaging means based on the prior learning model selected by the model selection means;
An image recognition apparatus comprising:
前記選択手段は、前記撮像手段から取得した前記撮像ゲインが高くなるほど、前記複数のサンプル画像群のうちでコントラストの高い前記サンプル画像群から作成された前記事前学習モデルを、複数の前記事前学習モデルから選択し、
前記検知手段は、コントラストの高い前記サンプル画像群を用いて作成された前記事前学習モデルに基づいて、前記周辺画像から前記検知対象物を表す画像を検知することを特徴とする請求項1に記載の画像認識装置。
The selection unit is configured to convert the pre-learning model created from the sample image group having a high contrast among the plurality of sample image groups to a plurality of the advance learning models as the imaging gain acquired from the imaging unit increases. Select from the learning model,
The detection unit detects an image representing the detection target from the peripheral image based on the pre-learning model created using the sample image group having a high contrast. The image recognition apparatus described.
各前記サンプル画像群は、前記検知対象物として想定されている想定物が写る想定物画像及び前記想定物以外の非想定物が写る非想定物画像を含み、
各前記事前学習モデルは、前記想定物画像及び前記非想定物画像に基づいて、前記想定物を表す画像の特徴が学習されることにより構築されることを特徴とする請求項1又は2に記載の画像認識装置。
Each of the sample image groups includes an assumed object image in which an assumed object assumed as the detection object is captured and an unimagined object image in which an unimagined object other than the assumed object is captured,
Each of the pre-learning models is constructed by learning a feature of an image representing the assumed object based on the assumed object image and the non-imaginary object image. The image recognition apparatus described.
前記撮像手段は、前記周辺領域の赤外線を検出することにより、前記周辺画像を生成する赤外線カメラを有することを特徴とする請求項1〜3のいずれか一項に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the imaging unit includes an infrared camera that generates the peripheral image by detecting infrared light in the peripheral region.
JP2010214052A 2010-09-24 2010-09-24 Image recognition device Active JP5423631B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010214052A JP5423631B2 (en) 2010-09-24 2010-09-24 Image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010214052A JP5423631B2 (en) 2010-09-24 2010-09-24 Image recognition device

Publications (2)

Publication Number Publication Date
JP2012068965A true JP2012068965A (en) 2012-04-05
JP5423631B2 JP5423631B2 (en) 2014-02-19

Family

ID=46166153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010214052A Active JP5423631B2 (en) 2010-09-24 2010-09-24 Image recognition device

Country Status (1)

Country Link
JP (1) JP5423631B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015537268A (en) * 2012-09-05 2015-12-24 グーグル インコーポレイテッド Construction area detection using multiple sources
US9489601B2 (en) 2012-09-05 2016-11-08 X Development Llc Construction zone sign detection
JP2017212597A (en) * 2016-05-25 2017-11-30 株式会社デンソー Image processing apparatus
JP2018123646A (en) * 2017-02-03 2018-08-09 住友重機械工業株式会社 Periphery monitoring system for work machine
WO2019003355A1 (en) * 2017-06-28 2019-01-03 株式会社オプティム System for providing image analysis result, method for providing image analysis result, and program
KR20190049114A (en) * 2017-11-01 2019-05-09 한국해양과학기술원 Detection method and system for discrimination of sea ice in the polar region
WO2019171677A1 (en) * 2018-03-08 2019-09-12 オムロン株式会社 Data output device, data output method, and program
WO2019189557A1 (en) * 2018-03-29 2019-10-03 日本電気株式会社 Sorting support device, sorting support system, sorting support method, and program
JP2019186918A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus
JP2019186911A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus
JPWO2018142765A1 (en) * 2017-02-03 2019-11-21 パナソニックIpマネジメント株式会社 Learned model providing method and learned model providing apparatus
WO2019245191A1 (en) * 2018-06-20 2019-12-26 써모아이 주식회사 Apparatus and method for analyzing image
JP2019219728A (en) * 2018-06-15 2019-12-26 三菱電機インフォメーションシステムズ株式会社 Method for selecting learned model, method for generate training data, method for generate learned model, computer and program
JP2020091667A (en) * 2018-12-06 2020-06-11 トヨタ自動車株式会社 Fixed point image recognition device
WO2020129235A1 (en) * 2018-12-21 2020-06-25 株式会社日立ハイテク Image recognition device and method
JP2020144778A (en) * 2019-03-08 2020-09-10 日本放送協会 Moving image colorizing device, color information estimation model generation device, and program thereof
WO2021221030A1 (en) * 2020-04-27 2021-11-04 株式会社リョーワ Quality determination system, quality determination method, server, and program
WO2023022072A1 (en) * 2021-08-16 2023-02-23 花王株式会社 Moving image determination method
JP2023027012A (en) * 2021-08-16 2023-03-01 花王株式会社 Moving image determination method
WO2023187958A1 (en) * 2022-03-29 2023-10-05 日本電気株式会社 Traffic flow analysis device, traffic flow analysis method, and program recording medium
WO2023248577A1 (en) * 2022-06-22 2023-12-28 株式会社Jvcケンウッド Image recognition device and image recognition method
WO2024013933A1 (en) * 2022-07-14 2024-01-18 日本電気株式会社 Video processing system, video processing device, and video processing method
CN117593766A (en) * 2023-12-28 2024-02-23 天科院环境科技发展(天津)有限公司 Investigation method for wild animal population number based on unmanned aerial vehicle shooting image processing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6620715B2 (en) 2016-10-20 2019-12-18 株式会社デンソー Image recognition device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869533A (en) * 1994-06-14 1996-03-12 Nippon Telegr & Teleph Corp <Ntt> Image inspection and recognition method, and reference data generating method used for same and device for them
JPH08223485A (en) * 1995-02-17 1996-08-30 Fujitsu Ltd Infrared video equipment
JPH1011583A (en) * 1996-06-27 1998-01-16 Sony Corp Class classification adaptation processor and learning device/method for class classification adaptation processing
JP2007235951A (en) * 2006-02-28 2007-09-13 Alpine Electronics Inc Vehicle image recognition apparatus and its method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869533A (en) * 1994-06-14 1996-03-12 Nippon Telegr & Teleph Corp <Ntt> Image inspection and recognition method, and reference data generating method used for same and device for them
JPH08223485A (en) * 1995-02-17 1996-08-30 Fujitsu Ltd Infrared video equipment
JPH1011583A (en) * 1996-06-27 1998-01-16 Sony Corp Class classification adaptation processor and learning device/method for class classification adaptation processing
JP2007235951A (en) * 2006-02-28 2007-09-13 Alpine Electronics Inc Vehicle image recognition apparatus and its method

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9489601B2 (en) 2012-09-05 2016-11-08 X Development Llc Construction zone sign detection
USRE48322E1 (en) 2012-09-05 2020-11-24 Waymo Llc Construction zone sign detection
JP2015537268A (en) * 2012-09-05 2015-12-24 グーグル インコーポレイテッド Construction area detection using multiple sources
JP2017212597A (en) * 2016-05-25 2017-11-30 株式会社デンソー Image processing apparatus
WO2017204304A1 (en) * 2016-05-25 2017-11-30 株式会社デンソー Image processing device
JPWO2018142765A1 (en) * 2017-02-03 2019-11-21 パナソニックIpマネジメント株式会社 Learned model providing method and learned model providing apparatus
JP2018123646A (en) * 2017-02-03 2018-08-09 住友重機械工業株式会社 Periphery monitoring system for work machine
JP7149459B2 (en) 2017-02-03 2022-10-07 パナソニックIpマネジメント株式会社 LEARNED MODEL PROVIDING METHOD AND LEARNED MODEL PROVIDING DEVICE
WO2019003355A1 (en) * 2017-06-28 2019-01-03 株式会社オプティム System for providing image analysis result, method for providing image analysis result, and program
JP6474946B1 (en) * 2017-06-28 2019-02-27 株式会社オプティム Image analysis result providing system, image analysis result providing method, and program
KR101980354B1 (en) * 2017-11-01 2019-05-21 한국해양과학기술원 Detection method and system for discrimination of sea ice in the polar region
KR20190049114A (en) * 2017-11-01 2019-05-09 한국해양과학기술원 Detection method and system for discrimination of sea ice in the polar region
JP2019159435A (en) * 2018-03-08 2019-09-19 オムロン株式会社 Data output device, data output method and program
WO2019171677A1 (en) * 2018-03-08 2019-09-12 オムロン株式会社 Data output device, data output method, and program
JP2019174421A (en) * 2018-03-29 2019-10-10 日本電気株式会社 Selection support device, selection support system, selection support method, and program
WO2019189557A1 (en) * 2018-03-29 2019-10-03 日本電気株式会社 Sorting support device, sorting support system, sorting support method, and program
JP2019186911A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus
JP2019186918A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus
JP2019219728A (en) * 2018-06-15 2019-12-26 三菱電機インフォメーションシステムズ株式会社 Method for selecting learned model, method for generate training data, method for generate learned model, computer and program
WO2019245191A1 (en) * 2018-06-20 2019-12-26 써모아이 주식회사 Apparatus and method for analyzing image
KR20190143153A (en) * 2018-06-20 2019-12-30 써모아이 주식회사 Image analysis apparatus and method
KR102107298B1 (en) 2018-06-20 2020-05-06 써모아이 주식회사 Image analysis apparatus and method
JP2020091667A (en) * 2018-12-06 2020-06-11 トヨタ自動車株式会社 Fixed point image recognition device
KR102654003B1 (en) * 2018-12-21 2024-04-04 주식회사 히타치하이테크 Image recognition device and method
TWI731459B (en) * 2018-12-21 2021-06-21 日商日立全球先端科技股份有限公司 Image recognition device and method
KR20210082222A (en) * 2018-12-21 2021-07-02 주식회사 히타치하이테크 Image recognition apparatus and method
WO2020129235A1 (en) * 2018-12-21 2020-06-25 株式会社日立ハイテク Image recognition device and method
US12014530B2 (en) 2018-12-21 2024-06-18 Hitachi High-Tech Corporation Image recognition device and method
JP2020144778A (en) * 2019-03-08 2020-09-10 日本放送協会 Moving image colorizing device, color information estimation model generation device, and program thereof
WO2021221030A1 (en) * 2020-04-27 2021-11-04 株式会社リョーワ Quality determination system, quality determination method, server, and program
JPWO2021221030A1 (en) * 2020-04-27 2021-11-04
JP7049028B2 (en) 2020-04-27 2022-04-06 株式会社リョーワ Good / bad judgment system and good / bad judgment method
JP2023027012A (en) * 2021-08-16 2023-03-01 花王株式会社 Moving image determination method
JP7353438B2 (en) 2021-08-16 2023-09-29 花王株式会社 Video image judgment method
WO2023022072A1 (en) * 2021-08-16 2023-02-23 花王株式会社 Moving image determination method
WO2023187958A1 (en) * 2022-03-29 2023-10-05 日本電気株式会社 Traffic flow analysis device, traffic flow analysis method, and program recording medium
WO2023248577A1 (en) * 2022-06-22 2023-12-28 株式会社Jvcケンウッド Image recognition device and image recognition method
WO2024013933A1 (en) * 2022-07-14 2024-01-18 日本電気株式会社 Video processing system, video processing device, and video processing method
CN117593766A (en) * 2023-12-28 2024-02-23 天科院环境科技发展(天津)有限公司 Investigation method for wild animal population number based on unmanned aerial vehicle shooting image processing
CN117593766B (en) * 2023-12-28 2024-04-02 天科院环境科技发展(天津)有限公司 Investigation method for wild animal population number based on unmanned aerial vehicle shooting image processing

Also Published As

Publication number Publication date
JP5423631B2 (en) 2014-02-19

Similar Documents

Publication Publication Date Title
JP5423631B2 (en) Image recognition device
JP5228439B2 (en) Operation input device
CN107506760B (en) Traffic signal detection method and system based on GPS positioning and visual image processing
JP4263737B2 (en) Pedestrian detection device
JP5747549B2 (en) Signal detector and program
JP5333080B2 (en) Image recognition system
CN104050620B (en) Body detection device
JP5867807B2 (en) Vehicle identification device
JP5480917B2 (en) Vehicle periphery monitoring device
JP2018063680A (en) Traffic signal recognition method and traffic signal recognition device
JPWO2012004938A1 (en) Vehicle periphery monitoring device
JPWO2017098709A1 (en) Image recognition apparatus and image recognition method
KR20140132076A (en) Method for detecting pedestrians based on far infrared ray camera at night
JP2009276910A (en) Image processor, method and program
JP2012164026A (en) Image recognition device and display device for vehicle
Sung et al. Real-time traffic light recognition on mobile devices with geometry-based filtering
JP2013093639A (en) Vehicle periphery monitoring device
JP2010092353A (en) Image processing apparatus and image processing method
CN102844767B (en) For analyzing the method and apparatus of the image of the image collecting device of vehicle
JP7264428B2 (en) Road sign recognition device and its program
JP5447162B2 (en) Mobile object identification apparatus, computer program, and mobile object identification method
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP5447164B2 (en) Mobile object identification apparatus, computer program, and mobile object identification method
JP2018072884A (en) Information processing device, information processing method and program
JP4719605B2 (en) Object detection data generation device, method and program, and object detection device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

R151 Written notification of patent or utility model registration

Ref document number: 5423631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250