JP2020087233A - Recognition processing apparatus, recognition processing method, and program - Google Patents

Recognition processing apparatus, recognition processing method, and program Download PDF

Info

Publication number
JP2020087233A
JP2020087233A JP2018224455A JP2018224455A JP2020087233A JP 2020087233 A JP2020087233 A JP 2020087233A JP 2018224455 A JP2018224455 A JP 2018224455A JP 2018224455 A JP2018224455 A JP 2018224455A JP 2020087233 A JP2020087233 A JP 2020087233A
Authority
JP
Japan
Prior art keywords
animal
image
recognition processing
eyes
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018224455A
Other languages
Japanese (ja)
Inventor
卓也 小倉
Takuya Ogura
卓也 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2018224455A priority Critical patent/JP2020087233A/en
Publication of JP2020087233A publication Critical patent/JP2020087233A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a recognition processing apparatus configured to estimate the size of animals accurately.SOLUTION: A recognition processing apparatus 100 includes a video acquisition unit 112, a recognition processing unit 120, and an estimation unit 130. The video acquisition unit 112 acquires a video formed by imaging the surroundings. The recognition processing unit 120 recognizes an animal and reflection of two eyes of the animal. The estimation unit 130 estimates the size of the animal on the basis of a distance between the two eyes obtained from the recognized reflection of two eyes.SELECTED DRAWING: Figure 2

Description

本発明は、認識処理装置、認識処理方法及びプログラムに関する。 The present invention relates to a recognition processing device, a recognition processing method, and a program.

特許文献1は、歩行者であるか、歩行者以外の動物であるかを明確に区別する画像認識装置を開示する。特許文献1にかかる画像認識装置は、画像から検出された判別の候補となる物体が歩行者以外の所定の動物であるか否かを判別して、歩行者であるか、歩行者以外の動物であるかを明確に区別する。また、特許文献1にかかる画像認識装置は、判別の候補となる物体について、歩行者以外の所定の動物を構成する所定の部位に関する判定を行う。そして、特許文献1にかかる画像認識装置は、その結果得られる当該所定の部位についての判別値が所定の閾値を超えている場合には、当該歩行者以外の所定の動物であると判別する。 Patent Document 1 discloses an image recognition device that clearly distinguishes between a pedestrian and an animal other than a pedestrian. The image recognition device according to Patent Document 1 determines whether or not an object that is a candidate for determination detected from an image is a predetermined animal other than a pedestrian, and is a pedestrian or an animal other than a pedestrian. Clearly distinguish. Further, the image recognition device according to Patent Document 1 makes a determination regarding a predetermined part that constitutes a predetermined animal other than a pedestrian, with respect to an object that is a candidate for determination. Then, the image recognition device according to Patent Document 1 determines that the image recognition device is a predetermined animal other than the pedestrian when the determination value of the predetermined region obtained as a result exceeds a predetermined threshold.

特開2008−021035号公報JP, 2008-021035, A

動物の種類等によって、動物の大きさは千差万別である。例えば、鹿と猫とでは、大きさが全く異なる。ここで、特許文献1にかかる技術では、入力画像から検出された判別の候補となる物体までの距離を画像上の位置から測定して、その測定した距離に基づいて判別の候補となる物体の大きさを測定する。しかしながら、特許文献1にかかる技術において物体までの距離を測定する方法では、精度よく距離を測定できないおそれがある。したがって、特許文献1にかかる技術では、動物の大きさを精度よく推定することができないおそれがある。 There are various sizes of animals depending on the types of animals. For example, a deer and a cat are completely different in size. Here, in the technique according to Patent Document 1, the distance to the object that is a candidate for discrimination detected from the input image is measured from the position on the image, and the object that is a candidate for discrimination is determined based on the measured distance. Measure the size. However, the method of measuring the distance to the object in the technique according to Patent Document 1 may not be able to measure the distance accurately. Therefore, the technique according to Patent Document 1 may not be able to accurately estimate the size of the animal.

上記課題に鑑み、本発明は、動物の大きさを精度よく推定することが可能な認識処理装置、認識処理方法及びプログラムを提供することを目的とする。 In view of the above problems, the present invention has an object to provide a recognition processing device, a recognition processing method, and a program capable of accurately estimating the size of an animal.

本発明にかかる認識処理装置は、周囲を撮影するカメラが撮影した映像を取得する映像取得部と、前記映像から、動物と前記動物の2つの目の反射とを認識する認識処理部と、認識された前記2つの目の反射から得られる前記2つの目の間の距離に基づいて、前記動物の大きさを推定する推定部とを有する。 A recognition processing device according to the present invention includes a video acquisition unit that acquires a video image captured by a camera that captures the surroundings, a recognition processing unit that recognizes an animal and the reflection of two eyes of the animal from the video image, And an estimation unit that estimates the size of the animal based on the distance between the two eyes obtained from the reflected two eyes.

また、本発明にかかる認識処理方法は、周囲を撮影した映像を取得し、前記映像から、動物と前記動物の2つの目の反射とを認識し、認識された前記2つの目の反射から得られる前記2つの目の間の距離に基づいて、前記動物の大きさを推定する。 Further, the recognition processing method according to the present invention obtains a video image of the surroundings, recognizes an animal and the reflection of the two eyes of the animal from the video, and obtains from the recognized reflection of the two eyes. Estimate the size of the animal based on the distance between the two eyes that are taken.

また、本発明にかかるプログラムは、周囲を撮影した映像を取得するステップと、前記映像から、動物と前記動物の2つの目の反射とを認識するステップと、認識された前記2つの目の反射から得られる前記2つの目の間の距離に基づいて、前記動物の大きさを推定するステップとをコンピュータに実行させる。 Further, the program according to the present invention includes a step of acquiring a video image of the surroundings, a step of recognizing an animal and a reflection of two eyes of the animal from the video image, and a recognized reflection of the two eyes of the animal. And estimating the size of the animal based on the distance between the two eyes obtained from the computer.

本発明によれば、動物の大きさを精度よく推定することが可能な認識処理装置、認識処理方法及びプログラムを提供することができる。 According to the present invention, it is possible to provide a recognition processing device, a recognition processing method, and a program capable of accurately estimating the size of an animal.

実施の形態1にかかる車両を示す図である。FIG. 1 is a diagram showing a vehicle according to a first exemplary embodiment. 実施の形態1にかかる認識処理装置及び認識処理装置を有する認識システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of a recognition processing device and a recognition system having the recognition processing device according to the first exemplary embodiment. 実施の形態1にかかる認識処理方法を示すフローチャートである。3 is a flowchart showing a recognition processing method according to the first exemplary embodiment. 動物の大きさの推定処理を説明するための図である。It is a figure for demonstrating the estimation process of the size of an animal.

(実施の形態1)
以下、図面を参照して本発明の実施の形態について説明する。なお、実質的に同じ構成要素には、同じ符号が付される。
(Embodiment 1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the substantially same components are assigned the same reference numerals.

図1は、実施の形態1にかかる認識システム50を備えた車両1を示す図である。図1においては、車両1が、1つの赤外線カメラ2と、1つの可視光カメラ4と、認識処理装置100とを有する例が示されている。なお、赤外線カメラ2及び可視光カメラ4は、それぞれ、2つ以上設けられていてもよい。複数の赤外線カメラ2及び可視光カメラ4が、車両1の前後及び左右を撮影してもよい。また、以下の説明では、認識処理装置100が車両1に搭載されている例を示しているが、本実施の形態にかかる認識処理装置100は、車両1に搭載されている必要はない。 FIG. 1 is a diagram showing a vehicle 1 including a recognition system 50 according to the first embodiment. In FIG. 1, an example in which a vehicle 1 has one infrared camera 2, one visible light camera 4, and a recognition processing device 100 is shown. Two or more infrared cameras 2 and visible light cameras 4 may be provided, respectively. A plurality of infrared cameras 2 and visible light cameras 4 may photograph the front and rear and right and left of the vehicle 1. Further, in the following description, an example in which the recognition processing device 100 is mounted on the vehicle 1 is shown, but the recognition processing device 100 according to the present embodiment does not have to be mounted on the vehicle 1.

赤外線カメラ2は、赤外線、特に遠赤外線により、車両1の周囲の映像を撮影する。そして、赤外線カメラ2は、物体の熱エネルギーを検知することで、熱画像の映像データである赤外線映像データを生成する。つまり、赤外線映像データは、赤外線カメラ2によって撮影された赤外線映像を示す映像データである。 The infrared camera 2 captures an image of the surroundings of the vehicle 1 with infrared rays, particularly far infrared rays. Then, the infrared camera 2 generates infrared video data which is video data of a thermal image by detecting the thermal energy of the object. That is, the infrared video data is video data showing the infrared video taken by the infrared camera 2.

可視光カメラ4は、可視光を受光して結像する通常のカメラである。可視光カメラ4は、物体が発する光及び物体における反射光を受光することで、車両1の周囲の映像を撮影する。そして、可視光カメラ4は、可視光の映像データである可視光映像データを生成する。つまり、可視光映像データは、可視光カメラ4によって撮影された可視光映像を示す映像データである。 The visible light camera 4 is a normal camera that receives visible light and forms an image. The visible light camera 4 captures an image around the vehicle 1 by receiving the light emitted by the object and the reflected light from the object. Then, the visible light camera 4 generates visible light image data which is image data of visible light. That is, the visible light image data is image data indicating a visible light image captured by the visible light camera 4.

認識処理装置100は、車両1の任意の位置に設置され得る。認識処理装置100は、車両1が備えるCAN(Control Area Network)に接続され得る。認識処理装置100は、赤外線カメラ2によって撮影された映像において、認識辞書を用いて、歩行者等の人物を認識する人物認識を行う。詳しくは後述する。なお、以下、用語「映像」は、情報処理における処理対象としての、「映像を示す映像データ」も意味する。同様に、以下、用語「画像」は、情報処理における処理対象としての、「画像を示す画像データ」も意味する。また、用語「音声」は、情報処理における処理対象としての、「音声を示す音声データ」も意味する。 The recognition processing device 100 can be installed at any position of the vehicle 1. The recognition processing device 100 can be connected to a CAN (Control Area Network) included in the vehicle 1. The recognition processing device 100 performs person recognition for recognizing a person such as a pedestrian or the like in a video image captured by the infrared camera 2 by using a recognition dictionary. Details will be described later. Note that, hereinafter, the term “video” also means “video data representing a video” as a processing target in information processing. Similarly, hereinafter, the term "image" also means "image data representing an image" as a processing target in information processing. The term "voice" also means "voice data indicating voice" as a processing target in information processing.

図2は、実施の形態1にかかる認識処理装置100及び認識処理装置100を有する認識システム50の構成を示す図である。実施の形態1にかかる認識システム50は、赤外線カメラ2と、可視光カメラ4と、認識辞書記憶部20と、表示部30と、認識処理装置100とを有する。なお、認識処理装置100は、赤外線カメラ2、可視光カメラ4、認識辞書記憶部20及び表示部30の少なくとも1つを有してもよい。 FIG. 2 is a diagram showing a configuration of the recognition processing device 100 and the recognition system 50 including the recognition processing device 100 according to the first embodiment. The recognition system 50 according to the first embodiment includes an infrared camera 2, a visible light camera 4, a recognition dictionary storage unit 20, a display unit 30, and a recognition processing device 100. The recognition processing device 100 may include at least one of the infrared camera 2, the visible light camera 4, the recognition dictionary storage unit 20, and the display unit 30.

認識辞書記憶部20は、認識処理装置100が人間以外の動物を認識するために使用される認識辞書である動物認識辞書に関する辞書データを記憶する。なお、以降、人間以外の動物を、単に「動物」と称する。認識辞書は、例えば、機械学習によって生成される学習済みモデルである。動物認識辞書は、例えば、様々な動物を撮影した多数の映像(赤外線映像)を用いて機械学習により生成され得る。認識辞書は、認識処理装置100が、映像において動物を検出する際に用いられる。なお、用語「認識辞書」は、情報処理における処理対象としての、「認識辞書を示す辞書データ」も意味する。 The recognition dictionary storage unit 20 stores dictionary data regarding an animal recognition dictionary, which is a recognition dictionary used by the recognition processing device 100 to recognize animals other than humans. Note that animals other than humans will be simply referred to as “animals” hereinafter. The recognition dictionary is, for example, a learned model generated by machine learning. The animal recognition dictionary can be generated by machine learning using a large number of images (infrared images) of various animals. The recognition dictionary is used by the recognition processing device 100 when detecting an animal in a video. The term "recognition dictionary" also means "dictionary data indicating a recognition dictionary" as a processing target in information processing.

表示部30は、例えばディスプレイ等である。表示部30は、認識処理装置100の制御により映像を表示する。なお、表示部30は、スピーカを含んでもよい。この場合、表示部30は、スピーカから音声を出力してもよい。また、認識処理装置100が車両1に搭載される場合、表示部30は、車両1の内部に、車両の運転者が運転中に視認できる位置に設けられる。この場合、表示部30は、後述するインタフェース部108によって実現されてもよい。 The display unit 30 is, for example, a display or the like. The display unit 30 displays an image under the control of the recognition processing device 100. The display unit 30 may include a speaker. In this case, the display unit 30 may output sound from the speaker. Further, when the recognition processing device 100 is mounted on the vehicle 1, the display unit 30 is provided inside the vehicle 1 at a position where the driver of the vehicle can visually recognize it while driving. In this case, the display unit 30 may be realized by the interface unit 108 described later.

認識処理装置100は、主要なハードウェア構成として、制御部102と、記憶部104と、通信部106と、インタフェース部108(IF;Interface)とを有する。制御部102、記憶部104、通信部106及びインタフェース部108は、データバスなどを介して相互に接続されている。つまり、認識処理装置100は、コンピュータとしての機能を有する。 The recognition processing device 100 includes a control unit 102, a storage unit 104, a communication unit 106, and an interface unit 108 (IF; Interface) as a main hardware configuration. The control unit 102, the storage unit 104, the communication unit 106, and the interface unit 108 are connected to each other via a data bus or the like. That is, the recognition processing device 100 has a function as a computer.

制御部102は、例えばCPU(Central Processing Unit)等のプロセッサである。制御部102は、制御処理及び演算処理等を行う演算装置としての機能を有する。記憶部104は、例えばメモリ又はハードディスク等の記憶デバイスである。記憶部104は、例えばROM(Read Only Memory)又はRAM(Random Access Memory)等である。記憶部104は、制御部102によって実行される制御プログラム及び演算プログラム等を記憶するための機能を有する。また、記憶部104は、処理データ等を一時的に記憶するための機能を有する。 The control unit 102 is a processor such as a CPU (Central Processing Unit). The control unit 102 has a function as an arithmetic device that performs control processing, arithmetic processing, and the like. The storage unit 104 is a storage device such as a memory or a hard disk. The storage unit 104 is, for example, a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 104 has a function of storing a control program and a calculation program executed by the control unit 102. The storage unit 104 also has a function of temporarily storing processed data and the like.

通信部106は、外部の装置と通信を行うために必要な処理を行う。通信部106は、通信ポートを含み得る。インタフェース部108(IF;Interface)は、例えばユーザインタフェース(UI)である。インタフェース部108は、キーボード、タッチパネル又はマウス等の入力装置と、ディスプレイ又はスピーカ等の出力装置とを有する。 The communication unit 106 performs a process necessary for communicating with an external device. The communication unit 106 may include a communication port. The interface unit 108 (IF; Interface) is, for example, a user interface (UI). The interface unit 108 has an input device such as a keyboard, a touch panel or a mouse, and an output device such as a display or a speaker.

また、認識処理装置100は、映像取得部112と、認識処理部120と、算出部122と、推定部130と、表示制御部140とを有する。推定部130は、大きさ推定部132と、距離推定部134とを有する。映像取得部112、認識処理部120、算出部122、推定部130及び表示制御部140は、例えば、制御部102の制御によってまたは制御部102の機能として、プログラムを実行させることによって実現できる。より具体的には、映像取得部112、認識処理部120、算出部122、推定部130及び表示制御部140は、記憶部104に格納されたプログラムを、制御部102が実行することによって実現され得る。また、必要なプログラムを任意の不揮発性記録媒体に記録しておき、必要に応じてインストールすることで、映像取得部112、認識処理部120、算出部122、推定部130及び表示制御部140を実現するようにしてもよい。 The recognition processing device 100 also includes a video acquisition unit 112, a recognition processing unit 120, a calculation unit 122, an estimation unit 130, and a display control unit 140. The estimation unit 130 includes a size estimation unit 132 and a distance estimation unit 134. The image acquisition unit 112, the recognition processing unit 120, the calculation unit 122, the estimation unit 130, and the display control unit 140 can be realized by executing a program under the control of the control unit 102 or as a function of the control unit 102. More specifically, the image acquisition unit 112, the recognition processing unit 120, the calculation unit 122, the estimation unit 130, and the display control unit 140 are realized by the control unit 102 executing the programs stored in the storage unit 104. obtain. In addition, the necessary program is recorded in an arbitrary non-volatile recording medium and installed as needed, so that the video acquisition unit 112, the recognition processing unit 120, the calculation unit 122, the estimation unit 130, and the display control unit 140 can be stored. It may be realized.

また、映像取得部112、認識処理部120、算出部122、推定部130及び表示制御部140は、プログラムによるソフトウェアで実現することに限られない。映像取得部112、認識処理部120、算出部122、推定部130及び表示制御部140は、ハードウェア、ファームウェア及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、映像取得部112、認識処理部120、算出部122、推定部130及び表示制御部140は、例えばFPGA(field-programmable gate array)又はマイコン等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、上記の各構成要素から構成されるプログラムを実現してもよい。 Moreover, the image acquisition unit 112, the recognition processing unit 120, the calculation unit 122, the estimation unit 130, and the display control unit 140 are not limited to being realized by software according to a program. The image acquisition unit 112, the recognition processing unit 120, the calculation unit 122, the estimation unit 130, and the display control unit 140 may be realized by any combination of hardware, firmware, and software. In addition, the image acquisition unit 112, the recognition processing unit 120, the calculation unit 122, the estimation unit 130, and the display control unit 140 use a user programmable integrated circuit such as an FPGA (field-programmable gate array) or a microcomputer. May be realized. In this case, the integrated circuit may be used to realize a program including the above-described components.

映像取得部112は、周囲を撮影した映像を取得する。具体的には、映像取得部112は、赤外線カメラ2から赤外線映像を取得する。また、映像取得部112は、可視光カメラ4から可視光映像を取得する。 The image acquisition unit 112 acquires an image of the surroundings. Specifically, the image acquisition unit 112 acquires an infrared image from the infrared camera 2. Further, the image acquisition unit 112 acquires a visible light image from the visible light camera 4.

認識処理部120は、映像から、動物と動物の2つの目の反射とを認識する。具体的には、認識処理部120は、赤外線映像から、動物認識辞書を用いて動物を認識する。さらに具体的には、認識処理部120は、赤外線映像から、動物の可能性のある物体を検出し、その物体が動物であると認識する。また、認識処理部120は、可視光映像において、動物認識辞書を用いて動物と認識された物体に対応する範囲に2つの光が検出された場合に、この2つの光が動物の2つの目の反射と認識する。詳しくは後述する。 The recognition processing unit 120 recognizes the animal and the reflection of the two eyes of the animal from the image. Specifically, the recognition processing unit 120 recognizes an animal from an infrared image using an animal recognition dictionary. More specifically, the recognition processing unit 120 detects an object that may be an animal from the infrared image and recognizes that the object is an animal. In addition, the recognition processing unit 120 detects, when two lights are detected in a range corresponding to an object recognized as an animal using the animal recognition dictionary in the visible light image, these two lights are the two eyes of the animal. Recognized as a reflection of. Details will be described later.

なお、夜間等において、動物は、車両1のヘッドライト等を浴びると、ヘッドライトの光源側つまり車両1の方向を向く傾向がある。また、この場合、動物の目は、車両1のヘッドライト等の光を反射して光って見える。したがって、可視光映像に、その動物の2つの目の反射光が現れ得る。動物の目の反射光とは、車両1のヘッドライト等の光が動物の目に入射すると、眼球奥の輝板に光が反射した光である。 It should be noted that at night or the like, when the animal is exposed to the headlight of the vehicle 1 or the like, the animal tends to face the light source side of the headlight, that is, the direction of the vehicle 1. In this case, the eyes of the animal appear to shine by reflecting light from the headlights of the vehicle 1 or the like. Therefore, in the visible light image, the reflected light of two eyes of the animal may appear. The reflected light of the eyes of the animal is the light reflected by the bright plate behind the eyes when the light of the headlight of the vehicle 1 enters the eyes of the animal.

また、認識処理部120は、映像取得部112によって取得された映像データに対し、映像データを構成するフレーム毎、又は所定間隔のフレーム毎に、動物の認識処理を行う。ここで、赤外線カメラ2の画角は、可視光カメラ4の画角と略一致しているとする。映像取得部112は、互いに同じタイミングで撮影された赤外線映像データのフレームと可視光映像データのフレームとを対応付ける。そして、映像取得部112は、赤外線カメラ2の位置と可視光カメラ4の位置とのずれに応じて赤外線映像のフレームと可視光映像のフレームとの位置関係を校正する。これにより、同じタイミングで撮影された赤外線映像と可視光映像との位置座標が概ね一致する。したがって、これらの赤外線映像と可視光映像とを重ね合せたときに、両者に写った物体の位置が一致し得る。なお、映像取得部112によって行われる上述したような校正処理は、認識処理部120が行ってもよい。 Further, the recognition processing unit 120 performs the animal recognition process on the video data acquired by the video acquisition unit 112 for each frame forming the video data or for each frame at a predetermined interval. Here, it is assumed that the angle of view of the infrared camera 2 is substantially the same as the angle of view of the visible light camera 4. The image acquisition unit 112 associates frames of infrared image data and frames of visible light image data, which are captured at the same timing with each other. Then, the image acquisition unit 112 calibrates the positional relationship between the infrared image frame and the visible light image frame in accordance with the displacement between the position of the infrared camera 2 and the position of the visible light camera 4. As a result, the position coordinates of the infrared image and the visible light image captured at the same timing are substantially the same. Therefore, when the infrared image and the visible light image are superposed, the positions of the objects shown in the two images may coincide with each other. The recognition processing unit 120 may perform the above-described calibration process performed by the image acquisition unit 112.

算出部122は、可視光映像における、動物の2つの目の間の距離つまり間隔を算出する。推定部130は、動物に関する推定を行う。大きさ推定部132は、2つの目の反射から得られる2つの目の間の距離に基づいて、動物の大きさを推定する。距離推定部134は、推定された動物の大きさ又は2つの目の間の距離に基づいて、動物までの距離を推定する。詳しくは後述する。 The calculation unit 122 calculates the distance between two eyes of the animal, that is, the distance in the visible light image. The estimation unit 130 estimates the animal. The size estimation unit 132 estimates the size of the animal based on the distance between the two eyes obtained from the reflection of the two eyes. The distance estimation unit 134 estimates the distance to the animal based on the estimated size of the animal or the distance between the two eyes. Details will be described later.

なお、動物の目の間隔は、その動物の種類又は大きさによらず、概ね同じ距離であり得る。つまり、動物の体の大きさ(体長又は体高など)の個体差と比較して、動物の目の間隔の個体差は、はるかに小さい。例えば、動物の目の間隔は、概ね15cm〜20cm前後であり得る。本実施の形態では、動物のこのような性質を利用する。 It should be noted that the distance between the eyes of the animal may be approximately the same distance regardless of the type or size of the animal. That is, the individual difference in the eye distance of the animal is much smaller than the individual difference in the body size (body length or body height) of the animal. For example, the eye distance of an animal can be approximately around 15 cm to 20 cm. In the present embodiment, such a property of animals is utilized.

表示制御部140は、認識処理部120及び推定部130の処理結果に応じて、表示部30に画像を表示させるための制御を行う。例えば、表示制御部140は、認識処理部120によって動物が認識されたときに、動物が車両1の前方等に存在する旨の警告を、表示部30に表示させてもよい。また、表示制御部140は、推定部130によって推定された動物の大きさ及び車両1から動物までの距離を、表示部30に表示させてもよい。 The display control unit 140 performs control for displaying an image on the display unit 30 according to the processing results of the recognition processing unit 120 and the estimation unit 130. For example, the display control unit 140 may cause the display unit 30 to display a warning that the animal exists in front of the vehicle 1 or the like when the recognition processing unit 120 recognizes the animal. The display control unit 140 may also cause the display unit 30 to display the size of the animal and the distance from the vehicle 1 to the animal estimated by the estimation unit 130.

図3は、実施の形態1にかかる認識処理方法を示すフローチャートである。映像取得部112は、赤外線カメラ2から赤外線映像を取得する(ステップS102)。また、映像取得部112は、可視光カメラ4から可視光映像を取得する(ステップS104)。認識処理部120は、上述したように、赤外線映像から、動物認識辞書を用いて動物を認識する(ステップS106)。 FIG. 3 is a flowchart showing the recognition processing method according to the first embodiment. The image acquisition unit 112 acquires an infrared image from the infrared camera 2 (step S102). Further, the image acquisition unit 112 acquires a visible light image from the visible light camera 4 (step S104). As described above, the recognition processing unit 120 recognizes an animal from the infrared image using the animal recognition dictionary (step S106).

動物が認識されると(ステップS108のYES)、認識処理部120は、可視光映像において、動物の2つの目の反射を検出する(ステップS110)。具体的には、認識処理部120は、赤外線映像データのフレームと可視光映像データのフレームとが重畳された重畳画像において、S106の処理で動物認識辞書を用いて動物と認識された物体に対応する範囲に、2つの光が検出されたか否かを判定する。そして、認識処理部120は、この範囲に2つの光が検出された場合に、この2つの光が動物の2つの目の反射と認識する。ステップS108の処理は、赤外線映像から動物であると認識され、動物の頭部であると判断された範囲において、2つの光が検出されたか否かを判定することとしてもよい。 When the animal is recognized (YES in step S108), the recognition processing unit 120 detects the reflection of the second eye of the animal in the visible light image (step S110). Specifically, the recognition processing unit 120 corresponds to an object recognized as an animal by using the animal recognition dictionary in the processing of S106 in the superimposed image in which the frame of the infrared video data and the frame of the visible light video data are superimposed. It is determined whether or not two lights are detected within the range. Then, when the two lights are detected in this range, the recognition processing unit 120 recognizes these two lights as the reflection of the two eyes of the animal. The process of step S108 may be performed by determining whether or not two lights are detected in the range in which the animal is recognized from the infrared image and is determined to be the head of the animal.

動物の2つの目の反射が検出されると(ステップS112のYES)、算出部122は、可視光映像又は重畳画像における、動物の2つの目の間の距離を算出する(ステップS120)。具体的には、算出部122は、可視光映像又は重畳画像における、2つの目の反射にそれぞれ対応する画素の間の画素数を算出する。または、算出部122は、可視光映像又は重畳画像における、2つの目の反射にそれぞれ対応する画素の間の距離を算出してもよい。 When the reflection of the two eyes of the animal is detected (YES in step S112), the calculation unit 122 calculates the distance between the two eyes of the animal in the visible light image or the superimposed image (step S120). Specifically, the calculation unit 122 calculates the number of pixels between the pixels corresponding to the reflection of the two eyes in the visible light image or the superimposed image. Alternatively, the calculation unit 122 may calculate the distance between the pixels corresponding to the reflection of the two eyes in the visible light image or the superimposed image.

大きさ推定部132は、算出された2つの目の間の距離に基づいて、S106の処理で認識された動物の大きさを推定する(ステップS122)。具体的には、上述したように、動物の目の間隔は、動物によらないで概ね一定であり得る。そこで、この動物の目の間隔をD(cm)とする。ここで、Dは、予め定められた一定値であり得る。以下、図4を用いて説明する。 The size estimation unit 132 estimates the size of the animal recognized in the process of S106 based on the calculated distance between the two eyes (step S122). Specifically, as mentioned above, the eye distance of an animal can be generally constant independent of the animal. Therefore, the distance between the eyes of this animal is D (cm). Here, D may be a predetermined constant value. This will be described below with reference to FIG.

図4は、動物の大きさの推定処理を説明するための図である。図4は、動物90が撮影された赤外線映像に、動物の目92の反射が撮影された可視光映像が重畳された重畳画像である。この重畳画像における2つの目92の間の距離をdとする。また、重畳画像における動物90の胴体の横幅に対応する距離をwとする。また、重畳画像における動物90の体高に対応する距離をhとする。この場合、大きさ推定部132は、動物90の実際の胴体の横幅の推定値Wを、W=D*w/dと算出する。また、大きさ推定部132は、動物90の実際の体高の推定値Hを、H=D*h/dと算出する。 FIG. 4 is a diagram for explaining the process of estimating the size of an animal. FIG. 4 is a superimposed image in which a visible light image in which the reflection of the eye 92 of the animal is captured is superimposed on an infrared image in which the animal 90 is captured. The distance between the two eyes 92 in this superimposed image is d. Further, the distance corresponding to the lateral width of the body of the animal 90 in the superimposed image is w. In addition, the distance corresponding to the body height of the animal 90 in the superimposed image is h. In this case, the size estimating unit 132 calculates the estimated value W of the actual width of the body of the animal 90 as W=D*w/d. Further, the size estimation unit 132 calculates the estimated value H of the actual body height of the animal 90 as H=D*h/d.

距離推定部134は、推定された動物の大きさ又は算出された2つの目の間の距離に基づいて、赤外線カメラ2から動物までの距離を推定する(ステップS124)。赤外線カメラ2から動物までの距離は、認識システム50から動物までの距離としてもよく、認識システム50が車両1に搭載されている場合は、車両1から動物までの距離としてもよい。具体的には、距離推定部134は、例えば、以下の2つの方法により、赤外線カメラ2から動物までの距離を算出する。しかしながら、動物までの距離を算出する方法は、以下の方法に限られない。 The distance estimation unit 134 estimates the distance from the infrared camera 2 to the animal based on the estimated size of the animal or the calculated distance between the two eyes (step S124). The distance from the infrared camera 2 to the animal may be the distance from the recognition system 50 to the animal, or when the recognition system 50 is mounted on the vehicle 1, it may be the distance from the vehicle 1 to the animal. Specifically, the distance estimation unit 134 calculates the distance from the infrared camera 2 to the animal by the following two methods, for example. However, the method of calculating the distance to the animal is not limited to the following method.

図4に例示するように、赤外線映像の上端から下端まで動物が写りこんでいる場合、赤外線映像のフレーム高さはhとなり、hに対応する実際の高さはHである。そして、赤外線カメラ2の画角をθ、赤外線カメラ2から動物までの距離をLとする。この場合、以下の式(1)が成り立つ。
tan(θ/2)=H/2L ・・・(1)
したがって、距離推定部134は、赤外線カメラ2から動物までの距離Lを、以下の式(2)によって算出する。
L=H/{2*tan(θ/2)} ・・・(2)
As illustrated in FIG. 4, when an animal is reflected from the upper end to the lower end of the infrared image, the frame height of the infrared image is h, and the actual height corresponding to h is H. The angle of view of the infrared camera 2 is θ, and the distance from the infrared camera 2 to the animal is L. In this case, the following expression (1) is established.
tan (θ/2)=H/2L (1)
Therefore, the distance estimation unit 134 calculates the distance L from the infrared camera 2 to the animal by the following formula (2).
L=H/{2*tan(θ/2)} (2)

あるいは、赤外線カメラ2及び可視光カメラ4の焦点距離をfとすると、重畳画像における2つの目の間の距離dを用いて、以下の式(3)が成り立つ。
f:d=L:D ・・・(3)
したがって、距離推定部134は、赤外線カメラ2から動物までの距離Lを、以下の式(4)によって算出する。
L=D*(f/d) ・・・(4)
Alternatively, assuming that the focal lengths of the infrared camera 2 and the visible light camera 4 are f, the following formula (3) is established using the distance d between the two eyes in the superimposed image.
f:d=L:D (3)
Therefore, the distance estimation unit 134 calculates the distance L from the infrared camera 2 to the animal by the following formula (4).
L=D*(f/d) (4)

上述したように、本実施の形態にかかる認識処理装置100は、映像から、動物と動物の2つの目の反射とを認識し、2つの目の間の距離に基づいて、動物の大きさを推定するように構成されている。ここで、上述したように、動物の2つの目の間の距離は、個体差によらず略一定であり得る。これにより、動物の大きさを精度よく推定することが可能となる。 As described above, the recognition processing device 100 according to the present embodiment recognizes the animal and the reflection of the two eyes of the animal from the image, and determines the size of the animal based on the distance between the two eyes. Is configured to estimate. Here, as described above, the distance between the two eyes of the animal may be substantially constant regardless of individual differences. This makes it possible to accurately estimate the size of the animal.

また、本実施の形態にかかる認識処理装置100は、推定された動物の大きさ又は2つの目の間の距離に基づいて、赤外線カメラ2から動物までの距離を推定するように構成されている。上述したように、推定された動物の大きさは概ね動物の実際の動物の大きさに対応している。また、上述したように、動物の2つの目の間の距離は、個体差によらず略一定であり得る。したがって、上記のように構成されていることにより、赤外線カメラ2から動物までの距離を精度よく推定することが可能となる。 Further, the recognition processing device 100 according to the present embodiment is configured to estimate the distance from the infrared camera 2 to the animal based on the estimated size of the animal or the distance between the two eyes. .. As mentioned above, the estimated animal size generally corresponds to the actual animal size of the animal. Further, as described above, the distance between the two eyes of the animal can be substantially constant regardless of individual differences. Therefore, with the configuration as described above, it is possible to accurately estimate the distance from the infrared camera 2 to the animal.

また、本実施の形態にかかる認識処理装置100は、赤外線映像から動物を認識し、可視光映像において、動物と認識された物体に対応する範囲に2つの光が検出された場合に、2つの光が動物の2つの目の反射と認識するように構成されている。これにより、2つの光が確実に動物の目の反射であると認識することが可能となる。 Further, the recognition processing device 100 according to the present embodiment recognizes an animal from an infrared image, and when two lights are detected in a range corresponding to an object recognized as an animal in the visible light image, two lights are detected. The light is configured to be recognized as a reflection of the animal's two eyes. This makes it possible to reliably recognize that the two lights are reflections of the animal's eyes.

また、上記実施の形態において、認識処理部120は、赤外線映像から動物認識辞書を用いて、動物の種別を認識してもよい。この場合、大きさ推定部132は、認識された動物の種別に対応した動物の2つの目の間の距離を用いて、動物の大きさを推定するため、より精度よく、動物の大きさを推定できる。 Further, in the above embodiment, the recognition processing unit 120 may recognize the type of animal from the infrared image by using the animal recognition dictionary. In this case, since the size estimation unit 132 estimates the size of the animal using the distance between the two eyes of the animal corresponding to the recognized type of animal, the size of the animal can be calculated more accurately. Can be estimated.

(変形例) なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述したフローチャートにおける各処理の順序は、適宜、変更可能である。また、上述したフローチャートにおける各処理のうちの1つ以上は、省略され得る。 (Modification) The present invention is not limited to the above-described embodiment, but can be modified as appropriate without departing from the spirit of the present invention. For example, the order of each process in the above-described flowchart can be changed as appropriate. Also, one or more of the processes in the above-described flowchart may be omitted.

例えば、図3のフローチャートにおいて、S104の処理は、S108の処理の後など、S106の処理以降で実行されてもよい。また、S122の処理とS124の処理の順序は逆でもよい。つまり、動物の大きさではなく動物の2つ目の距離から動物までの距離を推定する場合は、S124の処理をS122の処理の前に行ってもよい。 For example, in the flowchart of FIG. 3, the process of S104 may be executed after the process of S106, such as after the process of S108. The order of the processing of S122 and the processing of S124 may be reversed. That is, when estimating the distance to the animal from the second distance of the animal instead of the size of the animal, the process of S124 may be performed before the process of S122.

また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Further, the program described above can be stored using various types of non-transitory computer readable media and can be supplied to the computer. Non-transitory computer readable media include various types of tangible storage media. Examples of the non-transitory computer-readable medium include a magnetic recording medium (for example, flexible disk, magnetic tape, hard disk drive), magneto-optical recording medium (for example, magneto-optical disk), CD-ROM (Read Only Memory), CD-R, It includes a CD-R/W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)). In addition, the program may be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. The transitory computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

1 車両
2 赤外線カメラ
4 可視光カメラ
20 認識辞書記憶部
30 表示部
50 認識システム
100 認識処理装置
112 映像取得部
120 認識処理部
122 算出部
130 推定部
132 大きさ推定部
134 距離推定部
140 表示制御部
1 vehicle 2 infrared camera 4 visible light camera 20 recognition dictionary storage unit 30 display unit 50 recognition system 100 recognition processing device 112 image acquisition unit 120 recognition processing unit 122 calculation unit 130 estimation unit 132 size estimation unit 134 distance estimation unit 140 display control Department

Claims (5)

周囲を撮影するカメラが撮影した映像を取得する映像取得部と、
前記映像から、動物と前記動物の2つの目の反射とを認識する認識処理部と、
認識された前記2つの目の反射から得られる前記2つの目の間の距離に基づいて、前記動物の大きさを推定する推定部と
を有する認識処理装置。
An image acquisition unit that acquires the image captured by the camera that captures the surroundings,
A recognition processing unit that recognizes the animal and the reflection of the two eyes of the animal from the image;
An estimation unit that estimates the size of the animal based on the distance between the two eyes obtained from the recognized reflection of the two eyes.
前記推定部は、推定された前記動物の大きさ又は前記2つの目の間の距離に基づいて、前記カメラから前記動物までの距離を推定する
請求項1に記載の認識処理装置。
The recognition processing device according to claim 1, wherein the estimation unit estimates the distance from the camera to the animal based on the estimated size of the animal or the estimated distance between the two eyes.
前記映像取得部は、赤外線カメラによる赤外線映像と、可視光カメラによる可視光映像とを取得し、
前記認識処理部は、
前記赤外線映像から前記動物を認識し、
前記可視光映像において、前記動物と認識された物体に対応する範囲に2つの光が検出された場合に、前記2つの光が前記動物の2つの目の反射と認識する
請求項1又は2に記載の認識処理装置。
The image acquisition unit acquires an infrared image by an infrared camera and a visible light image by a visible light camera,
The recognition processing unit,
Recognizing the animal from the infrared image,
In the visible light image, when two lights are detected in a range corresponding to an object recognized as the animal, the two lights are recognized as reflection of two eyes of the animal. The recognition processing device described.
周囲を撮影した映像を取得し、
前記映像から、動物と前記動物の2つの目の反射とを認識し、
認識された前記2つの目の反射から得られる前記2つの目の間の距離に基づいて、前記動物の大きさを推定する
認識処理方法。
Get a video of the surroundings,
Recognizing the animal and the two eye reflections of the animal from the image,
A recognition processing method for estimating the size of the animal based on the distance between the two eyes obtained from the recognized reflection of the two eyes.
周囲を撮影した映像を取得するステップと、
前記映像から、動物と前記動物の2つの目の反射とを認識するステップと、
認識された前記2つの目の反射から得られる前記2つの目の間の距離に基づいて、前記動物の大きさを推定するステップと
をコンピュータに実行させるプログラム。
A step of acquiring a video image of the surrounding area,
Recognizing the animal and the reflexes of the animal's two eyes from the image;
A step of estimating the size of the animal based on the distance between the two eyes obtained from the recognized reflection of the two eyes.
JP2018224455A 2018-11-30 2018-11-30 Recognition processing apparatus, recognition processing method, and program Pending JP2020087233A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018224455A JP2020087233A (en) 2018-11-30 2018-11-30 Recognition processing apparatus, recognition processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018224455A JP2020087233A (en) 2018-11-30 2018-11-30 Recognition processing apparatus, recognition processing method, and program

Publications (1)

Publication Number Publication Date
JP2020087233A true JP2020087233A (en) 2020-06-04

Family

ID=70908429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018224455A Pending JP2020087233A (en) 2018-11-30 2018-11-30 Recognition processing apparatus, recognition processing method, and program

Country Status (1)

Country Link
JP (1) JP2020087233A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023249368A1 (en) * 2022-06-23 2023-12-28 주식회사 시고르자브종 Method for predicting size of animal on basis of animal image and electronic device for performing same method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023249368A1 (en) * 2022-06-23 2023-12-28 주식회사 시고르자브종 Method for predicting size of animal on basis of animal image and electronic device for performing same method

Similar Documents

Publication Publication Date Title
JP4612635B2 (en) Moving object detection using computer vision adaptable to low illumination depth
US8620066B2 (en) Three-dimensional object determining apparatus, method, and computer program product
US20110304746A1 (en) Image capturing device, operator monitoring device, method for measuring distance to face, and program
CA3010997C (en) Passenger counting device, system, method and program, and vehicle movement amount calculation device, method and program
US20180326905A1 (en) On-vehicle apparatus, alert output method, and computer readable medium
US9798936B2 (en) System and method for detecting obstacles using a single camera
JPWO2018042481A1 (en) Imaging apparatus and imaging method
WO2015125297A1 (en) Local location computation device and local location computation method
JP2018125639A (en) Thermal image processing apparatus, infrared imaging apparatus, thermal image processing method, and thermal image processing program
US20140267758A1 (en) Stereo infrared detector
JP2015011713A (en) Vehicle detection method and device
WO2019202969A1 (en) Recognition device, recognition method, and recognition program
JP2013257244A (en) Distance measurement device, distance measurement method, and distance measurement program
JP2020087233A (en) Recognition processing apparatus, recognition processing method, and program
KR20120086962A (en) System and method for detecting distance between forward vehicle using image in navigation for vehicle
JP2008026999A (en) Obstacle detection system and obstacle detection method
US10572753B2 (en) Outside recognition device for vehicle
JP7040627B2 (en) Calculator, information processing method and program
TWI645997B (en) Obstacle detection credibility evaluation method
JP5272818B2 (en) Image processing apparatus and method, and program
KR102441048B1 (en) Apparatus and Method for Detecting Vehicle Proximity
JP2005176031A (en) Onboard obstacle detector
JP2008146132A (en) Image detection device, program, and image detection method
JP6674127B2 (en) Image processing device, photographing device, program, device control system and device
JP2021051348A (en) Object distance estimation apparatus and object distance estimation method