JP2019007744A - Object sensing device, program, and object sensing system - Google Patents

Object sensing device, program, and object sensing system Download PDF

Info

Publication number
JP2019007744A
JP2019007744A JP2017120624A JP2017120624A JP2019007744A JP 2019007744 A JP2019007744 A JP 2019007744A JP 2017120624 A JP2017120624 A JP 2017120624A JP 2017120624 A JP2017120624 A JP 2017120624A JP 2019007744 A JP2019007744 A JP 2019007744A
Authority
JP
Japan
Prior art keywords
detection
information
imaging
determination unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017120624A
Other languages
Japanese (ja)
Inventor
篤史 長谷部
Atsushi Hasebe
篤史 長谷部
陽平 船津
Yohei Funatsu
陽平 船津
喜央 ▲高▼山
喜央 ▲高▼山
Yoshiteru TAKAYAMA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017120624A priority Critical patent/JP2019007744A/en
Publication of JP2019007744A publication Critical patent/JP2019007744A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

To enhance accuracy of a sensing result of an object using imaging information.SOLUTION: An object sensing device 40 according to the present disclosure comprises: an imaging information acquisition unit 41 which acquires imaging information acquired by imaging a predetermined visual field range; a distance image acquisition unit 43 as a detection information acquisition unit, which acquires detection information of a reflected wave of an electromagnetic wave applied to at least one position in the predetermined visual field range; an imaging information processing unit 42 as an object sensing unit, which performs sensing processing of an object in the predetermined visual field range on the basis of the imaging information; and a determination unit 45 which determines correctness of a sensing result from the sensing processing on the basis of the detection information.SELECTED DRAWING: Figure 1

Description

本開示は、物体検知装置、プログラムおよび物体検知システムに関する。   The present disclosure relates to an object detection device, a program, and an object detection system.

特許文献1には、車両に搭載されたレーザレーダおよび撮像装置(カメラ)を用いて、車両の周辺の物体(他の車両、歩行者など)を検知する技術が開示されている。この技術では、レーザレーダにより、レーザビームの反射強度が大きい物体(車両など)と反射強度が小さい物体(歩行者など)とが区別される。そして、撮像装置の撮像画像(撮像情報)に対する画像処理による物体の検知の際に、レーザレーダの検出結果に基づき、反射強度が大きい物体と反射強度が小さい物体とが区別して検知される。   Patent Document 1 discloses a technique for detecting an object (such as another vehicle or a pedestrian) around the vehicle using a laser radar and an imaging device (camera) mounted on the vehicle. In this technique, an object having a high laser beam reflection intensity (such as a vehicle) and an object having a low reflection intensity (such as a pedestrian) are distinguished by laser radar. Then, when detecting an object by image processing on a captured image (imaging information) of the imaging apparatus, an object having a high reflection intensity and an object having a low reflection intensity are detected based on the detection result of the laser radar.

特開2007−240314号公報JP 2007-240314 A

上述したような、撮像装置の撮像情報を用いた物体の検知処理においては、検知結果の精度の更なる向上が求められている。   In the object detection process using the imaging information of the imaging apparatus as described above, further improvement in the accuracy of the detection result is required.

上記のような問題点に鑑みてなされた本開示の目的は、撮像情報を用いた物体の検知結果の精度の向上を図ることにある。   An object of the present disclosure made in view of the above problems is to improve the accuracy of the detection result of an object using imaging information.

上述した課題を解決すべく、第1の観点による物体検知装置は、所定の視野範囲を撮像した撮像情報を取得する撮像情報取得部と、前記所定の視野範囲内の少なくとも1つの位置に照射された電磁波の反射波の検出情報を取得する検出情報取得部と、前記撮像情報に基づいて、前記所定の視野範囲内の物体の検知処理を行う物体検知部と、前記検出情報に基づいて、前記検知処理による検知結果の正誤を判定する判定部と、を備える。   In order to solve the above-described problem, an object detection device according to a first aspect is irradiated with an imaging information acquisition unit that acquires imaging information obtained by imaging a predetermined visual field range, and at least one position within the predetermined visual field range. A detection information acquisition unit that acquires detection information of the reflected wave of the electromagnetic wave, an object detection unit that performs detection processing of an object within the predetermined visual field range based on the imaging information, and the detection information based on the detection information, And a determination unit that determines whether the detection result by the detection process is correct or incorrect.

また、第2の観点によるプログラムは、コンピュータに、所定の視野範囲を撮像した撮像情報を取得するステップと、前記所定の視野範囲内の少なくとも1つの位置に照射した電磁波の反射波の検出情報を取得するステップと、前記撮像情報に基づいて、前記所定の視野範囲内の物体の検知処理を行うステップと、前記検出情報に基づいて、前記検知処理による検知結果の正誤を判定するステップと、を実行させる。   The program according to the second aspect includes a step of acquiring imaging information obtained by imaging a predetermined visual field range in a computer, and detection information of a reflected wave of an electromagnetic wave irradiated to at least one position within the predetermined visual field range. Acquiring, based on the imaging information, performing detection processing of an object within the predetermined visual field range, and determining whether the detection result by the detection processing is correct based on the detection information. Let it run.

また、第3の観点による物体検知システムは、撮像装置と、電磁波を放射する電磁波放射装置と、前記電磁波の反射波を検出する電磁波検出装置と、物体検知装置とを備え、前記物体検知装置は、前記撮像装置が所定の視野範囲を撮像した撮像情報を取得する撮像情報取得部と、前記所定の視野範囲内の少なくとも1つの位置に照射された電磁波の反射波の検出情報を取得する検出情報取得部と、前記撮像情報に基づいて、前記所定の視野範囲内の物体の検知処理を行う物体検知部と、前記検出情報に基づいて、前記検知処理による検知結果の正誤を判定する判定部と、を備える。   An object detection system according to a third aspect includes an imaging device, an electromagnetic wave emission device that radiates electromagnetic waves, an electromagnetic wave detection device that detects reflected waves of the electromagnetic waves, and an object detection device, wherein the object detection device includes: An imaging information acquisition unit that acquires imaging information obtained by imaging the predetermined visual field range by the imaging device, and detection information that acquires detection information of reflected waves of electromagnetic waves irradiated to at least one position within the predetermined visual field range An acquisition unit, an object detection unit that performs detection processing of an object within the predetermined visual field range based on the imaging information, and a determination unit that determines whether the detection result by the detection processing is correct based on the detection information; .

本開示によれば、撮像情報を用いた物体の検知結果の精度の向上を図ることができる。   According to the present disclosure, it is possible to improve the accuracy of the detection result of an object using imaging information.

本開示の一実施形態に係る物体検知システムの構成の一例を示す図である。It is a figure showing an example of composition of an object detection system concerning one embodiment of this indication. 図1に示す撮像装置の撮像画像の一例を示す図である。It is a figure which shows an example of the captured image of the imaging device shown in FIG. 図1に示す撮像情報処理部による物体の検知結果の一例を示す図である。It is a figure which shows an example of the detection result of the object by the imaging information processing part shown in FIG. 図1に示す撮像情報処理部による物体の検知結果の一例を示す図である。It is a figure which shows an example of the detection result of the object by the imaging information processing part shown in FIG. 図1に示す距離画像センサが取得する距離画像の一例を示す図である。It is a figure which shows an example of the distance image which the distance image sensor shown in FIG. 1 acquires. 図1に示す判定部による、撮像画像上の物体領域が実際の物体よりも小さく検知されているか否かを判定する場合の動作の一例を示すフローチャートである。It is a flowchart which shows an example of an operation | movement in the case of determining whether the object area | region on the captured image is detected smaller than an actual object by the determination part shown in FIG. 図1に示す判定部による、撮像画像上の物体領域が実際の物体よりも大きく検知されているか否かを判定する場合の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement in the case of determining whether the object area | region on the captured image is detected larger than the actual object by the determination part shown in FIG. 図1に示す撮像装置の撮像画像の一例を示す図である。It is a figure which shows an example of the captured image of the imaging device shown in FIG. 図1に示す判定部による、背景の模様などによる誤検知が検知結果に含まれるか否かを判定する場合の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement in the case of determining whether the misdetection by the background pattern etc. is contained in a detection result by the determination part shown in FIG. 図1に示す撮像装置による撮像状態の一例を示す図である。It is a figure which shows an example of the imaging state by the imaging device shown in FIG. 図9に示す状態での撮像装置の撮像画像を示す図である。It is a figure which shows the captured image of the imaging device in the state shown in FIG. 図1に示す判定部による、物体の重なりによる誤検知が検知結果に含まれるか否かを判定する場合の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement in the case of determining whether the misdetection by the overlapping of an object is contained in a detection result by the determination part shown in FIG. 図9に示す状態で距離画像センサにより得られる距離画像を示す図である。It is a figure which shows the distance image obtained by a distance image sensor in the state shown in FIG.

以下、本開示の実施の形態について図面を参照して例示説明する。なお、各図中、同一符号は、同一または同等の構成要素を示している。   Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In each figure, the same numerals indicate the same or equivalent components.

近年、自動車などの車両の自動運転の検討が進められている。車両の自動運転においては、車両の周辺の物体(他の車両、歩行者など)を検知する必要がある。そのため、例えば、特許文献1に開示されているように、車両に搭載された撮像装置による所定の視野範囲の撮像画像(撮像情報)に対する画像認識処理(物体の検知処理)により、視野範囲内の物体が検知される。   In recent years, studies on automatic driving of vehicles such as automobiles are underway. In automatic driving of a vehicle, it is necessary to detect an object (another vehicle, a pedestrian, etc.) around the vehicle. Therefore, for example, as disclosed in Patent Document 1, image recognition processing (object detection processing) for a captured image (imaging information) in a predetermined visual field range by an imaging device mounted on a vehicle is used. An object is detected.

上述したような撮像情報を用いた物体の検知処理では、ピクセル間の色の変化が大きい部分が、エッジという特徴として抽出される。ピクセル間の色の変化が大きい境目を隣り合う同様の境目とつないでいくことで、物体の形状が検知される。このような処理では、撮像情報の取得時の状況(物体への光の当たり具合など)によっては、正確な物体の検知が困難になることがある。   In the object detection process using the imaging information as described above, a portion having a large color change between pixels is extracted as a feature of an edge. The shape of the object is detected by connecting the boundary where the color change between the pixels is large to the adjacent boundary. In such processing, it may be difficult to accurately detect an object depending on the situation (such as how light strikes the object) at the time of acquisition of imaging information.

例えば、検知対象の物体(車両、人など)の近くに大きな物体が存在し、その物体の影が検知対象の物体に当たる場合、撮像情報において、検知対象の物体が部分的に見えない、あるいは、見にくくなることがある。この場合、影が当たった部分の検知は困難である。また、光源からの光が強い場合、撮像画像の全体が白っぽくなり、検知対象の物体と、その物体の周辺との間での色の変化が小さくなる。この場合、検知対象の物体の領域を超えて、周辺部分まで検知対象の物体であると誤検知されてしまうことがある。   For example, when a large object exists near the object to be detected (vehicle, person, etc.) and the shadow of the object hits the object to be detected, the object to be detected cannot be partially seen in the imaging information, or It may be difficult to see. In this case, it is difficult to detect a shadowed portion. When the light from the light source is strong, the entire captured image becomes whitish, and the color change between the object to be detected and the periphery of the object becomes small. In this case, the detection target object may be erroneously detected up to the peripheral part beyond the detection target object region.

また、例えば、似通った色の複数の物体が撮像装置から見て重畳して配置されている場合、撮像装置の撮像画像上では、異なる物体間の境目での色の変化が小さく、エッジを抽出することが困難となる。そのため、例えば、複数の物体が1つの物体であると誤検知されてしまうことがある。   In addition, for example, when a plurality of similar-colored objects are arranged so as to overlap each other when viewed from the imaging device, the color change at the boundary between different objects is small on the captured image of the imaging device, and an edge is extracted. Difficult to do. Therefore, for example, a plurality of objects may be erroneously detected as one object.

また、検知対象の物体(車両、人など)以外の背景の模様、パターンなどが、検知対象の物体の形状に類似する場合、背景が検知対象の物体であると誤検知されてしまうことがある。   Further, when the background pattern other than the detection target object (vehicle, person, etc.) is similar to the shape of the detection target object, the background may be erroneously detected as the detection target object. .

上述したように、撮像情報を用いた所定の視野範囲内の物体の検知処理による検知結果には、誤りが含まれることがある。このような誤りを検知し、補正などを行うことが、物体の検知結果の精度の向上に必要である。本開示においては、撮像情報を用いた物体の検知処理の検知結果の正誤を、所定の視野範囲内の照射した電磁波の反射波の検出情報に基づいて判定することで、物体の検知結果の精度の向上を図る。   As described above, an error may be included in the detection result by the detection processing of the object within the predetermined visual field range using the imaging information. It is necessary to detect such an error and correct it to improve the accuracy of the detection result of the object. In the present disclosure, the accuracy of the detection result of the object is determined by determining whether the detection result of the detection process of the object using the imaging information is correct or not based on the detection information of the reflected wave of the irradiated electromagnetic wave within a predetermined visual field range. To improve.

図1は、本実施形態に係る物体検知システム10の構成の一例を示す図である。本実施形態に係る物体検知システム10は、所定の視野範囲内の物体を検知し、検知結果の正誤を判定するものである。物体検知システム10は、例えば、車両の前方あるいは後方の所定の視野範囲内の物体の検知に用いられる。   FIG. 1 is a diagram illustrating an example of a configuration of an object detection system 10 according to the present embodiment. The object detection system 10 according to the present embodiment detects an object within a predetermined visual field range and determines whether the detection result is correct or incorrect. The object detection system 10 is used, for example, to detect an object within a predetermined visual field range in front of or behind the vehicle.

図1に示す物体検知システム10は、撮像装置20と、距離画像センサ30と、物体検知装置40とを備える。   The object detection system 10 illustrated in FIG. 1 includes an imaging device 20, a distance image sensor 30, and an object detection device 40.

撮像装置20は、例えば、カメラであり、所定の視野範囲を撮像した撮像情報(撮像画像)を取得する。撮像装置20の撮像情報は、所定の視野範囲内の物体および背景の色情報を示す。撮像装置20は、取得した撮像情報を物体検知装置40に出力する。   The imaging device 20 is a camera, for example, and acquires imaging information (captured image) obtained by imaging a predetermined visual field range. The imaging information of the imaging device 20 indicates color information of objects and backgrounds within a predetermined visual field range. The imaging device 20 outputs the acquired imaging information to the object detection device 40.

距離画像センサ30は、紫外線、可視光線、近赤外線などの電磁波を撮像装置20が撮像を行う所定の視野範囲の少なくとも1つの位置に照射し、その電磁波の反射波の検出情報を取得する。具体的には、距離画像センサ30は、撮像装置20の所定の視野範囲内に電磁波を照射する。距離画像センサ30は、その電磁波が照射位置(照射位置の物体)で反射した反射波を検出して、反射波の検出情報を取得する。   The distance image sensor 30 irradiates at least one position in a predetermined visual field range where the imaging device 20 captures an image such as ultraviolet rays, visible rays, and near infrared rays, and acquires detection information of reflected waves of the electromagnetic waves. Specifically, the distance image sensor 30 irradiates electromagnetic waves within a predetermined visual field range of the imaging device 20. The distance image sensor 30 detects the reflected wave reflected by the electromagnetic wave at the irradiation position (the object at the irradiation position), and acquires the detection information of the reflected wave.

反射波の検出情報には、例えば、電磁波の照射位置までの視方向の距離情報を示す情報が含まれる。距離画像センサ30から電磁波を放射し、その電磁波の反射波を検知するまでの時間差は、距離画像センサ30から電磁波の照射位置までの距離に依存する。したがって、上記の時間差を検出することで、電磁波の照射位置までの距離情報を求めることができる。距離情報は、上記の時間差を示す情報であってもよいし、その時間差に基づき求められる電磁波の照射位置までの距離を示す情報であってもよい。また、反射波の検出情報は、その反射波の強度を示す情報が含まれてもよい。   The reflected wave detection information includes, for example, information indicating distance information in the viewing direction to the irradiation position of the electromagnetic wave. The time difference from when the electromagnetic wave is radiated from the distance image sensor 30 to when the reflected wave of the electromagnetic wave is detected depends on the distance from the distance image sensor 30 to the irradiation position of the electromagnetic wave. Therefore, distance information to the irradiation position of the electromagnetic wave can be obtained by detecting the time difference. The distance information may be information indicating the above time difference, or may be information indicating the distance to the irradiation position of the electromagnetic wave obtained based on the time difference. The reflected wave detection information may include information indicating the intensity of the reflected wave.

距離画像センサ30は、撮像装置20の所定の視野範囲内の複数の位置への電磁波の照射およびその電磁波の反射波の検出により、所定の視野範囲内の複数の位置について検出情報を取得する。距離画像センサ30は、所定の視野範囲内の複数の位置について取得した検出情報を物体検知装置40に出力する。距離画像センサ30の出力は、所定の視野範囲内の複数の位置についての検出情報(視方向への距離に関する距離情報)を含むものである。したがって、それぞれの電磁波の照射位置からの反射波の検出情報を1つの画素における検出情報とすると、距離画像センサ30は、複数の画素が配置され、視野範囲における視方向への距離情報を画素毎に含む距離画像を出力する。   The distance image sensor 30 acquires detection information for a plurality of positions in the predetermined visual field range by irradiating the plural positions within the predetermined visual field range of the imaging device 20 and detecting a reflected wave of the electromagnetic waves. The distance image sensor 30 outputs detection information acquired for a plurality of positions within a predetermined visual field range to the object detection device 40. The output of the distance image sensor 30 includes detection information (distance information related to the distance in the viewing direction) for a plurality of positions within a predetermined visual field range. Therefore, if the detection information of the reflected wave from the irradiation position of each electromagnetic wave is the detection information in one pixel, the distance image sensor 30 has a plurality of pixels arranged, and the distance information in the viewing direction in the visual field range is displayed for each pixel. The distance image included in is output.

距離画像センサ30は、電磁波放射装置31と、電磁波検出装置32とを備える。   The distance image sensor 30 includes an electromagnetic wave radiation device 31 and an electromagnetic wave detection device 32.

電磁波放射装置31は、紫外線、可視光線、近赤外線などの電磁波を放射する。電磁波放射装置31は、LED(Light Emitting Diode)、LD(Laser Diode)などを含む。電磁波放射装置31から放射された電磁波は、撮像装置20が撮像する所定の視野範囲内に照射される。電磁波放射装置31から放射された電磁波は、例えば、可動式のミラーで反射させることで、所定の視野範囲内で走査しながら複数の位置に照射することができる。上述した可動式のミラーは、例えば、MEMS(Micro Electro Mechanical Systems)ミラー、ポリゴンミラー、およびガルバノミラーなどを含む。   The electromagnetic wave radiation device 31 radiates electromagnetic waves such as ultraviolet rays, visible rays, and near infrared rays. The electromagnetic wave radiation device 31 includes an LED (Light Emitting Diode), an LD (Laser Diode), and the like. The electromagnetic wave radiated from the electromagnetic wave radiation device 31 is irradiated within a predetermined visual field range that is imaged by the imaging device 20. The electromagnetic wave radiated from the electromagnetic wave radiation device 31 can be applied to a plurality of positions while being scanned within a predetermined visual field range, for example, by being reflected by a movable mirror. The above-described movable mirror includes, for example, a MEMS (Micro Electro Mechanical Systems) mirror, a polygon mirror, and a galvanometer mirror.

電磁波検出装置32は、電磁波放射装置31から放射され、所定の視野範囲内に照射された電磁波が照射位置で反射された反射波を検出する。電磁波検出装置32は、例えば、APD(Avalanche PhotoDiode)、PD(PhotoDiode)などを含む。反射波の検出により、距離画像センサ30から電磁波を放射し、その電磁波の反射波を検知するまでの時間差、反射波の強度などの検出情報を取得することができる。   The electromagnetic wave detection device 32 detects a reflected wave that is radiated from the electromagnetic wave radiation device 31 and radiated within a predetermined visual field range and reflected at the irradiation position. The electromagnetic wave detection device 32 includes, for example, an APD (Avalanche PhotoDiode), a PD (PhotoDiode), and the like. By detecting the reflected wave, it is possible to acquire detection information such as a time difference until the reflected image of the electromagnetic wave is detected from the distance image sensor 30 and the reflected wave of the electromagnetic wave is detected, and the intensity of the reflected wave.

なお、電磁波放射装置31は、電磁波を放射する複数の発光素子を備え、電磁波検出装置32は、その電磁波の反射波を検出する複数の受光素子を備えていてもよい。この場合、距離画像センサ30は、複数の発光素子から電磁波を所定の視野範囲内に照射し、その電磁波の反射波を複数の受光素子で受光することで、所定の視野範囲内の複数の位置における検出情報を取得することができる。   The electromagnetic wave emission device 31 may include a plurality of light emitting elements that emit electromagnetic waves, and the electromagnetic wave detection device 32 may include a plurality of light receiving elements that detect reflected waves of the electromagnetic waves. In this case, the distance image sensor 30 irradiates electromagnetic waves from a plurality of light emitting elements within a predetermined visual field range, and receives reflected waves of the electromagnetic waves by the plurality of light receiving elements, so that a plurality of positions within the predetermined visual field range are obtained. Detection information in can be acquired.

物体検知装置40は、撮像装置20から出力された撮像情報に対する画像認識処理により、所定の視野範囲内の物体の検知を行い、検知結果を図1においては表示装置に表示するなどして出力する。ここで、物体検知装置40は、距離画像センサ30により検出された検出情報に基づき、物体の検知結果の正誤を判定する。そして、物体検知装置40は、物体の検知結果が誤りであると判定した場合には、例えば、その検出情報に基づいて検知結果を補正したり、検出情報に基づいて再度、物体の検知処理を行ったりする。   The object detection device 40 detects an object within a predetermined visual field range by image recognition processing on the imaging information output from the imaging device 20, and outputs the detection result on the display device in FIG. . Here, the object detection device 40 determines whether the detection result of the object is correct based on the detection information detected by the distance image sensor 30. When the object detection device 40 determines that the object detection result is incorrect, for example, the object detection device 40 corrects the detection result based on the detection information, or performs object detection processing again based on the detection information. To go.

物体検知装置40は、撮像情報取得部41と、撮像情報処理部42と、距離画像取得部43(検出情報取得部)と、距離画像処理部44と、判定部45と、出力部46とを備える。なお、撮像情報処理部42、距離画像処理部44および判定部45は、1以上のプロセッサおよびメモリを含んで構成することができる。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサの少なくともいずれかを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでよい。PLDは、FPGA(Field−Programmable Gate Array)を含んでよい。撮像情報処理部42、距離画像処理部44および判定部45は、1つまたは複数のプロセッサが協働するSoC(Systemon−a−Chip)、およびSiP(System In a Package)の少なくともいずれかを含んで構成してもよい。   The object detection device 40 includes an imaging information acquisition unit 41, an imaging information processing unit 42, a distance image acquisition unit 43 (detection information acquisition unit), a distance image processing unit 44, a determination unit 45, and an output unit 46. Prepare. Note that the imaging information processing unit 42, the distance image processing unit 44, and the determination unit 45 can be configured to include one or more processors and memories. The processor may include at least one of a general-purpose processor that reads a specific program and executes a specific function, and a dedicated processor specialized for a specific process. The dedicated processor may include an application specific integrated circuit (ASIC). The processor may include a programmable logic device (PLD). The PLD may include an FPGA (Field-Programmable Gate Array). The imaging information processing unit 42, the distance image processing unit 44, and the determination unit 45 include at least one of SoC (System-a-Chip) in which one or more processors cooperate and SiP (System In a Package). You may comprise.

撮像情報取得部41は、撮像装置20から撮像情報を取得する。撮像情報取得部41は、撮像装置20とのインタフェースである。撮像情報取得部41は、取得した撮像情報を撮像情報処理部42に出力する。   The imaging information acquisition unit 41 acquires imaging information from the imaging device 20. The imaging information acquisition unit 41 is an interface with the imaging device 20. The imaging information acquisition unit 41 outputs the acquired imaging information to the imaging information processing unit 42.

撮像情報処理部42は、撮像情報取得部41から出力された撮像情報に対して、特徴量(例えば、エッジ)の抽出などの所定の処理を行う。撮像情報処理部42は、抽出した特徴量に基づき、所定の視野範囲内の物体の検知処理を行い、検知結果を判定部45に出力する。   The imaging information processing unit 42 performs predetermined processing such as feature amount (for example, edge) extraction on the imaging information output from the imaging information acquisition unit 41. The imaging information processing unit 42 performs detection processing of an object within a predetermined visual field range based on the extracted feature amount, and outputs the detection result to the determination unit 45.

距離画像取得部43は、距離画像センサ30から距離画像(検出情報)を取得する。距離画像取得部43は、距離画像センサ30とのインタフェースである。距離画像取得部43は、取得した距離画像(検出情報)を距離画像処理部44に出力する。   The distance image acquisition unit 43 acquires a distance image (detection information) from the distance image sensor 30. The distance image acquisition unit 43 is an interface with the distance image sensor 30. The distance image acquisition unit 43 outputs the acquired distance image (detection information) to the distance image processing unit 44.

距離画像処理部44は、距離画像取得部43から出力された距離画像(検出情報)に対して、特徴量(視方向の距離差が所定値よりも大きい隣接する画素など)の抽出などの所定の処理を行い、判定部45に出力する。   The distance image processing unit 44 performs a predetermined process such as extraction of feature amounts (such as adjacent pixels in which the distance difference in the viewing direction is larger than a predetermined value) from the distance image (detection information) output from the distance image acquisition unit 43. Is output to the determination unit 45.

判定部45は、撮像情報処理部42から出力された撮像情報に基づく物体の検知結果の正誤を、距離画像処理部44から出力された検出情報に基づき判定する。判定部45は、検知結果が正しいと判定した場合には、その検知結果を出力部46に出力する。判定部45は、検知結果が誤りであると判定した場合には、例えば、撮像情報処理部42に、検出情報に基づき、検知結果を補正させたり、検出結果に基づき再度、物体の検知処理を行わせたりする。   The determination unit 45 determines whether the detection result of the object based on the imaging information output from the imaging information processing unit 42 is correct based on the detection information output from the distance image processing unit 44. If the determination unit 45 determines that the detection result is correct, the determination unit 45 outputs the detection result to the output unit 46. If the determination unit 45 determines that the detection result is incorrect, for example, the imaging information processing unit 42 corrects the detection result based on the detection information, or performs the object detection process again based on the detection result. Or do it.

出力部46は、判定部45から出力された物体の検知結果を、図1においては表示装置に表示するなどして出力する。出力部46は、表示装置などの外部装置とのインタフェースである。   The output unit 46 outputs the detection result of the object output from the determination unit 45 by displaying it on the display device in FIG. The output unit 46 is an interface with an external device such as a display device.

次に、本実施形態に係る物体検知装置40の動作について説明する。   Next, the operation of the object detection device 40 according to the present embodiment will be described.

図2は、所定の視野範囲を撮像した撮像装置20の撮像画像(撮像情報)の一例を示す図である。図2に示すように、撮像画像の中央に横向きの車両が存在し、その車両の奥側に家屋などが存在している。   FIG. 2 is a diagram illustrating an example of a captured image (imaging information) of the imaging device 20 that captures a predetermined visual field range. As shown in FIG. 2, a sideways vehicle exists in the center of the captured image, and a house or the like exists on the back side of the vehicle.

図2に示す撮像情報を用いて物体の検知処理を行った場合、図3Aに示すように、撮像画像上で物体(車両)として検知された物体領域101が、撮像画像上の実際の車両よりも小さく(図3A)、あるいは、撮像画像上の実際の車両よりも大きく(図3B)誤検知されることがある。   When the object detection process is performed using the imaging information illustrated in FIG. 2, as illustrated in FIG. 3A, the object region 101 detected as an object (vehicle) on the captured image is more than the actual vehicle on the captured image. May be smaller (FIG. 3A) or larger than the actual vehicle on the captured image (FIG. 3B).

図4は、図2に示す所定の視野範囲について距離画像センサ30により取得される距離画像を示す図である。なお、図4においては、説明の便宜上、撮像装置20の撮像画像に距離画像を重畳して示している。   FIG. 4 is a diagram showing a distance image acquired by the distance image sensor 30 for the predetermined visual field range shown in FIG. In FIG. 4, for convenience of explanation, the distance image is shown superimposed on the captured image of the imaging device 20.

距離画像は、図4においては矩形領域で示される複数の画素を含む。各画素は、距離画像センサ30から見た視方向への、当該画素に含まれる物体との距離情報を含んでいる。図4においては、距離情報を、各画素(各矩形領域)におけるドットの疎密で示している。ドットが疎の画素ほど、画素に含まれる物体との距離が近いことを示し、ドットが密の画素ほど、画素に含まれる物体との距離が遠いことを示している。図4に示すように、距離画像の下側の領域には車両から近い道路などが存在する。その領域の上側の領域には、下側の領域よりも距離が遠い領域が存在する。この領域が車両に相当する領域である。さらに上側の領域には、さらに距離が遠い領域が存在する。この領域が、車両の奥側の家屋および空などに相当する領域である。   The distance image includes a plurality of pixels indicated by rectangular regions in FIG. Each pixel includes distance information with respect to an object included in the pixel in the viewing direction viewed from the distance image sensor 30. In FIG. 4, the distance information is shown by the density of dots in each pixel (each rectangular area). A pixel with a sparse dot indicates that the distance from the object included in the pixel is short, and a pixel with a dense dot indicates that the distance from the object included in the pixel is far. As shown in FIG. 4, a road near the vehicle exists in the lower area of the distance image. In the upper area of the area, there is an area farther away than the lower area. This area corresponds to the vehicle. In the upper region, there is a region farther away. This area is an area corresponding to a house on the back side of the vehicle and the sky.

判定部45は、図4に示すような距離画像(距離に関する検出情報)に基づき、撮像情報を用いて物体の検知結果の正誤を判定する。   The determination unit 45 determines whether the detection result of the object is correct based on the distance image (detection information related to the distance) as illustrated in FIG.

図5は、判定部45が、撮像画像上において物体が存在すると検知された領域(物体領域)が、撮像画像上の実際の物体よりも小さく検知されているか否か判定する場合の動作の一例を示すフローチャートである。   FIG. 5 illustrates an example of an operation when the determination unit 45 determines whether an area (object area) where an object is detected on the captured image is detected smaller than an actual object on the captured image. It is a flowchart which shows.

判定部45は、撮像情報に基づく物体の検知結果を撮像情報処理部42から取得すると、検知された撮像画像上の物体領域のうち、未選択の物体領域を選択する(ステップS11)。   When the determination unit 45 acquires the detection result of the object based on the imaging information from the imaging information processing unit 42, the determination unit 45 selects an unselected object region among the detected object regions on the captured image (step S11).

次に、判定部45は、選択した物体領域に対応する距離画像上の領域(以下、距離画像上の物体領域と称する)の周辺の1つの画素(以下、周辺画素と称する)を選択する(ステップS12)。なお、撮像装置20と距離画像センサ30との位置関係は既知であるため、その位置関係に基づき撮影画像上の任意の位置に対応する距離画像上の位置を特定することができる。また、距離画像上の物体領域の周辺画素とは、距離画像上の物体領域の外縁を構成する画素と隣接する画素を指す。   Next, the determination unit 45 selects one pixel (hereinafter referred to as a peripheral pixel) around a region on the distance image (hereinafter referred to as an object region on the distance image) corresponding to the selected object region (hereinafter referred to as a peripheral pixel). Step S12). Since the positional relationship between the imaging device 20 and the distance image sensor 30 is known, the position on the distance image corresponding to an arbitrary position on the captured image can be specified based on the positional relationship. In addition, the peripheral pixels of the object area on the distance image indicate pixels adjacent to the pixels constituting the outer edge of the object area on the distance image.

次に、判定部45は、選択した周辺画素における視方向の距離と、距離画像上の物体領域を構成する画素における視方向の距離の平均値との差分が所定値未満であるか否かを判定する(ステップS13)。   Next, the determination unit 45 determines whether or not the difference between the distance in the viewing direction at the selected peripheral pixel and the average value of the distance in the viewing direction at the pixels constituting the object region on the distance image is less than a predetermined value. Determination is made (step S13).

周辺画素における視方向の距離と、距離画像上の物体領域を構成する画素における視方向の距離の平均値との差分が所定値未満であると判定した場合には(ステップS13:Yes)、判定部45は、検知結果は誤りであると判定する(ステップS14)。   When it is determined that the difference between the distance in the viewing direction in the peripheral pixels and the average value of the distance in the viewing direction in the pixels constituting the object region on the distance image is less than the predetermined value (step S13: Yes), the determination The unit 45 determines that the detection result is an error (step S14).

周辺画素における視方向の距離と、距離画像上の物体領域を構成する画素における視方向の距離の平均値との差分が所定値未満でないと判定した場合には(ステップS13:No)、判定部45は、検知結果は正しいと判定する(ステップS15)。   When it is determined that the difference between the distance in the viewing direction in the peripheral pixels and the average value of the distance in the viewing direction in the pixels constituting the object region on the distance image is not less than a predetermined value (step S13: No), the determination unit 45 determines that the detection result is correct (step S15).

ステップS14またはステップS15の処理の後、判定部45は、選択した距離画像上の物体領域の全ての周辺画素を選択したか否かを判定する(ステップS16)。   After the process of step S14 or step S15, the determination unit 45 determines whether or not all peripheral pixels of the object region on the selected distance image have been selected (step S16).

距離画像上の物体領域の全ての周辺画素を選択していないと判定した場合には(ステップS16:No)、判定部45は、ステップS12の処理に戻る。   If it is determined that all the peripheral pixels of the object area on the distance image have not been selected (step S16: No), the determination unit 45 returns to the process of step S12.

距離画像上の物体領域の全ての周辺画素を選択したと判定した場合には(ステップS16:Yes)、判定部45は、撮像画像上の全ての物体領域を選択したか否かを判定する(ステップS17)。ここで、判定部45は、例えば、選択した撮像画像上の物体領域に対応する距離画像上の物体領域の周辺画素の全てについて、検知結果が正しいと判定した場合、選択した撮影画像上の物体領域の検知結果が正しいと判定することができる。また、判定部45は、例えば、選択した撮像画像上の物体領域に対応する距離画像上の物体領域の周辺画素のうち、検知結果が誤りであると判定した周辺画素の数が所定未満である場合、その選択した物体領域の検知結果が正しいと判定してもよい。   When it is determined that all the peripheral pixels of the object area on the distance image have been selected (step S16: Yes), the determination unit 45 determines whether all the object areas on the captured image have been selected ( Step S17). Here, for example, when the determination unit 45 determines that the detection result is correct for all the peripheral pixels of the object region on the distance image corresponding to the object region on the selected captured image, the object on the selected captured image It can be determined that the detection result of the region is correct. In addition, for example, the determination unit 45 has less than a predetermined number of peripheral pixels that have been determined that the detection result is incorrect among the peripheral pixels of the object region on the distance image corresponding to the object region on the selected captured image. In this case, it may be determined that the detection result of the selected object region is correct.

撮像画像上の全ての物体領域を選択していないと判定した場合には(ステップS17:No)、判定部45は、ステップS11の処理に戻る。   If it is determined that not all object regions on the captured image have been selected (step S17: No), the determination unit 45 returns to the process of step S11.

撮像画像上の全ての物体領域を選択したと判定した場合には(ステップS17:Yes)、判定部45は、処理を終了する。   If it is determined that all object regions on the captured image have been selected (step S17: Yes), the determination unit 45 ends the process.

図3Aに示すように、撮像画像上の物体領域101が、撮像画像上の実際の物体(車両)よりも小さく検知された場合、物体領域101の周辺の領域にも同じ物体が存在する。そのため、物体領域101と、その周辺領域とでは、視方向の距離は大きく変わらない。つまり、撮像画像上の物体領域が、実際の物体よりも小さく検知された場合、撮像画像上の物体領域に対応する距離画像上の物体領域の周辺画素における視方向の距離と、距離画像上の物体領域を構成する画素における視方向の距離(の平均値)との差は小さくなる。したがって、判定部45は、周辺画素における視方向の距離と、距離画像上の物体領域を構成する画素の視方向の距離との差分に基づき、撮像画像上の物体領域が実際の物体よりも小さく検知されているか否かを判定することができる。   As illustrated in FIG. 3A, when the object area 101 on the captured image is detected smaller than the actual object (vehicle) on the captured image, the same object exists in the area around the object area 101. Therefore, the distance in the viewing direction does not change significantly between the object region 101 and the surrounding region. That is, when the object area on the captured image is detected smaller than the actual object, the distance in the viewing direction in the peripheral pixels of the object area on the distance image corresponding to the object area on the captured image and the distance image The difference from the distance (average value) in the viewing direction in the pixels constituting the object region becomes small. Therefore, the determination unit 45 determines that the object area on the captured image is smaller than the actual object based on the difference between the distance in the viewing direction at the peripheral pixels and the distance in the viewing direction of the pixels constituting the object area on the distance image. It can be determined whether or not it has been detected.

なお、撮像画像上の物体領域が実際の物体よりも小さく検知されているか否かの判定は、図5を参照して説明した方法に限られるものではない。すなわち、判定部45は、物体領域の周辺の全ての周辺画素についてステップS13〜ステップS15の処理を行う必要は無い。また、周辺画素における視方向の距離と比較するのは、距離画像上の物体領域を構成する画素における視方向の距離の平均値である必要は無い。   Note that the determination of whether or not the object region on the captured image is detected smaller than the actual object is not limited to the method described with reference to FIG. In other words, the determination unit 45 does not have to perform the processes in steps S13 to S15 for all the peripheral pixels around the object region. Further, the comparison with the distance in the viewing direction in the peripheral pixels does not have to be the average value of the distance in the viewing direction in the pixels constituting the object region on the distance image.

判定部45は、第1の位置における検出情報(第1の位置に照射された電磁波の反射波の検出情報)、および、第1の位置とは異なり、検知処理により検知された物体に対応する第2の位置における検出情報(第2の位置に照射された電磁波の反射波の検出情報)の差分に基づき、検知結果の正誤(物体領域が実際の物体よりも小さく検知されているか否か)を判定することができる。ここで、検出情報は、第1の位置および第2の位置までの距離情報、すなわち、第1の位置および第2の位置までの視方向の距離を示す。また、物体領域が実際の物体よりも小さく検知されているか否かを判定する場合、第1の位置は、検知処理により検知された物体の周辺に対応する位置(例えば、距離画像上の物体領域の周辺画素に対応する位置)である。この場合、判定部45は、第1の位置までの視方向の距離と、第2の位置における視方向の距離との差分が所定値未満である場合、検知結果が誤りであると判定することができる。   The determination unit 45 corresponds to the detection information at the first position (detection information of the reflected wave of the electromagnetic wave irradiated to the first position) and the object detected by the detection process, unlike the first position. Based on the difference of the detection information at the second position (detection information of the reflected wave of the electromagnetic wave irradiated to the second position), whether the detection result is correct or not (whether the object region is detected smaller than the actual object) Can be determined. Here, the detection information indicates distance information to the first position and the second position, that is, a distance in the viewing direction to the first position and the second position. When determining whether or not the object area is detected smaller than the actual object, the first position is a position corresponding to the periphery of the object detected by the detection process (for example, the object area on the distance image). Is a position corresponding to the peripheral pixel of the image). In this case, the determination unit 45 determines that the detection result is incorrect when the difference between the distance in the viewing direction to the first position and the distance in the viewing direction at the second position is less than a predetermined value. Can do.

物体領域が実際の物体よりも小さく検知されていると判定部45により判定された場合、撮像情報処理部42は、検知結果を補正したり、検知処理を再度行ったりする。検知結果を補正する場合、撮像情報処理部42は、例えば、第1の位置を含むように、物体領域を拡大する。また、検知処理を再度行う場合、撮像情報処理部42は、例えば、第1の位置が物体領域に含まれるという前提で、検知処理をやり直す。   When the determination unit 45 determines that the object area is detected smaller than the actual object, the imaging information processing unit 42 corrects the detection result or performs the detection process again. When correcting the detection result, for example, the imaging information processing unit 42 enlarges the object region so as to include the first position. When performing the detection process again, for example, the imaging information processing unit 42 performs the detection process again on the assumption that the first position is included in the object region.

図6は、判定部45が、撮像画像上の物体領域が、撮像画像上の実際の物体よりも大きく検知されているか否かを判定する場合の動作の一例を示すフローチャートである。   FIG. 6 is a flowchart illustrating an example of an operation when the determination unit 45 determines whether or not the object region on the captured image is detected to be larger than the actual object on the captured image.

判定部45は、撮像情報を用いて物体の検知結果を撮像情報処理部42から取得すると、検知された撮像画像上の物体領域のうち、未選択の物体領域を選択する(ステップS21)。   When the determination unit 45 acquires the detection result of the object from the imaging information processing unit 42 using the imaging information, the determination unit 45 selects an unselected object region from among the object regions on the detected captured image (step S21).

次に、判定部45は、選択した撮像画像上の物体領域に対応する距離画像上の物体領域を構成する1つの画素(以下、領域画素と称する)を選択する(ステップS22)。   Next, the determination unit 45 selects one pixel (hereinafter referred to as an area pixel) that constitutes the object area on the distance image corresponding to the selected object area on the captured image (step S22).

次に、判定部45は、選択した領域画素における視方向の距離と、距離画像上の物体領域を構成する画素における視方向の距離の平均値との差分が所定値以上であるか否かを判定する(ステップS23)。   Next, the determination unit 45 determines whether or not the difference between the distance in the viewing direction at the selected region pixel and the average value of the distance in the viewing direction at the pixels constituting the object region on the distance image is greater than or equal to a predetermined value. Determination is made (step S23).

領域画素における視方向の距離と、距離画像上の物体領域を構成する画素における視方向の距離の平均値との差分が所定値以上であると判定した場合には(ステップS23:Yes)、判定部45は、検知結果は誤りであると判定する(ステップS24)。   When it is determined that the difference between the distance in the viewing direction of the region pixel and the average value of the distance in the viewing direction in the pixels constituting the object region on the distance image is greater than or equal to a predetermined value (step S23: Yes), the determination The unit 45 determines that the detection result is an error (step S24).

領域画素における視方向の距離と、距離画像上の物体領域を構成する画素における視方向の距離の平均値との差群が所定値以上でないと判定した場合には(ステップS23:No)、判定部45は、検知結果は正しいと判定する(ステップS25)。   When it is determined that the difference group between the distance in the viewing direction of the area pixel and the average value of the distance in the viewing direction in the pixels constituting the object area on the distance image is not greater than or equal to the predetermined value (step S23: No), The unit 45 determines that the detection result is correct (step S25).

ステップS24またはステップS25の処理の後、判定部45は、距離画像上の物体領域の全ての領域画素を選択したか否かを判定する(ステップS26)。   After the process of step S24 or step S25, the determination unit 45 determines whether or not all region pixels of the object region on the distance image have been selected (step S26).

距離画像上の物体領域の全ての領域画素を選択していないと判定した場合には(ステップS26:No)、判定部45は、ステップS22の処理に戻る。   When it is determined that not all region pixels of the object region on the distance image have been selected (step S26: No), the determination unit 45 returns to the process of step S22.

距離画像上の物体領域の全ての領域画素を選択したと判定した場合には(ステップS26:Yes)、判定部45は、撮像画像上の全ての物体領域を選択したか否かを判定する(ステップS27)。ここで、判定部45は、例えば、選択した撮像画像上の物体領域に対応する距離画像上の物体領域を構成する画素の全てについて、検知結果が正しいと判定した場合、その選択した物体領域の検知結果が正しいと判定することができる。また、判定部45は、例えば、選択した撮像画像上の物体領域に対応する距離画像上の物体領域を構成する画素のうち、検知結果が誤りであると判定した画素の数が所定数以下の場合、その選択した物体領域の検知結果が正しいと判定してもよい。   When it is determined that all the region pixels of the object region on the distance image have been selected (step S26: Yes), the determination unit 45 determines whether or not all the object regions on the captured image have been selected ( Step S27). Here, for example, if the determination unit 45 determines that the detection result is correct for all of the pixels constituting the object region on the distance image corresponding to the object region on the selected captured image, It can be determined that the detection result is correct. In addition, for example, the determination unit 45 has a predetermined number or less of pixels that are determined to be erroneous among the pixels constituting the object region on the distance image corresponding to the selected object region on the captured image. In this case, it may be determined that the detection result of the selected object region is correct.

撮像画像上の全ての物体領域を選択していないと判定した場合には(ステップS27:No)、判定部45は、ステップS21の処理に戻る。   If it is determined that not all object regions on the captured image have been selected (step S27: No), the determination unit 45 returns to the process of step S21.

撮像画像上の全ての物体領域を選択したと判定した場合には(ステップS27:Yes)、判定部45は、処理を終了する。   If it is determined that all the object regions on the captured image have been selected (step S27: Yes), the determination unit 45 ends the process.

図3Bに示すように、撮像画像上の物体領域101が、撮像画像上の実際の物体(車両)よりも大きく検知された場合、物体領域101には、物体(車両)よりも手前側の道路、あるいは、車両よりも奥側の家屋および空などに相当する領域も含まれる。この場合、物体領域101内であっても、車両に相当する領域における視方向の距離と、車両以外の領域における視方向の距離とは大きく異なる。つまり、撮像画像上の物体領域が、実際の物体よりも大きく検知された場合、距離画像上の物体領域における検知対象以外の画素と、距離画像上の物体領域を構成する画素における視方向の距離(の平均値)との差分は大きくなる。したがって、判定部45は、領域画素における視方向の距離と、距離画像上の物体領域を構成する画素における視方向の距離との差分に基づき、撮像画像上の物体領域が実際の物体よりも大きく検知されているか否かを判定することができる。   As illustrated in FIG. 3B, when the object area 101 on the captured image is detected to be larger than the actual object (vehicle) on the captured image, the object area 101 includes a road on the near side of the object (vehicle). Or the area | region equivalent to the house of the back | inner side and the sky from a vehicle etc. is also included. In this case, even within the object region 101, the distance in the viewing direction in the region corresponding to the vehicle is greatly different from the distance in the viewing direction in the region other than the vehicle. That is, when the object area on the captured image is detected larger than the actual object, the distance in the viewing direction between the pixels other than the detection target in the object area on the distance image and the pixels constituting the object area on the distance image The difference from (average value) increases. Therefore, the determination unit 45 determines that the object area on the captured image is larger than the actual object based on the difference between the distance in the viewing direction in the area pixel and the distance in the viewing direction in the pixels constituting the object area on the distance image. It can be determined whether or not it has been detected.

なお、撮像画像上の物体領域が実際の物体よりも大きく検知されているか否かの判定は、図6を参照して説明した方法に限られるものではない。すなわち、距離画像上の物体領域を構成する全ての領域画素についてステップS23〜ステップS25の処理を行う必要は無い。また、領域画素における視方向の距離と比較するのは、距離画像上の物体領域を構成する画素における視方向の距離の平均値である必要は無い。   Note that the determination of whether or not the object region on the captured image is detected larger than the actual object is not limited to the method described with reference to FIG. That is, it is not necessary to perform the processing from step S23 to step S25 for all the region pixels constituting the object region on the distance image. Further, the comparison with the distance in the viewing direction in the area pixel does not need to be the average value of the distance in the viewing direction in the pixels constituting the object area on the distance image.

判定部45は、第1の位置における検出情報、および、第1の位置とは異なり、検知処理により検知された物体に対応する第2の位置における検出情報の差分に基づき、検知結果の正誤(物体領域が実際の物体よりも大きく検知されているか否か)を判定することができる。ここで、検出情報は、第1の位置および第2の位置までの距離情報、すなわち、第1の位置および第2の位置までの視方向の距離を示す。また、物体領域が実際の物体よりも大きく検知されているか否かを判定する場合、第1の位置は、検知処理により検知された物体に対応し(物体領域に含まれ)、第2の位置よりも内側の位置である。この場合、判定部45は、第1の位置までの視方向の距離と、第2の位置までの視方向の距離との差分が所定値以上である場合、検知結果が誤りであると判定することができる。   The determination unit 45 detects whether the detection result is correct based on the detection information at the first position and the difference between the detection information at the second position corresponding to the object detected by the detection process, unlike the first position. Whether or not the object region is detected larger than the actual object). Here, the detection information indicates distance information to the first position and the second position, that is, a distance in the viewing direction to the first position and the second position. When determining whether or not the object area is detected to be larger than the actual object, the first position corresponds to the object detected by the detection process (included in the object area), and the second position It is a position inside. In this case, the determination unit 45 determines that the detection result is an error when the difference between the distance in the viewing direction to the first position and the distance in the viewing direction to the second position is greater than or equal to a predetermined value. be able to.

物体領域が実際の物体よりも大きく検知されていると判定部45により判定された場合、撮像情報処理部42は、検知結果を補正したり、検知処理を再度行ったりする。検知結果を補正する場合、撮像情報処理部42は、例えば、第1の位置まで物体領域を縮小する。また、検知処理を再度行う場合、撮像情報処理部42は、例えば、第2の位置は物体領域に含まれないという前提で、検知処理をやり直す。また、撮像情報処理部42は、第2の位置は背景に対応すると判定する。なお、背景とは、検知処理による検知対象の物体(他の車両、歩行者など)以外の物体である。   When the determination unit 45 determines that the object region is detected to be larger than the actual object, the imaging information processing unit 42 corrects the detection result or performs the detection process again. When correcting the detection result, the imaging information processing unit 42 reduces the object region to the first position, for example. When performing the detection process again, for example, the imaging information processing unit 42 performs the detection process again on the assumption that the second position is not included in the object region. Further, the imaging information processing unit 42 determines that the second position corresponds to the background. The background is an object other than an object to be detected by the detection process (other vehicle, pedestrian, etc.).

次に、検知結果の正誤の別の判定方法について説明する。上述したように、検知対象の物体(自動車、人など)以外の背景の模様、パターンなどが、検知対象の物体の形状に類似する場合、背景が検知対象の物体であると誤検知されてしまうことがある。   Next, another method for determining whether the detection result is correct or incorrect will be described. As described above, if the background pattern other than the object to be detected (car, person, etc.) is similar to the shape of the object to be detected, the background is erroneously detected as the object to be detected. Sometimes.

図7は、撮像装置20の撮像画像の一例を示す図である。図7においては、検知結果として、人であると検知された領域102(右斜め上がりのハッチングが付された領域)と、車両であると検知された領域103(右斜め下がりのハッチングが付された領域)と、背景であり、人などの物体が存在しないにも関わらず、人であると誤検知された領域104(右斜め上がりのハッチングが付された領域)とを含む例を示している。検知結果の精度の向上のためには、領域104のような誤った検知結果は除外する必要がある。以下では、このような誤検知の有無を判定するための方法について説明する。   FIG. 7 is a diagram illustrating an example of a captured image of the imaging device 20. In FIG. 7, as a detection result, an area 102 that is detected as a person (area that is hatched diagonally upward to the right) and an area 103 that is detected to be a vehicle (hatched diagonally downward to the right) are added. And an area 104 that is a background and is erroneously detected as a person even though an object such as a person does not exist (an area that is hatched in a diagonally upward direction). Yes. In order to improve the accuracy of the detection result, it is necessary to exclude an erroneous detection result such as the region 104. Below, the method for determining the presence or absence of such a false detection is demonstrated.

図8は、判定部45が、背景の模様などによる誤検知が物体の検知結果に含まれるか否かを判定する場合の動作の一例を示すフローチャートである。   FIG. 8 is a flowchart illustrating an example of an operation in a case where the determination unit 45 determines whether or not erroneous detection due to a background pattern or the like is included in an object detection result.

判定部45は、撮像情報を用いた物体の検知結果を撮像情報処理部42から取得すると、検知された撮像画像上の物体領域のうち、未選択の物体領域を選択する(ステップS31)。   When the determination unit 45 acquires the detection result of the object using the imaging information from the imaging information processing unit 42, the determination unit 45 selects an unselected object region among the detected object regions on the captured image (Step S31).

次に、判定部45は、選択した撮像画像上の物体領域に対応する距離画像上の物体領域を構成する領域画素の検出情報が有効であるか否かを判定する(ステップS32)。判定部45は、例えば、領域画素における視方向の距離が無限遠あるいは測定不能な距離である場合に、領域画素の検出情報が有効ではないと判定する。   Next, the determination unit 45 determines whether or not the detection information of the region pixels constituting the object region on the distance image corresponding to the selected object region on the captured image is valid (step S32). For example, the determination unit 45 determines that the detection information of the region pixel is not valid when the distance in the viewing direction of the region pixel is infinity or a distance that cannot be measured.

領域画素の検出情報が有効であると判定した場合には(ステップS32:Yes)、判定部45は、選択した物体領域の検知結果は正しいと判定する(ステップS33)。   If it is determined that the detection information of the area pixel is valid (step S32: Yes), the determination unit 45 determines that the detection result of the selected object area is correct (step S33).

領域画素の検出情報が有効でないと判定した場合には(ステップS32:No)、判定部45は、選択した物体領域の検知結果は誤りであると判定する(ステップS34)。   If it is determined that the detection information of the region pixel is not valid (step S32: No), the determination unit 45 determines that the detection result of the selected object region is incorrect (step S34).

ステップS33またはステップS34の処理の後、判定部45は、撮像画像上の全ての物体領域を選択したか否かを判定する(ステップS35)。   After the process of step S33 or step S34, the determination unit 45 determines whether or not all object regions on the captured image have been selected (step S35).

撮像画像上の全ての物体領域を選択していないと判定した場合には(ステップS35:No)、判定部45は、ステップS31の処理に戻る。   If it is determined that not all object regions on the captured image have been selected (step S35: No), the determination unit 45 returns to the process of step S31.

撮像画像上の全ての物体領域を選択したと判定した場合には(ステップS35:Yes)、判定部45は、処理を終了する。   If it is determined that all the object regions on the captured image have been selected (step S35: Yes), the determination unit 45 ends the process.

図7に示すように、人などの物体が存在しない背景に相当する領域104が、物体領域として検知された場合、領域104には人などの物体が存在しないので、領域104では、視方向の距離が無限遠あるいは測定不能な距離となる。したがって、判定部45は、領域画素の検出情報が有効であるか否かを判定することで、背景の模様などによる誤検知が検知結果に含まれるか否かを判定することができる。すなわち、判定部45は、検知処理により検知された物体に対応する位置までの視方向の距離が所定値以上である場合、検知結果は誤りであると判定することができる。この場合、撮像情報処理部42は、誤検知であると判定された物体領域は背景であるとして検知する。   As shown in FIG. 7, when an area 104 corresponding to a background in which no object such as a person exists is detected as the object area, no object such as a person exists in the area 104. The distance is infinite or cannot be measured. Therefore, the determination unit 45 can determine whether or not erroneous detection due to a background pattern or the like is included in the detection result by determining whether or not the detection information of the region pixel is valid. That is, the determination unit 45 can determine that the detection result is an error when the distance in the viewing direction to the position corresponding to the object detected by the detection process is greater than or equal to a predetermined value. In this case, the imaging information processing unit 42 detects that the object region determined to be erroneous detection is the background.

なお、背景の模様などによる誤検知が物体の検知結果に含まれるか否かの判定は、図8を参照して説明した方法に限られるものではない。すなわち、検知処理により検知された物体に対応する位置までの視方向の距離を用いる必要はない。   Note that the determination of whether or not erroneous detection due to a background pattern or the like is included in the object detection result is not limited to the method described with reference to FIG. That is, it is not necessary to use the distance in the viewing direction to the position corresponding to the object detected by the detection process.

例えば、判定部45は、検知処理により検知された物体に対応する位置に照射した電磁波の反射波の強度に応じて、検知結果が誤りであるか否かを判定してもよい。人などの物体が存在しない領域では、その領域に照射された電磁波が反射されず、反射波は検出されない、あるいは、実際に物体が存在する場合と比べて、反射波の強度は小さくなる。したがって、判定部45は、検知された物体に対応する位置に照射した電磁波の反射波の強度が所定値未満である場合には、検知結果が誤りであると判定することができる。   For example, the determination unit 45 may determine whether or not the detection result is an error according to the intensity of the reflected wave of the electromagnetic wave applied to the position corresponding to the object detected by the detection process. In an area where an object such as a person is not present, the electromagnetic wave applied to the area is not reflected and a reflected wave is not detected, or the intensity of the reflected wave is smaller than when an object is actually present. Therefore, the determination unit 45 can determine that the detection result is incorrect when the intensity of the reflected wave of the electromagnetic wave applied to the position corresponding to the detected object is less than a predetermined value.

次に、検知結果の正誤のさらに別の判定方法について説明する。上述したように、似通った色の複数の物体が撮像装置20から見て重畳して配置されている場合、撮像装置20の撮像画像上では、異なる物体間の境目での色の変化が小さく、エッジを抽出することが困難となる。すなわち、図9に示すように、撮像装置20から見て、物体105と、物体105と色合いが似ており、物体105よりも大きい物体106とが重なっている場合、撮像装置20の撮像画像では、物体105と物体106とが重なり、物体105と物体106とのエッジが判別しにくくなる。その結果、物体105が検知されず、物体106のみが1つの物体として誤検知されることがある。以下では、このような複数の物体の重なりによる誤検知の有無を判定するための方法について説明する。   Next, another method for determining whether the detection result is correct or incorrect will be described. As described above, when a plurality of similar-colored objects are arranged so as to overlap with each other when viewed from the imaging device 20, the color change at the boundary between different objects is small on the captured image of the imaging device 20, It becomes difficult to extract an edge. That is, as illustrated in FIG. 9, when the object 105 is similar in color to the object 105 and the object 106 that is larger than the object 105 overlaps when viewed from the image capturing apparatus 20, The object 105 and the object 106 overlap with each other, and the edge between the object 105 and the object 106 becomes difficult to distinguish. As a result, the object 105 may not be detected, and only the object 106 may be erroneously detected as one object. Below, the method for determining the presence or absence of such erroneous detection due to the overlap of a plurality of objects will be described.

図11は、判定部45が、複数の物体の重なりによる誤検知の有無を判定する場合の動作の一例を示すフローチャートである。   FIG. 11 is a flowchart illustrating an example of an operation when the determination unit 45 determines whether or not there is a false detection due to an overlap of a plurality of objects.

判定部45は、撮像情報を用いた物体の検知結果を撮像情報処理部42から取得する。また、判定部45は、距離画像を用いた物体の検知結果を距離画像処理部44から取得する。判定部45は、距離画像上の物体領域のうち、未選択の物体領域を選択する(ステップS41)。   The determination unit 45 acquires the detection result of the object using the imaging information from the imaging information processing unit 42. Further, the determination unit 45 acquires the detection result of the object using the distance image from the distance image processing unit 44. The determination unit 45 selects an unselected object area among the object areas on the distance image (step S41).

図12は、図9に示す状態(物体105と物体106とが重なった状態)で、距離画像センサ30により得られる距離画像を示す図である。すなわち、図12は、図9に示す撮像装置20を距離画像センサ30に置き換えた場合に得られる距離画像を示す図である。なお、図12においては、距離情報を、各領域におけるドットの疎密で示している。ドットが疎の領域ほど、その領域の物体との距離が近いことを示し、ドットが密の領域ほど、その領域の物体との距離が遠いことを示している。   FIG. 12 is a diagram illustrating a distance image obtained by the distance image sensor 30 in the state illustrated in FIG. 9 (a state in which the object 105 and the object 106 are overlapped). That is, FIG. 12 is a diagram illustrating a distance image obtained when the imaging device 20 illustrated in FIG. 9 is replaced with the distance image sensor 30. In FIG. 12, the distance information is indicated by the density of dots in each region. The sparse region of the dots indicates that the distance from the object in the region is near, and the region where the dots are dense indicates that the distance from the object in the region is long.

図9に示すように、物体105の方が物体106よりも距離画像センサ30に近い。したがって、物体105の位置および形状に対応する物体領域107における視方向の距離が、物体106の位置および形状に対応し、物体領域107を囲む物体領域108における視方向の距離よりも近い。このように、距離画像では、複数の物体が重なっていても、各物体を区別して検知することができる。   As shown in FIG. 9, the object 105 is closer to the distance image sensor 30 than the object 106. Therefore, the distance in the viewing direction in the object region 107 corresponding to the position and shape of the object 105 corresponds to the position and shape of the object 106 and is closer than the distance in the viewing direction in the object region 108 surrounding the object region 107. Thus, in the distance image, even if a plurality of objects are overlapped, each object can be distinguished and detected.

図11を再び参照すると、判定部45は、選択した距離画像上の物体領域が、撮像画像上の対応する位置の物体領域と重なる(サイズおよび形状が同じあるいは概ね同等である)か否かを判定する(ステップS42)。   Referring to FIG. 11 again, the determination unit 45 determines whether or not the object region on the selected distance image overlaps the object region at the corresponding position on the captured image (the size and shape are the same or approximately the same). Determination is made (step S42).

距離画像上の物体領域が、撮像画像上の対応する位置の物体領域と重ならないと判定した場合には(ステップS42:No)、判定部45は、選択した距離画像上の物体領域を、撮像画像上の物体の検知結果に追加する(ステップS43)。   When it is determined that the object region on the distance image does not overlap with the object region at the corresponding position on the captured image (step S42: No), the determination unit 45 captures the object region on the selected distance image. It adds to the detection result of the object on the image (step S43).

距離画像上の物体領域が、撮像画像上の対応する位置の物体領域と重なると判定した場合には(ステップS42:Yes)、判定部45は、選択した距離画像上の物体領域を、撮像画像上の物体の検知結果に追加しない(ステップS44)。   When it is determined that the object region on the distance image overlaps the object region at the corresponding position on the captured image (step S42: Yes), the determination unit 45 selects the object region on the selected distance image as the captured image. It is not added to the detection result of the upper object (step S44).

ステップS43あるいはステップS44の処理の後、判定部45は、距離画像上の全ての物体領域を選択したか否かを判定する(ステップS45)。   After the process of step S43 or step S44, the determination unit 45 determines whether or not all object regions on the distance image have been selected (step S45).

距離画像上の全ての物体領域を選択していないと判定した場合には(ステップS45:No)、判定部45は、ステップS41の処理に戻る。   If it is determined that not all object regions on the distance image have been selected (step S45: No), the determination unit 45 returns to the process of step S41.

距離画像上の全ての物体領域を選択したと判定した場合には(ステップS45:Yes)、判定部45は、処理を終了する。   If it is determined that all object regions on the distance image have been selected (step S45: Yes), the determination unit 45 ends the process.

図10および図12を参照して説明したように、撮像装置20の撮像画像では、色が似通った物体が重なっている場合、それらの物体を区別して検知することが困難である。一方、距離画像センサ30の距離画像では、それらの物体を区別して検知することができる。したがって、距離画像上の物体領域が、撮像画像上の物体領域と重ならない、すなわち、撮像画像を用いた画像認識では検知されていない場合には、距離画像上の物体領域を撮像画像上の物体の検知結果に追加することで、検知結果の精度の向上を図ることができる。   As described with reference to FIGS. 10 and 12, in the captured image of the imaging apparatus 20, when objects with similar colors overlap, it is difficult to distinguish and detect these objects. On the other hand, in the distance image of the distance image sensor 30, those objects can be distinguished and detected. Therefore, if the object area on the distance image does not overlap with the object area on the captured image, that is, if it is not detected by image recognition using the captured image, the object area on the distance image is By adding to the detection result, it is possible to improve the accuracy of the detection result.

なお、物体の重なりによる誤検知の有無の判定方法は、図11を参照して説明した方法に限られるものではない。すなわち、距離画像上の物体領域について、ステップS42〜ステップS44の処理を行う必要は無い。   Note that the method for determining the presence or absence of erroneous detection due to overlapping of objects is not limited to the method described with reference to FIG. That is, it is not necessary to perform the processing of step S42 to step S44 for the object region on the distance image.

例えば、判定部45は、第1の位置における検出情報、および、第1の位置とは異なり、検知処理により検知された物体に対応する第2の位置における検出情報の差分に基づき、検知結果の正誤(物体の重なりによる誤検知の有無)を判定することができる。ここで、物体の重なりによる誤検知の有無を判定する場合、第1の位置は、検知処理により検知された物体に対応し、第2の位置よりも内側の位置である。この場合、判定部45は、第1の位置における視方向の距離と、第2の位置における視方向の距離との差分が所定値以上である場合、検知結果が誤りであると判定することができる。   For example, the determination unit 45 detects the detection result based on the detection information at the first position and the difference between the detection information at the second position corresponding to the object detected by the detection process, unlike the first position. Correct / incorrect (presence / absence of erroneous detection due to overlapping of objects) can be determined. Here, when determining the presence or absence of erroneous detection due to overlapping of objects, the first position corresponds to the object detected by the detection process, and is a position inside the second position. In this case, when the difference between the distance in the viewing direction at the first position and the distance in the viewing direction at the second position is greater than or equal to a predetermined value, the determination unit 45 determines that the detection result is an error. it can.

図12に示すように、距離画像センサ30からの距離が異なる複数の物体が重なっている場合、各物体に対応する領域で距離画像センサ30からの距離が異なる。そのため、距離画像上の物体領域内の第1の位置における視方向の距離と第2の位置における視方向の距離との差分が所定値以上である場合、第1の位置に存在する物体と第2の位置に存在する物体とは異なる物体である可能性が高い。したがって、第1の位置と第2の位置との視方向の距離の差分に応じて、物体の重なりによる誤検知の有無を判定することができる。   As illustrated in FIG. 12, when a plurality of objects having different distances from the distance image sensor 30 are overlapped, the distances from the distance image sensor 30 are different in regions corresponding to the respective objects. Therefore, if the difference between the distance in the viewing direction at the first position and the distance in the viewing direction at the second position in the object region on the distance image is greater than or equal to a predetermined value, the object in the first position and the first There is a high possibility that the object is different from the object existing at the position 2. Therefore, the presence or absence of erroneous detection due to overlapping of objects can be determined according to the difference in the viewing direction distance between the first position and the second position.

このように本実施形態においては、物体検知装置40は、所定の視野範囲を撮像した撮像情報を取得する撮像情報取得部41と、所定の視野範囲内の少なくとも1つの位置に照射した電磁波の反射波の検出情報を取得する距離画像取得部43(検出情報取得部)と、撮像情報に基づいて、所定の視野範囲内の物体の検知処理を行う撮像情報処理部42(物体検知部)と、検出情報に基づいて、検知処理による検知結果の正誤を判定する判定部45と、を備える。   As described above, in the present embodiment, the object detection device 40 includes the imaging information acquisition unit 41 that acquires imaging information obtained by imaging a predetermined visual field range, and the reflection of electromagnetic waves irradiated to at least one position within the predetermined visual field range. A distance image acquisition unit 43 (detection information acquisition unit) that acquires wave detection information; an imaging information processing unit 42 (object detection unit) that performs detection processing of an object within a predetermined visual field range based on the imaging information; And a determination unit 45 that determines whether the detection result by the detection process is correct or not based on the detection information.

物体検知装置40は、所定の視野範囲内に照射した電磁波の反射波の検出情報により、視野範囲内の物体の形状、物体のサイズ、物体の有無、物体の重なりなどを判定することができる。そのため、物体検知装置40は、検出情報に基づき、撮像情報を用いた物体の検知処理の検知結果の正誤を判定することで、検知結果の精度の更なる向上を図ることができる。   The object detection device 40 can determine the shape of the object in the field of view, the size of the object, the presence or absence of the object, the overlap of the objects, and the like based on the detection information of the reflected wave of the electromagnetic wave irradiated in the predetermined field of view. Therefore, the object detection device 40 can further improve the accuracy of the detection result by determining whether the detection result of the object detection process using the imaging information is correct based on the detection information.

上記実施形態の他、物体検知装置40が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータは、コンピュータ読取り可能媒体を用いれば、上記プログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD−ROMやDVD−ROMなどの記録媒体であってもよい。   In addition to the above-described embodiment, a program that causes a computer to execute each process performed by the object detection device 40 may be provided. The program may be recorded on a computer readable medium. If the computer uses a computer-readable medium, the program can be installed. Here, the computer-readable medium on which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be a recording medium such as a CD-ROM or a DVD-ROM.

あるいは、物体検知装置40が行う各処理を実行するためのプログラムを記憶するメモリ、および当該メモリに記憶されたプログラムを実行するプロセッサによって構成され、物体検知装置40に搭載されるチップが提供されてもよい。   Alternatively, a chip configured to include a memory that stores a program for executing each process performed by the object detection device 40 and a processor that executes the program stored in the memory, and is mounted on the object detection device 40 is provided. Also good.

本開示の一実施形態を諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。従って、これらの変形及び修正は本開示の範囲に含まれることに留意されたい。   Although one embodiment of the present disclosure has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various variations and modifications based on the present disclosure. Accordingly, it should be noted that these variations and modifications are included in the scope of the present disclosure.

10 物体検知システム
20 撮像装置
30 距離画像センサ
31 電磁波放射装置
32 電磁波検出装置
40 物体検知装置
41 撮像情報取得部
42 撮像情報処理部(物体検知部)
43 距離画像取得部(検出情報取得部)
44 距離画像処理部
45 判定部
46 出力部
101,102,103,104 物体領域
105,106 物体
107,108 距離画像上の物体領域
DESCRIPTION OF SYMBOLS 10 Object detection system 20 Imaging device 30 Distance image sensor 31 Electromagnetic wave radiation device 32 Electromagnetic wave detection device 40 Object detection device 41 Imaging information acquisition part 42 Imaging information processing part (object detection part)
43 Distance image acquisition unit (detection information acquisition unit)
44 Distance image processing unit 45 Judgment unit 46 Output unit 101, 102, 103, 104 Object region 105, 106 Object 107, 108 Object region on the distance image

Claims (18)

所定の視野範囲を撮像した撮像情報を取得する撮像情報取得部と、
前記所定の視野範囲内の少なくとも1つの位置に照射された電磁波の反射波の検出情報を取得する検出情報取得部と、
前記撮像情報に基づいて、前記所定の視野範囲内の物体の検知処理を行う物体検知部と、
前記検出情報に基づいて、前記検知処理による検知結果の正誤を判定する判定部と、を備える物体検知装置。
An imaging information acquisition unit for acquiring imaging information obtained by imaging a predetermined visual field range;
A detection information acquisition unit for acquiring detection information of a reflected wave of an electromagnetic wave irradiated to at least one position within the predetermined visual field range;
An object detection unit that performs detection processing of an object within the predetermined visual field range based on the imaging information;
An object detection apparatus comprising: a determination unit that determines whether the detection result by the detection process is correct based on the detection information.
前記物体検知部は、前記検知結果が誤りであると判定された場合、前記検出情報に基づき、前記検知結果を補正する、請求項1に記載の物体検知装置。   The object detection device according to claim 1, wherein the object detection unit corrects the detection result based on the detection information when it is determined that the detection result is an error. 前記物体検知部は、前記検知結果が誤りであると判定された場合、前記検出情報に基づいて再度、前記検知処理を行う、請求項1に記載の物体検知装置。   The object detection device according to claim 1, wherein, when it is determined that the detection result is an error, the object detection unit performs the detection process again based on the detection information. 前記判定部は、第1の位置における検出情報と、前記第1の位置とは異なり、前記検知処理により検知された物体に対応する第2の位置における検出情報との差分に基づき、前記検知結果の正誤を判定する、請求項1から3のいずれか一項に記載の物体検知装置。   The determination unit is configured to detect the detection result based on a difference between detection information at a first position and detection information at a second position corresponding to the object detected by the detection process, which is different from the first position. The object detection device according to any one of claims 1 to 3, wherein the correctness of the error is determined. 前記検出情報は、前記電磁波の照射位置までの視方向の距離であり、
前記判定部は、前記第1の位置までの視方向の距離と、前記第2の位置までの視方向の距離との差分に基づき、前記検知結果の正誤を判定する、請求項4に記載の物体検知装置。
The detection information is a distance in the visual direction to the irradiation position of the electromagnetic wave,
5. The determination unit according to claim 4, wherein the determination unit determines whether the detection result is correct based on a difference between a distance in the viewing direction to the first position and a distance in the viewing direction to the second position. Object detection device.
前記第1の位置は、前記検知処理により検知された物体の周辺に対応する位置である、請求項4または5に記載の物体検知装置。   The object detection apparatus according to claim 4, wherein the first position is a position corresponding to a periphery of the object detected by the detection process. 前記判定部は、前記差分が所定値未満である場合、前記検知結果が誤りであると判定する、請求項4から6のいずれか一項に記載の物体検知装置。   The object detection device according to claim 4, wherein the determination unit determines that the detection result is an error when the difference is less than a predetermined value. 前記物体検知部は、前記差分が所定値未満である場合、前記検知処理により検知された物体の領域を、前記撮像情報における前記第1の位置を含むように拡大する、請求項7に記載の物体検知装置。   8. The object detection unit according to claim 7, wherein when the difference is less than a predetermined value, the object detection unit expands the region of the object detected by the detection process so as to include the first position in the imaging information. Object detection device. 前記第1の位置は、前記検知処理により検知された物体に対応し、前記第2の位置よりも内側の位置である、請求項4または5に記載の物体検知装置。   The object detection apparatus according to claim 4, wherein the first position corresponds to an object detected by the detection process and is a position inside the second position. 前記判定部は、前記差分が所定値以上である場合、前記検知結果が誤りであると判定する、請求項9に記載の物体検知装置。   The object detection device according to claim 9, wherein the determination unit determines that the detection result is an error when the difference is equal to or greater than a predetermined value. 前記物体検知部は、前記差分が前記所定値以上である場合、前記第1の位置と、前記第2の位置とに異なる物体が存在すると検知する、請求項10に記載の物体検知装置。   The object detection apparatus according to claim 10, wherein the object detection unit detects that a different object exists between the first position and the second position when the difference is equal to or greater than the predetermined value. 前記物体検知部は、前記差分が前記所定値以上である場合、前記検知処理により検知された物体の領域を、前記第1の位置まで縮小する、請求項10または11に記載の物体検知装置。   The object detection device according to claim 10, wherein the object detection unit reduces the area of the object detected by the detection process to the first position when the difference is equal to or greater than the predetermined value. 前記物体検知部は、前記差分が前記所定値以上である場合、前記第2の位置は背景に対応する位置であると検知する、請求項10から12のいずれか一項に記載の物体検知装置。   The object detection device according to any one of claims 10 to 12, wherein the object detection unit detects that the second position is a position corresponding to a background when the difference is equal to or greater than the predetermined value. . 前記判定部は、前記検知処理により検知された物体に対応する位置に照射した電磁波の反射波の強度が所定値未満である場合、前記検知結果は誤りであると判定する、請求項1から3のいずれか一項に記載の物体検知装置。   The determination unit determines that the detection result is an error when the intensity of the reflected wave of the electromagnetic wave applied to the position corresponding to the object detected by the detection process is less than a predetermined value. The object detection apparatus according to any one of the above. 前記検出情報は、前記電磁波の照射位置までの視方向の距離であり、
前記判定部は、前記検知処理により検知された物体に対応する位置までの視方向の距離が所定値以上である場合、前記検知結果は誤りであると判定する、請求項1から3のいずれか一項に記載の物体検知装置。
The detection information is a distance in the visual direction to the irradiation position of the electromagnetic wave,
4. The determination unit according to claim 1, wherein the determination unit determines that the detection result is an error when a distance in a viewing direction to a position corresponding to the object detected by the detection process is a predetermined value or more. The object detection device according to one item.
前記物体検知部は、前記検知結果が誤りであると判定された場合、前記検知処理により検知された物体に対応する位置を背景に対応する位置であると検知する、請求項14または15に記載の物体検知装置。   The said object detection part detects that the position corresponding to the object detected by the said detection process is a position corresponding to a background, when it determines with the said detection result being an error. Object detection device. コンピュータに、
所定の視野範囲を撮像した撮像情報を取得するステップと、
前記所定の視野範囲内の少なくとも1つの位置に照射した電磁波の反射波の検出情報を取得するステップと、
前記撮像情報に基づいて、前記所定の視野範囲内の物体の検知処理を行うステップと、
前記検出情報に基づいて、前記検知処理による検知結果の正誤を判定するステップと、を実行させるプログラム。
On the computer,
Acquiring imaging information obtained by imaging a predetermined visual field range;
Obtaining detection information of reflected waves of electromagnetic waves irradiated to at least one position within the predetermined visual field range;
Performing a process of detecting an object within the predetermined visual field range based on the imaging information;
Determining whether the detection result by the detection process is correct or not based on the detection information.
撮像装置と、電磁波を放射する電磁波放射装置と、前記電磁波の反射波を検出する電磁波検出装置と、物体検知装置とを備え、
前記物体検知装置は、
前記撮像装置が所定の視野範囲を撮像した撮像情報を取得する撮像情報取得部と、
前記所定の視野範囲内の少なくとも1つの位置に照射された電磁波の反射波の検出情報を取得する検出情報取得部と、
前記撮像情報に基づいて、前記所定の視野範囲内の物体の検知処理を行う物体検知部と、
前記検出情報に基づいて、前記検知処理による検知結果の正誤を判定する判定部と、を備える物体検知システム。
An imaging device, an electromagnetic wave radiation device that radiates electromagnetic waves, an electromagnetic wave detection device that detects reflected waves of the electromagnetic waves, and an object detection device,
The object detection device includes:
An imaging information acquisition unit that acquires imaging information obtained by imaging the predetermined visual field range by the imaging device;
A detection information acquisition unit for acquiring detection information of a reflected wave of an electromagnetic wave irradiated to at least one position within the predetermined visual field range;
An object detection unit that performs detection processing of an object within the predetermined visual field range based on the imaging information;
An object detection system comprising: a determination unit that determines whether the detection result by the detection process is correct based on the detection information.
JP2017120624A 2017-06-20 2017-06-20 Object sensing device, program, and object sensing system Pending JP2019007744A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017120624A JP2019007744A (en) 2017-06-20 2017-06-20 Object sensing device, program, and object sensing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017120624A JP2019007744A (en) 2017-06-20 2017-06-20 Object sensing device, program, and object sensing system

Publications (1)

Publication Number Publication Date
JP2019007744A true JP2019007744A (en) 2019-01-17

Family

ID=65029435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017120624A Pending JP2019007744A (en) 2017-06-20 2017-06-20 Object sensing device, program, and object sensing system

Country Status (1)

Country Link
JP (1) JP2019007744A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043044A (en) * 2019-09-10 2021-03-18 株式会社デンソー Object recognition abnormality detection device and object recognition abnormality detection program
US20220178681A1 (en) * 2020-12-03 2022-06-09 Seiko Epson Corporation Identification method, projection method and identification system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043044A (en) * 2019-09-10 2021-03-18 株式会社デンソー Object recognition abnormality detection device and object recognition abnormality detection program
WO2021049491A1 (en) * 2019-09-10 2021-03-18 株式会社デンソー Abnormality detection device for object recognition, abnormality detection program for object recognition, and abnormality detection method for object recognition
JP7103324B2 (en) 2019-09-10 2022-07-20 株式会社デンソー Anomaly detection device for object recognition and anomaly detection program for object recognition
US20220178681A1 (en) * 2020-12-03 2022-06-09 Seiko Epson Corporation Identification method, projection method and identification system

Similar Documents

Publication Publication Date Title
JP4359710B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2019144186A (en) Optical distance measuring device and method therefor
JP6667065B2 (en) Position estimation device and position estimation method
JP2003302470A (en) Pedestrian detection device and pedestrian detection method
JP5316572B2 (en) Object recognition device
JP6358552B2 (en) Image recognition apparatus and image recognition method
JP2013101045A (en) Recognition device and recognition method of three-dimensional position posture of article
JP2008123113A (en) Pedestrian detection device
JP2007114831A (en) Object detection device
US20180106598A1 (en) Distance measuring apparatus and distance measuring method
CN111366941A (en) TOF depth measuring device and method
WO2020196513A1 (en) Object detection device
JP2001052171A (en) Surrounding environment recognizing device
JP2008059260A (en) Movement detection image creating device
JP5320880B2 (en) Distance measuring device, distance measuring method and vehicle
US20160259034A1 (en) Position estimation device and position estimation method
JP5874252B2 (en) Method and apparatus for measuring relative position with object
JP2017181291A (en) Distance measurement device, distance measurement method and program
JP2019007744A (en) Object sensing device, program, and object sensing system
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2022168956A (en) Laser measuring device, and measurement method thereof
JP5658087B2 (en) Object detection device
JP7375838B2 (en) Distance measurement correction device, distance measurement correction method, distance measurement correction program, and distance measurement device
EP4035940A1 (en) Gating camera, automobile, vehicle lamp, image processing device, and image processing method
CN114365189A (en) Image registration device, image generation system, image registration method, and image registration program