JP6569416B2 - Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program - Google Patents

Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program Download PDF

Info

Publication number
JP6569416B2
JP6569416B2 JP2015182354A JP2015182354A JP6569416B2 JP 6569416 B2 JP6569416 B2 JP 6569416B2 JP 2015182354 A JP2015182354 A JP 2015182354A JP 2015182354 A JP2015182354 A JP 2015182354A JP 6569416 B2 JP6569416 B2 JP 6569416B2
Authority
JP
Japan
Prior art keywords
image data
image
reference image
installation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015182354A
Other languages
Japanese (ja)
Other versions
JP2017058890A (en
Inventor
直樹 本橋
直樹 本橋
山合 敏文
敏文 山合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015182354A priority Critical patent/JP6569416B2/en
Publication of JP2017058890A publication Critical patent/JP2017058890A/en
Application granted granted Critical
Publication of JP6569416B2 publication Critical patent/JP6569416B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing device, an object recognition device, a device control system, an image processing method, and an image processing program.

近年、情報処理技術や画像処理技術の発達により、視差を用いて高速に人や自動車などを検出(認識)する車載認識技術が開発されてきている。例えば、検出の対象が人や自動車である場合、撮像した画像データから検出の非対象となる画像データを棄却して、検出精度の向上、及び画像データの削減を図ることがある。   In recent years, with the development of information processing technology and image processing technology, in-vehicle recognition technology for detecting (recognizing) a person or a car at high speed using parallax has been developed. For example, when the detection target is a person or a car, image data that is not targeted for detection may be rejected from the captured image data to improve detection accuracy and reduce image data.

また、特許文献1には、撮像手段により時系列に出力された画像各々の中から、予め作成された検出対象のモデルに基づいて、該検出対象として識別される度合いを示す識別値が所定値以上の領域を取得し、取得された領域と、記憶手段に記憶された領域の系列とが対応するか照合し、領域の系列が検出対象であるか否かを判定する物体検出装置が開示されている。   Further, in Patent Document 1, an identification value indicating a degree of identification as a detection target based on a model of the detection target created in advance from each of the images output in time series by the imaging unit is a predetermined value. An object detection apparatus is disclosed that acquires the above regions, collates whether the acquired regions correspond to a sequence of regions stored in a storage unit, and determines whether the sequence of regions is a detection target. ing.

しかしながら、視差が輝度画像を基準に算出される場合、照明条件や被写体のテクスチャの影響を受ける問題や、輝度画像のブロックマッチングの性能によって視差が正確に算出されないことが発生することがある。したがって、撮像した画像データから検出の非対象となる画像データを棄却するときに、棄却の精度を十分に向上させることができないことがあった。換言すると、所定の方法で画像データを棄却する際に、視覚的に類似していたとしても、上記のように照明条件などで画像情報が変化すると、その差異によって棄却できる物体とできない物体が発生する可能性があった。   However, when the parallax is calculated on the basis of the luminance image, the parallax may not be accurately calculated due to the problem of being affected by the illumination condition or the texture of the subject, or the block matching performance of the luminance image. Therefore, when image data that is not subject to detection is rejected from captured image data, the accuracy of rejection may not be sufficiently improved. In other words, when image data is rejected by a predetermined method, even if it is visually similar, if the image information changes due to lighting conditions as described above, an object that can be rejected and an object that cannot be rejected are generated due to the difference. There was a possibility.

本発明は、上記に鑑みてなされたものであって、撮像された画像データから検出の非対象となる画像データを精度よく棄却することができる画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an image processing device, an object recognition device, a device control system, and an image that can accurately reject non-target image data from captured image data. It is an object to provide a processing method and an image processing program.

上述した課題を解決し、目的を達成するために、本発明は、1つ以上の物体が撮像された基準画像と、前記基準画像とは異なる撮像位置から撮像された比較画像との間で生じる視差の頻度分布に基づいて、前記基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定する第1判定部と、前記設置物画像データを前記基準画像データから棄却する第1棄却部と、前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定する第2判定部と、前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却する第2棄却部と、を有することを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention occurs between a reference image in which one or more objects are imaged and a comparative image imaged from an imaging position different from the reference image. First determination for determining, based on a frequency distribution of parallax, that part of the reference image data indicating the reference image is installation object image data indicating an installation object that is installed in a predetermined direction. A first rejection unit that rejects the installation object image data from the reference image data, and a part of the reference image data that the first rejection unit rejects the installation object image data. Based on the data, a second determination unit that determines that the image is continuous object image data indicating an object continuous to the installation object, and the reference image data in which the first rejection unit rejects the installation object image data, The continuous image data And having a second rejection unit for rejecting the data, the.

本発明によれば、撮像された画像データから検出の非対象となる画像データを精度よく棄却することができるという効果を奏する。   According to the present invention, there is an effect that image data that is not subject to detection can be accurately rejected from captured image data.

図1は、本発明の実施の形態にかかる機器制御システムである車両に搭載されたステレオカメラの位置を示す図である。FIG. 1 is a diagram showing the position of a stereo camera mounted on a vehicle which is a device control system according to an embodiment of the present invention. 図2は、車両が有するステレオカメラ及びその周辺の構成を示す図である。FIG. 2 is a diagram illustrating a stereo camera included in the vehicle and a configuration around the stereo camera. 図3は、ステレオカメラを備えた物体認識装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of an object recognition apparatus including a stereo camera. 図4は、車両が有する画像による機器制御機能の概要を示す機能ブロック図である。FIG. 4 is a functional block diagram showing an outline of the device control function based on the image of the vehicle. 図5は、カメラ部が撮像した基準画像を模式的に示した図である。FIG. 5 is a diagram schematically illustrating a reference image captured by the camera unit. 図6は、図5に示した基準画像に対応する頻度Uマップを示す図である。FIG. 6 is a diagram showing a frequency U map corresponding to the reference image shown in FIG. 図7は、図6に示した頻度Uマップをリアル頻度Uマップに変換した結果を示す図である。FIG. 7 is a diagram showing a result of converting the frequency U map shown in FIG. 6 into a real frequency U map. 図8は、棄却部の構成例を示すブロック図である。FIG. 8 is a block diagram illustrating a configuration example of the rejection unit. 図9は、俯瞰マップにおける先行車両の視差の頻度分布例を示す図である。FIG. 9 is a diagram illustrating an example of the frequency distribution of the parallax of the preceding vehicle in the overhead view map. 図10は、左隣の車線を走行している先行車両の視差の頻度分布と、先行車両のコーナー等を検出する処理過程を示す図である。FIG. 10 is a diagram illustrating a process of detecting the parallax frequency distribution of the preceding vehicle traveling in the left lane, the corner of the preceding vehicle, and the like. 図11は、視野角が最大になるブロックaと、視野角が最小になるブロックbとを示す図である。FIG. 11 is a diagram illustrating a block a in which the viewing angle is maximized and a block b in which the viewing angle is minimized. 図12は、視差頻度の高い点A、Bの第1の選択方法を示す図である。FIG. 12 is a diagram illustrating a first selection method for points A and B having a high parallax frequency. 図13は、視差頻度の高い点A、Bの第2の選択方法を示す図である。FIG. 13 is a diagram illustrating a second method for selecting points A and B having a high parallax frequency. 図14は、視差頻度の高い点A、Bの第3の選択方法を示す図である。FIG. 14 is a diagram illustrating a third method for selecting points A and B having a high parallax frequency. 図15は、自車と同じ車線を走行している先行車両の視差の頻度分布と、先行車両のコーナー等を検出する処理過程を示す図である。FIG. 15 is a diagram illustrating a process of detecting a parallax frequency distribution of a preceding vehicle traveling in the same lane as the own vehicle, a corner of the preceding vehicle, and the like. 図16は、走行車両の左側に側壁物がある状態を示す図である。FIG. 16 is a diagram illustrating a state where there is a side wall on the left side of the traveling vehicle. 図17は、走行車両の右側を走行している追い越し車両と、遠方の側壁物が新規検出物体である場合を示す図である。FIG. 17 is a diagram illustrating a case where the passing vehicle traveling on the right side of the traveling vehicle and the far side wall object are newly detected objects. 図18は、側壁物の面が1つの場合と、2つの場合を示す図である。FIG. 18 is a diagram illustrating a case where there are one and two side walls. 図19は、前方を走行する車両が形成する2つの面を示す図である。FIG. 19 is a diagram illustrating two surfaces formed by a vehicle traveling ahead. 図20は、第1算出部の動作を示すフローチャートである。FIG. 20 is a flowchart showing the operation of the first calculation unit. 図21は、棄却部の第1動作例を示すフローチャートである。FIG. 21 is a flowchart illustrating a first operation example of the rejection unit. 図22は、側壁物中に出現する誤認識物体を示す図である。FIG. 22 is a diagram illustrating a misrecognized object appearing in the side wall object. 図23は、棄却されていなかった面を側壁物の一部と判定する場合の例を示す図である。FIG. 23 is a diagram illustrating an example of a case where a surface that has not been rejected is determined to be a part of the side wall object. 図24は、棄却部の第2動作例を示すフローチャートである。FIG. 24 is a flowchart illustrating a second operation example of the rejection unit. 図25は、残存物体を誤検出物体と判定する場合の例を示す図である。FIG. 25 is a diagram illustrating an example of a case where the remaining object is determined as an erroneously detected object. 図26は、残存物体を誤検出物体と判定する条件を例示する図である。FIG. 26 is a diagram illustrating conditions for determining a remaining object as an erroneously detected object. 図27は、棄却部の第3動作例を模式的に示す図である。FIG. 27 is a diagram schematically illustrating a third operation example of the rejection unit. 図28は、棄却部の第4動作例を模式的に示す図である。FIG. 28 is a diagram schematically illustrating a fourth operation example of the rejection unit. 図29は、棄却部の第4動作例を示すフローチャートである。FIG. 29 is a flowchart showing a fourth operation example of the rejection unit. 図30は、棄却部の第5動作例を模式的に示す図である。FIG. 30 is a diagram schematically illustrating a fifth operation example of the rejection unit.

以下に添付図面を参照して、実施形態にかかる機器制御システムについて説明する。図1は、本発明の実施の形態にかかる機器制御システムの例である車両1に搭載されたステレオカメラ2の位置を示す図である。例えば、車両1は、進行方向前側の所定の撮像範囲を撮像するステレオカメラ2が前部に設けられた自動車である。ステレオカメラ2は、図3を用いて後述するように2つの画像センサ22を備え、左目視界と右目視界の2つの画像を撮像する撮像部である。   A device control system according to an embodiment will be described below with reference to the accompanying drawings. FIG. 1 is a diagram showing the position of a stereo camera 2 mounted on a vehicle 1 that is an example of a device control system according to an embodiment of the present invention. For example, the vehicle 1 is an automobile in which a stereo camera 2 that captures a predetermined imaging range on the front side in the traveling direction is provided at the front. As will be described later with reference to FIG. 3, the stereo camera 2 includes two image sensors 22 and is an imaging unit that captures two images of the left visual field and the right visual field.

図2は、車両1が有するステレオカメラ2及びその周辺の構成例を示す図である。ステレオカメラ2は、例えば撮像した2つの画像を車両ECU(Engine Control Unit)3に対して出力する。車両ECU3は、車両1に設置され、車両1のエンジン及び車両1のその他の電気的な制御及び処理を総合的に行う。   FIG. 2 is a diagram illustrating a configuration example of the stereo camera 2 included in the vehicle 1 and its surroundings. The stereo camera 2 outputs, for example, two captured images to a vehicle ECU (Engine Control Unit) 3. The vehicle ECU 3 is installed in the vehicle 1 and comprehensively performs the engine of the vehicle 1 and other electrical control and processing of the vehicle 1.

図3は、ステレオカメラ2を備えた物体認識装置4の構成例を示す図である。物体認識装置4は、例えばステレオカメラ2及び画像処理装置30を有する。ステレオカメラ2は、左目用となるカメラ部2aと、右目用となるカメラ部2bが平行(水平)に組みつけられ、撮像対象領域の動画(又は静止画)を撮影する。   FIG. 3 is a diagram illustrating a configuration example of the object recognition device 4 including the stereo camera 2. The object recognition device 4 includes, for example, a stereo camera 2 and an image processing device 30. In the stereo camera 2, a camera unit 2 a for the left eye and a camera unit 2 b for the right eye are assembled in parallel (horizontal) to shoot a moving image (or still image) in the imaging target area.

カメラ部2a、2bは、それぞれレンズ21、画像センサ22、及びセンサコントローラ23を備えている。画像センサ22は、例えばCCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサである。センサコントローラ23は、例えば画像センサ22の露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う。   Each of the camera units 2a and 2b includes a lens 21, an image sensor 22, and a sensor controller 23. The image sensor 22 is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. The sensor controller 23 performs, for example, exposure control of the image sensor 22, image readout control, communication with an external circuit, image data transmission control, and the like.

画像処理装置30は、例えば図2に示した車両ECU3内に設けられる。画像処理装置30は、例えばデータバスライン300、シリアルバスライン302、CPU(Central Processing Unit)304、FPGA(Field-Programmable Gate Array)306、ROM(Read Only Memory)308、RAM(Random Access Memory)310、シリアルIF(Interface)312、及びデータIF(Interface)314を有する。   The image processing device 30 is provided, for example, in the vehicle ECU 3 shown in FIG. The image processing apparatus 30 includes, for example, a data bus line 300, a serial bus line 302, a CPU (Central Processing Unit) 304, an FPGA (Field-Programmable Gate Array) 306, a ROM (Read Only Memory) 308, and a RAM (Random Access Memory) 310. Serial IF (Interface) 312 and data IF (Interface) 314.

上述したステレオカメラ2は、データバスライン300及びシリアルバスライン302を介して画像処理装置30と接続されている。CPU304は、画像処理装置30全体の動作を制御し、画像処理及び画像認識処理を実行する。カメラ部2a、2bそれぞれの画像センサ22が撮像した撮像画像の輝度画像データは、データバスライン300を介して画像処理装置30のRAM310に書き込まれる。CPU304又はFPGA306からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、及び各種設定データ等は、シリアルバスライン302を介して送受信される。   The stereo camera 2 described above is connected to the image processing apparatus 30 via the data bus line 300 and the serial bus line 302. The CPU 304 controls the overall operation of the image processing apparatus 30 and executes image processing and image recognition processing. Luminance image data of captured images captured by the image sensors 22 of the camera units 2 a and 2 b are written into the RAM 310 of the image processing device 30 via the data bus line 300. Sensor exposure value change control data, image readout parameter change control data, various setting data, and the like from the CPU 304 or FPGA 306 are transmitted and received via the serial bus line 302.

FPGA306は、RAM310に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM310に再度書き込む。CPU304は、ステレオカメラ2の各センサコントローラ23の制御、及び画像処理装置30の全体的な制御を行う。また、ROM308には、状況認識、予測、及び物体認識等を実行するための(立体)物体認識プログラムが記憶されている。   The FPGA 306 generates real-time parallax images by performing parallax calculation based on, for example, gamma correction, distortion correction (parallelization of left and right images), and block matching, which is a process that requires real-time processing for image data stored in the RAM 310. , Write again to the RAM 310. The CPU 304 performs control of each sensor controller 23 of the stereo camera 2 and overall control of the image processing apparatus 30. The ROM 308 stores a (three-dimensional) object recognition program for executing situation recognition, prediction, object recognition, and the like.

物体認識プログラムは、画像処理プログラムの一例である。CPU304は、データIF314を介して、例えば自車両のCAN(Controller Area Network)情報をパラメータ(車速、加速度、舵角、ヨーレート等)として取得する。そして、CPU304は、ROM308に記憶されている物体認識プログラムに従って、RAM310に記憶されている輝度画像データ及び視差画像データを用いて、状況認識等の各種処理を実行し、例えば先行車両等の検出対象の検出(認識)を行う。また、画像データの棄却処理もCPU304が実施する。   The object recognition program is an example of an image processing program. The CPU 304 acquires, for example, CAN (Controller Area Network) information of the host vehicle as parameters (vehicle speed, acceleration, steering angle, yaw rate, etc.) via the data IF 314. Then, the CPU 304 executes various processes such as situation recognition using the luminance image data and the parallax image data stored in the RAM 310 in accordance with the object recognition program stored in the ROM 308, for example, a detection target such as a preceding vehicle. Is detected (recognized). The CPU 304 also performs image data rejection processing.

検出対象(認識対象)の検出データ(認識データ)は、シリアルIF312を介して、例えば車両ECU3内に制御機能を設けられた自動ブレーキシステム、又は自動速度制御システム等に対して出力される。自動ブレーキシステムは、認識対象の認識データを用いて車両1のブレーキ制御を行う。また、自動速度制御システムは、認識対象の認識データを用いて車両1の速度制御を行う。   Detection data (recognition data) of a detection target (recognition target) is output via a serial IF 312 to, for example, an automatic brake system or an automatic speed control system provided with a control function in the vehicle ECU 3. The automatic brake system performs brake control of the vehicle 1 using recognition data to be recognized. In addition, the automatic speed control system performs speed control of the vehicle 1 using recognition data to be recognized.

次に、車両1がステレオカメラ2を用いて実行する機器制御について説明する。図4は、車両1が有する画像による機器制御機能の概要を示す機能ブロック図である。なお、図4においては、車両1がステレオカメラ2を用いて行う機器制御機能が示されている。   Next, device control executed by the vehicle 1 using the stereo camera 2 will be described. FIG. 4 is a functional block diagram showing an outline of the device control function based on the image of the vehicle 1. In FIG. 4, a device control function performed by the vehicle 1 using the stereo camera 2 is shown.

車両1は、画像による機器制御を実行するために、撮像部(ステレオカメラ)2、視差計算部40、クラスタリング部42、棄却部44、トラッキング部46、及び出力制御部32を有する。ここで、視差計算部40、クラスタリング部42、棄却部44、及びトラッキング部46は、画像処理装置30が物体認識プログラムを実行することによって実現される。また、出力制御部32は、例えば車両ECU3内に設けられ、車両1に設けられたエンジンやブレーキなどの機構等を制御する。なお、視差計算部40、クラスタリング部42、棄却部44、トラッキング部46、及び出力制御部32は、ソフトウェアによって構成されることに限定されることなく、それぞれ一部又は全部がハードウェアによって構成されてもよい。   The vehicle 1 includes an imaging unit (stereo camera) 2, a parallax calculation unit 40, a clustering unit 42, a rejection unit 44, a tracking unit 46, and an output control unit 32 in order to execute device control using images. Here, the parallax calculation unit 40, the clustering unit 42, the rejection unit 44, and the tracking unit 46 are realized by the image processing apparatus 30 executing the object recognition program. The output control unit 32 is provided, for example, in the vehicle ECU 3 and controls a mechanism such as an engine and a brake provided in the vehicle 1. Note that the parallax calculation unit 40, the clustering unit 42, the rejection unit 44, the tracking unit 46, and the output control unit 32 are not limited to being configured by software, and some or all are configured by hardware. May be.

ここでは、車両1が動画の1フレームの画像(左目視界と右目視界の2つの画像)を処理する場合を例に説明する。まず、撮像部(ステレオカメラ)2は、フレーム情報を取得する。入力フレームは、ステレオカメラ2が2つの画像センサ22を用いて撮像した2枚の画像である。2枚の画像の一方は基準画像となり、他方は比較画像となる。比較画像は、基準画像とは異なる撮像位置から撮像される。カメラ部2aは、例えば図5に模式的に示した基準画像を撮像する。基準画像には、先行車両500、対向車両502、左ガードレール504a、及び右ガードレール504bが撮影されている。   Here, a case where the vehicle 1 processes one frame image of a moving image (two images of the left visual field and the right visual field) will be described as an example. First, the imaging unit (stereo camera) 2 acquires frame information. The input frames are two images captured by the stereo camera 2 using the two image sensors 22. One of the two images is a reference image and the other is a comparative image. The comparative image is taken from a different imaging position from the reference image. The camera unit 2a captures a reference image schematically illustrated in FIG. 5, for example. In the reference image, the preceding vehicle 500, the oncoming vehicle 502, the left guard rail 504a, and the right guard rail 504b are photographed.

視差計算部40(図4)は、基準画像と比較画像を用いて、局所領域のブロックマッチングなどにより、画素ごとの視差を計算する。   The parallax calculation unit 40 (FIG. 4) calculates the parallax for each pixel by block matching of the local region using the reference image and the comparison image.

クラスタリング部42は、視差計算部40が計算した視差の頻度をカウントし、視差の頻度に応じた画素値をもつ画素を輝度画像の二次元直交座標系上に分布させたマップ(頻度Uマップ)を作成する。例えば、クラスタリング部42は、基準画像及び比較画像に撮影された路面からの高さが30cm〜2mの間の画像の視差を用いて頻度Uマップを作成する。   The clustering unit 42 counts the frequency of the parallax calculated by the parallax calculation unit 40, and distributes pixels having pixel values according to the frequency of the parallax on the two-dimensional orthogonal coordinate system of the luminance image (frequency U map). Create For example, the clustering unit 42 creates a frequency U map using the parallax of an image having a height from a road surface of 30 cm to 2 m taken in the reference image and the comparison image.

図6は、図5に示した基準画像に対応する頻度Uマップである。頻度Uマップは、横軸が画像の横方向(X方向)と同じであり、縦軸が奥行方向となっている。図6に示した頻度Uマップでは、図5の基準画像に撮影されていた先行車両500、対向車両502、左ガードレール504a、及び右ガードレール504bに対応する位置に、視差を示す画素が密集している領域(密集領域)ができている。   FIG. 6 is a frequency U map corresponding to the reference image shown in FIG. In the frequency U map, the horizontal axis is the same as the horizontal direction (X direction) of the image, and the vertical axis is the depth direction. In the frequency U map shown in FIG. 6, pixels indicating parallax are densely arranged at positions corresponding to the preceding vehicle 500, the oncoming vehicle 502, the left guard rail 504 a, and the right guard rail 504 b captured in the reference image of FIG. 5. Area (dense area).

さらに、クラスタリング部42は、頻度Uマップをリアル頻度Uマップに変換する。頻度Uマップ上のx方向の距離は、実空間上のx方向の距離が同じであっても、ステレオカメラ2からの距離が離れるほど(頻度Uマップの上側に向かって)、頻度Uマップ上の消失点に近づくので、短くなってしまう。図7は、図6に示した頻度Uマップをリアル頻度Uマップに変換した結果を示す図である。リアル頻度Uマップは、頻度UマップにおけるX方向の距離を、ステレオカメラ2から撮影された物体までの距離によらず、実空間上のx方向の位置に変換したものである。つまり、リアル頻度Uマップは、基準画像に撮影されている領域を実空間上で真上から見た場合の視差の頻度の分布を表すマップである。リアル頻度Uマップの縦軸は、ステレオカメラ2からの距離を示している。   Further, the clustering unit 42 converts the frequency U map into a real frequency U map. The distance in the x direction on the frequency U map is higher on the frequency U map as the distance from the stereo camera 2 increases (towards the upper side of the frequency U map) even if the distance in the x direction in the real space is the same. As it approaches the vanishing point, it becomes shorter. FIG. 7 is a diagram showing a result of converting the frequency U map shown in FIG. 6 into a real frequency U map. The real frequency U map is obtained by converting the distance in the X direction in the frequency U map into the position in the x direction on the real space regardless of the distance from the stereo camera 2 to the photographed object. In other words, the real frequency U map is a map that represents the distribution of the parallax frequency when the region captured in the reference image is viewed from directly above in real space. The vertical axis of the real frequency U map indicates the distance from the stereo camera 2.

図7に示したリアル頻度Uマップでは、左ガードレール504a及び右ガードレール504bは、上下方向に延びる密集領域となる。また、先行車両500及び対向車両502は、車両の背面と片側面に対応する形状の密集領域になる。このように、リアル頻度Uマップでは、物体を示す密集領域は、実空間上の車両1の前方の領域を真上から見たときの物体の形状に近い形状となる。リアル頻度Uマップは、フレーム(視差画像)全体に対して作成されてもよいし、部分領域に対して作成されてもよい。なお、リアル頻度Uマップのことを、俯瞰マップと記すことがある。   In the real frequency U map shown in FIG. 7, the left guard rail 504a and the right guard rail 504b are dense areas extending in the vertical direction. In addition, the preceding vehicle 500 and the oncoming vehicle 502 are dense regions having shapes corresponding to the back surface and one side surface of the vehicle. Thus, in the real frequency U map, the dense area indicating the object has a shape close to the shape of the object when the area in front of the vehicle 1 in the real space is viewed from directly above. The real frequency U map may be created for the entire frame (parallax image) or may be created for a partial region. Note that the real frequency U map may be referred to as an overhead map.

そして、クラスタリング部42は、俯瞰マップ上での密集領域を新規検出物体として検出する。この時、クラスタリング部42は、新規検出物体に対して、輝度画像上の座標やサイズから予測した物体のタイプ(人や自動車)などの個体情報を付与する。図7に示した俯瞰マップでは、図5の基準画像に撮影されていた先行車両500、対向車両502、左ガードレール504a、及び右ガードレール504bが真上から見た実際の形状に近い形で密集領域になっている。   Then, the clustering unit 42 detects a dense area on the overhead map as a newly detected object. At this time, the clustering unit 42 assigns the individual information such as the object type (person or car) predicted from the coordinates and size on the luminance image to the newly detected object. In the bird's-eye view map shown in FIG. 7, the preceding vehicle 500, the oncoming vehicle 502, the left guard rail 504 a, and the right guard rail 504 b captured in the reference image in FIG. 5 are close to the actual shape viewed from directly above. It has become.

棄却部44(図4)は、フレーム情報(輝度画像、視差画像)、俯瞰マップ、及び新規検出物体の個体情報を用いて、新規検出物体が検出対象(認識対象)の物体であるか、非検出対象の物体であるかを判定する。ここでは、例えば人及び自動車を検出対象とし、その他の側壁物などを非検出対象とする。なお、検出対象の物体は、継続的に検出すべき物体(追跡対象)として扱われる。そして、棄却部44は、非検出対象を示す画像データを棄却対象の画像データと判定する(棄却判定)。棄却部44は、棄却対象となった画像データ(個体情報)に棄却判定結果を付与する。   The rejection unit 44 (FIG. 4) uses the frame information (luminance image, parallax image), the bird's-eye view map, and the individual information of the newly detected object to determine whether the newly detected object is a detection target (recognition target) object. It is determined whether the object is a detection target. Here, for example, humans and automobiles are set as detection targets, and other side walls are set as non-detection targets. Note that the detection target object is treated as an object (tracking target) to be detected continuously. The rejection unit 44 determines that the image data indicating the non-detection target is the image data to be rejected (rejection determination). The rejection unit 44 assigns a rejection determination result to the image data (individual information) that is the target of rejection.

さらに、棄却部44について詳述する。図8は、棄却部44の構成例を示すブロック図である。棄却部44は、例えばネットワークバス440、取得部442、第1処理部444、第2処理部446を有し、記憶部448を備えるように構成されてもよい。記憶部448は、例えば棄却部44を構成する各部が処理した結果を記憶する。また、出力部449を備えてもよい。出力部449は、棄却部44内での棄却結果を、後段の処理部(例えば、トラッキング部46)に出力する。そして、棄却部44は、着目フレーム以前に棄却した非検出対象を用いて、着目フレームに対する処理を行ってもよい。なお、取得部442、第1処理部444、及び第2処理部446は、それぞれ一部又は全部がハードウェアによって構成されてもよいし、ソフトウェアによって構成されてもよい。   Further, the rejection unit 44 will be described in detail. FIG. 8 is a block diagram illustrating a configuration example of the rejection unit 44. The rejection unit 44 may include, for example, a network bus 440, an acquisition unit 442, a first processing unit 444, and a second processing unit 446, and may include a storage unit 448. The memory | storage part 448 memorize | stores the result which each part which comprises the rejection part 44 processed, for example. Further, an output unit 449 may be provided. The output unit 449 outputs the rejection result in the rejection unit 44 to a subsequent processing unit (for example, the tracking unit 46). And the rejection part 44 may perform the process with respect to a view frame using the non-detection object rejected before the view frame. Note that the acquisition unit 442, the first processing unit 444, and the second processing unit 446 may be partially or entirely configured by hardware or software.

ネットワークバス440は、データを伝送するバスである。例えば、ネットワークバス440は、新規検出物体ごとにデータを伝送する。   The network bus 440 is a bus that transmits data. For example, the network bus 440 transmits data for each newly detected object.

取得部442は、クラスタリング部42が検出した新規検出物体の個体情報、フレーム(輝度画像、視差画像)、俯瞰マップなどを取得する。より具体的には、取得部442が棄却処理に必要な情報を取得する。取得部442は、ステレオカメラ2などのデバイスが取得した情報を直接読み込んでもよいし、これらの情報を予めCD、DVD、HDDなどの記録メディアやネットワーク・ストレージに保存しておき、必要時にこれらを読み込んでもよい。また、取得部442は、静止画を取得しても、ステレオカメラ2が撮影した動画像データを逐次取得してもよい。   The acquisition unit 442 acquires individual information of a newly detected object detected by the clustering unit 42, a frame (luminance image, parallax image), an overhead map, and the like. More specifically, the acquisition unit 442 acquires information necessary for the rejection process. The acquisition unit 442 may directly read information acquired by a device such as the stereo camera 2 or store the information in a recording medium such as a CD, DVD, HDD, or a network storage in advance, and store these information when necessary. It may be read. Further, the acquisition unit 442 may acquire still images or sequentially acquire moving image data captured by the stereo camera 2.

取得部442が取得する情報は、任意の組み合わせで構成されてもよい。例えば、取得部442は、ステレオカメラ2が撮影したフレーム(視差画像)から生成した俯瞰マップとクラスタリング結果として生成された新規検出物体情報を併せて取得してもよい。新規検出物体情報は、クラスタリング結果として得られた、輝度画像上の位置、サイズから判定したオブジェクトタイプ(歩行者や人)、棄却情報、トラッキング情報などを物体ごとに任意に組み合わせたものである。また、取得部442は、視差画像をクロップしたものを取得してもよいし、物体情報が持つ座標情報に基づいて視差画像中の該当箇所の画素を示す情報を取得してもよい。   Information acquired by the acquisition unit 442 may be configured in any combination. For example, the acquisition unit 442 may acquire the overhead map generated from the frame (parallax image) captured by the stereo camera 2 and the newly detected object information generated as a clustering result. The newly detected object information is obtained by arbitrarily combining object types (pedestrians or people), rejection information, tracking information, and the like determined from the position and size on the luminance image obtained as a clustering result for each object. Further, the acquisition unit 442 may acquire a cropped parallax image, or may acquire information indicating a pixel at a corresponding location in the parallax image based on coordinate information included in the object information.

第1処理部444は、例えば第1算出部450、対象面決定部451、第1判定部452、及び第1棄却部453を有する。なお、第1処理部444は、対象面決定部451を有していない構成であってもよい。   The first processing unit 444 includes, for example, a first calculation unit 450, a target surface determination unit 451, a first determination unit 452, and a first rejection unit 453. Note that the first processing unit 444 may have a configuration that does not include the target surface determination unit 451.

第1算出部450は、新規検出物体が有する面を算出し、算出した面の角度をさらに算出する。なお、新規検出物体が有する面の角度とは、例えばステレオカメラ2が有する2つの画像センサ22をそれぞれ通過する直線に対する俯瞰マップ上の角度であるとする。   The first calculation unit 450 calculates the surface of the newly detected object and further calculates the calculated angle of the surface. Note that the angle of the surface of the newly detected object is, for example, an angle on an overhead map with respect to straight lines passing through the two image sensors 22 of the stereo camera 2.

ここで、第1算出部450が新規検出物体の面を算出し、算出した面の角度をさらに算出する具体例について説明する。図9は、俯瞰マップにおける先行車両の視差の頻度分布例を示す図である。俯瞰マップの分解能を例えば128mmとすると、先行車両の視差の頻度分布は、128mm×128mmのブロックが複数並んだ形状となる。なお、俯瞰マップの分解能を高くすると(例えば、64mm)、精度は上がるが、ブロックの密度が疎らになって物体の検出が困難になる。また、俯瞰マップの分解能を低くすると(例えば、256mm)、ブロックの密度が密になるが、分解能が低いために物体の正確な位置が検出しにくくなる。   Here, a specific example in which the first calculation unit 450 calculates the surface of the newly detected object and further calculates the calculated angle of the surface will be described. FIG. 9 is a diagram illustrating an example of the frequency distribution of the parallax of the preceding vehicle in the overhead view map. If the resolution of the bird's-eye view map is, for example, 128 mm, the parallax frequency distribution of the preceding vehicle has a shape in which a plurality of 128 mm × 128 mm blocks are arranged. Note that if the resolution of the overhead view map is increased (for example, 64 mm), the accuracy increases, but the density of the blocks becomes sparse and it becomes difficult to detect the object. Further, when the resolution of the overhead view map is lowered (for example, 256 mm), the density of the blocks becomes dense. However, since the resolution is low, it is difficult to detect the exact position of the object.

先行車両の視差の頻度分布では、図9に示したZ軸方向及びX軸方向において、ステレオカメラ2からの距離が遠い位置でブロックが斜め方向に伸びる形状となる。これは、撮影時の条件等に応じて生じる視差の誤差(分散)によるものである。俯瞰マップを作成する元となった基準画像及び比較画像において、先行車両の側面しか写っていない場合は、当該斜め方向に延びるブロックは少ない。また、俯瞰マップを作成する元となった基準画像及び比較画像において、先行車両の近くに、先行車両より遠方に存在するものが背景として写っている場合等は、当該背景の視差の影響による誤差で、当該斜め方向に延びるブロックが多くなる。   In the parallax frequency distribution of the preceding vehicle, the blocks extend in a diagonal direction at a position far from the stereo camera 2 in the Z-axis direction and the X-axis direction shown in FIG. This is due to parallax errors (dispersion) that occur according to conditions at the time of shooting. When only the side surface of the preceding vehicle is shown in the reference image and the comparison image from which the bird's-eye view map is created, there are few blocks extending in the diagonal direction. In addition, in the reference image and comparison image from which the bird's-eye view map is created, if an object that is located farther than the preceding vehicle is reflected in the background, the error due to the parallax of the background Thus, the number of blocks extending in the diagonal direction increases.

次に、先行車両の視差の頻度分布を用いて、当該先行車両のコーナー(先行車両の側面と背面の境界)等を検出する処理について説明する。図10は、左隣の車線を走行している先行車両の視差の頻度分布と、先行車両のコーナー等を検出する処理過程を示す図である。   Next, a process of detecting a corner of the preceding vehicle (a boundary between the side surface and the rear surface of the preceding vehicle) and the like using the parallax frequency distribution of the preceding vehicle will be described. FIG. 10 is a diagram illustrating a process of detecting the parallax frequency distribution of the preceding vehicle traveling in the left lane, the corner of the preceding vehicle, and the like.

まず、第1算出部450は、検出した先行車両の視差を示すブロックの密集領域に対し、視野角が最小になる位置付近の領域、及び視野角が最大になる位置付近の領域それぞれで、視差頻度の高い点A、Bを算出する。なお、視野角は、例えば2つの画像センサ22の中心点(基準画像及び比較画像それぞれの撮像位置の中心点)からのZ方向に延びる直線に対する角度である。   First, the first calculation unit 450 performs a parallax in each of a region near the position where the viewing angle is minimum and a region near the position where the viewing angle is maximum with respect to the block dense area indicating the parallax of the detected preceding vehicle. The points A and B with high frequency are calculated. Note that the viewing angle is, for example, an angle with respect to a straight line extending in the Z direction from the center point of each of the two image sensors 22 (the center point of the imaging position of each of the reference image and the comparison image).

より具体的には、図11に示すように、第1算出部450は、視野角が最小になる位置付近の領域、及び視野角が最大になる位置付近の領域をそれぞれ決定するために、まず、視野角が最大になるブロックaと、視野角が最小になるブロックbとを探索して選択する。   More specifically, as shown in FIG. 11, the first calculation unit 450 first determines a region near the position where the viewing angle is minimum and a region near the position where the viewing angle is maximum. The block a having the largest viewing angle and the block b having the smallest viewing angle are searched and selected.

次に、第1算出部450は、第1の選択方法として、図12に示すように、各ブロックを包含する外接矩形600を設定し、ブロックaを包含する三角領域602と、ブロックbを包含する三角領域604とを設定する。ここでは、外接矩形600の左下に三角領域602が設定され、右上に三角領域604が設定されている。そして、第1算出部450は、三角領域602の中で頻度が最大となるブロックを点Aとして選択し、三角領域604の中で頻度が最大となるブロックを点Bとして選択する。   Next, as shown in FIG. 12, the first calculation unit 450 sets a circumscribed rectangle 600 that includes each block as a first selection method, and includes a triangular area 602 that includes the block a and a block b. The triangular area 604 to be set is set. Here, a triangular area 602 is set at the lower left of the circumscribed rectangle 600, and a triangular area 604 is set at the upper right. Then, the first calculation unit 450 selects a block having the highest frequency in the triangular area 602 as the point A, and selects a block having the highest frequency in the triangular area 604 as the point B.

また、第1算出部450は、第2の選択方法として、図13に示すように、選択したブロックa及びブロックbをそれぞれ中心にした所定の矩形範囲606(例えば5×5、又は長方形)に含まれるブロック集合の中で、頻度が最大となる点A、点Bを選択する。   Further, as shown in FIG. 13, the first calculation unit 450 sets the second selection method to a predetermined rectangular range 606 (for example, 5 × 5 or rectangular) centered on the selected block a and block b, respectively. Point A and point B with the highest frequency are selected from the included block set.

また、第1算出部450は、第3の選択方法として、図14に示すように、選択したブロックa及びブロックbをそれぞれ中心にした所定の半径の円608(例えば半径3.5、又は楕円)に含まれるブロック集合の中で、頻度が最大となる点A、点Bを選択する。   In addition, as shown in FIG. 14, the first calculation unit 450 uses a circle 608 (for example, a radius of 3.5 or an ellipse with a predetermined radius) centered on the selected block a and block b as shown in FIG. ), The points A and B with the highest frequency are selected from the block set included in ().

このように、第1算出部450は、第1の選択方法〜第3の選択方法のいずれか等の方法を用いて、視差頻度の高い点A、Bを算出する。   As described above, the first calculation unit 450 calculates the points A and B having a high parallax frequency by using any one of the first selection method to the third selection method.

次に、第1算出部450は、図10に示したように、点A、Bを直径の端点とする円周上の点Dを俯瞰マップ上で設定する。そして、第1算出部450は、線分AD及び線分BDが通過する俯瞰マップ上の点(ブロック)の頻度の平均値を、頻度平均値として算出する。   Next, as shown in FIG. 10, the first calculation unit 450 sets a point D on the circumference having the points A and B as end points of the diameter on the overhead view map. And the 1st calculation part 450 calculates the average value of the frequency of the point (block) on the bird's-eye view map through which line segment AD and line segment BD pass as a frequency average value.

第1算出部450は、頻度平均値を例えば次のように算出してもよい。まず、第1算出部450は、俯瞰マップ上の各ブロックの中心を、X座標及びZ座標の整数の座標値とする。そして、点AのX座標の値から、点DのX座標の値まで、1ずつ値を変え、各X座標の値において、線分ADのZ座標の小数点以下を四捨五入する等により量子化する。そして、第1算出部450は、各X座標における量子化されたZ座標の各ブロックの頻度の値を合計する。つまり、線分ADについての頻度の合計値が算出される。   The first calculation unit 450 may calculate the frequency average value as follows, for example. First, the first calculation unit 450 sets the center of each block on the overhead view map as an integer coordinate value of the X coordinate and the Z coordinate. Then, the value is changed one by one from the X coordinate value of the point A to the X coordinate value of the point D, and each X coordinate value is quantized by rounding off the decimal point of the Z coordinate of the line segment AD. . Then, the first calculation unit 450 sums up the frequency values of each block of the quantized Z coordinate in each X coordinate. That is, the total frequency value for the line segment AD is calculated.

同様に、第1算出部450は、線分BDについての頻度の合計値も算出する。そして、第1算出部450は、線分AD、線分BDの頻度の合計値を、当該合計値に自身の頻度の値を算入された上記各ブロックの数で除算する。図10に示した例の場合、○が付与されたブロックに対応する頻度の値が合計され、○が付与されたブロックの数である11で除算される。また、第1算出部450は、線分AD及び線分DBが通過する俯瞰マップ上のブロック毎の頻度の値を積分することによって合計値を算出し、線分AD及び線分DBの長さで除算することにより、頻度平均値を算出してもよい。また、頻度平均値を使用せずに、頻度の合計値を使うことも可能である。要するに二本の線分が視差分布上に配置されるように決定できれば任意の方法が使用可能である。   Similarly, the first calculation unit 450 also calculates the total value of the frequencies for the line segment BD. Then, the first calculation unit 450 divides the total value of the frequency of the line segment AD and the line segment BD by the number of each block in which the value of its own frequency is included in the total value. In the case of the example shown in FIG. 10, the frequency values corresponding to the blocks with ◯ are totaled and divided by 11, which is the number of blocks with ◯. In addition, the first calculation unit 450 calculates the total value by integrating the frequency value for each block on the overhead view map through which the line segment AD and the line segment DB pass, and the length of the line segment AD and the line segment DB. The frequency average value may be calculated by dividing by. Further, it is possible to use the total value of the frequencies without using the frequency average value. In short, any method can be used as long as it can be determined that two line segments are arranged on the parallax distribution.

さらに、第1算出部450は、点Dを点Aから点Bまで移動させ、頻度平均値の算出を繰り返す。例えば、第1算出部450は、点Dを、点A、Bを直径の端点とする円周上で、円の中心からの角度が所定の角度(例えば2°)ずつ変わるように移動させる。そして、第1算出部450は、弧AB間で頻度平均値が最大となる点DをDmaxとして出力する。図10に示した例の場合には、線分ADmax及び線分BDmaxのX軸方向に対する角度は、それぞれ0度、90度となる。   Further, the first calculation unit 450 moves the point D from the point A to the point B, and repeats the calculation of the frequency average value. For example, the first calculation unit 450 moves the point D so that the angle from the center of the circle changes by a predetermined angle (for example, 2 °) on the circumference having the points A and B as the end points of the diameter. And the 1st calculation part 450 outputs the point D where a frequency average value becomes maximum between arc AB as Dmax. In the case of the example shown in FIG. 10, the angles of the line segment ADmax and the line segment BDmax with respect to the X-axis direction are 0 degrees and 90 degrees, respectively.

図15は、自車と同じ車線(正面)を走行している先行車両の視差の頻度分布と、先行車両のコーナー等を検出する処理過程を示す図である。自車と同じ車線(正面)を走行している先行車両の視差の頻度分布に対して、頻度平均値が最大となる点Dmaxを算出すると、点Dmaxの位置は点A又は点Bの位置となる。なお、図15に示した例の場合、線分ADmax及び線分BDmaxのX軸方向に対する角度は、どちらも0度となる。   FIG. 15 is a diagram illustrating a process of detecting a parallax frequency distribution of a preceding vehicle traveling in the same lane (front) as the own vehicle, a corner of the preceding vehicle, and the like. When the point Dmax at which the frequency average value is maximized is calculated with respect to the parallax frequency distribution of the preceding vehicle traveling in the same lane (front) as the own vehicle, the position of the point Dmax is the position of the point A or the point B. Become. In the case of the example shown in FIG. 15, the angles of the line segment ADmax and the line segment BDmax with respect to the X-axis direction are both 0 degrees.

そして、第1算出部450は、線分ADmaxに対応する平面の角度、線分BDmaxに対応する平面の角度、及び各平面の垂直な辺の(X、Y)座標を算出する。つまり、第1算出部450は、基準画像及び比較画像それぞれの撮像位置を通る直線に対して、基準画像に撮像された物体が備える面の角度を視差の頻度分布に基づいて算出する。   Then, the first calculation unit 450 calculates the angle of the plane corresponding to the line segment ADmax, the angle of the plane corresponding to the line segment BDmax, and the (X, Y) coordinates of the vertical sides of each plane. That is, the first calculation unit 450 calculates the angle of the surface of the object imaged in the reference image with respect to the straight lines passing through the imaging positions of the reference image and the comparison image based on the parallax frequency distribution.

対象面決定部451(図8)は、新規検出物体が複数の面を有する場合、複数の面の数と形状(サイズ)に応じて、棄却処理の対象となる面を決定する(図18、19を用いて後述)。   When the newly detected object has a plurality of surfaces, the target surface determination unit 451 (FIG. 8) determines a surface that is a target of the rejection process according to the number and shape (size) of the plurality of surfaces (FIG. 18, 19 later).

第1判定部452は、第1算出部450が算出した面の角度、又は対象面決定部451が決定した面の有無に応じて、新規検出物体が検出対象であるか非検出対象であるかを判定する。例えば、第1判定部452は、面の角度が略90度(予め定められた範囲)の新規検出物体を非検出対象であると判定する。そして、第1判定部452は、非検出対象を示す画像データを棄却対象とする。   The first determination unit 452 determines whether the newly detected object is a detection target or a non-detection target depending on the angle of the surface calculated by the first calculation unit 450 or the presence / absence of the surface determined by the target surface determination unit 451. Determine. For example, the first determination unit 452 determines that a newly detected object having a surface angle of approximately 90 degrees (a predetermined range) is a non-detection target. Then, the first determination unit 452 sets image data indicating a non-detection target as a rejection target.

図16は、走行車両の左側に側壁物がある状態を示す図である。図16に示した状態の場合、第1判定部452は、第1算出部450が算出した面の角度に応じて、新規検出物体が検出対象であるか非検出対象であるかを判定する。例えば、第1判定部452は、第1算出部450が算出した面の角度が所定範囲に入っている場合に、処理対象となっている新規検出物体を棄却対象とする。例えば、側壁物は、2つの画像センサ22を通過する直線に対して90度以上の角度を持っている可能性があり、側壁物の中央部(枠部)では角度が90度を超えている。つまり、第1判定部452は、車両が持ち得ない面の角度の範囲を判定の基準となる所定値として設定しておくことにより、誤って検出対象を棄却することなく、非検出対象を棄却対象と判定することができる。   FIG. 16 is a diagram illustrating a state where there is a side wall on the left side of the traveling vehicle. In the state illustrated in FIG. 16, the first determination unit 452 determines whether the newly detected object is a detection target or a non-detection target according to the angle of the surface calculated by the first calculation unit 450. For example, when the angle of the surface calculated by the first calculation unit 450 is within a predetermined range, the first determination unit 452 sets the newly detected object that is the processing target as the rejection target. For example, the side wall object may have an angle of 90 degrees or more with respect to a straight line passing through the two image sensors 22, and the angle exceeds 90 degrees at the center part (frame part) of the side wall object. . That is, the first determination unit 452 rejects the non-detection target without erroneously rejecting the detection target by setting the range of the angle of the surface that cannot be held by the vehicle as a predetermined value as a determination reference. The target can be determined.

第1判定部452は、追い越し車両に対して判定を行う場合、追い越し車両が側壁物と同じような面の角度を持つことが多いため、判定の基準となる面の角度を90度以上に設定してしまうと棄却できる非検出対象が減少してしまう可能性がある。そこで、第1判定部452は、画像上の位置や自車からの実距離を用いて、判定対象を限定してもよい。これにより、第1判定部452は、追い越し車両が含まれない領域に対して、狭い視野角の範囲(例えば、70度以上など)を判定基準として設定することができる。   When the first determination unit 452 makes a determination on an overtaking vehicle, the overtaking vehicle often has a surface angle similar to that of the side wall object, so the surface angle serving as a reference for determination is set to 90 degrees or more. If it does, there is a possibility that the number of non-detectable objects that can be rejected will decrease. Therefore, the first determination unit 452 may limit the determination target using the position on the image and the actual distance from the own vehicle. Thereby, the 1st determination part 452 can set the range (for example, 70 degree | times or more) of a narrow viewing angle as a determination reference | standard with respect to the area | region which does not include the overtaking vehicle.

図17は、走行車両の右側を走行している追い越し車両と、遠方の側壁物が新規検出物体である場合を示す図である。図17に示すように、追い越し車両は自車(図17では中央)に対して、近距離に存在する場合が多い。従って、第1判定部452は、自車を中心に各物体までの実距離を計測し、距離が所定値以上の新規検出対象(側壁物の枠部)を棄却処理対象としてもよい。また、画像上の位置を使う方法には、画像を横方向でいくつかに分割し、その両端の領域に含まれる物体に対して判定を行う方法もある。このように、第1判定部452は、第1算出部450が算出した面が1つである物体の面の角度に基づいて、基準画像データの一部を設置物画像データであると判定して棄却対象とする。つまり、第1判定部452は、基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定して棄却対象としている。   FIG. 17 is a diagram illustrating a case where the passing vehicle traveling on the right side of the traveling vehicle and the far side wall object are newly detected objects. As shown in FIG. 17, the overtaking vehicle often exists at a short distance from the own vehicle (the center in FIG. 17). Therefore, the first determination unit 452 may measure the actual distance to each object centering on the own vehicle, and may set a new detection target (a frame part of the side wall object) whose distance is a predetermined value or more as a rejection processing target. Further, as a method of using the position on the image, there is a method in which the image is divided into several parts in the horizontal direction and the object included in the regions at both ends is determined. As described above, the first determination unit 452 determines that a part of the reference image data is the installation object image data based on the angle of the surface of the object having one surface calculated by the first calculation unit 450. To be rejected. That is, the first determination unit 452 determines that a part of the reference image data indicating the reference image is the installation object image data indicating the installation object that is continuously installed in the predetermined direction, and is to be rejected. It is said.

次に、新規検出物体が複数の面を有する場合に対象面決定部451が行う処理について説明する。図18は、側壁物の面が1つの場合(a)と、2つの場合(b)を示す図である。本来、側壁物の面は1つになるはずであるが、俯瞰マップを用いて面と角度を算出する場合、視差の分散の影響によって図18(b)に示したように面の底辺の長さが一方に比べて大きく異なる面が算出される可能性がある。   Next, a process performed by the target surface determination unit 451 when the newly detected object has a plurality of surfaces will be described. FIG. 18 is a diagram illustrating a case where the side wall object has one surface (a) and two cases (b). Originally, there should be one surface of the side wall object, but when the surface and angle are calculated using the overhead view map, the length of the bottom of the surface as shown in FIG. There is a possibility that a surface that is greatly different from the other is calculated.

面が2つある新規検出物体は、側壁物であるか車両であるかを明確にする必要がある。そこで、対象面決定部451は、面が2つある新規検出物体に対し、車両でないことを確認する処理と、2つの面のどちらの面の角度を算出するかを決定する処理を行う。   It is necessary to clarify whether the newly detected object having two surfaces is a side wall object or a vehicle. Accordingly, the target surface determination unit 451 performs processing for confirming that the vehicle is not a vehicle and processing for determining which of the two surfaces is to be calculated for a newly detected object having two surfaces.

対象面決定部451は、面が2つある新規検出物体に対し、2つの面の底辺の比を算出し、算出した比に応じて新規検出物体が車両であるか否か、及び角度を算出する面を決定する。   The target surface determination unit 451 calculates the ratio of the bases of the two surfaces with respect to the newly detected object having two surfaces, and calculates whether the newly detected object is a vehicle and the angle according to the calculated ratio. Determine the surface to be used.

図19は、前方を走行する車両が形成する2つの面を示す図である。図19に示すように、新規検出物体が車両である場合、側壁物と同様に面が2つ算出されるが、2つの面の底辺の長さの差は大きくならない。よって、対象面決定部451は、面が2つ算出される場合、2つの面の底辺、又は上辺の比を算出し、その比が所定値以上である場合には、新規検出物体が側壁物であると仮定し、角度を算出する面を決定する。一方、対象面決定部451は、2つの面の底辺の比が所定値未満である場合、新規検出物体が車両であると仮定して棄却のための処理を行わない。   FIG. 19 is a diagram illustrating two surfaces formed by a vehicle traveling ahead. As shown in FIG. 19, when the newly detected object is a vehicle, two surfaces are calculated in the same manner as the side wall object, but the difference between the lengths of the bottoms of the two surfaces does not increase. Therefore, when two surfaces are calculated, the target surface determination unit 451 calculates the ratio of the bottom or top of the two surfaces, and if the ratio is equal to or greater than a predetermined value, the newly detected object is a side wall object. And the surface for calculating the angle is determined. On the other hand, when the ratio of the bases of the two surfaces is less than the predetermined value, the target surface determination unit 451 assumes that the newly detected object is a vehicle and does not perform the process for rejection.

なお、対象面決定部451は、底辺(又は上辺)の比を二次元の画像上(輝度画像、視差画像)で算出してもよいし、俯瞰マップから実距離を算出して使用してもよい。さらに、対象面決定部451は、辺の比ではなく、2つの面の面積比を使ってもよい。また、対象面決定部451は、新規検出物体に対して3つ以上の面を算出しても、同様に任意の2つの面に対して上述した処理を行い、棄却判定に使用する面を決定してもよい。   Note that the target plane determination unit 451 may calculate the ratio of the bottom (or top) on a two-dimensional image (luminance image, parallax image), or may calculate and use the actual distance from the overhead map. Good. Furthermore, the target surface determination unit 451 may use the area ratio of two surfaces instead of the ratio of sides. Moreover, even if three or more surfaces are calculated for the newly detected object, the target surface determination unit 451 similarly performs the above-described processing on any two surfaces and determines a surface to be used for the rejection determination. May be.

また、第1判定部452は、対象面決定部451が有する機能を兼ね備えていてもよい。つまり、第1判定部452は、第1算出部450が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの長さの比に基づいて、設置物画像データであるか否かを判定するように構成されてもよい。もちろん、上記における長さの比に代えて、面積の比が用いられてもよい。つまり、第1判定部452は、第1算出部450が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの面積の比に基づいて、設置物画像データであるか否かを判定するように構成されてもよい。   In addition, the first determination unit 452 may have the function of the target surface determination unit 451. That is, the first determination unit 452 installs the object based on the ratio of the lengths of the plurality of surfaces indicated by the image data of the object to the image data indicating the object including the plurality of surfaces calculated by the first calculation unit 450. It may be configured to determine whether it is image data. Of course, an area ratio may be used instead of the length ratio described above. That is, the first determination unit 452 is based on the ratio of the area of each of the plurality of surfaces indicated by the image data of the object to the image data indicating the object including a plurality of surfaces calculated by the first calculation unit 450. It may be configured to determine whether it is data.

第1棄却部453(図8)は、第1判定部452が棄却対象とした非検出対象を示す画像データ(設置物画像データ)を、基準画像の画像データから棄却する。   The first rejection unit 453 (FIG. 8) rejects image data (installed object image data) indicating the non-detection target that is the rejection target by the first determination unit 452 from the image data of the reference image.

このように、第1判定部452が新規検出物体の面の角度に応じて棄却する物体の画像データを決定する方式を面角度棄却方式と呼ぶことにする。また、面角度棄却方式により画像データを棄却された新規検出物体を棄却物体と呼ぶことにする。また、面角度棄却方式により画像データを棄却されなかった新規検出物体を残存物体と呼ぶことにする。また、面角度棄却方式により画像データを棄却されるべき非検出対象であって、画像データを棄却されなかった新規検出物体を誤検出(誤認識)物体と呼ぶこととする。   In this way, the method in which the first determination unit 452 determines the image data of the object to be rejected according to the angle of the surface of the newly detected object is referred to as a surface angle rejection method. Also, a newly detected object whose image data has been rejected by the surface angle rejection method will be referred to as a reject object. Also, a newly detected object whose image data has not been rejected by the surface angle rejection method will be referred to as a remaining object. Further, a newly detected object that is a non-detection target for which image data is to be rejected by the surface angle rejection method and for which image data has not been rejected is referred to as an erroneously detected (falsely recognized) object.

第2処理部446は、第2算出部454、第2判定部455、及び第2棄却部456を有し、以下に記す各動作を任意に組み合わせて動作可能にされている。   The second processing unit 446 includes a second calculation unit 454, a second determination unit 455, and a second rejection unit 456, and can be operated by arbitrarily combining the operations described below.

第2算出部454は、次に記す動作の少なくともいずれかを行う。例えば、第2算出部454は、棄却物体の所定の特徴量と、棄却物体が有する面の角度に対して面の角度が予め定められた範囲内にある残存物体の所定の特徴量とを算出する。また、第2算出部454は、俯瞰マップ上で棄却物体を近似する近似直線を算出する。第2算出部454は、着目フレームにおける棄却物体から残存物体までの距離と、着目フレーム以前のフレームにおける棄却物体から残存物体までの距離とを算出する。   The second calculation unit 454 performs at least one of the following operations. For example, the second calculation unit 454 calculates a predetermined feature amount of the reject object and a predetermined feature amount of the remaining object whose surface angle is within a predetermined range with respect to the surface angle of the reject object. To do. Further, the second calculation unit 454 calculates an approximate straight line that approximates the reject object on the overhead map. The second calculation unit 454 calculates the distance from the rejected object to the remaining object in the frame of interest and the distance from the rejected object to the remaining object in the frame before the frame of interest.

第2判定部455は、次に記す動作の少なくともいずれかを行う。例えば、第2判定部455は、第2算出部454が算出した棄却物体及び残存物体それぞれの特徴量を比較し、特徴量の差が所定値以下である場合には、当該残存物体を非検出対象であると判定する。つまり、第2判定部455は、設置物画像データが有する特徴量に対し、類似度が所定値以上である特徴量を有する基準画像データの一部を連続物画像データであると判定する。   The second determination unit 455 performs at least one of the following operations. For example, the second determination unit 455 compares the feature amounts of the rejected object and the remaining object calculated by the second calculation unit 454, and if the difference between the feature amounts is equal to or less than a predetermined value, the remaining object is not detected. It is determined that it is a target. That is, the second determination unit 455 determines that a part of the reference image data having a feature amount having a similarity greater than or equal to a predetermined value with respect to the feature amount included in the installation object image data is continuous object image data.

また、第2判定部455は、第2算出部454が算出した近似直線上に存在する残存物体を誤検出物体とみなして非検出対象であると判定する。また、第2判定部455は、設置物が連続している方向を示すように設置物画像データを近似させた近似直線上にある物体を示す基準画像データの一部を連続物画像データであると判定してもよい。   Further, the second determination unit 455 determines that the remaining object existing on the approximate straight line calculated by the second calculation unit 454 is a false detection object and determines that it is a non-detection target. In addition, the second determination unit 455 is a continuous object image data that is a part of the reference image data indicating an object on an approximate straight line obtained by approximating the installation object image data so as to indicate the direction in which the installation object is continuous. May be determined.

また、第2判定部455は、残存物体が基準画像及び比較画像それぞれの撮像位置の中間点との間に近似直線を挟む場合、当該残存物体を非検出対象であると判定する。つまり、第2判定部455は、物体を示す基準画像データの一部が、基準画像及び比較画像それぞれの撮像位置の中間点との間に近似直線を挟む場合、当該物体を示す基準画像データの一部を棄却対象画像データであると判定する。   The second determination unit 455 determines that the remaining object is a non-detection target when an approximate straight line is sandwiched between the remaining object and an intermediate point between the imaging positions of the reference image and the comparison image. That is, when a part of the reference image data indicating the object puts an approximate line between the reference image data and the intermediate point of the imaging position of each of the comparison images, the second determination unit 455 determines the reference image data indicating the object. A part is determined to be rejection target image data.

また、第2判定部455は、着目フレームにおける棄却物体から残存物体までの距離と、着目フレーム以前のフレームにおける棄却物体(設置物)から残存物体までの距離との差が所定値以下である場合、当該残存物体を非検出対象(連続物画像データ)であると判定する。つまり、第2判定部455は、第1棄却部453が設置物画像データを棄却させた基準画像データの一部を、設置物画像データに基づいて、設置物に連続する物体を示す連続物画像データであると判定する。   Further, the second determination unit 455 determines that the difference between the distance from the rejected object to the remaining object in the frame of interest and the distance from the rejected object (installed object) to the remaining object in the frame before the frame of interest is equal to or less than a predetermined value. The remaining object is determined as a non-detection target (continuous object image data). That is, the second determination unit 455 is a continuous object image that indicates a part of the reference image data in which the first rejection unit 453 rejects the installation object image data, based on the installation object image data. Judged as data.

また、第2判定部455は、基準画像及び比較画像が撮像される以前の時刻に撮像された基準画像のフレームと比較画像のフレームとの間で生じる視差の頻度分布に基づいて、第1判定部452が判定した設置物画像データを、基準画像及び比較画像の間で生じる視差の頻度分布に基づいて第1判定部452が判定した設置物画像データとみなしてもよい。つまり、第2判定部455は、過去の設置物画像データを判定に用いるように構成されてもよい。   In addition, the second determination unit 455 performs the first determination based on the frequency distribution of the parallax generated between the frame of the reference image captured at the time before the reference image and the comparison image are captured and the frame of the comparison image. The installation object image data determined by the unit 452 may be regarded as installation object image data determined by the first determination unit 452 based on a frequency distribution of parallax generated between the reference image and the comparison image. That is, the second determination unit 455 may be configured to use past installation object image data for determination.

ここで、画像の特徴量と認識処理(検出処理)について補足説明する。画像認識の方式としては、これまで種々のものが提案されているが、2つの画像の類似度を定量化できるものであれば任意の手法でよい。例えば、棄却物体をテンプレートとして、誤って検出対象であると判定された誤検出物体に対してテンプレートマッチングを行う方法がある。   Here, a supplementary description will be given of the feature amount of the image and the recognition process (detection process). Various image recognition methods have been proposed so far, but any method may be used as long as the similarity between two images can be quantified. For example, there is a method of performing template matching on an erroneously detected object that is erroneously determined to be a detection target using a reject object as a template.

また、SIFT(Scale−Invariant Feature Transform)などの局所特徴量を量子化したvisual wordsなるベクトルを用いて認識に利用するBag−of−Visual−Words法や、ニューラルネットを多層化したDeep Learningを用いる方法もある。   In addition, Bag-of-Visual-Words method that uses a vector called visual words obtained by quantizing local features such as SIFT (Scale-Invariant Feature Transform), and Deep Learning with multilayered neural nets are used. There is also a method.

2つの物体の関係を定量化するには、類似度の他に距離尺度を使ってもよい。類似度の場合、スコアが高い方が2つの物体は類似していると考えられる。一方で、距離尺度を使用する場合、スコアが小さい方が2つの物体は類似していると考えられる。従って、最終的には、2つの物体から特徴量を算出し、それらを使って類似度、又は距離を算出して、このスコアが所定範囲に含まれる場合に、2つの物体は類似していると判定する。   In order to quantify the relationship between two objects, a distance measure may be used in addition to the similarity. In the case of similarity, it is considered that two objects are similar when the score is high. On the other hand, when using a distance scale, it is considered that two objects are similar when the score is small. Therefore, finally, when the feature amount is calculated from the two objects, and the similarity or distance is calculated using them, the two objects are similar when this score is included in the predetermined range. Is determined.

第2棄却部456は、第2判定部455が非検出対象であると判定した新規検出物体の画像データを、基準画像の画像データから棄却する。つまり、第2棄却部456は、第1棄却部453が設置物画像データを棄却させた基準画像データから、第2判定部455が判定した連続物画像データ(棄却対象画像データ)を棄却する。   The second rejection unit 456 rejects the image data of the newly detected object determined by the second determination unit 455 as a non-detection target from the image data of the reference image. That is, the second rejection unit 456 rejects the continuous object image data (rejection target image data) determined by the second determination unit 455 from the reference image data in which the first rejection unit 453 rejects the installation object image data.

トラッキング部46(図4)は、新規検出物体が複数のフレームで連続して出現する場合に、追跡対象であるか否かを判定する。トラッキング部46は、新規検出物体が追跡対象である場合には、その情報を個体情報に付与する。   The tracking unit 46 (FIG. 4) determines whether or not it is a tracking target when a newly detected object appears continuously in a plurality of frames. When the newly detected object is a tracking target, the tracking unit 46 adds the information to the individual information.

出力制御部32は、トラッキング部46が判定した結果に応じて、車両1のエンジンやブレーキなどの機構等を制御する。   The output control unit 32 controls a mechanism such as an engine and a brake of the vehicle 1 according to the result determined by the tracking unit 46.

次に、フローチャートを用いて、棄却部44を構成する要部の動作を説明する。図20は、第1算出部450の動作を示すフローチャートである。図20に示すように、第1算出部450は、基準画像及び比較画像を用いて、俯瞰マップを作成する(S100)。   Next, operation | movement of the principal part which comprises the rejection part 44 is demonstrated using a flowchart. FIG. 20 is a flowchart showing the operation of the first calculation unit 450. As illustrated in FIG. 20, the first calculation unit 450 creates an overhead map using the reference image and the comparison image (S100).

次に、第1算出部450は、俯瞰マップ上で視野角が最小になる位置付近の領域、及び視野角が最大になる位置付近の領域それぞれで、視差頻度の高い点A、Bを算出する。つまり、第1算出部450は、図10等に示した両端点(A、B)を設定し(S102)、円周上の点(D)を順次に設定する(S104)。   Next, the first calculation unit 450 calculates points A and B having a high parallax frequency in each of the region near the position where the viewing angle is minimum and the region near the position where the viewing angle is maximum on the overhead view map. . That is, the first calculation unit 450 sets both end points (A, B) shown in FIG. 10 and the like (S102), and sequentially sets points (D) on the circumference (S104).

次に、第1算出部450は、線分AD、線分BDが通過する点の頻度平均値を算出し(S106)、最大の頻度平均値を有する点(D)をDmaxに決定する(S108)。この点Dmaxは、先行車の最も近いコーナーの位置となる。   Next, the first calculation unit 450 calculates the frequency average value of points through which the line segment AD and line segment BD pass (S106), and determines the point (D) having the maximum frequency average value as Dmax (S108). ). This point Dmax is the closest corner position of the preceding vehicle.

第1算出部450は、正面の車、又は側壁物を新規検出物体とした場合、2つの面の1つが極小さく検出されることがある。第1算出部450は、小さい面を削除する(S110)。   When the first calculation unit 450 uses a front car or a side wall object as a new detection object, one of the two surfaces may be detected to be extremely small. The first calculation unit 450 deletes the small surface (S110).

第1算出部450は、削除されていないAD、BDの面の角度を算出し(S112)、対応する画像枠において、各平面の左右の辺のX座標及びY座標の最大最小を算出する(S114)。   The first calculation unit 450 calculates the angles of the AD and BD surfaces that have not been deleted (S112), and calculates the maximum and minimum of the X and Y coordinates of the left and right sides of each plane in the corresponding image frame ( S114).

図21は、棄却部44の第1動作例を示すフローチャートである。まず、棄却部44は、俯瞰マップと新規検出物体情報を読み込む(S200)。次に、棄却部44は、俯瞰マップを使い、新規検出物体ごとに面角度棄却方式で棄却判定する(S202)。次に、棄却部44は、棄却物体と残存物体の画像特徴量を検出し、類似度を測定する(S204)。このとき、棄却部44が処理する新規検出物体の数や順序は任意に設定されてもよい。そして、棄却部44は、類似度が所定範囲内か否かで棄却判定を実施する(S206)。なお、S202とS204の処理は、棄却物体ごとに実施するが、ある棄却物体により、類似度が近いものと判定され棄却された残存物体に対しては、その他の棄却物体との判定処理を実施しなくてもよい。   FIG. 21 is a flowchart illustrating a first operation example of the rejection unit 44. First, the rejection unit 44 reads an overhead map and newly detected object information (S200). Next, the rejection unit 44 uses the overhead map to determine rejection for each newly detected object by the surface angle rejection method (S202). Next, the rejection unit 44 detects image feature amounts of the rejection object and the remaining object, and measures the similarity (S204). At this time, the number and order of the newly detected objects processed by the rejection unit 44 may be arbitrarily set. Then, rejection unit 44 performs rejection determination based on whether or not the similarity is within a predetermined range (S206). The processing of S202 and S204 is performed for each rejected object, but the determination process of other rejected objects is performed for the remaining objects that are determined to be close by a certain rejected object and are rejected. You don't have to.

次に、棄却部44の第2動作例について説明する。図22は、側壁物中に出現する誤認識物体を示す図である。図22(a)は、輝度画像上で側壁物中に出現する誤認識物体を示している。図22(b)は、俯瞰マップ上で側壁物中に出現する誤認識物体を示している。ここでは、側壁物に対して3つの新規検出物体(面A、面B、面C)が算出されたものとする。この中で、面Aと面Cは非検出対象として棄却され、面Bは角度が俯瞰マップ上の視差の分散の影響を受けて、面角度が正確に算出されなかったために棄却されていなかったとする。   Next, a second operation example of the rejection unit 44 will be described. FIG. 22 is a diagram illustrating a misrecognized object appearing in the side wall object. FIG. 22A shows a misrecognized object that appears in the side wall object on the luminance image. FIG.22 (b) has shown the misrecognized object which appears in a side wall thing on a bird's-eye view map. Here, it is assumed that three newly detected objects (surface A, surface B, and surface C) are calculated for the side wall object. Among these, surface A and surface C were rejected as non-detection targets, and surface B was not rejected because the surface angle was not accurately calculated due to the influence of parallax dispersion on the overhead view map. To do.

この時、第2判定部455は、棄却された面C(又は、面A)を使って、俯瞰マップ上における面Cを近似する近似直線上に誤認識物体が存在するか否かを判定する。図22に示すように、面Bは、面Cを近似した近似直線上に存在することになるので、同じ側壁物の一部分と判定される(図23参照)。   At this time, the second determination unit 455 uses the rejected surface C (or surface A) to determine whether or not an erroneously recognized object exists on the approximate straight line that approximates the surface C on the overhead view map. . As shown in FIG. 22, the surface B exists on an approximate straight line that approximates the surface C, and thus is determined to be a part of the same side wall object (see FIG. 23).

図24は、棄却部44の第2動作例を示すフローチャートである。なお、棄却部44の各動作例において上述した処理と実質的に同じ処理には同一の符号が付してある。第2判定部455は、俯瞰マップ上の棄却物体を近似する近似直線上に存在する残存物体の有無を判定する(S300)。   FIG. 24 is a flowchart illustrating a second operation example of the rejection unit 44. In addition, the same code | symbol is attached | subjected to the process substantially the same as the process mentioned above in each operation example of the rejection part 44. FIG. The second determination unit 455 determines the presence / absence of a remaining object that exists on an approximate line that approximates a rejected object on the overhead map (S300).

例えば、図25に示すように、第2判定部455は、近似直線700上に複数の残存物体702のいずれが存在するかを判定する。ここで、近似直線700上に存在するか否かの判定は、近似直線700が残存物体702に一部分でも重なっていれば含まれると判定してもよいし(図26(a)参照)、残存物体702の中心から所定間隔離れた位置までに重なっていれば含まれると判定してもよい(図26(b)参照)。後者の条件下では、図26(a)に示した重なり方では、近似直線700上に残存物体702が存在しないと判定される。   For example, as illustrated in FIG. 25, the second determination unit 455 determines which of the plurality of remaining objects 702 exists on the approximate line 700. Here, the determination of whether or not the approximate straight line 700 exists may be determined to be included if the approximate straight line 700 partially overlaps the remaining object 702 (see FIG. 26A). It may be determined that the object 702 is included if it overlaps to a position that is a predetermined distance away from the center of the object 702 (see FIG. 26B). Under the latter condition, it is determined that the remaining object 702 does not exist on the approximate line 700 in the overlapping method shown in FIG.

そして、第2棄却部456は、近似直線上に存在している物体を誤検出物体と判定して棄却する(S302)。   Then, the second rejection unit 456 determines that the object existing on the approximate line is an erroneously detected object and rejects it (S302).

図27は、棄却部44の第3動作例を模式的に示す図である。図27において、第2判定部455は、2つの画像センサ22の中間点(中心)からみて、上述した近似直線よりも外側に位置する面C及び面Dを非検出対象であると判定する。例えば、第2判定部455は、車道以外に存在する物体の認識が不要な場合、車道外(つまり側壁物よりも外側)に存在する物体を非検出対象であると判定する。   FIG. 27 is a diagram schematically illustrating a third operation example of the rejection unit 44. In FIG. 27, the second determination unit 455 determines that the surface C and the surface D positioned outside the approximate straight line described above are non-detection targets when viewed from the midpoint (center) of the two image sensors 22. For example, the second determination unit 455 determines that an object existing outside the roadway (that is, outside the side wall object) is a non-detection target when recognition of an object existing outside the roadway is unnecessary.

このように、棄却部44は、側壁物を車道と歩道の境界と仮定して、側壁物よりも外部に当たる領域に存在する物体を棄却することにより、車道に存在する物体を誤って棄却することなく、不要な物体を棄却することができる。   As described above, the rejection unit 44 assumes that the side wall object is a boundary between the roadway and the sidewalk, and rejects the object existing in the area that is outside the side wall object, thereby erroneously rejecting the object existing on the roadway. And unnecessary objects can be rejected.

次に、棄却部44の第4動作例について説明する。側壁物は静止物体であるため、動画像のフレーム間で移動することはない。従って、2つのフレームそれぞれで検出される同一の物体間の距離は不変である。一方、移動する車両と移動しない側壁物との距離は、フレーム間で変化する。棄却部44の第4動作例では、この特徴を利用して、面角度棄却方式で棄却された側壁物の一部分である棄却物体と、棄却されなかった側壁物の一部分である誤検出物体の内、相互間の距離が変化しない物体を、側壁物の一部分と見なして棄却する。ここでの距離は、画像上の距離であってもよいし、実距離であってもよい。   Next, a fourth operation example of the rejection unit 44 will be described. Since the side wall object is a stationary object, it does not move between frames of the moving image. Therefore, the distance between the same objects detected in each of the two frames is unchanged. On the other hand, the distance between the moving vehicle and the non-moving sidewall object varies between frames. In the fourth operation example of the rejection unit 44, by utilizing this feature, among the rejection object that is a part of the side wall object rejected by the surface angle rejection method and the false detection object that is a part of the side wall object that is not rejected. The object whose distance between them does not change is regarded as a part of the side wall and is rejected. The distance here may be a distance on the image or an actual distance.

図28は、棄却部44の第4動作例を模式的に示す図である。図28においては、棄却物体800及び検出対象(非棄却物体)802、804の位置関係と、棄却物体800及び誤検出物体806の位置関係を、それぞれ隣接するフレーム間で見たときの例が示されている。   FIG. 28 is a diagram schematically illustrating a fourth operation example of the rejection unit 44. FIG. 28 shows an example when the positional relationship between the rejected object 800 and the detection targets (non-rejected objects) 802 and 804 and the positional relationship between the rejected object 800 and the erroneously detected object 806 are viewed between adjacent frames. Has been.

図28の上図では、画像がフレームn−1からフレームnに変わったとき、棄却物体(側壁物)800は移動し、検出対象802、804は移動していない。検出対象802、804となっている車両は、それぞれ自車と同じ速度で走行していることになる。そして、画像がフレームn−1からフレームnに変わったとき、棄却物体800から検出対象802、804までの距離がそれぞれ変化している。   In the upper diagram of FIG. 28, when the image changes from frame n-1 to frame n, the reject object (side wall object) 800 moves, and the detection targets 802 and 804 do not move. The vehicles that are the detection targets 802 and 804 are traveling at the same speed as the own vehicle. When the image changes from frame n-1 to frame n, the distances from the rejected object 800 to the detection targets 802 and 804 change.

一方で、図28の下図では、棄却物体(側壁物)800と誤検出物体(側壁物)806は共に移動しないため、両者の距離は変化していない。多くの場合、連続するフレームでは同じ物体が検出される。前フレームでの棄却物体800と誤検出物体806(棄却物体でも可能)の位置関係を保存しておくことにより、誤検出物体を棄却することが可能である。   On the other hand, in the lower diagram of FIG. 28, since the reject object (side wall object) 800 and the erroneously detected object (side wall object) 806 do not move, the distance between them does not change. In many cases, the same object is detected in successive frames. By storing the positional relationship between the reject object 800 and the false detection object 806 (can be a reject object) in the previous frame, the false detection object can be rejected.

なお、車両1のCANデータを用いれば、前方に進んでいるのか、後方に進んでいるのかがわかるため、移動ベクトルから、前フレームでのペアの出現位置を推定することができる。従って、前フレームの情報を参照する時は、推定した位置に存在するペアのみを参照して処理対象とすることが可能である。これは、処理の高速化に寄与する。また、棄却部44は、処理対象とするペアを棄却された物体と、その物体を近似する近似直線上に存在する物体とに限定してもよい。これにより、側壁物上に含まれない物体を誤って棄却してしまうリスクを回避できる。また、上記は自車両が前方に走行している場合を想定しているが、逆方向、つまり、背走している際にも同様の方法で棄却処理を実施できる。   Note that if the CAN data of the vehicle 1 is used, it can be determined whether the vehicle is moving forward or backward, and therefore the appearance position of the pair in the previous frame can be estimated from the movement vector. Therefore, when referring to the information of the previous frame, it is possible to refer to only the pair existing at the estimated position as a processing target. This contributes to speeding up of processing. Further, the rejection unit 44 may limit the pair to be processed to an object that has been rejected and an object that exists on an approximate line that approximates the object. Thereby, the risk that the object which is not contained on a side wall object will be accidentally rejected can be avoided. Moreover, although the above assumes the case where the host vehicle is traveling forward, the rejection process can be performed in the same manner also in the reverse direction, that is, when traveling backward.

図29は、棄却部44の第4動作例を示すフローチャートである。第2判定部455は、着目フレームの新規検出物体のペアを示す新規検出物体情報を記憶部448に保存し、前フレームの新規検出物体のペアを示す新規検出物体情報を記憶部448から取得する(S400)。棄却部44の第4動作例では、最低でも2つの新規検出物体情報を使用するため、着目フレームで検出される物体数が1つ以下である場合は、これ以降の処理を全てスキップする。   FIG. 29 is a flowchart illustrating a fourth operation example of the rejection unit 44. The second determination unit 455 stores the newly detected object information indicating the newly detected object pair of the frame of interest in the storage unit 448 and acquires the newly detected object information indicating the newly detected object pair of the previous frame from the storage unit 448. (S400). In the fourth operation example of the rejection unit 44, at least two pieces of newly detected object information are used. Therefore, when the number of objects detected in the frame of interest is 1 or less, all subsequent processes are skipped.

この時、保存する情報は、最低でも1つ以上の棄却物体が含まれるようにペアを生成して、該当するペアを示す新規検出物体情報を保存する。これは、検出対象のペアの新規検出物体情報を誤って保存してしまうと、次のフレームにおいて、検出対象のペアが移動ベクトルから推定される位置に出現した場合に、このペアを誤って棄却してしまうリスクがあるためである。   At this time, as information to be stored, a pair is generated so that at least one rejected object is included, and newly detected object information indicating the corresponding pair is stored. This is because if the newly detected object information of the detection target pair is stored in error, it will be rejected if the detection target pair appears at the position estimated from the movement vector in the next frame. This is because there is a risk that it will.

また、棄却部44は、新規検出物体情報を保存するときに、常に1フレームの情報のみを保存してもよいし、数フレーム分の情報を保存させてもよい。1フレームの情報を保存し、1つ後のフレームでペアが検出されなかった場合、2つ後のフレームで参照する情報は2フレーム前の情報になる。   The rejection unit 44 may always store only one frame of information when storing newly detected object information, or may store several frames of information. When the information of one frame is stored and no pair is detected in the next frame, the information referred to in the second frame is the information two frames before.

第2棄却部456は、着目フレーム、前フレーム内の新規検出物体ペアの距離を使って棄却判定を実施する(S402)。   The second rejection unit 456 performs rejection determination using the distance between the frame of interest and the newly detected object pair in the previous frame (S402).

図30は、棄却部44の第5動作例を模式的に示す図である。棄却部44は、第1動作例〜第4動作例に示した動作を行う場合に、着目フレームの情報だけでなく、1つ以上前のフレーム情報を合わせて使用するように構成されてもよい。   FIG. 30 is a diagram schematically illustrating a fifth operation example of the rejection unit 44. The rejection unit 44 may be configured to use not only the information of the frame of interest but also one or more previous frame information when performing the operations shown in the first operation example to the fourth operation example. .

例えば、図30(a)に示したように、着目フレーム(n)があったとする。図30(a)では、フレーム(n)において残存物体808が存在している。図30(b)では、フレーム(n−1)において棄却物体810と、残存物体808が存在している。   For example, assume that there is a frame of interest (n) as shown in FIG. In FIG. 30A, a remaining object 808 exists in the frame (n). In FIG. 30B, a reject object 810 and a remaining object 808 exist in the frame (n−1).

図30(a)において、フレーム(n)内に存在する残存物体808は、側壁物の一部分(誤検出物体)であるにも関わらず、棄却物体810が同フレーム内に存在しないため、棄却することができない。そこで、棄却部44は、1つ以上前のフレーム情報を使用する。   In FIG. 30A, the remaining object 808 present in the frame (n) is rejected because the reject object 810 is not present in the same frame even though it is a part of the side wall object (false detection object). I can't. Therefore, the rejection unit 44 uses one or more previous frame information.

図30(b)において、フレーム(n−1)に棄却物体810が存在しているため、この物体を使って、フレーム(n)内の誤検出物体である残存物体808を棄却することが可能である。   In FIG. 30B, since the reject object 810 exists in the frame (n−1), it is possible to reject the remaining object 808 that is a false detection object in the frame (n) using this object. It is.

図30に示した例では、1つ前のフレーム情報を保存するようにしているが、2つ以上前のフレーム情報を保存するようにしてもよい。これは、1つ前のフレームで照明条件などの変化によって偶発的に棄却物体810が検出されないリスクがあるためである。2つ以上前のフレーム情報も使用することによって棄却物体810が検出されないリスクを回避することができる。なお、本実施形態においては、棄却部44は、棄却判定を行う機能までを有する構成であるが、これに限らず、後段の処理部(例えば、トラッキング部46)に対して出力する機能を有していてもよい。   In the example shown in FIG. 30, the previous frame information is stored, but two or more previous frame information may be stored. This is because there is a risk that the reject object 810 will not be detected accidentally due to a change in lighting conditions or the like in the previous frame. The risk that the reject object 810 is not detected can be avoided by using two or more previous frame information. In the present embodiment, the rejection unit 44 is configured to have a function of performing rejection determination, but is not limited thereto, and has a function of outputting to a subsequent processing unit (for example, the tracking unit 46). You may do it.

1 車両
2 ステレオカメラ(撮像部)
2a、2b カメラ部
3 車両ECU
4 物体認識装置
21 レンズ
22 画像センサ
23 センサコントローラ
30 画像処理装置
32 出力制御部(制御部)
40 視差計算部
42 クラスタリング部
44 棄却部
46 トラッキング部
304 CPU
308 ROM
310 RAM
442 取得部
444 第1処理部
446 第2処理部
448 記憶部
450 第1算出部
451 対象面決定部
452 第1判定部
453 第1棄却部
454 第2算出部
455 第2判定部
456 第2棄却部
700 近似直線
702 残存物体
1 Vehicle 2 Stereo camera (imaging unit)
2a, 2b Camera unit 3 Vehicle ECU
4 Object Recognition Device 21 Lens 22 Image Sensor 23 Sensor Controller 30 Image Processing Device 32 Output Control Unit (Control Unit)
40 Parallax calculation unit 42 Clustering unit 44 Rejection unit 46 Tracking unit 304 CPU
308 ROM
310 RAM
442 Acquisition unit 444 First processing unit 446 Second processing unit 448 Storage unit 450 First calculation unit 451 Target surface determination unit 452 First determination unit 453 First rejection unit 454 Second calculation unit 455 Second determination unit 456 Second rejection Part 700 Approximate line 702 Remaining object

特開2005−311691号公報JP 2005-316991 A

Claims (15)

1つ以上の物体が撮像された基準画像と、前記基準画像とは異なる撮像位置から撮像された比較画像との間で生じる視差の頻度分布に基づいて、前記基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定する第1判定部と、
前記設置物画像データを前記基準画像データから棄却する第1棄却部と、
前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定する第2判定部と、
前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却する第2棄却部と、
を有することを特徴とする画像処理装置。
One reference image data indicating the reference image based on a frequency distribution of parallax generated between a reference image in which one or more objects are captured and a comparative image captured from an imaging position different from the reference image. A first determination unit that determines that the unit is installation image data indicating an installation installed so as to be continuous in a predetermined direction;
A first rejection unit that rejects the installation object image data from the reference image data;
A part of the reference image data in which the first rejection unit rejects the installation object image data is determined to be continuous object image data indicating an object continuous to the installation object based on the installation object image data. A second determination unit to perform,
A second rejection unit that rejects the continuous object image data from the reference image data in which the first rejection unit rejects the installation object image data;
An image processing apparatus comprising:
前記基準画像及び前記比較画像それぞれの撮像位置を通る直線に対して、前記基準画像に撮像された物体が備える面の角度を前記視差の頻度分布に基づいて算出する第1算出部
を有し、
前記第1判定部は、
前記第1算出部が算出した面が1つである物体の面の角度に基づいて、前記基準画像データの一部を前記設置物画像データであると判定すること
を特徴とする請求項1に記載の画像処理装置。
A first calculating unit that calculates an angle of a surface included in an object imaged in the reference image with respect to straight lines passing through the imaging positions of the reference image and the comparative image based on the frequency distribution of the parallax;
The first determination unit includes:
2. The apparatus according to claim 1, wherein a part of the reference image data is determined to be the installation object image data based on an angle of a surface of an object having one surface calculated by the first calculation unit. The image processing apparatus described.
前記第1判定部は、
前記第1算出部が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの所定の基準に基づいて、前記設置物画像データであるか否かを判定すること
を特徴とする請求項2に記載の画像処理装置。
The first determination unit includes:
It is determined whether the image data indicating the object having a plurality of surfaces calculated by the first calculation unit is the installation object image data based on a predetermined criterion for each of the plurality of surfaces indicated by the image data of the object. The image processing apparatus according to claim 2, wherein:
前記第1判定部は、
前記第1算出部が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの長さの比に基づいて、前記設置物画像データであるか否かを判定すること
を特徴とする請求項3に記載の画像処理装置。
The first determination unit includes:
Whether the image data is the installation object image data based on the ratio of the lengths of the plurality of surfaces indicated by the image data of the object with respect to the image data indicating the object including a plurality of surfaces calculated by the first calculation unit. The image processing apparatus according to claim 3, wherein the determination is performed.
前記第1判定部は、
前記第1算出部が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの面積の比に基づいて、前記設置物画像データであるか否かを判定すること
を特徴とする請求項3に記載の画像処理装置。
The first determination unit includes:
It is determined whether or not the image data is the installation object image data based on a ratio of the areas of the plurality of surfaces indicated by the image data of the object with respect to the image data indicating the object having a plurality of surfaces calculated by the first calculation unit. The image processing apparatus according to claim 3, wherein:
前記第2判定部は、
前記設置物画像データが有する特徴量に対し、類似度が所定範囲にある特徴量を有する前記基準画像データの一部を前記連続物画像データであると判定すること
を特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
The second determination unit includes
The part of the reference image data having a feature amount having a similarity in a predetermined range with respect to the feature amount of the installation object image data is determined as the continuous object image data. The image processing apparatus according to claim 5.
前記第2判定部は、
前記設置物が連続している方向を示すように前記設置物画像データを近似させた近似直線上にある物体を示す前記基準画像データの一部を前記連続物画像データであると判定すること
を特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The second determination unit includes
Determining that a part of the reference image data indicating an object on an approximate straight line obtained by approximating the installation object image data so as to indicate a direction in which the installation object is continuous is the continuous object image data. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記第2判定部は、
物体を示す前記基準画像データの一部が、前記基準画像及び前記比較画像それぞれの撮像位置の中間点との間に前記近似直線を挟む場合、当該物体を示す前記基準画像データの一部を棄却対象画像データであると判定し、
前記第2棄却部は、
前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データから、前記棄却対象画像データを棄却すること
を特徴とする請求項7に記載の画像処理装置。
The second determination unit includes
When a part of the reference image data indicating an object sandwiches the approximate straight line between the reference image and the intermediate point of the respective imaging positions of the comparison image, a part of the reference image data indicating the object is rejected Determine that it is target image data,
The second rejection unit is
The image processing apparatus according to claim 7, wherein the first rejection unit rejects the rejection target image data from the reference image data in which the installation object image data is rejected.
前記第2判定部は、
前記基準画像及び前記比較画像が撮像される以前の時刻に撮像された基準画像のフレームと比較画像のフレームとの間で生じる視差の頻度分布に基づいて、前記第1判定部が判定した設置物画像データが示す設置物に対して、時間が経過しても前記基準画像データの一部が示す物体からの距離が所定値以下の変化である場合、当該物体を示す前記基準画像データの一部を前記連続物画像データであると判定すること
を特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
The second determination unit includes
The installation determined by the first determination unit based on a frequency distribution of parallax generated between a frame of the reference image captured at a time before the reference image and the comparison image are captured and a frame of the comparison image A part of the reference image data indicating the object when the distance from the object indicated by a part of the reference image data is a predetermined value or less with respect to the installation object indicated by the image data even if time passes. The image processing apparatus according to claim 1, wherein the image processing device is determined to be the continuous image data.
前記第2判定部は、
前記基準画像及び前記比較画像が撮像される以前の時刻に撮像された基準画像のフレームと比較画像のフレームとの間で生じる視差の頻度分布に基づいて、前記第1判定部が判定した設置物画像データを、前記基準画像及び前記比較画像の間で生じる視差の頻度分布に基づいて前記第1判定部が判定した設置物画像データとみなすこと
を特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
The second determination unit includes
The installation determined by the first determination unit based on a frequency distribution of parallax generated between a frame of the reference image captured at a time before the reference image and the comparison image are captured and a frame of the comparison image The image data is regarded as installation image data determined by the first determination unit based on a frequency distribution of parallax generated between the reference image and the comparison image. The image processing apparatus according to item.
前記第2棄却部による棄却結果を出力する出力部をさらに有すること
を特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising an output unit that outputs a rejection result by the second rejection unit.
前記基準画像及び前記比較画像を撮像するステレオカメラと、
請求項1〜11のいずれか1項に記載の画像処理装置と、
を有することを特徴とする物体認識装置。
A stereo camera that captures the reference image and the comparison image;
The image processing apparatus according to any one of claims 1 to 11,
An object recognition apparatus comprising:
請求項1〜11のいずれか1項に記載の画像処理装置が有する前記第2棄却部が前記連続物画像データを棄却させた前記基準画像データに基づいて機器を制御する制御部
を有することを特徴とする機器制御システム。
The image processing apparatus according to claim 1, wherein the second rejection unit includes a control unit that controls an apparatus based on the reference image data in which the continuous image data is rejected. A characteristic device control system.
1つ以上の物体が撮像された基準画像と、前記基準画像とは異なる撮像位置から撮像された比較画像との間で生じる視差の頻度分布に基づいて、前記基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定する工程と、
前記設置物画像データを前記基準画像データから棄却する工程と、
前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定する工程と、
前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却する工程と、
を含むことを特徴とする画像処理方法。
One reference image data indicating the reference image based on a frequency distribution of parallax generated between a reference image in which one or more objects are captured and a comparative image captured from an imaging position different from the reference image. A step of determining that the image data is an installation object image indicating an installation object installed in a predetermined direction.
Rejecting the installation object image data from the reference image data;
Determining a part of the reference image data in which the installation object image data is rejected as continuous object image data indicating an object continuous to the installation object based on the installation object image data;
A step of rejecting the continuous object image data from the reference image data in which the installation object image data is rejected;
An image processing method comprising:
1つ以上の物体が撮像された基準画像と、前記基準画像とは異なる撮像位置から撮像された比較画像との間で生じる視差の頻度分布に基づいて、前記基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定するステップと、
前記設置物画像データを前記基準画像データから棄却するステップと、
前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定するステップと、
前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却するステップと、
をコンピュータに実行させるための画像処理プログラム。
One reference image data indicating the reference image based on a frequency distribution of parallax generated between a reference image in which one or more objects are captured and a comparative image captured from an imaging position different from the reference image. Determining that the portion is installation image data indicating an installation installed so as to be continuous in a predetermined direction;
Rejecting the installation object image data from the reference image data;
Determining a part of the reference image data in which the installation object image data is rejected as continuous object image data indicating an object continuous to the installation object based on the installation object image data;
A step of rejecting the continuous object image data from the reference image data in which the installation object image data is rejected;
An image processing program for causing a computer to execute.
JP2015182354A 2015-09-15 2015-09-15 Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program Expired - Fee Related JP6569416B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015182354A JP6569416B2 (en) 2015-09-15 2015-09-15 Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015182354A JP6569416B2 (en) 2015-09-15 2015-09-15 Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2017058890A JP2017058890A (en) 2017-03-23
JP6569416B2 true JP6569416B2 (en) 2019-09-04

Family

ID=58391497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015182354A Expired - Fee Related JP6569416B2 (en) 2015-09-15 2015-09-15 Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6569416B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094300A1 (en) 2015-11-30 2017-06-08 株式会社リコー Image processing device, object recognition device, device conrol system, image processing method, and program
EP3399499A4 (en) 2015-12-28 2019-01-09 Ricoh Company, Ltd. Image processing device, object recognition device, machinery control system, image processing method, and image processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6150164B2 (en) * 2013-07-01 2017-06-21 株式会社リコー Information detection apparatus, mobile device control system, mobile object, and information detection program
JP2015148887A (en) * 2014-02-05 2015-08-20 株式会社リコー Image processing device, object recognition device, moving body instrument control system and object recognition program

Also Published As

Publication number Publication date
JP2017058890A (en) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6274557B2 (en) Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
JP6184877B2 (en) Vehicle external recognition device
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP5561064B2 (en) Vehicle object recognition device
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
JP6150164B2 (en) Information detection apparatus, mobile device control system, mobile object, and information detection program
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
JP2008064628A (en) Object detector and detecting method
JPWO2017145634A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
US11145063B2 (en) Image processing apparatus
JP5073700B2 (en) Object detection device
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP4123138B2 (en) Vehicle detection method and vehicle detection device
US11054245B2 (en) Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
JP6569416B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program
JP6683245B2 (en) Image processing device, image processing method, image processing program, object recognition device, and device control system
JP6701905B2 (en) Detection device, parallax value derivation device, object recognition device, device control system, and program
JP2018092608A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP2020126304A (en) Out-of-vehicle object detection apparatus
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP7005762B2 (en) Sign recognition method of camera device and sign recognition device
KR102681321B1 (en) Performance evaluation apparatus for highway driving assist system that calculates distance using dual cameras and method thereof
JP6943092B2 (en) Information processing device, imaging device, device control system, moving object, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R151 Written notification of patent or utility model registration

Ref document number: 6569416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees