JP2018085059A - Information processing device, imaging apparatus, device control system, information processing method and program - Google Patents

Information processing device, imaging apparatus, device control system, information processing method and program Download PDF

Info

Publication number
JP2018085059A
JP2018085059A JP2016229348A JP2016229348A JP2018085059A JP 2018085059 A JP2018085059 A JP 2018085059A JP 2016229348 A JP2016229348 A JP 2016229348A JP 2016229348 A JP2016229348 A JP 2016229348A JP 2018085059 A JP2018085059 A JP 2018085059A
Authority
JP
Japan
Prior art keywords
shape
unit
estimated
road surface
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016229348A
Other languages
Japanese (ja)
Other versions
JP6907513B2 (en
Inventor
直樹 本橋
Naoki Motohashi
直樹 本橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016229348A priority Critical patent/JP6907513B2/en
Publication of JP2018085059A publication Critical patent/JP2018085059A/en
Application granted granted Critical
Publication of JP6907513B2 publication Critical patent/JP6907513B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device, an imaging apparatus, a device control system, an information processing method and a program that can sufficiently secure detection accuracy of objects.SOLUTION: An information processing device of the present invention comprises an acquisition part, a generation part, a division part, an estimation part, and a rejection part. The acquisition part acquires a distance image including distance information of each picture element. The generation part generates, based on a plurality of the picture elements included in the distance image, mapping information in which a position in the longitudinal direction and a position in the depth direction are mapped each other. The estimation part estimates, for each plurality of segments in which the mapping information is divided, the shape of a referential object representing a referential height of the object. The rejection part rejects, for each segment, using a predetermined referential shape set on the basis of the estimated shape indicating the shape of the referential object that is estimated by the estimation part, rejects the estimated shape in the event when the distribution of the distance information of the voted picture elements coincide with the predetermined referential shape.SELECTED DRAWING: Figure 6

Description

本発明は、情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラムに関する。   The present invention relates to an information processing device, an imaging device, a device control system, an information processing method, and a program.

従来、自動車の安全性において、歩行者と自動車とが衝突したときに、いかに歩行者を守れるか、および、乗員を保護できるかの観点から、自動車のボディー構造等の開発が行われてきた。しかしながら、近年、情報処理技術および画像処理技術の発達により、高速に人および自動車を検出する技術が開発されてきている。これらの技術を応用して、自動車が物体に衝突する前に自動的にブレーキをかけ、衝突を未然に防ぐという自動車もすでに開発されている。車両の自動制御には、人または他車等の物体までの距離を正確に測定する必要があり、そのためには、ミリ波レーダおよびレーザレーダによる測距、ならびに、ステレオカメラによる測距等が実用化されている。例えばステレオカメラで測距する場合、左右のカメラで撮影された局所領域のズレ量(視差)に基づいて視差画像を生成し、前方物体と自車との距離を測定することができる。そして、同程度の距離に存在する(同程度の視差値を有する)視差画素の群を1つの物体として検出するクラスタリング処理を行う。   Conventionally, in terms of safety of automobiles, body structures of automobiles have been developed from the viewpoint of how to protect pedestrians and protect passengers when pedestrians and automobiles collide. However, in recent years, with the development of information processing technology and image processing technology, technology for detecting people and cars at high speed has been developed. Automobiles that apply these technologies to automatically apply a brake before an automobile collides with an object to prevent the collision have already been developed. For automatic vehicle control, it is necessary to accurately measure the distance to an object such as a person or other vehicle. For this purpose, distance measurement using millimeter wave radar and laser radar, distance measurement using a stereo camera, etc. are practical. It has become. For example, when ranging with a stereo camera, it is possible to generate a parallax image based on the amount of deviation (parallax) between local regions captured by the left and right cameras, and measure the distance between the front object and the vehicle. Then, clustering processing is performed to detect a group of parallax pixels existing at the same distance (having the same parallax value) as one object.

ここで、全ての視差画素(視差点)をクラスタリングしてしまうと、検出対象となる物体とは別に、路面上の白線の視差点も拾得し、平坦であるはずの路面の一部分を誤認識物体として検出してしまう問題が発生する。この場合、システムは前方に物体が存在するものであると判定して、急ブレーキをかけてしまう問題を生じる。この問題を解決するために、各視差点(視差画像のx座標値、視差画像のy座標値、視差値d)を、横軸を視差値d、縦軸を視差画像のx座標値、奥行方向の軸を頻度値とした2次元ヒストグラム上に投票して得られる情報(V−DisparityMap)を生成し、この情報に投票された点群から最小二乗法などの統計手法を用いて路面形状を推定し、推定路面よりも所定の高さ以上の位置に存在する視差点のみを使ってクラスタリングすることで、路面を誤認識物体として検出することを回避する技術が知られている(例えば特許文献1参照)。   Here, if all the parallax pixels (parallax points) are clustered, the white line parallax points on the road surface will be picked up separately from the object to be detected, and a part of the road surface that should be flat will be misrecognized. As a result, a problem occurs. In this case, the system determines that an object is present ahead, and causes a problem of sudden braking. In order to solve this problem, each parallax point (the x-coordinate value of the parallax image, the y-coordinate value of the parallax image, the parallax value d) is represented by the parallax value d on the horizontal axis, the x-coordinate value of the parallax image, and the depth. Information (V-DisparityMap) obtained by voting on a two-dimensional histogram with the direction axis as a frequency value is generated, and the road surface shape is calculated from a point group voted for this information using a statistical method such as the least square method. A technique is known that avoids detecting a road surface as a misrecognized object by performing estimation and clustering using only parallax points existing at a predetermined height or higher than the estimated road surface (for example, Patent Documents). 1).

しかしながら、従来技術においては、例えば路面に対応する視差が少ない状況下で車両などの物体が存在するシーンにおいて、物体に対応する視差を路面に対応する視差と誤って選択してしまい、推定路面が実際よりも引き上がってしまうという問題がある。つまり、従来技術においては、実際の路面とは異なる推定路面を用いて物体検出が行われてしまうために、物体の検出精度を十分に確保することが困難であるという問題がある。   However, in the prior art, for example, in a scene where an object such as a vehicle exists in a situation where there is little parallax corresponding to the road surface, the parallax corresponding to the object is erroneously selected as the parallax corresponding to the road surface, and the estimated road surface is There is a problem that it is raised more than the actual. That is, in the prior art, since object detection is performed using an estimated road surface different from the actual road surface, there is a problem that it is difficult to ensure sufficient object detection accuracy.

本発明は、上記に鑑みてなされたものであって、物体の検出精度を十分に確保可能な情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide an information processing apparatus, an imaging apparatus, a device control system, an information processing method, and a program capable of sufficiently ensuring the detection accuracy of an object.

上述した課題を解決し、目的を達成するために、本発明は、画素毎に距離情報を有する距離画像を取得する取得部と、前記距離画像に含まれる複数の画素に基づいて、縦方向の位置と、奥行方向の位置とが対応付けられた対応情報を生成する生成部と、前記対応情報を分割した複数のセグメントごとに、オブジェクトの高さの基準となる基準オブジェクトの形状を推定する推定部と、前記セグメントごとに、前記推定部により推定された前記基準オブジェクトの形状を示す推定形状に基づいて設定された所定の形状を基準に、投票された画素の前記距離情報の分布が所定の基準に合致する場合は、前記推定形状を棄却する棄却部と、を備える情報処理装置である。   In order to solve the above-described problems and achieve the object, the present invention provides an acquisition unit that acquires a distance image having distance information for each pixel, and a vertical direction based on a plurality of pixels included in the distance image. A generation unit that generates correspondence information in which a position and a position in the depth direction are associated with each other, and estimation that estimates the shape of a reference object that is a reference for the height of the object for each of a plurality of segments obtained by dividing the correspondence information And the distribution of the distance information of the voted pixels is predetermined for each segment based on a predetermined shape set based on the estimated shape indicating the shape of the reference object estimated by the estimation unit. And a rejection unit that rejects the estimated shape when the criterion is met.

本発明によれば、物体の検出精度を十分に確保することができる。   According to the present invention, sufficient object detection accuracy can be ensured.

図1は、実施形態の移動体制御システムの概略構成を示す模式図である。Drawing 1 is a mimetic diagram showing a schematic structure of a mobile control system of an embodiment. 図2は、撮像ユニット及び解析ユニットの概略的なブロック図である。FIG. 2 is a schematic block diagram of the imaging unit and the analysis unit. 図3は、被写体と各カメラ部の撮像レンズとの位置関係を示す図である。FIG. 3 is a diagram illustrating a positional relationship between the subject and the imaging lens of each camera unit. 図4は、解析ユニットが有する機能を概略的に説明するための図である。FIG. 4 is a diagram for schematically explaining the functions of the analysis unit. 図5は、物体検出処理部が有する機能の一例を示す図である。FIG. 5 is a diagram illustrating an example of functions of the object detection processing unit. 図6は、路面検出処理部が有する機能の一例を示す図である。FIG. 6 is a diagram illustrating an example of functions of the road surface detection processing unit. 図7は、視差画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a parallax image. 図8は、クラスタリング処理部の詳細な構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of a detailed configuration of the clustering processing unit. 図9は、撮像画像の一例を示す図である。FIG. 9 is a diagram illustrating an example of a captured image. 図10は、Adult Large Umapの一例を示す図である。FIG. 10 is a diagram illustrating an example of the “Adult Large Umap”. 図11は、Large Umapの一例を示す図である。FIG. 11 is a diagram illustrating an example of Large Umap. 図12は、撮像画像の一例を示す図である。FIG. 12 is a diagram illustrating an example of a captured image. 図13は、孤立領域の一例を示す図である。FIG. 13 is a diagram illustrating an example of an isolated region. 図14は、図13に示す孤立領域に対応する視差画像上の領域を示す図である。FIG. 14 is a diagram illustrating a region on the parallax image corresponding to the isolated region illustrated in FIG. 13. 図15は、オブジェクトタイプごとに定められたサイズ範囲を示す図である。FIG. 15 is a diagram showing a size range defined for each object type. 図16は、棄却処理を説明するための図である。FIG. 16 is a diagram for explaining the rejection process. 図17は、路面推定部が有する機能の一例を示す図である。FIG. 17 is a diagram illustrating an example of functions of the road surface estimation unit. 図18は、第1の生成部により生成されるVマップの一例を示す図である。FIG. 18 is a diagram illustrating an example of the V map generated by the first generation unit. 図19は、分割部による分割で得られた複数のセグメントの一例を示す図である。FIG. 19 is a diagram illustrating an example of a plurality of segments obtained by the division by the division unit. 図20は、第1の実施形態の棄却判断を説明するための図である。FIG. 20 is a diagram for explaining a rejection determination according to the first embodiment. 図21は、延長路面の下方に存在する視差値の頻度値を計測する方法を説明するための図である。FIG. 21 is a diagram for explaining a method of measuring the frequency value of the parallax value existing below the extended road surface. 図22は、延長路面の下方に存在する視差値の頻度値を計測する方法の別の例を説明するための図である。FIG. 22 is a diagram for explaining another example of a method of measuring the frequency value of the parallax value existing below the extended road surface. 図23は、デフォルト路面を説明するための図である。FIG. 23 is a diagram for explaining a default road surface. 図24は、路面検出処理部による処理の一例を示すフローチャートである。FIG. 24 is a flowchart illustrating an example of processing by the road surface detection processing unit. 図25は、第2の実施形態の棄却判断を説明するための図である。FIG. 25 is a diagram for explaining a rejection determination according to the second embodiment.

以下、添付図面を参照しながら、本発明に係る情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラムの実施形態を詳細に説明する。   Hereinafter, embodiments of an information processing device, an imaging device, a device control system, an information processing method, and a program according to the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、実施形態の移動体制御システム100の概略構成を示す模式図である。図1に示すように、移動体制御システム100は、移動体の一例である自動車等の車両101に設けられる。移動体制御システム100は、撮像ユニット102、解析ユニット103、制御ユニット104及び表示部105を有している。
(First embodiment)
Drawing 1 is a mimetic diagram showing a schematic structure of mobile control system 100 of an embodiment. As shown in FIG. 1, the mobile body control system 100 is provided in a vehicle 101 such as an automobile that is an example of a mobile body. The moving body control system 100 includes an imaging unit 102, an analysis unit 103, a control unit 104, and a display unit 105.

撮像ユニット102は、車両101のフロントガラス106のルームミラー付近に設けられ、車両101の例えば進行方向等の画像を撮像する。撮像ユニット102の撮像動作で得られる画像データを含む各種データは、解析ユニット103に供給される。解析ユニット103は、撮像ユニット102から供給される各種データに基づいて、車両101が走行中の路面、車両1の前方車両、歩行者、障害物等の認識対象物を解析する。制御ユニット104は、解析ユニット103の解析結果に基づいて、表示部105を介して、車両101の運転者へ警告等を行う。また、制御ユニット104は、解析結果に基づいて、各種車載機器の制御、車両101のハンドル制御又はブレーキ制御等の走行支援を行う。   The imaging unit 102 is provided in the vicinity of the rear mirror of the windshield 106 of the vehicle 101 and captures an image of the vehicle 101 such as a traveling direction. Various data including image data obtained by the imaging operation of the imaging unit 102 is supplied to the analysis unit 103. The analysis unit 103 analyzes recognition objects such as a road surface on which the vehicle 101 is traveling, a vehicle ahead of the vehicle 1, a pedestrian, and an obstacle based on various data supplied from the imaging unit 102. The control unit 104 issues a warning or the like to the driver of the vehicle 101 via the display unit 105 based on the analysis result of the analysis unit 103. Further, the control unit 104 performs traveling support such as control of various in-vehicle devices, steering wheel control or brake control of the vehicle 101 based on the analysis result.

図2は、撮像ユニット102及び解析ユニット103の概略的なブロック図である。この例では、解析ユニット103は「情報処理装置」として機能し、撮像ユニット102および解析ユニット103の組は「撮像装置」として機能する。なお、上述の制御ユニット104は、「制御部」として機能し、撮像装置の出力結果に基づいて機器(この例では車両101)を制御する。撮像ユニット102は、左目用となる第1のカメラ部1Aと、右目用となる第2のカメラ部1Bとの、2台のカメラ部が平行に組み付けられて構成されている。つまり、撮像ユニット102は、ステレオ画像を撮像するステレオカメラとして構成されている。ステレオ画像とは、複数の視点ごとの撮像で得られる複数の撮像画像(複数の視点と1対1に対応する複数の撮像画像)を含む画像であり、撮像ユニット102は、このステレオ画像を撮像するための装置である(「撮像部」として機能する)。各カメラ部1Aおよび1Bは、それぞれレンズ5、画像センサ6、センサコントローラ7を備えている。画像センサ6は、例えばCCDイメージセンサまたはCMOSイメージセンサとなっている。CCDは、「Charge Coupled Device」の略記である。また、CMOSは、「Complementary Metal-Oxide Semiconductor」の略記である。センサコントローラ7は、画像センサ6の露光制御、画像読み出し制御、外部回路との通信、および画像データの送信制御等を行う。   FIG. 2 is a schematic block diagram of the imaging unit 102 and the analysis unit 103. In this example, the analysis unit 103 functions as an “information processing apparatus”, and the set of the imaging unit 102 and the analysis unit 103 functions as an “imaging apparatus”. The control unit 104 described above functions as a “control unit” and controls the device (in this example, the vehicle 101) based on the output result of the imaging device. The imaging unit 102 is configured by assembling two camera units in parallel, a first camera unit 1A for the left eye and a second camera unit 1B for the right eye. That is, the imaging unit 102 is configured as a stereo camera that captures a stereo image. The stereo image is an image including a plurality of captured images (a plurality of captured images corresponding to a plurality of viewpoints on a one-to-one basis) obtained by imaging at a plurality of viewpoints, and the imaging unit 102 captures the stereo images. Device (functioning as an “imaging unit”). Each camera unit 1A and 1B includes a lens 5, an image sensor 6, and a sensor controller 7, respectively. The image sensor 6 is, for example, a CCD image sensor or a CMOS image sensor. CCD is an abbreviation for “Charge Coupled Device”. CMOS is an abbreviation for “Complementary Metal-Oxide Semiconductor”. The sensor controller 7 performs exposure control of the image sensor 6, image readout control, communication with an external circuit, transmission control of image data, and the like.

解析ユニット103は、データバスライン10、シリアルバスライン11、CPU15、FPGA16、ROM17、RAM18、シリアルIF19、およびデータIF20を有している。CPUは、「Central Processing Unit」の略記である。FPGAは、「Field-Programmable Gate Array」の略記である。ROMは、「Read Only Memory」の略記である。RAMは、「Random Access Memory」の略記である。IFは、「interface」の略記である。   The analysis unit 103 includes a data bus line 10, a serial bus line 11, a CPU 15, an FPGA 16, a ROM 17, a RAM 18, a serial IF 19, and a data IF 20. CPU is an abbreviation for “Central Processing Unit”. FPGA is an abbreviation for “Field-Programmable Gate Array”. ROM is an abbreviation for “Read Only Memory”. RAM is an abbreviation for “Random Access Memory”. IF is an abbreviation for “interface”.

上述の撮像ユニット102は、データバスライン10およびシリアルバスライン11を介して解析ユニット103と接続されている。CPU15は、解析ユニット103全体の動作、画像処理、および画像認識処理を実行制御する。第1のカメラ部1Aおよび第2のカメラ部1Bの画像センサ6で撮像された撮像画像の輝度画像データは、データバスライン10を介して解析ユニット103のRAM18に書き込まれる。CPU15またはFPGA16からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、および各種設定データ等は、シリアルバスライン11を介して送受信される。   The above-described imaging unit 102 is connected to the analysis unit 103 via the data bus line 10 and the serial bus line 11. The CPU 15 controls the operation of the entire analysis unit 103, image processing, and image recognition processing. Luminance image data of captured images captured by the image sensors 6 of the first camera unit 1A and the second camera unit 1B is written to the RAM 18 of the analysis unit 103 via the data bus line 10. Sensor exposure value change control data, image read parameter change control data, various setting data, and the like from the CPU 15 or the FPGA 16 are transmitted and received via the serial bus line 11.

FPGA16は、RAM18に保存された画像データに対してリアルタイム性が要求される処理である。FPGA16は、第1のカメラ部1Aおよび第2のカメラ部1Bでそれぞれ撮像された輝度画像データ(撮像画像)のうち、一方を基準画像とすると共に他方を比較画像とする。そして、FPGA16は、撮像領域内の同一地点に対応する基準画像上の対応画像部分と比較画像上の対応画像部分との位置ズレ量を、対応画像部分の視差値(視差画像データ)として算出する。   The FPGA 16 is a process that requires real-time performance for image data stored in the RAM 18. The FPGA 16 uses one of the luminance image data (captured images) captured by the first camera unit 1A and the second camera unit 1B as a reference image and the other as a comparison image. Then, the FPGA 16 calculates a positional shift amount between the corresponding image portion on the reference image corresponding to the same point in the imaging region and the corresponding image portion on the comparison image as a parallax value (parallax image data) of the corresponding image portion. .

図3に、XZ平面上における被写体30と、第1のカメラ部1Aの撮像レンズ5Aと、第2のカメラ部1Bの撮像レンズ5Bとの位置関係を示す。この図3において、各撮像レンズ5A、5Bの間の距離b及び各撮像レンズ5A、5Bの焦点距離fは、それぞれ固定値である。また、被写体30の注視点Pに対する撮像レンズ5AのX座標のズレ量をΔ1とする。また、被写体30の注視点Pに対する撮像レンズ5BのX座標のズレ量をΔ2とする。この場合において、FPGA16は、被写体30の注視点Pに対する各撮像レンズ5A、5BのX座標の差である視差値dを、以下の式1で算出する。   FIG. 3 shows the positional relationship among the subject 30, the imaging lens 5A of the first camera unit 1A, and the imaging lens 5B of the second camera unit 1B on the XZ plane. In FIG. 3, the distance b between the imaging lenses 5A and 5B and the focal length f of the imaging lenses 5A and 5B are fixed values. Further, the amount of deviation of the X coordinate of the imaging lens 5A with respect to the gazing point P of the subject 30 is assumed to be Δ1. Further, the amount of deviation of the X coordinate of the imaging lens 5B with respect to the gazing point P of the subject 30 is assumed to be Δ2. In this case, the FPGA 16 calculates a parallax value d, which is a difference between the X coordinates of the imaging lenses 5 </ b> A and 5 </ b> B with respect to the gazing point P of the subject 30 using the following Equation 1.

解析ユニット103のFPGA16は、撮像ユニット102から供給される輝度画像データに対して、例えばガンマ補正処理及び歪み補正処理(左右の撮像画像の平行化)等のリアルタイム性が要求される処理を施す。また、FPGA16は、このようなリアルタイム性が要求される処理を施した輝度画像データを用いて上述の式1の演算を行うことで、視差画像データ(視差値D)を生成し、RAM15に書き込む。   The FPGA 16 of the analysis unit 103 performs processing requiring real-time properties such as gamma correction processing and distortion correction processing (parallelization of the left and right captured images) on the luminance image data supplied from the imaging unit 102. Further, the FPGA 16 generates the parallax image data (parallax value D) by performing the calculation of the above-described Expression 1 using the luminance image data subjected to such processing that requires real-time property, and writes the parallax image data in the RAM 15. .

図2に戻って説明を続ける。CPU15は、撮像ユニット102の各センサコントローラ7の制御、および解析ユニット103の全体的な制御を行う。また、ROM17には、後述する状況認識、予測、立体物認識等を実行するための立体物認識プログラムが記憶されている。立体物認識プログラムは、画像処理プログラムの一例である。CPU15は、データIF20を介して、例えば自車両のCAN情報(車速、加速度、舵角、ヨーレート等)をパラメータとして取得する。そして、CPU15は、ROM17に記憶されている立体物認識プログラムに従って、RAM18に記憶されている輝度画像および視差画像を用いて、状況認識等の各種処理を実行制御することで、例えば先行車両等の認識対象の認識を行う。CANは、「Controller Area Network」の略記である。   Returning to FIG. 2, the description will be continued. The CPU 15 performs control of each sensor controller 7 of the imaging unit 102 and overall control of the analysis unit 103. The ROM 17 stores a three-dimensional object recognition program for executing situation recognition, prediction, three-dimensional object recognition, and the like, which will be described later. The three-dimensional object recognition program is an example of an image processing program. The CPU 15 acquires, for example, CAN information (vehicle speed, acceleration, steering angle, yaw rate, etc.) of the host vehicle as a parameter via the data IF 20. Then, the CPU 15 executes and controls various processes such as situation recognition using the luminance image and the parallax image stored in the RAM 18 in accordance with the three-dimensional object recognition program stored in the ROM 17. Recognize the recognition target. CAN is an abbreviation for “Controller Area Network”.

認識対象の認識データは、シリアルIF19を介して、制御ユニット104へ供給される。制御ユニット104は、認識対象の認識データを用いて自車両のブレーキ制御や自車両の速度制御等の走行支援を行う。   The recognition data to be recognized is supplied to the control unit 104 via the serial IF 19. The control unit 104 performs traveling support such as brake control of the host vehicle and speed control of the host vehicle using the recognition data of the recognition target.

図4は、解析ユニット103が有する機能を概略的に説明するための図である。ステレオカメラを構成する撮像ユニット102で撮像されるステレオ画像は解析ユニット103へ供給される。例えば第1のカメラ部1Aおよび第2のカメラ部1Bがカラー仕様の場合、第1のカメラ部1Aおよび第2のカメラ部1Bの各々は、以下の式2の演算を行うことで、RGB(赤緑青)の各信号から輝度(Y)信号を生成するカラー輝度変換処理を行う。第1のカメラ部1Aおよび第2のカメラ部1Bの各々は、カラー輝度変換処理により生成した輝度画像データ(撮像画像)を、解析ユニット103が有する前処理部111へ供給する。第1のカメラ部1Aで撮像された輝度画像データ(撮像画像)と、第2のカメラ部1Bで撮像された輝度画像データ(撮像画像)との組がステレオ画像であると考えることができる。この例では、前処理部111は、FPGA16により実現される。   FIG. 4 is a diagram for schematically explaining the functions of the analysis unit 103. A stereo image picked up by the image pickup unit 102 constituting the stereo camera is supplied to the analysis unit 103. For example, when the first camera unit 1A and the second camera unit 1B have color specifications, each of the first camera unit 1A and the second camera unit 1B performs RGB ( Color luminance conversion processing for generating a luminance (Y) signal from each signal (red, green, and blue) is performed. Each of the first camera unit 1A and the second camera unit 1B supplies luminance image data (captured image) generated by the color luminance conversion processing to the preprocessing unit 111 included in the analysis unit 103. It can be considered that a set of luminance image data (captured image) captured by the first camera unit 1A and luminance image data (captured image) captured by the second camera unit 1B is a stereo image. In this example, the preprocessing unit 111 is realized by the FPGA 16.

前処理部111は、第1のカメラ部1Aおよび第2のカメラ部1Bから受け取った輝度画像データの前処理を行う。この例では、前処理としてガンマ補正処理を行う。そして、前処理部111は、前処理を行った後の輝度画像データを平行化画像生成部112へ供給する。   The preprocessing unit 111 performs preprocessing of the luminance image data received from the first camera unit 1A and the second camera unit 1B. In this example, gamma correction processing is performed as preprocessing. Then, the preprocessing unit 111 supplies the luminance image data after the preprocessing to the parallelized image generation unit 112.

平行化画像生成部112は、前処理部111から供給された輝度画像データに対して、平行化処理(歪み補正処理)を施す。この平行化処理は、第1のカメラ部1A、第2のカメラ部1Bから出力される輝度画像データを、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像に変換する処理である。具体的には、各画素の歪み量を、Δx=f(x、y)、Δy=g(x、y)という多項式を用いて計算した計算結果を用いて、第1のカメラ部1A、第2のカメラ部1Bから出力される輝度画像データの各画素を変換する。多項式は、例えば、x(画像の横方向位置)、y(画像の縦方向位置)に関する5次多項式に基づく。これにより、第1のカメラ部1A、第2のカメラ部1Bの光学系の歪みを補正した平行な輝度画像を得ることができる。この例では、平行化画像生成部112は、FPGA16により実現される。   The parallelized image generation unit 112 performs parallelization processing (distortion correction processing) on the luminance image data supplied from the preprocessing unit 111. This parallelization processing is an ideal parallel stereo image obtained when two pinhole cameras are attached in parallel to the luminance image data output from the first camera unit 1A and the second camera unit 1B. It is processing to convert to. Specifically, the first camera unit 1A, the first camera unit 1A, the second camera unit 1A, the second camera unit 1A, the second camera unit 1A, the second camera unit 1A, the second camera unit 1A, the second camera unit 1A, the second camera unit 1A, Each pixel of the luminance image data output from the second camera unit 1B is converted. The polynomial is based on, for example, a quintic polynomial relating to x (the horizontal position of the image) and y (the vertical position of the image). Thereby, the parallel brightness image which correct | amended distortion of the optical system of the 1st camera part 1A and the 2nd camera part 1B can be obtained. In this example, the parallelized image generation unit 112 is realized by the FPGA 16.

視差画像生成部113は、「距離画像生成部」の一例であり、撮像ユニット102により撮像されたステレオ画像から、画素毎に距離情報を備えた距離画像の一例である、画素毎に視差値を備えた視差画像を生成する。ここでは、視差画像生成部113は、第1のカメラ部1Aの輝度画像データを基準画像データとし、第2のカメラ部1Bの輝度画像データを比較画像データとし、上述の式1に示す演算を行うことで、基準画像データと比較画像データの視差を示す視差画像データを生成する。具体的には、視差画像生成部113は、基準画像データの所定の「行」について、一つの注目画素を中心とした複数画素(例えば16画素×1画素)からなるブロックを定義する。一方、比較画像データにおける同じ「行」において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(X方向)へズラす。そして、視差画像生成部113は、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。   The parallax image generation unit 113 is an example of a “distance image generation unit”, and a parallax value for each pixel, which is an example of a distance image having distance information for each pixel, from a stereo image captured by the imaging unit 102. The provided parallax image is generated. Here, the parallax image generation unit 113 uses the luminance image data of the first camera unit 1A as reference image data, the luminance image data of the second camera unit 1B as comparison image data, and performs the calculation shown in Equation 1 above. As a result, parallax image data indicating the parallax between the reference image data and the comparison image data is generated. Specifically, the parallax image generation unit 113 defines a block including a plurality of pixels (for example, 16 pixels × 1 pixel) centered on one target pixel for a predetermined “row” of the reference image data. On the other hand, in the same “row” in the comparison image data, a block having the same size as the defined reference image data block is shifted by one pixel in the horizontal line direction (X direction). Then, the parallax image generation unit 113 calculates a correlation value indicating a correlation between a feature amount indicating the feature of the pixel value of the block defined in the reference image data and a feature amount indicating the feature of the pixel value of each block in the comparison image data, Calculate each.

また、視差画像生成部113は、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値Dとして算出する。このような視差値Dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得る。なお、視差画像の生成方法としては、公知の様々な技術を利用可能である。要するに、視差画像生成部113は、ステレオカメラで撮像されるステレオ画像から、画素毎に距離情報を有する距離画像(この例では視差画像)を算出(生成)していると考えることができる。   Further, the parallax image generation unit 113 performs a matching process of selecting the block of the comparison image data that is most correlated with the block of the reference image data among the blocks of the comparison image data based on the calculated correlation value. Thereafter, a positional deviation amount between the target pixel of the block of the reference image data and the corresponding pixel of the block of the comparison image data selected by the matching process is calculated as the parallax value D. By performing such a process of calculating the parallax value D for the entire area of the reference image data or a specific area, parallax image data is obtained. As a method for generating a parallax image, various known techniques can be used. In short, it can be considered that the parallax image generation unit 113 calculates (generates) a distance image (in this example, a parallax image) having distance information for each pixel from a stereo image captured by a stereo camera.

マッチング処理に用いるブロックの特徴量としては、例えばブロック内の各画素の値(輝度値)を用いることができる。また、相関値としては、例えば基準画像データのブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが、最も相関があるブロックとして検出される。   As the feature amount of the block used for the matching process, for example, the value (luminance value) of each pixel in the block can be used. Further, as the correlation value, for example, the difference between the value (luminance value) of each pixel in the block of reference image data and the value (luminance value) of each pixel in the block of comparison image data corresponding to each of these pixels The sum of absolute values of can be used. In this case, the block with the smallest sum is detected as the most correlated block.

このような視差画像生成部113のマッチング処理としては、例えばSSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、又は、ZSAD(Zero-mean Sum of Absolute Difference)等の手法を用いることができる。なお、マッチング処理において、1画素未満のサブピクセルレベルの視差値が必要な場合は、推定値を用いる。推定値の推定手法としては、例えば等角直線方式又は二次曲線方式等を用いることができる。ただし、推定したサブピクセルレベルの視差値には誤差が発生する。このため、推定誤差を減少させるEEC(推定誤差補正)等の手法を用いてもよい。   As such matching processing of the parallax image generation unit 113, for example, SSD (Sum of Squared Difference), ZSSD (Zero-mean Sum of Squared Difference), SAD (Sum of Absolute Difference), or ZSAD (Zero-mean Sum) of Absolute Difference) can be used. In the matching process, when a sub-pixel level disparity value of less than one pixel is required, an estimated value is used. As an estimation method of the estimated value, for example, an equiangular straight line method or a quadratic curve method can be used. However, an error occurs in the estimated sub-pixel level parallax value. For this reason, a technique such as EEC (estimation error correction) for reducing the estimation error may be used.

この例では、視差画像生成部113は、FPGA16により実現される。視差画像生成部113により生成された視差画像は、物体検出処理部114へ供給される。この例では、物体検出処理部114の機能は、CPU15が立体物認識プログラムを実行することにより実現される。   In this example, the parallax image generation unit 113 is realized by the FPGA 16. The parallax image generated by the parallax image generation unit 113 is supplied to the object detection processing unit 114. In this example, the function of the object detection processing unit 114 is realized by the CPU 15 executing a three-dimensional object recognition program.

図5は、物体検出処理部114が有する機能の一例を示す図である。図5に示すように、物体検出処理部114は、路面検出処理部122、クラスタリング処理部123、トラッキング処理部124を有する。   FIG. 5 is a diagram illustrating an example of functions of the object detection processing unit 114. As illustrated in FIG. 5, the object detection processing unit 114 includes a road surface detection processing unit 122, a clustering processing unit 123, and a tracking processing unit 124.

路面検出処理部122は、視差画像生成部113から入力される視差画像を用いて、オブジェクトの高さの基準となる基準オブジェクトの一例である路面を検出する。図6に示すように、路面検出処理部122は、取得部125と、第1の生成部126と、路面推定部127と、を有する。取得部125は、画素毎に距離情報を有する距離画像の一例である視差画像を取得する。取得部125により取得された視差画像は第1の生成部126および後述のクラスタリング処理部123へ入力される。   The road surface detection processing unit 122 uses the parallax image input from the parallax image generation unit 113 to detect a road surface that is an example of a reference object that serves as a reference for the height of the object. As illustrated in FIG. 6, the road surface detection processing unit 122 includes an acquisition unit 125, a first generation unit 126, and a road surface estimation unit 127. The acquisition unit 125 acquires a parallax image that is an example of a distance image having distance information for each pixel. The parallax image acquired by the acquisition unit 125 is input to the first generation unit 126 and a clustering processing unit 123 described later.

第1の生成部126は、「生成部」の一例であり、視差画像に含まれる複数の画素に基づいて、視差画像の縦方向の位置と、ステレオカメラの光軸の方向を示す奥行方向の位置とが対応付けられた対応情報を生成する。この例では、第1の生成部126は、視差画像の各画素を、画像の垂直方向の座標(y)を縦軸、視差値dを横軸とする2次元ヒストグラム上に投票して、上述の対応情報を生成する。以下の説明では、この対応情報を「Vマップ(V−Disparityマップ)」と称する。Vマップは、視差画像の(x座標値、y座標値、視差値d)の組のうち、横軸(x軸)を視差値d、縦軸(y軸)をy座標値、奥行方向の軸(z軸)を頻度とした2次元ヒストグラムである。要するに、Vマップは、縦方向の位置と視差値d(奥行方向の位置に相当)との組み合わせごとに、視差値dの頻度値を記録した情報であると考えることもできる。以下の説明では、Vマップ内の座標点のうち、視差画像に含まれる視差値dを有する画素(視差画素)が投票された座標を視差点と称する場合がある。なお、Vマップの生成において、視差画像のy座標とVマップのy座標とは対応関係にあり、視差画像の特定のy座標の水平ライン上の視差値dは、Vマップの対応するy座標の水平ラインのうち、該視差値dに対応する点(Vマップ上の座標点)に投票される。したがって、視差画像の同じ水平ラインに含まれる視差値dは同値となるものも存在するため、Vマップの任意の座標点には、同値の視差値dの数を示す頻度値が格納されることになる。視差画像の特定の水平ラインにおいては、同じ路面であれば、視差値dは互いに類似する値となるため、Vマップにおける路面に対応する視差画素は密集して投票されることになる。   The first generation unit 126 is an example of a “generation unit”, and based on a plurality of pixels included in the parallax image, the vertical direction of the parallax image and the depth direction indicating the direction of the optical axis of the stereo camera. Correspondence information in which the position is associated is generated. In this example, the first generation unit 126 votes each pixel of the parallax image on a two-dimensional histogram with the vertical coordinate (y) of the image as the vertical axis and the parallax value d as the horizontal axis. The correspondence information of is generated. In the following description, this correspondence information is referred to as a “V map (V-Disparity map)”. The V map has a parallax value d on the horizontal axis (x axis), a y coordinate value on the vertical axis (y axis), and a depth direction in a set of (x coordinate value, y coordinate value, parallax value d) of parallax images. It is a two-dimensional histogram with the axis (z-axis) as the frequency. In short, the V map can be considered as information in which the frequency value of the parallax value d is recorded for each combination of the position in the vertical direction and the parallax value d (corresponding to the position in the depth direction). In the following description, among the coordinate points in the V map, the coordinates at which a pixel (parallax pixel) having a parallax value d included in the parallax image is voted may be referred to as a parallax point. In the generation of the V map, the y coordinate of the parallax image and the y coordinate of the V map are in a correspondence relationship, and the parallax value d on the horizontal line of the specific y coordinate of the parallax image is the corresponding y coordinate of the V map. Among the horizontal lines, the points corresponding to the parallax value d (coordinate points on the V map) are voted. Accordingly, there are some disparity values d included in the same horizontal line of the disparity image, and therefore a frequency value indicating the number of disparity values d of the same value is stored at any coordinate point of the V map. become. In a specific horizontal line of the parallax image, the parallax values d are similar to each other on the same road surface, so that the parallax pixels corresponding to the road surface in the V map are densely voted.

なお、第1の生成部126は、視差画像中の全ての視差画素を投票してもよいが、図7に示す視差画像Ipのように、所定の領域(例えば、図7に示す投票領域701〜703)を設定し、その領域に含まれる視差画素のみを投票するものとしてもよい。例えば、路面は遠方になるにつれて、消失点に向かって狭くなっていくという性質を利用し、図7に示すように、路面の幅にあった投票領域を所定数設定する方法が考えられる。このように投票領域を制限することによって、路面以外のノイズがVマップに混入することを抑制することができる。また、視差画像中の一水平ラインにおける視差画素を適宜間引いて投票するものとしてもよい。また、間引きに関しては、水平方向だけではなく、垂直方向に対して実行してもよい。   The first generation unit 126 may vote for all the parallax pixels in the parallax image, but a predetermined area (for example, the voting area 701 shown in FIG. 7) as in the parallax image Ip shown in FIG. 7. ˜703) may be set, and only the parallax pixels included in the area may be voted for. For example, a method of setting a predetermined number of voting areas corresponding to the width of the road surface as shown in FIG. By restricting the voting area in this way, it is possible to suppress noise other than the road surface from being mixed into the V map. Further, the voting may be performed by appropriately thinning out parallax pixels in one horizontal line in the parallax image. Further, the thinning may be performed not only in the horizontal direction but also in the vertical direction.

第1の生成部126により生成されたVマップは、図6に示す路面推定部127へ入力される。路面推定部127は、Vマップ内の投票された視差点から所定の方法で標本点を選択し、選択された点群を直線近似(または、曲線近似)する形で路面の形状を推定する。ここでは、オブジェクトの高さの基準となる基準オブジェクトは路面に相当する。路面推定部127の具体的な内容については後述する。路面推定部127による推定結果(路面推定情報)は、クラスタリング処理部123へ入力される。   The V map generated by the first generation unit 126 is input to the road surface estimation unit 127 shown in FIG. The road surface estimation unit 127 selects a sample point from the voted parallax points in the V map by a predetermined method, and estimates the shape of the road surface by linearly approximating the selected point group (or curve approximation). Here, the reference object serving as a reference for the height of the object corresponds to the road surface. Specific contents of the road surface estimation unit 127 will be described later. The estimation result (road surface estimation information) by the road surface estimation unit 127 is input to the clustering processing unit 123.

クラスタリング処理部123は、路面推定情報を用いて、取得部125により取得された視差画像上の物体位置を検出する。図8は、クラスタリング処理部123の詳細な構成の一例を示す図である。図8に示すように、クラスタリング処理部123は、第2の生成部130と、孤立領域検出処理部140と、視差画処理部150と、棄却処理部150と、を有する。第2の生成部130は、視差画像のうち、路面(基準オブジェクトの一例)よりも高い範囲に存在する複数の画素を用いて、ステレオカメラの光軸と直交する方向を示す横方向の位置と、ステレオカメラの光軸の方向を示す奥行方向の位置とが対応付けられた第2の対応情報を生成する。この例では、第2の対応情報は、横軸(X軸)を横方向の実際の距離(実距離)、縦軸(Y軸)を視差画像の視差値d、奥行方向の軸(Z軸)を頻度とした2次元ヒストグラムである。第2の対応情報は、実距離と視差値dとの組み合わせごとに、視差の頻度値を記録した情報であると考えることもできる。   The clustering processing unit 123 detects the object position on the parallax image acquired by the acquisition unit 125 using the road surface estimation information. FIG. 8 is a diagram illustrating an example of a detailed configuration of the clustering processing unit 123. As illustrated in FIG. 8, the clustering processing unit 123 includes a second generation unit 130, an isolated region detection processing unit 140, a parallax image processing unit 150, and a rejection processing unit 150. The second generation unit 130 uses a plurality of pixels present in a range higher than the road surface (an example of the reference object) in the parallax image, and a horizontal position indicating a direction orthogonal to the optical axis of the stereo camera. Second correspondence information in which the position in the depth direction indicating the direction of the optical axis of the stereo camera is associated is generated. In this example, the second correspondence information is such that the horizontal axis (X axis) is the actual distance (actual distance) in the horizontal direction, the vertical axis (Y axis) is the parallax value d of the parallax image, and the axis in the depth direction (Z axis) ) As a frequency. The second correspondence information can be considered to be information in which the frequency value of the parallax is recorded for each combination of the actual distance and the parallax value d.

ここで、上述の路面推定部127の路面推定により、路面を表す直線式が得られているため、視差dが決まれば、対応するy座標y0が決まり、この座標y0が路面の高さとなる。例えば視差値がdでy座標がy’である場合、y’−y0が視差値dのときの路面からの高さを示す。上述の座標(d,y’)の路面からの高さHは、H=(z×(y’−y0))/fという演算式で求めることができる。なお、この演算式における「z」は、視差値dから計算される距離(z=Bf/(d−offset))、「f」は撮像ユニット102の焦点距離を(y’−y0)の単位と同じ単位に変換した値である。ここで、BFは、撮像ユニット102の基線長Bと焦点距離fを乗じた値、offsetは無限遠のオブジェクトを撮影したときの視差である。   Here, since the linear equation representing the road surface is obtained by the road surface estimation of the road surface estimation unit 127 described above, if the parallax d is determined, the corresponding y coordinate y0 is determined, and this coordinate y0 becomes the height of the road surface. For example, when the parallax value is d and the y coordinate is y ′, the height from the road surface when y′−y0 is the parallax value d is indicated. The height H of the coordinates (d, y ′) from the road surface can be obtained by an arithmetic expression H = (z × (y′−y0)) / f. In this arithmetic expression, “z” is a distance (z = Bf / (d−offset)) calculated from the parallax value d, and “f” is a focal length of the imaging unit 102 (y′−y0). Is the value converted to the same unit. Here, BF is a value obtained by multiplying the base line length B of the imaging unit 102 and the focal length f, and offset is a parallax when an object at infinity is photographed.

第2の生成部130は、第2の対応情報として、「Adult Large Umap」、「Large Umap」、「Small Umap」のうちの少なくとも1つを生成する。以下、これらのマップについて説明する。まず、「Adult Large Umap」について説明する。視差画像の横方向の位置をx、縦方向の位置をy、画素ごとに設定される視差値をdとすると、第2の生成部130は、視差画像のうち、路面よりも高い第1の範囲内の所定値以上の高さの範囲を示す第2の範囲内に存在する点(x、y、d)を、(x、d)の値に基づいて投票することで、横軸を視差画像のx、縦軸を視差値d、奥行方向の軸を頻度とした2次元ヒストグラムを生成する。そして、この2次元ヒストグラムの横軸を実距離に変換して、Adult Large Umapを生成する。   The second generation unit 130 generates at least one of “Adult Large Umap”, “Large Umap”, and “Small Umap” as the second correspondence information. Hereinafter, these maps will be described. First, “Adult Large Umap” will be described. If the position in the horizontal direction of the parallax image is x, the position in the vertical direction is y, and the parallax value set for each pixel is d, the second generation unit 130 includes the first higher parallax image than the road surface. By voting a point (x, y, d) that exists in a second range indicating a range of heights greater than or equal to a predetermined value within the range based on the value of (x, d), the horizontal axis is parallax. A two-dimensional histogram is generated with the x of the image, the vertical axis representing the parallax value d, and the depth axis representing the frequency. Then, the horizontal axis of this two-dimensional histogram is converted into an actual distance to generate an “Adult Large Umap”.

例えば図9に示す撮像画像においては、大人と子供を含む人グループ1と、大人同士の人グループ2と、ポールと、車両とが映り込んでいる。この例では、路面からの実高さが150cm〜200cmの範囲が第2の範囲として設定され、該第2の範囲の視差値dが投票されたAdult Large Umapは図10のようになる。高さが150cm未満の子供の視差値dは投票されないためマップ上に現れないことになる。なお、縦軸は、距離に応じた間引き率を用いて視差値dを間引き処理した間引き視差となっている。第2の生成部130により生成されたAdult Large Umapは孤立領域検出処理部140に入力される。   For example, in the captured image shown in FIG. 9, a person group 1 including adults and children, a person group 2 between adults, a pole, and a vehicle are reflected. In this example, the range from 150 cm to 200 cm in actual height from the road surface is set as the second range, and the Large Large Umap in which the parallax value d of the second range is voted is as shown in FIG. The parallax value d of a child whose height is less than 150 cm is not voted and therefore does not appear on the map. The vertical axis represents the thinning parallax obtained by thinning the parallax value d using the thinning rate according to the distance. The Result Large Umap generated by the second generation unit 130 is input to the isolated region detection processing unit 140.

次に、「Large Umap」について説明する。視差画像の横方向の位置をx、縦方向の位置をy、画素ごとに設定される視差値をdとすると、第2の生成部130は、視差画像のうち第1の範囲内に存在する点(x、y、d)を、(x、d)の値に基づいて投票することで、横軸を視差画像のx、縦軸を視差値d、奥行方向の軸を頻度とした2次元ヒストグラムを生成する。そして、この2次元ヒストグラムの横軸を実距離に変換して、Large Umapを生成する。図9の例では、0cm〜200cmの範囲(上述の第2の範囲を含んでいる)が第1の範囲として設定され、該第1の範囲の視差値dが投票されたLarge Umapは図11のようになる。また、第2の生成部130は、Large Umapと併せて、Large Umapに投票される視差点(実距離と視差値dとの組)のうち、路面からの高さ(h)が最も高い視差点の高さを記録して、横軸を実距離(カメラの左右方向の距離)、縦軸を視差値dとし、対応する点ごとに高さが記録された高さ情報を生成することもできる。高さ情報は、実距離と視差値dとの組み合わせごとに高さを記録した情報であると考えてもよい。以下の説明では、この高さ情報を、「Large Umapの高さマップ」と称する。「Large Umapの高さマップ」に含まれる各画素の位置はLarge Umapに含まれる各画素の位置に対応している。第2の生成部130により生成されたLarge UmapおよびLarge Umapの高さマップは孤立領域検出処理部140に入力される。   Next, “Large Umap” will be described. When the horizontal position of the parallax image is x, the vertical position is y, and the parallax value set for each pixel is d, the second generation unit 130 exists in the first range of the parallax images. By voting the point (x, y, d) based on the value of (x, d), the horizontal axis is x of the parallax image, the vertical axis is the parallax value d, and the axis in the depth direction is two-dimensional. Generate a histogram. Then, the horizontal axis of the two-dimensional histogram is converted into an actual distance to generate a Large Umap. In the example of FIG. 9, a range from 0 cm to 200 cm (including the above-described second range) is set as the first range, and the Large Umap in which the parallax value d of the first range is voted is shown in FIG. become that way. In addition to the Large Umap, the second generation unit 130 has the highest height (h) from the road surface among the parallax points (a set of the real distance and the parallax value d) voted for the Large Umap. The height of the difference point is recorded, the horizontal axis is the actual distance (the distance in the left-right direction of the camera), the vertical axis is the parallax value d, and the height information in which the height is recorded for each corresponding point can be generated. it can. You may think that height information is the information which recorded height for every combination of real distance and the parallax value d. In the following description, this height information is referred to as a “large Umap height map”. The position of each pixel included in the “Large Umap height map” corresponds to the position of each pixel included in the Large Umap. The Large Umap and the Large Umap height map generated by the second generation unit 130 are input to the isolated region detection processing unit 140.

次に、「Small Umap」について説明する。視差画像の横方向の位置をx、縦方向の位置をy、画素ごとに設定される視差値をdとすると、第2の生成部130は、視差画像のうち第1の範囲内に存在する点(x、y、d)を、(x、d)の値に基づいて投票(Large Umapを作成する場合よりも少ない数を投票)することで、横軸を視差画像のx、縦軸を視差値d、奥行方向の軸を頻度とした2次元ヒストグラムを生成する。そして、この2次元ヒストグラムの横軸を実距離に変換して、Small Umapを生成する。Small Umapは、Large Umapと比較して1画素の距離分解能が低い。また、第2の生成部130は、Small Umapと併せて、Small Umapに投票される視差点(実距離と視差値dとの組)のうち、路面からの高さ(h)が最も高い視差点の高さを記録して、横軸を実距離(カメラの左右方向の距離)、縦軸を視差値dとし、対応する点ごとに高さが記録された高さ情報を生成することもできる。高さ情報は、実距離と視差値dとの組み合わせごとに高さを記録した情報であると考えてもよい。以下の説明では、この高さ情報を、「Small Uマップの高さmap」と称する。「Small Umapの高さmap」に含まれる各画素の位置はSmall Umapに含まれる各画素の位置に対応している。第2の生成部130により生成されたSmall UmapおよびSmall Uマップの高さマップは孤立領域検出処理部140に入力される。   Next, “Small Umap” will be described. When the horizontal position of the parallax image is x, the vertical position is y, and the parallax value set for each pixel is d, the second generation unit 130 exists in the first range of the parallax images. By voting a point (x, y, d) based on the value of (x, d) (voting a smaller number than when creating a Large Umap), the horizontal axis is x of the parallax image, and the vertical axis is A two-dimensional histogram is generated with the parallax value d and the axis in the depth direction as the frequency. Then, the horizontal axis of the two-dimensional histogram is converted into an actual distance to generate a Small Umap. The Small Umap has a lower distance resolution of one pixel than the Large Umap. In addition to the Small Umap, the second generation unit 130 has the highest height (h) from the road surface among the parallax points voted by the Small Umap (a set of the actual distance and the parallax value d). The height of the difference point is recorded, the horizontal axis is the actual distance (the distance in the left-right direction of the camera), the vertical axis is the parallax value d, and the height information in which the height is recorded for each corresponding point can be generated. it can. You may think that height information is the information which recorded height for every combination of real distance and the parallax value d. In the following description, this height information is referred to as “Small U map height map”. The position of each pixel included in the “Small Umap height map” corresponds to the position of each pixel included in the Small Umap. The height map of the Small Umap and Small U map generated by the second generation unit 130 is input to the isolated region detection processing unit 140.

この例では、第2の生成部130はLarge Umapを生成し、その生成されたLarge Umapが孤立領域検出処理部140に入力される場合を例に挙げて説明するが、これに限らず、例えば「Adult Large Umap」、「Large Umap」、「Small Umap」を用いて物体検出を行う場合は、第2の生成部130は、「Adult Large Umap」、「Large Umap」、「Small Umap」を生成し、これらのマップが孤立領域検出処理部140に入力されてもよい。   In this example, the second generation unit 130 generates a Large Umap and the case where the generated Large Umap is input to the isolated region detection processing unit 140 will be described as an example. In the case of performing object detection using “Adult Large Umap”, “Large Umap”, and “Small Umap”, the second generating unit 130 generates “Adult Large Umap”, “Large Umap”, and “Small Umap”. These maps may be input to the isolated region detection processing unit 140.

図8に戻って説明を続ける。孤立領域検出処理部140は、前述の第2の対応情報(この例ではLarge Umap)から、視差値dの塊の領域である孤立領域(集合領域)を検出する。例えば図12に示す撮像画像の場合、左右にガードレール81、82があり、車両77及び車両79がセンターラインを挟んで対面通行をしている。各走行車線には、それぞれ1台の車両77又は車両79が走行している。車両79とガードレール82との間には2本のポール80A,80Bが存在している。図13は、図12に示す撮像画像に基づいて得られたLarge Umapであり、枠で囲まれた領域が孤立領域に相当する。   Returning to FIG. The isolated area detection processing unit 140 detects an isolated area (aggregate area) that is a lump area of the parallax value d from the above-described second correspondence information (in this example, Large Umap). For example, in the case of the captured image shown in FIG. 12, there are guard rails 81 and 82 on the left and right, and the vehicles 77 and 79 are facing each other across the center line. One vehicle 77 or vehicle 79 is traveling in each traveling lane. Two poles 80 </ b> A and 80 </ b> B exist between the vehicle 79 and the guardrail 82. FIG. 13 is a Large Umap obtained based on the captured image shown in FIG. 12, and an area surrounded by a frame corresponds to an isolated area.

図8に示す視差画処理部150は、孤立領域検出処理部140により検出された孤立領域に対応する視差画像上の領域や実空間での物体情報を検出する視差画処理を行う。図14は、図13に示す孤立領域に対応する視差画像上の領域(視差画処理部150による処理の結果)を示す図であり、図14の領域91はガードレール81に対応する領域であり、領域92は車両77に対応する領域であり、領域93は車両79に対応する領域であり、領域94はポール80Aに対応する領域であり、領域95はポール80Bに対応する領域であり、領域96はガードレール82に対応する領域である。   The parallax image processing unit 150 illustrated in FIG. 8 performs parallax image processing for detecting an area on a parallax image corresponding to the isolated area detected by the isolated area detection processing unit 140 or object information in real space. FIG. 14 is a diagram showing a region on the parallax image corresponding to the isolated region shown in FIG. 13 (result of processing by the parallax image processing unit 150), and a region 91 in FIG. 14 is a region corresponding to the guardrail 81, The region 92 is a region corresponding to the vehicle 77, the region 93 is a region corresponding to the vehicle 79, the region 94 is a region corresponding to the pole 80A, and the region 95 is a region corresponding to the pole 80B. Is an area corresponding to the guardrail 82.

図8に示す棄却処理部160は、視差画処理部150により検出された視差画上の領域や実空間での物体情報に基づき、出力すべきオブジェクトを選別する棄却処理を行う。棄却処理部160は、物体のサイズに着目したサイズ棄却と、物体同士の位置関係に着目したオーバラップ棄却とを実行する。例えばサイズ棄却では、図15に示すオブジェクトタイプごとに定められたサイズ範囲に当てはまらないサイズの検出結果を棄却する。例えば図16の例では、領域91および領域96は棄却されている。また、オーバラップ棄却では、視差画処理により検出された、視差画上の孤立領域に対応する領域同士に対し、重なりを持つ結果の取捨選択を行う。   The rejection processing unit 160 illustrated in FIG. 8 performs a rejection process for selecting an object to be output based on a region on the parallax image detected by the parallax image processing unit 150 or object information in real space. The rejection processing unit 160 executes size rejection focusing on the object size and overlap rejection focusing on the positional relationship between the objects. For example, in the size rejection, a detection result of a size that does not fall within the size range defined for each object type shown in FIG. 15 is rejected. For example, in the example of FIG. 16, the area 91 and the area 96 are rejected. In the overlap rejection, a result having an overlap is selected for areas corresponding to isolated areas on the parallax image detected by the parallax image processing.

クラスタリング処理部123からの出力情報(検出結果)は図5に示すトラッキング処理部124に入力される。トラッキング処理部124は、クラスタリング処理部123による検出結果(検出された物体)が複数のフレームにわたって連続して出現する場合に追跡対象であると判定し、追跡対象である場合には、その検出結果を物体検出結果として制御ユニット104へ出力する。制御ユニット104は、物体検出結果に基づいて、実際に車両101を制御する。   The output information (detection result) from the clustering processing unit 123 is input to the tracking processing unit 124 shown in FIG. The tracking processing unit 124 determines that the detection result (detected object) by the clustering processing unit 123 appears as a tracking target when it continuously appears across a plurality of frames. Is output to the control unit 104 as an object detection result. The control unit 104 actually controls the vehicle 101 based on the object detection result.

以下では、基準オブジェクトの一例である路面の形状を推定する路面推定部127(図6)の具体的な内容を説明する。図17は、路面推定部127が有する機能の一例を示す図である。図17に示すように、路面推定部127は、分割部171と、推定部172と、棄却部173と、補間部174と、を有する。   Below, the specific content of the road surface estimation part 127 (FIG. 6) which estimates the shape of the road surface which is an example of a reference | standard object is demonstrated. FIG. 17 is a diagram illustrating an example of functions of the road surface estimation unit 127. As illustrated in FIG. 17, the road surface estimation unit 127 includes a division unit 171, an estimation unit 172, a rejection unit 173, and an interpolation unit 174.

分割部171は、第1の生成部126から入力されるVマップ(対応情報)を複数のセグメントに分割する。この例では、分割部171は、Vマップを、奥行方向(視差値dの方向、Vマップの横軸の方向)に連続する複数のセグメントに分割する。ただし、これに限らず、例えば視差画像のy方向(Vマップの縦軸方向)に分割してもよい。また、セグメントの位置は任意の位置に設定することが可能である。通常、セグメント間は連続させることが望ましいが、不連続となっても構わない(例えば、所定距離範囲(d値)での推定をあえて実行しない場合など)。本実施形態では、セグメントは2つ以上設定する。セグメントは、等間隔に設定せずに所定の幅で設定することもできる。例えば、遠方領域は解像度が低い(路面分解能が低い)ことがわかっているため、遠方に行くに連れて、セグメントを細かく分割する方法が考えられる。従って、上記に合わせてセグメント数を決定すれば良い。   The dividing unit 171 divides the V map (corresponding information) input from the first generating unit 126 into a plurality of segments. In this example, the dividing unit 171 divides the V map into a plurality of segments that are continuous in the depth direction (the direction of the parallax value d, the direction of the horizontal axis of the V map). However, the present invention is not limited to this. For example, the parallax image may be divided in the y direction (vertical direction of the V map). The segment position can be set to an arbitrary position. Usually, it is desirable that the segments are continuous, but they may be discontinuous (for example, when estimation in a predetermined distance range (d value) is not intentionally executed). In this embodiment, two or more segments are set. The segments can be set with a predetermined width without being set at equal intervals. For example, since it is known that the distant area has a low resolution (road surface resolution is low), a method of finely dividing the segment as it goes far can be considered. Therefore, the number of segments may be determined according to the above.

例えば、第1の生成部126が、図18の(A)に示す視差画像Ip2から図18の(B)に示すVマップを生成し、このVマップが分割部171に入力される場合を想定する。図18の(A)に示す視差画像Ip2には、路面600と、軽トラック601とが写り込んでいる。この視差画像Ip2内の軽トラック600は、図18の(B)に示すVマップにおいて603で示された投票点群(視差点群)に対応している。分割部171は、図18の(B)に示すVマップを、所定のd座標の範囲で区切られた複数のセグメントに分割する。図19は、分割部171による分割で得られた複数のセグメントの一例を示す図であり、右から順番に、第1セグメントseg1、第2セグメントseg2、第3セグメントseg3、第4セグメントseg4、第5セグメントseg5、第6セグメントseg6、第7セグメントseg7と称する。   For example, it is assumed that the first generation unit 126 generates the V map shown in FIG. 18B from the parallax image Ip2 shown in FIG. 18A and this V map is input to the dividing unit 171. To do. In the parallax image Ip2 shown in FIG. 18A, the road surface 600 and the light truck 601 are reflected. The light truck 600 in the parallax image Ip2 corresponds to the voting point group (parallax point group) indicated by 603 in the V map shown in FIG. The dividing unit 171 divides the V map shown in FIG. 18B into a plurality of segments divided by a predetermined d coordinate range. FIG. 19 is a diagram illustrating an example of a plurality of segments obtained by the division by the dividing unit 171. In order from the right, the first segment seg1, the second segment seg2, the third segment seg3, the fourth segment seg4, They are referred to as 5 segment seg5, 6th segment seg6, and 7th segment seg7.

図17の説明を続ける。推定部172は、対応情報を分割した複数のセグメントごとに、路面(基準オブジェクトの一例)の形状を推定する。より具体的には、推定部172は、セグメントごとに以下の処理を行う。まず推定部172は、処理対象のセグメント(以下、「対象セグメント」と称する場合がある)における視差値dの方向(奥行方向)の各座標(以下、「d座標」と称する場合がある)の位置から、所定の個数(例えば1点など)の代表点(以下、「標本点」と称する)を選択する。標本点の選択方法としては、例えば、各d座標に対して、その垂直(縦)方向に存在する視差点のうち、単純に頻度の最も多い視差点(最頻点)を選択してもよく、または、着目するd座標とその左右の複数の画素を併せてVマップの下方向から上方向に上げていき、路面の視差点が含まれ得る領域を制限した上で、その中から最頻点を選択するといったように、より正確に路面の視差点を捉える方法を用いてもよい。または、視差点がない位置(座標)を標本点として選択してもよい。例えば、着目している座標(d,y)には視差点は存在していないが、周囲に頻度が多い視差点が集中している場合、偶発的に座標(d,y)の視差点が欠落している可能性があるため、この抜けている位置を標本点として選択することも可能である。   The description of FIG. 17 is continued. The estimation unit 172 estimates the shape of the road surface (an example of a reference object) for each of a plurality of segments obtained by dividing the correspondence information. More specifically, the estimation unit 172 performs the following process for each segment. First, the estimation unit 172 calculates the coordinates (hereinafter may be referred to as “d-coordinates”) in the direction (depth direction) of the parallax value d in the segment to be processed (hereinafter may be referred to as “target segment”). A predetermined number (for example, one point) of representative points (hereinafter referred to as “sample points”) is selected from the positions. As a sample point selection method, for example, a parallax point (most frequent point) having the highest frequency may be simply selected from among the parallax points existing in the vertical (vertical) direction for each d coordinate. Alternatively, the d coordinate of interest and a plurality of pixels on the left and right sides thereof are raised together from the lower direction to the upper direction of the V map, and the region where the parallax points on the road surface can be included is limited. A method of capturing a parallax point on the road surface more accurately, such as selecting a point, may be used. Alternatively, a position (coordinate) where there is no parallax point may be selected as a sample point. For example, when there are no parallax points at the coordinate (d, y) of interest, but parallax points with high frequency are concentrated around, the parallax point at the coordinates (d, y) is accidentally changed. Since there is a possibility of missing, it is also possible to select this missing position as a sample point.

また、推定部172は、以上のようにして選択した標本点のうち、不適切な標本点を除去してもよい。これによって、後述の標本点群に対する直線近似の際に、不適切な標本点(外れ点)の影響を受けて、路面の推定結果が不適切になってしまうことを抑制することができる。外れ点の除去方法としては、例えば、一旦、対象セグメント内の全ての標本点を使って最小二乗法で直線近似し、近似直線から所定の距離離れた標本点を除去するものとしてもよい。この場合、外れ点を除去した状態で、再度、最小二乗法により推定した結果が最終的な推定結果となる。   Further, the estimation unit 172 may remove inappropriate sample points from the sample points selected as described above. Accordingly, it is possible to suppress the estimation result of the road surface from being inappropriate due to the influence of an inappropriate sample point (outlier point) when performing linear approximation on a sample point group described later. As a method for removing outliers, for example, linear approximation may be performed by a least-squares method using all sample points in the target segment, and sample points that are separated from the approximate line by a predetermined distance may be removed. In this case, the final estimation result is the result of estimation by the least square method again with the outliers removed.

推定部172は、残った標本点を使って、路面の形状を推定する。路面の形状を推定する方法としては、例えば、最小二乗法等によって標本点群に対して直線近似を行う方法、または、多項式近似等を用いて曲線形状を推定する方法等がある。同時に、後段の成否判定(路面の形状を推定した結果に対する成否判定)に使用するために、これらの手法に基づいた相関係数などの数値尺度を算出しておいても良い。以降の説明では、特に断らない限り、路面の形状推定は直線近似によるものとして説明する。また、路面の形状の推定結果を推定路面と称する場合がある。   The estimation unit 172 estimates the shape of the road surface using the remaining sample points. As a method of estimating the shape of the road surface, for example, there are a method of performing linear approximation on a sample point group by the least square method or the like, a method of estimating a curve shape by using polynomial approximation or the like. At the same time, a numerical scale such as a correlation coefficient based on these methods may be calculated for use in subsequent success / failure determination (success / failure determination for the result of estimating the road surface shape). In the following description, the road surface shape estimation is assumed to be based on linear approximation unless otherwise specified. In addition, the estimation result of the shape of the road surface may be referred to as an estimated road surface.

ここで、例えば図18の(A)の視差画像Ip2における台形形状の領域711内の視差画素がVマップ生成時の投票対象である場合を想定する。そして、領域711に含まれる2つの領域712および領域713のうち、領域712は路面の視差画素(視差値を有する画素)が存在する領域を表し、領域713は路面の視差画素が存在しない領域を表すものとする。したがって、図18に示す対応関係で、視差画像Ip2のy座標に存在する視差画素はVマップ上の対応する座標(d,y)に投票されたと仮定すると、領域712内の路面に対応する視差画素は路面として投票されるが、領域713には路面に対応する視差画素が存在しないので投票されない。また、軽トラック601は荷台部分612とキャビン部分611とでカメラからの距離が異なるため、それぞれに対応する視差画素は、Vマップ上の異なるセグメントに投票される。さらに、軽トラック601には荷台カバーが存在するため、画像の下から上に向かうにつれて緩やかに距離が変化していくため、Vマップ上では路面の視差分布と類似する。このため、推定される路面は、軽トラックに対応する視差(物体視差)の影響を受けてしまい、正解路面(実際の路面)に比べて高い位置に推定されてしまう。   Here, for example, a case is assumed where the parallax pixels in the trapezoidal region 711 in the parallax image Ip2 in FIG. 18A are voting targets at the time of V map generation. Of the two regions 712 and 713 included in the region 711, the region 712 represents a region where a road surface parallax pixel (a pixel having a parallax value) exists, and the region 713 represents a region where a road surface parallax pixel does not exist. It shall represent. Therefore, assuming that the parallax pixel existing at the y coordinate of the parallax image Ip2 is voted to the corresponding coordinate (d, y) on the V map in the correspondence relationship shown in FIG. 18, the parallax corresponding to the road surface in the region 712 The pixel is voted as a road surface, but the region 713 is not voted because there is no parallax pixel corresponding to the road surface. Further, since the light truck 601 has a different distance from the camera in the loading platform portion 612 and the cabin portion 611, the corresponding parallax pixels are voted for different segments on the V map. Further, since the light truck 601 has a loading platform cover, the distance gradually changes from the bottom to the top of the image, so that it is similar to the parallax distribution on the road surface on the V map. For this reason, the estimated road surface is affected by the parallax (object parallax) corresponding to the light truck, and is estimated at a position higher than the correct answer road surface (actual road surface).

そこで、本実施形態では、セグメントごとに、該セグメントにおける推定路面を延長して延長路面を設定し、延長路面よりも下方に存在する視差値dの頻度値が一定以上存在する場合には、該延長路面に対応する推定路面は物体視差の影響を受けて引き上がっていると判断し、該当推定路面を棄却する(推定は失敗と判断する)。以下、具体的な内容を説明する。   Therefore, in this embodiment, for each segment, the estimated road surface in the segment is extended to set an extended road surface, and when the frequency value of the parallax value d existing below the extended road surface is greater than a certain value, It is determined that the estimated road surface corresponding to the extended road surface is pulled up under the influence of the object parallax, and the corresponding estimated road surface is rejected (estimation is determined to be unsuccessful). Specific contents will be described below.

図17に示す棄却部173は、セグメントごとに、推定部172により推定された推定路面(路面の形状を示す推定形状)に基づいて設定された所定の形状を基準に、投票された画素の視差値dの分布(より具体的には、Vマップ上の投票点の分布(視差値dの頻度値の分布))が所定の基準に合致する場合は、推定路面を棄却する。上記所定の形状は、推定路面に基づく形状を、隣接するセグメントまで延長させた形状を含む。この例では、推定路面を、そのまま隣接するセグメントまで延長させた形状(以下、「延長路面」と称する)を上記所定の形状としているが、これに限らず、上記所定の形状は、後述のマージン線であってもよい。棄却部173は、延長路面よりも下方に存在する視差値dの頻度値の分布に応じて、推定路面を棄却するか否かを決定する。より具体的には、棄却部173は、延長路面よりも下方に存在する視差値dの頻度値が閾値以上の場合、推定路面を棄却する。   The rejection unit 173 shown in FIG. 17 has, for each segment, the parallax of the voted pixels based on a predetermined shape set based on the estimated road surface (estimated shape indicating the shape of the road surface) estimated by the estimation unit 172. When the distribution of the value d (more specifically, the distribution of the voting points on the V map (the distribution of the frequency values of the parallax value d)) matches a predetermined criterion, the estimated road surface is rejected. The predetermined shape includes a shape obtained by extending a shape based on the estimated road surface to an adjacent segment. In this example, a shape obtained by extending the estimated road surface as it is to an adjacent segment (hereinafter referred to as “extended road surface”) is the predetermined shape. However, the present invention is not limited to this, and the predetermined shape is a margin described later. It may be a line. The rejection unit 173 determines whether to reject the estimated road surface according to the distribution of the frequency values of the parallax values d existing below the extended road surface. More specifically, the rejection unit 173 rejects the estimated road surface when the frequency value of the parallax value d existing below the extended road surface is equal to or greater than a threshold value.

通常、図20の第7セグメントseg7における推定路面Bのように正解路面を推定できている場合、該推定路面Bを、隣接する第6セグメントseg6まで延長した延長路面Bの下方に存在する視差値dの頻度値は少量となる(または出現しない)。一方で、第3セグメントseg3における推定路面Aのように物体視差により路面が引き上がってしまっている場合、該推定路面Aを、隣接する第2セグメントseg2まで延長した延長路面Aの下方には物体視差(荷台612に対応する視差)が存在する。したがって、棄却部173は、延長路面Aよりも下方に存在する視差値dの頻度値を計測し、視差値dの頻度値が閾値以上の場合は、推定路面Aを棄却する。このような処理をセグメントごとに実行する。なお、推定路面の成否判定として、上記処理に加えて、角度による成否判定や標本点群の分散による成否判定などの異なる成否判定を併せて適用しても構わない。なお、角度による成否判定の一例として、推定路面の実角度が所定値を超えていた場合に該推定路面を棄却する態様などがある。また、標本点群の分散による成否判定の一例として、ばらついた点群から推定された路面はその形状が信頼できないものとして、該推定路面を棄却する態様などがある。   Usually, when the correct road surface can be estimated like the estimated road surface B in the seventh segment seg7 in FIG. 20, the disparity value existing below the extended road surface B obtained by extending the estimated road surface B to the adjacent sixth segment seg6 The frequency value of d is small (or does not appear). On the other hand, when the road surface has been pulled up due to the object parallax as in the estimated road surface A in the third segment seg3, the object is placed below the extended road surface A that extends to the adjacent second segment seg2. There is parallax (parallax corresponding to the loading platform 612). Therefore, the rejection unit 173 measures the frequency value of the parallax value d existing below the extended road surface A, and rejects the estimated road surface A when the frequency value of the parallax value d is greater than or equal to the threshold value. Such processing is executed for each segment. In addition to the above-described processing, different success / failure determinations such as success / failure determination by angle and success / failure determination by dispersion of sample point groups may be applied in addition to the above processing. In addition, as an example of the success / failure determination based on the angle, there is an aspect in which the estimated road surface is rejected when the actual angle of the estimated road surface exceeds a predetermined value. Further, as an example of success / failure determination based on the dispersion of sample point groups, there is a mode in which the estimated road surface is rejected on the assumption that the road surface estimated from the scattered point group has an unreliable shape.

なお、実際には路面視差は分散する可能性があるので(例えば遠方に向かうほど視差精度は悪くなる)、図20に示すマージン線A、Bのように所定のマージン線を設けて、マージン線よりも下方を計測範囲としてもよい。要するに、上記所定の形状は、推定路面に基づく形状を、隣接するセグメントまで延長させた形状を含む形態であってもよい。「推定路面に基づく形状」とは、推定路面そのものであってもよいし、マージン線であってもよい。また、延長路面に関しては、着目セグメントよりも近方セグメントを使っても良いし、遠方セグメントを使っても良い。無論、両方に延長した路面を使用しても構わない。また、延長する長さも所定の長さを設定することが可能である。例えば、1セグメント分だけ延長してもよいし、それ以上延長しても構わない。また、セグメント単位に限らず、所定の距離分延長しても構わない。また、本処理を適用する範囲を限定してもよい。例えば、近方で路面推定に失敗してしまうと、推定路面が引き上がった場合に目前の物体が未認識になるというリスクを考慮して、所定のセグメントよりも近方のセグメントに対してのみ本処理を実行しても構わない。無論、遠方のセグメントに対してのみ実行してもよいため、適用する範囲は任意である。   Actually, since the road surface parallax may be dispersed (for example, the farther away, the parallax accuracy becomes worse), a predetermined margin line is provided like the margin lines A and B shown in FIG. The lower range may be the measurement range. In short, the predetermined shape may include a shape obtained by extending a shape based on the estimated road surface to an adjacent segment. The “shape based on the estimated road surface” may be the estimated road surface itself or a margin line. As for the extended road surface, a nearer segment than a target segment may be used, or a far segment may be used. Of course, you may use the road surface extended to both. Further, the length to be extended can be set to a predetermined length. For example, it may be extended by one segment or may be extended further. Moreover, it is not limited to the segment unit, and it may be extended by a predetermined distance. Moreover, you may limit the range which applies this process. For example, considering the risk that if the road surface estimation fails in the vicinity and the estimated road surface is pulled up, the object in front will be unrecognized, only the segments closer to the predetermined segment This process may be executed. Of course, since it may be performed only for a distant segment, the range to be applied is arbitrary.

次に、延長路面の下方に存在する視差値dの頻度値を計測する方法について説明する。本実施形態では、棄却部173は、奥行方向の位置ごとに(Vマップの視差値dの方向(横軸方向)の位置ごとに)、延長路面よりも下方に存在する視差値dの頻度値をカウントした頻度値を対応付けた頻度ヒストグラムを生成する。そして、頻度ヒストグラムを参照して、対応する頻度値が所定値以上となる奥行方向の位置の数を示すビン数を計測し、セグメントの長さに対するビン数の割合が閾値以上の場合、延長路面に対応する推定路面を棄却する。Vマップの各座標には視差値dの頻度値が格納されているため、頻度ヒストグラムを作成する際には、頻度値の合計値を用いてもよいし、頻度値が所定値以上となっている座標数をカウントしてもよい。そして、ビン判定閾値以上の頻度値が対応付けられた頻度ヒストグラムの座標の数(視差値dの方向の座標の数)をカウントし、セグメントの長さに占める、ビン判定閾値以上のビン数の割合(ビン割合)を算出する。そして、ビン割合が閾値(「割合閾値」と称する)以上の場合は、延長路面(またはマージン線)よりも下方に物体視差が存在すると判定する。   Next, a method for measuring the frequency value of the parallax value d existing below the extended road surface will be described. In the present embodiment, the rejection unit 173 performs the frequency value of the parallax value d existing below the extended road surface for each position in the depth direction (for each position in the direction of the parallax value d (horizontal axis direction) of the V map). A frequency histogram is generated in which the frequency values counted are associated with each other. Then, referring to the frequency histogram, the number of bins indicating the number of positions in the depth direction where the corresponding frequency value is equal to or greater than a predetermined value is measured, and when the ratio of the number of bins to the segment length is equal to or greater than a threshold value, the extended road surface The estimated road surface corresponding to is rejected. Since the frequency value of the parallax value d is stored in each coordinate of the V map, when creating the frequency histogram, the total value of the frequency values may be used, or the frequency value becomes a predetermined value or more. The number of coordinates may be counted. Then, the number of frequency histogram coordinates (number of coordinates in the direction of the parallax value d) associated with the frequency value equal to or higher than the bin determination threshold is counted, and the number of bins equal to or higher than the bin determination threshold in the length of the segment is counted. The ratio (bin ratio) is calculated. When the bin ratio is equal to or greater than a threshold (referred to as “ratio threshold”), it is determined that the object parallax exists below the extended road surface (or margin line).

例えば図21の例では、第2セグメントseg2に対応する頻度ヒストグラムAは、ビン判定閾値以上のビン数が2であり、例えば割合閾値を50%とすれば、セグメント長さ(3つのビンに相当)に占める、ビン判定閾値以上のビン数の割合は割合閾値以上になるので、延長路面Aの下方に物体視差が存在すると判定し、延長路面Aに対応する推定路面Aを棄却する。一方で、第6セグメントseg6に対応する頻度ヒストグラムBは、ビン判定閾値を超えているビンが存在しないため、ビン割合は割合閾値未満となり、延長路面Bの下方には物体視差が存在しないと判定し、延長路面Bに対応する推定路面Bを棄却することはしない。ここで、ビン判定閾値を使用する理由は、ノイズに対してロバストにするためである。ビン判定閾値を設けずに、頻度が1以上のビン数をカウントしてしまうと、ノイズが多い雨天などのシーンにおいて、ビン割合が割合閾値を超えやすくなってしまう。無論、このビン判定閾値は設けなくても良い(ビン判定閾値=0であってもよい)。   For example, in the example of FIG. 21, the frequency histogram A corresponding to the second segment seg2 has 2 bins equal to or greater than the bin determination threshold. For example, if the ratio threshold is 50%, the segment length (corresponds to three bins). ), The ratio of the number of bins equal to or greater than the bin determination threshold is equal to or greater than the ratio threshold. Therefore, it is determined that object parallax exists below the extended road surface A, and the estimated road surface A corresponding to the extended road surface A is rejected. On the other hand, the frequency histogram B corresponding to the sixth segment seg6 has no bin exceeding the bin determination threshold, and therefore the bin ratio is less than the ratio threshold, and it is determined that there is no object parallax below the extended road surface B. However, the estimated road surface B corresponding to the extended road surface B is not rejected. Here, the reason for using the bin determination threshold is to make it robust against noise. If the number of bins having a frequency of 1 or more is counted without providing a bin determination threshold, the bin ratio is likely to exceed the ratio threshold in a scene such as rainy weather with a lot of noise. Of course, this bin determination threshold value may not be provided (bin determination threshold value = 0 may be satisfied).

また、別の方法として、棄却部173は、Vマップのうち、延長路面(またはマージン線)よりも下方の所定領域に占める、所定数(1でもよいし、ノイズ対策として1よりも大きい数であってもよい)以上の視差画素が投票された座標(所定数以上の頻度値を有する座標)の合計数の割合が閾値以上の場合、該延長路面に対応する推定路面を棄却することもできる。所定領域の形状は任意であるが、例えば図22のように、マージン線(または延長路面であってもよい)よりも下方の領域を好適に捉えるために台形としてもよいが、これに限らず、例えば矩形としてもよい。図22の例では、計測領域A内には所定数以上の視差画素が投票された座標が半数以上存在しているため、例えば閾値が50%とすると、棄却部173は、マージン線Aよりも下方に物体視差が存在すると判定し、マージン線Aに対応する推定路面Aを棄却する。一方、計測領域B内には、所定数以上の視差画素が投票された座標が存在しないため、棄却部173は、マージン線Bよりも下方に物体視差は存在しないと判定し、マージン線Bに対応する推定路面Bを棄却することはしない。   Further, as another method, the rejection unit 173 occupies a predetermined number (1 may be used) or a number larger than 1 as a noise countermeasure in a predetermined area below the extended road surface (or margin line) in the V map. The estimated road surface corresponding to the extended road surface may be rejected when the ratio of the total number of coordinates (coordinates having a frequency value greater than or equal to a predetermined number) on which the above parallax pixels are voted is equal to or greater than a threshold value. . Although the shape of the predetermined area is arbitrary, for example, as shown in FIG. 22, a trapezoidal shape may be used in order to appropriately capture an area below the margin line (or an extended road surface), but is not limited thereto. For example, it may be a rectangle. In the example of FIG. 22, since more than half of the coordinates where a predetermined number or more of parallax pixels have been voted exist in the measurement region A, for example, if the threshold is 50%, the rejection unit 173 is more than the margin line A. It is determined that there is an object parallax below, and the estimated road surface A corresponding to the margin line A is rejected. On the other hand, since there are no coordinates in which the predetermined number or more of the parallax pixels are voted in the measurement area B, the rejection unit 173 determines that there is no object parallax below the margin line B, and the margin line B The corresponding estimated road surface B is not rejected.

図17に戻って説明を続ける。補間部174は、「設定部」の一例であり、棄却部173によりセグメントに対応する推定路面が棄却された場合、該セグメントに対応する路面の形状として、所定の路面(所定の形状)を設定(補間)する。所定の路面の一例としては、平坦な形状と仮定したデフォルト路面(デフォルト形状)、または、過去のフレームで推定した形状を示す履歴路面(履歴形状)などがある。図23の(A)は、車両が平坦な路面を走行している場合の視差画像Ip3を示し、図23の(B)は、視差画像Ip3から生成されたVマップを示している。図23の(B)に示すように、平坦な路面を走行している場合、推定される推定路面ER1は、平坦な路面と仮定した路面であるデフォルト路面DRと、ほぼ一致する。デフォルト路面DRは予めカメラの取付高さとピッチング角度から算出することが可能である。また、履歴路面とは、1フレーム以上前のフレームで推定された過去の推定路面を示し、過去の所定数のフレームで推定された路面を平均した路面であってもよい。   Returning to FIG. 17, the description will be continued. The interpolation unit 174 is an example of a “setting unit”. When the estimated road surface corresponding to the segment is rejected by the rejection unit 173, a predetermined road surface (predetermined shape) is set as the shape of the road surface corresponding to the segment. (Interpolate). As an example of the predetermined road surface, there is a default road surface (default shape) assumed to be a flat shape, a history road surface (history shape) indicating a shape estimated in a past frame, or the like. FIG. 23A shows the parallax image Ip3 when the vehicle is traveling on a flat road surface, and FIG. 23B shows a V map generated from the parallax image Ip3. As shown in FIG. 23B, when the vehicle is traveling on a flat road surface, the estimated road surface ER1 that is estimated substantially matches the default road surface DR that is a road surface assumed to be a flat road surface. The default road surface DR can be calculated in advance from the camera mounting height and the pitching angle. The history road surface indicates a past estimated road surface estimated in a frame one frame or more before, and may be a road surface obtained by averaging road surfaces estimated in a past predetermined number of frames.

図24は、本実施形態の路面検出処理部122による処理の一例を示すフローチャートである。各ステップの具体的な内容は上述したとおりであるので、詳細な説明については適宜に省略する。まず、取得部125は視差画像を取得する(ステップS1)。取得部125は、視差画像生成部113により生成された視差画像を直接取得してもよいし、視差画像を予めCD、DVD、HDDなどの記録メディアやネットワーク・ストレージに保存しておき、必要時にこれらを読み込んで使用しても構わない。また、視差画像は一枚のみ取得してもよいし、動画像データをフレームごとに逐次取得しても構わない。なお、Vマップを事前に構築しておき、路面検出処理部122へ入力する方法も可能である。この場合、ステップS1および次のステップS2はスキップし、ステップS3から処理が開始する。   FIG. 24 is a flowchart illustrating an example of processing by the road surface detection processing unit 122 of the present embodiment. Since the specific contents of each step are as described above, detailed description will be omitted as appropriate. First, the acquisition unit 125 acquires a parallax image (step S1). The acquisition unit 125 may directly acquire the parallax image generated by the parallax image generation unit 113, or store the parallax image in advance in a recording medium such as a CD, DVD, HDD, or a network storage, and when necessary These may be read and used. Further, only one parallax image may be acquired, or moving image data may be sequentially acquired for each frame. A method of building a V map in advance and inputting it to the road surface detection processing unit 122 is also possible. In this case, step S1 and the next step S2 are skipped, and the process starts from step S3.

次に、第1の生成部126は、ステップS1で取得された視差画像を用いて、Vマップを生成する(ステップS2)。具体的な内容は上述したとおりである。   Next, the 1st production | generation part 126 produces | generates V map using the parallax image acquired by step S1 (step S2). The specific contents are as described above.

次に、路面推定部127(分割部171)は、ステップS2で生成されたVマップを複数のセグメントに分割する(ステップS3)。具体的な内容は上述したとおりである。   Next, the road surface estimation unit 127 (dividing unit 171) divides the V map generated in step S2 into a plurality of segments (step S3). The specific contents are as described above.

以下のステップS4〜ステップS7の処理はセグメントの数だけ繰り返し実行される。なお、ここでは、一のセグメントについてステップS4〜ステップS7の処理が完了した後に、次のセグメントについてステップS4〜ステップS7の処理が実行されるが、このような構成に限定されない。例えば、各ステップの処理を全セグメント分実行した後に、次のステップへ移行するという形態であってもよい。例えばステップS4の処理を全セグメント分実行した後に、ステップS5に移行するといった具合である。   The following steps S4 to S7 are repeated for the number of segments. Here, after the processing of step S4 to step S7 is completed for one segment, the processing of step S4 to step S7 is executed for the next segment, but the present invention is not limited to such a configuration. For example, after executing the processing of each step for all segments, the mode may be shifted to the next step. For example, after the process of step S4 is executed for all segments, the process proceeds to step S5.

ステップS4では、路面推定部127(推定部172)は、各d座標に対して、標本点探索を実施する(ステップS4)。このとき、標本点は1点に限定せず、複数点決定してもよい。また、視差が垂直方向に存在しないd座標も存在することから、標本点を決定しないd座標が存在しても良い。具体的な内容は上述したとおりである。   In step S4, the road surface estimation unit 127 (estimation unit 172) performs a sample point search for each d coordinate (step S4). At this time, the number of sample points is not limited to one, and a plurality of points may be determined. In addition, since there is a d coordinate where the parallax does not exist in the vertical direction, there may exist a d coordinate where the sample point is not determined. The specific contents are as described above.

ステップS5では、路面推定部127(推定部172)は、路面の形状を推定する(ステップS5)。具体的な内容は上述したとおりである。   In step S5, the road surface estimation unit 127 (estimation unit 172) estimates the shape of the road surface (step S5). The specific contents are as described above.

ステップS6では、路面推定部127(棄却部173)は、推定路面を延長した延長路面を設定し、延長路面より下方に存在する視差値dの頻度値が閾値以上であるか否かを判断する。つまり、路面推定部127(棄却部173)は、推定路面を棄却するか否かを判断する(ステップS6)。具体的な内容は上述したとおりである。   In step S6, the road surface estimation unit 127 (rejection unit 173) sets an extended road surface obtained by extending the estimated road surface, and determines whether or not the frequency value of the parallax value d existing below the extended road surface is equal to or greater than a threshold value. . That is, the road surface estimation unit 127 (rejection unit 173) determines whether or not to reject the estimated road surface (step S6). The specific contents are as described above.

ステップS6の結果が否定の場合(ステップS6:No)、推定路面がそのまま採用されることになる。一方、ステップS6の結果が肯定の場合(ステップS6:Yes)、推定路面は棄却され、路面推定部127(補間部174)は、該セグメントに対応する路面として、上述の所定の路面(例えばデフォルト路面や履歴路面等)を、新たな推定路面として設定(補間)する(ステップS7)。   When the result of step S6 is negative (step S6: No), the estimated road surface is adopted as it is. On the other hand, when the result of step S6 is affirmative (step S6: Yes), the estimated road surface is rejected, and the road surface estimation unit 127 (interpolation unit 174) uses the predetermined road surface (for example, default) as the road surface corresponding to the segment. A road surface, a history road surface, etc.) are set (interpolated) as a new estimated road surface (step S7).

なお、上記に限らず、例えばステップS4とステップS5との間に上述した外れ点を除去する処理を入れてもよい。また、全てのセグメントについてステップS4〜ステップS7の処理が完了した後に、セグメント間の推定路面が滑らかに連続するように修正するスムージング処理を行う形態であってもよい。スムージング処理の一例として、例えば2つのセグメントの推定路面の内、一方の推定路面の始点に対応するd座標と、他方の推定路面の終点に対応するd座標(セグメント間に切れ目がない場合、終点と始点は同じd座標を指す)が所定のy座標位置を通るように修正する(修正するということは推定路面のVマップにおける傾きと切片が変更されることと同意になる)処理を行ってもよい。このスムージング処理により、全セグメント間で推定路面の連続性が担保される。上記の所定のy座標位置とは、例えば、上記の始点に対応するy座標と終点に対応するy座標との中点のy座標を使用する方法が考えられる。スムージング処理することで、あるセグメントでの推定路面が適していない場合に修正される可能性があるため、路面推定の精度を向上させる効果がある。スムージング処理された推定路面が最終結果となる。また、このスムージング処理は、一つのセグメントに対するステップS4〜ステップS7の処理が完了するたびに、該一つのセグメントに対応する推定路面と、一つ前のセグメントに対応する推定路面とのスムージング処理を行う形態であってもよい。なお、外れ点を除去する処理やスムージング処理を行わない形態であってもよい。   Note that the present invention is not limited to the above, and for example, a process for removing the above-described outliers may be inserted between step S4 and step S5. Moreover, after the process of step S4-step S7 is completed about all the segments, the form which performs the smoothing process which corrects so that the estimated road surface between segments may continue smoothly may be sufficient. As an example of the smoothing process, for example, of the estimated road surfaces of two segments, the d coordinate corresponding to the start point of one estimated road surface and the d coordinate corresponding to the end point of the other estimated road surface (if there is no break between segments, the end point (The start point indicates the same d coordinate) and pass through a predetermined y coordinate position (correction is equivalent to changing the slope and intercept in the V map of the estimated road surface) Also good. This smoothing process ensures the continuity of the estimated road surface among all segments. As the predetermined y-coordinate position, for example, a method of using the y-coordinate of the middle point between the y-coordinate corresponding to the start point and the y-coordinate corresponding to the end point can be considered. By performing the smoothing process, there is a possibility that the estimated road surface in a certain segment is not suitable, so that there is an effect of improving the accuracy of the road surface estimation. The smoothed estimated road surface is the final result. In addition, this smoothing process performs a smoothing process between the estimated road surface corresponding to the one segment and the estimated road surface corresponding to the previous segment every time the processes of steps S4 to S7 are completed for the one segment. The form to perform may be sufficient. In addition, the form which does not perform the process which removes a detached point, or a smoothing process may be sufficient.

以上に説明したように、本実施形態では、Vマップを複数のセグメントに分割し、セグメントごとに路面を推定する。そして、セグメントごとに、推定路面を延長した延長路面を設定し、延長路面よりも下方に存在する視差値dの頻度値が一定以上存在する場合には、延長路面に対応する推定路面は物体視差の影響を受けて引き上がっていると判断し、該推定路面を棄却する(推定は失敗と判断する)。これにより、実際の路面とは異なる推定路面を用いて物体検出が行われてしまうことを防止できるので、結果として、物体の検出精度を十分に確保することができる。   As described above, in this embodiment, the V map is divided into a plurality of segments, and the road surface is estimated for each segment. Then, for each segment, an extended road surface obtained by extending the estimated road surface is set, and when the frequency value of the parallax value d existing below the extended road surface is greater than a certain value, the estimated road surface corresponding to the extended road surface is the object parallax. The estimated road surface is rejected (estimated is judged to have failed). As a result, it is possible to prevent object detection from being performed using an estimated road surface that is different from the actual road surface, and as a result, sufficient object detection accuracy can be ensured.

(第2の実施形態)
次に、第2の実施形態を説明する。上述の第1の実施形態と共通する部分については適宜に説明を省略する。基本的な構成は上述の第1の実施形態と同様であるが、本実施形態では、棄却部173は、上記所定の形状(延長路面またはマージン線)に占める、視差値dを有する画素(視差画像の画素)が投票された座標の合計数の割合が閾値未満の場合、推定路面を棄却する。
(Second Embodiment)
Next, a second embodiment will be described. Description of parts common to the above-described first embodiment will be omitted as appropriate. Although the basic configuration is the same as that of the first embodiment described above, in this embodiment, the rejection unit 173 has pixels (parallax) having a parallax value d occupying the predetermined shape (extended road surface or margin line). If the ratio of the total number of coordinates from which the image pixels are voted is less than the threshold, the estimated road surface is rejected.

ここで、例えば図25の(A)の視差画像Ip4における台形形状の領域811内の視差画素がVマップ生成時の投票対象である場合を想定する。そして、領域811に含まれる3つの領域812、領域813および領域814のうち、領域812および領域814は視差画素が存在する領域を表し、領域813は視差画素が存在しない領域を表すものとする。路面視差が少量、または存在しない場合に、大型のトラック820などの直立する物体が存在する場合、推定路面が物体視差により引き上がってしまう場合がある。例えば、図25のように大型のトラック820が存在すると、Vマップ上の対応するセグメントに、トラック820に対応する視差が縦方向に分布する。通常、路面視差が十分に存在し正しく路面推定できるのであれば、推定路面は路面の視差に対応する投票点群上に存在する。従って、延長路面も路面の視差に対応する投票点群上に存在することになる。しかし、物体視差により推定路面が不適切な傾きを持って引き上がっている場合、延長路面は、視差を持つ画素(視差画像の画素)が投票された座標の分布(投票点群)上から外れた位置に推定されることになる。図25の(B)に示すように、推定路面Bを延長した延長路面Bは、視差を持つ画素が投票された座標の分布上に推定されるが、推定路面Aのように物体視差により不適切に引き上がっている場合、その延長路面Aは、視差を持つ画素が投票された座標の分布上ではない領域に存在することになる。   Here, for example, a case is assumed where the parallax pixels in the trapezoidal region 811 in the parallax image Ip4 in FIG. 25A are to be voted at the time of V map generation. Of the three areas 812, 813, and 814 included in the area 811, the area 812 and the area 814 represent areas where parallax pixels exist, and the area 813 represents an area where no parallax pixels exist. When there is a small amount of road surface parallax or when there is an upright object such as a large truck 820, the estimated road surface may be pulled up by the object parallax. For example, when a large track 820 exists as shown in FIG. 25, the parallax corresponding to the track 820 is distributed in the vertical direction in the corresponding segment on the V map. Normally, if there is sufficient road surface parallax and the road surface can be estimated correctly, the estimated road surface is present on a voting point group corresponding to the road surface parallax. Therefore, the extended road surface also exists on the voting point group corresponding to the parallax of the road surface. However, when the estimated road surface is pulled up with an inappropriate inclination due to object parallax, the extended road surface deviates from the coordinate distribution (voting point group) where pixels having parallax (pixels of the parallax image) are voted. Will be estimated at the position. As shown in FIG. 25 (B), the extended road surface B obtained by extending the estimated road surface B is estimated on the distribution of the coordinates where the pixels having the parallax are voted. When it is properly lifted, the extended road surface A is present in a region that is not on the coordinate distribution in which the pixels having parallax have been voted.

そこで、本実施形態では、セグメントごとに、推定路面を延長して延長路面を設定し、延長路面の長さに対して、その延長路面上に、視差を持つ画素が投票された座標が何点存在するかをカウントし、その割合(カウント数/延長路面の長さ(セグメントの長さを用いてもよい))が閾値以上であるか否かを判断する。そして、閾値以上である場合は、着目セグメントにおける推定路面は正しく路面視差を拾って路面推定できているとみなして推定成功とする(推定路面の棄却は行わない)。一方、閾値未満の場合は推定失敗と判断して、着目セグメントにおける推定路面を棄却し、デフォルト路面又は履歴路面を設定する。   Therefore, in this embodiment, for each segment, an estimated road surface is extended to set an extended road surface, and the number of coordinates at which pixels having parallax are voted on the extended road surface with respect to the length of the extended road surface. It is counted whether it exists, and it is determined whether the ratio (count number / length of extended road surface (the length of the segment may be used)) is equal to or greater than a threshold value. If it is equal to or greater than the threshold, it is assumed that the estimated road surface in the target segment has been correctly estimated by picking up the road surface parallax, and the estimation is successful (the estimated road surface is not rejected). On the other hand, if it is less than the threshold, it is determined that the estimation has failed, the estimated road surface in the segment of interest is rejected, and a default road surface or a history road surface is set.

なお、ここでは、延長路面上の座標点数(視差を持つ画素が投票された座標の数)をカウントすると説明したが、線上の点のみに着目してしまうと多少の傾きの差異に影響を受けて正しく計測できなくなる可能性がある。従って、マージン線を設けて、延長路面とマージン線に挟まれる領域内の座標点数をカウントしてもよい。ここでは、延長路面とマージン線に挟まれる領域が、上記所定の形状(推定路面に基づいて設定された所定の形状)に対応していると考えることができる。なお、マージン線は延長路面の下方向だけに限定されるものではなく、上方向に設けられてもよい。また、マージン線が1本の場合は、マージン線と延長路面に挟まれる領域内の座標点数をカウントし、マージン線が2本の場合は、最も外側に存在する2本に挟まれる領域内の座標点数をカウントする。また、カウントについて補足すると、頻度値が1以上の座標点数をカウントしてもよいし、所定値未満である場合はノイズ視差と見なして、所定値以上の頻度値を持つ座標をカウントしてもよい。また、延長する路面はより近方のセグメント、または、近方の所定距離に対してのみ実行してもよいし、遠方のセグメント、または、遠方の所定距離まで延長してもよい。つまり、延長路面の長さは任意に設定可能である。また、本処理を適用する範囲は、所定のセグメント、または所定の距離間に限定してもよい(例えば、第2セグメントと第3セグメントに対してのみ実行するといった使い方が可能である)。なお、推定路面の成否判定として、上記処理に加えて、角度による成否判定や標本点群の分散による成否判定などの異なる成否判定を併せて適用しても構わない。角度による成否判定の例、および、分散による成否判定の例は上述したとおりである。   Here, it has been described that the number of coordinate points on the extended road surface (the number of coordinates where a pixel having a parallax has been voted) is counted. However, if attention is paid only to points on the line, there is a slight difference in inclination. May not be measured correctly. Therefore, a margin line may be provided to count the number of coordinate points in an area between the extended road surface and the margin line. Here, it can be considered that the region between the extended road surface and the margin line corresponds to the predetermined shape (a predetermined shape set based on the estimated road surface). The margin line is not limited to the downward direction of the extended road surface, and may be provided in the upward direction. If there is only one margin line, the number of coordinate points in the area sandwiched between the margin line and the extended road surface is counted. If there are two margin lines, the number of coordinates in the area sandwiched between the two outermost lines is counted. Count the number of coordinate points. In addition, when supplementing the count, the number of coordinate points having a frequency value of 1 or more may be counted, and if it is less than a predetermined value, it may be regarded as noise parallax, and coordinates having a frequency value greater than or equal to the predetermined value may be counted. Good. Further, the road surface to be extended may be executed only for a closer segment or a predetermined distance in the vicinity, or may be extended to a remote segment or a predetermined distance in the distance. That is, the length of the extended road surface can be arbitrarily set. In addition, the range to which this process is applied may be limited to a predetermined segment or a predetermined distance (for example, it can be used only for the second segment and the third segment). In addition to the above-described processing, different success / failure determinations such as success / failure determination by angle and success / failure determination by dispersion of sample point groups may be applied in addition to the above processing. An example of success / failure determination based on an angle and an example of success / failure determination based on dispersion are as described above.

本実施形態の路面検出処理部122による処理の流れは図24に示すフローチャートと同様であり、ステップS6の判断処理が上述の第1の実施形態と異なる。より具体的には、棄却部173は、着目したセグメントにおける推定路面を延長した延長路面を設定し、延長路面上に、視差を持つ画素が投票された座標が何点存在するかをカウントし、その割合(カウント数/延長路面の長さ(セグメントの長さを用いてもよい))を算出する。そして、算出した割合が閾値未満の場合に、延長路面に対応する推定路面(着目セグメントに対応する推定路面)を棄却すると判断する。一方、算出した割合が閾値以上の場合は、延長路面に対応する推定路面を棄却しないと判断する。   The flow of processing by the road surface detection processing unit 122 of this embodiment is the same as the flowchart shown in FIG. 24, and the determination processing in step S6 is different from that of the first embodiment described above. More specifically, the rejection unit 173 sets an extended road surface obtained by extending the estimated road surface in the focused segment, and counts the number of coordinates on which the pixels having parallax have been voted on the extended road surface, The ratio (count number / length of extended road surface (segment length may be used)) is calculated. When the calculated ratio is less than the threshold value, it is determined that the estimated road surface corresponding to the extended road surface (the estimated road surface corresponding to the target segment) is rejected. On the other hand, when the calculated ratio is equal to or greater than the threshold value, it is determined that the estimated road surface corresponding to the extended road surface is not rejected.

以上に説明したように、本実施形態では、Vマップを複数のセグメントに分割し、セグメントごとに路面を推定する。そして、セグメントごとに、推定路面を延長した延長路面を設定し、Vマップ上において、延長路面に占める、視差値dを有する画素が投票された座標の合計数の割合が閾値未満の場合は、延長路面に対応する推定路面は物体視差の影響を受けて引き上がっていると判断し、該推定路面を棄却する(推定は失敗と判断する)。これにより、実際の路面とは異なる推定路面を用いて物体検出が行われてしまうことを防止できるので、結果として、物体の検出精度を十分に確保することができる。   As described above, in this embodiment, the V map is divided into a plurality of segments, and the road surface is estimated for each segment. Then, for each segment, an extended road surface obtained by extending the estimated road surface is set, and on the V map, when the ratio of the total number of coordinates in which the pixels having the parallax value d occupying the extended road surface is less than the threshold value, It is determined that the estimated road surface corresponding to the extended road surface is pulled up under the influence of object parallax, and the estimated road surface is rejected (estimation is determined to be unsuccessful). As a result, it is possible to prevent object detection from being performed using an estimated road surface that is different from the actual road surface, and as a result, sufficient object detection accuracy can be ensured.

なお、上述の第1の実施形態と第2の実施形態とを組み合わせて用いることも可能である。例えば棄却部173は、セグメントごとに、第1の実施形態の棄却判断と第2の実施形態の棄却判断を切り替えることができる形態であってもよい。例えば棄却部173は、着目セグメントにおける推定路面の位置が、デフォルト路面または履歴路面よりも所定値以上高い場合は、該着目セグメントにおける推定路面の棄却判断として第2の実施形態で説明した棄却判断を行い、所定値未満の高さの場合は、第1の実施形態で説明した棄却判断を行う形態であってもよい。また、例えば棄却部173は、着目セグメントに対応する推定路面を延長して設定した延長路面の傾きの絶対値が所定値以上の場合(急峻な場合)は、該着目セグメントに対応する推定路面の棄却判断として第2の実施形態で説明した棄却判断を行い、傾きの絶対値が所定値未満の場合は、第1の実施形態で説明した棄却判断を行う形態であってもよい。   Note that the first embodiment and the second embodiment described above can be used in combination. For example, the rejection unit 173 may be configured to switch between the rejection determination of the first embodiment and the rejection determination of the second embodiment for each segment. For example, if the position of the estimated road surface in the target segment is higher than the default road surface or the history road surface by a predetermined value or more, the rejection unit 173 performs the rejection determination described in the second embodiment as a rejection determination of the estimated road surface in the target segment. If the height is less than a predetermined value, the rejection determination described in the first embodiment may be performed. For example, when the absolute value of the slope of the extended road surface set by extending the estimated road surface corresponding to the target segment is greater than or equal to a predetermined value (steep), the rejection unit 173 extends the estimated road surface corresponding to the target segment. The rejection determination described in the second embodiment may be performed as the rejection determination, and when the absolute value of the slope is less than a predetermined value, the rejection determination described in the first embodiment may be performed.

以上、本発明に係る実施形態について説明したが、本発明は、上述の各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。   As mentioned above, although embodiment which concerns on this invention was described, this invention is not limited to each above-mentioned embodiment as it is, A component can be deform | transformed and embodied in the range which does not deviate from the summary in an implementation stage. . Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment.

また、上述した実施形態の移動体制御システム100で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   The program executed in the mobile control system 100 according to the above-described embodiment is a file in an installable or executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile Disk). ), A computer-readable recording medium such as a USB (Universal Serial Bus), or the like, or may be provided or distributed via a network such as the Internet. Various programs may be provided by being incorporated in advance in a ROM or the like.

1A 第1のカメラ部
1B 第2のカメラ部
5 レンズ
6 画像センサ
7 センサコントローラ
10 データバスライン
11 シリアルバスライン
15 CPU
16 FPGA
17 ROM
18 RAM
19 シリアルIF
20 データIF
100 移動体制御システム
101 車両
102 撮像ユニット
103 解析ユニット
104 制御ユニット
105 表示部
106 フロントガラス
111 前処理部
112 平行化画像生成部
113 視差画像生成部
114 物体検出処理部
122 路面検出処理部
123 クラスタリング処理部
124 トラッキング処理部
125 取得部
126 第1の生成部
127 路面推定部
130 第2の生成部
140 孤立領域検出処理部
150 視差画処理部
160 棄却処理部
171 分割部
172 推定部
173 棄却部
174 補間部
DESCRIPTION OF SYMBOLS 1A 1st camera part 1B 2nd camera part 5 Lens 6 Image sensor 7 Sensor controller 10 Data bus line 11 Serial bus line 15 CPU
16 FPGA
17 ROM
18 RAM
19 Serial IF
20 Data IF
DESCRIPTION OF SYMBOLS 100 Mobile body control system 101 Vehicle 102 Imaging unit 103 Analysis unit 104 Control unit 105 Display unit 106 Windshield 111 Preprocessing unit 112 Parallelized image generation unit 113 Parallax image generation unit 114 Object detection processing unit 122 Road surface detection processing unit 123 Clustering process Unit 124 tracking processing unit 125 acquisition unit 126 first generation unit 127 road surface estimation unit 130 second generation unit 140 isolated region detection processing unit 150 parallax image processing unit 160 rejection processing unit 171 division unit 172 estimation unit 173 rejection unit 174 interpolation Part

特開2011−128844号公報JP 2011-128844 A

Claims (15)

画素毎に距離情報を有する距離画像を取得する取得部と、
前記距離画像に含まれる複数の画素に基づいて、縦方向の位置と、奥行方向の位置とが対応付けられた対応情報を生成する生成部と、
前記対応情報を分割した複数のセグメントごとに、オブジェクトの高さの基準となる基準オブジェクトの形状を推定する推定部と、
前記セグメントごとに、前記推定部により推定された前記基準オブジェクトの形状を示す推定形状に基づいて設定された所定の形状を基準に、投票された画素の前記距離情報の分布が所定の基準に合致する場合は、前記推定形状を棄却する棄却部と、を備える、
情報処理装置。
An acquisition unit for acquiring a distance image having distance information for each pixel;
Based on a plurality of pixels included in the distance image, a generation unit that generates correspondence information in which a position in the vertical direction is associated with a position in the depth direction;
For each of the plurality of segments obtained by dividing the correspondence information, an estimation unit that estimates the shape of a reference object that serves as a reference for the height of the object;
For each segment, the distribution of the distance information of the voted pixels matches a predetermined criterion based on a predetermined shape set based on the estimated shape indicating the shape of the reference object estimated by the estimation unit. And a rejection unit for rejecting the estimated shape,
Information processing device.
前記所定の形状は、前記推定形状に基づく形状を、隣接する前記セグメントまで延長させた形状を含む、
請求項1に記載の情報処理装置。
The predetermined shape includes a shape obtained by extending a shape based on the estimated shape to the adjacent segment.
The information processing apparatus according to claim 1.
前記推定形状に基づく形状は、前記推定形状そのものである、
請求項2に記載の情報処理装置。
The shape based on the estimated shape is the estimated shape itself.
The information processing apparatus according to claim 2.
前記推定形状に基づく形状は、前記推定形状のマージン線である、
請求項3に記載の情報処理装置。
The shape based on the estimated shape is a margin line of the estimated shape.
The information processing apparatus according to claim 3.
前記棄却部は、前記所定の形状よりも下方に存在する前記距離情報の分布に応じて、前記推定形状の棄却の可否を決定する、
請求項2乃至4のうちの何れか1項に記載の情報処理装置。
The rejection unit determines whether the estimated shape can be rejected according to the distribution of the distance information existing below the predetermined shape.
The information processing apparatus according to any one of claims 2 to 4.
前記棄却部は、前記所定の形状よりも下方に存在する前記距離情報の頻度値が閾値以上の場合、前記推定形状を棄却する、
請求項5に記載の情報処理装置。
The rejecting unit rejects the estimated shape when the frequency value of the distance information existing below the predetermined shape is a threshold value or more.
The information processing apparatus according to claim 5.
前記棄却部は、前記奥行方向の位置ごとに、前記所定の形状よりも下方に存在する前記距離情報をカウントした頻度値を対応付けた頻度ヒストグラムを生成し、対応する前記頻度値が所定値以上となる前記奥行方向の位置の数を示すビン数を計測し、前記セグメントの長さに対する前記ビン数の割合が前記閾値以上の場合、前記推定形状を棄却する、
請求項6に記載の情報処理装置。
The rejection unit generates, for each position in the depth direction, a frequency histogram that associates a frequency value obtained by counting the distance information existing below the predetermined shape, and the corresponding frequency value is equal to or greater than a predetermined value. Measure the number of bins indicating the number of positions in the depth direction, and if the ratio of the number of bins to the length of the segment is equal to or greater than the threshold, reject the estimated shape,
The information processing apparatus according to claim 6.
前記棄却部は、前記対応情報のうち、前記所定の形状よりも下方の所定領域に占める、前記距離情報を有する画素が投票された座標の合計数の割合が前記閾値以上の場合、前記推定形状を棄却する、
請求項6に記載の情報処理装置。
The rejecting unit, when the ratio of the total number of coordinates in which the pixels having the distance information are voted in the predetermined area below the predetermined shape in the correspondence information is equal to or greater than the threshold, the estimated shape Reject
The information processing apparatus according to claim 6.
前記棄却部は、前記所定の形状に占める、前記距離情報を有する画素が投票された座標の合計数の割合が前記閾値未満の場合、前記推定形状を棄却する、
請求項2に記載の情報処理装置。
The rejection unit rejects the estimated shape when the ratio of the total number of coordinates in which the pixels having the distance information occupy the predetermined shape is less than the threshold value,
The information processing apparatus according to claim 2.
前記棄却部により前記セグメントに対応する前記推定形状が棄却された場合、前記セグメントに対応する前記基準オブジェクトの形状として、所定の形状を設定する設定部をさらに備える、
請求項1乃至9のうちの何れか1項に記載の情報処理装置。
When the estimated shape corresponding to the segment is rejected by the rejecting unit, the setting unit further includes a setting unit that sets a predetermined shape as the shape of the reference object corresponding to the segment.
The information processing apparatus according to any one of claims 1 to 9.
前記所定の形状は、平坦な形状と仮定したデフォルト形状、または、過去のフレームで推定した形状を示す履歴形状を含む、
請求項10に記載の情報処理装置。
The predetermined shape includes a default shape assumed to be a flat shape or a history shape indicating a shape estimated in a past frame.
The information processing apparatus according to claim 10.
ステレオ画像を撮像する撮像部と、
前記撮像部により撮像された前記ステレオ画像から、画素毎に距離情報を有する距離画像を生成する距離画像生成部と、
前記距離画像に含まれる複数の画素に基づいて、縦方向の位置と、奥行方向の位置とが対応付けられた対応情報を生成する生成部と、
前記対応情報を分割した複数のセグメントごとに、オブジェクトの高さの基準となる基準オブジェクトの形状を推定する推定部と、
前記セグメントごとに、前記推定部により推定された前記基準オブジェクトの形状を示す推定形状に基づいて設定された所定の形状を基準に、投票された画素の前記距離情報の分布が所定の基準に合致する場合は、前記推定形状を棄却する棄却部と、を備える、
撮像装置。
An imaging unit for imaging a stereo image;
A distance image generating unit that generates a distance image having distance information for each pixel from the stereo image captured by the imaging unit;
Based on a plurality of pixels included in the distance image, a generation unit that generates correspondence information in which a position in the vertical direction is associated with a position in the depth direction;
For each of the plurality of segments obtained by dividing the correspondence information, an estimation unit that estimates the shape of a reference object that serves as a reference for the height of the object;
For each segment, the distribution of the distance information of the voted pixels matches a predetermined criterion based on a predetermined shape set based on the estimated shape indicating the shape of the reference object estimated by the estimation unit. And a rejection unit for rejecting the estimated shape,
Imaging device.
撮像装置と、前記撮像装置の出力結果に基づいて機器を制御する制御部と、を含む機器制御システムであって、
前記撮像装置は、
ステレオ画像を撮像する撮像部と、
前記撮像部により撮像された前記ステレオ画像から、画素毎に距離情報を有する距離画像を生成する距離画像生成部と、
前記距離画像に含まれる複数の画素に基づいて、縦方向の位置と、奥行方向の位置とが対応付けられた対応情報を生成する生成部と、
前記対応情報を分割した複数のセグメントごとに、オブジェクトの高さの基準となる基準オブジェクトの形状を推定する推定部と、
前記セグメントごとに、前記推定部により推定された前記基準オブジェクトの形状を示す推定形状に基づいて設定された所定の形状を基準に、投票された画素の前記距離情報の分布が所定の基準に合致する場合は、前記推定形状を棄却する棄却部と、を備える、
機器制御システム。
An apparatus control system including an imaging apparatus and a control unit that controls the apparatus based on an output result of the imaging apparatus,
The imaging device
An imaging unit for imaging a stereo image;
A distance image generating unit that generates a distance image having distance information for each pixel from the stereo image captured by the imaging unit;
Based on a plurality of pixels included in the distance image, a generation unit that generates correspondence information in which a position in the vertical direction is associated with a position in the depth direction;
For each of the plurality of segments obtained by dividing the correspondence information, an estimation unit that estimates the shape of a reference object that serves as a reference for the height of the object;
For each segment, the distribution of the distance information of the voted pixels matches a predetermined criterion based on a predetermined shape set based on the estimated shape indicating the shape of the reference object estimated by the estimation unit. And a rejection unit for rejecting the estimated shape,
Equipment control system.
画素毎に距離情報を有する距離画像を取得する取得ステップと、
前記距離画像に含まれる複数の画素に基づいて、縦方向の位置と、奥行方向の位置とが対応付けられた対応情報を生成する生成ステップと、
前記対応情報を分割した複数のセグメントごとに、オブジェクトの高さの基準となる基準オブジェクトの形状を推定する推定ステップと、
前記セグメントごとに、前記推定ステップにより推定された前記基準オブジェクトの形状を示す推定形状に基づいて設定された所定の形状を基準に、投票された画素の前記距離情報の分布が所定の基準に合致する場合は、前記推定形状を棄却する棄却ステップと、を含む、
情報処理方法。
An acquisition step of acquiring a distance image having distance information for each pixel;
Based on a plurality of pixels included in the distance image, a generation step for generating correspondence information in which a position in the vertical direction and a position in the depth direction are associated with each other;
For each of a plurality of segments obtained by dividing the correspondence information, an estimation step for estimating the shape of a reference object that is a reference for the height of the object;
For each of the segments, the distribution of the distance information of the voted pixels matches a predetermined criterion based on a predetermined shape set based on the estimated shape indicating the shape of the reference object estimated by the estimating step. And a rejection step of rejecting the estimated shape,
Information processing method.
コンピュータに、
画素毎に距離情報を有する距離画像を取得する取得ステップと、
前記距離画像に含まれる複数の画素を投票して、縦方向の位置と、奥行方向の位置とが対応付けられた対応情報を生成する生成ステップと、
前記対応情報を分割した複数のセグメントごとに、オブジェクトの高さの基準となる基準オブジェクトの形状を推定する推定ステップと、
前記セグメントごとに、前記推定ステップにより推定された前記基準オブジェクトの形状を示す推定形状に基づいて設定された所定の形状を基準に、投票された画素の前記距離情報の分布が所定の基準に合致する場合は、前記推定形状を棄却する棄却ステップと、を
実行させるためのプログラム。
On the computer,
An acquisition step of acquiring a distance image having distance information for each pixel;
A step of voting a plurality of pixels included in the distance image and generating correspondence information in which a position in the vertical direction and a position in the depth direction are associated with each other,
For each of a plurality of segments obtained by dividing the correspondence information, an estimation step for estimating the shape of a reference object that is a reference for the height of the object;
For each of the segments, the distribution of the distance information of the voted pixels matches a predetermined criterion based on a predetermined shape set based on the estimated shape indicating the shape of the reference object estimated by the estimating step. And a rejection step for rejecting the estimated shape.
JP2016229348A 2016-11-25 2016-11-25 Information processing equipment, imaging equipment, equipment control system, information processing method and program Active JP6907513B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016229348A JP6907513B2 (en) 2016-11-25 2016-11-25 Information processing equipment, imaging equipment, equipment control system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016229348A JP6907513B2 (en) 2016-11-25 2016-11-25 Information processing equipment, imaging equipment, equipment control system, information processing method and program

Publications (2)

Publication Number Publication Date
JP2018085059A true JP2018085059A (en) 2018-05-31
JP6907513B2 JP6907513B2 (en) 2021-07-21

Family

ID=62237202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016229348A Active JP6907513B2 (en) 2016-11-25 2016-11-25 Information processing equipment, imaging equipment, equipment control system, information processing method and program

Country Status (1)

Country Link
JP (1) JP6907513B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020012692A (en) * 2018-07-17 2020-01-23 株式会社Soken Distance image generator
JP2020077102A (en) * 2018-11-06 2020-05-21 株式会社Subaru Road surface detection device
US10762656B2 (en) 2016-11-30 2020-09-01 Ricoh Company, Ltd. Information processing device, imaging device, apparatus control system, information processing method, and computer program product
JP2021086286A (en) * 2019-11-26 2021-06-03 京セラ株式会社 Image processing device, imaging device, and moving body
WO2022153426A1 (en) * 2021-01-14 2022-07-21 日本電気株式会社 Information processing device, information processing system, information processing method, and non-transitory computer-readable medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207281A (en) * 2014-04-10 2015-11-19 株式会社リコー Solid detector, solid detection method, solid detection program, and mobile body equipment control system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207281A (en) * 2014-04-10 2015-11-19 株式会社リコー Solid detector, solid detection method, solid detection program, and mobile body equipment control system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10762656B2 (en) 2016-11-30 2020-09-01 Ricoh Company, Ltd. Information processing device, imaging device, apparatus control system, information processing method, and computer program product
JP2020012692A (en) * 2018-07-17 2020-01-23 株式会社Soken Distance image generator
JP7133378B2 (en) 2018-07-17 2022-09-08 株式会社Soken Range image generator
JP2020077102A (en) * 2018-11-06 2020-05-21 株式会社Subaru Road surface detection device
JP7246165B2 (en) 2018-11-06 2023-03-27 株式会社Subaru Road surface detector
JP2021086286A (en) * 2019-11-26 2021-06-03 京セラ株式会社 Image processing device, imaging device, and moving body
JP7345369B2 (en) 2019-11-26 2023-09-15 京セラ株式会社 Image processing devices, imaging devices, and moving objects
WO2022153426A1 (en) * 2021-01-14 2022-07-21 日本電気株式会社 Information processing device, information processing system, information processing method, and non-transitory computer-readable medium

Also Published As

Publication number Publication date
JP6907513B2 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
JP6907513B2 (en) Information processing equipment, imaging equipment, equipment control system, information processing method and program
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP6376429B2 (en) Target point arrival detection device, target point arrival detection program, mobile device control system, and mobile
JP6614247B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
US20150302257A1 (en) On-Vehicle Control Device
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
US20240144507A1 (en) Electronic device and control method
JP6733302B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6844223B2 (en) Information processing equipment, imaging equipment, equipment control system, information processing method and program
JP6992356B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
JP7052265B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program
JP2017207881A (en) Image processing apparatus, imaging apparatus, moving body device control system, image processing method, and program
JP7062904B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
JP5903901B2 (en) Vehicle position calculation device
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system
JP6969245B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP6561688B2 (en) DETECTING DEVICE, DETECTING METHOD, IMAGING DEVICE, DEVICE CONTROL SYSTEM, AND PROGRAM
JP2019160251A (en) Image processing device, object recognition device, instrument control system, moving body, image processing method and program
JP6943092B2 (en) Information processing device, imaging device, device control system, moving object, information processing method, and information processing program
JP7087499B2 (en) Image processing equipment, object recognition equipment, equipment control systems, moving objects, image processing methods and programs
JP7322576B2 (en) Information processing device, imaging device, and moving object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210614

R151 Written notification of patent or utility model registration

Ref document number: 6907513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151