JP2014119859A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2014119859A
JP2014119859A JP2012273392A JP2012273392A JP2014119859A JP 2014119859 A JP2014119859 A JP 2014119859A JP 2012273392 A JP2012273392 A JP 2012273392A JP 2012273392 A JP2012273392 A JP 2012273392A JP 2014119859 A JP2014119859 A JP 2014119859A
Authority
JP
Japan
Prior art keywords
image
distance
search
corresponding point
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012273392A
Other languages
Japanese (ja)
Other versions
JP5996411B2 (en
Inventor
Toru Saito
徹 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2012273392A priority Critical patent/JP5996411B2/en
Publication of JP2014119859A publication Critical patent/JP2014119859A/en
Application granted granted Critical
Publication of JP5996411B2 publication Critical patent/JP5996411B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus which performs ranging using corresponding point search based on a stereoscopic image, and detects and recognizes an object in the image, while reducing the total processing load from corresponding point search to object recognition.SOLUTION: When an object (short-range object) is detected within a predetermined distance by object detection based on small-size image data, corresponding point search using a predetermined search range and corresponding point search using a search range modified from the predetermined search range are performed in object detection based on large-size image data. Only object detection can be performed based on the small-size image data, thereby reducing processing load as compared with a conventional case where a result of object recognition for a small-size image is used for object detection and object recognition based on a large-size image.

Description

本発明は、ステレオ撮像画像に基づき対応点探索法による測距を行う共に、画像内に存在する物体の検出処理と認識処理とを行う画像処理装置に関する。   The present invention relates to an image processing apparatus that performs distance measurement by a corresponding point search method based on a stereo image, and performs detection processing and recognition processing of an object present in the image.

特開2008−39491号公報JP 2008-39491 A

例えば先行車両やその他の障害物の接近を検知して車両を制動させるなどの衝突回避や、オートクルーズ等といった運転者を支援するための運転支援技術が知られている。このような運転支援技術では、車両前方に存在する物体までの距離を検出したり、その物体の種別(先行車両や歩行者等)を認識した結果に基づき、車両制動やスロットル制御等の車両制御が行われる。   For example, driving assistance technologies for assisting the driver, such as collision avoidance such as detecting the approach of a preceding vehicle and other obstacles to brake the vehicle, and auto-cruising, are known. In such driving support technology, vehicle control such as vehicle braking and throttle control is performed based on the result of detecting the distance to an object existing in front of the vehicle and recognizing the type of the object (preceding vehicle, pedestrian, etc.). Is done.

撮像された物体までの距離の情報を得るための手法として、いわゆる対応点探索法を用いた手法が知られている。
従来では、対応点探索法により算出した各対応点についての距離の情報を、各対応点の座標(画像平面としての二次元空間上の座標)と対応づけて距離画像として保持し、この距離画像を用いて、画像内に存在する同一物体とみなされる画素範囲をグループ化する処理(物体検出処理)を実行している。そして、この物体検出処理で得られた個々の物体の画素範囲の情報を用いて、撮像画像に基づき各物体の種別を認識する処理(物体認識処理)を実行している。
対応点探索は、ステレオ撮像により得られた2枚の撮像画像をそれぞれ基準画像と比較画像としたときに、基準画像上の或る画素ブロック(例えば4画素・4画素等の所定サイズ)に対応する画素ブロック(同一被写体が映し出されているとみなされる画素ブロック:対応点)を、比較画像上から探索する処理である。具体的には、基準画像上の画素ブロックに対する相関値が最も大となる画素ブロックを比較画像上より探索する処理である。
このように、対応点探索は、比較画像上で1画素ずつ画素ブロックをシフトさせながら相関値を求めていくので、比較的処理負担が大きい。
As a technique for obtaining information on the distance to the imaged object, a technique using a so-called corresponding point search method is known.
Conventionally, distance information for each corresponding point calculated by the corresponding point search method is stored as a distance image in association with the coordinates of each corresponding point (coordinates in a two-dimensional space as an image plane). Is used to perform processing (object detection processing) for grouping pixel ranges regarded as the same object existing in the image. And the process (object recognition process) which recognizes the classification of each object based on a captured image is performed using the information of the pixel range of each object obtained by this object detection process.
Corresponding point search corresponds to a certain pixel block (for example, a predetermined size such as 4 pixels or 4 pixels) on a reference image when two captured images obtained by stereo imaging are used as a reference image and a comparison image, respectively. This is a process of searching for a pixel block to be performed (a pixel block in which the same subject is projected: a corresponding point) on the comparison image. Specifically, this is a process of searching the comparison image for a pixel block having the largest correlation value with respect to the pixel block on the reference image.
Thus, the corresponding point search is relatively heavy because the correlation value is obtained while shifting the pixel block pixel by pixel on the comparative image.

ここで、対応点探索法による測距を行う場合には、近距離物体ほど視差が大きくなる。このため、近距離物体の距離を算出するには、遠距離物体の距離を算出する場合と比較して比較画像上のより広い範囲で対応点の探索処理(相関値の計算)を行う必要がある。この点を考慮すると、遠距離から近距離までを測距するためには、対応点の探索幅は近距離物体を検出できる程度に広く設定しておくことが望ましい。   Here, in the case of distance measurement by the corresponding point search method, the parallax becomes larger as the object is closer. For this reason, in order to calculate the distance of a short-distance object, it is necessary to perform corresponding point search processing (correlation value calculation) in a wider range on the comparison image than in the case of calculating the distance of a long-distance object. is there. In consideration of this point, in order to measure a distance from a long distance to a short distance, it is desirable that the search width of the corresponding point is set wide enough to detect a short distance object.

しかしながら、探索幅を広くすると相関値の計算量が増大し、対応点探索に要する処理負担が大きくなる。
そこで、先に本出願人は、近距離物体についての対応点探索を縮小画像に基づき実行する手法を提案している(上記特許文献1を参照)。具体的に、上記特許文献1に記載の手法では、遠距離物体についての対応点探索を通常サイズの撮像画像(以下「通常画像」と表記)に基づき通常の探索幅で行い、近距離物体についての対応点探索を、通常画像の縦・横の画素数をそれぞれ1/2とした1/4縮小画像に基づき、前記通常の探索幅で行っている。
縮小画像では被写体のサイズも縮小されるので、上記のように縮小画像について通常の探索幅による対応点探索を行うと、探索範囲を広げたことと同等の作用が得られ、近距離物体についての対応点を検出できる。そして、対応点探索の最小単位である画素ブロックのサイズも、画像の縮小率に合わせて縮小化するので、その分、縮小画像に基づき行う対応点探索の処理負担は、通常画像に基づき行われる遠距離物体についての処理負担に対し、画像の縮小率の分だけ軽減できる。具体的に、画像の縮小率が上記のように1/2・1/2=1/4とされた場合には、近距離物体についての対応点探索に係る処理負担は、通常画像に基づく遠距離物体についての対応点探索に係る処理負担を「1」とすると、「1/4」に抑えられる。すなわち、遠距離物体から近距離物体までを検出するための対応点探索に係る処理負担は「1.25」である。
例えば、通常画像のみに基づき上記特許文献1に記載の手法と同じ距離範囲の物体の検出を可能とするためには、探索幅を上記通常の探索幅の倍に広げることになるが、このように探索幅を倍に広げた場合には対応点探索の処理負担は「2」となる。この点より、特許文献1に記載の手法によれば対応点探索に係る処理負担が大幅に軽減(1.25/2より凡そ62%の軽減)されることが分かる。
However, if the search width is widened, the amount of calculation of correlation values increases, and the processing load required for corresponding point search increases.
Therefore, the present applicant has previously proposed a method of executing corresponding point search for a short-distance object based on a reduced image (see Patent Document 1 above). Specifically, in the method described in Patent Document 1, a corresponding point search for a long-distance object is performed with a normal search width based on a normal-size captured image (hereinafter referred to as “normal image”), and a short-distance object is detected. The corresponding point search is performed based on the 1/4 reduced image in which the number of vertical and horizontal pixels of the normal image is ½, respectively, with the normal search width.
Since the size of the subject is also reduced in the reduced image, when the corresponding point search is performed on the reduced image with the normal search width as described above, an effect equivalent to the expansion of the search range can be obtained, and the near-distance object can be obtained. Corresponding points can be detected. Since the size of the pixel block, which is the minimum unit of corresponding point search, is also reduced in accordance with the image reduction rate, the processing load for corresponding point search based on the reduced image is performed based on the normal image. The processing burden for a long-distance object can be reduced by the image reduction rate. Specifically, when the reduction ratio of the image is 1/2 · 1/2 = 1/4 as described above, the processing burden related to the corresponding point search for the short-distance object is the far distance based on the normal image. If the processing load related to the corresponding point search for the distance object is “1”, it can be suppressed to “¼”. In other words, the processing load related to the corresponding point search for detecting from a long-distance object to a short-distance object is “1.25”.
For example, in order to enable detection of an object within the same distance range as the method described in Patent Document 1 based only on a normal image, the search width is increased to twice the normal search width. When the search width is doubled, the processing load of the corresponding point search is “2”. From this point, it can be seen that according to the method described in Patent Document 1, the processing load related to the corresponding point search is greatly reduced (approximately 62% reduction from 1.25 / 2).

物体認識処理を行う従来の画像処理装置では、上記特許文献1に記載の手法によって遠距離物体と近距離物体とについての対応点探索を行っており、これにより、対応点探索に係る処理負担の軽減が図られている。
しかしながら、従来の画像処理装置では、縮小画像に基づく処理として、上記のような対応点探索の処理と共に、対応点探索の処理結果に基づく物体検出処理と、該物体検出処理で検出された物体の種別を認識する物体認識処理とを行っている。そして、この縮小画像についての一連の処理の結果を用いて、通常画像に基づく対応点探索処理、物体検出処理、物体認識処理の一連の処理を行って、近距離物体と遠距離物体とについての最終的な距離情報及び物体認識結果の情報を得ている。
このように従来の画像処理装置では、通常画像と縮小画像とについて全く同じ処理が並行して行われており、処理の無駄が生じている。
本発明は上記問題点に鑑み為されたものであり、対応点探索から物体認識処理までに要するトータルの処理負担の軽減を図ることを目的とする。
In a conventional image processing apparatus that performs object recognition processing, a corresponding point search for a long-distance object and a short-distance object is performed by the method described in Patent Document 1 described above. Mitigation is planned.
However, in the conventional image processing apparatus, as the processing based on the reduced image, the corresponding point search processing as described above, the object detection processing based on the processing result of the corresponding point search, and the object detected by the object detection processing Object recognition processing for recognizing the type is performed. Then, by using a result of a series of processing on the reduced image, a series of processing of a corresponding point search process based on a normal image, an object detection process, and an object recognition process is performed, and a short distance object and a long distance object are processed. Final distance information and object recognition result information are obtained.
As described above, in the conventional image processing apparatus, the same processing is performed in parallel for the normal image and the reduced image, and processing is wasted.
The present invention has been made in view of the above problems, and an object thereof is to reduce the total processing load required from the corresponding point search to the object recognition processing.

本発明の画像処理装置は、ステレオ撮像により一対の画像データを得る撮像部と、前記撮像部により得た前記一対の画像データに基づき、画サイズが大サイズの前記一対の画像データと画サイズが小サイズの前記一対の画像データとを得る大小画像取得部と、前記大サイズの前記一対の画像データに基づき、対応点探索法による測距を行って距離画像を生成し、該距離画像に基づき、画像内の同一物体とみなされる画素範囲をグループ化する大画物体検出部と、前記大画物体検出部による物体検出処理結果と、前記大小画像取得部が取得した大サイズの前記画像データとに基づき、前記大画物体検出部が検出した物体の種別を認識する物体認識部と、前記小サイズの前記一対の画像データに基づき、対応点探索法による測距を行って距離画像を生成し、該距離画像に基づき、画像内の同一物体とみなされる画素範囲をグループ化する小画物体検出部と、を備え、前記大画物体検出部が、前記小画物体検出部によって所定距離内の物体が検出された場合に、所定の探索範囲による対応点探索と、該所定の探索範囲から変更した探索範囲による対応点探索とを実行し、これらの対応点探索で求まった各対応点の情報に基づき、前記距離画像の生成及び該距離画像に基づく前記グループ化を行うものである。
本発明によれば、従来の画像処理装置との比較で、小サイズの画像データに基づく処理が物体検出処理までに止められるので、小サイズの画像データに基づく物体認識処理が省略され、その分の処理負担が軽減される。
The image processing apparatus of the present invention includes an imaging unit that obtains a pair of image data by stereo imaging, and the pair of image data having a large image size and the image size based on the pair of image data obtained by the imaging unit. A large and small image acquisition unit that obtains the pair of small-size image data and a distance image by performing distance measurement by a corresponding point search method based on the pair of large-size image data, and based on the distance image A large object detection unit that groups pixel ranges that are regarded as the same object in the image, an object detection processing result by the large object detection unit, and the large-size image data acquired by the large and small image acquisition unit, Based on the object recognition unit for recognizing the type of the object detected by the large image object detection unit, and the distance image by performing distance measurement by the corresponding point search method based on the pair of image data of the small size And a small object detection unit that groups pixel ranges that are regarded as the same object in the image based on the distance image, and the large object detection unit is configured to perform a predetermined distance by the small object detection unit. When a corresponding object is detected, a corresponding point search by a predetermined search range and a corresponding point search by a search range changed from the predetermined search range are executed, and each corresponding point obtained by these corresponding point searches Based on the information, the generation of the distance image and the grouping based on the distance image are performed.
According to the present invention, the processing based on the small-size image data is stopped by the object detection processing as compared with the conventional image processing apparatus, so that the object recognition processing based on the small-size image data is omitted. The processing burden is reduced.

本発明によれば、対応点探索から物体認識処理までに要するトータルの処理負担を軽減できる。   According to the present invention, the total processing load required from the corresponding point search to the object recognition process can be reduced.

車両制御を行うためのシステム構成を模式的に示した図である。It is the figure which showed typically the system configuration for performing vehicle control. 図1に示したシステム構成における、物体認識までの画像処理に係る部分の構成を抽出して示した図である。It is the figure which extracted and showed the structure of the part which concerns on the image process until object recognition in the system configuration | structure shown in FIG. 大サイズ画像と小サイズ画像とについての説明図である。It is explanatory drawing about a large size image and a small size image. 大サイズ画像、小サイズ画像に基づく対応点探索の様子を模式的に示した図である。It is the figure which showed typically the mode of the corresponding point search based on a large size image and a small size image. 物体検出処理の説明図である。It is explanatory drawing of an object detection process. 探索範囲の変更手法についての説明図である。It is explanatory drawing about the change method of a search range. 画像処理の一連の処理手順を示したフローチャートである。It is the flowchart which showed a series of processing procedures of image processing.

<1.システム全体構成>
図1は、本発明に係る実施の形態としての画像処理装置を備え、車両1についての車両制御を行うためのシステム構成を模式的に示している。本システムは、車両1に対して設けられた撮像装置2、車外環境認識装置3、車両制御装置4、舵角センサ5、車速センサ6、アクチュエータ7、ディスプレイ8を備えて構成されている。
本システムでは、撮像装置2で得られた撮像画像に基づき、車外環境認識装置3が車両前方に存在する物体を認識する。そして本システムでは、車両制御装置4が、車外環境認識装置3で認識された物体との衝突を回避したり、先行車両としての物体との離間距離(車間距離)を安全とされる距離に保つ制御等を実行する。
<1. Overall system configuration>
FIG. 1 schematically shows a system configuration that includes an image processing apparatus according to an embodiment of the present invention and performs vehicle control of a vehicle 1. This system includes an imaging device 2, an outside environment recognition device 3, a vehicle control device 4, a steering angle sensor 5, a vehicle speed sensor 6, an actuator 7, and a display 8 provided for the vehicle 1.
In the present system, the vehicle environment recognition device 3 recognizes an object existing in front of the vehicle based on the captured image obtained by the imaging device 2. In this system, the vehicle control device 4 avoids a collision with an object recognized by the vehicle exterior environment recognition device 3, and keeps a separation distance (inter-vehicle distance) from the object as the preceding vehicle at a safe distance. Execute control etc.

具体的に、車両制御装置4は、操舵の角度を検出する舵角センサ5や車両1の走行速度を検出する車速センサ6を通じて取得した現在の車両1の走行状態の情報と、車外環境認識装置3で検出された車両1の前方に存在する物体に関する情報とに基づき、先行車両との車間距離を安全とされる距離に保ったり、物体との衝突が想定される場合に車両1を自動的に制動させるための制御をアクチュエータ7に対して実行する。アクチュエータ7は、車両1を制動するためのブレーキやスロットルバルブ、舵角等を制御するためのアクチュエータを包括的に表している。
また、車両制御装置4は、物体との衝突が想定される場合には、運転者の前方に配置されたディスプレイ8にその旨の警告表示が行われるように制御を行う。
なお車両制御装置4は、車外環境認識装置3と一体に形成することも可能である。
Specifically, the vehicle control device 4 includes information on the current traveling state of the vehicle 1 acquired through the steering angle sensor 5 that detects the steering angle and the vehicle speed sensor 6 that detects the traveling speed of the vehicle 1, and the outside environment recognition device. Based on the information about the object existing in front of the vehicle 1 detected in 3, the vehicle 1 is automatically maintained when the distance between the preceding vehicle and the preceding vehicle is kept safe or when a collision with the object is assumed. Control for causing the actuator 7 to brake is executed. The actuator 7 comprehensively represents an actuator for controlling a brake, a throttle valve, a steering angle, and the like for braking the vehicle 1.
Further, when a collision with an object is assumed, the vehicle control device 4 performs control so that a warning display to that effect is displayed on the display 8 disposed in front of the driver.
The vehicle control device 4 can also be formed integrally with the outside environment recognition device 3.

本実施の形態の画像処理装置は、撮像装置2で得られた撮像画像に基づき、画像内に存在する(車両1の前方に存在する)物体の範囲を検出する物体検出処理や検出物体の種別を認識する物体認識処理を実行し、上記のシステム構成においては、車外環境認識装置3に内在される。   The image processing apparatus according to the present embodiment is based on the captured image obtained by the imaging apparatus 2 and performs object detection processing for detecting the range of an object existing in the image (present in front of the vehicle 1) and the type of detected object. The object recognition process for recognizing the object is executed, and in the above-described system configuration, the vehicle environment recognition device 3 is included.

<2.物体認識までの画像処理に係る構成>
図2は、図1に示した撮像装置2の内部構成と、車外環境認識装置3の内部構成のうち物体認識までの画像処理に係る要部の構成とを抽出して示している。なお、図中では図1に示した車両制御装置4も併せて示している。
図示するように撮像装置2には、第1カメラ部20-1、第2カメラ部20-2、A/D変換器21-1、A/D変換器21-2、画像補正部22及びインターフェイス部(I/F部)23が設けられている。
第1カメラ部20-1、第2カメラ部20-2は、それぞれカメラ光学系と、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えて構成され、前記カメラ光学系により前記撮像素子の撮像面に被写体像が結像され、該撮像素子によって受光光量に応じた電気信号が画素単位で得られる。
<2. Configuration related to image processing up to object recognition>
FIG. 2 shows an extracted internal configuration of the imaging device 2 shown in FIG. 1 and a configuration of a main part related to image processing up to object recognition out of the internal configuration of the outside-vehicle environment recognition device 3. In the figure, the vehicle control device 4 shown in FIG. 1 is also shown.
As illustrated, the imaging apparatus 2 includes a first camera unit 20-1, a second camera unit 20-2, an A / D converter 21-1, an A / D converter 21-2, an image correction unit 22, and an interface. A part (I / F part) 23 is provided.
Each of the first camera unit 20-1 and the second camera unit 20-2 includes a camera optical system and an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). A subject image is formed on the imaging surface of the imaging device by the optical system, and an electrical signal corresponding to the amount of received light is obtained in pixel units by the imaging device.

第1カメラ部20-1、第2カメラ部20-2は、いわゆるステレオ法による測距が可能となるように設置される。本例における第1カメラ部20-1、第2カメラ部20-2は、車両1のフロントガラスの上部付近において、車幅方向に所定間隔を空けて配置されている。第1カメラ部20-1、第2カメラ部20-2の光軸は平行とされている。
また、第1カメラ部20-1、第2カメラ部20-2の焦点距離はそれぞれ同値とされ、またフレーム周期は同期している。フレームレートは、例えば60fpsである。
第1カメラ部20-1の撮像素子で得られた電気信号はA/D変換器21-1に、第2カメラ部20-2の撮像素子で得られた電気信号はA/D変換器21-2に供給され、それぞれA/D変換が行われる。これにより、画素単位で所定階調による輝度値を表すデジタル画像信号(画像データ)が得られる。
The first camera unit 20-1 and the second camera unit 20-2 are installed so as to enable distance measurement by a so-called stereo method. The first camera unit 20-1 and the second camera unit 20-2 in this example are arranged at a predetermined interval in the vehicle width direction in the vicinity of the upper part of the windshield of the vehicle 1. The optical axes of the first camera unit 20-1 and the second camera unit 20-2 are parallel.
In addition, the focal lengths of the first camera unit 20-1 and the second camera unit 20-2 are the same, and the frame periods are synchronized. The frame rate is 60 fps, for example.
The electrical signal obtained by the image sensor of the first camera unit 20-1 is sent to the A / D converter 21-1, and the electrical signal obtained by the image sensor of the second camera unit 20-2 is sent to the A / D converter 21. -2 and A / D conversion is performed respectively. As a result, a digital image signal (image data) representing a luminance value with a predetermined gradation in pixel units is obtained.

画像補正部22には、A/D変換器21-1を介して得られる第1カメラ部20-1による撮像画像に基づく画像データ(以下、「第1撮像画像データ」と表記)と、A/D変換器21-2を介して得られる第2カメラ部20-2による撮像画像に基づく画像データ(以下、「第2撮像画像データ」と表記)とが入力される。
画像補正部22は、第1撮像画像データ、第2撮像画像データのそれぞれに対し、第1カメラ部20-1、第2カメラ部20-2の取り付け位置の誤差に起因するずれの補正を例えばアフィン変換等を用いて行う。また画像補正部22は、第1撮像画像データ、第2撮像画像データのそれぞれに対しノイズの除去等を含む輝度値の補正も行う。
The image correction unit 22 includes image data based on an image captured by the first camera unit 20-1 obtained through the A / D converter 21-1 (hereinafter referred to as “first captured image data”), A Image data (hereinafter referred to as “second captured image data”) based on an image captured by the second camera unit 20-2 obtained via the / D converter 21-2 is input.
For example, the image correction unit 22 corrects a deviation caused by an error in the attachment positions of the first camera unit 20-1 and the second camera unit 20-2 for each of the first captured image data and the second captured image data. Use affine transformation or the like. The image correction unit 22 also corrects the luminance value including noise removal for each of the first captured image data and the second captured image data.

インターフェイス部23は、外部装置との間で各種のデータをやり取りするために設けられる。画像補正部22によって補正の施された第1撮像画像データ、第2撮像画像データは、インターフェイス部23を介して車外環境認識装置3に転送される。   The interface unit 23 is provided for exchanging various data with an external device. The first captured image data and the second captured image data corrected by the image correction unit 22 are transferred to the vehicle environment recognition apparatus 3 via the interface unit 23.

車外環境認識装置3には、インターフェイス部31、バス32、画像処理部33及びメモリ部34が設けられている。インターフェイス部31、画像処理部33、メモリ部34はそれぞれバス32を介して接続され、バス32を介しての相互のデータ通信が可能とされる。
インターフェイス部31は、外部装置との間で各種のデータをやり取りするために設けられる。インターフェイス部23によって撮像装置2側から転送された第1撮像画像データ、第2撮像画像データは、インターフェイス部31によって受信される。このようにインターフェイス部31によって受信された第1撮像画像データ、第2撮像画像データは、バス32を介してメモリ部34に保持され、画像処理部33の処理に供される。
また、画像処理部33が行う後述する物体検出処理や物体認識処理で求まる物体までの距離の情報や物体の種別の情報は、インターフェイス部31を介して車両制御装置4に転送される。図1の説明からも理解されるように、車両制御装置4は、このように転送された距離や物体種別の情報に基づき前述した車両制御を実行する。
The outside environment recognition device 3 includes an interface unit 31, a bus 32, an image processing unit 33, and a memory unit 34. The interface unit 31, the image processing unit 33, and the memory unit 34 are respectively connected via the bus 32, and mutual data communication via the bus 32 is enabled.
The interface unit 31 is provided for exchanging various data with an external device. The first captured image data and the second captured image data transferred from the imaging device 2 side by the interface unit 23 are received by the interface unit 31. The first captured image data and the second captured image data received by the interface unit 31 in this way are held in the memory unit 34 via the bus 32 and are used for processing of the image processing unit 33.
In addition, information on the distance to the object and information on the type of the object obtained by the object detection process and object recognition process described later performed by the image processing unit 33 are transferred to the vehicle control device 4 via the interface unit 31. As can be understood from the description of FIG. 1, the vehicle control device 4 executes the above-described vehicle control based on the distance and object type information thus transferred.

画像処理部33は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)及びワークエリアとしてのRAM(Random Access Memory)を備えた半導体集積回路で構成され、ROMに格納されたプログラムに従った各種の処理を実行する。
本実施の形態の場合、画像処理部33は、インターフェイス部31を介してメモリ部34に保持された第1撮像画像データ、第2撮像画像データに基づき、以下の処理を実行する。
先ず、メモリ部34に保持された第1撮像画像データ及び第2撮像画像データをそれぞれ所定の縮小率で縮小化して小サイズの第1撮像画像データ及び第2撮像画像データを得る画像縮小処理を実行する。この画像縮小処理により、メモリ部34には、通常の(縮小化前の)画サイズによる第1撮像画像データ及び第2撮像画像データと、小サイズの第1撮像画像データ及び第2撮像画像データとが保持される。なお、以下、通常の画サイズによる第1撮像画像データ及び第2撮像画像データについては「大サイズ画像」とも表記し、小サイズの第1撮像画像データ及び第2撮像画像データについては「小サイズ画像」とも表記する。
The image processing unit 33 is configured by a semiconductor integrated circuit including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) as a work area, and follows a program stored in the ROM. Perform various processes.
In the case of the present embodiment, the image processing unit 33 performs the following processing based on the first captured image data and the second captured image data held in the memory unit 34 via the interface unit 31.
First, image reduction processing is performed to reduce the first captured image data and the second captured image data held in the memory unit 34 at a predetermined reduction ratio to obtain small-sized first captured image data and second captured image data. Run. By this image reduction processing, the memory unit 34 has the first captured image data and the second captured image data having the normal (before reduction) image size, and the first captured image data and the second captured image data having a small size. And are held. Hereinafter, the first captured image data and the second captured image data with the normal image size are also referred to as “large size images”, and the small captured first captured image data and the second captured image data are “small size”. Also referred to as “image”.

また、画像処理部33は、大サイズ画像に基づく以下の処理と、小サイズ画像に基づく以下の処理とを並行して行う。
すなわち、大サイズ画像に基づき対応点探索法による測距を行って距離画像を生成する大画距離画像生成処理と、大画距離画像生成処理で得た距離画像に基づき同一物体とみなされる画素範囲をグループ化する大画物体検出処理と、大画物体検出処理で検出した物体の種別を認識する大画物体認識処理とを実行する。
また、小サイズ画像に基づき対応点探索法による測距を行って距離画像を生成する小画距離画像生成処理と、小画距離画像生成処理で得た距離画像に基づき同一物体とみなされる画素範囲をグループ化する小画物体検出処理とを実行する。
The image processing unit 33 performs the following processing based on the large size image and the following processing based on the small size image in parallel.
That is, a pixel range that is regarded as the same object on the basis of the distance image obtained by the large image distance image generation processing and the large image distance image generation processing by performing distance measurement based on the corresponding point search method based on the large size image Large image object detection processing for grouping and large image object recognition processing for recognizing the type of object detected in the large image object detection processing.
In addition, a pixel range that is regarded as the same object based on a small image distance image generation process that performs distance measurement by a corresponding point search method based on a small image and a distance image obtained by the small image distance image generation process And small object detection processing for grouping.

本例の場合、上記の画像縮小処理、大画距離画像生成処理、大画物体検出処理、大画物体認識処理、小画距離画像生成処理、小画物体検出処理は、ROMに格納されたプログラムに従ったCPUによるソフトウェア処理で実現される。図2中では便宜的に、これらの処理を実行するハードウェアがそれぞれ存在するものと擬制し、それぞれ画像縮小処理部33A、大画距離画像生成処理部33B、大画物体検出処理部33C、大画物体認識処理部33D、小画距離画像生成処理部33E、小画物体検出処理部33Fと表している。   In the case of this example, the above image reduction processing, large image distance image generation processing, large image object detection processing, large image object recognition processing, small image distance image generation processing, and small image object detection processing are the programs stored in the ROM. It is realized by software processing by the CPU according to the above. In FIG. 2, for the sake of convenience, it is assumed that there is hardware for executing these processes, and an image reduction processing unit 33A, a large image distance image generation processing unit 33B, a large image object detection processing unit 33C, The image object recognition processing unit 33D, the small image distance image generation processing unit 33E, and the small image object detection processing unit 33F are illustrated.

<3.大サイズ画像と小サイズ画像>
先ず、図3を参照して、大サイズ画像と小サイズ画像について説明する。図3Aは、大サイズ画像としての第1撮像画像データと第2撮像画像データの例を示し、図3Bは、画像縮小処理で得た小サイズ画像としての第1撮像画像データと第2撮像画像データの例を示している。
<3. Large image and small image>
First, a large size image and a small size image will be described with reference to FIG. FIG. 3A shows an example of first captured image data and second captured image data as large-size images, and FIG. 3B shows first captured image data and second captured images as small-size images obtained by image reduction processing. An example of data is shown.

先ず、前提として、対応点探索法は、ステレオ撮像により得た一対の撮像画像データのうち一方を基準画像T、他方を比較画像Cとして、基準画像T上の各画素ブロックについての対応点を比較画像C上からそれぞれ探索する手法である。本例の場合、第1カメラ部20-1によって得た第1撮像画像データが基準画像Tとされ、第2カメラ部20-2によって得た第2撮像画像データが比較画像Cであるとする。大サイズの基準画像Tについては基準画像T1と表記し、大サイズの比較画像Cについては比較画像C1と表記する。一方、画像縮小化処理で得た基準画像Tは基準画像T2と表記し、画像縮小化処理で得た比較画像Cは比較画像C2と表記する。
本例の場合、第1カメラ部20-1は、車両1の進行方向を向いた状態で左右を定義したときの右側に配置され、また第2カメラ部20-2は同定義に従った左側に配置されている。従って、基準画像Tは右目画像、比較画像Cは左目画像と換言できる。
First, as a premise, the corresponding point search method compares the corresponding points for each pixel block on the reference image T, with one of the pair of captured image data obtained by stereo imaging as the reference image T and the other as the comparison image C. This is a method of searching from each of the images C. In the case of this example, it is assumed that the first captured image data obtained by the first camera unit 20-1 is the reference image T, and the second captured image data obtained by the second camera unit 20-2 is the comparison image C. . The large size reference image T is denoted as a reference image T1, and the large size comparison image C is denoted as a comparison image C1. On the other hand, the reference image T obtained by the image reduction process is denoted as a reference image T2, and the comparison image C obtained by the image reduction process is denoted as a comparison image C2.
In the case of this example, the first camera unit 20-1 is arranged on the right side when the left and right are defined in the state of facing the traveling direction of the vehicle 1, and the second camera unit 20-2 is the left side according to the definition. Is arranged. Therefore, the reference image T can be rephrased as a right eye image and the comparative image C as a left eye image.

比較画像Cは、基準画像Tよりも水平方向の画素数が多くされ、基準画像Tの水平方向端部に位置する画素ブロックの対応点を比較画像C上から適正に検出できるようにされている。後述するように、近距離物体の視差dpの最大値が例えば256画素であれば、比較画像Cは、水平方向画素数が基準画像Tよりも256画素多い画像を用いる。
画像縮小処理における画像の縮小率は任意であるが、本例では、基準画像T1、比較画像C1のそれぞれの水平画素数及び垂直画素数を1/2に縮小化して基準画像T2、比較画像C2を得る。この場合、画サイズは1/4に縮小化される(縮小率=1/4)。
なお、画像縮小の具体的な手法は特に限定されるべきものではないが、一例としては間引き処理を挙げることができる。
画像縮小処理で得た基準画像T2と比較画像C2は、メモリ部34に格納される。
The comparison image C has a larger number of pixels in the horizontal direction than the reference image T, and the corresponding points of the pixel blocks located at the horizontal ends of the reference image T can be properly detected from the comparison image C. . As will be described later, if the maximum value of the parallax dp of the short-distance object is, for example, 256 pixels, the comparison image C uses an image in which the number of horizontal pixels is 256 pixels larger than that of the reference image T.
Although the image reduction ratio in the image reduction process is arbitrary, in this example, the reference image T2 and the comparison image C2 are reduced by reducing the number of horizontal pixels and the number of vertical pixels of the reference image T1 and the comparison image C1 to ½. Get. In this case, the image size is reduced to ¼ (reduction ratio = 1/4).
Note that a specific method of image reduction is not particularly limited, but an example is a thinning process.
The reference image T2 and the comparison image C2 obtained by the image reduction process are stored in the memory unit 34.

<4.大画距離画像生成処理及び小画距離画像生成処理>
続いて、大画距離画像生成処理部33Bが実行する大画距離画像生成処理と、小画距離画像生成処理部33Eが実行する小画距離画像生成処理とについて説明する。
先ず、大画距離画像生成処理と小画距離画像生成処理とで共通して行われる対応点探索処理と距離画像の生成処理について述べる。
<4. Large stroke distance image generation processing and small stroke distance image generation processing>
Next, the large image distance image generation processing executed by the large image distance image generation processing unit 33B and the small image distance image generation processing executed by the small image distance image generation processing unit 33E will be described.
First, a corresponding point search process and a distance image generation process performed in common in the large image distance image generation process and the small image distance image generation process will be described.

対応点探索法により視差を求めるための手法の概要を以下に述べる。
なお、以下の説明では、基準画像Tにおける各画素の位置を座標(i,j)で表す。座標(i,j)は、基準画像Tの左下隅を原点とし、水平方向(横方向)をi座標軸、垂直方向(縦方向)をj座標軸とした場合の画素のi座標、j座標を表す。比較画像Cについては、基準画像Tの原点に予め対応づけられた画素を原点として同様にi座標、j座標を取る。
また、以下の説明では、画素ごとの輝度値を輝度値pで表し、基準画像Tにおける座標(i,j)で特定される画素の輝度値pを輝度値pTij、比較画像Cにおける座標(i,j)で特定される画素の輝度値pを輝度値pCijと表記する。
The outline of the method for obtaining the parallax by the corresponding point search method is described below.
In the following description, the position of each pixel in the reference image T is represented by coordinates (i, j). The coordinates (i, j) represent the i and j coordinates of the pixel when the lower left corner of the reference image T is the origin, the horizontal direction (lateral direction) is the i coordinate axis, and the vertical direction (vertical direction) is the j coordinate axis. . For the comparison image C, the i-coordinate and the j-coordinate are similarly taken with the pixel previously associated with the origin of the reference image T as the origin.
In the following description, the luminance value for each pixel is represented by the luminance value p, the luminance value p of the pixel specified by the coordinates (i, j) in the reference image T is the luminance value pTij, and the coordinates (i in the comparative image C are , J) represents the luminance value p of the pixel specified by the luminance value pCij.

対応点探索処理では、基準画像Tを、例えば4・4画素などの所定の複数画素で成る画素ブロック単位で分割し、画素ブロック単位で、比較画像Cとのパターンマッチング処理を行って、基準画像Tと比較画像Cとの間で対応している点(同じ被写体が映し出されているとみなされる点:対応点)を検出する。
具体的には、比較画像Cを水平方向に延在する4画素幅の水平ラインに分割し、基準画像Tの1つの画素ブロックを取り出してそれに対応する比較画像Cの水平ライン上(エピポーラ線上)を1画素単位で順次水平方向(i方向)にシフトさせながら、基準画像Tの画素ブロックにおける16個の画素の輝度値pTijとそれに対応する比較画像Cにおける16個の画素の輝度値pCijとを取得する。そして、基準画像Tの輝度値pTijと比較画像Cの輝度値pCijとの差の絶対値をそれぞれ合計した下記[式1]で求められるシティブロック距離CBが最小となる水平ライン上の画素ブロックを、基準画像Tの画素ブロックに最も近い輝度値特性を有する比較画像C上の画素ブロック(対応点)として特定する。
CB=Σ|pTij−pCij| ・・・[式1]
このように特定した比較画像C上の画素ブロックと、もとの基準画像T上の画素ブロックとの座標のずれ量を算出し、そのずれ量を視差dpとして求める。視差dpの値は、検出された対応点ごとに求まり、距離画像生成処理では、視差dpの値を、その視差dpが検出された対応点の位置の情報と対応づけて保持する。
In the corresponding point search process, the reference image T is divided in units of pixel blocks composed of a predetermined plurality of pixels, for example, 4 or 4 pixels, and pattern matching processing with the comparison image C is performed in units of pixel blocks, so that the reference image A point corresponding to T and the comparison image C (a point where the same subject is considered to be projected: a corresponding point) is detected.
Specifically, the comparison image C is divided into horizontal lines of four pixels width extending in the horizontal direction, one pixel block of the reference image T is taken out, and the corresponding comparison image C is on the horizontal line (on the epipolar line). Are sequentially shifted in the horizontal direction (i direction) in units of one pixel, and the luminance values pTij of the 16 pixels in the pixel block of the reference image T and the luminance values pCij of the 16 pixels in the comparison image C corresponding thereto are obtained. get. Then, a pixel block on the horizontal line that minimizes the city block distance CB obtained by the following [Equation 1] obtained by summing the absolute values of the differences between the luminance value pTij of the reference image T and the luminance value pCij of the comparative image C is obtained. The pixel block (corresponding point) on the comparison image C having the luminance value characteristic closest to the pixel block of the reference image T is specified.
CB = Σ | pTij−pCij | [Formula 1]
The coordinate shift amount between the pixel block on the comparison image C specified in this way and the pixel block on the original reference image T is calculated, and the shift amount is obtained as the parallax dp. The value of the parallax dp is obtained for each detected corresponding point, and in the distance image generation process, the value of the parallax dp is held in correspondence with the position information of the corresponding point where the parallax dp is detected.

上記のように求めた視差dpは、第1カメラ部20-1と第2カメラ部20-2との離間距離に由来する基準画像Tと比較画像Cとにおける同一物体の写像位置に関する水平方向の相対的なずれ量を表す。このような視差dpの値を用いて、第1カメラ部20-1と第2カメラ部20-2との中央位置から対応点としての被写体までの距離(実空間上の距離)を三角測量の原理に基づいて算出する。   The parallax dp determined as described above is the horizontal direction related to the mapping position of the same object in the reference image T and the comparison image C derived from the separation distance between the first camera unit 20-1 and the second camera unit 20-2. Represents the relative shift amount. Using such a value of the parallax dp, the distance from the center position of the first camera unit 20-1 and the second camera unit 20-2 to the subject as a corresponding point (distance in real space) is triangulated. Calculate based on the principle.

対応点としての被写体までの実空間上における距離の算出は、例えば以下のようにして行うことができる。
先ず、前提として、第1カメラ部20-1と第2カメラ部20-2との中央位置の真下に位置する道路面上の点を原点とし、車両1の車幅方向(水平方向)をX軸、車高方向をY軸、車長方向(距離方向)をZ軸とした三次元空間を定義する。
該三次元空間上において、視差dpが求められた対応点としての被写体が存在する位置の座標(X,Y,Z)は、視差dpが求められた対応点の画像上の座標を(ic,jc)とすると、算出された視差dpの値を用いて、下記の[式2]〜[式4]により求まる。
X=CD/2+Z・PW・(ic−IV) ・・・[式2]
Y=CH+Z・PW・(jc−JV) ・・・[式3]
Z=CD/(PW・(dp−DP)) ・・・[式4]
ただし、CDは第1カメラ部20-1と第2カメラ部20-2との配置間隔、PWは1画素当たりの視野角、CHは第1カメラ部20-1及び第2カメラ部20-2の取り付け高さ、IV、JVはそれぞれ車両1の正面における無限遠点の画像上のi座標、j座標、DPは消失点視差を表す。
視差dpが算出された対応点としての被写体までの距離(以下、「距離L」と表記)は、[式4]により、算出された視差dpの値とCD、PW、DPの値とを用いて算出できる。
The calculation of the distance in the real space to the subject as the corresponding point can be performed as follows, for example.
First, as a premise, the vehicle width direction (horizontal direction) of the vehicle 1 is set to X with the point on the road surface located directly below the center position of the first camera unit 20-1 and the second camera unit 20-2 as the origin. A three-dimensional space is defined with the axis, the vehicle height direction as the Y axis, and the vehicle length direction (distance direction) as the Z axis.
In the three-dimensional space, the coordinates (X, Y, Z) of the position of the subject as the corresponding point for which the parallax dp is obtained are the coordinates on the image of the corresponding point for which the parallax dp is obtained (ic, jc), it is obtained by the following [Expression 2] to [Expression 4] using the calculated value of the parallax dp.
X = CD / 2 + Z · PW · (ic−IV) (Formula 2)
Y = CH + Z · PW · (jc−JV) (Formula 3)
Z = CD / (PW · (dp−DP)) (Formula 4)
However, CD is the arrangement interval between the first camera unit 20-1 and the second camera unit 20-2, PW is the viewing angle per pixel, and CH is the first camera unit 20-1 and the second camera unit 20-2. , IV and JV are the i-coordinate and j-coordinate on the infinity point image in front of the vehicle 1, and DP is the vanishing point parallax.
The distance to the subject as the corresponding point for which the parallax dp is calculated (hereinafter referred to as “distance L”) uses the calculated parallax dp value and the CD, PW, and DP values according to [Equation 4]. Can be calculated.

このとき、距離画像生成処理では、視差dpの信頼性を向上させる目的から、求めた視差dpについてのフィルタリング処理を施す。例えば、車道の映像のみからなる特徴に乏しい4・4画素の画素ブロックを比較画像Cの4画素幅の水平ライン上で走査した場合は、比較画像Cの車道が撮像されている部分ではすべて相関が高くなり、対応する画素ブロックが特定されて視差dpが算出されてもその視差dpの信頼性は低い。このため、そのような視差dpを無効とするフィルタリング処理を行う。すなわち、信頼性の低い視差dpの値として0(無効値)を割り当てる。
このようなフィルタリング処理が行われる結果、視差dpは、通常、基準画像Tの水平方向に隣り合う画素間で輝度値pTijの差が大きないわゆるエッジ部分についてのみ有効な値を持つデータとなる。これに伴い、視差dpの算出結果から得られる距離画像としても、同様にエッジ部分についてのみ有効な値を持つデータとなる。
At this time, in the distance image generation process, a filtering process for the obtained parallax dp is performed for the purpose of improving the reliability of the parallax dp. For example, when a 4/4 pixel pixel block having only a feature image of a roadway is scanned on a horizontal line having a width of 4 pixels in the comparison image C, all the portions of the comparison image C where the roadway is imaged are correlated. Even if the corresponding pixel block is specified and the parallax dp is calculated, the reliability of the parallax dp is low. For this reason, a filtering process for invalidating such parallax dp is performed. That is, 0 (invalid value) is assigned as the value of the parallax dp with low reliability.
As a result of performing such filtering processing, the parallax dp is normally data having an effective value only for a so-called edge portion where the difference in luminance value pTij is large between pixels adjacent in the horizontal direction of the reference image T. Accordingly, the distance image obtained from the calculation result of the parallax dp is also data having an effective value only for the edge portion.

距離画像生成処理では、対象とする画素ブロックについて、算出した視差dpの値から先の[式4]により距離Lを算出し、算出した距離Lの値を当該画素ブロックの位置の情報(座標(i,j))と対応づけてメモリ部34に記憶する。
このように距離Lの値を画像上の位置の情報と対応づけた情報をi軸とj軸による二次元平面上に展開すると、各対応点(各被写体)までの実空間上における距離Lを画像上に表すものとなる。この意味で、上記のように距離Lの値を画像上の位置の情報と対応づけた情報のことを「距離画像」と呼んでいる。
In the distance image generation process, for the target pixel block, the distance L is calculated from the calculated parallax dp value according to the previous [Expression 4], and the calculated distance L value is used as information on the position of the pixel block (coordinate ( i, j)) and stored in the memory unit 34.
In this way, when the information in which the value of the distance L is associated with the position information on the image is developed on the two-dimensional plane by the i-axis and the j-axis, the distance L in the real space to each corresponding point (each subject) is obtained. It will be represented on the image. In this sense, the information in which the value of the distance L is associated with the position information on the image as described above is called a “distance image”.

本実施の形態では、上記により説明した対応点探索処理を、大画/小画に関わらず探索幅を固定して行う。
図4は、大画距離画像生成処理で行う大サイズ画像に基づく対応点探索の様子(図4A)と、小画距離画像生成処理で行う小サイズ画像に基づく対応点探索の様子(図4B)とを模式的に示している。
図4A,図4Bを参照して分かるように、大サイズ画像に基づく対応点探索処理と小サイズ画像に基づく対応点探索処理とで探索幅SWは同じである。なお、探索幅SWとは、比較画像C上において行う、基準画像T上の或る1つの画素ブロックについての対応点探索の開始位置から終了位置までの幅を意味する。
In the present embodiment, the corresponding point search process described above is performed with the search width fixed regardless of the large image / small image.
FIG. 4 shows a state of corresponding point search based on a large image performed in the large image distance image generation process (FIG. 4A) and a state of corresponding point search based on the small image performed in the small image distance image generation process (FIG. 4B). Is schematically shown.
As can be seen with reference to FIGS. 4A and 4B, the search width SW is the same in the corresponding point search processing based on the large size image and the corresponding point search processing based on the small size image. The search width SW means a width from the start position to the end position of the corresponding point search for a certain pixel block on the reference image T performed on the comparison image C.

大サイズ画像に基づく対応点探索と小サイズ画像に基づく対応点探索とで探索幅SWを同じとすることで、小サイズ画像に基づく対応点探索処理において、大サイズ画像に基づく対応点探索よりも近距離の物体(より視差dpが大きい物体)まで対応点検出ができる。探索幅SWを大きくすれば、その分、より近距離の物体まで対応点の検出ができるが、処理負担が増大するため、探索幅SWは小さい方が望ましい。一例として、本例では、撮像装置2におけるカメラパラメータが、第1カメラ部20-1と第2カメラ部20-2との配置間隔=350mm、第1カメラ部20-1と第2カメラ部20-2の焦点距離=8mm、1画素当たりのズレ量=0.006mmとされた場合において、探索幅SWを128画素に設定している。上記のカメラパラメータの下で、大サイズ画像に基づく対応点探索を探索幅SW=128画素で行った場合、検出可能な距離Lは350・・・8mm/128画素/0.006mm=3646・・≒3.6m以上となる。
従って、小サイズ画像について、同じ探索幅SWで対応点探索を行ったときは、3.6m未満の近距離物体についての対応点の検出が可能となり、例えば画像縮小率が前述の1/4であれば3.6m/2=1.8mの近距離物体まで対応点の検出ができる。
By making the search width SW the same for the corresponding point search based on the large image and the corresponding point search based on the small image, the corresponding point search process based on the small image is more effective than the corresponding point search based on the large image. Corresponding points can be detected up to an object at a short distance (an object having a larger parallax dp). If the search width SW is increased, corresponding points can be detected up to an object closer to that distance. However, the processing load increases, so it is desirable that the search width SW is smaller. As an example, in this example, the camera parameters in the imaging device 2 are the arrangement interval between the first camera unit 20-1 and the second camera unit 20-2 = 350 mm, the first camera unit 20-1 and the second camera unit 20 When the focal length of -2 is 8 mm and the amount of deviation per pixel is 0.006 mm, the search width SW is set to 128 pixels. When the corresponding point search based on the large size image is performed with the search width SW = 128 pixels under the above camera parameters, the detectable distance L is 350... 8 mm / 128 pixels / 0.006 mm = 3646. ≒ 3.6m or more.
Therefore, when a corresponding point search is performed with the same search width SW for a small-size image, it is possible to detect corresponding points for a short-distance object of less than 3.6 m. For example, the image reduction ratio is 1/4 as described above. If there is, a corresponding point can be detected up to a short distance object of 3.6 m / 2 = 1.8 m.

このとき、小画距離画像生成処理で行う対応点探索では、小サイズ画像の画像縮小率に合わせて縮小化した画素ブロックの単位により対応点の探索を行う。例えば、画像の縮小率が前述のように1/4であり、大サイズ画像に対応する画素ブロックのサイズが前述の4・4=16画素である場合には、2・2=4画素のサイズによる画素ブロックの単位で対応点探索を行う。
この点で、小サイズ画像に基づき行われる近距離物体についての対応点探索の処理負担は、大サイズ画像に基づき行われる対応点探索との比較で1/4に抑えることができる。
At this time, in the corresponding point search performed in the small image distance image generation process, the corresponding point is searched in units of pixel blocks reduced in accordance with the image reduction rate of the small size image. For example, when the image reduction ratio is ¼ as described above and the size of the pixel block corresponding to the large-size image is the aforementioned 4 · 4 = 16 pixels, the size of 2 · 2 = 4 pixels. The corresponding point search is performed in units of pixel blocks.
In this respect, the processing load of the corresponding point search for the short-distance object performed based on the small size image can be suppressed to ¼ in comparison with the corresponding point search performed based on the large size image.

<5.物体検出処理>
続いて、大画物体検出処理部33Cが実行する大画物体検出処理と、小画物体検出処理部33Fが実行する小画物体検出処理とについて説明する。
図5を参照して、大画物体検出処理と小画物体検出処理でそれぞれ行われる物体検出処理について説明する。大画物体検出処理では、大画距離画像生成処理で生成した距離画像を処理対象として以下で説明する物体検出処理を実行し、小画物体検出処理では、小画距離画像生成処理で生成した距離画像を処理対象として以下で説明する物体検出処理を実行する。
<5. Object detection processing>
Next, the large image object detection process executed by the large image object detection processing unit 33C and the small image object detection process executed by the small image object detection processing unit 33F will be described.
With reference to FIG. 5, the object detection process performed in each of the large image object detection process and the small image object detection process will be described. In the large object detection process, the object detection process described below is executed for the distance image generated in the large image distance image generation process, and in the small object detection process, the distance generated in the small image distance image generation process. The object detection process described below is executed for the image as a processing target.

先ず、物体検出処理では、処理対象とする距離画像を、図5Aに示されるように画像縦方向に沿った分割線によって複数の領域(以下、「縦領域VR」と表記)に分割する。そして、縦領域VRごとに、その縦領域VR内に存在する距離データから奥行き方向の距離分布を表す距離ヒストグラムを作成し、度数が最大となる位置(対応点)の距離をその縦領域VR内に存在する物体の代表距離とする。図5Bは、このような縦領域VRごとの処理で求まった代表距離を黒丸によって模式的に表している。
次に、代表距離が得られた度数最大となる各対応点について、近接する各対応点までの距離や方向などの関係性から、同一物体とみなされる画素範囲をグループ化する。図5Cは、図5Aに示した画像内に存在する3つの先行車両がそれぞれグループG1、G2、G3としてグループ化されたことを模式的に表している。
このようにして、撮像画像内に存在する各物体が、その物体までの距離の情報も含めて検出される。
First, in the object detection process, the distance image to be processed is divided into a plurality of areas (hereinafter referred to as “vertical area VR”) by dividing lines along the vertical direction of the image as shown in FIG. 5A. Then, for each vertical region VR, a distance histogram representing the distance distribution in the depth direction is created from the distance data existing in the vertical region VR, and the distance of the position (corresponding point) at which the frequency is maximum is indicated in the vertical region VR. The representative distance of an object existing in FIG. 5B schematically represents the representative distance obtained by such processing for each vertical region VR by a black circle.
Next, for each corresponding point with the maximum frequency for which the representative distance is obtained, pixel ranges that are considered to be the same object are grouped from the relationship such as the distance to each corresponding point and the direction. FIG. 5C schematically shows that the three preceding vehicles existing in the image shown in FIG. 5A are grouped as groups G1, G2, and G3, respectively.
In this way, each object existing in the captured image is detected including information on the distance to the object.

<6.大画物体認識処理>
次に、大画物体認識処理部33Dが実行する大画物体認識処理について説明する。
大画物体認識処理は、大画物体検出処理による物体検出処理結果と大サイズ画像としての撮像画像データ(撮像元画像)とに基づき、大画物体検出処理で検出した物体の種別を認識する処理である。具体的には、検出物体が先行車両であるか、歩行者等の障害物であるか等、検出物体の種別を認識する処理である。
この物体認識処理は、例えば、認識したい物体の種別ごとにその物体の代表的な画像パターンを用意しておき、それらの画像パターンとのマッチングを行った結果に基づき行うことができる。或いは、例えば車両におけるブレーキランプなど、その物体に特徴的なパターンが存在するか否かを判別した結果から何れの物体種別に該当するかを認識する等の手法を採ることもできる。
物体認識処理の具体的な手法については様々な手法を採り得るものであり、特定の手法に限定されるべきではない。
<6. Large object recognition processing>
Next, the large object recognition process executed by the large object recognition processing unit 33D will be described.
The large object recognition process is a process for recognizing the type of an object detected in the large object detection process based on the object detection process result by the large object detection process and the captured image data (imaging source image) as a large image. It is. Specifically, this is processing for recognizing the type of the detected object, such as whether the detected object is a preceding vehicle or an obstacle such as a pedestrian.
This object recognition processing can be performed, for example, based on the result of preparing a representative image pattern of the object for each type of object to be recognized and matching the image pattern. Alternatively, for example, a method of recognizing which object type corresponds to the result of determining whether or not a characteristic pattern exists in the object such as a brake lamp in a vehicle can be adopted.
Various methods for object recognition processing can be adopted, and should not be limited to specific methods.

<7.近距離物体検出時の対応処理>
続いて、大画距離画像生成部33Bが実行する近距離物体検出時の対応処理について説明する。
本実施の形態の場合、前述した大画距離画像生成処理では、先の小画物体検出処理で近距離物体が検出されたことに応じて、所定の探索範囲による対応点探索処理と、該所定の探索範囲から変更した探索範囲による対応点探索処理とを実行する。
このために、本実施の形態では、先の小画物体検出処理部33Fが実行する小画物体検出処理において、所定距離内の物体が検出されたか否かを判別する。本例では、前述したカメラパラメータの条件の下で、距離Lが3.6m未満の近距離物体が検出されたか否かを判別する。
近距離物体が検出されたと判別した場合には、大画距離画像生成処理において、現在処理対象としているフレームの次のフレームの基準画像T1及び比較画像C1に基づく対応点探索処理として、所定の探索範囲による対応点探索処理と、近距離物体が検出可能となるように変更した探索範囲による対応点探索処理とを実行する。
<7. Correspondence processing when detecting short-range objects>
Next, a description will be given of the corresponding processing at the time of short-distance object detection executed by the large-field-distance image generation unit 33B.
In the case of the present embodiment, in the above-described large-field-distance image generation processing, corresponding point search processing based on a predetermined search range in response to the detection of a short-distance object in the previous small-image object detection processing, The corresponding point search process is executed using the search range changed from the search range.
For this reason, in the present embodiment, it is determined whether or not an object within a predetermined distance has been detected in the small object detection process executed by the small object detection processing unit 33F. In this example, it is determined whether or not a short-distance object having a distance L of less than 3.6 m is detected under the above-described camera parameter conditions.
When it is determined that a short-distance object has been detected, a predetermined search is performed as a corresponding point search process based on the reference image T1 and the comparison image C1 of the frame next to the current processing target frame in the large-range image generation process. Corresponding point search processing based on a range and corresponding point searching processing based on a search range changed so that a near-distance object can be detected are executed.

図6は、探索範囲の変更手法についての説明図であり、上段に基準画像T1、下段に比較画像C1を示している。
図中の画素ブロックRpは、比較画像C1上からその対応点を探索すべきとされた基準画像T1上の画素ブロックを意味する。
通常の対応点探索処理、すなわち近距離物体が検出されなかった場合に実行する対応点探索処理では、比較画像C1上で画素ブロックRpの座標と同一座標に位置する画素ブロックを探索開始位置(図中「Ss」と表記)として、一定の探索幅SWで対応点探索を行う。この通常の対応点探索処理によると、先のカメラパラメータと探索幅SW=128画素の設定の下では、距離Lが3.6m以上の物体についての対応点のみが正しく検出される。
これに対し、近距離物体が検出された場合には、上記による通常の対応点探索処理と共に、図のように通常の探索開始位置Ssからオフセットof分だけ水平方向にオフセットした位置Ss'から、一定の探索幅SWで対応点探索を行う。これにより、探索幅SWを拡大せずに、通常の探索範囲では適正に検出できない近距離物体を検出することができる。すなわち、通常の対応点探索との比較で処理負担を増大させることなく近距離物体の検出ができる。
本例の場合、オフセットofは、先のカメラパラメータと探索幅SW=128画素の設定の下で128画素に設定する。これにより、距離Lが3.6m未満の物体についての対応点を検出できる。
FIG. 6 is an explanatory diagram of the search range changing method, in which the reference image T1 is shown in the upper part and the comparison image C1 is shown in the lower part.
The pixel block Rp in the figure means a pixel block on the reference image T1 for which the corresponding point should be searched from the comparison image C1.
In a normal corresponding point search process, that is, a corresponding point search process executed when a short-distance object is not detected, a search start position (see FIG. 5) for a pixel block located at the same coordinate as the pixel block Rp on the comparison image C1. (Indicated as “Ss”), a corresponding point search is performed with a constant search width SW. According to this normal corresponding point search process, only the corresponding point for an object having a distance L of 3.6 m or more is correctly detected under the setting of the previous camera parameter and search width SW = 128 pixels.
On the other hand, when a short-distance object is detected, together with the normal corresponding point search process described above, from the position Ss ′ offset in the horizontal direction from the normal search start position Ss by the offset of as shown in the figure, Corresponding point search is performed with a constant search width SW. Thereby, it is possible to detect a short-range object that cannot be properly detected in the normal search range without increasing the search width SW. That is, it is possible to detect a short-distance object without increasing the processing load in comparison with a normal corresponding point search.
In the case of this example, the offset of is set to 128 pixels under the setting of the previous camera parameter and search width SW = 128 pixels. Thereby, the corresponding point about the object whose distance L is less than 3.6 m can be detected.

このように本実施の形態では、大サイズ画像に基づく対応点探索として、所定の探索範囲から変更した探索範囲による対応点探索を実行することで、大サイズ画像に基づき、近距離物体についての対応点を高分解能で検出できる。つまりこの結果、近距離物体についての距離Lを、小サイズ画像に基づき求める場合よりも正確に算出できる。
なお、確認のため述べておくと、ここで言う「探索範囲」とは、基準画像T上の或る1つの画素ブロック(「基準画素ブロック」と表記)の対応点を探索するにあたり、当該基準画素ブロックとのパターンマッチングを行う比較画像C上の範囲を意味する。
As described above, in the present embodiment, as the corresponding point search based on the large size image, the corresponding point search based on the large size image is performed by executing the corresponding point search based on the search range changed from the predetermined search range. Can detect points with high resolution. That is, as a result, the distance L for a short-distance object can be calculated more accurately than when it is obtained based on a small-size image.
Note that, for the sake of confirmation, the “search range” referred to here is the reference for searching for a corresponding point of a certain pixel block (denoted as “reference pixel block”) on the reference image T. It means a range on the comparison image C in which pattern matching with the pixel block is performed.

本実施の形態の大画距離画像生成処理では、上記のような近距離物体検出時の対応処理で検出した近距離物体についての対応点も含めて、距離画像の生成を行う。そして、当該大画距離画像生成処理の後に実行される大画物体検出処理では、このように近距離物体についての距離Lの情報も含んで生成された距離画像に基づき物体検出処理が行われ、また大画物体認識処理では、この物体検出処理で検出された近距離物体についての物体認識処理が行われる。   In the large-field-distance image generation processing according to the present embodiment, a distance image is generated including the corresponding points for the short-distance objects detected by the corresponding processing at the time of short-distance object detection as described above. Then, in the large image object detection process executed after the large image distance image generation process, the object detection process is performed based on the distance image generated including the information on the distance L for the short distance object, In the large object recognition process, an object recognition process is performed on a short-distance object detected by the object detection process.

<8.一連の処理手順>
次に、図7のフローチャートを参照して、上記で説明した実施の形態の画像処理の一連の処理手順を説明する。
図中「対縮小画像処理」と示す処理は、先の画像縮小処理によって得た小サイズ画像としての基準画像T2と比較画像C2とに基づき実行する処理を表し、「対大画像処理」と示す処理は大サイズ画像としての基準画像T1と比較画像C1とに基づき実行する処理を表している。「対縮小画像処理」「対大画像処理」は並行処理として実行され、これらの処理はフレームごとに繰り返し実行される。
<8. Series of processing steps>
Next, a series of processing procedures of the image processing according to the embodiment described above will be described with reference to the flowchart of FIG.
In the figure, the process “reduced image processing” represents a process executed based on the reference image T2 and the comparison image C2 as a small-size image obtained by the previous image reduction process, and is denoted “rear-large image process”. The process represents a process to be executed based on the reference image T1 as a large size image and the comparison image C1. The “versus-reduced image processing” and “to-large image processing” are executed as parallel processes, and these processes are repeatedly executed for each frame.

先ず、「対縮小画像処理」について説明する。
「対縮小画像処理」として、先ずCPU(画像処理部33のCPU)は、小サイズ画像としての基準画像T2と比較画像C2とに基づき対応点探索法により距離画像を生成する(ステップS101)。すなわち、基準画像T2と比較画像C2とに基づく対応点探索を探索幅SWにより行って対応点の検出及び対応点ごとの視差dpを求め、その結果から対応点ごとの実空間上における距離Lを算出し、対応点ごとの距離Lを画像上の位置と対応づけた距離画像を生成する。
次に、生成した距離画像に基づき、同一物体とみなされる画素範囲をグループ化する(ステップS102)。なお、当該グループ化の具体的な処理内容については既に説明済みであるため重複説明は避ける。
First, “versus-reduced image processing” will be described.
As the “versus-reduced image processing”, first, the CPU (the CPU of the image processing unit 33) generates a distance image by the corresponding point search method based on the reference image T2 and the comparative image C2 as a small size image (step S101). That is, the corresponding point search based on the reference image T2 and the comparative image C2 is performed with the search width SW to detect the corresponding point and obtain the parallax dp for each corresponding point. From the result, the distance L in the real space for each corresponding point is obtained. A distance image is calculated and the distance L for each corresponding point is associated with the position on the image.
Next, pixel ranges regarded as the same object are grouped based on the generated distance image (step S102). In addition, since the specific processing content of the grouping has already been described, redundant description is avoided.

次に、近距離物体が検出されたか否かを判別する(ステップS103)。つまり、本例の場合は距離Lが3.6m未満の物体が検出されたか否かを判別する。ステップS103において、近距離物体が検出されていないと判別した場合は、ステップS104に進んでflag=0と設定する。
一方、ステップS103において、近距離物体が検出されたと判別した場合は、ステップS105に進んでflag=1と設定する。
flagは、近距離物体の検出の有無を識別するためにCPUが管理する情報であり、「0」が近距離物体の検出無し、「1」が近距離物体の検出有りを表す。flagの初期値は「0」である。
ステップS104又はステップS105でflagの設定を行った後は、先のステップS101に戻る。
Next, it is determined whether or not a short distance object has been detected (step S103). That is, in this example, it is determined whether or not an object having a distance L of less than 3.6 m is detected. If it is determined in step S103 that a short-distance object has not been detected, the process proceeds to step S104 and flag = 0 is set.
On the other hand, if it is determined in step S103 that a short-distance object has been detected, the process proceeds to step S105, where flag = 1 is set.
The flag is information managed by the CPU to identify whether or not a near-distance object is detected. “0” indicates that no near-distance object is detected and “1” indicates that a near-distance object is detected. The initial value of flag is “0”.
After setting flag in step S104 or step S105, the process returns to the previous step S101.

続いて、「対大画像処理」について説明する。
先ず、大サイズ画像としての基準画像T1と比較画像C1とに基づき対応点探索を行う(ステップS201)。すなわち、探索幅SWにより通常の探索範囲で対応点探索を行う。
次に、flag=1であるか否かを判別する(S202)。ステップS202において、flag=1であると判別した場合、すなわち近距離物体が検出されたと判別した場合は、ステップS203に進んで探索範囲を変更して再度大サイズ画像に基づく対応点探索を行い、ステップS204に進む。前述のように、本例における探索範囲の変更は、探索幅SWを通常時と同じとした上で、探索開始位置を通常の探索開始位置からオフセットof分だけ水平方向にオフセットさせることで実現する。
Next, “large image processing” will be described.
First, a corresponding point search is performed based on the reference image T1 as a large size image and the comparison image C1 (step S201). That is, the corresponding point search is performed in the normal search range by the search width SW.
Next, it is determined whether or not flag = 1 (S202). If it is determined in step S202 that flag = 1, that is, if it is determined that a short-distance object has been detected, the process proceeds to step S203, the search range is changed, and a corresponding point search based on the large-size image is performed again. Proceed to step S204. As described above, the change of the search range in this example is realized by setting the search width SW to be the same as the normal time and offset the search start position in the horizontal direction by the offset of from the normal search start position. .

一方、ステップS202においてflag=0であると判別した場合、すなわち近距離物体が検出されなかったと判別した場合は、ステップS203による処理は経ずにステップS204に進む。
ステップS204においては、対応点ごとの視差dpを算出した結果に基づき距離画像を生成する。続くステップS205においては、生成した距離画像に基づき同一物体とみなされる画素範囲をグループ化する。さらに、続くステップS206においては、グループ化の結果と撮像画像とに基づき物体認識処理を行い、先のステップS201に戻る。
以上の処理により、小サイズ画像に基づく物体検出処理で近距離物体が検出された場合は、大サイズ画像に基づき近距離物体と遠距離物体の双方の測距と、物体検出処理及び物体認識処理が行われる。
On the other hand, if it is determined in step S202 that flag = 0, that is, if it is determined that a short-distance object has not been detected, the process proceeds to step S204 without performing the process in step S203.
In step S204, a distance image is generated based on the result of calculating the parallax dp for each corresponding point. In subsequent step S205, pixel ranges that are regarded as the same object are grouped based on the generated distance image. Further, in the subsequent step S206, object recognition processing is performed based on the grouping result and the captured image, and the process returns to the previous step S201.
If a near-distance object is detected in the object detection process based on the small-size image by the above process, the distance detection of both the short-distance object and the long-distance object based on the large-size image, the object detection process, and the object recognition process Is done.

<9.まとめ>
上記で説明したように、本実施の形態では、小サイズの画像データに基づく物体検出処理を行い、その結果、所定距離内の近距離物体が検出された場合に、大サイズの画像データに基づく物体検出処理において所定の探索範囲による対応点探索と、所定の探索範囲から変更された探索範囲による対応点探索とを行っている。そして、これら2度の対応点探索によって求まる遠距離物体と近距離物体の双方についての対応点の情報に基づき、物体検出処理と物体認識処理とを行っている。
小サイズの画像データに基づく処理が物体検出処理までに止められているので、従来の画像処理装置が小サイズの画像データに基づき行っていた物体認識処理が省略され、その分の処理負担が軽減される。従って、大サイズの画像データに基づく最終的な物体認識処理結果を得るまでに要するトータルの処理負担(対応点探索から物体認識処理までに要するトータルの処理負担)を軽減できる。
<9. Summary>
As described above, in the present embodiment, object detection processing based on small-size image data is performed. As a result, when a short-distance object within a predetermined distance is detected, it is based on large-size image data. In the object detection process, a corresponding point search using a predetermined search range and a corresponding point search using a search range changed from the predetermined search range are performed. Then, object detection processing and object recognition processing are performed based on information on corresponding points for both a long-distance object and a short-distance object obtained by these two corresponding point searches.
Since the processing based on the small-size image data has been stopped by the object detection processing, the object recognition processing that the conventional image processing apparatus has performed based on the small-size image data is omitted, and the processing burden is reduced accordingly. Is done. Therefore, it is possible to reduce the total processing load (total processing load required from the corresponding point search to the object recognition processing) required to obtain the final object recognition processing result based on the large-size image data.

また、本実施の形態では、近距離物体が検出された場合における探索範囲の変更を、通常の探索範囲による対応点探索時との比較で探索の開始位置を水平方向にオフセットさせて行っている。
従って、通常の対応点探索時と同じ探索幅SWを設定しても、より近距離の物体を検出できる。また、本来必要とされる探索幅SWよりも狭い探索幅SWを設定しても、対応点の検出ができるので、対応点探索に係る処理負担を軽減できる。
In the present embodiment, the search range is changed when a short-distance object is detected by offsetting the search start position in the horizontal direction in comparison with the corresponding point search by the normal search range. .
Therefore, even when the same search width SW as that in the normal corresponding point search is set, an object at a closer distance can be detected. Further, even if a search width SW that is narrower than the originally required search width SW is set, the corresponding points can be detected, so that the processing load related to the corresponding point search can be reduced.

<10.変形例>
なお、本発明は上記により説明した具体例に限定されるべきものではなく、多様な変形例が考えられる。
例えば、これまでの説明では、近距離物体が検出された場合に大サイズ画像について行う対応点探索の探索範囲の変更を、探索開始位置をオフセットさせて行う場合を例示したが、探索範囲の変更は、探索幅SWを拡大することで行ってもよい。
また、探索開始位置をオフセットさせる手法については、上記で例示したように探索幅SWを通常時と同じ幅に固定する必要性はなく、通常時と異なる探索幅SWを設定しても良い。
<10. Modification>
The present invention should not be limited to the specific examples described above, and various modifications can be considered.
For example, in the description so far, the example of changing the search range of the corresponding point search performed for the large-size image when a short-distance object is detected is performed by offsetting the search start position. May be performed by enlarging the search width SW.
In addition, regarding the method of offsetting the search start position, there is no need to fix the search width SW to the same width as in the normal time as exemplified above, and a search width SW different from the normal time may be set.

また、大サイズ画像に基づく近距離物体についての対応点探索は、その処理負担のさらなる軽減を図るべく、探索の対象とする画素範囲を、小画物体検出処理で検出した物体(図5に示すグループG)の画素範囲に応じた画素範囲に限定して行うこともできる。具体的には、近距離物体が検出された画素範囲を「エリアN」とすると、大サイズ画像に基づく近距離物体についての対応点探索を、基準画像T1上のエリアNに応じた画素範囲のみを対象として行う。
通常、対応点探索は基準画像T1内の全画素範囲を対象として行うが、このように対応点探索を行う画素範囲を近距離物体が検出された画素範囲に応じた範囲に限定すれば、処理負担を大幅に軽減できる。
In addition, in the corresponding point search for a short-distance object based on a large-size image, in order to further reduce the processing burden, an object (see FIG. 5) that detects a pixel range to be searched by a small object detection process. It is also possible to limit the pixel range to the pixel range of group G). Specifically, assuming that the pixel range in which the close-range object is detected is “area N”, the corresponding point search for the close-range object based on the large-size image is performed only for the pixel range corresponding to the area N on the reference image T1. To target.
Normally, the corresponding point search is performed on the entire pixel range in the reference image T1, but if the pixel range on which the corresponding point search is performed in this way is limited to a range corresponding to the pixel range in which the short-range object is detected, processing is performed. The burden can be greatly reduced.

1・車両、2・撮像装置、3・車外環境認識装置、31・インターフェイス(I/F)部、32・バス、33・画像処理部、33A・画像縮小処理部、33B・大画距離画像生成処理部、33C・大画物体検出処理部、33D・大画物体認識処理部、33E・小画距離画像生成処理部、33F・小画物体検出処理部   1. Vehicle, 2. Imaging device, 3. External environment recognition device, 31. Interface (I / F) unit, 32. Bus, 33. Image processing unit, 33A. Image reduction processing unit, 33B. Large image distance image generation. Processing Unit, 33C / Large Object Detection Processing Unit, 33D / Large Object Recognition Processing Unit, 33E / Small Image Distance Image Generation Processing Unit, 33F / Small Object Detection Processing Unit

Claims (3)

ステレオ撮像により一対の画像データを得る撮像部と、
前記撮像部により得た前記一対の画像データに基づき、画サイズが大サイズの前記一対の画像データと画サイズが小サイズの前記一対の画像データとを得る大小画像取得部と、
前記大サイズの前記一対の画像データに基づき、対応点探索法による測距を行って距離画像を生成し、該距離画像に基づき、画像内の同一物体とみなされる画素範囲をグループ化する大画物体検出部と、
前記大画物体検出部による物体検出処理結果と、前記大小画像取得部が取得した大サイズの前記画像データとに基づき、前記大画物体検出部が検出した物体の種別を認識する物体認識部と、
前記小サイズの前記一対の画像データに基づき、対応点探索法による測距を行って距離画像を生成し、該距離画像に基づき、画像内の同一物体とみなされる画素範囲をグループ化する小画物体検出部と、を備え、
前記大画物体検出部は、前記小画物体検出部によって所定距離内の物体が検出された場合に、所定の探索範囲による対応点探索と、該所定の探索範囲から変更した探索範囲による対応点探索とを実行し、これらの対応点探索で求まった各対応点の情報に基づき、前記距離画像の生成及び該距離画像に基づく前記グループ化を行う
画像処理装置。
An imaging unit for obtaining a pair of image data by stereo imaging;
Based on the pair of image data obtained by the imaging unit, a large and small image acquisition unit that obtains the pair of image data having a large image size and the pair of image data having a small image size;
Based on the pair of image data of the large size, a distance image is generated by performing a distance measurement by a corresponding point search method, and a large image grouping pixel ranges regarded as the same object in the image based on the distance image An object detection unit;
An object recognition unit for recognizing the type of the object detected by the large image object detection unit based on the object detection processing result by the large image object detection unit and the large-size image data acquired by the large and small image acquisition unit; ,
Based on the pair of image data of the small size, a distance image is generated by performing distance measurement by a corresponding point search method, and based on the distance image, a small image that groups pixel ranges regarded as the same object in the image An object detection unit,
The large image object detection unit is configured to search for corresponding points based on a predetermined search range and corresponding points based on a search range changed from the predetermined search range when an object within a predetermined distance is detected by the small image object detection unit. An image processing apparatus that performs a search and generates the distance image and performs the grouping based on the distance image based on information on each corresponding point obtained by the corresponding point search.
前記大画物体検出部は、
前記所定の探索範囲から変更した探索範囲による対応点探索として、探索開始位置を前記所定の探索範囲による対応点探索時よりも水平方向にオフセットした探索を行う
請求項1に記載の画像処理装置。
The large object detection unit
The image processing apparatus according to claim 1, wherein as the corresponding point search by the search range changed from the predetermined search range, a search in which a search start position is offset in a horizontal direction compared to the corresponding point search by the predetermined search range is performed.
前記大画物体検出部は、
前記通常の探索範囲から変更した探索範囲による対応点探索を、前記小画物体検出部でグループ化した前記所定距離内の物体の画素範囲に限定して行う
請求項1又は請求項2の何れかに記載の画像処理装置。
The large object detection unit
The corresponding point search by the search range changed from the normal search range is limited to the pixel range of the object within the predetermined distance grouped by the small object detection unit. An image processing apparatus according to 1.
JP2012273392A 2012-12-14 2012-12-14 Image processing device Active JP5996411B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012273392A JP5996411B2 (en) 2012-12-14 2012-12-14 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012273392A JP5996411B2 (en) 2012-12-14 2012-12-14 Image processing device

Publications (2)

Publication Number Publication Date
JP2014119859A true JP2014119859A (en) 2014-06-30
JP5996411B2 JP5996411B2 (en) 2016-09-21

Family

ID=51174665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012273392A Active JP5996411B2 (en) 2012-12-14 2012-12-14 Image processing device

Country Status (1)

Country Link
JP (1) JP5996411B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017145605A1 (en) * 2016-02-22 2018-12-13 株式会社リコー Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038578A (en) * 2004-07-26 2006-02-09 Toyota Motor Corp Object detection device
JP2006072757A (en) * 2004-09-02 2006-03-16 Toyota Motor Corp Object detection system
JP2008039491A (en) * 2006-08-02 2008-02-21 Fuji Heavy Ind Ltd Stereo image processing apparatus
JP2011164905A (en) * 2010-02-09 2011-08-25 Konica Minolta Holdings Inc Device for retrieving corresponding point

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038578A (en) * 2004-07-26 2006-02-09 Toyota Motor Corp Object detection device
JP2006072757A (en) * 2004-09-02 2006-03-16 Toyota Motor Corp Object detection system
JP2008039491A (en) * 2006-08-02 2008-02-21 Fuji Heavy Ind Ltd Stereo image processing apparatus
JP2011164905A (en) * 2010-02-09 2011-08-25 Konica Minolta Holdings Inc Device for retrieving corresponding point

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016030805; 酒井 修二 Shuji SAKAI: '基線長変化にロバストなステレオ画像間の高精度対応付け手法 A High-Accuracy Stereo Correspondence Matc' 電子情報通信学会論文誌 (J95-D) 第8号 THE IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS (J 第J95-D巻, 20120801, pp.1609-1622, 一般社団法人電子情報通信学会 THE INSTITUTE OF ELE *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017145605A1 (en) * 2016-02-22 2018-12-13 株式会社リコー Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program

Also Published As

Publication number Publication date
JP5996411B2 (en) 2016-09-21

Similar Documents

Publication Publication Date Title
JP5468426B2 (en) Stereo camera device
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
JP6606369B2 (en) Object detection apparatus and object detection method
US20130223689A1 (en) Exterior environment recognition device
EP2924655B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
KR101551026B1 (en) Method of tracking vehicle
JP2014138420A (en) Depth sensing method and system for autonomous vehicle
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
WO2010113239A1 (en) Image integration unit and image integration method
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
JP2009176087A (en) Vehicle environment recognizing system
JP6035774B2 (en) Image processing apparatus, image processing method, and vehicle
JP6601506B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, image processing program, and vehicle
US9813694B2 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value deriving method
JP2013164351A (en) Stereo parallax calculation device
JP2020051942A (en) Vehicle traveling environment detector and traveling control system
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JP2016053748A (en) Driving support device and driving support method
JP4956099B2 (en) Wall detector
JP2013161190A (en) Object recognition device
US20200193184A1 (en) Image processing device and image processing method
JP6337504B2 (en) Image processing apparatus, moving body, robot, device control method and program
WO2017154305A1 (en) Image processing device, apparatus control system, imaging device, image processing method, and program
JP5996411B2 (en) Image processing device
JP6014867B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160824

R150 Certificate of patent or registration of utility model

Ref document number: 5996411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250