JP2014211694A - Image processing apparatus, distance measurement apparatus, and image processing program - Google Patents

Image processing apparatus, distance measurement apparatus, and image processing program Download PDF

Info

Publication number
JP2014211694A
JP2014211694A JP2013086567A JP2013086567A JP2014211694A JP 2014211694 A JP2014211694 A JP 2014211694A JP 2013086567 A JP2013086567 A JP 2013086567A JP 2013086567 A JP2013086567 A JP 2013086567A JP 2014211694 A JP2014211694 A JP 2014211694A
Authority
JP
Japan
Prior art keywords
image data
image
processing
detection
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013086567A
Other languages
Japanese (ja)
Inventor
伊藤 雅彦
Masahiko Ito
雅彦 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013086567A priority Critical patent/JP2014211694A/en
Publication of JP2014211694A publication Critical patent/JP2014211694A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect an object with stable detection accuracy, and to hold a smaller amount of image data to be used for the detection processing in a memory.SOLUTION: An image processing apparatus includes: a parallax image generation unit 201 and a U map generation unit 202 for generating U map information which indicates a frequency distribution of a parallax value in each of column areas obtained by horizontally dividing a captured image into a plurality of sections, on the basis of parallax image data obtained from left and right luminance image data captured by two imaging units; and a clip position calculation unit 204 and an image clipping unit 206 for clipping an image data part of a detection object candidate area from unclipped image data to be processed (the whole parallax image data), after specifying the detection object candidate area including an object image area including an image of the object, on the basis of generated parallax histogram information, and storing the clipped image data part as image data to be processed, in a memory (image storage unit) 130.

Description

本発明は、複数の撮像手段により撮像して得られる複数の撮像画像の1つである基準画像上の視差算出対象箇所と当該複数の撮像画像の他の撮像画像である比較画像上の対応箇所との視差を算出する画像処理装置、距離測定装置及び画像処理用プログラムに関するものである。   The present invention relates to a parallax calculation target location on a reference image that is one of a plurality of captured images obtained by imaging with a plurality of imaging means, and a corresponding location on a comparison image that is another captured image of the plurality of captured images. The present invention relates to an image processing device, a distance measurement device, and an image processing program that calculate parallax.

この種の画像処理装置は、車両、船舶、航空機あるいは産業用ロボットなどの移動体の移動制御を行う移動体制御装置、移動体の運転者に有益な情報を提供する情報提供装置などの測距処理に広く利用されている。具体例を挙げると、例えば、車両の運転者(ドライバー)の運転を支援するための運転者支援システムに利用されるものが知られている。具体例としては、衝突の危険性があるときには自動的にブレーキをかける自動緊急ブレーキシステム(Autonomous Emergency Braking System(AEBS))や、アクセルを踏まなくても設定した車速で走行して先行車両に近づいたら車速を自動調整して先行車両との間隔を保つACC(Adaptive Cruise Control)などが挙げられる。   This type of image processing apparatus is a distance measuring device such as a moving body control apparatus that performs movement control of a moving body such as a vehicle, a ship, an aircraft, or an industrial robot, and an information providing apparatus that provides useful information to a driver of the moving body. Widely used for processing. If a specific example is given, what is used for a driver support system for supporting driving of a driver (driver) of a vehicle is known, for example. Specific examples include an Autonomous Emergency Braking System (AEBS) that automatically brakes when there is a danger of a collision, or approaches the preceding vehicle by driving at the set vehicle speed without stepping on the accelerator. ACC (Adaptive Cruise Control) that automatically adjusts the vehicle speed and keeps the distance from the preceding vehicle.

このような運転者支援システムにおいては、自車両が障害物等に衝突することを回避したり衝突時の衝撃を軽減したりするための自動ブレーキ機能や警報機能、先行車両との車間距離を維持するための自車速度調整機能、自車が走行している走行レーンからの逸脱防止を支援する機能などの様々な機能を実現する。そのためには、自車両の周囲を撮像した撮像画像を解析して、自車両周囲に存在する各種検出対象物(例えば、他車両、歩行者、車線やマンホール蓋などの路面構成物、電柱やガードレールなどの路端構造物など)の種類や距離などを、精度よく検出することが重要である。   In such a driver assistance system, an automatic brake function and an alarm function for avoiding the collision of the own vehicle with an obstacle or reducing an impact at the time of the collision, and maintaining a distance from the preceding vehicle are maintained. Various functions are realized, such as a function for adjusting the speed of the own vehicle to support the vehicle and a function for supporting the prevention of deviation from the traveling lane in which the host vehicle is traveling. For this purpose, an image captured around the host vehicle is analyzed, and various detection objects existing around the host vehicle (for example, other vehicles, pedestrians, road surface components such as lanes and manhole covers, utility poles and guardrails) It is important to accurately detect the type and distance of roadside structures such as roadside structures.

特許文献1には、検出領域(撮像領域)内に存在する対象物(検出対象物)の輝度と高さ位置からその対象物の種類を識別する環境認識装置が開示されている。この環境認識装置では、まず、予め決められた特定物ごとの輝度範囲に含まれる輝度をもった対象部位に、その特定物ごとの識別番号を付与して、特定物マップを作成する。その後、識別番号が付与された各対象部位について、当該対象部位の道路表面からの高さ位置を取得する。各対象部位の高さ位置は、2つの撮像装置それぞれから得られる2つの画像データに基づいて導出される視差情報から算出する。そして、その高さ位置が特定物テーブルにおいて識別番号により特定される特定物の高さ位置範囲内に含まれていれば、その対象部位が当該特定物であると仮決定する。   Patent Document 1 discloses an environment recognition device that identifies the type of an object from the brightness and height position of the object (detection object) present in the detection area (imaging area). In this environment recognition apparatus, first, a specific object map is created by assigning an identification number for each specific object to a target part having a luminance included in a predetermined luminance range for each specific object. Thereafter, the height position of the target part from the road surface is acquired for each target part to which the identification number is assigned. The height position of each target region is calculated from disparity information derived based on two image data obtained from two imaging devices. Then, if the height position is included in the height position range of the specific object specified by the identification number in the specific object table, the target part is provisionally determined to be the specific object.

この仮決定後、任意の対象部位を基点として、その対象部位と水平距離の差分が所定範囲内にあり、かつ、その対象部位と相対距離(自車両と対象部位との距離)の差分が所定範囲内にある、同一の特定物に対応すると仮決定された(同一の識別番号が付された)対象部位をグループ化し、それを対象物とする。そして、このようにして決定された対象物の幅を算出し、この幅が特定物テーブルにおいて当該特定物の幅範囲内に含まれていれば、その対象物が当該特定物であると決定する。   After this provisional determination, the difference between the target part and the horizontal distance is within a predetermined range with an arbitrary target part as a base point, and the difference between the target part and the relative distance (distance between the host vehicle and the target part) is predetermined. The target parts that are tentatively determined to correspond to the same specific object within the range (with the same identification number attached) are grouped and set as the target object. Then, the width of the object determined in this way is calculated, and if the width is included in the width range of the specific object in the specific object table, the object is determined to be the specific object. .

前記特許文献1に記載の環境認識装置は、輝度画像(撮像画像)の入力からその対象物を特定するまでの一連処理を、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等のメモリを含む半導体集積回路で構成された中央制御部で実行する。このような構成においては、通常、入力される輝度画像データの全体をRAM等のメモリに保持した上で、その輝度画像データを用いた各種演算処理(画像処理)をCPUで実行する。したがって、大容量のメモリが必要となる。   The environment recognition apparatus described in Patent Document 1 performs a series of processes from input of a luminance image (captured image) to identification of an object, a central processing unit (CPU), a ROM storing a program, a work area, and the like. This is executed by a central control unit composed of a semiconductor integrated circuit including a memory such as a RAM. In such a configuration, the entire luminance image data to be input is normally held in a memory such as a RAM, and various arithmetic processes (image processing) using the luminance image data are executed by the CPU. Therefore, a large capacity memory is required.

ところが、車載カメラなどの基板上の実装部品で物体(検出対象物)の検出処理を行う場合など、当該画像データの保持に使用できるメモリ容量に制約があるような場合には、画像データ全体をメモリに保持しておくことができないことがある。また、このようなメモリ容量の制約に限らず、多くの場合、メモリに保持する画像データのデータ量は少ない方が処理時間の短縮等の観点から望ましい。   However, when there is a restriction on the memory capacity that can be used to hold the image data, such as when an object (detection target) is detected by a mounting component on a board such as an in-vehicle camera, the entire image data is Sometimes it cannot be kept in memory. In addition, in many cases, it is desirable that the amount of image data held in the memory is small from the viewpoint of shortening the processing time.

一方、CPUで実行される画像処理を行う前にメモリに保持しておく未処理の画像データ(処理対象画像データ)のメモリ保持量を少なくする方法としては、画像データ全体の中から予め決められた一部分だけを切り出し、これを処理対象画像データとしてメモリに保持する方法が考えられる。例えば、撮像画像の中で他車両などの検出対象物が映し出される画像部分はある程度決まっているので、その画像部分に対応する画像データ部分だけを切り出してメモリに保持しておくという方法である。しかしながら、この方法では、その画像部分以外に検出対象物が映し出された場合には、これを検出できなくなり、この場合に検出精度が落ちてしまう。   On the other hand, as a method of reducing the memory holding amount of unprocessed image data (processing target image data) held in the memory before performing image processing executed by the CPU, it is determined in advance from the entire image data. A method may be considered in which only a part is cut out and stored in a memory as processing target image data. For example, since the image portion on which a detection target such as another vehicle is projected is determined to some extent in the captured image, only the image data portion corresponding to the image portion is cut out and stored in the memory. However, in this method, when a detection target object is projected in a portion other than the image portion, this cannot be detected, and in this case, the detection accuracy is lowered.

また、前記の方法において、検出対象物が決して映し出されることのない画像部分だけを除いた画像部分のデータを切り出してメモリに保持するようにすれば、検出対象物を検出できないような事態は軽減される。しかしながら、この場合には、メモリに保持するデータ量の低減効果は少ないものとなる。また、検出対象物の種類や数によっては、その検出対象物が映し出され得る画像部分が撮像画像上で広範囲に分布する場合もある。このような場合には、その検出対象物が映し出される画像部分を予め絞り込むことができないので、メモリに保持するデータ量の低減効果を得ることが難しい。   Further, in the above method, if the data of the image portion excluding only the image portion where the detection target object is never projected is cut out and held in the memory, the situation where the detection target object cannot be detected is reduced. Is done. However, in this case, the effect of reducing the amount of data held in the memory is small. Further, depending on the type and number of detection objects, an image portion on which the detection objects can be projected may be distributed over a wide range on the captured image. In such a case, it is difficult to obtain an effect of reducing the amount of data held in the memory because the image portion on which the detection target object is projected cannot be narrowed down in advance.

本発明は、前記問題に鑑みなされたものであり、その目的とするところは、安定した検出対象物の検出精度を実現しつつ、その検出処理に用いる処理対象画像データのメモリ保持量を少なくすることが可能となる画像処理装置、距離測定装置及び画像処理用プログラムを提供することである。   The present invention has been made in view of the above problems, and an object of the present invention is to reduce the memory holding amount of processing target image data used for the detection processing while realizing stable detection accuracy of the detection target. It is to provide an image processing apparatus, a distance measuring apparatus, and an image processing program that can be used.

前記目的を達成するために、本発明は、撮像領域を撮像して得られる画像データ又は該画像データから生成される別の画像データを用いて、前記撮像領域内に存在する検出対象物を映し出す検出対象物画像領域を特定する処理を実行する検出対象物画像領域特定手段と、前記検出対象物画像領域特定手段が前記処理を実行する前の未処理画像データを処理対象画像データとして記憶する処理対象画像データ記憶手段とを有し、前記検出対象物画像領域特定手段は、前記処理対象画像データ記憶手段に記憶されている処理対象画像データを用いて前記処理を実行する画像処理装置において、撮像領域を撮像して得られる画像データ又は該画像データから生成される別の画像データに対して前記処理対象画像データ記憶手段を用いずにデータ量削減処理を実行し、これにより得られる前記未処理画像データを前記処理対象画像データ記憶手段へ記憶させるデータ量削減処理手段を有し、前記データ量削減処理手段は、複数の撮像手段により撮像して得られる複数の撮像画像データから得られる視差情報に基づいて、撮像画像を特定方向に複数分割して得られる各領域内における視差値の頻度分布を示す視差ヒストグラム情報を生成する視差ヒストグラム情報生成手段と、前記視差ヒストグラム情報に基づいて前記検出対象物が映し出されている検出対象物画像領域を含む検出対象物候補領域を特定した後、前記撮像画像データ又は該撮像画像データから生成される画像データである切り出し前処理対象画像データから該検出対象物候補領域の画像データ部分を切り出し、切り出した画像データ部分を処理対象画像データとして前記処理対象画像データ記憶手段に記憶させる候補領域切り出し処理手段とを含むことを特徴とする。   In order to achieve the above object, the present invention projects a detection target existing in the imaging area using image data obtained by imaging the imaging area or another image data generated from the image data. A detection object image area specifying unit that executes a process of specifying a detection object image area, and a process of storing unprocessed image data before the detection object image area specifying unit executes the process as processing object image data In the image processing apparatus, the detection target image area specifying unit executes the processing using the processing target image data stored in the processing target image data storage unit. Data amount reduction without using the processing target image data storage means for image data obtained by imaging a region or other image data generated from the image data. A data amount reduction processing unit that executes processing and stores the unprocessed image data obtained thereby in the processing target image data storage unit, and the data amount reduction processing unit captures images by a plurality of imaging units. Disparity histogram information generating means for generating disparity histogram information indicating the frequency distribution of disparity values in each region obtained by dividing a captured image into a plurality of specific directions based on disparity information obtained from a plurality of obtained captured image data And the detected image candidate area including the detected object image area on which the detected object is displayed based on the parallax histogram information, and then the captured image data or image data generated from the captured image data An image obtained by cutting out the image data portion of the detection target candidate region from the image data to be processed before being cut out Characterized in that it comprises a candidate area extracting process means for storing the over data portion to the processing target image data storage means as a processing target image data.

本発明によれば、安定した検出対象物の検出精度を実現しつつ、その検出処理に用いる処理対象画像データのメモリ保持量を少なくすることが可能となるという優れた効果が得られる。   According to the present invention, it is possible to obtain an excellent effect that it is possible to reduce the memory holding amount of the processing target image data used for the detection processing while realizing stable detection accuracy of the detection target.

実施形態における車載機器制御システムの概略構成を示す模式図である。It is a mimetic diagram showing a schematic structure of an in-vehicle device control system in an embodiment. 同車載機器制御システムを構成する撮像ユニット及び画像解析ユニットの概略構成を示すハードウェアブロック図である。It is a hardware block diagram which shows schematic structure of the imaging unit and image analysis unit which comprise the same vehicle equipment control system. 実施形態の物体検出処理に関わる機能ブロック図である。It is a functional block diagram in connection with the object detection process of embodiment. 左右のカメラで撮影した輝度画像とこれらから生成される視差画像とを示す説明図である。It is explanatory drawing which shows the luminance image image | photographed with the left and right cameras, and the parallax image produced | generated from these. 左右のカメラで撮影したときの視差を説明する図である。It is a figure explaining the parallax when image | photographing with the left and right cameras. 視差画像の視差値分布の一例を示す説明図である。It is explanatory drawing which shows an example of the parallax value distribution of a parallax image. 図6に示す視差画像の縦列領域ごとの視差値頻度分布を示す縦方向視差ヒストグラム(Uマップ)を示す説明図である。It is explanatory drawing which shows the vertical direction parallax histogram (U map) which shows the parallax value frequency distribution for every column area | region of the parallax image shown in FIG. 同物体検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the same object detection process. (a)は、基準画像(輝度画像)の一例を示す画像例であり、(b)は、図9(a)に対応するUマップの概要を示す説明図である。(A) is an image example which shows an example of a reference | standard image (luminance image), (b) is explanatory drawing which shows the outline | summary of the U map corresponding to Fig.9 (a). 切り出し位置算出部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in a cut-out position calculation part. 同切り出し位置算出部がUマップ上の各行(視差値d)について行うマスクデータ生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the mask data generation process which the cutout position calculation part performs about each line (parallax value d) on a U map. (a)は、Uマップの一例を概略的に示す画像例であり、(b)は、図12(a)に対応するマスクデータを示す説明図である。(A) is an example of an image which shows an example of a U map schematically, (b) is explanatory drawing which shows the mask data corresponding to Fig.12 (a). 画像切り出し部が行う画像切り出し処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image clipping process which an image clipping part performs. (a)〜(c)は、マスクデータと、切り出し前の輝度画像データと、メモリ130に格納される切り出し後の輝度画像データとの対応関係の一例を示す説明図である。(A)-(c) is explanatory drawing which shows an example of the correspondence of mask data, the luminance image data before clipping, and the luminance image data after clipping stored in the memory 130. 図14に示した例に対応するテーブルデータの内容を示す表である。It is a table | surface which shows the content of the table data corresponding to the example shown in FIG.

以下、本発明に係る画像処理装置を、車両システムとしての車載機器制御システムに用いられる距離測定装置としての物体検出装置に適用した一実施形態について説明する。
なお、本発明に係る画像処理装置は、車載機器制御システムに限らず、例えば、撮像画像に基づいて被写体までの距離を測定する距離測定装置を搭載したその他のシステムにも適用できる。具体例としては、自動車の緊急時制動制御システム、自動巡航機器システム、産業用ロボットの操作制御システムなどに用いることが考えられる。
Hereinafter, an embodiment in which an image processing device according to the present invention is applied to an object detection device as a distance measurement device used in an in-vehicle device control system as a vehicle system will be described.
Note that the image processing apparatus according to the present invention is not limited to the in-vehicle device control system, and can be applied to, for example, other systems equipped with a distance measuring apparatus that measures a distance to a subject based on a captured image. As specific examples, it can be considered to be used in an emergency braking control system for automobiles, an automatic cruise equipment system, an operation control system for industrial robots, and the like.

図1は、本実施形態における車載機器制御システムの概略構成を示す模式図である。
本実施形態の車載機器制御システムは、移動体としての自車両100の進行方向前方領域を撮像領域として撮像する撮像手段としての撮像ユニット101が設けられている。この撮像ユニット101は、例えば、自車両100のフロントガラス105のルームミラー(図示せず)付近に設置される。撮像ユニット101の撮像によって得られる撮像画像データ等の各種データは、画像処理手段としての画像解析ユニット102に入力される。画像解析ユニット102は、撮像ユニット101から送信されてくるデータを解析して、例えば、自車両100の前方に存在する他車両の位置、方角、距離を算出する。他車両の検出では、視差情報に基づいて路面上の検出対象物を車両として検出する。
FIG. 1 is a schematic diagram illustrating a schematic configuration of an in-vehicle device control system according to the present embodiment.
The in-vehicle device control system of the present embodiment is provided with an image pickup unit 101 as an image pickup unit that picks up an image of a forward area in the traveling direction of the host vehicle 100 as a moving body. For example, the imaging unit 101 is installed in the vicinity of a room mirror (not shown) of the windshield 105 of the host vehicle 100. Various data such as captured image data obtained by imaging by the imaging unit 101 is input to an image analysis unit 102 as image processing means. The image analysis unit 102 analyzes the data transmitted from the imaging unit 101 and calculates, for example, the position, direction, and distance of another vehicle that exists in front of the host vehicle 100. In the detection of other vehicles, a detection object on the road surface is detected as a vehicle based on the parallax information.

また、画像解析ユニット102の算出結果は、車両走行制御ユニット106にも送られる。車両走行制御ユニット106は、例えば、先行車両の検出結果に基づいて、その先行車両との車間距離が狭くなった場合や広くなった場合等に、自車両100の運転者へ警告を報知したり、自車両のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。   The calculation result of the image analysis unit 102 is also sent to the vehicle travel control unit 106. For example, the vehicle travel control unit 106 may notify the driver of the host vehicle 100 of a warning based on the detection result of the preceding vehicle when the distance between the preceding vehicle and the preceding vehicle becomes narrower or wider. Also, driving support control such as controlling the steering wheel and brake of the host vehicle is performed.

また、画像解析ユニット102の算出結果は、ヘッドランプ制御ユニット103にも送られる。ヘッドランプ制御ユニット103は、例えば、対向車両の検出結果に基づいて、ベッドランプ104のビーム方向をハイビーム又はロービームに切り替えるなどの制御を行う。   The calculation result of the image analysis unit 102 is also sent to the headlamp control unit 103. For example, the headlamp control unit 103 performs control such as switching the beam direction of the bed lamp 104 to a high beam or a low beam based on the detection result of the oncoming vehicle.

図2は、撮像ユニット101及び画像解析ユニット102の概略構成を示すハードウェアブロック図である。
撮像ユニット101は、2つの撮像部110A,110Bを備えたステレオカメラであり、2つの撮像部110A,110Bの構成は同一のものである。各撮像部110A,110Bは、それぞれ、撮像レンズ、撮像素子が2次元配置された画像センサを含んだセンサ基板、センサ基板から出力されるアナログ電気信号(画像センサ上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データを生成して出力する信号処理部などから構成されている。
FIG. 2 is a hardware block diagram illustrating a schematic configuration of the imaging unit 101 and the image analysis unit 102.
The imaging unit 101 is a stereo camera including two imaging units 110A and 110B, and the configuration of the two imaging units 110A and 110B is the same. Each of the imaging units 110A and 110B includes an imaging lens, a sensor substrate including an image sensor in which the imaging elements are two-dimensionally arranged, and an analog electric signal output from the sensor substrate (light reception received by each light receiving element on the image sensor). A signal processing unit that generates and outputs captured image data obtained by converting (quantity) into a digital electrical signal.

また、撮像ユニット101は、FPGA(Field-Programmable Gate Array)等からなる処理ハードウェア部120を備えている。この処理ハードウェア部120は、各撮像部110A,110Bから出力される左右の輝度画像データから視差画像を得るために、各撮像部110A,110Bでそれぞれ撮像した左右の撮像画像間の対応画像部分の視差値を演算する処理などを行う。ここでいう視差値とは、各撮像部110A,110Bでそれぞれ撮像した撮像画像の一方(撮像部110A)を基準画像、他方(撮像部110B)を比較画像とし、撮像領域内の同一地点に対応した基準画像上の画像部分に対する比較画像上の画像部分の位置ズレ量を、当該画像部分の視差値として算出したものである。三角測量の原理を利用することで、この視差値から当該画像部分に対応した撮像領域内の当該同一地点までの距離を算出することができる。   In addition, the imaging unit 101 includes a processing hardware unit 120 including an FPGA (Field-Programmable Gate Array) or the like. The processing hardware unit 120 obtains a parallax image from left and right luminance image data output from the imaging units 110A and 110B, and a corresponding image portion between the left and right captured images respectively captured by the imaging units 110A and 110B. Processing for calculating the parallax value is performed. The parallax value referred to here corresponds to the same point in the imaging region, with one of the captured images captured by the imaging units 110A and 110B (imaging unit 110A) as a reference image and the other (imaging unit 110B) as a comparison image. The positional deviation amount of the image portion on the comparison image with respect to the image portion on the reference image is calculated as the parallax value of the image portion. By using the principle of triangulation, the distance to the same point in the imaging area corresponding to the image portion can be calculated from the parallax value.

一方、画像解析ユニット102は、撮像ユニット101から出力される各種データを記憶するメモリ130と、CPU(Central Processing Unit)140とを備えている。CPU140は、メモリ130に格納された各種データを用いて、検出対象物の検出処理などを実行する。   On the other hand, the image analysis unit 102 includes a memory 130 that stores various data output from the imaging unit 101 and a CPU (Central Processing Unit) 140. The CPU 140 executes detection processing of the detection target using various data stored in the memory 130.

次に、本発明の特徴部分である、物体検出処理について説明する。
図3は、本実施形態の物体検出処理に関わる機能ブロック図である。
同図において、本実施形態の物体検出装置は、2つの撮像部110A,110Bから取得した左右の撮像画像(輝度画像)から視差画像データを生成する視差画像生成部201と、視差画像上の視差データから視差ヒストグラム情報としての縦方向視差ヒストグラム情報であるUマップ情報を生成するUマップ生成部202と、生成したUマップ情報を記憶するUマップ記憶部203と、Uマップ情報に基づいて輝度画像(撮像画像)や視差画像(撮像画像から生成される画)などの切り出し前処理対象画像上の切り出し位置を算出する切り出し位置算出部204と、算出した切り出し位置を示す切り出し位置情報(切り出し用マスクデータ)を記憶する切り出し位置記憶部205と、切り出し用マスクデータを用いて切り出し前処理対象画像データから一部分の画像データを切り出し、これを処理対象画像データとしてメモリ130(画像記憶部)に格納する画像切り出し部206と、切り出した処理対象画像データを用いて検出対象物の検出処理などを実行するCPU140からなる画像処理部と、検出処理の結果を出力する結果出力部141から構成される。
Next, object detection processing, which is a characteristic part of the present invention, will be described.
FIG. 3 is a functional block diagram related to the object detection process of the present embodiment.
In the figure, the object detection apparatus of the present embodiment includes a parallax image generation unit 201 that generates parallax image data from left and right captured images (luminance images) acquired from two imaging units 110A and 110B, and a parallax on a parallax image. U map generation unit 202 that generates U map information that is vertical direction parallax histogram information as parallax histogram information from data, U map storage unit 203 that stores the generated U map information, and a luminance image based on the U map information A cut-out position calculation unit 204 that calculates a cut-out position on a pre-cut-out processing target image such as a (captured image) or a parallax image (an image generated from the captured image), and cut-out position information (cut-out mask) that indicates the calculated cut-out position Data) and a cut-out pre-processing target image using the cut-out mask data A part of the image data is cut out from the data, and the image cut-out unit 206 that stores the cut-out image data as processing target image data in the memory 130 (image storage unit); An image processing unit including a CPU 140 and a result output unit 141 that outputs a result of detection processing.

本実施形態においては、図3で示すように、処理の高速化のため、2つの撮像部110A,110Bから左右の撮像画像(輝度画像)が入力されてから、切り出した処理対象画像データをメモリ130に格納するまでの一連の処理を、メモリ130を用いずに、FPGA等からなる処理ハードウェア部120によるハードウェア処理で行い、メモリ130に格納したその処理対象画像データを用いた検出処理などの処理についてはCPU140を用いたソフトウェア処理で行う構成となっている。言い換えると、本実施形態においては、CPU140を用いて画像処理する前段階の処理として、2つの撮像部110A,110Bから所定の順序で入力されてくる左右の撮像画像(輝度画像)の画素値データ(画像上の位置情報と輝度値)に対してシーケンシャルな処理の実行が容易な処理についてハードウェア処理を実行している。このようなシーケンシャルな処理でも処理データを一時的に記憶することが必要な場合があるが、この場合でも、通常は、処理済みのデータ部分に上書きするような形で、未処理データを順次保存していく使い方になるので、必要な記録領域は、画像一行分の画像データあるいは数行分の画像データを記憶できる程度の記憶領域で済む。   In the present embodiment, as shown in FIG. 3, the processing target image data cut out after the left and right captured images (luminance images) are input from the two imaging units 110 </ b> A and 110 </ b> B are stored in the memory for speeding up the processing. A series of processing up to storage in 130 is performed by hardware processing by the processing hardware unit 120 made of FPGA or the like without using the memory 130, and detection processing using the processing target image data stored in the memory 130. This processing is performed by software processing using the CPU 140. In other words, in the present embodiment, the pixel value data of the left and right captured images (luminance images) input in a predetermined order from the two imaging units 110A and 110B as the process before the image processing using the CPU 140. A hardware process is executed for a process that can easily execute a sequential process with respect to (position information and luminance value on an image). Even in such sequential processing, it may be necessary to temporarily store the processed data. However, even in this case, the unprocessed data is usually stored sequentially in such a manner that the processed data portion is overwritten. Therefore, the necessary recording area may be a storage area that can store one line of image data or several lines of image data.

視差画像生成部201は、視差情報生成手段として機能し、図4に示すように、2つの撮像部110A,110Bから入力される左右の撮像画像(輝度画像)の画像データを用いて基準画像上の各画素についての視差値を演算し、その視差値を画素値としてもつ視差画像を生成可能な視差画像データ(視差情報)を生成する。したがって、この視差画像データは、視差画像上の左右方向位置(基準画像上の左右方向位置と同じ)xと、視差画像上の上下方向位置(基準画像上の上下方向位置と同じ)yと、視差値dとを有する三次元座標情報(x,y,d)を含むものである。図5を参照して説明すれば、測距対象物301上にあるO点に対する左右画像での結像位置は、結像中心からの距離がそれぞれΔ1とΔ2となる。このときの視差値dは、Δ=Δ1+Δ2と規定することができる。   The parallax image generation unit 201 functions as a parallax information generation unit, and as illustrated in FIG. 4, on the reference image using image data of left and right captured images (luminance images) input from the two imaging units 110A and 110B. The parallax value for each pixel is calculated, and parallax image data (parallax information) that can generate a parallax image having the parallax value as a pixel value is generated. Therefore, the parallax image data includes a horizontal position on the parallax image (same as the horizontal position on the reference image) x, a vertical position on the parallax image (same as the vertical position on the reference image) y, 3D coordinate information (x, y, d) having a parallax value d is included. If it demonstrates with reference to FIG. 5, as for the imaging position in the right-and-left image with respect to the O point on the ranging object 301, the distance from an imaging center will be (DELTA) 1 and (DELTA) 2, respectively. The parallax value d at this time can be defined as Δ = Δ1 + Δ2.

Uマップ生成部202は、視差ヒストグラム情報生成手段として機能し、視差画像(撮像画像)を左右方向に複数分割して得られる各縦列領域内における視差値dの頻度分布を示す縦方向視差ヒストグラム情報であるUマップ情報を生成する。本実施形態において、各縦列領域の幅は1画素分である。具体例を挙げて説明すると、図6に示すような視差値分布をもった視差画像データが入力されたとき、Uマップ生成部202は、図7に示すような縦列領域ごとの視差値頻度分布を計算して出力する。   The U map generation unit 202 functions as parallax histogram information generation means, and vertical direction parallax histogram information indicating the frequency distribution of the parallax values d in each column area obtained by dividing a parallax image (captured image) into a plurality of horizontal directions. U map information is generated. In this embodiment, the width of each column region is one pixel. To explain with a specific example, when parallax image data having a parallax value distribution as shown in FIG. 6 is input, the U map generation unit 202 performs the parallax value frequency distribution for each column area as shown in FIG. Is calculated and output.

Uマップ情報は、視差画像データに含まれる各画素に対応した三次元座標(x,y,d)を、X軸に視差画像上の左右方向位置xと、Y軸に視差値dと、Z軸に当該画像左右方向位置xに対応する縦列領域内での当該視差値dの頻度fとを有する三次元座標情報(x,d,f)に変換したもの、又はこの三次元座標情報(x,d,f)から生成される二次元情報(x,d)である。本実施形態では、三次元座標情報(x,d,f)からなるUマップ情報を用い、このUマップ情報をUマップ記憶部203に記憶する。このようなUマップ情報を用いることで、例えば、縦軸に視差値dをとり、横軸に画像左右方向位置xをとった二次元座標系に、所定の頻度閾値を超える頻度fをもった視差値に対応する画素を分布させた縦方向視差ヒストグラム画像(Uマップ)を作成することができる。なお、三次元座標情報(x,y,d)から、所定の頻度閾値を超える頻度fをもった情報だけに限定した二次元情報(x,d)からなるUマップ情報を用いてもよい。   The U map information includes three-dimensional coordinates (x, y, d) corresponding to each pixel included in the parallax image data, a horizontal position x on the parallax image on the X axis, a parallax value d on the Y axis, and Z Converted to three-dimensional coordinate information (x, d, f) having the axis f and the frequency f of the parallax value d in the column region corresponding to the image horizontal position x, or this three-dimensional coordinate information (x , D, f) is two-dimensional information (x, d). In this embodiment, U map information composed of three-dimensional coordinate information (x, d, f) is used, and this U map information is stored in the U map storage unit 203. By using such U map information, for example, a two-dimensional coordinate system having a parallax value d on the vertical axis and an image horizontal position x on the horizontal axis has a frequency f exceeding a predetermined frequency threshold. A vertical parallax histogram image (U map) in which pixels corresponding to the parallax value are distributed can be created. Note that U map information including two-dimensional information (x, d) limited to information having a frequency f exceeding a predetermined frequency threshold may be used from the three-dimensional coordinate information (x, y, d).

パラメータ設定部207は、Uマップ生成部202でのUマップ情報を生成する際のパラメータや、切り出し位置算出部204での処理におけるパラメータを設定する。Uマップ生成部202のパラメータとしては、例えば、自車両100の前方40m〜60mの距離に存在する物体のみを検出対象物とする場合に、40m〜60mの距離に対応する視差値範囲のみを抽出するための視差閾値などが挙げられる。このように視差値範囲を制限することで、Uマップ情報を生成する際の処理量を減らすことができる。また、切り出し位置算出部204のパラメータとしては、例えば、後述するUマップ上の画素値(頻度f)についての頻度閾値Tや、この頻度閾値Tを超える頻度fをもった画素の連続出現数の下限閾値MIN_Wなどが挙げられる。   The parameter setting unit 207 sets parameters for generating U map information in the U map generation unit 202 and parameters for processing in the cutout position calculation unit 204. As a parameter of the U map generation unit 202, for example, when only an object existing at a distance of 40m to 60m ahead of the host vehicle 100 is a detection target, only a parallax value range corresponding to a distance of 40m to 60m is extracted. For example, a parallax threshold value for the purpose. By limiting the parallax value range in this way, it is possible to reduce the amount of processing when generating U map information. The parameters of the cutout position calculation unit 204 include, for example, a frequency threshold T for a pixel value (frequency f) on the U map, which will be described later, and the number of consecutive appearances of pixels having a frequency f exceeding the frequency threshold T. A lower threshold MIN_W is exemplified.

切り出し位置算出部204は、Uマップ情報に基づいて、検出対象物が映し出されている検出対象物画像領域を含む検出対象物候補領域を特定する処理を行う。本実施形態では、所定の頻度閾値を超える頻度fをもった視差値dのうち所定の視差値近接範囲内の視差値dに対応していて、かつ、画像左右方向の間隔Δlが所定範囲内である一群の画素を、1つの検出対象物を映し出す検出対象物画像領域と仮定し、この検出対象物画像領域と候補領域処理対象画像上で同じ画像左右方向位置に存在する画像領域とを含む範囲を、検出対象物候補領域として特定する。この検出対象物候補領域の位置情報は、切り出し用マスクデータとして画像切り出し部206へ送られる。   The cutout position calculation unit 204 performs processing for specifying a detection target object candidate area including a detection target object image area on which the detection target object is projected, based on the U map information. In the present embodiment, among the parallax values d having the frequency f exceeding the predetermined frequency threshold, the parallax values d within the predetermined parallax value proximity range are supported, and the interval Δl in the horizontal direction of the image is within the predetermined range. A group of pixels is assumed to be a detection object image area that displays one detection object, and includes the detection object image area and an image area that exists in the same image left and right position on the candidate area processing target image. The range is specified as a detection object candidate region. The position information of the detection target object candidate area is sent to the image cutout unit 206 as cutout mask data.

画像切り出し部206は、切り出し位置算出部204から送られてくる切り出し用マスクデータを用いて、撮像画像全体の画像データ(輝度画像データ及び視差画像データ)から、検出対象物候補領域の画像データ部分を切り出す処理を行う。そして、この処理により切り出した画像データを、画像記憶部(メモリ130)に格納する。   The image cutout unit 206 uses the cutout mask data sent from the cutout position calculation unit 204 to obtain the image data portion of the detection target candidate region from the image data (luminance image data and parallax image data) of the entire captured image. Process to cut out. Then, the image data cut out by this processing is stored in the image storage unit (memory 130).

画像処理部であるCPU140は、検出対象物画像領域特定手段として機能し、画像記憶部(メモリ130)に格納されている検出対象物候補領域の画像データ部分を処理対象画像データとして用い、検出対象物の検出処理を行う。この処理結果は、結果出力部141から出力される。   The CPU 140 serving as an image processing unit functions as a detection target image region specifying unit, and uses the image data portion of the detection target candidate region stored in the image storage unit (memory 130) as processing target image data. Object detection processing is performed. This processing result is output from the result output unit 141.

次に、本実施形態における物体検出処理の流れについて説明する。
図8は、本実施形態における物体検出処理の流れを示すフローチャートである。
まず、撮像ユニット101の各撮像部110A,110Bから左右の輝度画像データの入力を受け付けると(S1)、視差画像生成部201では、まず、入力された左右の輝度画像データを用いて、基準画像上の各画素についての視差値を演算して、その視差値を画素値としてもつ視差画像を生成可能な視差画像データを生成する(S2)。
Next, the flow of object detection processing in this embodiment will be described.
FIG. 8 is a flowchart showing the flow of object detection processing in the present embodiment.
First, when input of left and right luminance image data is received from each of the imaging units 110A and 110B of the imaging unit 101 (S1), the parallax image generation unit 201 first uses the input left and right luminance image data to generate a reference image. A parallax value for each of the upper pixels is calculated, and parallax image data capable of generating a parallax image having the parallax value as a pixel value is generated (S2).

視差画像データの生成処理としては、例えば、次のような処理を採用することができる。まず、基準画像データのある行について、一の注目画素を中心とした複数画素(例えば5画素×5画素)からなるブロックを定義する。一方、比較画像データにおける当該注目画素と同じ行において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(画像左右方向)へずらし、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。そして、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得ることができる。   As the parallax image data generation processing, for example, the following processing can be employed. First, for a certain row of reference image data, a block composed of a plurality of pixels (for example, 5 pixels × 5 pixels) centering on one target pixel is defined. On the other hand, in the same row as the target pixel in the comparison image data, a block having the same size as the block of the defined reference image data is shifted by one pixel in the horizontal line direction (image left-right direction), and the pixel of the block defined in the reference image data Correlation values indicating the correlation between the feature amount indicating the feature of the value and the feature amount indicating the feature of the pixel value of each block in the comparison image data are respectively calculated. Then, based on the calculated correlation value, a matching process is performed for selecting a block of comparison image data that is most correlated with a block of reference image data among the blocks of the comparison image data. Thereafter, a positional deviation amount between the target pixel of the block of the reference image data and the corresponding pixel of the block of the comparison image data selected by the matching process is calculated as the parallax value d. The parallax image data can be obtained by performing such processing for calculating the parallax value d for the entire area of the reference image data or a specific area.

マッチング処理に用いるブロックの特徴量としては、例えば、ブロック内の各画素の値(輝度値)を用いることができ、相関値としては、例えば、基準画像データのブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが最も相関があると言える。   As the feature amount of the block used for the matching process, for example, the value (luminance value) of each pixel in the block can be used, and as the correlation value, for example, the value (luminance) of each pixel in the block of the reference image data Value) and the sum of absolute values of the differences between the values (luminance values) of the pixels in the block of comparison image data corresponding to these pixels, respectively. In this case, it can be said that the block having the smallest sum is most correlated.

このようにして生成された視差画像データは、Uマップ生成部202に送られる。Uマップ生成部202では、この視差画像データ(x,y,d)をUマップ情報(x,d,f)に変換してUマップ情報を生成する処理を行う(S3)。図7に示したUマップの説明図を用いて説明すると、例えば、図6に示した視差画像データ上で視差値d=4をもつ画素の群は、自車両100から同じ距離の地点に存在する物体を映し出している画素である。これらの画素(同じ視差値をもつ画素)は、図7に示したUマップ上では同じ上下方向位置に並べられるので、これらの画素のうち一定の幅をもった1つの物体を映し出している画素については、Uマップ上で横線状に分布するという特徴を示す。また、これらの画素のうち、一定の高さをもった1つの物体を映し出している画素については、Uマップ上で一定以上の頻度を示すものとなる。したがって、一定以上の頻度をもち、かつ、Uマップ上で横線状に分布するような一群の画素は、一定の幅と高さをもった1つの物体を映し出ている画素群であると言うことができる。   The parallax image data generated in this way is sent to the U map generation unit 202. The U map generation unit 202 performs processing for converting the parallax image data (x, y, d) into U map information (x, d, f) to generate U map information (S3). To explain using the U map explanatory diagram shown in FIG. 7, for example, the group of pixels having the parallax value d = 4 on the parallax image data shown in FIG. 6 exists at the same distance from the vehicle 100. This is a pixel that shows the object to be played. Since these pixels (pixels having the same parallax value) are arranged at the same vertical position on the U map shown in FIG. 7, a pixel displaying one object having a certain width among these pixels. About, it shows the feature that it is distributed in the shape of a horizontal line on the U map. Further, among these pixels, a pixel showing one object having a certain height shows a certain frequency or more on the U map. Therefore, a group of pixels having a certain frequency and distributed in a horizontal line on the U map is said to be a pixel group showing one object having a certain width and height. be able to.

本実施形態では、この特徴を利用して、撮像領域(実空間)内における個々の検出対象物をそれぞれ映し出している検出対象物画像領域を含む検出対象物候補領域を切り出し(S4,S5)、その検出対象物候補領域から検出対象物画像領域を特定する(S6)。そして、このようにして特定された検出対象物画像領域の位置情報(輝度画像又は視差画像上の位置情報)を、処理結果として出力する(S7)。   In the present embodiment, using this feature, a detection target object candidate region including a detection target image region that projects each detection target in the imaging region (real space) is cut out (S4, S5), A detection object image area is specified from the detection object candidate area (S6). Then, the position information (position information on the luminance image or the parallax image) of the detection object image area specified in this way is output as a processing result (S7).

なお、視差画像データ(x,y,d)をUマップ情報(x,d,f)に変換しただけでは、実際には、ノイズ等により、図9(b)に示したようなUマップを得ることはできない。そのため、実際には、平滑化処理、ハフ変換処理などを用いて、図9(b)に示したようなUマップを得ることになる。ここでいう平滑化処理とは、所定範囲内(所定の画素数以内)に存在するUマップ上の画素(一定以上の頻度をもった画素)間を埋めて、不連続な部分をつなげる処理である。   Note that, by simply converting the parallax image data (x, y, d) into the U map information (x, d, f), the U map as shown in FIG. I can't get it. Therefore, in practice, a U map as shown in FIG. 9B is obtained using a smoothing process, a Hough transform process, or the like. Here, the smoothing process is a process of filling discontinuous portions by filling in the space between pixels (pixels having a certain frequency) within a predetermined range (within a predetermined number of pixels). is there.

図10は、切り出し位置算出部204における処理の流れを示すフローチャートである。
本実施形態においては、Uマップ上の各行(視差値d)についてマスクデータ生成処理(S20)を実行する(S11〜S13)。すべての行(視差値d)についてマスクデータ生成処理を完了したら、これにより生成される切り出し用マスクデータを切り出し位置記憶部205に保存する(S14)。ここで生成される切り出し用マスクデータとは、撮像画像の画像データ(輝度画像データ及び視差画像データ)から切り出す検出対象物候補領域の左右方向位置を示す情報である。この切り出し用マスクデータは、画像切り出し部206において、撮像画像の画像データ(輝度画像データ及び視差画像データ)からどのデータ部分を切り出すか又は切り出さないかを示す情報として用いられる。
FIG. 10 is a flowchart showing the flow of processing in the cutout position calculation unit 204.
In the present embodiment, mask data generation processing (S20) is executed for each row (disparity value d) on the U map (S11 to S13). When the mask data generation processing is completed for all rows (parallax value d), the cutout mask data generated thereby is stored in the cutout position storage unit 205 (S14). The clipping mask data generated here is information indicating the position in the left-right direction of the detection target candidate region cut out from the image data (luminance image data and parallax image data) of the captured image. The cutout mask data is used as information indicating which data portion is cut out or not cut out from the image data (luminance image data and parallax image data) of the captured image in the image cutout unit 206.

具体的には、本実施形態の切り出し用マスクデータは、画像一行分のサイズ(要素数)をもつデータで構成されている。例えば、全体画像サイズが1280ピクセル(左右方向、X方向)×960ピクセル(上下方向、Y方向)である場合、切り出し用マスクデータのサイズ(要素数)は1280となる。マスクデータの各要素は0か1のいずれかの値を持ち、1であれば、その要素位置(X座標)の画像列(画像上下方向に延びる列)に属する画素は切り出しの対象となる。0であれば、その要素位置(X座標)の画像列に属する画素の切り出しは行わない。   Specifically, the clipping mask data of the present embodiment is composed of data having a size (number of elements) for one line of an image. For example, when the overall image size is 1280 pixels (left and right direction, X direction) × 960 pixels (up and down direction, Y direction), the size (number of elements) of the clipping mask data is 1280. Each element of the mask data has a value of either 0 or 1, and if it is 1, the pixel belonging to the image row (row extending in the vertical direction of the image) at the element position (X coordinate) is a target to be cut out. If 0, the pixel belonging to the image sequence at the element position (X coordinate) is not cut out.

図11は、切り出し位置算出部204がUマップ上の各行(視差値d)について行うマスクデータ生成処理(S20)の流れを示すフローチャートである。
なお、以下の説明において、当該行におけるUマップ上の左右方向位置(X座標)xに位置する画素がもつ頻度f(Uマップ上の画素値)をU(x)とする。また、所定の頻度閾値Tよりも大きい画素値U(x)を有する画素の連続出現数のカウント値をWとし、その連続した画素の始点となるX座標をSxとする。また、WIDTHは、Uマップの左右方向サイズ(X方向の画素数)であり、本実施形態では1280である。また、MIN_Wは、閾値Tを超える画素値U(x)をもった画素の連続出現数の下限閾値であり、本実施形態では10としている。
FIG. 11 is a flowchart showing a flow of mask data generation processing (S20) performed by the cutout position calculation unit 204 for each row (parallax value d) on the U map.
In the following description, the frequency f (pixel value on the U map) of the pixel located at the horizontal position (X coordinate) x on the U map in the row is U (x). In addition, the count value of the number of consecutive appearances of a pixel having a pixel value U (x) greater than a predetermined frequency threshold T is W, and the X coordinate that is the starting point of the consecutive pixels is Sx. WIDTH is the size of the U map in the left-right direction (the number of pixels in the X direction), and is 1280 in this embodiment. Moreover, MIN_W is a lower limit threshold value for the number of consecutive appearances of pixels having a pixel value U (x) exceeding the threshold value T, and is 10 in this embodiment.

本実施形態におけるマスクデータ生成処理では、まず、処理する画素のX座標位置x、連続出現数のカウント値W、連続出現数の始点座標Sxを、初期値である0にリセットする(S21)。その後、Uマップ記憶部203から、X座標がxである画素の画素値U(x)のデータを入力し(S22)、その画素値U(x)が頻度閾値Tよりも大きいか否かを判断する(S23)。この判断において、画素値U(x)が頻度閾値Tよりも大きいと判断された場合(S23のYes)、まず、連続出現数のカウント値Wが0であるかどうかを確認する(S24)。このとき、W=0ならば(S24のYes)、連続出現数の始点座標Sx=xをセットした後(S25)、W=1をセットする(S26)。W=0でないならば(S24のNo)、現在の連続出現数のカウント値Wに1を加算する処理を行う(S26)。その後、xに1を加算する処理を行った後(S28)、次の画素値U(x)のデータ入力(S22)に戻る。   In the mask data generation process in the present embodiment, first, the X coordinate position x, the count value W of the continuous appearance number, and the start point coordinate Sx of the continuous appearance number of the pixel to be processed are reset to 0, which is an initial value (S21). Thereafter, data of the pixel value U (x) of the pixel whose X coordinate is x is input from the U map storage unit 203 (S22), and whether or not the pixel value U (x) is larger than the frequency threshold value T is determined. Judgment is made (S23). In this determination, when it is determined that the pixel value U (x) is larger than the frequency threshold T (Yes in S23), first, it is confirmed whether the count value W of the continuous appearance number is 0 (S24). At this time, if W = 0 (Yes in S24), after setting the starting point coordinates Sx = x of the continuous appearance number (S25), W = 1 is set (S26). If W is not 0 (No in S24), a process of adding 1 to the count value W of the current number of consecutive appearances is performed (S26). Thereafter, after adding 1 to x (S28), the process returns to the data input (S22) of the next pixel value U (x).

Uマップ記憶部203から入力した画素値U(x)が頻度閾値Tよりも小さい場合(S23のNo)、現在の連続出現数のカウント値Wが、連続出現数の下限閾値MIN_Wよりも大きいか否かを判断する(S29)。このとき、W>MIN_Wでない場合(S29のNo)、連続出現数のカウント値Wと連続出現数の始点座標Sxを初期値の0にリセットした後(S31)、xに1を加算する処理を行って(S28)、次の画素値U(x)のデータ入力(S22)に戻る。一方、W>MIN_Wである場合(S29のYes)、連続出現数の始点座標Sxが示すX座標位置から、(Sx+W−1)が示すX座標位置までの範囲のマスクデータの値を1にする処理を行う(S30)。その後、連続出現数のカウント値Wと連続出現数の始点座標Sxを初期値の0にリセットし(S31)、xに1を加算する処理を行って(S28)、次の画素値U(x)のデータ入力(S22)に戻る。   If the pixel value U (x) input from the U map storage unit 203 is smaller than the frequency threshold T (No in S23), is the current continuous appearance count value W greater than the lower limit threshold MIN_W of the continuous appearance count? It is determined whether or not (S29). At this time, if W> MIN_W is not satisfied (No in S29), after resetting the count value W of the continuous appearance number and the start point coordinate Sx of the continuous appearance number to the initial value 0 (S31), a process of adding 1 to x is performed. Perform (S28), and return to the data input (S22) of the next pixel value U (x). On the other hand, if W> MIN_W (Yes in S29), the value of the mask data in the range from the X coordinate position indicated by the start point coordinate Sx of the consecutive appearance number to the X coordinate position indicated by (Sx + W-1) is set to 1. Processing is performed (S30). After that, the count value W of the continuous appearance number and the start point coordinate Sx of the continuous appearance number are reset to the initial value 0 (S31), and 1 is added to x (S28), and the next pixel value U (x ) To return to data input (S22).

以上の処理を、x=(WIDTH−1)に達するまで繰り返し行い(S27)、x=(WIDTH−1)に達したら(S27のYes)、当該行についてのマスクデータ生成処理を終了する。このようなマスクデータ生成処理を最終行まで終えたとき、いずれかの行で、閾値Tを超える画素値U(x)が連続出現数の下限閾値MIN_Wを超えて連続している一群の画素が存在しているX座標範囲に対応する値が1になったマスクデータが生成される。このようにして生成される切り出し用マスクデータと、Uマップとの対応関係の一例を示すと、図12に示すようなものとなる。   The above processing is repeated until x = (WIDTH-1) is reached (S27). When x = (WIDTH-1) is reached (Yes in S27), the mask data generation processing for the row is terminated. When such mask data generation processing has been completed up to the last row, in any row, a group of pixels in which the pixel value U (x) exceeding the threshold value T exceeds the lower limit threshold value MIN_W of the number of consecutive appearances. Mask data in which the value corresponding to the existing X coordinate range is 1 is generated. An example of the correspondence between the clipping mask data generated in this way and the U map is as shown in FIG.

次に、この切り出し用マスクデータを用いて、撮像画像の画像データ(輝度画像データ及び視差画像データ)から検出対象物候補領域の画像データ部分を切り出す処理の具体例について説明する。
なお、以下の説明では、基準画像の輝度画像データから検出対象物候補領域の画像データ部分を切り出す場合について説明するが、視差画像生成部201が生成した視差画像データから検出対象物候補領域の画像データ部分を切り出す場合であっても同様である。
Next, a specific example of the process of cutting out the image data portion of the detection target candidate region from the image data (luminance image data and parallax image data) of the captured image using the cut-out mask data will be described.
In the following description, the case where the image data portion of the detection target candidate region is cut out from the luminance image data of the reference image will be described. However, the image of the detection target candidate region from the parallax image data generated by the parallax image generation unit 201. The same applies to the case where the data portion is cut out.

以下の説明において、iは、輝度画像データ上の画素番号であり、画像最上行の左端に位置する画素を始点とし、画像右側に向かって進み、画像右端に達したら、次の行の右端に移動することにより、画像最下行の右端に位置する画素を終点とする連番で示され、その初期値は0である。したがって、画素番号iの終値は、輝度画像データの画素数をPXELとすると、(PXEL−1)となる。本実施形態では、輝度画像データの画像サイズが1280ピクセル×960ピクセルであるため、PXEL=1280×960である。また、D(i)は、輝度画像データにおける画素番号iの画素値データである。また、xは、輝度画像データ上のX座標位置であり、Uマップ上のX座標位置と同じである。MSK(x)は、X座標位置xにおけるマスクデータの値である。また、mは、切り出した画像データを記憶するメモリ130(画像記憶部)の書き出し開始位置(メモリアドレス)からの相対アドレスである。MEM(m)は、相対アドレスmのメモリ領域である。また、Wは、マスクデータMSK(x)の値が1である連続数のカウント値である。また、kは、切り出し前の輝度画像データSRC(k)と切り出し後の輝度画像データDST(k)とを対応づけるインデックス番号である。Qは、最初の行か否かを判別するための判別子である。   In the following description, i is a pixel number on the luminance image data, and starts from the pixel located at the left end of the uppermost row of the image, proceeds toward the right side of the image, and reaches the right end of the image when it reaches the right end of the next row. By moving, it is indicated by a sequential number whose end point is the pixel located at the right end of the bottom row of the image, and its initial value is zero. Therefore, the final value of the pixel number i is (PXEL-1) when the number of pixels of the luminance image data is PXEL. In the present embodiment, since the image size of the luminance image data is 1280 pixels × 960 pixels, PXEL = 1280 × 960. D (i) is pixel value data of pixel number i in the luminance image data. X is the X coordinate position on the luminance image data, and is the same as the X coordinate position on the U map. MSK (x) is the value of the mask data at the X coordinate position x. Further, m is a relative address from the write start position (memory address) of the memory 130 (image storage unit) that stores the cut-out image data. MEM (m) is a memory area having a relative address m. W is a count value of consecutive numbers in which the value of the mask data MSK (x) is 1. Further, k is an index number that associates the luminance image data SRC (k) before clipping with the luminance image data DST (k) after clipping. Q is a discriminator for discriminating whether or not it is the first row.

図13は、画像切り出し部206が行う画像切り出し処理の流れを示すフローチャートである。
本実施形態における画像切り出し処理では、まず、処理する画素の画素番号i及びX座標位置x、相対アドレスm、連続カウント値W、インデックス番号kを、初期値である0にリセットする(S41)。その後、切り出し位置記憶部205から、X座標がxであるマスクデータの値MSK(x)を入力し(S42)、そのMSK(x)が1であるか否かを判断する(S43)。このとき、MSK(x)=1である場合(S43のYes)には、まず、連続カウント値Wが0であり、かつ、判別子Qが0であるかどうかを判断する(S44)。この判断において、W=0かつQ=0ならば(S44のYes)、切り出し前の輝度画像データSRC(k)上における切り出し開始位置のX座標位置SRC(k).Sxに現在のxの値を書き込むとともに、切り出し後の輝度画像データDST(k)がメモリ130に書き出される書き出し開始位置DST(k).Sxに現在のmの値を書き込む(S45)。その後、W=1をセットし(S46)、メモリ130のメモリ領域MEM(m)にD(i)を書き込む(S48)。その後、相対アドレスm、画素番号i、X座標位置xにそれぞれ1を加算する処理を行った後(S48〜S50)、次のマスクデータの値MSK(x)のデータ入力(S42)に戻る。
FIG. 13 is a flowchart showing a flow of image cutout processing performed by the image cutout unit 206.
In the image cutout process in the present embodiment, first, the pixel number i, X coordinate position x, relative address m, continuous count value W, and index number k of the pixel to be processed are reset to 0, which is an initial value (S41). Thereafter, a mask data value MSK (x) whose X coordinate is x is input from the cut-out position storage unit 205 (S42), and it is determined whether or not the MSK (x) is 1 (S43). At this time, if MSK (x) = 1 (Yes in S43), it is first determined whether or not the continuous count value W is 0 and the discriminator Q is 0 (S44). In this determination, if W = 0 and Q = 0 (Yes in S44), the X coordinate position SRC (k) .. of the cutout start position on the luminance image data SRC (k) before cutout. The current x value is written to Sx, and the luminance image data DST (k) after extraction is written to the memory 130 at the writing start position DST (k). The current value of m is written into Sx (S45). Thereafter, W = 1 is set (S46), and D (i) is written in the memory area MEM (m) of the memory 130 (S48). Thereafter, after adding 1 to the relative address m, the pixel number i, and the X coordinate position x (S48 to S50), the process returns to the data input (S42) of the next mask data value MSK (x).

その後、入力されるマスクデータの値MSK(x)が1である間は(S43のYes)、メモリ130のメモリ領域MEM(m)にD(i)が順次書き込まれていく(S44〜S50)。そして、入力されるマスクデータの値MSK(x)が0になると(S43のNo)、連続カウント値Wが1以上であり、かつ、判別子Qが0であるかどうかを判断する(S52)。この判断において、W≧1かつQ=0ならば(S52のYes)、切り出し前の輝度画像データSRC(k)上における切り出し終了位置のX座標位置SRC(k).Exに現在のxの値を書き込むとともに、切り出し後の輝度画像データDST(k)がメモリ130に書き出される書き出し終了位置DST(k).Exに現在のmの値を書き込む(S53)。これにより、1つ目(k=0)の画像データ部分の切り出しが完了する。   Thereafter, while the mask data value MSK (x) to be input is 1 (Yes in S43), D (i) is sequentially written in the memory area MEM (m) of the memory 130 (S44 to S50). . When the value MSK (x) of the input mask data becomes 0 (No in S43), it is determined whether or not the continuous count value W is 1 or more and the discriminator Q is 0 (S52). . In this determination, if W ≧ 1 and Q = 0 (Yes in S52), the X coordinate position SRC (k) .. of the cutout end position on the luminance image data SRC (k) before cutout. The current value of x is written to Ex, and the luminance image data DST (k) after extraction is written to the memory 130 at the write end position DST (k). The current value of m is written to Ex (S53). Thereby, the cutout of the first (k = 0) image data portion is completed.

その後、インデックス番号kに1を加算する処理を行い(S54)、W=0をセットしたら(S55)、画素番号i、X座標位置xにそれぞれ1を加算する処理を行った後(S49,S50)、次のマスクデータの値MSK(x)のデータ入力(S42)に戻る。そして、入力されるマスクデータの値MSK(x)が0である間は(S43のNo)、メモリ130のメモリ領域MEM(m)にはD(i)が書き込まれない。   Thereafter, a process of adding 1 to the index number k is performed (S54). When W = 0 is set (S55), a process of adding 1 to the pixel number i and the X coordinate position x is performed (S49, S50). ), The process returns to the data input (S42) of the next mask data value MSK (x). Then, while the input mask data value MSK (x) is 0 (No in S43), D (i) is not written in the memory area MEM (m) of the memory 130.

以上の処理を、x=(WIDTH)に達するまで繰り返し行い(S51)、x=(WIDTH)に達したら(S51のYes)、最初の行についての画像データの切り出しが完了する。その後、X座標位置xを0にリセットするとともに、判別子Qに1をセットする(S57)。これにより、次の行について、再びx=0から画像データの切り出しが行われる。このとき、判別子Qに1がセットされることで、最初の行以外の行における処理時には、画像切り出し開始位置のX座標位置SRC(k).Sx及びメモリ書き出し開始位置SRC(k).Sxと、画像切り出し終了位置のX座標位置SRC(k).Ex及びメモリ書き出し終了位置SRC(k).Exが書き込まれることはない(S44,S52)。これらのデータは、最初の行で、すでに取得済みだからである。   The above processing is repeated until x = (WIDTH) is reached (S51), and when x = (WIDTH) is reached (Yes in S51), the image data for the first row is cut out. Thereafter, the X coordinate position x is reset to 0, and 1 is set to the discriminator Q (S57). As a result, the image data is cut out again from x = 0 for the next row. At this time, by setting 1 to the discriminator Q, the X coordinate position SRC (k). Sx and memory write start position SRC (k). Sx and the X coordinate position SRC (k). Ex and memory write end position SRC (k). Ex is not written (S44, S52). This is because these data have already been acquired in the first row.

このようにして各行について画像データの切り出しを順次行い、画素番号iが終値PXELに達したら(S56のYes)、画像切り出し処理を終了する。   In this manner, image data is sequentially cut out for each row, and when the pixel number i reaches the final value PXEL (Yes in S56), the image cut-out process is terminated.

図14(a)〜(c)は、マスクデータと、切り出し前の輝度画像データと、メモリ130に格納される切り出し後の輝度画像データとの対応関係の一例を示す説明図である。
図14(b)と図14(c)との比較からわかるように、切り出し前の輝度画像データ(撮像画像全体の画像データ)よりも、切り出し後の輝度画像データの方が、切り出しを行わなかったデータ分だけデータ量が少ない。切り出し後の輝度画像データは、画像処理部であるCPU140が行う検出対象物の検出処理に用いられる処理対象画像データとして、メモリ130に保存される。したがって、切り出し前の輝度画像データ(撮像画像全体の画像データ)を処理対象画像データとしてメモリ130に保存する場合と比較して、処理対象画像データのメモリ保持量を少なく抑えることができる。
FIGS. 14A to 14C are explanatory diagrams illustrating an example of a correspondence relationship between mask data, luminance image data before clipping, and luminance image data after clipping stored in the memory 130. FIG.
As can be seen from the comparison between FIG. 14B and FIG. 14C, the luminance image data after the cut-out is not cut out than the luminance image data before the cut-out (the image data of the entire captured image). The amount of data is small by the amount of data. The luminance image data after the clipping is stored in the memory 130 as processing target image data used for detection target object detection processing performed by the CPU 140 serving as an image processing unit. Therefore, compared with the case where the luminance image data before clipping (image data of the entire captured image) is stored as the processing target image data in the memory 130, the memory holding amount of the processing target image data can be reduced.

画像切り出し開始位置のX座標位置SRC(k).Sx及びメモリ書き出し開始位置SRC(k).Sxと、後述する画像切り出し終了位置のX座標位置SRC(k).Ex及びメモリ書き出し終了位置SRC(k).Exは、テーブルデータとして、切り出し位置記憶部205に保存される。図14に示した例に対応するテーブルデータの内容は、例えば、図15に示すようなものとなる。このテーブルデータは、画像処理部であるCPU140が検出対象物の検出処理を行う際に、CPU140に呼び出されて使用される。CPU140は、このテーブルデータを参照することで、どのメモリ領域に保持される画像データが撮像画像(輝度画像あるいは視差画像)上のどの位置の画像データであるかの対応付けを行うことができる。   X coordinate position SRC (k). Sx and memory write start position SRC (k). Sx and the X coordinate position SRC (k). Ex and memory write end position SRC (k). Ex is stored in the cut-out position storage unit 205 as table data. The contents of the table data corresponding to the example shown in FIG. 14 are, for example, as shown in FIG. This table data is called up and used by the CPU 140 when the CPU 140 as the image processing unit performs detection processing of the detection target. By referring to the table data, the CPU 140 can associate which image data in which memory area is the image data at which position on the captured image (luminance image or parallax image).

また、本実施形態においては、撮像画像から得られるUマップ情報に基づいて特定した検出対象物画像領域を含む検出対象物候補領域の画像データ部分を切り出してメモリ130に保存する。そのため、検出対象物が映し出されている可能性が高い画像領域だけを選別して切り出すことができる。撮像領域の状況は刻々と変化するが、本実施形態によれば、そのように撮像領域の状況が刻々と変化しても、安定した検出精度を実現でき、しかも切り出しによる処理対象画像データのメモリ保持量低減効果も得ることができる。   In the present embodiment, the image data portion of the detection target candidate area including the detection target image area specified based on the U map information obtained from the captured image is cut out and stored in the memory 130. Therefore, it is possible to select and cut out only an image area where there is a high possibility that the detection target object is projected. Although the situation of the imaging area changes every moment, according to the present embodiment, even if the situation of the imaging area changes every moment, stable detection accuracy can be realized, and the memory of the processing target image data by clipping A holding amount reducing effect can also be obtained.

なお、処理対象画像データのメモリ保持量を少なく抑える方法としては、画像データ全体の中から予め決められた一部分だけを切り出すという方法が考えられるが、この方法では、上述したとおり、その画像部分以外に検出対象物が映し出されたときには、これを検出できず、安定した検出精度を実現できない。また、安定した検出精度を得るために切り出す画像データの範囲を広げると、処理対象画像データのメモリ保持量の低減効果を十分に得ることができない。本実施形態は、この方法と比較して、安定した検出精度を実現しつつ、処理対象画像データのメモリ保持量の低減効果を十分に得ることができるものである。   As a method of reducing the memory holding amount of the processing target image data, a method of cutting out only a predetermined portion from the entire image data can be considered. However, as described above, in this method, other than the image portion is considered. When a detection object is projected on the screen, this cannot be detected, and stable detection accuracy cannot be realized. Further, if the range of image data to be cut out is increased in order to obtain stable detection accuracy, the effect of reducing the memory retention amount of the processing target image data cannot be sufficiently obtained. Compared with this method, the present embodiment can sufficiently achieve the effect of reducing the memory retention amount of the processing target image data while realizing stable detection accuracy.

以上のようにして、切り出した画像データが処理対象画像データとしてメモリ130に保存されたら、CPU140は、その処理対象画像データを用いて検出対象物の検出処理を実行する。この検出処理は、例えば、メモリ130内に切り出された視差画像データを処理対象画像データとして用い、所定の近似範囲内の視差値をもつ画素の集団(孤立領域)を特定し、各孤立領域の画像幅と画像高さとを算出する。その後、各孤立領域内における視差画像上の画素値の平均値(視差平均値)を計算し、その平均値から算出される距離と、当該孤立領域の画像幅及び画像高さとから、当該孤立領域に映し出されている物体の実サイズ(実際の幅と実際の高さ)を算出する。このようにして、各孤立領域に対応する物体の実サイズを算出したら、その実サイズに対応する検出対象物の種類を、予め用意されたテーブル情報(検出対象物の種類と実サイズとの対応関係を示す情報)に基づいて特定する。   As described above, when the cut-out image data is stored in the memory 130 as the processing target image data, the CPU 140 executes a detection target object detection process using the processing target image data. In this detection processing, for example, parallax image data cut out in the memory 130 is used as processing target image data, a group of pixels having a parallax value within a predetermined approximate range (isolated region) is specified, and each isolated region is identified. The image width and image height are calculated. Thereafter, an average value (parallax average value) of pixel values on the parallax image in each isolated area is calculated, and the isolated area is calculated from the distance calculated from the average value and the image width and image height of the isolated area. Calculate the actual size (actual width and actual height) of the object shown on the screen. When the actual size of the object corresponding to each isolated region is calculated in this way, the type of the detection target corresponding to the actual size is set in advance using table information (correspondence between the type of detection target and the actual size). Based on the information).

また、CPU140は、このような視差画像データを用いた検出処理と合わせて、例えば、メモリ130内に切り出された輝度画像データを処理対象画像データとして用いた検出処理も行う。例えば、メモリ130内に切り出された輝度画像データから、輝度変化の大きなエッジ部分を抽出し、1つの物体を映し出している物体画像領域を特定するなどの処理を行う。この輝度画像データによる検出処理の結果と視差画像データによる検出処理の結果とを総合して、撮像画像に映し出されている検出対象物の種類、位置、距離などの情報を検出する。   In addition to the detection processing using such parallax image data, the CPU 140 also performs detection processing using, for example, luminance image data cut out in the memory 130 as processing target image data. For example, processing is performed such as extracting an edge portion having a large luminance change from the luminance image data cut out in the memory 130 and specifying an object image region on which one object is projected. By combining the result of the detection process using the luminance image data and the result of the detection process using the parallax image data, information such as the type, position, and distance of the detection target displayed on the captured image is detected.

以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
撮像領域を撮像して得られる輝度画像データ等の画像データ又は該画像データから生成される視差画像データ等の別の画像データを用いて、前記撮像領域内に存在する検出対象物を映し出す検出対象物画像領域を特定する処理を実行するCPU(画像処理部)140等の検出対象物画像領域特定手段と、前記検出対象物画像領域特定手段が前記処理を実行する前の未処理画像データを処理対象画像データとして記憶するメモリ130(画像記憶部)等の処理対象画像データ記憶手段とを有し、前記検出対象物画像領域特定手段は、前記処理対象画像データ記憶手段に記憶されている処理対象画像データを用いて前記処理を実行する画像処理装置において、撮像領域を撮像して得られる撮像画像データ又は該撮像画像データから生成される画像データに対して前記処理対象画像データ記憶手段を用いずに前処理を実行し、これにより得られる前記未処理画像データを前記処理対象画像データ記憶手段へ記憶させる処理ハードウェア部120等の画像データ前処理手段を有し、前記画像データ前処理手段は、2つの撮像部110A,110B等の複数の撮像手段により撮像して得られる複数の撮像画像データから得られる視差情報に基づいて、撮像画像を特定方向(画像左右方向)に複数分割して得られる各領域内における視差値の頻度分布を示すUマップ情報等の視差ヒストグラム情報を生成する視差画像生成部201やUマップ生成部202等の視差ヒストグラム情報生成手段と、前記視差ヒストグラム情報に基づいて前記検出対象物が映し出されている検出対象物画像領域を含む検出対象物候補領域を特定した後、前記撮像画像データ又は該撮像画像データから生成される画像データである切り出し前処理対象画像データから該検出対象物候補領域の画像データ部分を切り出し、切り出した画像データ部分を処理対象画像データとして前記処理対象画像データ記憶手段に記憶させる切り出し位置算出部204や画像切り出し部206等の候補領域切り出し処理手段とを含むことを特徴とする。
本態様では、画像データ前処理手段において、切り出し前処理対象画像データから検出対象物候補領域の画像データ部分を切り出し、切り出した画像データ部分を処理対象画像データとして処理対象画像データ記憶手段に記憶させる。よって、検出対象物画像領域特定手段で実行される処理を行う前に処理対象画像データ記憶手段に保持しておく未処理の画像データ(処理対象画像データ)のメモリ保持量は、切り出し前処理対象画像データを処理対象画像データとして保持しておく場合と比較して少なくなる。
ここで、本態様では、視差ヒストグラム情報に基づいて検出対象物画像領域を含む検出対象物候補領域を特定した後、切り出し前処理対象画像データから当該検出対象物候補領域の画像データ部分を切り出す。視差ヒストグラム情報を用いれば、1つの物体を映し出す検出対象物画像領域の候補領域を高精度かつ迅速に特定することが可能である。この点は、本出願人が提案した特願2013−44434号(以下「先願」という。)において説明されている。要約すると、先願で提案した装置では、撮像画像を左右方向に複数分割して得られる各縦列領域内で所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応していて、かつ、画像左右方向の間隔が所定範囲内であるという条件を満たす一群の画素を抽出する。所定の頻度閾値を超える頻度をもった視差値に対応する画素とは、その縦列領域内で同じ視差値に対応している画素数が比較的多い画素を指す。また、所定の視差値近接範囲内の視差値に対応している画素の集まりは、それらの画素に映し出されている各箇所が、その視差値近接範囲に対応した距離(撮像手段からの距離)の範囲内で互いに近接している箇所であるが画素の集まり、言い換えると撮像手段からの距離が同程度である箇所を映し出している画素の集まりである。したがって、各縦列領域内で所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応している画素の集まりとは、撮像手段からの距離が同程度で、かつ、一定の高さを持った箇所を映し出している画素の集まりであると言うことができる。そして、更に、画像左右方向の間隔が所定範囲内であるという条件が加わると、そのような画素の集まりは、撮像手段からの距離が同程度でかつ一定の高さと一定の幅を持った面を映し出している画素の集まり(一群の画素)であると言うことができる。このような面は、1つの物体上の面であると考えることができるので、前記のような一群の画素を抽出することで、撮像領域内に存在する個々の物体を高い精度で区別して検出することができる。なお、先願で用いている視差ヒストグラム情報は、本実施形態の場合と同様、縦方向視差ヒストグラム情報(Uマップ情報)であるが、例えば、撮像画像を上下方向に複数分割して得られる各横列領域内における視差値の頻度分布を示す横方向視差ヒストグラム情報(Vマップ情報)でも、画像の縦と横を入れ替えて縦方向視差ヒストグラム情報(Uマップ情報)と同様に考えることができる。
本態様によれば、このように視差ヒストグラム情報から高精度に特定できる検出対象物画像領域を含む検出対象物候補領域を切り出して、その画像データ部分を未処理画像データ(処理対象画像データ)として処理対象画像データ記憶手段に保存する。刻々と状況が変化する撮像領域に存在する検出対象物を映し出す画像領域を適切に切り出して保存することができるので、撮像領域に存在する検出対象物を映し出す画像領域が切り出されないような事態は少なく、安定した検出精度を実現できる。しかも、検出対象物を映し出していない画像領域の画像データが、前記検出対象物画像領域特定手段により処理される処理対象画像データ(未処理画像データ)として、処理対象画像データ記憶手段へ不必要に保存される事態も軽減される。よって、検出対象物画像領域特定手段で実行される処理を行う前に処理対象画像データ記憶手段に保持しておく未処理の画像データ(処理対象画像データ)のメモリ保持量の高い低減効果が得られる。
What has been described above is merely an example, and the present invention has a specific effect for each of the following modes.
(Aspect A)
A detection target for projecting a detection target existing in the imaging area using image data such as luminance image data obtained by imaging the imaging area or other image data such as parallax image data generated from the image data A detection object image area specifying unit such as a CPU (image processing unit) 140 that executes a process for specifying an object image area, and unprocessed image data before the detection object image area specifying unit executes the process Processing target image data storage means such as a memory 130 (image storage unit) that stores the target image data, and the detection target image area specifying means is a processing target stored in the processing target image data storage means. In an image processing apparatus that executes the processing using image data, captured image data obtained by imaging an imaging region or an image generated from the captured image data An image of the processing hardware unit 120 or the like that performs preprocessing on the data without using the processing target image data storage unit and stores the unprocessed image data obtained thereby in the processing target image data storage unit Data pre-processing means, the image data pre-processing means imaging based on parallax information obtained from a plurality of captured image data obtained by imaging by a plurality of imaging means such as two imaging units 110A, 110B A parallax image generation unit 201, a U map generation unit 202, and the like that generate parallax histogram information such as U map information indicating the frequency distribution of parallax values in each region obtained by dividing an image into a plurality of specific directions (image left and right directions) And a detection object image area in which the detection object is projected based on the parallax histogram information. After specifying the target object candidate area, the image data portion of the detection target candidate area is cut out from the picked-up image data or the pre-cut-out processing target image data that is image data generated from the picked-up image data, and cut out And a candidate area cutout processing unit such as a cutout position calculation unit 204 and an image cutout unit 206 that store the data portion as processing target image data in the processing target image data storage unit.
In this aspect, the image data pre-processing means cuts out the image data portion of the detection target candidate area from the pre-cut processing target image data, and stores the cut-out image data portion as the processing target image data in the processing target image data storage means. . Therefore, the memory retention amount of unprocessed image data (processing target image data) held in the processing target image data storage unit before performing the processing executed by the detection target image area specifying unit is the pre-cutting processing target. This is less than when image data is held as processing target image data.
Here, in this aspect, after specifying the detection target object candidate area including the detection target image area based on the parallax histogram information, the image data portion of the detection target candidate area is cut out from the pre-cut processing target image data. If the parallax histogram information is used, it is possible to quickly and accurately specify a candidate area of the detection target image area that projects one object. This point is described in Japanese Patent Application No. 2013-44434 (hereinafter referred to as “prior application”) proposed by the present applicant. In summary, in the apparatus proposed in the prior application, the disparity values within a predetermined disparity value proximity range among disparity values having a frequency exceeding a predetermined frequency threshold in each column area obtained by dividing a captured image into a plurality of left and right directions. A group of pixels corresponding to the parallax value and satisfying the condition that the interval in the horizontal direction of the image is within a predetermined range is extracted. A pixel corresponding to a parallax value having a frequency exceeding a predetermined frequency threshold indicates a pixel having a relatively large number of pixels corresponding to the same parallax value in the column region. In addition, the collection of pixels corresponding to the parallax values within a predetermined parallax value proximity range is a distance (distance from the imaging unit) at which each location displayed on those pixels corresponds to the parallax value proximity range. Is a group of pixels that are close to each other within the range of, but in other words, a group of pixels that project a part having the same distance from the imaging means. Accordingly, among the disparity values having a frequency exceeding the predetermined frequency threshold in each column area, the distance from the imaging unit is about the same as the collection of pixels corresponding to the disparity values within the predetermined disparity value proximity range. In addition, it can be said that it is a collection of pixels displaying a portion having a certain height. Further, when the condition that the image horizontal spacing is within a predetermined range is added, such a group of pixels is a surface having the same distance from the imaging means and a constant height and a constant width. It can be said that this is a group of pixels (a group of pixels) displaying the image. Since such a surface can be considered as a surface on one object, by extracting a group of pixels as described above, individual objects existing in the imaging region can be distinguished and detected with high accuracy. can do. The parallax histogram information used in the prior application is vertical direction parallax histogram information (U map information) as in the case of the present embodiment. For example, each parallax histogram information obtained by dividing a captured image into a plurality of parts in the vertical direction is provided. The horizontal direction parallax histogram information (V map information) indicating the frequency distribution of the parallax values in the horizontal region can be considered in the same manner as the vertical direction parallax histogram information (U map information) by switching the vertical and horizontal directions of the image.
According to this aspect, the detection target candidate region including the detection target image region that can be identified with high accuracy from the parallax histogram information is cut out as described above, and the image data portion is used as unprocessed image data (processing target image data). Saved in the processing target image data storage means. Since it is possible to appropriately cut out and save the image area that shows the detection target existing in the imaging area where the situation changes every moment, the situation where the image area that shows the detection target existing in the imaging area is not cut out There are few, and stable detection accuracy is realizable. In addition, the image data of the image area where the detection target object is not projected is unnecessarily stored in the processing target image data storage means as processing target image data (unprocessed image data) processed by the detection target image area specifying means. The situation of preservation is also reduced. Therefore, it is possible to obtain an effect of reducing the memory retention amount of unprocessed image data (processing target image data) held in the processing target image data storage unit before performing the processing executed by the detection target image area specifying unit. It is done.

(態様B)
上記態様Aにおいて、前記視差ヒストグラム情報生成手段が生成する視差ヒストグラム情報は、撮像画像を左右方向に複数分割して得られる各縦列領域内における視差値の頻度分布を示すUマップ情報等の縦方向視差ヒストグラム情報であることを特徴とする。
これによれば、視差ヒストグラム情報に基づいて1つの物体を映し出す検出対象物画像領域の候補領域を迅速に特定することが可能となる。
(Aspect B)
In the aspect A, the disparity histogram information generated by the disparity histogram information generating unit is a vertical direction such as U map information indicating the frequency distribution of the disparity values in each column area obtained by dividing a captured image into a plurality of left and right directions. It is parallax histogram information.
According to this, it becomes possible to quickly specify the candidate area of the detection target object image area in which one object is projected based on the parallax histogram information.

(態様C)
上記態様A又はBにおいて、前記視差ヒストグラム情報生成手段は、前記特定方向に対して直交する方向における前記撮像画像の一部分について前記視差ヒストグラム情報を生成することを特徴とする。
これによれば、検出対象物が存在し得ない画像部分を除いた画像部分に絞り込んで視差ヒストグラム情報を生成することができるので、視差ヒストグラム情報の生成処理の負荷を軽減することができる。
(Aspect C)
In the aspect A or B, the parallax histogram information generation unit generates the parallax histogram information for a part of the captured image in a direction orthogonal to the specific direction.
According to this, parallax histogram information can be generated by narrowing down to an image portion excluding an image portion where a detection target object cannot exist, and thus it is possible to reduce the load of the parallax histogram information generation processing.

(態様D)
上記態様A〜Cのいずれかの態様において、前記候補領域切り出し処理手段は、前記視差ヒストグラム情報に基づき、所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応していて、かつ、前記特定方向の間隔が所定範囲内である一群の画素を、前記検出対象物画像領域とし、該検出対象物画像領域を含む検出対象物候補領域を特定することを特徴とする。
これによれば、視差ヒストグラム情報に基づいて1つの物体を映し出す検出対象物画像領域の候補領域を高精度に特定することが可能となる。
(Aspect D)
In any one of the above aspects A to C, the candidate region cutout processing unit is configured to select a disparity within a predetermined disparity value proximity range among disparity values having a frequency exceeding a predetermined frequency threshold based on the disparity histogram information. A group of pixels corresponding to a value and having an interval in the specific direction within a predetermined range is set as the detection target image region, and a detection target candidate region including the detection target image region is specified. It is characterized by.
According to this, it becomes possible to specify with high accuracy the candidate area of the detection target image area that projects one object based on the parallax histogram information.

(態様E)
上記態様A〜Dのいずれかの態様において、前記候補領域切り出し処理手段は、前記視差ヒストグラム情報に基づいて、切り出し前処理対象画像上における前記検出対象物候補領域の位置を示す切り出し用マスクデータMSK(x)等の候補領域位置情報を生成し、生成した候補領域位置情報に従って切り出し前処理対象画像データから該検出対象物候補領域の画像データ部分を抽出することを特徴とする。
これによれば、特定された検出対象物候補領域の画像データを切り出し前処理対象画像データから簡易な処理で抽出することができる。
(Aspect E)
In any one of the above aspects A to D, the candidate area cutout processing means is a cutout mask data MSK that indicates the position of the detection target candidate area on the precutout process target image based on the parallax histogram information. (X) or the like is generated, and the image data portion of the detection target object candidate region is extracted from the pre-cut processing target image data according to the generated candidate region position information.
According to this, the image data of the specified detection target candidate region can be extracted from the pre-processing target image data by simple processing.

(態様F)
上記態様A〜Eのいずれかの態様において、前記候補領域切り出し処理手段は、切り出し前処理対象画像上で前記検出対象物画像領域及び該検出対象物画像領域と前記特定方向における同じ位置に存在する画像領域を含む検出対象物候補領域を特定することを特徴とする。
これによれば、視差ヒストグラム情報に基づいて特定される検出対象物候補領域の画像データを切り出し前処理対象画像データから迅速に抽出することができる。
(Aspect F)
In any one of the above aspects A to E, the candidate area cutout processing unit is present at the same position in the specific direction as the detection target image area and the detection target image area on the precutting target image. A detection object candidate area including an image area is specified.
According to this, it is possible to quickly extract the image data of the detection target candidate region specified based on the parallax histogram information from the pre-processing target image data.

(態様G)
上記態様A〜Fのいずれかの態様において、前記候補領域切り出し処理手段は、前記処理対象画像データ記憶手段内における切り出し後処理対象画像データのデータ格納位置DST(k).Sx,DST(k).Exと、該切り出し後処理対象画像データに対応する検出対象物候補領域の切り出し前処理対象画像上の位置SRC(k).Sx,SRC(k).Exとを対応付けるテーブルデータ等の対応情報を生成することを特徴とする。
これによれば、検出対象物画像領域特定手段が検出対象物画像領域を特定する処理を行う際、この対応情報を参照することで、処理対象画像データ記憶手段内のどの記憶領域に保持される画像データが撮像画像上のどの位置の画像データであるかの対応付けを行うことが容易になる。
(Aspect G)
In any one of the above aspects A to F, the candidate area cut-out processing unit is configured to store a data storage position DST (k). Sx, DST (k). Ex, and the position SRC (k) .K on the pre-cut processing target image of the detection target object candidate area corresponding to the post-cut processing target image data. Sx, SRC (k). Correspondence information such as table data for associating with Ex is generated.
According to this, when the detection object image area specifying unit performs the process of specifying the detection object image area, by referring to this correspondence information, which storage area in the processing object image data storage unit is held. It becomes easy to associate which position the image data is on the captured image.

(態様H)
上記態様Gにおいて、前記検出対象物画像領域特定手段は、前記処理対象画像データ記憶手段に記憶されている処理対象画像データから検出対象物画像領域に対応する検出対象物画像データ部分を抽出した後、前記対応情報に基づいて、抽出した検出対象物画像データ部分に対応する検出対象物画像領域の切り出し前処理対象画像上の位置を示す位置情報を出力することを特徴とする。
これによれば、この位置情報を利用して、検出対象物が映し出されている撮像画像上の位置を特定した様々な処理を行うことが可能となる。
(Aspect H)
In the above aspect G, the detection object image area specifying unit extracts a detection object image data portion corresponding to the detection object image area from the processing object image data stored in the processing object image data storage unit. Based on the correspondence information, position information indicating a position of the detection target image area corresponding to the extracted detection target image data portion on the pre-cut processing target image is output.
According to this, it becomes possible to perform various processes specifying the position on the captured image on which the detection target object is projected, using this position information.

(態様I)
撮像領域を撮像する複数の撮像手段と、前記撮像手段により撮像して得られる撮像画像データを用いて、前記撮像領域内に存在する検出対象物を映し出す検出対象物画像領域を特定するための画像処理を行う画像処理手段と、前記画像処理手段により特定された検出対象物画像領域に映し出されている検出対象物までの距離を、前記複数の撮像手段により撮像して得られる複数の撮像画像データから得られる視差情報に基づいて算出する距離算出手段とを有する距離測定装置において、前記画像処理手段として、請求項1乃至8のいずれか1項に記載の画像処理装置を用いたことを特徴とする。
これによれば、処理対象画像データのメモリ保持量を低減しつつも安定した検出精度で検出対象物を検出し、その検出対象物の距離を算出することができる。
(Aspect I)
An image for specifying a detection object image area in which a detection object existing in the imaging area is projected using a plurality of imaging means for imaging the imaging area and captured image data obtained by imaging with the imaging means Image processing means for performing processing, and a plurality of captured image data obtained by imaging the distance to the detection target object displayed in the detection target image area specified by the image processing means by the plurality of imaging means A distance measuring device having a distance calculating unit that calculates based on parallax information obtained from the image processing unit, wherein the image processing device according to any one of claims 1 to 8 is used as the image processing unit. To do.
According to this, it is possible to detect the detection target with stable detection accuracy while calculating the memory holding amount of the processing target image data, and calculate the distance of the detection target.

(態様J)
撮像領域を撮像して得られる画像データ又は該画像データから生成される別の画像データを用いて、前記撮像領域内に存在する検出対象物を映し出す検出対象物画像領域を特定する処理を実行する検出対象物画像領域特定手段と、前記検出対象物画像領域特定手段が前記処理を実行する前の未処理画像データを処理対象画像データとして記憶する処理対象画像データ記憶手段とを有し、前記検出対象物画像領域特定手段は、前記処理対象画像データ記憶手段に記憶されている処理対象画像データを用いて前記処理を実行する画像処理装置のコンピュータに実行させるための画像処理用プログラムにおいて、撮像領域を撮像して得られる画像データ又は該画像データから生成される別の画像データに対して前記処理対象画像データ記憶手段を用いずにデータ量削減処理を実行し、これにより得られる前記未処理画像データを前記処理対象画像データ記憶手段へ記憶させるデータ量削減処理手段として、前記コンピュータを機能させるものであり、前記データ量削減処理手段は、複数の撮像手段により撮像して得られる複数の撮像画像データから得られる視差情報に基づいて、撮像画像を特定方向に複数分割して得られる各領域内における視差値の頻度分布を示す視差ヒストグラム情報を生成する視差ヒストグラム情報生成手段と、前記視差ヒストグラム情報に基づいて前記検出対象物が映し出されている検出対象物画像領域を含む検出対象物候補領域を特定した後、前記撮像画像データ又は該撮像画像データから生成される画像データである切り出し前処理対象画像データから該検出対象物候補領域の画像データ部分を切り出し、切り出した画像データ部分を処理対象画像データとして前記処理対象画像データ記憶手段に記憶させる候補領域切り出し処理手段とを含むことを特徴とする。
これによれば、安定した検出対象物の検出精度を実現しつつ、その検出処理に用いる処理対象画像データのメモリ保持量を少なくすることが可能となる。
なお、このプログラムは、CD−ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、このプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。このプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。
(Aspect J)
Using the image data obtained by imaging the imaging region or another image data generated from the image data, a process of specifying a detection target image region that displays the detection target existing in the imaging region is executed. A detection target image region specifying unit; and a processing target image data storage unit that stores unprocessed image data before the detection target image region specifying unit executes the processing as processing target image data. In the image processing program for causing the computer of the image processing apparatus to execute the processing using the processing target image data stored in the processing target image data storage unit, the target image region specifying unit is an imaging region. The processing target image data storage means is used for image data obtained by imaging an image or another image data generated from the image data. The computer is caused to function as a data amount reduction processing unit that executes the data amount reduction processing and stores the unprocessed image data obtained thereby in the processing target image data storage unit. The processing means calculates the frequency distribution of the parallax values in each region obtained by dividing the captured image into a plurality of specific directions based on the parallax information obtained from the plurality of captured image data obtained by imaging with the plurality of imaging means. Parallax histogram information generating means for generating parallax histogram information to be shown, and after detecting a detection target object candidate area including a detection target object image area on which the detection target object is projected based on the parallax histogram information, the captured image Detection from pre-cutting target image data that is data or image data generated from the captured image data Cut out image data portion of the elephant candidate region, characterized in that it comprises a candidate area extracting process means the image data portion as a processing target image data is stored in the processing target image data storage means cut.
According to this, it is possible to reduce the memory holding amount of the processing target image data used for the detection processing while realizing stable detection accuracy of the detection target.
This program can be distributed or obtained in a state of being recorded on a recording medium such as a CD-ROM. It is also possible to distribute and obtain signals by placing this program and distributing or receiving signals transmitted by a predetermined transmission device via transmission media such as public telephone lines, dedicated lines, and other communication networks. Is possible. At the time of distribution, it is sufficient that at least a part of the computer program is transmitted in the transmission medium. That is, it is not necessary for all data constituting the computer program to exist on the transmission medium at one time. The signal carrying the program is a computer data signal embodied on a predetermined carrier wave including the computer program. Further, the transmission method for transmitting a computer program from a predetermined transmission device includes a case where data constituting the program is transmitted continuously and a case where it is transmitted intermittently.

100 自車両
101 撮像ユニット
102 画像解析ユニット
103 ヘッドランプ制御ユニット
106 車両走行制御ユニット
110A,110B 撮像部
120 処理ハードウェア部
130 メモリ
140 CPU
201 視差画像生成部
202 Uマップ生成部
203 Uマップ記憶部
204 切り出し位置算出部
205 切り出し位置記憶部
206 画像切り出し部
207 パラメータ設定部
DESCRIPTION OF SYMBOLS 100 Own vehicle 101 Imaging unit 102 Image analysis unit 103 Headlamp control unit 106 Vehicle travel control unit 110A, 110B Imaging part 120 Processing hardware part 130 Memory 140 CPU
201 parallax image generation unit 202 U map generation unit 203 U map storage unit 204 cutout position calculation unit 205 cutout position storage unit 206 image cutout unit 207 parameter setting unit

特開2012−226689号公報JP 2012-226689 A

Claims (10)

撮像領域を撮像して得られる画像データ又は該画像データから生成される別の画像データを用いて、前記撮像領域内に存在する検出対象物を映し出す検出対象物画像領域を特定する処理を実行する検出対象物画像領域特定手段と、
前記検出対象物画像領域特定手段が前記処理を実行する前の未処理画像データを処理対象画像データとして記憶する処理対象画像データ記憶手段とを有し、
前記検出対象物画像領域特定手段は、前記処理対象画像データ記憶手段に記憶されている処理対象画像データを用いて前記処理を実行する画像処理装置において、
撮像領域を撮像して得られる画像データ又は該画像データから生成される別の画像データに対して前記処理対象画像データ記憶手段を用いずにデータ量削減処理を実行し、これにより得られる前記未処理画像データを前記処理対象画像データ記憶手段へ記憶させるデータ量削減処理手段を有し、
前記データ量削減処理手段は、複数の撮像手段により撮像して得られる複数の撮像画像データから得られる視差情報に基づいて、撮像画像を特定方向に複数分割して得られる各領域内における視差値の頻度分布を示す視差ヒストグラム情報を生成する視差ヒストグラム情報生成手段と、
前記視差ヒストグラム情報に基づいて前記検出対象物が映し出されている検出対象物画像領域を含む検出対象物候補領域を特定した後、前記撮像画像データ又は該撮像画像データから生成される画像データである切り出し前処理対象画像データから該検出対象物候補領域の画像データ部分を切り出し、切り出した画像データ部分を処理対象画像データとして前記処理対象画像データ記憶手段に記憶させる候補領域切り出し処理手段とを含むことを特徴とする画像処理装置。
Using the image data obtained by imaging the imaging region or another image data generated from the image data, a process of specifying a detection target image region that displays the detection target existing in the imaging region is executed. A detection object image region specifying means;
Processing target image data storage means for storing unprocessed image data before the detection target image area specifying means executes the processing as processing target image data;
In the image processing apparatus for executing the processing using the processing target image data stored in the processing target image data storage unit, the detection target image area specifying unit is
Data amount reduction processing is executed without using the processing target image data storage means on image data obtained by imaging the imaging region or other image data generated from the image data, and Data amount reduction processing means for storing processed image data in the processing target image data storage means;
The data amount reduction processing means is a parallax value in each region obtained by dividing a captured image into a plurality of specific directions based on parallax information obtained from a plurality of captured image data obtained by imaging with a plurality of imaging means. Parallax histogram information generating means for generating parallax histogram information indicating the frequency distribution of
After the detection object candidate area including the detection object image area in which the detection object is projected based on the parallax histogram information is specified, the captured image data or image data generated from the captured image data. A candidate region cutout processing unit that cuts out the image data portion of the detection target candidate region from the precutting processing target image data and stores the cut out image data portion in the processing target image data storage unit as processing target image data. An image processing apparatus.
請求項1の画像処理装置において、
前記視差ヒストグラム情報生成手段が生成する視差ヒストグラム情報は、撮像画像を左右方向に複数分割して得られる各縦列領域内における視差値の頻度分布を示す縦方向視差ヒストグラム情報であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The parallax histogram information generated by the parallax histogram information generating unit is vertical parallax histogram information indicating a frequency distribution of parallax values in each column area obtained by dividing a captured image into a plurality of horizontal directions. Image processing device.
請求項1又は2の画像処理装置において、
前記視差ヒストグラム情報生成手段は、前記特定方向に対して直交する方向における前記撮像画像の一部分について前記視差ヒストグラム情報を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The parallax histogram information generation means generates the parallax histogram information for a part of the captured image in a direction orthogonal to the specific direction.
請求項1乃至3のいずれか1項に記載の画像処理装置において、
前記候補領域切り出し処理手段は、前記視差ヒストグラム情報に基づき、所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応していて、かつ、前記特定方向の間隔が所定範囲内である一群の画素を、前記検出対象物画像領域とし、該検出対象物画像領域を含む検出対象物候補領域を特定することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The candidate area cut-out processing unit corresponds to a disparity value within a predetermined disparity value proximity range among disparity values having a frequency exceeding a predetermined frequency threshold based on the disparity histogram information, and the specific direction An image processing apparatus characterized in that a group of pixels whose intervals are within a predetermined range is set as the detection object image area, and a detection object candidate area including the detection object image area is specified.
請求項1乃至4のいずれか1項に記載の画像処理装置において、
前記候補領域切り出し処理手段は、前記視差ヒストグラム情報に基づいて、切り出し前処理対象画像上における前記検出対象物候補領域の位置を示す候補領域位置情報を生成し、生成した候補領域位置情報に従って切り出し前処理対象画像データから該検出対象物候補領域の画像データ部分を抽出することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The candidate area cut-out processing unit generates candidate area position information indicating the position of the detection target object candidate area on the pre-cut-out processing target image based on the parallax histogram information, and before cutting out according to the generated candidate area position information. An image processing apparatus that extracts an image data portion of a detection target object candidate region from processing target image data.
請求項1乃至5のいずれか1項に記載の画像処理装置において、
前記候補領域切り出し処理手段は、切り出し前処理対象画像上で前記検出対象物画像領域及び該検出対象物画像領域と前記特定方向における同じ位置に存在する画像領域を含む検出対象物候補領域を特定することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 5,
The candidate region cutout processing unit specifies a detection target candidate region including the detection target image region and an image region existing at the same position in the specific direction as the detection target image region on the precut processing target image. An image processing apparatus.
請求項1乃至6のいずれか1項に記載の画像処理装置において、
前記候補領域切り出し処理手段は、前記処理対象画像データ記憶手段内における切り出し後処理対象画像データのデータ格納位置と、該切り出し後処理対象画像データに対応する検出対象物候補領域の切り出し前処理対象画像上の位置とを対応付ける対応情報を生成することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The candidate area cut-out processing means includes a data storage position of post-cut processing target image data in the processing target image data storage means, and a pre-cut processing target image of a detection target candidate area corresponding to the post-cut processing target image data An image processing apparatus that generates correspondence information that correlates an upper position.
請求項7の画像処理装置において、
前記検出対象物画像領域特定手段は、前記処理対象画像データ記憶手段に記憶されている処理対象画像データから検出対象物画像領域に対応する検出対象物画像データ部分を抽出した後、前記対応情報に基づいて、抽出した検出対象物画像データ部分に対応する検出対象物画像領域の切り出し前処理対象画像上の位置を示す位置情報を出力することを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The detection object image area specifying means extracts a detection object image data portion corresponding to the detection object image area from the processing object image data stored in the processing object image data storage means, and An image processing apparatus that outputs position information indicating a position on a pre-cut processing target image of a detection target image area corresponding to an extracted detection target image data portion.
撮像領域を撮像する複数の撮像手段と、
前記撮像手段により撮像して得られる撮像画像データを用いて、前記撮像領域内に存在する検出対象物を映し出す検出対象物画像領域を特定するための画像処理を行う画像処理手段と、
前記画像処理手段により特定された検出対象物画像領域に映し出されている検出対象物までの距離を、前記複数の撮像手段により撮像して得られる複数の撮像画像データから得られる視差情報に基づいて算出する距離算出手段とを有する距離測定装置において、
前記画像処理手段として、請求項1乃至8のいずれか1項に記載の画像処理装置を用いたことを特徴とする距離測定装置。
A plurality of imaging means for imaging the imaging region;
Image processing means for performing image processing for specifying a detection object image area that projects a detection object existing in the imaging area, using captured image data obtained by imaging by the imaging means;
Based on the parallax information obtained from the plurality of captured image data obtained by imaging the distance to the detection target displayed in the detection target image area specified by the image processing unit by the plurality of imaging units. In a distance measuring device having a distance calculating means for calculating,
9. A distance measuring apparatus using the image processing apparatus according to claim 1 as the image processing means.
撮像領域を撮像して得られる画像データ又は該画像データから生成される別の画像データを用いて、前記撮像領域内に存在する検出対象物を映し出す検出対象物画像領域を特定する処理を実行する検出対象物画像領域特定手段と、
前記検出対象物画像領域特定手段が前記処理を実行する前の未処理画像データを処理対象画像データとして記憶する処理対象画像データ記憶手段とを有し、
前記検出対象物画像領域特定手段は、前記処理対象画像データ記憶手段に記憶されている処理対象画像データを用いて前記処理を実行する画像処理装置のコンピュータに実行させるための画像処理用プログラムにおいて、
撮像領域を撮像して得られる画像データ又は該画像データから生成される別の画像データに対して前記処理対象画像データ記憶手段を用いずにデータ量削減処理を実行し、これにより得られる前記未処理画像データを前記処理対象画像データ記憶手段へ記憶させるデータ量削減処理手段として、前記コンピュータを機能させるものであり、
前記データ量削減処理手段は、複数の撮像手段により撮像して得られる複数の撮像画像データから得られる視差情報に基づいて、撮像画像を特定方向に複数分割して得られる各領域内における視差値の頻度分布を示す視差ヒストグラム情報を生成する視差ヒストグラム情報生成手段と、
前記視差ヒストグラム情報に基づいて前記検出対象物が映し出されている検出対象物画像領域を含む検出対象物候補領域を特定した後、前記撮像画像データ又は該撮像画像データから生成される画像データである切り出し前処理対象画像データから該検出対象物候補領域の画像データ部分を切り出し、切り出した画像データ部分を処理対象画像データとして前記処理対象画像データ記憶手段に記憶させる候補領域切り出し処理手段とを含むことを特徴とする画像処理用プログラム。
Using the image data obtained by imaging the imaging region or another image data generated from the image data, a process of specifying a detection target image region that displays the detection target existing in the imaging region is executed. A detection object image region specifying means;
Processing target image data storage means for storing unprocessed image data before the detection target image area specifying means executes the processing as processing target image data;
In the image processing program for causing the computer of the image processing apparatus to execute the processing using the processing target image data stored in the processing target image data storage unit, the detection target object image area specifying unit,
Data amount reduction processing is executed without using the processing target image data storage means on image data obtained by imaging the imaging region or other image data generated from the image data, and The computer is caused to function as a data amount reduction processing unit for storing processed image data in the processing target image data storage unit,
The data amount reduction processing means is a parallax value in each region obtained by dividing a captured image into a plurality of specific directions based on parallax information obtained from a plurality of captured image data obtained by imaging with a plurality of imaging means. Parallax histogram information generating means for generating parallax histogram information indicating the frequency distribution of
After the detection object candidate area including the detection object image area in which the detection object is projected based on the parallax histogram information is specified, the captured image data or image data generated from the captured image data. A candidate region cutout processing unit that cuts out the image data portion of the detection target candidate region from the precutting processing target image data and stores the cut out image data portion in the processing target image data storage unit as processing target image data. An image processing program characterized by the above.
JP2013086567A 2013-04-17 2013-04-17 Image processing apparatus, distance measurement apparatus, and image processing program Pending JP2014211694A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013086567A JP2014211694A (en) 2013-04-17 2013-04-17 Image processing apparatus, distance measurement apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013086567A JP2014211694A (en) 2013-04-17 2013-04-17 Image processing apparatus, distance measurement apparatus, and image processing program

Publications (1)

Publication Number Publication Date
JP2014211694A true JP2014211694A (en) 2014-11-13

Family

ID=51931435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013086567A Pending JP2014211694A (en) 2013-04-17 2013-04-17 Image processing apparatus, distance measurement apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP2014211694A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220005A (en) * 2015-05-19 2016-12-22 オリンパス株式会社 Imaging apparatus
JP2019160248A (en) * 2018-03-16 2019-09-19 株式会社リコー Information processing device, system, mobile body, information processing method and program
US11321564B2 (en) 2019-01-30 2022-05-03 Samsung Electronics Co., Ltd. Method and apparatus for processing image, and service robot

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220005A (en) * 2015-05-19 2016-12-22 オリンパス株式会社 Imaging apparatus
JP2019160248A (en) * 2018-03-16 2019-09-19 株式会社リコー Information processing device, system, mobile body, information processing method and program
US11321564B2 (en) 2019-01-30 2022-05-03 Samsung Electronics Co., Ltd. Method and apparatus for processing image, and service robot

Similar Documents

Publication Publication Date Title
US9443313B2 (en) Stereo camera apparatus
JP6202367B2 (en) Image processing device, distance measurement device, mobile device control system, mobile device, and image processing program
JP6313646B2 (en) External recognition device
JP6733225B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP2014006882A (en) Road surface slope recognition device, road surface slope recognition method, and road surface slope recognition program
JP2014197378A (en) Object detection device, moving vehicle device control system, and object detection program
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
US11691585B2 (en) Image processing apparatus, imaging device, moving body device control system, image processing method, and program product
JP2014006885A (en) Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP6711395B2 (en) Image processing device, imaging device, mobile device control system, mobile device, image processing method, and program
JP6325927B2 (en) Object detection apparatus and vehicle control system using the same
JP2013250907A (en) Parallax calculation device, parallax calculation method and parallax calculation program
US20230326168A1 (en) Perception system for autonomous vehicles
JP2016206801A (en) Object detection device, mobile equipment control system and object detection program
JP2017207874A (en) Image processing apparatus, imaging apparatus, moving body device control system, image processing method, and program
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2014211694A (en) Image processing apparatus, distance measurement apparatus, and image processing program
JP6763198B2 (en) Image processing equipment, imaging equipment, mobile device control systems, image processing methods, and programs
JP2019046147A (en) Travel environment recognition device, travel environment recognition method, and program
JP5950193B2 (en) Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program
US11373389B2 (en) Partitioning images obtained from an autonomous vehicle camera
JP6812701B2 (en) Image processing equipment, mobile device control system, image processing method, and program
JP2016170513A (en) Movable body-mounting equipment control device, movable body, and movable body-mounting equipment control program
US11461922B2 (en) Depth estimation in images obtained from an autonomous vehicle camera
JP2013161433A (en) Periphery monitoring device for vehicle