JP2011232975A - Image processor, surrounding monitoring system, and program - Google Patents

Image processor, surrounding monitoring system, and program Download PDF

Info

Publication number
JP2011232975A
JP2011232975A JP2010103081A JP2010103081A JP2011232975A JP 2011232975 A JP2011232975 A JP 2011232975A JP 2010103081 A JP2010103081 A JP 2010103081A JP 2010103081 A JP2010103081 A JP 2010103081A JP 2011232975 A JP2011232975 A JP 2011232975A
Authority
JP
Japan
Prior art keywords
image
corresponding point
linear
region
point search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010103081A
Other languages
Japanese (ja)
Other versions
JP5440364B2 (en
Inventor
Hiroshi Yamato
宏 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2010103081A priority Critical patent/JP5440364B2/en
Publication of JP2011232975A publication Critical patent/JP2011232975A/en
Application granted granted Critical
Publication of JP5440364B2 publication Critical patent/JP5440364B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional image processing technology for searching corresponding points accurately and rapidly.SOLUTION: An imaging part 2 comprises a multimode imaging control part 201 for switching photoelectric conversion characteristics between linear conversion characteristics and logarithmic conversion characteristics according to an incident light amount. An image processor inputs stereo image signals captured by the imaging part 2, and determines spatial correspondence among a plurality of images contained in the stereo image signals so as to acquire three-dimensional image information of an imaging object. For areas in captured images where photoelectrical conversion with linear conversion characteristics has been performed, a first corresponding point searching method offering high accuracy is applied so as to allow acquisition of the three-dimensional image information; and for areas in the images where photoelectrical conversion with logarithmic conversion characteristics has been performed, a second corresponding point searching method offering rapidity is applied so as to allow acquisition of the three-dimensional image information. By using a corresponding point search method with a different characteristic according to an image area type, both accuracy and rapidity are ensured.

Description

本発明は、画像処理技術に関するもので、特に、ステレオ画像の対応点探索技術に関する。   The present invention relates to an image processing technique, and in particular, to a corresponding point search technique for stereo images.

近年、車やロボットのように自走するシステムが安全に走行する事を目的として、システムにカメラを搭載することにより、前方や周辺に存在する衝突の可能性のある対象物を検出し、衝突可能性の有無を自動で判定するシステムの開発が進められている。   In recent years, a self-propelled system such as a car or robot can be safely driven by installing a camera in the system to detect an object that may be present in the front or the vicinity and that may cause a collision. Development of a system that automatically determines whether or not there is a possibility is in progress.

対象物体との衝突可能性判定をするにあたっては、1台のカメラにより算出するような手法を適用することも可能であるが、移動速度が小さい場合(相対速度が小さい)や、対象物が遠くに存在するような場合では、精度良く検出することが出来ない可能性がある。また、対象物体の種類(車種・人)などの判別や抽出が必要となり、処理も複雑となる。   In determining the possibility of collision with the target object, it is possible to apply a method that is calculated by a single camera, but when the moving speed is low (relative speed is low) or the target is far away May not be detected with high accuracy. Further, it is necessary to discriminate and extract the type of target object (vehicle type / person), and the processing becomes complicated.

これらの問題を解決する方法として、ステレオカメラにより距離情報を算出し、算出した距離情報を基に、対象物体との衝突可能性の判定を行う方法(例えば、特許文献1)、物体検出・周辺監視方法(例えば、特許文献1および特許文献2)が提案されている。これらの距離情報を用いた衝突可能性における解析の利点は、対象物の時間方向での位置を精度良く抽出することができる点にあり、対象物の移動速度、距離から高精度に衝突可能性の判定を行う事が出来る。   As a method for solving these problems, a distance information is calculated by a stereo camera, and a collision possibility with a target object is determined based on the calculated distance information (for example, Patent Document 1), object detection / periphery Monitoring methods (for example, Patent Document 1 and Patent Document 2) have been proposed. The advantage of the analysis of the possibility of collision using these distance information is that the position of the object in the time direction can be extracted with high accuracy, and the possibility of collision with high accuracy from the moving speed and distance of the object. Can be determined.

また、ステレオカメラから距離情報を算出する場合、対応点探索精度が重要となるが、様々な対応点探索方法が提案されている(例えば、特許文献3ないし特許文献6)。   In addition, when calculating distance information from a stereo camera, corresponding point search accuracy is important, but various corresponding point search methods have been proposed (for example, Patent Documents 3 to 6).

一方、ステレオカメラなどの撮像素子において、ダイナミックレンジを広くすることを目指して、入射光量に対して線形的に変換した電気信号と、入射光量に対して対数的に変換した電気信号との出力が可能な撮像素子(以下、Linear-Log特性を持つセンサと称する)が提案されてきているが、Linear-Log特性を持つセンサの補正方法として、距離計測システムも提案されている(例えば、特許文献7)。   On the other hand, in an imaging device such as a stereo camera, with the aim of widening the dynamic range, the output of an electrical signal linearly converted with respect to the incident light amount and an electric signal converted logarithmically with respect to the incident light amount are output. Possible image sensors (hereinafter referred to as sensors having linear-log characteristics) have been proposed, but distance measuring systems have also been proposed as correction methods for sensors having linear-log characteristics (for example, patent documents). 7).

特開2006−134035号公報JP 2006-134035 A 特開2006−54504号公報JP 2006-54504 A 特開2008−89402号公報JP 2008-89402 A 特開2009−146296号公報JP 2009-146296 A 特開2008−216126号公報JP 2008-216126 A 特開2008−236276号公報JP 2008-236276 A 特開2008−046004号公報JP 2008-046004 A

広ダイナミックレンジのLinear-Log特性を持つセンサ出力では、例えば、対向車のライトなどの影響による露出オーバー領域を含むような領域に対して画像補正を行ったうえで、対応点探索を行う事が精度向上に繋がると考えられる。   For sensor output with linear-log characteristics with a wide dynamic range, for example, it is possible to search for corresponding points after performing image correction on areas that include overexposed areas due to the influence of oncoming vehicles and other lights. This is thought to lead to improved accuracy.

しかしながら、Linear-Log特性をもつセンサ出力において、対数変換特性領域では、輝度差が少なく、細かい変化は潰れてしまうという特徴を持つため、周波数特性による対応点探索の精度が低下する。また、温度などの条件変化により変曲点が画素ごとにばらつくため、変曲点付近において、対応点探索精度の低下をもたらす。   However, in the sensor output having the Linear-Log characteristic, in the logarithmic conversion characteristic region, there is a characteristic that the luminance difference is small and the fine change is crushed, so the accuracy of the corresponding point search by the frequency characteristic is lowered. In addition, since the inflection point varies from pixel to pixel due to a change in conditions such as temperature, the corresponding point search accuracy decreases in the vicinity of the inflection point.

したがって、従来の技術では、露出オーバー領域を含むような画像において、装置や処理が複雑化するなどの原因により、精度良く対応点探索を行う事が難しい状況にある。   Therefore, in the conventional technique, it is difficult to search for corresponding points with high accuracy in an image including an overexposed region due to complicated devices and processing.

本発明は、このような事情に鑑みてなされたものであり、高精度と高速性とを両立させた対応点探索を行うことが可能な画像処理技術を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing technique capable of performing corresponding point search that achieves both high accuracy and high speed.

上記課題を解決するために、請求項1の発明は、入射光量に応じて線形変換特性と対数変換特性との間で光電変換特性が切り換わるステレオ撮像手段を用いて撮像されたステレオ画像信号を入力し、前記ステレオ画像信号に含まれる複数の画像間の空間的対応関係を決定して撮像対象体の3次元画像情報を得る画像処理装置であって、(a)前記ステレオ画像信号のうち、線形変換特性で得られた画像領域としての線形領域には、第1の対応点探索方法を適用して前記複数の画像間の対応点探索を行い、対数変換特性で得られた画像領域としての対数領域には、第2の対応点探索方法を適用して前記複数の画像間の対応点探索を行なう対応点探索手段と、(b)前記対応点探索手段による対応点探索結果に基づいて、撮像対象体の3次元画像情報を得る手段とを備え、前記第1の対応点探索方法として、前記第2の対応点探索方法よりも高精度の探索結果を与える方法が採用される一方、前記第2の対応点探索方法として、前記第1の対応点探索方法よりも高速に探索結果を与える方法が採用されていることを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 provides a stereo image signal picked up using a stereo image pickup means whose photoelectric conversion characteristics are switched between linear conversion characteristics and logarithmic conversion characteristics in accordance with the amount of incident light. An image processing apparatus that inputs and determines a spatial correspondence between a plurality of images included in the stereo image signal to obtain three-dimensional image information of the imaging target, (a) of the stereo image signals, For the linear region as the image region obtained by the linear transformation characteristic, the corresponding point search between the plurality of images is performed by applying the first corresponding point search method, and the image region obtained by the logarithmic transformation characteristic is obtained as the image region. In the logarithmic region, based on a corresponding point search result by the corresponding point searching means, (b) a corresponding point searching means for applying a second corresponding point search method to search for corresponding points between the plurality of images, Obtain 3D image information of imaging object And a method for providing a search result with higher accuracy than the second corresponding point search method is employed as the first corresponding point search method. On the other hand, as the second corresponding point search method, A method of providing a search result at a higher speed than the first corresponding point search method is employed.

また、請求項2の発明は、請求項1に記載の画像処理装置であって、前記画像処理装置が、前記ステレオ画像の各画像領域の特徴量に基づいて、前記ステレオ画像の各画像領域が線形領域であるか対数領域であるかを判定する特性判定手段をさらに備え、前記対応点探索手段は、前記特性判定手段の判定結果に基づいて、画像領域ごとに、前記第1と第2の対応点探索方法とのいずれか一方を選択して適用することを特徴とする。   The invention according to claim 2 is the image processing device according to claim 1, wherein the image processing device determines whether each image area of the stereo image is based on a feature amount of each image area of the stereo image. The image forming apparatus further includes a characteristic determination unit that determines whether the region is a linear region or a logarithmic region, and the corresponding point search unit performs the first and second for each image region based on a determination result of the characteristic determination unit. One of the corresponding point search methods is selected and applied.

また、請求項3の発明は、請求項2に記載の画像処理装置であって、前記ステレオ撮像手段に、入射光量にかかわらず線形変換特性で光電変換する線形撮像モードでの撮像と、入射光量に応じて線形変換特性と対数変換特性との間で光電変換特性が変化する複合撮像モードでの撮像とを、周期的に切り替えて実行させるマルチモード撮影制御手段をさらに備え、前記特性判定手段は、前記複合撮像モードで得たステレオ画像の各画像領域が線形領域であるか対数領域であるかについての判定を、前記線形撮像モードで得たステレオ画像に基づいて実行することを特徴とする。   The invention according to claim 3 is the image processing apparatus according to claim 2, wherein the stereo imaging unit is configured to perform imaging in a linear imaging mode in which photoelectric conversion is performed with linear conversion characteristics regardless of incident light amount, and incident light amount. And a multi-mode imaging control unit that periodically switches and executes imaging in the composite imaging mode in which the photoelectric conversion characteristic changes between the linear conversion characteristic and the logarithmic conversion characteristic according to The determination as to whether each image area of the stereo image obtained in the composite imaging mode is a linear area or a logarithmic area is performed based on the stereo image obtained in the linear imaging mode.

また、請求項4の発明は、請求項3に記載の画像処理装置であって、前記特性判定手段が、前記線形撮像モードで得られた画像における露出オーバー領域を検出する手段と、前記複合撮像モードで得られた画像において、前記露出オーバー領域に対応する対応領域を特定する手段とを備え、前記対応点探索手段は、前記複合撮像モードで得られた画像のうち、前記対応領域については前記第2の対応点探索方法によって対応点探索を行い、残余の領域については前記第1の対応点探索方法によって対応点探索を行うことを特徴とする。   According to a fourth aspect of the present invention, in the image processing apparatus according to the third aspect, the characteristic determining unit detects the overexposed region in the image obtained in the linear imaging mode, and the composite imaging Means for identifying a corresponding area corresponding to the overexposed area in the image obtained in the mode, and the corresponding point search means for the corresponding area among the images obtained in the composite imaging mode. A corresponding point search is performed by a second corresponding point search method, and a corresponding point search is performed by the first corresponding point search method for the remaining region.

また、請求項5の発明は、請求項3または請求項4に記載の画像処理装置であって、
前記線形撮像モードと前記複合撮像モードとは同一の撮像素子の時間差でのモード切り換えであり、前記対応点探索手段は、前記線形撮像モードの連続2回以上の撮像結果を時間的に外挿することにより、前記複合撮像モードにおける前記対応領域の場所を推定することを特徴とする。
The invention according to claim 5 is the image processing apparatus according to claim 3 or 4, wherein
The linear imaging mode and the composite imaging mode are mode switching with a time difference of the same imaging device, and the corresponding point search means extrapolates temporally the imaging results of two or more times in the linear imaging mode. Thus, the location of the corresponding area in the composite imaging mode is estimated.

また、請求項6の発明は、請求項1に記載の画像処理装置であって、前記対応点探索決定手段が、前記第1の対応点探索方法による対応点探索を部分的に行うとともに、当該部分的な対応点探索によって得られる対応点の信頼度を示す指標値を求める手段と、前記指標値が所定の閾値以上となっている場合には前記第1の対応点探索方法を継続する一方、前記指標値が前記閾値未満のときには前記第2の対応点探索方法に切り換える手段と、を備えることを特徴とする。   The invention according to claim 6 is the image processing apparatus according to claim 1, wherein the corresponding point search determining means partially performs the corresponding point search by the first corresponding point search method, Means for obtaining an index value indicating the reliability of corresponding points obtained by partial corresponding point search, and when the index value is equal to or greater than a predetermined threshold, the first corresponding point search method is continued. And means for switching to the second corresponding point search method when the index value is less than the threshold value.

また、請求項7の発明は、請求項1ないし請求項6の何れかに記載の画像処理装置であって、前記第1の対応点探索方法は、前記複数の画像の周波数特性に基づいて、サブピクセル精度での対応点探索を行う方法であることを特徴とする。   The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6, wherein the first corresponding point search method is based on frequency characteristics of the plurality of images. It is a method for searching for corresponding points with sub-pixel accuracy.

また、請求項8の発明は、請求項1ないし請求項6の何れかに記載の画像処理装置であって、前記第2の対応点探索方法は、前記複数の画像の輝度値の相互関係に基づいて、対応点探索を行う方法であることを特徴とする。   The invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 6, wherein the second corresponding point search method is based on a correlation between luminance values of the plurality of images. On the basis of this, it is a method for searching for corresponding points.

また、請求項9の発明は、請求項1ないし請求項6の何れかに記載の画像処理装置であって、前記第2の対応点探索方法は、前記複数の画像の周波数特性に基づいて、ピクセル精度で対応点探索を行う方法であることを特徴とする。   The invention of claim 9 is the image processing apparatus according to any one of claims 1 to 6, wherein the second corresponding point search method is based on frequency characteristics of the plurality of images. It is a method for searching for corresponding points with pixel accuracy.

また、請求項10の発明は、請求項1ないし請求項9の何れかに記載の画像処理装置と、前記撮影対象体の3次元画像情報に基づいて、前記撮影対象体が所定の条件を満足するか否かの判定を行う対象体判定手段と、前記対象体判定手段により前記撮影対象体が前記所定の条件に満足すると判定されたときに、警告を行う警告手段とを備えることを特徴とする周辺監視システムである。   According to a tenth aspect of the present invention, based on the image processing device according to any one of the first to ninth aspects and three-dimensional image information of the photographic subject, the photographic subject satisfies a predetermined condition. A target object determining unit that determines whether or not to perform, and a warning unit that issues a warning when the target object determining unit determines that the photographing target object satisfies the predetermined condition. This is a surrounding monitoring system.

また、請求項11の発明は、請求項3ないし請求項5のいずれかに記載の画像処理装置と、前記撮影対象体の3次元画像情報に基づいて、前記撮影対象体が所定の条件を満足するか否かの判定を行う対象体判定手段と、前記対象体判定手段により前記撮影対象体が前記所定の条件に満足すると判定されたときに、警告を行う警告手段とを備え、前記ステレオ画像における前記撮影対象体が、前記線形領域および前記対数領域のうちの一方の領域だけに局在している場合には、前記マルチモード撮影制御手段は、前記線形撮像モードおよび前記複合撮像モードのうち、当該局在領域に対応する一方の撮像モードでの撮像割合を増加させることを特徴とする周辺監視システムである。   According to an eleventh aspect of the present invention, based on the image processing device according to any one of the third to fifth aspects and the three-dimensional image information of the photographic subject, the photographic subject satisfies a predetermined condition. Object determining means for determining whether or not to perform, and warning means for giving a warning when the object determining means determines that the photographing object satisfies the predetermined condition, and the stereo image In the case where the object to be imaged in is localized only in one of the linear area and the logarithmic area, the multi-mode imaging control means is configured to select one of the linear imaging mode and the composite imaging mode. The periphery monitoring system is characterized in that the imaging ratio in one imaging mode corresponding to the localized region is increased.

また、請求項12の発明は、請求項10または請求項11に記載の周辺監視システムであって、前記警告手段が、前記複合撮影モードでの撮像で得た画像を所定の画面表示手段に表示させる表示制御手段を備えることを特徴とする。   The invention according to claim 12 is the periphery monitoring system according to claim 10 or 11, wherein the warning means displays an image obtained by imaging in the composite imaging mode on a predetermined screen display means. The display control means to be provided is provided.

また、請求項13の発明は、コンピュータにインストールされて実行されることによって、前記コンピュータを、請求項1ないし請求項9いずれかに記載の画像処理装置として機能させることを特徴とするプログラムである。   The invention of claim 13 is a program that causes the computer to function as the image processing apparatus according to any one of claims 1 to 9 by being installed and executed in the computer. .

また、請求項14の発明は、請求項13に記載のプログラムであって、前記プログラムを前記コンピュータで実行させることにより、前記コンピュータを、請求項10ないし請求項12いずれかに記載の周辺監視システム用の画像処理装置として機能させることを特徴とする。   The invention according to claim 14 is the program according to claim 13, wherein the computer is executed by the computer to cause the computer to perform the periphery monitoring system according to any one of claims 10 to 12. It functions as an image processing apparatus for use.

請求項1ないし請求項14の発明によれば、線形変換特性と対数変換特性とのそれぞれの特性に応じて、ステレオ画像の各画像領域につき、高精度の対応点探索処理と、高速性な対応点探索処理とを適切に使い分けることが可能となる。その結果、高精度と高速性とを両立させた対応点探索を行うことが可能となる。   According to the first to fourteenth aspects of the present invention, high-accuracy corresponding point search processing and high-speed correspondence can be performed for each image area of a stereo image in accordance with the linear transformation characteristic and the logarithmic transformation characteristic. It is possible to properly use point search processing. As a result, it is possible to perform corresponding point search that achieves both high accuracy and high speed.

請求項3の発明によれば、線形撮像モードのステレオ画像に基づいて、複合撮像モードのステレオ画像の各画像領域が線形領域であるか対数領域であるかを判定するため、複合撮像モードでの領域判定が正確になる。   According to the invention of claim 3, in order to determine whether each image area of the stereo image in the composite imaging mode is a linear area or a logarithmic area based on the stereo image in the linear imaging mode, The area determination becomes accurate.

請求項4の発明によれば、線形撮像モードにおける露出オーバー領域が、複合撮影モードでは対数領域になることが多いという関係を利用するため、複合撮影モードでの領域判定が容易かつ正確となる。   According to the invention of claim 4, since the overexposed area in the linear imaging mode is often a logarithmic area in the composite imaging mode, the area determination in the composite imaging mode becomes easy and accurate.

請求項5の発明によれば、線形撮像モードの連続2回以上の撮像結果を時間的に外挿して、複合撮像モードにおける対応領域の場所を推定することにより、被写体に動きがある場合の領域判定が容易かつ正確となる。   According to the fifth aspect of the present invention, an area where the subject is moving is obtained by extrapolating temporally two or more continuous imaging results in the linear imaging mode and estimating the location of the corresponding area in the composite imaging mode. Judgment is easy and accurate.

請求項6の発明によれば、第1の対応点探索方法により部分的に対応点探索を実施し、算出された対応点の信頼度に基づいて、第2の対応点探索方法による対応点探索を実施するか否かを決定することで、効率的かつ精度良く対応点探索を行うことができる。   According to the invention of claim 6, the corresponding point search is partially performed by the first corresponding point search method, and the corresponding point search by the second corresponding point search method is performed based on the calculated reliability of the corresponding point. By determining whether or not to implement, the corresponding point search can be performed efficiently and accurately.

請求項10ないし請求項12の発明によれば、撮影対象体が所定の条件を満足するか否かの判定において、正確性と高速性とを組み合わせた結果を得ることができる。   According to the tenth to twelfth aspects of the present invention, it is possible to obtain a result obtained by combining accuracy and high speed in determining whether or not a subject to be photographed satisfies a predetermined condition.

請求項11の発明によれば、撮影対象体が、線形領域および対数領域のうちの一方の領域だけに局在している場合に、その局在領域に対応する光電変換特性での撮影の比重を高めるため、効率的に対応点探索を行うことができる。   According to the eleventh aspect of the present invention, when the photographing object is localized only in one of the linear region and the logarithmic region, the specific gravity of photographing with the photoelectric conversion characteristic corresponding to the localized region. Therefore, it is possible to efficiently search for corresponding points.

請求項12の発明によれば、複合撮影モードでの撮像結果で画面表示を行うため、視覚的に見やすい効果を得ることができる。   According to the twelfth aspect of the invention, since the screen display is performed with the imaging result in the composite imaging mode, it is possible to obtain an effect that is visually easy to see.

一実施形態に係る画像処理システムの概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an image processing system according to an embodiment. Linear-Log特性を例示する図である。It is a figure which illustrates a Linear-Log characteristic. 変曲点が画素ごとにばらつく様子を説明する図である。It is a figure explaining a mode that an inflexion point varies for every pixel. 撮像モードを変えて、撮像された画像の変化を説明する図である。It is a figure explaining change of an image picked up, changing imaging modes. 一実施形態に係る演算制御部の機能的な構成例を示す図である。It is a figure which shows the functional structural example of the calculation control part which concerns on one Embodiment. 時系列で得られるステレオ画像の一例を説明する図である。It is a figure explaining an example of the stereo image obtained in time series. 特性の判定方法について説明する図である。It is a figure explaining the determination method of a characteristic. POC処理の流れを説明する図である。It is a figure explaining the flow of POC processing. POC関数について説明する図である。It is a figure explaining a POC function. 特性領域に応じた対応点探索について説明する図である。It is a figure explaining the corresponding point search according to a characteristic area. 一実施形態に係る対応点探索動作のフローを示すフローチャートである。It is a flowchart which shows the flow of the corresponding point search operation | movement which concerns on one Embodiment. 一実施形態に係る対応点探索動作のフローを示すフローチャートである。It is a flowchart which shows the flow of the corresponding point search operation | movement which concerns on one Embodiment.

<1.画像処理システムの概要>
図1は、本発明の一実施形態に係る画像処理システムの概略構成を示す図である。画像処理システム1は、多視点カメラシステムとして構成されており、撮像部2として2眼のステレオカメラ20を備えるほか、ステレオカメラ20に対してデータの送受信が可能に接続される画像処理装置3を備える。
<1. Overview of image processing system>
FIG. 1 is a diagram showing a schematic configuration of an image processing system according to an embodiment of the present invention. The image processing system 1 is configured as a multi-viewpoint camera system. The image processing system 1 includes a two-lens stereo camera 20 as an imaging unit 2 and an image processing apparatus 3 connected to the stereo camera 20 so as to be able to transmit and receive data. Prepare.

ステレオカメラ20は、撮像素子21a、22aをそれぞれ有する2つの撮像系21,22から構成されている。撮像系21,22は、カメラ正面の被写体(撮像の対象体)OBを、同じタイミングで異なる視点から撮像するように構成される。撮像系21,22による同じタイミングの撮像によって得られる2つの画像信号(以下「画像」と略称する)は、データ線CBを介して画像処理装置3に送信される。   The stereo camera 20 includes two image pickup systems 21 and 22 each having image pickup devices 21a and 22a. The imaging systems 21 and 22 are configured to image a subject (imaging target) OB in front of the camera from different viewpoints at the same timing. Two image signals (hereinafter abbreviated as “images”) obtained by imaging at the same timing by the imaging systems 21 and 22 are transmitted to the image processing device 3 via the data line CB.

以下では、撮像系21の撮像によって取得される画像を「第1撮像画像」G1と称し、撮像系22の撮像によって取得される画像を「第2撮像画像」G2と称する。つまり、第1および第2撮像画像G1,G2は、同一の被写体OBが異なる視点からそれぞれ捉えられた画像の組を成す。   Hereinafter, an image acquired by the imaging system 21 is referred to as a “first captured image” G1, and an image acquired by the imaging system 22 is referred to as a “second captured image” G2. That is, the first and second captured images G1 and G2 form a set of images in which the same subject OB is captured from different viewpoints.

ここでは、説明を簡素化するために、ステレオカメラ20の収差は良好に補正されているとする。また、撮像系21,22は所定方向に沿って離隔配置され、撮像系21,22の光軸が略平行(好ましくは完全に平行)に設定される状態を前提にする。さらに、撮像系21,22の撮像素子21a、22aは、Linear-Log特性を持つ。   Here, in order to simplify the description, it is assumed that the aberration of the stereo camera 20 is corrected well. Further, it is assumed that the imaging systems 21 and 22 are spaced apart along a predetermined direction and the optical axes of the imaging systems 21 and 22 are set to be substantially parallel (preferably completely parallel). Furthermore, the imaging elements 21a and 22a of the imaging systems 21 and 22 have Linear-Log characteristics.

画像処理装置3は、例えばパーソナルコンピュータ(パソコン)のような情報処理装置で構成され、マウスやキーボード等を含む操作部31と、液晶ディスプレイ等で構成されるディスプレイ32と、スピーカ33と、ステレオカメラ20からのデータを受信するインターフェース(I/F)37とを備える。また、画像処理装置3は、記憶装置34と演算制御部36とを有する。   The image processing device 3 is configured by an information processing device such as a personal computer (personal computer), for example, an operation unit 31 including a mouse and a keyboard, a display 32 configured by a liquid crystal display, a speaker 33, and a stereo camera. And an interface (I / F) 37 for receiving data from 20. The image processing apparatus 3 includes a storage device 34 and an arithmetic control unit 36.

記憶装置34は、例えばハードディスク等で構成され、ステレオカメラ20の撮像によって得られる第1および第2撮像画像G1,G2を記憶する。また、記憶装置34には、後述される変曲点制御を行うためのプログラムPG等が格納される。   The storage device 34 is composed of, for example, a hard disk or the like, and stores first and second captured images G1 and G2 obtained by imaging with the stereo camera 20. In addition, the storage device 34 stores a program PG for performing inflection point control, which will be described later.

入出力部35は、例えば可搬性ディスクドライブを備えて構成され、光ディスク等の可搬性記憶媒体をセットして、演算制御部36との間でデータの授受を行う。   The input / output unit 35 includes, for example, a portable disk drive, sets a portable storage medium such as an optical disk, and exchanges data with the arithmetic control unit 36.

演算制御部36は、プロセッサとして働くCPU36aと、情報を一時的に記憶するメモリ36bとを有し、画像処理装置3の各部を統括的に制御する。演算制御部36では、記憶部34内のプログラムPGが読み込まれて実行されることで、各種機能や各種情報処理等が実現される。なお、メモリ36bには、可搬性記憶媒体に記憶されているプログラムデータを、入出力部35を介して格納させることができる。この格納されたプログラムは、画像処理装置3の動作に適宜反映可能である。   The arithmetic control unit 36 includes a CPU 36 a that functions as a processor and a memory 36 b that temporarily stores information, and comprehensively controls each unit of the image processing apparatus 3. In the arithmetic control unit 36, various functions, various information processing, and the like are realized by reading and executing the program PG in the storage unit 34. The memory 36b can store program data stored in the portable storage medium via the input / output unit 35. This stored program can be appropriately reflected in the operation of the image processing apparatus 3.

演算制御部36は、後述する対応点探索動作によって得られる情報を基に、撮影対象体との距離を算出し、ディスプレイ32により、特定の被写体OBの画像を可視的に出力する。なお、演算制御部36で算出された距離情報に基づいて、衝突するなど危険と判断された場合には、スピーカ33により警告を行う。   The calculation control unit 36 calculates the distance to the object to be photographed based on information obtained by a corresponding point search operation described later, and visually outputs an image of the specific subject OB on the display 32. Note that, if it is determined that there is a danger such as a collision based on the distance information calculated by the arithmetic control unit 36, a warning is given by the speaker 33.

<1−1.Linear-Log特性の一般的性質と前提事情>
この実施形態における撮像素子21a、22aの変曲点制御の詳細を説明する準備として、この実施形態の前提となるLinear-Log特性の一般的性質と、それに伴って生じる事情、すなわち従来技術で生じていた事情を説明しておく。
<1-1. General properties and assumptions of Linear-Log characteristics>
As preparation for explaining the details of the inflection point control of the image pickup devices 21a and 22a in this embodiment, the general properties of the Linear-Log characteristics that are the premise of this embodiment and the circumstances that accompany it, that is, the conventional technology Explain the circumstances that were happening.

Linear-Log特性を持つ撮像素子を以下では「L-L特性センサ」と略称することにすると、L-L特性センサでは、撮像素子の画素に相当する各フォトダイオードで発生した光電流を、MOSFETを通して積分回路に与え出力信号を得ている。低照度時には線形変換特性(Linear特性)となり、フォトダイオードで発生した光電流の時間積分値(入射光量)に比例する出力信号が得られ、高照度時には対数変換特性(Log特性)となり、フォトダイオードで発生した光電流の時間積分値(入射光量)に対数的に依存する出力電圧が得られる。それらの境界(臨界点)としての変曲点は、非撮像時のMOSFETのゲート電圧と、撮像時のMOSFETのゲート電圧との差を変更することによって移動させることができる。変曲点の制御信号は、このようなゲート電圧差を可変に設定する信号である。   In the following, an image sensor with Linear-Log characteristics is abbreviated as “LL characteristic sensor”. In the LL characteristic sensor, photocurrent generated in each photodiode corresponding to the pixel of the image sensor is converted into an integration circuit through a MOSFET. A given output signal is obtained. Linear conversion characteristics (Linear characteristics) at low illuminance, an output signal proportional to the time integral value (incident light intensity) of the photocurrent generated by the photodiode is obtained, and logarithmic conversion characteristics (Log characteristics) at high illuminance. An output voltage that is logarithmically dependent on the time integral value (incident light quantity) of the photocurrent generated in step S1 is obtained. The inflection points as the boundaries (critical points) can be moved by changing the difference between the gate voltage of the MOSFET during non-imaging and the gate voltage of the MOSFET during imaging. The inflection point control signal is a signal for variably setting such a gate voltage difference.

図2は、ステレオカメラ20からの画像信号を例示する図である。図2で示されるように、線形変換特性のみ有するセンサでは、入射光量に係わらず、輝度を線形変換特性で出力するので、破線で示されるように出力限界値MOを超えると露出オーバー領域となる。一方、Linear-Log特性を持つセンサ(以下「L-L特性センサ」と略称)では、入射光量がα以下の場合には輝度を線形変換特性で出力するが、入射光量がα以上の場合には対数変換特性に変換して出力するため、入射光量がかなり高い領域まで出力限界値MOを超えない。また、この時、入射光量がαに相当する点(入射光量=α,出力=H)、すなわち、線形変換特性から対数変換特性に変更される点が変曲点CPとなる。   FIG. 2 is a diagram illustrating an image signal from the stereo camera 20. As shown in FIG. 2, in the sensor having only the linear conversion characteristic, the luminance is output with the linear conversion characteristic regardless of the amount of incident light. Therefore, when the output limit value MO is exceeded as shown by the broken line, an overexposed region is obtained. . On the other hand, a sensor with Linear-Log characteristics (hereinafter abbreviated as “LL characteristic sensor”) outputs luminance with linear conversion characteristics when the incident light quantity is α or less, but logarithmically when the incident light quantity is α or more. Since the output is converted into conversion characteristics, the output limit value MO is not exceeded up to a region where the amount of incident light is considerably high. At this time, the point where the incident light amount corresponds to α (incident light amount = α, output = H), that is, the point where the linear conversion characteristic is changed to the logarithmic conversion characteristic is the inflection point CP.

その一方で、L-L特性センサでは、下記(I)(II)のような課題が存在する。   On the other hand, the L-L characteristic sensor has the following problems (I) and (II).

(I) 温度などの条件変化により変曲点が画素ごとにばらつく特徴をもつ。このことから、変曲点付近において対応点探索精度の低下をもたらす課題がある。   (I) Inflection points vary from pixel to pixel due to changes in conditions such as temperature. For this reason, there exists a subject which brings about the fall of a corresponding point search precision in the inflection point vicinity.

図3は、変曲点が画素ごとにばらつく様子を説明する図である。図3で示されるように、変曲点CPの位置が変動し、対数変換特性領域における係数c1,c2,c3、および、変曲点のオフセット値d1,d2,d3がばらつくことになる。したがって、温度などの外的条件の変化に伴い、線形変換特性領域から対数変換特性領域に移る変曲点CPの位置(α、H)の変動、および、対数変換特性領域の傾きと係数とがセンサごとにばらつく現象が発生する。これは、変曲点付近において対応点探索精度の低下をもたらす結果となる。   FIG. 3 is a diagram illustrating how inflection points vary from pixel to pixel. As shown in FIG. 3, the position of the inflection point CP varies, and the coefficients c1, c2, and c3 in the logarithmic transformation characteristic region and the inflection point offset values d1, d2, and d3 vary. Therefore, the variation in the position (α, H) of the inflection point CP that moves from the linear transformation characteristic region to the logarithmic transformation characteristic region, and the slope and coefficient of the logarithmic transformation characteristic region due to changes in external conditions such as temperature. A phenomenon that varies from sensor to sensor occurs. This results in a decrease in corresponding point search accuracy near the inflection point.

(II) 対数変換特性領域では、入射光量の変動幅に対応する輝度の変動幅が小さいという特徴をもつ。このことから、周波数特性による対応点探索の精度低下に繋がる。   (II) The logarithmic conversion characteristic region has a feature that the fluctuation range of luminance corresponding to the fluctuation range of incident light quantity is small. From this, it leads to the precision fall of the corresponding point search by a frequency characteristic.

図4は、撮像系21,22によって撮像された第1および第2撮像画像G1,G2である。図4(a)は、入射光量に応じて線形変換特性と対数変換特性との間で光電変換特性が変化する複合撮像モードで高輝度の被写体を撮像したものであるのに対し、図4(b)は、入射光量にかかわらず線形変換特性で光電変換する線形撮像モードで高輝度の被写体を撮像したものである。図4(a)で示されるように、第1および第2撮像画像G1,G2共に、部分的に潰れることがなく被写体OBの画像が得られているのに対し、図4(b)では、第1および第2撮像画像G1,G2ともに、高照度の露出オーバー領域では、被写体OBの画像の細かい変化が潰れてしまっている。   FIG. 4 shows first and second captured images G1, G2 captured by the imaging systems 21, 22. FIG. 4A shows an image of a high-brightness object in the composite imaging mode in which the photoelectric conversion characteristic changes between the linear conversion characteristic and the logarithmic conversion characteristic in accordance with the amount of incident light, whereas FIG. b) shows an image of a high-luminance subject in a linear imaging mode in which photoelectric conversion is performed with linear conversion characteristics regardless of the amount of incident light. As shown in FIG. 4A, the first and second captured images G1 and G2 are both partially collapsed and an image of the subject OB is obtained, whereas in FIG. 4B, In both the first and second captured images G1 and G2, in the overexposed region with high illuminance, fine changes in the image of the subject OB are crushed.

このように、露出オーバー領域が存在する高照度時の撮影としては、例えば、夜間のようなシーンで、対向車のライトにより露出オーバーしてしまう事態が想定される。車載の周辺監視においては、このような領域こそ、衝突可能性のある物体を検出することが重要な領域といえる。しかしながら、線形変換特性のみを持つセンサでは、露出オーバー領域は、画像が潰れて出力されるため、基準画像と参照画像との間で対応点探索を行う際、高精度な探索結果が得られない。この結果、被写体OBの距離情報を誤って算出してしまうことに繋がる。   As described above, as shooting at high illuminance in which an overexposed region exists, for example, a situation such as nighttime may be overexposed by the light of the oncoming vehicle. In the on-vehicle periphery monitoring, it can be said that such an area is an important area for detecting an object having a possibility of collision. However, in a sensor having only linear conversion characteristics, the image of the overexposed region is output with a collapsed image, and therefore, a high-precision search result cannot be obtained when a corresponding point search is performed between the reference image and the reference image. . As a result, the distance information of the subject OB is erroneously calculated.

一方、L-Lセンサでは、露出オーバーとなる領域を対数変換特性により画像補正を行うことより、露出オーバー領域が無くなり、周辺監視制度を高めることが可能である(図4(a)参照)。しかしながら、対数変換特性領域は輝度差が少ない故、線形変換特性領域と比べて高精度な画像は得られず、また図3に示すように、温度などの条件変化により変曲点が画素ごとにばらつく課題もある。   On the other hand, in the L-L sensor, an overexposed area is eliminated by performing image correction on the overexposed area using logarithmic conversion characteristics, and the perimeter monitoring system can be enhanced (see FIG. 4A). However, since the logarithmic conversion characteristic region has a small luminance difference, a high-accuracy image cannot be obtained as compared with the linear conversion characteristic region. Also, as shown in FIG. There are also issues that vary.

このような背景の下、本発明では、L-Lセンサにおいて、線形変換特性領域と対数変換特性領域とで、互いに異なる対応点探索法を用いる。   Under such a background, in the present invention, in the L-L sensor, different corresponding point search methods are used in the linear conversion characteristic region and the logarithmic conversion characteristic region.

<2.画像処理システムの機能構成>
本発明の実施形態の説明に戻る。画像処理装置3は、入射光量に応じて線形変換特性と対数変換特性との間で光電変換特性が切り換わるステレオカメラ20を用いて撮像されたステレオ画像信号を入力し、当該ステレオ画像信号に含まれる複数の画像間の空間的対応関係を決定して撮像対象体の3次元画像情報を得ることを特徴とする。ここでは、とりわけ、対応点探索動作を実行するために演算制御部36で実現される機能的な構成を説明する。
<2. Functional configuration of image processing system>
Returning to the description of the embodiment of the present invention. The image processing apparatus 3 inputs a stereo image signal captured using the stereo camera 20 in which the photoelectric conversion characteristics are switched between the linear conversion characteristic and the logarithmic conversion characteristic in accordance with the amount of incident light, and is included in the stereo image signal. And determining a spatial correspondence between the plurality of images to obtain three-dimensional image information of the object to be imaged. Here, in particular, a functional configuration realized by the arithmetic control unit 36 for executing the corresponding point search operation will be described.

図5は、演算制御部36の機能的な構成を示す図である。なお、ここでは、演算制御部36の機能的な構成が、プログラムPGの実行によって実現されるものとして説明するが、専用のハードウエア構成で実現されても良い。   FIG. 5 is a diagram illustrating a functional configuration of the arithmetic control unit 36. Here, although the functional configuration of the arithmetic control unit 36 is described as being realized by executing the program PG, it may be realized by a dedicated hardware configuration.

図5で示されるように、撮像部2からデータを受信して、演算制御部36は、機能的な構成として、ステレオ画像取得部361、特性判定部362、対応点探索部363、距離情報算出部364、対象体候補検出部365、対象体判定部366、および、警告部367を有する。以降、各処理について図5を参照しながら説明する。   As shown in FIG. 5, the data is received from the imaging unit 2, and the arithmetic control unit 36 has a functional configuration such as a stereo image acquisition unit 361, a characteristic determination unit 362, a corresponding point search unit 363, and distance information calculation. A target object candidate detection unit 365, a target object determination unit 366, and a warning unit 367. Hereinafter, each process will be described with reference to FIG.

<2−1.撮像部2>
撮像部2は、自動車の前方空間を撮像可能に自動車の所定位置に設置される。この撮像部2は、ステレオ画像を取得し、画像処理装置3に画像信号を送信する役割を持つ。また、入射光量にかかわらず線形変換特性で光電変換する線形撮像モードでの撮像と、入射光量に応じて線形変換特性と対数変換特性との間で光電変換特性が変化する複合撮像モードでの撮像とを、周期的に切り替えて実行させるマルチモード撮影制御部201を備える。図1では、ステレオカメラ20の撮像系21,22のセンサに該当する。なお、撮像部2は予めキャリブレーションされており、カメラのパラメタは既知であることを前提条件とする。
<2-1. Imaging unit 2>
The imaging unit 2 is installed at a predetermined position of the automobile so that the front space of the automobile can be imaged. The imaging unit 2 has a role of acquiring a stereo image and transmitting an image signal to the image processing device 3. In addition, imaging in a linear imaging mode in which photoelectric conversion is performed with linear conversion characteristics regardless of the amount of incident light, and imaging in a composite imaging mode in which photoelectric conversion characteristics change between linear conversion characteristics and logarithmic conversion characteristics in accordance with the amount of incident light Are provided with a multi-mode imaging control unit 201 that periodically switches and executes the above. 1 corresponds to the sensors of the imaging systems 21 and 22 of the stereo camera 20. It is assumed that the imaging unit 2 is calibrated in advance and the camera parameters are known.

<2−2.ステレオ画像取得部361>
ステレオ画像取得部361では、撮像部2によって送信された画像信号を取得する。ここで、対応点探索動作では、第1撮像画像G1が基準となる画像(以下「基準画像」とも称する)とされ、第2撮像画像G2が参照される画像(以下「参照画像」とも称する)とされる。そこで、第1撮像画像G1を基準画像G1と称し、第2撮像画像G2を参照画像G2と称する。
<2-2. Stereo Image Acquisition Unit 361>
The stereo image acquisition unit 361 acquires the image signal transmitted by the imaging unit 2. Here, in the corresponding point search operation, the first captured image G1 is used as a reference image (hereinafter also referred to as “reference image”), and the second captured image G2 is referred to (hereinafter also referred to as “reference image”). It is said. Therefore, the first captured image G1 is referred to as a standard image G1, and the second captured image G2 is referred to as a reference image G2.

なお、ステレオ画像取得部361では、厳密には、基準画像G1および参照画像G2を示すデータが取得されるが、本明細書では、基準画像G1を示すデータと該データに基づいて表示される基準画像G1そのものとを「基準画像G1」と総称し、参照画像G2を示すデータと該データに基づいて表示される参照画像G2そのものとを参照画像G2と総称する。   Strictly speaking, the stereo image acquisition unit 361 acquires data indicating the standard image G1 and the reference image G2, but in this specification, data indicating the standard image G1 and a standard displayed based on the data are displayed. The image G1 itself is generically referred to as “standard image G1”, and the data indicating the reference image G2 and the reference image G2 itself displayed based on the data are collectively referred to as the reference image G2.

図6は、時系列で得られるステレオ画像の一例を示した図である。図6に示すように、取得されたステレオ画像は、例えば、マルチモード撮影制御部201で撮影を行った基準画像G1(A0,A1,A2,…)と参照画像G2(B0,B1,B2,…)との撮影タイミングは互いに同期している。そして基準画像G1と参照画像G2とのうち、対応するフレームの画像の相互間では同じ特性の画像を取得する。すなわち、基準画像A0が線形変換特性で撮像される場合には、参照画像B0もまた線形変換特性で撮像され、基準画像A1がLinear-Log変換特性で撮像される場合には、参照画像B0もまたLinear-Log変換特性で撮像される。   FIG. 6 is a diagram illustrating an example of a stereo image obtained in time series. As shown in FIG. 6, the acquired stereo image includes, for example, a reference image G1 (A0, A1, A2,...) And a reference image G2 (B0, B1, B2,. ...) and the shooting timing are synchronized with each other. Then, between the standard image G1 and the reference image G2, images having the same characteristics are acquired between the images of the corresponding frames. That is, when the standard image A0 is captured with the linear conversion characteristic, the reference image B0 is also captured with the linear conversion characteristic. When the standard image A1 is captured with the Linear-Log conversion characteristic, the reference image B0 is also captured. Images are taken with Linear-Log conversion characteristics.

また、
・線形変換特性で撮像された画像を、「線形モード画像」と、
・Linear-Log特性で撮像された画像を、「複合モード画像」と、
それぞれ呼ぶことにすれば、この実施形態では、基準画像G1と参照画像G2とのいずれについても、線形モード画像A0,A2,…(B0,B2,…)と、複合モード画像A1,A3,…(B1,B3,…)とが、一定の時間間隔Δtで1フレームずつ交互に取得されるように、周期的に撮像フレームを切り替える。
Also,
・ Images captured with linear transformation characteristics are called `` linear mode images ''
・ Images captured with Linear-Log characteristics are called `` composite mode images ''
In this embodiment, the linear mode images A0, A2,... (B0, B2,...) And the composite mode images A1, A3,. The imaging frames are periodically switched so that (B1, B3,...) Are alternately acquired frame by frame at a constant time interval Δt.

この実施形態では、撮像素子21a、22aのそれぞれが、線形撮像モードと複合撮像モードとのいずれでも撮像可能な素子で構成され、タイミング制御信号に基づいてフレームごとに線形撮像モードと複合撮像モードとに切り替えることにより、線形モード画像と複合モード画像とを取得する。   In this embodiment, each of the image pickup devices 21a and 22a is configured by an element that can pick up images in either the linear image pickup mode or the composite image pickup mode, and the linear image pickup mode and the composite image pickup mode are set for each frame based on the timing control signal. By switching to, a linear mode image and a composite mode image are acquired.

これに関しては、後述する対象体判定部366の判定結果に基づいて、どちらかのフレームのウェイトが重くなるようにしてもよい。この場合、たとえば単位時間あたりの線形変換特性画像とLinear-Log特性画像とのフレーム比を、m:n(m,nは互いに異なる正整数)として、連続する(m+n)フレームを1周期とする繰返しでの撮像を行う。   In this regard, the weight of either frame may be increased based on the determination result of the object determination unit 366 described later. In this case, for example, the frame ratio between the linear transformation characteristic image and the Linear-Log characteristic image per unit time is set to m: n (m and n are different positive integers), and consecutive (m + n) frames are defined as one cycle. Repeat imaging.

<2−3.特性判定部362>
特性判定部362では、ステレオ画像G1,G2の各画像領域の特徴量に基づいて、これらステレオ画像G1,G2のうち、複合モード画像の各画像領域が、
・線形変換特性で光電変換された領域(以下「線形領域」)であるか、
・対数変換特性で光電変換された領域(以下「対数領域」)であるか、
を判定する。
<2-3. Characteristic determination unit 362>
In the characteristic determination unit 362, based on the feature amounts of the image areas of the stereo images G1 and G2, the image areas of the composite mode image among the stereo images G1 and G2 are
-It is a region photoelectrically converted with linear conversion characteristics (hereinafter referred to as "linear region"),
-It is a region photoelectrically converted by the logarithmic conversion characteristic (hereinafter referred to as "logarithmic region"),
Determine.

そこではまず、線形モード画像A0,A2,…(B0,B2,…)における各画像領域の露光状態に基づく予備的判定を行い、それに基づいて、それぞれの次フレームの複合モード画像A1,A3,…(B1,B3,…)の各画像領域が、線形領域であるかそれとも対数領域であるかを推定する。すなわち、この態様におけるステレオ画像G1,G2の各画像領域の特徴量としては輝度を採用していることになる。   First, a preliminary determination based on the exposure state of each image region in the linear mode images A0, A2,... (B0, B2,...) Is performed, and based on the preliminary determination, the composite mode images A1, A3,. ... (B1, B3,...) Is estimated whether each image area is a linear area or a logarithmic area. That is, the luminance is adopted as the feature amount of each image area of the stereo images G1 and G2 in this aspect.

複合モード画像A1,A3,…(B1,B3,…)では、既に線形変換特性と対数変換特性とが空間的に混在した状態で変換されているため、それらの画像自身の解析から、どの領域がどのような光電変換特性を得たものであるかの判定を行うのは複雑である。これに対して、線形モード画像A0,A2,…(B0,B2,…)では、画像の全領域が線形変換特性で変換されているため、
・着目する画像領域が望ましい画像表現性を実現していれば、当該領域は線形変換特性が適合しており、複合モード画像でも線形変換特性で変換される領域であると判定し、
・着目する画像領域の画像表現性が不足していれば、その領域は線形変換特性には不適であるために、複合モード画像では対数変換特性で変換される領域である、
と判定できることになる。
In the composite mode images A1, A3,... (B1, B3,...), Linear transformation characteristics and logarithmic transformation characteristics are already transformed in a spatially mixed state. It is complicated to determine what photoelectric conversion characteristic is obtained. On the other hand, in the linear mode images A 0, A 2,... (B 0, B 2,...), The entire area of the image is converted with the linear conversion characteristics.
-If the image area of interest achieves the desired image expressiveness, it is determined that the area has a linear conversion characteristic and is converted by the linear conversion characteristic even in the composite mode image.
-If the image representation of the image area of interest is insufficient, the area is unsuitable for the linear transformation characteristic, so in the composite mode image, the area is transformed with the logarithmic transformation characteristic.
It can be determined.

一般には撮像システムと被写体とは相対的に移動しているため、線形モード画像での領域タイプ判定の結果を、次のフレームの複合モード画像における特性タイプ判定に適用すると誤差が生じる。たとえば線形モード画像で対向車のヘッドライトによって露出オーバーとなっている領域の範囲と、次の複合モード画像でのヘッドライト範囲とは厳密には同じではない。しかしながら、高速フレームレートでの撮像では、時間的に隣接するフレーム間での被写体の移動量は比較的少ないため、そのような誤差は実用上の支障とはならない。   In general, since the imaging system and the subject are relatively moved, an error occurs when the result of area type determination in the linear mode image is applied to characteristic type determination in the composite mode image of the next frame. For example, the range of the region that is overexposed by the headlight of the oncoming vehicle in the linear mode image and the headlight range in the next composite mode image are not exactly the same. However, in imaging at a high frame rate, the amount of movement of the subject between frames that are temporally adjacent is relatively small, and such an error does not cause a practical problem.

ただし、ある程度以上の時間スパンで考えると撮像系に対する被写体の相対位置が変化するため、1つのフレームの線形モード画像で得た特性タイプ判定の結果は、次に得た複合モード画像の領域タイプ判定にだけ使用し、新たな線形モード画像を取得したときには、それによって特性判定を更新する。これよって、誤差の蓄積を防止できる。   However, since the relative position of the subject changes with respect to the imaging system when considered over a certain time span, the result of the characteristic type determination obtained with the linear mode image of one frame is the region type determination of the next obtained composite mode image. When a new linear mode image is acquired, the characteristic determination is updated accordingly. Thereby, accumulation of errors can be prevented.

図7はこのような原理に基づく特性判定をより具体的に説明する図である。ここでは基準画像G1について説明するが、参照画像G2についても同様である。   FIG. 7 is a diagram for more specifically explaining the characteristic determination based on such a principle. Although the reference image G1 will be described here, the same applies to the reference image G2.

図7において、時刻T,T+Δt,T+3Δt,…で撮像されるフレームでは線形モード画像A0,A2,…が得られ、時刻T+2Δt,T+4Δt,T+6Δt,…で撮像されるフレームでは複合モード画像A1,A3,…が得られる。   In FIG. 7, linear mode images A 0, A 2,... Are obtained in the frames imaged at times T, T + Δt, T + 3Δt,. , ... are obtained.

そして、時刻Tにおける線形モード画像A0の各領域(各空間部分)が、
・露出オーバーしていない領域(以下「適正露出領域」)LN0と、
・露出オーバーしている領域(以下「過剰露出領域」)LG0と、
のいずれであるかの判定を行う。
And each area | region (each space part) of the linear mode image A0 in the time T is as follows.
An area that is not overexposed (hereinafter referred to as “appropriate exposure area”) LN0;
An overexposed region (hereinafter “overexposed region”) LG0;
It is determined whether it is either.

このうち、適正露出領域LN0は、当該領域に含まれる画素の多くが撮像素子21a、22aの出力限界値(上限値)MO未満となっているような領域である。また、過剰露出領域LG0は、入射光量が過多であるために、当該領域に含まれる画素の全部または圧倒的多数(所定閾値以上の割合の画素)が撮像素子21a、22aの輝度出力の上限値MOと一致しているような領域である。これらの領域区分は相補的であるから、適正露出領域LN0を検出してそれ以外を過剰露出領域LG0としてもよく、その逆に、過剰露出領域LG0を検出してそれ以外を適正露出領域LN0としてよい。   Among these, the proper exposure region LN0 is a region where most of the pixels included in the region are less than the output limit value (upper limit value) MO of the image sensors 21a and 22a. In addition, since the amount of incident light is excessive in the overexposed region LG0, all or most of the pixels included in the region (pixels having a ratio equal to or greater than a predetermined threshold) are the upper limit values of the luminance outputs of the image sensors 21a and 22a. It is an area that matches the MO. Since these area sections are complementary, the proper exposure area LN0 may be detected and the others may be used as the overexposure area LG0, and conversely, the overexposure area LG0 may be detected and the other may be used as the proper exposure area LN0. Good.

これらのうち、適正露出領域LN0では線形変換が有効に機能していることになるから、その領域については線形モード画像においても複合モード画像においても画像精度が高いが、線形モード画像において過剰露出領域LG0となっている領域では画像情報の多くが失われており、同一の被写体を複合モード画像で撮影したフレームにおいても画像精度はあまり高くない領域と推定できる。すなわち、線形モード画像とは異なり、複合モード画像では対数変換が機能するから、過剰露出領域LG0においても画像が完全に潰れるわけではなく、画像上の濃淡は表現されている。しかしながら、複合モード画像においても、適正露出領域LN0に対応する線形領域LN1と比較すれば、過剰露出領域LG0に対応する対数領域LG1での画像情報の精度は低くなっていると推定することができる。   Among these, since the linear conversion functions effectively in the appropriate exposure region LN0, the image accuracy is high in both the linear mode image and the composite mode image for the region, but the overexposure region in the linear mode image. Much of the image information is lost in the region of LG0, and it can be estimated that the image accuracy is not so high even in a frame in which the same subject is captured as a composite mode image. That is, unlike the linear mode image, the logarithmic conversion functions in the composite mode image. Therefore, the image is not completely crushed even in the overexposed region LG0, and the shading on the image is expressed. However, even in the composite mode image, it can be estimated that the accuracy of the image information in the logarithmic region LG1 corresponding to the overexposed region LG0 is lower than that of the linear region LN1 corresponding to the proper exposed region LN0. .

そこで、次のフレームに該当する時刻T+Δtで得た複合モード画像A1においては、各画像領域を、
・時刻Tの線形モード画像A0において判定された適正露出領域LN0に空間的に対応し、複合モード画像では線形領域LN1となっていると想定される領域と、
・時刻Tの線形モード画像A0において判定された過剰露出領域LG0に空間的に対応し、複合モード画像A1においては対数領域LG1となっていると想定される領域と、
に区分する。
Therefore, in the composite mode image A1 obtained at time T + Δt corresponding to the next frame, each image region is
A region that corresponds spatially to the proper exposure region LN0 determined in the linear mode image A0 at time T and is assumed to be the linear region LN1 in the composite mode image;
A region that spatially corresponds to the overexposed region LG0 determined in the linear mode image A0 at time T and is assumed to be a logarithmic region LG1 in the composite mode image A1;
Divide into

これは、線形モード画像A0における適正露出領域(または過剰露出領域)の画素分布に相当するビットマップパターンを作成して記憶しておき、それらをそのまま複合モード画像A1の画素座標にあてはめることによって達成することができる。   This is achieved by creating and storing a bitmap pattern corresponding to the pixel distribution of the proper exposure region (or overexposure region) in the linear mode image A0 and applying it to the pixel coordinates of the composite mode image A1 as it is. can do.

以後も同様に、時刻T+2Δtで得られた線形モード画像A2の各領域について特性判定を行って適正露出領域と過剰露出領域とを区分する。そして、次の時刻T+3Δtで得られる複合モード画像A3については、線形モード画像A2で区分された適正露出領域と過剰露出領域とに空間的に対応する部分を、それぞれ適正露出領域と過剰露出領域とする。   Thereafter, similarly, the characteristics of each region of the linear mode image A2 obtained at time T + 2Δt are determined to distinguish between the proper exposure region and the overexposure region. Then, for the composite mode image A3 obtained at the next time T + 3Δt, portions corresponding to the appropriate exposure region and the overexposure region divided by the linear mode image A2 are respectively designated as the proper exposure region and the overexposure region. To do.

以上を繰り返すことで、ステレオ画像G1,G2のそれぞれの複合モード画像における各画像領域が、
・線形モード画像の適正露出領域に対応する領域(「線形領域」)であるか、
・線形モード画像の過剰露出領域に対応する領域(「対数領域」)であるか、
を判定することができる。すなわち、線形モード画像A0,A2,…で得られた画像における過剰露出領域の検出に基づいて、複合撮像モード画像A1,A3,…において、当該過剰露出領域に空間的に対応する対数領域を特定(推定)していることになる。これに伴って、各線形モード画像における適正露出領域と、それに対応する複合モード画像での線形領域もまた特定(推定)されてゆく。
By repeating the above, each image area in each composite mode image of the stereo images G1 and G2 is
The region corresponding to the appropriate exposure region of the linear mode image (“linear region”),
The region corresponding to the overexposed region of the linear mode image ("logarithmic region"),
Can be determined. That is, based on the detection of the overexposed region in the image obtained from the linear mode images A0, A2,..., The logarithmic region corresponding spatially to the overexposed region is identified in the composite imaging mode images A1, A3,. (Estimated). Along with this, the appropriate exposure region in each linear mode image and the corresponding linear region in the composite mode image are also specified (estimated).

これらにおいて、
・「適正露出領域」と「線形領域」とは、空間的に互いに対応しており、
・「過剰露出領域」と「対数領域」とは、空間的に互いに対応しているが、
これらのうちの「適正露出領域」と「過剰露出領域」とは、線形モード画像において露出がオーバーしているか否かとの点からの区分であり、「線形領域」と「対数領域」とは、複合モード画像において線形変換特性と対数変換特性とのいずれの光電変換特性で得られた画像領域であるかを区別するためのものであるため、別個の用語を使用することによって概念としての違いを表現している。
In these,
・ "Proper exposure area" and "Linear area" correspond to each other spatially,
・ "Overexposed area" and "Logarithmic area" correspond spatially to each other,
Of these, “appropriate exposure region” and “overexposed region” are divisions from the point of whether or not the exposure is over in the linear mode image, and “linear region” and “logarithmic region” are: Because it is for distinguishing between the linear conversion characteristic and the logarithmic conversion characteristic of the image area obtained by the photoelectric conversion characteristic in the composite mode image, the difference in concept by using separate terms expressing.

<2−4.対応点探索部363>
対応点探索部363では、ステレオ画像信号のうち、線形変換特性で得られた画像領域としての線形領域には、第1の対応点探索方法を適用して複数の画像間の対応点探索を行い、対数変換特性で得られた画像領域としての対数領域には、第2の対応点探索方法を適用して複数の画像間の対応点探索を行なう。対応点探索部363は、特性判定部362の判定結果に基づいて、画像領域ごとに、第1と第2の対応点探索方法とのいずれか一方を選択して適用する。
<2-4. Corresponding point search unit 363>
The corresponding point search unit 363 searches for corresponding points between a plurality of images by applying the first corresponding point search method to a linear region as an image region obtained by the linear transformation characteristic in the stereo image signal. The second corresponding point search method is applied to the logarithmic area as the image area obtained by the logarithmic conversion characteristic, and corresponding point search between a plurality of images is performed. The corresponding point searching unit 363 selects and applies one of the first and second corresponding point searching methods for each image region based on the determination result of the characteristic determining unit 362.

第1の対応点探索方法としては、第2の対応点探索方法と比較して高精度の探索結果を与える方法が採用され、第2の対応点探索方法としては、第1の対応点探索方法と比較して高速に探索結果を与える方法が採用される。これより、第1の対応点探索方法による処理部(以下、「第1の対応点探索処理部363aと称する)では、第2の対応点探索方法による処理部(以下、「第2の対応点探索処理部363b」と称する)よりも高精度の探索結果を与える。一方、第2の対応点探索処理部363bでは、第1の対応点探索処理部363aよりも高速に探索結果を与える。   As the first corresponding point search method, a method of giving a search result with higher accuracy than the second corresponding point search method is adopted, and as the second corresponding point search method, the first corresponding point search method is used. A method of providing a search result at a high speed as compared with the above is adopted. Accordingly, the processing unit (hereinafter referred to as “first corresponding point search processing unit 363a”) according to the first corresponding point searching method (hereinafter referred to as “second corresponding point searching method”). A search result with higher accuracy than the search processing unit 363b ”is given. On the other hand, the second corresponding point search processing unit 363b gives a search result at a higher speed than the first corresponding point search processing unit 363a.

図4に戻り説明すると、図4(a)で示される複合撮像モードで得られた画像のうち、図4(b)で示される線形モード画像の過剰露出領域に対応する対数領域については第2の対応点探索処理部363bによって対応点探索を行い、残余の領域(線形領域)については第1の対応点探索処理部363aによって対応点探索を行うことになる。   Returning to FIG. 4, among the images obtained in the composite imaging mode shown in FIG. 4A, the logarithmic region corresponding to the overexposed region of the linear mode image shown in FIG. The corresponding point search processing unit 363b performs the corresponding point search, and the remaining corresponding region (linear region) is searched for by the first corresponding point search processing unit 363a.

本実施形態では、具体的に、第1の対応点探索処理部363aでは、基準画像G1および参照画像G2(一般には複数の画像)の周波数特性に基づいたサブピクセルレベルのPOC処理を採用し、第2の対応点探索処理部363bでは、基準画像G1および参照画像G2(一般には同様に複数の画像)の輝度値の相互関係に基づいたSAD処理の採用、または、ピクセルレベルのPOC処理を採用する。ただし、上記の特性判定部362で関連付けされた線形モード画像と複合モード画像とを1セットとし、基準画像G1および参照画像G2のうち線形モード画像同士を使用した対応点探索結果と、複合モード画像同士を使用した対応点探索結果とを比較し、所定の精度判定条件で精度を判定して、より高い精度を持つ方を採用するようにしても良い。   In the present embodiment, specifically, the first corresponding point search processing unit 363a employs sub-pixel level POC processing based on the frequency characteristics of the base image G1 and the reference image G2 (generally a plurality of images), The second corresponding point search processing unit 363b employs SAD processing based on the correlation between the luminance values of the base image G1 and the reference image G2 (generally a plurality of images similarly), or employs pixel-level POC processing. To do. However, the corresponding mode search result using the linear mode images of the base image G1 and the reference image G2 as a set of the linear mode image and the composite mode image associated by the characteristic determination unit 362, and the composite mode image The corresponding point search result using each other may be compared, the accuracy may be determined under a predetermined accuracy determination condition, and the one with higher accuracy may be employed.

以下、対応点探索処理としてのSAD手法およびPOC手法の概略を説明する。ここでは、現フレームの取得時刻をtとし、現フレームより1フレーム前の前フレームの画像取得時刻をt−1とする。また、現フレームにおいて、基準画像G1に基準ウインドウg1(t)を、参照画像G2に参照ウインドウg2(t)をそれぞれ設定し、現フレームより1フレーム前の画像のウインドウはそれぞれ、g1(t−1)およびg2(t−1)と表現する。ただし、ウインドウg1,g2は図面上には表現されていない。   Hereinafter, an outline of the SAD method and the POC method as the corresponding point search processing will be described. Here, the acquisition time of the current frame is t, and the image acquisition time of the previous frame one frame before the current frame is t-1. Further, in the current frame, a standard window g1 (t) is set in the standard image G1, and a reference window g2 (t) is set in the reference image G2. The windows of the image one frame before the current frame are g1 (t− 1) and g2 (t-1). However, the windows g1 and g2 are not represented on the drawing.

<2−4−1.SAD(Sum of Absolute Difference)法を用いた対応点探索>
SADは、基準ウインドウg1(t−1)に対し、参照ウインドウg2(t)を位置的にずらしながら、式(1)により得られる相関値から基準ウインドウg1内の画像と参照ウインドウg2内の画像との相関を求め、相関が最も高い値を示すときの参照ウインドウg2の中心点を、注目点gp1の対応点gp2として探索する手法である。式(1)に示すようにSADは、2枚の画像の画素値(各画素の輝度)をそのまま減算することで相関値を算出することができるため、計算量が少なく、高速処理が可能であるという特徴をもつ。
<2-4-1. Search for corresponding points using SAD (Sum of Absolute Difference) method>
The SAD shifts the reference window g2 (t) with respect to the standard window g1 (t-1) while positioning the image in the standard window g1 and the image in the reference window g2 from the correlation value obtained by the equation (1). And the center point of the reference window g2 when the correlation shows the highest value is searched as the corresponding point gp2 of the attention point gp1. As shown in Equation (1), SAD can calculate the correlation value by subtracting the pixel values (luminance of each pixel) of the two images as they are, so the calculation amount is small and high-speed processing is possible. It has the characteristic of being.

Figure 2011232975
Figure 2011232975

ここで、Im1は基準ウインドウg1内の画像の画素値を示し、Im2は参照ウインドウg2内の画像の画素値を示す。Nはウインドウの水平方向のサイズを示し、Mはウインドウの垂直方向のサイズを示す。   Here, Im1 indicates the pixel value of the image in the standard window g1, and Im2 indicates the pixel value of the image in the reference window g2. N indicates the size of the window in the horizontal direction, and M indicates the size of the window in the vertical direction.

<2−4−2.POC(Phase Only Correlation)法を用いた対応点探索>
POCは、基準画像G1、参照画像G2に設定したウインドウ内の画像を周波数分解し、振幅成分を抑制した信号の相関(すなわち位相成分の相関)に基づいて対応点を探索する手法である。
<2-4-2. Corresponding point search using POC (Phase Only Correlation) method>
POC is a method of searching for corresponding points based on the correlation of signals whose amplitude components are suppressed (that is, the correlation of phase components) by frequency-decomposing the images in the window set as the standard image G1 and the reference image G2.

図8はPOC処理の流れを示す図であり、次の処理(i)〜(vi)がこの順番で行われる。   FIG. 8 is a diagram showing the flow of the POC process, and the following processes (i) to (vi) are performed in this order.

(i) 基準画像G1に設定された計測点に中心が位置するように基準ウインドウg1(t−1)が設定され、参照画像G2に参照ウインドウg2(t)が設定される。   (i) The reference window g1 (t−1) is set so that the center is located at the measurement point set in the reference image G1, and the reference window g2 (t) is set in the reference image G2.

(ii) 基準ウインドウg1(t−1)内の画像および参照ウインドウg2(t)内の画像が離散フーリエ変換され、画像Ga及び画像Gbが得られる。   (ii) Discrete Fourier transform is performed on the image in the reference window g1 (t-1) and the image in the reference window g2 (t) to obtain an image Ga and an image Gb.

(iii) 離散フーリエ変換された画像Ga及び画像Gbを規格化(すなわち振幅成分を一定化)して、画像Ga1及び画像Gb1が得られる。   (iii) The image Ga and the image Gb subjected to discrete Fourier transform are normalized (that is, the amplitude component is made constant), and the image Ga1 and the image Gb1 are obtained.

(iv) 規格化された画像Ga1及び画像Gb1が合成され、相関画像Rが得られる。   (iv) The normalized image Ga1 and the image Gb1 are synthesized, and the correlation image R is obtained.

(v) 相関画像Rが逆離散フーリエ変換され、POC関数rが得られる。図9はPOC関数rを示すグラフであり、急峻な相関ピークSを有し、画像マッチングにおけるロバスト性と推定精度とがSADに比べて高いことが知られている。そして、この相関ピークSの高さは基準ウインドウg1(t−1)内の画像および参照ウインドウg2(t)内の画像の相関が高いほど大きくなる。したがって、相関ピークSの位置を特定することで、基準ウインドウg1(t−1)に対する参照ウインドウg2(t)の位置ズレ量を算出することができる。   (v) The correlation image R is subjected to inverse discrete Fourier transform to obtain a POC function r. FIG. 9 is a graph showing the POC function r, which has a steep correlation peak S, and is known to have higher robustness and estimation accuracy in image matching than SAD. The height of the correlation peak S increases as the correlation between the image in the reference window g1 (t-1) and the image in the reference window g2 (t) increases. Therefore, by specifying the position of the correlation peak S, it is possible to calculate the positional deviation amount of the reference window g2 (t) with respect to the reference window g1 (t-1).

なお、POC関数rは、基準画像G1の画素単位、すなわち、ピクセルレベルで算出されているため、相関ピークの位置もピクセルレベルで求められるが、POC関数を補間し、サブピクセルレベルで相関ピークの位置を推定することも可能である。   Since the POC function r is calculated in pixel units of the reference image G1, that is, at the pixel level, the position of the correlation peak can also be obtained at the pixel level. However, the POC function is interpolated and the correlation peak is calculated at the sub-pixel level. It is also possible to estimate the position.

ピクセルレベルのPOCと比較して、サブピクセルレベルでのPOCは、処理精度は向上する一方で処理速度は低下する。このため、サブピクセルレベルでのPOCを用いる場合には、ピクセルレベルでのPOCを対数領域に、サブピクセルレベルでのPOCは線形領域にそれぞれ使用するという組合せが好ましい。   Compared with pixel-level POC, sub-pixel-level POC improves processing accuracy but decreases processing speed. For this reason, when using POC at the subpixel level, a combination of using the POC at the pixel level in the logarithmic region and the POC at the subpixel level in the linear region is preferable.

(vi)参照ウインドウg2(t)の中心点の座標に位置ズレ量を加算することにより得られる座標上の点が、注目点gp1に対する対応点gp2として算出することができる。   (Vi) A point on the coordinates obtained by adding the positional deviation amount to the coordinates of the center point of the reference window g2 (t) can be calculated as the corresponding point gp2 for the attention point gp1.

<2−4−3.特性領域に応じた対応点探索>
以下、特性判定部362で決められた線形領域および対数領域における対応点探索を、具体例を示しながら説明する。
<2-4-3. Search for corresponding points according to characteristic area>
Hereinafter, the corresponding point search in the linear region and the logarithmic region determined by the characteristic determination unit 362 will be described with a specific example.

図10は、領域の特性区分に応じた対応点探索方法を説明する図である。図10(a)では、入射光量にかかわらず線形変換特性で光電変換する線形撮像モードで撮像された画像信号であり、図10(b)では、入射光量に応じて線形変換特性と対数変換特性との間で光電変換特性が変化する複合撮像モードで撮像された画像信号を示す。図10(a)の実線で示される適正露出領域に対応する線形領域は、サブピクセルレベルでのPOC処理により高精度な探索を実施することができる。   FIG. 10 is a diagram for explaining a corresponding point search method according to the characteristic classification of the region. FIG. 10A shows an image signal captured in a linear imaging mode in which photoelectric conversion is performed with linear conversion characteristics regardless of the amount of incident light. In FIG. 10B, linear conversion characteristics and logarithmic conversion characteristics according to the amount of incident light. The image signal imaged in the composite imaging mode in which the photoelectric conversion characteristics change between and. The linear region corresponding to the appropriate exposure region indicated by the solid line in FIG. 10A can be searched with high accuracy by the POC processing at the subpixel level.

一方、図10(b)の複合撮像モードでは、出力点L1の位置は同じであるものの出力点L2の位置が移動し、図10(a)の破線で示された過剰露出領域が図10(b)では、対数領域となるため、SAD処理、または、ピクセルレベルのPOC処理により対応点探索を可能とする。また出力点L1と出力点L2との中間に位置する変曲点CP付近では、図10(c)で示されるように、温度によるバラツキが生じやすい。このように、変曲点CP付近に関しては精度が低下する可能性があるので、サブピクセルレベルでのPOC処理ではなく、SAD処理、あるいは、ピクセルレベルでのPOC処理を行うことが望ましい。   On the other hand, in the composite imaging mode of FIG. 10B, the position of the output point L2 is moved although the position of the output point L1 is the same, and the overexposure region indicated by the broken line in FIG. In b), since it is a logarithmic region, the corresponding point search is enabled by SAD processing or pixel level POC processing. Further, in the vicinity of the inflection point CP positioned between the output point L1 and the output point L2, as shown in FIG. Thus, since there is a possibility that the accuracy is lowered in the vicinity of the inflection point CP, it is desirable to perform SAD processing or POC processing at the pixel level instead of POC processing at the sub-pixel level.

また、図10(d)は撮像素子21aによる基準画像G1の画像信号であり、図10(e)は撮像素子22aによる参照画像G2の画像信号を示す。このように、撮像素子21aと撮像素子22aとの変曲点が異なって設定されている場合においても、線形領域となる範囲は対応点探索を高精度に実施することができる。   FIG. 10D shows an image signal of the reference image G1 by the image sensor 21a, and FIG. 10E shows an image signal of the reference image G2 by the image sensor 22a. As described above, even when the inflection points of the image sensor 21a and the image sensor 22a are set differently, the corresponding point search can be performed with high accuracy in the range that becomes the linear region.

以上のことから、線形変換特性で出力が可能な出力限界値MO付近までは、線形変換特性で出力し、それ以上は、対数変換特性で出力することが対応点探索を行うという点では望ましい。したがって、POC処理によりサブピクセルレベルで高精度に対応点探索を行うことを基本とし、線形撮像モードで撮影不可能な範囲はSAD処理やPOC処理によるピクセルレベルの対応点探索を行うことで周辺監視の精度を高め、高速に処理を行うことが可能となる。   From the above, it is desirable in terms of searching for corresponding points that the output is performed with the linear conversion characteristic up to the vicinity of the output limit value MO that can be output with the linear conversion characteristic, and the logarithmic conversion characteristic is output beyond that. Therefore, based on the high-precision search for corresponding points at the sub-pixel level by POC processing, the surroundings that cannot be captured in the linear imaging mode are monitored by searching for pixel-level corresponding points by SAD processing or POC processing. It is possible to increase the accuracy of the process and perform processing at high speed.

<2−5.距離情報算出部364>
距離情報算出部364では、対応点探索部363により処理された対応点探索結果に基づいて、撮像部2から被写体までの距離情報を算出する。
<2-5. Distance information calculation unit 364>
The distance information calculation unit 364 calculates distance information from the imaging unit 2 to the subject based on the corresponding point search result processed by the corresponding point search unit 363.

すなわち、同時刻に撮像された基準画像と参照画像とにおいて被写体各部の空間的対応関係が定まると、三角測量の原理によって撮像部2に対する被写体各部の3次元座標値が決定される。そして、このようにして得た3次元画像情報に基づいて、撮像部2から被写体各部への距離が算出される。   That is, when the spatial correspondence of each part of the subject is determined in the reference image and the reference image captured at the same time, the three-dimensional coordinate value of each part of the subject with respect to the imaging unit 2 is determined by the principle of triangulation. Based on the three-dimensional image information obtained in this way, the distance from the imaging unit 2 to each part of the subject is calculated.

そのようにして得た距離情報と、注目点の位置の時間的な変化量に相当するオプティカルフローとに基づいて、静止物体と移動物体との判別を行うこともできる。この部分については、例えば、特開2006−134035公報等で公知である。   Based on the distance information thus obtained and the optical flow corresponding to the temporal change amount of the position of the target point, it is also possible to discriminate between a stationary object and a moving object. This part is known, for example, in Japanese Patent Laid-Open No. 2006-134035.

<2−6.対象体候補検出部365>
図5の対象体候補検出部365では、距離情報算出部364により算出された距離情報に基づいて、撮影対象体の候補を検出する。
<2-6. Target Object Candidate Detection Unit 365>
The target object candidate detection unit 365 in FIG. 5 detects a candidate for the imaging target based on the distance information calculated by the distance information calculation unit 364.

<2−7.対象体判定部366>
対象体判定部366では、対象体候補検出部365により検出された撮影対象体(被写体)の3次元画像情報に基づいて、当該撮影対象体が所定の条件を満足するか否かの判定を行う。
<2-7. Object Determination Unit 366>
The target object determination unit 366 determines whether or not the target object satisfies a predetermined condition based on the three-dimensional image information of the target object (subject) detected by the target object detection unit 365. .

また、対象体判定部366は、判定の結果、衝突可能性のある物体が、(i)線形領域に存在した場合は、線形変換特性画像のウェイトを高めて撮影することを、(ii)対数領域に存在した場合は、対数変換特性画像のウェイトを高めて撮影することを、それぞれ撮像部2に指令し、取得する画像の設定変更をすることも可能である。すなわち、ステレオ画像における特定の被写体(特定の撮像対象体)が、線形領域および対数領域のうちの一方の領域だけに局在している場合には、撮像部2は、線形撮像モードおよび複合撮像モードのうち、局在領域に対応する一方の撮像モードでの撮像割合を増加させることができる。   In addition, the object determination unit 366 determines that, as a result of the determination, if an object that has a possibility of collision exists in (i) the linear region, the object is determined by increasing the weight of the linear transformation characteristic image (ii) logarithm. If it exists in the area, it is possible to instruct the imaging unit 2 to increase the weight of the logarithmic conversion characteristic image and to change the setting of the acquired image. That is, when a specific subject (specific imaging target) in a stereo image is localized only in one of a linear region and a logarithmic region, the imaging unit 2 performs linear imaging mode and composite imaging. Among the modes, the imaging ratio in one imaging mode corresponding to the localized region can be increased.

具体的には、走行中の車両から進行方向前方を撮像しているときには、車の進路空間に相当する範囲内またはその近傍にあり、かつ撮像部2からの距離が所定距離以下の対象体があれば、それは車両との衝突の可能性がある。   Specifically, when an image of the front in the traveling direction is taken from a traveling vehicle, an object that is in or near the range corresponding to the path space of the vehicle and has a distance from the imaging unit 2 of a predetermined distance or less. If so, it may be a collision with the vehicle.

そして、その対象体すなわち衝突懸念体が比較的暗いもの(たとえば黒っぽい服を着た歩行者)である場合には、衝突懸念体に対応する画像部分は線形領域に局在した状態となる。これは、前方の所定距離内にあると判定された被写体の画像部分の全部またはほとんど(たとえば80%以上に設定された所定の閾値割合以上)が線形領域に重なると判定されることに対応しており、この場合には、線形変換特性の割合を高めるという処理を行う。   When the target object, that is, the collision fear object is relatively dark (for example, a pedestrian wearing black clothes), the image portion corresponding to the collision fear object is localized in the linear region. This corresponds to the determination that all or most of the image portion of the subject determined to be within a predetermined distance ahead (for example, a predetermined threshold ratio set to 80% or higher) overlaps the linear region. In this case, processing for increasing the ratio of the linear conversion characteristic is performed.

その処理には2つの方法がある。その1は撮像フレーム割合の変更であり、たとえば1:1で線形モード画像と複合モード画像とを取得していたものを、衝突懸念体の局在が検出された後は、このフレーム比率を2:1や3:1とすることによって線形モード画像の取得頻度を相対的に高めるという方法である。危険状態が回避されるまで、一時的にすべてのフレームを線形モード画像としてもよい。   There are two methods for the processing. The first is a change in the imaging frame ratio. For example, in the case where the linear mode image and the composite mode image are acquired at 1: 1, the frame ratio is set to 2 after the localization of the collision concern object is detected. : 1 or 3: 1 is a method of relatively increasing the acquisition frequency of the linear mode image. Until the dangerous state is avoided, all the frames may be temporarily used as linear mode images.

その2は、複合モード画像での変曲点を上げる(入射光量が大きい側へ変曲点をシフトさせる)ことによって、複合モード画像内での線形領域を空間的に拡大するという方法である。後者の場合には、衝突懸念体が画面中を比較的高速で移動したときに、線形領域から対数領域に飛び出してしまい、対応点探索のための画像情報が急に劣化してしまうという事態を防止できる。   The second is a method of spatially expanding the linear region in the composite mode image by raising the inflection point in the composite mode image (shifting the inflection point to the side with the larger incident light amount). In the latter case, when the object of collision moves at a relatively high speed on the screen, it jumps out from the linear region to the logarithmic region, and the image information for searching for the corresponding point suddenly deteriorates. Can be prevented.

逆に、衝突懸念体が明るいとき、たとえばヘッドライトを点灯している車両が近づいて来るような場合には、衝突懸念体に対応する画像部分は対数領域に局在している。そこで、そのような場合には、上記2つの方法に対応して、それぞれ複合モード画像の取得割合(フレーム割合)を増やすか、複合モード画像での変曲点を下げて、対数領域を増大させる。   On the contrary, when the collision fear object is bright, for example, when a vehicle with a headlight on approaches, the image portion corresponding to the collision fear object is localized in the logarithmic region. In such a case, corresponding to the above two methods, the logarithmic region is increased by increasing the acquisition ratio (frame ratio) of the composite mode image or lowering the inflection point in the composite mode image. .

これらの対策をとることによって、最も着目すべき撮像対象体の情報の取得に適した光電変換特性を、動的に設定できる。   By taking these measures, it is possible to dynamically set a photoelectric conversion characteristic suitable for obtaining information of the imaging object that is most focused on.

このような特定の対象体としては、車両における衝突懸念体のほか、防犯監視カメラにおける人間の画像や、工業用カメラにおける生産ラインへの異物の侵入などがある。   Examples of such a specific target object include an object of collision in a vehicle, a human image in a security monitoring camera, and a foreign object intrusion into a production line in an industrial camera.

<2−8.警告部367>
警告部367では、対象体判定部366により撮影対象体が所定の条件に満足すると判定されたときに、警告を行う。例えば、得られた3次元画像情報に基づいて、画像中に存在する移動体(たとえば対向車)の移動速度と移動方向とを3次元的に算出し、自車の進路空間中にその移動体が侵入する可能性があるか否かを予測判定する。そして、対向車が衝突する可能性があると判定された場合などが想定される。この際に、スピーカ33による警告音とともに撮像中の画像をディスプレイ32に表示するようにしてもよい。ディスプレイ32の表示に関しては、衝突の可能性のない場合でも常時表示するようにしても良い。この実施形態のように線形モード画像と複合モード画像とをフレーム切り替えしている場合には、潰れが少なく、視覚的に見やすい、Linear-Log特性画像(複合モード画像)をディスプレイ32等の表示手段で表示させることが特に有効である。
<2-8. Warning section 367>
The warning unit 367 issues a warning when the object determination unit 366 determines that the object to be imaged satisfies a predetermined condition. For example, based on the obtained three-dimensional image information, a moving speed and a moving direction of a moving body (for example, an oncoming vehicle) existing in the image are calculated three-dimensionally, and the moving body is placed in the course space of the own vehicle. Predict whether or not there is a possibility of intrusion. And the case where it determines with the possibility of an oncoming vehicle colliding is assumed. At this time, an image being captured may be displayed on the display 32 together with a warning sound from the speaker 33. Regarding the display on the display 32, even when there is no possibility of a collision, it may be always displayed. When the linear mode image and the composite mode image are switched between frames as in this embodiment, a linear-Log characteristic image (composite mode image) that is less crushed and visually easy to display is displayed on the display 32 or the like. Is particularly effective.

<3.画像処理装置の基本動作>
図11および図12は、画像処理システム1において実現される対応点探索動作のフローを例示するフローチャートである。既に各部の個別機能の説明は行ったため、ここでは全体の流れのみ説明する。
<3. Basic Operation of Image Processing Device>
FIGS. 11 and 12 are flowcharts illustrating the flow of the corresponding point search operation realized in the image processing system 1. Since the individual functions of each unit have already been described, only the overall flow will be described here.

まず、例えば、ユーザーによる操作部31に対する操作に応じて、本動作フローが開始されて、図11のステップS1に進む。   First, for example, this operation flow is started in response to an operation on the operation unit 31 by the user, and the process proceeds to step S1 in FIG.

ステップS1では、ステレオ画像取得部361によって、基準画像G1と参照画像G2とからなるステレオ画像が取得される。   In step S1, the stereo image acquisition unit 361 acquires a stereo image composed of the standard image G1 and the reference image G2.

ステップS2では、特性判定部362によって、基準画像G1と参照画像G2との画像特性情報を取得する。   In step S2, the characteristic determination unit 362 acquires image characteristic information of the standard image G1 and the reference image G2.

ステップS3では、特性判定部362によって、基準画像G1と参照画像G2との両画像を関連づけることで、各領域が線形領域(適正露出領域)であるか、あるいは、対数領域(過剰露出領域)であるかの判定を行う。ここで、線形領域と判定された場合はステップS4へ進み、対数領域と判定された場合はステップS5へ進む。   In step S3, the characteristic determination unit 362 associates both the base image G1 and the reference image G2 so that each region is a linear region (appropriate exposure region) or a logarithmic region (overexposure region). Determine if there is any. If it is determined that the region is a linear region, the process proceeds to step S4. If it is determined that the region is a logarithmic region, the process proceeds to step S5.

ステップS4では、ステップS3において(特性判定部362によって)線形領域と判定された領域については、対応点探索部363のうち第1の対応点探索処理部363aが選択的に能動化され、サブピクセルレベルのPOC処理にて対応点探索が行われる。   In step S4, the first corresponding point search processing unit 363a of the corresponding point search unit 363 is selectively activated for the region determined to be a linear region (by the characteristic determination unit 362) in step S3, and the subpixels are activated. Corresponding point search is performed by the POC processing of the level.

ステップS5では、ステップS3において(特性判定部362によって)対数領域と判定された領域については、対応点探索部363のうち第2の対応点探索処理部363bが選択的に能動化され、SAD処理、または、ピクセルレベルのPOC処理にて対応点探索が行われる。   In step S5, the second corresponding point search processing unit 363b of the corresponding point search unit 363 is selectively activated for the region determined to be a logarithmic region in step S3 (by the characteristic determination unit 362), and the SAD processing is performed. Alternatively, corresponding point search is performed by pixel-level POC processing.

ステップS6では、距離情報算出部364によって、対応点探索部363により処理された基準画像G1の注目点gp1に対して参照画像G2の対応点gp2から、被写体OBとの距離情報が算出される。   In step S6, the distance information calculation unit 364 calculates distance information from the corresponding point gp2 of the reference image G2 with respect to the target point gp1 of the reference image G1 processed by the corresponding point search unit 363.

ステップS7では、対象体候補検出部365によって、距離情報算出部364で得られた距離情報を基に、被写体OBの候補が検出される。   In step S <b> 7, the object candidate detection unit 365 detects a candidate for the subject OB based on the distance information obtained by the distance information calculation unit 364.

ステップS8では、対象体判定部366によって、対象体候補検出部365により検出された撮影対象体の3次元画像情報が、当該被写体OBが所定の条件を満足するか否かの判定が行われる。   In step S8, the object determination unit 366 determines whether or not the subject OB satisfies a predetermined condition in the three-dimensional image information of the photographing object detected by the object candidate detection unit 365.

ステップS9では、ステップS8において(対象体判定部366によって)危険と判定された場合は、ステップS10に進み、そうでなければ、ステップS11に進む。   In step S9, when it determines with danger in step S8 (by the object determination part 366), it progresses to step S10, and when that is not right, it progresses to step S11.

ステップS10では、警告部367によって、対象体判定部366により衝突のある可能性があると判定された場合、警告が行われる。また、スピーカ33による警告音とともにディスプレイ32に警告表示を行う(ステップS11)。   In step S10, when the warning unit 367 determines that there is a possibility of a collision by the target object determination unit 366, a warning is given. Further, a warning is displayed on the display 32 together with a warning sound from the speaker 33 (step S11).

ステップS11では、対象体判定部366による危険性の有無に係わらず、ディスプレイ32における複合モード画像の表示を継続する。   In step S <b> 11, display of the composite mode image on the display 32 is continued regardless of the presence / absence of danger by the object determination unit 366.

ステップS12では、画像取得を継続するか否かが判定される。画像取得を継続する場合は、ステップS1に進み、操作者の指示入力によって画像取得を終える場合は、本動作フローが終了される。   In step S12, it is determined whether or not to continue image acquisition. If the image acquisition is to be continued, the process proceeds to step S1, and if the image acquisition is to be terminated by an instruction input by the operator, this operation flow is ended.

<4.変形例>
以上、本発明の実施形態について説明してきたが、本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
<4. Modification>
As mentioned above, although embodiment of this invention has been described, this invention is not limited to the said embodiment, A various deformation | transformation is possible.

※ 本実施形態では、説明の簡略化のために撮像部は2台構成となっているが、台数は2台に限られず、一般には、複数台の撮像部を持つ構成にこの発明は適用可能である。   * In this embodiment, the number of image pickup units is two for simplicity of explanation. However, the number of image pickup units is not limited to two. In general, the present invention can be applied to a configuration having a plurality of image pickup units. It is.

線形撮像モード専用の撮像素子と複合撮像モード専用の撮像素子とを別個に設けることもできる。この場合には、線形モード画像の特徴量を用いて複合モード画像の線形領域と対数領域とを判別するにあたって、これらの画像は同時刻で撮像されたものであるため、フレーム切り替え時間に相当する誤差を防止できる。   An image sensor dedicated to the linear imaging mode and an image sensor dedicated to the composite imaging mode may be provided separately. In this case, when discriminating between the linear region and the logarithmic region of the composite mode image using the feature amount of the linear mode image, these images are taken at the same time, and thus correspond to the frame switching time. An error can be prevented.

※ 本実施形態では、ステレオ画像取得部361が、線形変換特性画像とLinear-Log特性画像とを切り替えて取得しているが、Linear-Log特性画像だけ取得するようにしても良い。   * In the present embodiment, the stereo image acquisition unit 361 acquires the linear conversion characteristic image and the linear-log characteristic image by switching, but it may acquire only the linear-log characteristic image.

すなわち、取得画像のうち比較的明るい部分と比較的暗い部分とが時間的にあまり変動しない場合には、取得画像のどの領域が線形領域であり、どの部分が対数領域であるかをあらかじめ知ることが可能である。このような例としては、たとえば、エレベータ内の監視カメラのように、照明による照度分布が事前にほぼわかっている場合がある。   That is, if the relatively bright and relatively dark parts of the acquired image do not vary much in time, know in advance which area of the acquired image is a linear area and which part is a logarithmic area. Is possible. As such an example, there is a case where the illuminance distribution due to illumination is almost known in advance, such as a surveillance camera in an elevator.

このような場合には、線形モード画像について適正露出領域と過剰露出領域とを判定し、それに基づいて複合モード画像での線形領域と対数領域とを動的に判定しなくても、半固定的に線形領域と対数領域とを設定し、それぞれに異なる対応点探索方法を適用することができる。   In such a case, it is possible to determine the appropriate exposure region and the overexposure region for the linear mode image, and based on the determination, the linear region and the logarithmic region in the composite mode image are not dynamically determined, but semi-fixed. A linear region and a logarithmic region can be set in, and different corresponding point search methods can be applied to each.

※ 本実施形態では、特性判定部362が、線形領域と対数領域とを判定する方法について、露出オーバー領域を対数領域とみなして特性判定を行ったが、これに限られず、例えば下記の特定方法を利用することもできる。   * In the present embodiment, the characteristic determination unit 362 determines the characteristic by regarding the overexposed area as the logarithmic area as a method for determining the linear area and the logarithmic area. However, the present invention is not limited to this. Can also be used.

第1の判定方法では、時系列方向の情報をもとに被写体OBの位置を予測する方法である。すなわち、画像処理装置3が線形撮像モードと複合撮像モードとは同一の撮像素子の時間差でのモード切り換えであるため、対応点探索部363は、線形撮像モードの連続2回以上の撮像結果を時間的に外挿することにより、複合撮像モードにおける対応領域の場所を推定することが行われる。   The first determination method is a method for predicting the position of the subject OB based on information in the time series direction. In other words, since the image processing device 3 switches between the linear imaging mode and the composite imaging mode with a time difference between the same imaging elements, the corresponding point search unit 363 takes the imaging results of two or more consecutive times in the linear imaging mode over time. By extrapolating automatically, the location of the corresponding region in the composite imaging mode is estimated.

図7を参照して説明する。時刻Tと時刻T+2Δtとの線形モード画像から、自走速度、操舵情報などの情報を算出する。その情報を基に、時刻T+2Δtと時刻T+3Δtとの間の期間では、自車の走行パラメタが変わらないという前提で、時刻T(または時刻T+2Δt)の複合モード画像中の対数領域が、時刻T+3Δtのタイミングではどの位置に存在するかを予測(時間的に外挿)する。   This will be described with reference to FIG. Information such as the self-running speed and the steering information is calculated from the linear mode images at time T and time T + 2Δt. Based on the information, the logarithmic region in the composite mode image at time T (or time T + 2Δt) is the time T + 3Δt on the assumption that the traveling parameter of the host vehicle does not change during the period between time T + 2Δt and time T + 3Δt. It is predicted (extrapolated in time) where it exists at the timing.

このような構成を採用すれば、既述した実施形態の場合と比較して、移動速度のファクタが考慮されるため、より精密な探索が可能である。   By adopting such a configuration, a more precise search is possible because the factor of the moving speed is considered as compared with the case of the above-described embodiment.

第2の判定方法としては、実際に線形領域と対数領域とを判別して領域ごとに対応点探索を切り替えるのではなく、1つの対応点探索処理を一部について試行的に行った結果を基に、いずれの探索方法を全面的に行うかを決定する方法である。たとえば、複合モード画像の一部の領域をサンプリングし、それに対して対応点探索部363が、第1の対応点探索処理部363aによる対応点探索を部分的に行うとともに、当該部分的な対応点探索によって得られる対応点の信頼度を示す指標値を求める。そして、当該指標値が所定の閾値以上となっている場合には第1の対応点探索処理部363aによる処理を継続して複合モード画像の全体の対応点策を行う一方、当該指標値が当該閾値未満のときには、複合モード画像の残りの領域については第2の対応点探索処理部363bによる処理に切り換える。   As a second determination method, instead of actually determining a linear region and a logarithmic region and switching the corresponding point search for each region, the second determination method is based on the result of a trial of one corresponding point search process. In other words, it is a method for determining which search method is to be performed entirely. For example, a part of the composite mode image is sampled, and the corresponding point search unit 363 partially performs corresponding point search by the first corresponding point search processing unit 363a and the partial corresponding point. An index value indicating the reliability of the corresponding point obtained by the search is obtained. When the index value is equal to or greater than a predetermined threshold, the processing by the first corresponding point search processing unit 363a is continued to perform the overall countermeasure for the combined mode image, while the index value is When it is less than the threshold value, the remaining area of the composite mode image is switched to processing by the second corresponding point search processing unit 363b.

具体的には、時刻T+Δtで取得した画像に対し、ピクセルレベルのPOC処理を実施し、対応点探索結果から算出された信頼度を示す指標値により、SADで処理を行うように切り替えるか、継続してサブピクセルレベルのPOC処理を行うか否かの判定を行う。具体的には、信頼度を示す指標値として上記のPOC関数を用い、信頼度が低い(すなわちPOC関数のピークが所定の閾値未満)と判断されれば、対数領域とみなす。   Specifically, pixel level POC processing is performed on the image acquired at time T + Δt, and switching to SAD processing is performed according to an index value indicating the reliability calculated from the corresponding point search result, or continued. Then, it is determined whether or not sub-pixel level POC processing is performed. Specifically, the above POC function is used as an index value indicating the reliability, and if the reliability is determined to be low (that is, the peak of the POC function is less than a predetermined threshold value), it is regarded as a logarithmic region.

サンプリングは複合モード画像全体について1回であってもよく、複合モード画像を大まかに区域分けして、各区域ごとに1回のサンプリングであってもよい。たとえば画角を、中心部、左右側部、上部、下部のように区域分けし、上部のサンプリングと一方の対応点探索方法の試行によってよい結果が得られたときには、上部の全体についてはその対応点探索方法を採用する。中心部、左右側部、…についてはそれぞれ同様のことを行う。   Sampling may be performed once for the entire composite mode image, or the composite mode image may be roughly divided into sections and sampled once for each section. For example, if the field of view is divided into the center, left and right sides, top, and bottom, and good results are obtained by sampling the top and searching for one of the corresponding points, the response for the entire top A point search method is adopted. The same is done for the center, left and right sides,.

この第2の判定方法は、直接的な特性判定を行わず、対応点探索結果の良否によって画像領域が線形領域であるか対数領域であるかを間接的に推定する方法となっている。したがって、精度的には既述した実施形態の方が高いが、この第2の判定方法は、被写体の外形などに沿って細かく入り組んだ各領域ごとに特性判定を行わなくてすみ、大きめの領域に設定を行うことが可能になるため、全体としての処理速度は向上する。なお、無駄な処理を無くす目的で、複合モード画像で対数変換された領域のうち所定数以下の画素(典型的には数画素)からなる画素クラスターはノイズ領域とみなし、対応点探索方法を切り替える対象とはぜずに周囲と同じ方法で処理を行うようにしても良い。   The second determination method is a method for indirectly estimating whether the image region is a linear region or a logarithmic region based on the quality of the corresponding point search result without performing direct characteristic determination. Therefore, although the embodiment described above is higher in accuracy, the second determination method does not need to perform characteristic determination for each region intricately along the outer shape of the subject, and the larger region. Therefore, the overall processing speed is improved. For the purpose of eliminating wasteful processing, a pixel cluster composed of a predetermined number of pixels (typically several pixels) in the logarithmically transformed region of the composite mode image is regarded as a noise region, and the corresponding point search method is switched. You may make it process by the same method as the circumference | surroundings, without being a target.

第3の判定方法としては、変曲点の位置情報などから線形変換特性領域と対数変換特性領域とを決定する方法である。具体的には、ステレオ画像取得部361で、Linear-Log特性画像だけを取得するような場合は、撮像部2より変曲点CPの位置などの情報を取得し、出力値が、所定値より多いときは対数変換特性領域とし、所定値より小さいときは線形変換特性領域とすることも可能である。   As a third determination method, a linear transformation characteristic region and a logarithmic transformation property region are determined from position information of inflection points. Specifically, when only the Linear-Log characteristic image is acquired by the stereo image acquisition unit 361, information such as the position of the inflection point CP is acquired from the imaging unit 2, and the output value is more than a predetermined value. A logarithmic conversion characteristic region can be used when the number is large, and a linear conversion characteristic region can be used when the value is smaller than a predetermined value.

※ 本実施形態では、特徴量を輝度値としているが、これに限られず、例えば、周波数や物標検出結果などを特徴量とすることも可能である。   * In this embodiment, the feature value is a luminance value. However, the present invention is not limited to this. For example, a frequency or a target detection result can be used as the feature value.

1 画像処理システム
2 撮像部
3 画像処理装置
20 ステレオカメラ
21a,22b 撮像素子
A0,A2,…(B0,B2,…) 線形モード画像
A1,A3,…(B1,B3,…) 複合モード画像
LN0,LN2,… 適正露出領域
LN1,LN3,… 線形領域
LG0,LG2,… 過剰露出領域
LG1,LG3,… 対数領域
CP 変曲点
G1 基準画像
G2 参照画像
DESCRIPTION OF SYMBOLS 1 Image processing system 2 Image pick-up part 3 Image processing apparatus 20 Stereo camera 21a, 22b Image pick-up element A0, A2, ... (B0, B2, ...) Linear mode image A1, A3, ... (B1, B3, ...) Composite mode image LN0 , LN2, ... Proper exposure area LN1, LN3, ... Linear area LG0, LG2, ... Overexposure area LG1, LG3, ... Logarithmic area CP Inflection point G1 Reference image G2 Reference image

Claims (14)

入射光量に応じて線形変換特性と対数変換特性との間で光電変換特性が切り換わるステレオ撮像手段を用いて撮像されたステレオ画像信号を入力し、前記ステレオ画像信号に含まれる複数の画像間の空間的対応関係を決定して撮像対象体の3次元画像情報を得る画像処理装置であって、
(a) 前記ステレオ画像信号のうち、
線形変換特性で得られた画像領域としての線形領域には、第1の対応点探索方法を適用して前記複数の画像間の対応点探索を行い、
対数変換特性で得られた画像領域としての対数領域には、第2の対応点探索方法を適用して前記複数の画像間の対応点探索を行なう対応点探索手段と、
(b) 前記対応点探索手段による対応点探索結果に基づいて、撮像対象体の3次元画像情報を得る手段と、
を備え、
前記第1の対応点探索方法として、前記第2の対応点探索方法よりも高精度の探索結果を与える方法が採用される一方、
前記第2の対応点探索方法として、前記第1の対応点探索方法よりも高速に探索結果を与える方法が採用されていることを特徴とする画像処理装置。
A stereo image signal picked up using a stereo image pickup means whose photoelectric conversion characteristics are switched between a linear conversion characteristic and a logarithmic conversion characteristic in accordance with the amount of incident light, and input between a plurality of images included in the stereo image signal An image processing device that determines spatial correspondence to obtain three-dimensional image information of an imaging target,
(a) Of the stereo image signals,
Applying the first corresponding point search method to the linear region as the image region obtained by the linear transformation characteristic, the corresponding point search between the plurality of images is performed,
Corresponding point search means for searching corresponding points between the plurality of images by applying a second corresponding point searching method to a logarithmic region as an image region obtained by logarithmic transformation characteristics;
(b) means for obtaining three-dimensional image information of the imaging object based on the corresponding point search result by the corresponding point search means;
With
While the first corresponding point search method employs a method that gives a search result with higher accuracy than the second corresponding point search method,
As the second corresponding point search method, an image processing apparatus characterized in that a method that provides a search result at a higher speed than the first corresponding point search method is employed.
請求項1に記載の画像処理装置であって、
前記画像処理装置が、
前記ステレオ画像の各画像領域の特徴量に基づいて、前記ステレオ画像の各画像領域が線形領域であるか対数領域であるかを判定する特性判定手段、
をさらに備え、
前記対応点探索手段は、
前記特性判定手段の判定結果に基づいて、画像領域ごとに、前記第1と第2の対応点探索方法とのいずれか一方を選択して適用することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus is
Characteristic determining means for determining whether each image area of the stereo image is a linear area or a logarithmic area based on a feature amount of each image area of the stereo image;
Further comprising
The corresponding point search means includes
An image processing apparatus, wherein one of the first and second corresponding point search methods is selected and applied for each image region based on a determination result of the characteristic determination unit.
請求項2に記載の画像処理装置であって、
前記ステレオ撮像手段に、
入射光量にかかわらず線形変換特性で光電変換する線形撮像モードでの撮像と、
入射光量に応じて線形変換特性と対数変換特性との間で光電変換特性が変化する複合撮像モードでの撮像とを、周期的に切り替えて実行させるマルチモード撮影制御手段、
をさらに備え、
前記特性判定手段は、
前記複合撮像モードで得たステレオ画像の各画像領域が線形領域であるか対数領域であるかについての判定を、前記線形撮像モードで得たステレオ画像に基づいて実行することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
In the stereo imaging means,
Imaging in linear imaging mode that performs photoelectric conversion with linear conversion characteristics regardless of the amount of incident light,
Multi-mode imaging control means for periodically switching and executing imaging in a composite imaging mode in which photoelectric conversion characteristics change between linear conversion characteristics and logarithmic conversion characteristics in accordance with the amount of incident light;
Further comprising
The characteristic determination means includes
Image processing for determining whether each image area of a stereo image obtained in the composite imaging mode is a linear area or a logarithmic area based on the stereo image obtained in the linear imaging mode apparatus.
請求項3に記載の画像処理装置であって、
前記特性判定手段が、
前記線形撮像モードで得られた画像における露出オーバー領域を検出する手段と、
前記複合撮像モードで得られた画像において、前記露出オーバー領域に対応する対応領域を特定する手段と、
を備え、
前記対応点探索手段は、
前記複合撮像モードで得られた画像のうち、
前記対応領域については前記第2の対応点探索方法によって対応点探索を行い、
残余の領域については前記第1の対応点探索方法によって対応点探索を行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 3,
The characteristic determination means is
Means for detecting an overexposed region in the image obtained in the linear imaging mode;
Means for identifying a corresponding region corresponding to the overexposed region in the image obtained in the composite imaging mode;
With
The corresponding point search means includes
Of the images obtained in the composite imaging mode,
For the corresponding region, the corresponding point search is performed by the second corresponding point search method,
The remaining region is searched for corresponding points by the first corresponding point searching method.
請求項3または請求項4に記載の画像処理装置であって、
前記線形撮像モードと前記複合撮像モードとは同一の撮像素子の時間差でのモード切り換えであり、
前記対応点探索手段は、
前記線形撮像モードの連続2回以上の撮像結果を時間的に外挿することにより、前記複合撮像モードにおける前記対応領域の場所を推定することを特徴とする画像処理装置。
The image processing apparatus according to claim 3 or 4, wherein:
The linear imaging mode and the composite imaging mode are mode switching at the time difference of the same imaging device,
The corresponding point search means includes
An image processing apparatus, wherein the location of the corresponding region in the composite imaging mode is estimated by extrapolating temporally two or more consecutive imaging results in the linear imaging mode.
請求項1に記載の画像処理装置であって、
前記対応点探索決定手段が、
前記第1の対応点探索方法による対応点探索を部分的に行うとともに、当該部分的な対応点探索によって得られる対応点の信頼度を示す指標値を求める手段と、
前記指標値が所定の閾値以上となっている場合には前記第1の対応点探索方法を継続する一方、前記指標値が前記閾値未満のときには前記第2の対応点探索方法に切り換える手段と、
を備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The corresponding point search determining means,
Means for partially performing the corresponding point search by the first corresponding point search method and obtaining an index value indicating the reliability of the corresponding point obtained by the partial corresponding point search;
Means for continuing the first corresponding point searching method when the index value is equal to or greater than a predetermined threshold, and switching to the second corresponding point searching method when the index value is less than the threshold;
An image processing apparatus comprising:
請求項1ないし請求項6の何れかに記載の画像処理装置であって、
前記第1の対応点探索方法は、
前記複数の画像の周波数特性に基づいて、サブピクセル精度での対応点探索を行う方法であることを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 6,
The first corresponding point search method includes:
An image processing apparatus, comprising: a method for searching for corresponding points with sub-pixel accuracy based on frequency characteristics of the plurality of images.
請求項1ないし請求項6の何れかに記載の画像処理装置であって、
前記第2の対応点探索方法は、
前記複数の画像の輝度値の相互関係に基づいて、対応点探索を行う方法であることを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 6,
The second corresponding point search method includes:
An image processing apparatus, comprising: a method for searching for corresponding points based on a correlation between luminance values of the plurality of images.
請求項1ないし請求項6の何れかに記載の画像処理装置であって、
前記第2の対応点探索方法は、
前記複数の画像の周波数特性に基づいて、ピクセル精度で対応点探索を行う方法であることを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 6,
The second corresponding point search method includes:
An image processing apparatus, comprising: a method of searching for corresponding points with pixel accuracy based on frequency characteristics of the plurality of images.
請求項1ないし請求項9の何れかに記載の画像処理装置と、
前記撮影対象体の3次元画像情報に基づいて、前記撮影対象体が所定の条件を満足するか否かの判定を行う対象体判定手段と、
前記対象体判定手段により前記撮影対象体が前記所定の条件に満足すると判定されたときに、警告を行う警告手段と、
を備えることを特徴とする周辺監視システム。
An image processing apparatus according to any one of claims 1 to 9,
Object determination means for determining whether or not the shooting object satisfies a predetermined condition based on the three-dimensional image information of the shooting object;
Warning means for giving a warning when it is determined by the object determination means that the object to be photographed satisfies the predetermined condition;
A perimeter monitoring system comprising:
請求項3ないし請求項5のいずれかに記載の画像処理装置と、
前記撮影対象体の3次元画像情報に基づいて、前記撮影対象体が所定の条件を満足するか否かの判定を行う対象体判定手段と、
前記対象体判定手段により前記撮影対象体が前記所定の条件に満足すると判定されたときに、警告を行う警告手段と、
を備え、
前記ステレオ画像における前記撮影対象体が、前記線形領域および前記対数領域のうちの一方の領域だけに局在している場合には、前記マルチモード撮影制御手段は、前記線形撮像モードおよび前記複合撮像モードのうち、当該局在領域に対応する一方の撮像モードでの撮像割合を増加させることを特徴とする周辺監視システム。
An image processing apparatus according to any one of claims 3 to 5,
Object determination means for determining whether or not the shooting object satisfies a predetermined condition based on the three-dimensional image information of the shooting object;
Warning means for giving a warning when it is determined by the object determination means that the object to be photographed satisfies the predetermined condition;
With
When the object to be imaged in the stereo image is localized only in one of the linear area and the logarithmic area, the multi-mode imaging control means is configured to use the linear imaging mode and the composite imaging. A periphery monitoring system characterized by increasing an imaging ratio in one imaging mode corresponding to the localized region among the modes.
請求項10または請求項11に記載の周辺監視システムであって、
前記警告手段が、
前記複合撮影モードでの撮像で得た画像を所定の画面表示手段に表示させる表示制御手段、
を備えることを特徴とする周辺監視システム。
The perimeter monitoring system according to claim 10 or 11,
The warning means is
Display control means for displaying an image obtained by imaging in the composite photographing mode on a predetermined screen display means;
A perimeter monitoring system comprising:
コンピュータにインストールされて実行されることによって、前記コンピュータを、請求項1ないし請求項9のいずれかに記載の画像処理装置として機能させることを特徴とするプログラム。   A program that, when installed in a computer and executed, causes the computer to function as the image processing apparatus according to any one of claims 1 to 9. 請求項13に記載のプログラムであって、
前記プログラムを前記コンピュータで実行させることにより、前記コンピュータを、請求項10ないし請求項12のいずれかに記載の周辺監視システム用の画像処理装置として機能させることを特徴とするプログラム。
The program according to claim 13,
13. A program that causes the computer to function as the image processing apparatus for the periphery monitoring system according to claim 10 by causing the computer to execute the program.
JP2010103081A 2010-04-28 2010-04-28 Image processing apparatus, periphery monitoring system, and program Expired - Fee Related JP5440364B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010103081A JP5440364B2 (en) 2010-04-28 2010-04-28 Image processing apparatus, periphery monitoring system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010103081A JP5440364B2 (en) 2010-04-28 2010-04-28 Image processing apparatus, periphery monitoring system, and program

Publications (2)

Publication Number Publication Date
JP2011232975A true JP2011232975A (en) 2011-11-17
JP5440364B2 JP5440364B2 (en) 2014-03-12

Family

ID=45322228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010103081A Expired - Fee Related JP5440364B2 (en) 2010-04-28 2010-04-28 Image processing apparatus, periphery monitoring system, and program

Country Status (1)

Country Link
JP (1) JP5440364B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000134467A (en) * 1998-10-26 2000-05-12 Canon Inc Image processing method, unit and storage medium
JP2006060292A (en) * 2004-08-17 2006-03-02 Konica Minolta Holdings Inc Imaging apparatus
JP2007081806A (en) * 2005-09-14 2007-03-29 Konica Minolta Holdings Inc Image sensing system
JP2009014445A (en) * 2007-07-03 2009-01-22 Konica Minolta Holdings Inc Range finder
JP2009146296A (en) * 2007-12-17 2009-07-02 Konica Minolta Holdings Inc Image corresponding point search device, and distance measuring equipment and image motion detector using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000134467A (en) * 1998-10-26 2000-05-12 Canon Inc Image processing method, unit and storage medium
JP2006060292A (en) * 2004-08-17 2006-03-02 Konica Minolta Holdings Inc Imaging apparatus
JP2007081806A (en) * 2005-09-14 2007-03-29 Konica Minolta Holdings Inc Image sensing system
JP2009014445A (en) * 2007-07-03 2009-01-22 Konica Minolta Holdings Inc Range finder
JP2009146296A (en) * 2007-12-17 2009-07-02 Konica Minolta Holdings Inc Image corresponding point search device, and distance measuring equipment and image motion detector using the same

Also Published As

Publication number Publication date
JP5440364B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
US10812733B2 (en) Control method, control device, mobile terminal, and computer-readable storage medium
JP5587930B2 (en) Distance calculation device and distance calculation method
US9378425B2 (en) On-vehicle image processing device
JP5615441B2 (en) Image processing apparatus and image processing method
KR101336139B1 (en) System and method for motion estimating using depth camera
WO2010047015A1 (en) Vehicle periphery monitoring device
JP5809751B2 (en) Object recognition device
KR20180018736A (en) Method for acquiring photographing device and depth information
JP2006072495A (en) Three-dimensional object monitoring device
JP2013157770A (en) On-vehicle camera exposure control device
KR20130014466A (en) P0sition measurement apparatus and p0sition measuring method
EP2913998B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
JP3570198B2 (en) Image processing method and apparatus
JP2007195141A (en) Device and method for computing image velocity
JP2019061303A (en) Periphery monitoring apparatus and periphery monitoring method for vehicle
US20150264332A1 (en) System and method for selecting a two-dimensional region of interest using a range sensor
EP3637758A1 (en) Image processing device
JP3999088B2 (en) Obstacle detection device
CN101477412B (en) Movement perception method with sub-pixel level precision
JP5440364B2 (en) Image processing apparatus, periphery monitoring system, and program
JP2014238409A (en) Distance calculation device and distance calculation method
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
CN115526897A (en) Flame positioning method and system for fire-fighting robot of extra-high voltage converter station
JP2019079338A (en) Object detection system
JP6152646B2 (en) Compound eye camera device and vehicle equipped with the same

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131202

R150 Certificate of patent or registration of utility model

Ref document number: 5440364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371