JP2010171530A - Imaging controller - Google Patents

Imaging controller Download PDF

Info

Publication number
JP2010171530A
JP2010171530A JP2009010097A JP2009010097A JP2010171530A JP 2010171530 A JP2010171530 A JP 2010171530A JP 2009010097 A JP2009010097 A JP 2009010097A JP 2009010097 A JP2009010097 A JP 2009010097A JP 2010171530 A JP2010171530 A JP 2010171530A
Authority
JP
Japan
Prior art keywords
image
imaging
correction
correction amount
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009010097A
Other languages
Japanese (ja)
Other versions
JP5156654B2 (en
Inventor
Masatsugu Yoshifuku
昌嗣 吉福
Naotaka Kumakiri
直隆 熊切
Takashi Furukawa
孝 古川
Yusuke Muramatsu
雄介 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2009010097A priority Critical patent/JP5156654B2/en
Publication of JP2010171530A publication Critical patent/JP2010171530A/en
Application granted granted Critical
Publication of JP5156654B2 publication Critical patent/JP5156654B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging controller that easily optimizes an imaging state. <P>SOLUTION: The imaging controller 10 includes a mechanism portion 22 and a signal correction portion 31 which correct image data output from an imaging element 23, a correction amount control portion 40 which sets correction amounts so that correction amounts differ for each of a plurality of corrections, a processing data generation portion 33 which acquires a plurality of image data within a predetermined time according to change in correction amount and generates a processing image for each correction amount based upon the image data, a feature quantity extraction portion 35 which extracts a plurality of feature quantities from the processing images, a reference value storage portion 37 which stores reference values of the plurality of feature quantities, a correction amount storage portion 39 which stores the correction amounts, a matching degree calculation portion 36 which calculates degrees of matching between the reference values and the feature quantities extracted by the feature quantity extraction portion 35, and a reference correction amount setting portion 38 which sets a correction amount corresponding to a reference value having the highest degree of matching as a reference correction amount. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、撮像制御装置に関する。   The present invention relates to an imaging control apparatus.

従来、例えば画像の測光データから複数の特徴量を抽出し、これらの複数の特徴量に基づき、予め設定された複数パターンに対応付けられた複数の露光量演算式に、各特徴量と判定条件との一致度に基づく重み付けを行い、これらの重み付けに応じて複数の露光量演算式により露光量を算出する複写装置が知られている(例えば、特許文献1参照)。
また、従来、例えば車室内の座席領域を撮像する撮像装置の撮像画像内に露光枠を設定して、この露光枠内の画素毎の輝度値に基づいて撮像装置の露光を調整する車両用撮像装置が知られている(例えば、特許文献2参照)。
Conventionally, for example, a plurality of feature amounts are extracted from photometric data of an image, and based on these plurality of feature amounts, each feature amount and determination condition are expressed in a plurality of exposure amount calculation expressions associated with a plurality of preset patterns. There is known a copying apparatus that performs weighting based on the degree of coincidence and calculates an exposure amount using a plurality of exposure amount calculation formulas according to these weightings (see, for example, Patent Document 1).
Conventionally, for example, a vehicle imaging in which an exposure frame is set in a captured image of an imaging device that captures a seat area in a vehicle interior and the exposure of the imaging device is adjusted based on a luminance value for each pixel in the exposure frame. An apparatus is known (see, for example, Patent Document 2).

特許第2612956号公報Japanese Patent No. 2612956 特開2006−264404号公報JP 2006-264404 A

ところで、上記従来技術に係る複写装置によれば、重み付けされた複数の露光量演算式により算出された露光量が原画像の全領域の複写に採用されるだけであり、実際の複写により得られた複写画像が原画像に対して最適であるか否か、つまり露光量が原画像に対して最適であるか否かについては考慮されていない。
また、上記従来技術に係る車両用撮像装置によれば、単に、露光枠内の領域が所望の明度となるように露光を調整するだけであって、撮像状態を詳細に最適化することは困難であるという問題が生じる。
本発明は上記事情に鑑みてなされたもので、撮像状態を容易に最適化することが可能な撮像制御装置を提供することを目的としている。
By the way, according to the above-described conventional copying apparatus, the exposure amount calculated by the plurality of weighted exposure amount calculation formulas is only used for copying the entire area of the original image, and can be obtained by actual copying. Whether the copied image is optimal for the original image, that is, whether the exposure amount is optimal for the original image is not taken into consideration.
In addition, according to the above-described vehicular imaging apparatus, it is difficult to optimize the imaging state in detail simply by adjusting the exposure so that the area within the exposure frame has a desired brightness. The problem arises.
The present invention has been made in view of the above circumstances, and an object thereof is to provide an imaging control apparatus that can easily optimize an imaging state.

上記課題を解決して係る目的を達成するために、本発明の第1態様に係る撮像制御装置は、所定の撮像対象領域を撮像して得た画像からなる画像情報を出力する撮像素子(例えば、実施の形態での撮像素子23)と、前記撮像素子から出力される前記画像情報を補正する補正手段(例えば、実施の形態での機構部22および信号補正部31)と、複数の前記補正毎の補正量が異なるように設定する補正量設定手段(例えば、実施の形態での補正量制御部40)と、前記補正量の変化に応じて所定時間内に複数の前記画像情報を取得し、各前記補正量毎に前記画像情報に基づき処理用画像を生成する処理用画像生成手段(例えば、実施の形態での処理用データ生成部33)と、前記処理用画像から複数の特徴量を抽出する特徴量抽出手段(例えば、実施の形態での特徴量抽出部35)と、前記複数の前記特徴量の基準値を記憶する第1記憶手段(例えば、実施の形態での基準値記憶部37)と、前記補正量を記憶する第2記憶手段(例えば、実施の形態での補正量記憶部39)と、前記第1記憶手段に記憶された前記基準値と、前記特徴量抽出手段により抽出された前記特徴量との一致度を演算する演算手段(例えば、実施の形態での一致度演算部36)と、前記演算手段により演算された前記一致度が最も高い前記基準値に対応する前記第2記憶手段に記憶された前記補正量を、基準補正量として設定する基準補正量設定手段(例えば、実施の形態での基準補正量設定部38)とを備える。   In order to solve the above-described problems and achieve the object, the imaging control device according to the first aspect of the present invention provides an imaging device (for example, an image sensor that outputs image information including images obtained by imaging a predetermined imaging target region (for example, The image sensor 23 in the embodiment, correction means for correcting the image information output from the image sensor (for example, the mechanism unit 22 and the signal correction unit 31 in the embodiment), and a plurality of the corrections. Correction amount setting means (for example, the correction amount control unit 40 in the embodiment) that sets the correction amount for each different, and a plurality of the image information is acquired within a predetermined time according to the change of the correction amount. A processing image generation unit (for example, a processing data generation unit 33 in the embodiment) that generates a processing image based on the image information for each correction amount, and a plurality of feature amounts from the processing image. Feature extraction means to extract (for example, , A feature amount extraction unit 35) in the embodiment, a first storage unit (for example, a reference value storage unit 37 in the embodiment) that stores reference values of the plurality of feature amounts, and the correction amount. Second storage means for storing (for example, the correction amount storage unit 39 in the embodiment), the reference value stored in the first storage means, and the feature amount extracted by the feature amount extraction means Calculation means for calculating the degree of coincidence (for example, the degree of coincidence calculation unit 36 in the embodiment) and the second storage means corresponding to the reference value having the highest degree of coincidence calculated by the calculation means. And a reference correction amount setting means (for example, a reference correction amount setting unit 38 in the embodiment) that sets the correction amount as a reference correction amount.

さらに、本発明の第2態様に係る撮像制御装置では、前記特徴量は、前記処理用画像の輝度の度数分布での度数に係る度数状態量を含む。   Furthermore, in the imaging control device according to the second aspect of the present invention, the feature amount includes a frequency state amount related to the frequency in the frequency distribution of the luminance of the processing image.

さらに、本発明の第3態様に係る撮像制御装置では、前記特徴量は、前記処理用画像の輝度に係る輝度状態量を含む。   Furthermore, in the imaging control device according to the third aspect of the present invention, the feature amount includes a luminance state amount related to the luminance of the processing image.

さらに、本発明の第4態様に係る撮像制御装置では、前記特徴量は、前記処理用画像の輝度の度数分布での統計値に係る統計状態量を含む。   Furthermore, in the imaging control device according to the fourth aspect of the present invention, the feature amount includes a statistical state amount related to a statistical value in a luminance frequency distribution of the processing image.

さらに、本発明の第5態様に係る撮像制御装置では、前記演算手段は、前記第1記憶手段に記憶された前記基準値と、前記特徴量抽出手段により抽出された前記特徴量との内積を演算し、前記基準補正量設定手段は、前記内積が最も大きい前記基準値に対応する前記第2記憶手段に記憶された前記補正量を、前記基準補正量として設定する。   Furthermore, in the imaging control device according to the fifth aspect of the present invention, the calculation means calculates an inner product of the reference value stored in the first storage means and the feature quantity extracted by the feature quantity extraction means. Then, the reference correction amount setting means sets the correction amount stored in the second storage means corresponding to the reference value having the largest inner product as the reference correction amount.

さらに、本発明の第6態様に係る撮像制御装置は、複数の前記撮像素子から出力される前記画像情報に基づき前記画像の画素に対応した実空間での距離情報による距離分布を取得可能な距離分布取得手段(例えば、実施の形態での距離分布演算部32)を備え、前記処理用画像生成手段は、前記距離分布を有する前記処理用画像を生成し、前記補正量の変化に応じた前記距離分布の変化量に基づき、複数の前記処理用画像を合成して距離画像を生成する距離画像生成手段(例えば、実施の形態での距離データ生成部34)を備える。   Furthermore, the imaging control device according to the sixth aspect of the present invention can acquire a distance distribution based on distance information in real space corresponding to the pixels of the image based on the image information output from the plurality of imaging elements. A distribution acquisition unit (for example, a distance distribution calculation unit 32 in the embodiment), and the processing image generation unit generates the processing image having the distance distribution, and changes the correction amount according to the correction amount. A distance image generation unit (for example, a distance data generation unit in the embodiment) that generates a distance image by combining a plurality of the processing images based on the amount of change in the distance distribution is provided.

さらに、本発明の第7態様に係る撮像制御装置は、各前記処理用画像毎に画素に対応した実空間での距離情報を演算する距離情報演算手段(例えば、実施の形態でのステップS07)と、前記距離情報演算手段により演算された前記距離情報のうち所定の基準距離と一致する前記距離情報に対応する画素領域を前記処理用画像から除外して注目領域を設定する注目領域設定手段(例えば、実施の形態でのステップS07が兼ねる)とを備え、前記特徴量抽出手段は、前記注目領域から前記特徴量を抽出する。   Furthermore, the imaging control apparatus according to the seventh aspect of the present invention provides distance information calculation means (for example, step S07 in the embodiment) that calculates distance information in the real space corresponding to the pixel for each processing image. A region-of-interest setting unit that sets a region of interest by excluding a pixel region corresponding to the distance information that coincides with a predetermined reference distance from the distance information calculated by the distance information calculation unit. For example, the feature amount extracting unit extracts the feature amount from the region of interest.

さらに、本発明の第8態様に係る撮像制御装置では、前記特徴量は、前記距離情報に係る距離状態量を含む。   Furthermore, in the imaging control device according to the eighth aspect of the present invention, the feature amount includes a distance state amount related to the distance information.

さらに、本発明の第9態様に係る撮像制御装置は、前記演算手段により演算された前記一致度が所定値以下の場合に、前記撮像素子による撮像を停止する停止手段(例えば、実施の形態での撮像制御部41)を備える。   Further, the imaging control apparatus according to the ninth aspect of the present invention provides a stopping unit (for example, in the embodiment) that stops imaging by the imaging device when the degree of coincidence calculated by the calculating unit is a predetermined value or less. Imaging control unit 41).

本発明の第1態様に係る撮像制御装置によれば、複数の異なる補正量毎に対応して複数の処理用画像を生成し、各処理用画像毎に複数の特徴量を抽出し、各処理用画像毎に複数の特徴量と基準値との一致度を演算することにより、一致度が最も高い処理用画像つまり補正量を検知することができる。この補正量を基準補正量として、画像情報の補正、例えば露出などの撮像状態の補正あるいは撮像により得られた画像のガンマ補正などの画像処理の補正を、容易かつ詳細に最適化することができる。   According to the imaging control device of the first aspect of the present invention, a plurality of processing images are generated corresponding to a plurality of different correction amounts, a plurality of feature amounts are extracted for each processing image, and each processing is performed. By calculating the degree of coincidence between a plurality of feature amounts and a reference value for each image, a processing image having the highest degree of coincidence, that is, a correction amount can be detected. Using this correction amount as a reference correction amount, it is possible to easily and in detail optimize image information correction, for example, correction of an imaging state such as exposure or image processing correction such as gamma correction of an image obtained by imaging. .

さらに、本発明の第2態様に係る撮像制御装置によれば、度数状態量での一致度に応じた補正により撮像対象物の占有域を把握することができる。
さらに、本発明の第3態様に係る撮像制御装置によれば、輝度状態量での一致度に応じた補正により撮像対象物を的確に識別することができる。
さらに、本発明の第4態様に係る撮像制御装置によれば、統計状態量での一致度に応じた補正により基準形状に少なくとも一部が一致する撮像対象物を検知することかできる。
Furthermore, according to the imaging control device according to the second aspect of the present invention, it is possible to grasp the occupation area of the imaging object by correction according to the degree of coincidence in the frequency state quantity.
Furthermore, according to the imaging control device according to the third aspect of the present invention, it is possible to accurately identify the imaging object by correction according to the degree of coincidence in the luminance state quantity.
Furthermore, according to the imaging control device according to the fourth aspect of the present invention, it is possible to detect an imaging object that at least partially matches the reference shape by correction according to the degree of matching in the statistical state quantity.

さらに、本発明の第5態様に係る撮像制御装置によれば、複数の特徴量による多次元ベクトル空間において、処理用画像から抽出した複数の特徴量と基準値との内積を演算することから、加算および積算のみで演算処理を構成することができ、演算処理に要する時間を短縮して、基準補正量を迅速に設定することができる。   Furthermore, according to the imaging control device according to the fifth aspect of the present invention, in a multidimensional vector space with a plurality of feature amounts, the inner product of the plurality of feature amounts extracted from the processing image and the reference value is calculated. Arithmetic processing can be configured only by addition and integration, and the time required for the arithmetic processing can be shortened and the reference correction amount can be set quickly.

さらに、本発明の第6態様に係る撮像制御装置によれば、異なる補正量で補正された画像情報による処理用画像を合成して距離画像とすることにより、取得可能な距離情報が失われたり、距離情報の信頼性が低下してしまうこと無しに、たとえ撮像素子の感度およびダイナミックレンジが小さい場合であっても、所望の分解能で距離情報を取得可能な画素の領域を拡大させることができる。これにより、例えば画像の全領域で一律に輝度を増大させるだけの補正をおこなう場合に比べて、低輝度領域あるいは高輝度領域での距離情報の検知が困難になることを防止し、距離情報を精度良く検知することができる。   Furthermore, according to the imaging control device according to the sixth aspect of the present invention, the distance information that can be acquired may be lost by synthesizing the processing image based on the image information corrected with different correction amounts into the distance image. Even if the sensitivity and dynamic range of the image sensor are small, the area of pixels from which distance information can be acquired with a desired resolution can be expanded without degrading the reliability of distance information. . This prevents the distance information from becoming difficult to detect in the low-brightness area or the high-brightness area, compared with the case where correction is performed to increase the brightness uniformly in the entire area of the image, for example. It can be detected with high accuracy.

さらに、本発明の第7態様に係る撮像制御装置によれば、注目領域から抽出した複数の特徴量に対して一致度を演算することから、演算精度を向上させることができる。
さらに、本発明の第8態様に係る撮像制御装置によれば、距離状態量での一致度に応じた補正により撮像対象物の有無などを精度良く識別することができる。
さらに、本発明の第9態様に係る撮像制御装置によれば、不適切な撮像がおこなわれることを防止することができる。
Furthermore, according to the imaging control device according to the seventh aspect of the present invention, since the degree of coincidence is calculated for a plurality of feature amounts extracted from the region of interest, the calculation accuracy can be improved.
Furthermore, according to the imaging control device according to the eighth aspect of the present invention, the presence / absence of the imaging object can be accurately identified by the correction according to the degree of coincidence in the distance state quantity.
Furthermore, according to the imaging control device according to the ninth aspect of the present invention, inappropriate imaging can be prevented.

本発明の実施の形態に係る撮像制御装置を具備する車両用の乗員検知装置の構成図である。1 is a configuration diagram of a vehicle occupant detection device including an imaging control device according to an embodiment of the present invention. 本発明の実施の形態に係る撮像対象領域PTと、画像データPa,Pbと、距離分布画像LPと、処理用画像TPと、距離画像PLとの一例を示す図である。It is a figure which shows an example of imaging object area | region PT which concerns on embodiment of this invention, image data Pa, Pb, distance distribution image LP, image TP for processing, and distance image PL. 本発明の実施の形態に係る注目領域Rの一例を示す図である。It is a figure which shows an example of the attention area | region R which concerns on embodiment of this invention. 本発明の実施の形態に係る領域画像Ra,Rbの一例を示す図である。It is a figure which shows an example of the area | region images Ra and Rb which concern on embodiment of this invention. 本発明の実施の形態に係る領域画像Ra,Rb毎の一致度の一例を示す図である。It is a figure which shows an example of the coincidence degree for every area image Ra and Rb which concerns on embodiment of this invention. 本発明の実施の形態に係る撮像制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the imaging control apparatus which concerns on embodiment of this invention.

以下、本発明の一実施形態に係る撮像制御装置について添付図面を参照しながら説明する。
本実施の形態による撮像制御装置10は、例えば車両用の乗員検知装置に備えられ、図1に示すように、例えば車両用の乗員検知装置に備えられ、図1に示すように、車室内の座席領域を撮像対象領域とする撮像装置11および光源12と、処理装置13とを備えて構成されている。
Hereinafter, an imaging control apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings.
The imaging control device 10 according to the present embodiment is provided, for example, in a vehicle occupant detection device, as shown in FIG. 1, for example, in a vehicle occupant detection device, and as shown in FIG. The image pickup apparatus 11 and the light source 12 that use the seat area as an image pickup target area, and a processing device 13 are provided.

撮像装置11は、例えばステレオカメラなどのように複数(例えば、2つ)のカメラを備え、各カメラは、複数のレンズおよび各種フィルタなどを具備するレンズ部21と、機構部22と、撮像素子23とを備えて構成されている。
機構部22は、例えばシャッタおよび絞り機構などを備え、処理装置13から出力される制御信号に応じて撮像時のシャッタスピードおよび絞り値を制御する。
撮像素子23は、例えば可視光領域から赤外線領域にて撮像可能なCMOSセンサなどを備え、撮像により得られる画像データの信号を出力する。
撮像装置11は、処理装置13から出力される制御信号に応じた撮像状態(つまり、シャッタスピードおよび絞り値など)毎に、複数(例えば、2つ)の撮像素子23によりほぼ同時(つまり、所定時間以内)に異なる方向から撮像をおこない、複数(例えば、2つ)の画像データの信号を出力する。
光源12は、例えば可視光領域から赤外線領域に亘る光を発光するLEDなどから構成され、撮像装置11の撮像対象領域に光を照射する。
The imaging device 11 includes a plurality of (for example, two) cameras such as a stereo camera. Each camera has a lens unit 21 including a plurality of lenses and various filters, a mechanism unit 22, and an imaging element. 23.
The mechanism unit 22 includes, for example, a shutter and an aperture mechanism, and controls a shutter speed and an aperture value at the time of imaging according to a control signal output from the processing device 13.
The image sensor 23 includes, for example, a CMOS sensor that can image from the visible light region to the infrared region, and outputs a signal of image data obtained by image capturing.
The imaging device 11 is substantially simultaneously (that is, predetermined) by a plurality of (for example, two) imaging elements 23 for each imaging state (that is, shutter speed, aperture value, etc.) corresponding to the control signal output from the processing device 13. Within a period of time, images are taken from different directions, and a plurality of (for example, two) image data signals are output.
The light source 12 includes, for example, an LED that emits light ranging from the visible light region to the infrared region, and irradiates light on the imaging target region of the imaging device 11.

処理装置13は、例えば、信号補正部31と、距離分布演算部32と、処理用データ生成部33と、距離データ生成部34と、特徴量抽出部35と、一致度演算部36と、基準値記憶部37と、基準補正量設定部38と、補正量記憶部39と、補正量制御部40と、撮像制御部41とを備えて構成されている。   The processing device 13 includes, for example, a signal correction unit 31, a distance distribution calculation unit 32, a processing data generation unit 33, a distance data generation unit 34, a feature amount extraction unit 35, a coincidence calculation unit 36, a reference A value storage unit 37, a reference correction amount setting unit 38, a correction amount storage unit 39, a correction amount control unit 40, and an imaging control unit 41 are configured.

信号補正部31は、補正量制御部40から出力される制御信号に応じて、撮像装置11から出力される複数(例えば、2つ)の画像データの信号にトーンカーブ補正やレベル補正やガンマ補正などの画像処理の補正をおこなう。
例えば、信号補正部31は、予め作成された補正マップ、撮像装置11の出力特性や撮像状態や撮像対象領域の環境などと輝度補正との相間を示す補正マップにより画像データの信号に階調補正をおこなう。
距離分布演算部32は、信号補正部31から出力される撮像時刻がほぼ等しい複数(例えば、2つ)の画像データに基づきステレオマッチングをおこない、画像データを構成する画素毎に実空間での撮像対象の距離を演算し、画像データの画素での距離の分布のデータ(距離分布データ)を生成する。
In response to the control signal output from the correction amount control unit 40, the signal correction unit 31 performs tone curve correction, level correction, and gamma correction on a plurality of (for example, two) image data signals output from the imaging device 11. Correct image processing such as.
For example, the signal correction unit 31 performs tone correction on the signal of the image data by using a correction map created in advance, the output characteristics of the imaging device 11, the imaging state, the environment of the imaging target region, and the like and the correction map indicating the phase between the luminance correction. To do.
The distance distribution calculation unit 32 performs stereo matching based on a plurality (for example, two) of image data with substantially the same imaging time output from the signal correction unit 31, and performs imaging in real space for each pixel constituting the image data. The distance of the object is calculated to generate distance distribution data (distance distribution data) at the pixels of the image data.

例えば図2に示すように、車室内の前方座席領域を撮像対象領域PTとして、撮像装置11の撮像状態(つまり、シャッタスピードおよび絞り値など)あるいは信号補正部31の画像処理の補正が異なる3回の撮像時刻毎に、撮像装置11から2つの画像データ(例えば、撮像対象領域に対して水平方向で左右にずれた位置から撮像された画像データ)Pa,Pbが出力されると、距離分布演算部32は、3回の撮像時刻毎に距離分布データとして距離分布画像LPを生成する。
距離分布画像LPは、例えば、画像データの各画素の輝度を各画素毎に対応する実空間での撮像対象の距離に応じた値とした3次元の情報(つまり、2次元座標上での画素の位置と画素の輝度)を有する可視化可能な画像のデータとされている。なお、距離分布データは、可視化可能な画像のデータに限定されず、単に、2次元座標上での画素の位置と、各画素毎に対応する実空間での撮像対象の距離の情報とが対応付けられた3次元のデータであればよい。
For example, as shown in FIG. 2, the front seat area in the passenger compartment is set as the imaging target area PT, and the imaging state of the imaging apparatus 11 (that is, the shutter speed, the aperture value, etc.) or the image processing correction of the signal correction unit 31 is different. When two image data (for example, image data imaged from a position shifted horizontally in the horizontal direction with respect to the imaging target region) Pa and Pb are output from the imaging device 11 at each imaging time, the distance distribution The computing unit 32 generates a distance distribution image LP as distance distribution data every three imaging times.
The distance distribution image LP is, for example, three-dimensional information (that is, pixels on two-dimensional coordinates) in which the luminance of each pixel of the image data is a value corresponding to the distance of the imaging target in the real space corresponding to each pixel. The position of the image and the luminance of the pixel) are visualized image data. The distance distribution data is not limited to image data that can be visualized, and simply corresponds to the position of the pixel on the two-dimensional coordinates and the information on the distance of the imaging target in the real space corresponding to each pixel. Any attached three-dimensional data may be used.

処理用データ生成部33は、距離分布演算部32から出力される距離分布データから距離の情報の信頼度が低いデータを除外して処理用データを生成する。
例えば図2に示すように、3回の撮像時刻毎の距離分布画像LPにおいて、各画素毎に対応する実空間での撮像対象の距離が短くなることに伴い、画素の輝度が大きくなるように設定されている状態では、処理用データ生成部33は、距離の分散が所定値未満となることで距離が無限大であると判断されるデータを距離分布画像LPから除外して、処理用画像TPを生成する。なお、処理用データは、可視化可能な画像のデータに限定されず、単に、2次元座標上での画素の位置と、各画素毎に対応する実空間での撮像対象の距離の情報とが対応付けられた3次元のデータであればよい。
The processing data generation unit 33 generates processing data by excluding data with low reliability of distance information from the distance distribution data output from the distance distribution calculation unit 32.
For example, as shown in FIG. 2, in the distance distribution image LP at three imaging times, the luminance of the pixel increases as the distance of the imaging target in the real space corresponding to each pixel decreases. In the set state, the processing data generation unit 33 excludes from the distance distribution image LP data that is determined to have an infinite distance because the distance variance is less than a predetermined value, and the processing image. Generate TP. Note that the processing data is not limited to image data that can be visualized, and simply corresponds to the position of the pixel on the two-dimensional coordinate and the distance information of the imaging target in the real space corresponding to each pixel. Any attached three-dimensional data may be used.

距離データ生成部34は、撮像装置11の撮像状態(つまり、シャッタスピードおよび絞り値など)あるいは信号補正部31の画像処理の補正の変化に伴う複数の処理用データ間での距離の分布の変化量に基づき、処理用データ生成部33から出力される複数の処理用データを合成して距離データを生成する。
例えば図2に示すように、距離データ生成部34は、撮像装置11の撮像状態(つまり、シャッタスピードおよび絞り値など)あるいは信号補正部31の画像処理の補正が異なる3回の撮像時刻毎の処理用画像TPに基づき、互いに画素のデータが存在しない領域を補完するようにして、また、互いに画素のデータが存在する領域では、例えば距離の情報のばらつき度合いなどに応じて距離の情報の信頼度が高い領域のみを対象として、あるいは、距離の情報が類似する領域を対象として、データの合成をおこない、距離画像PLを生成する。なお、距離データは、可視化可能な画像のデータに限定されず、単に、2次元座標上での画素の位置と、各画素毎に対応する実空間での撮像対象の距離の情報とが対応付けられた3次元のデータであればよい。
The distance data generation unit 34 changes the distribution of distances among a plurality of processing data according to the imaging state of the imaging device 11 (that is, the shutter speed and the aperture value) or the change in the image processing correction of the signal correction unit 31. Based on the amount, a plurality of pieces of processing data output from the processing data generation unit 33 are combined to generate distance data.
For example, as illustrated in FIG. 2, the distance data generation unit 34 performs imaging at every three imaging times in which the imaging state of the imaging device 11 (that is, the shutter speed and the aperture value) or the image processing correction of the signal correction unit 31 is different. Based on the processing image TP, an area in which pixel data does not exist is complemented, and in an area in which pixel data exists, the reliability of distance information depends on, for example, the degree of variation in distance information. Data is synthesized by targeting only a region having a high degree or a region having similar distance information, and a distance image PL is generated. The distance data is not limited to image data that can be visualized, but simply associates the position of a pixel on a two-dimensional coordinate with information on the distance of an imaging target in a real space corresponding to each pixel. Any three-dimensional data may be used.

特徴量抽出部35は、撮像装置11の撮像状態(つまり、シャッタスピードおよび絞り値など)あるいは信号補正部31の画像処理の補正が異なる各撮像時刻毎に処理用データ生成部33から出力される処理用データから複数の特徴量を抽出する。
複数の特徴量は、例えば下記表1に示す特徴量(f (MODE))のように、処理用画像TPの輝度の度数分布での度数に係る度数状態量(例えば、ゼロ輝度数、25%輝度、50%輝度、75%輝度、飽和(上下)輝度数など)と、処理用画像TPの輝度に係る輝度状態量(例えば、最頻値など)と、処理用画像TPの輝度の度数分布での統計値に係る統計状態量(例えば、平均輝度、分散など)とから構成されている。
The feature amount extraction unit 35 is output from the processing data generation unit 33 at each imaging time in which the imaging state of the imaging device 11 (that is, the shutter speed and the aperture value) or the image processing correction of the signal correction unit 31 is different. A plurality of feature amounts are extracted from the processing data.
The plurality of feature amounts are, for example, feature state amounts (for example, zero brightness number, 25 in the frequency distribution of the brightness of the processing image TP, such as the feature amount (f i (MODE) ) shown in Table 1 below. % Luminance, 50% luminance, 75% luminance, saturation (up / down luminance number, etc.), luminance state quantity (for example, mode value) relating to the luminance of the processing image TP, and frequency of luminance of the processing image TP. It consists of statistical state quantities (for example, average brightness, variance, etc.) related to statistical values in the distribution.

なお、ゼロ輝度数は、例えば、処理用画像TPにおいて距離が無限大であると判断されて輝度の情報が存在しない画素領域、あるいは、撮像装置11による撮像時の白とび又は黒つぶれに起因して処理用画像TPにおいて輝度の情報が存在しない画素領域のうち、面積が最大となる画素領域の画素数である。
25%輝度と、50%輝度と、75%輝度とは、例えば、処理用画像TPの輝度の度数分布において輝度0%から輝度100%に向かい度数(つまり画素数)を積算した場合に、この積算値が処理用画像TPの全画素数に対して、順次、25%と、50%と、75%とに到達するときの輝度である。
飽和(上下)輝度数は、例えば、輝度0%の度数(つまり画素数)および輝度100%の度数(つまり画素数)である。
最頻値は、処理用画像TPの輝度の度数分布において、度数(つまり画素数)が最大となる輝度である。
平均輝度および分散は処理用画像TPの輝度の度数分布での平均値および分散である。
Note that the zero luminance number is attributed to, for example, a pixel area in which the distance is determined to be infinite in the processing image TP, and there is no luminance information, or overexposure or underexposure during imaging by the imaging device 11. In the processing image TP, the number of pixels in the pixel region having the largest area among the pixel regions in which no luminance information is present.
For example, 25% luminance, 50% luminance, and 75% luminance are obtained when the frequency (that is, the number of pixels) is integrated from luminance 0% toward luminance 100% in the luminance frequency distribution of the processing image TP. This is the luminance when the integrated value sequentially reaches 25%, 50%, and 75% with respect to the total number of pixels of the processing image TP.
The saturation (up and down) luminance numbers are, for example, a frequency of 0% luminance (that is, the number of pixels) and a frequency of luminance 100% (that is, the number of pixels).
The mode value is the luminance with the highest frequency (that is, the number of pixels) in the luminance frequency distribution of the processing image TP.
The average luminance and variance are the average value and variance in the frequency distribution of the luminance of the processing image TP.

Figure 2010171530
Figure 2010171530

なお、複数の特徴量は、処理用画像TPにおいて距離の情報に係る距離状態量を含んでいてもよく、距離状態量は、例えば所定距離範囲の距離の情報を有する画素領域の形状や存在の有無などである。
また、特徴量の個数は、例えば2のべき乗の個数とすることで、後述する一致度演算部36での演算処理を迅速におこなうことができる。
Note that the plurality of feature quantities may include a distance state quantity related to distance information in the processing image TP. The distance state quantity may be, for example, the shape or presence of a pixel area having distance information in a predetermined distance range. It is presence or absence.
Further, by setting the number of feature amounts to, for example, the number of powers of 2, it is possible to quickly perform a calculation process in the coincidence degree calculation unit 36 described later.

なお、特徴量抽出部35は、処理用データにおいて各画素毎に対応する実空間での撮像対象の距離が所定の基準距離と一致あるいは所定の基準距離範囲内の値となる画素領域を除外して注目領域を設定し、この注目領域から複数の特徴量を抽出してもよい。
例えば図3に示すように車室内に存在する乗員のみを注目領域とする場合には、特徴量抽出部35は、撮像装置11から出力された2つの画像データPa,Pbに基づきステレオマッチングにより生成された距離分布画像LPから、予め乗員が存在しない状態で作成された基準距離のデータ(つまり車室内装に対する距離の情報)と一致する距離の情報を有する画素領域を除外して注目領域画像NPを生成する。そして、この注目領域画像NPにて距離の情報を有する画素領域を注目領域Rとし、この注目領域Rを処理用データ内に設定する。
Note that the feature amount extraction unit 35 excludes pixel regions in the processing data where the distance of the imaging target in the real space corresponding to each pixel coincides with a predetermined reference distance or becomes a value within a predetermined reference distance range. An attention area may be set, and a plurality of feature amounts may be extracted from the attention area.
For example, as shown in FIG. 3, when only an occupant existing in the passenger compartment is set as a region of interest, the feature amount extraction unit 35 is generated by stereo matching based on the two image data Pa and Pb output from the imaging device 11. The attention area image NP is excluded by excluding the pixel area having the distance information that matches the reference distance data (that is, the distance information with respect to the interior of the passenger compartment) created in a state where no occupant is present in advance from the distance distribution image LP thus obtained. Is generated. Then, a pixel area having distance information in the attention area image NP is set as the attention area R, and the attention area R is set in the processing data.

なお、特徴量抽出部35は、処理用データを複数の領域データに分割し、各領域データ毎から複数の特徴量を抽出してもよい。
例えば図4に示すように処理用画像TPにおいて車室内に存在する乗員のみを注目領域とし、この注目領域を乗員毎に分割して複数の領域データ(領域画像)を設定する場合には、特徴量抽出部35は、例えば処理用画像TPを、乗員が存在する注目領域Rと、車室内装のみが存在する領域Aと、外乱光による露光状態の変動が大きい領域Bとに分割する。さらに、乗員が存在する注目領域Rを、乗員毎に分割して複数の領域画像Ra,Rbを設定する。
Note that the feature quantity extraction unit 35 may divide the processing data into a plurality of area data and extract a plurality of feature quantities from each area data.
For example, as shown in FIG. 4, in the processing image TP, when only a passenger existing in the vehicle interior is set as a region of interest, and this region of interest is divided for each passenger, a plurality of region data (region images) are set. The amount extraction unit 35 divides the processing image TP into, for example, a region of interest R in which an occupant is present, a region A in which only a vehicle interior is present, and a region B in which the variation in exposure state due to ambient light is large. Further, the region of interest R where the occupant is present is divided for each occupant to set a plurality of region images Ra and Rb.

一致度演算部36は、処理用データ生成部33により生成された処理用データ毎に、さらに、処理用データが複数の領域データに分割されている場合には各領域データ毎に、特徴量抽出部35から出力される複数の特徴量と基準値記憶部37に記憶されている基準値との一致度を演算する。   The degree-of-match calculation unit 36 extracts feature amounts for each processing data generated by the processing data generation unit 33, and for each region data when the processing data is divided into a plurality of region data. The degree of coincidence between the plurality of feature amounts output from the unit 35 and the reference value stored in the reference value storage unit 37 is calculated.

基準値記憶部37は、撮像装置11の撮像対象領域の状態(例えば、乗員の有無など)が異なる複数の所定の領域状態(S1,S2,…,Sk,…,Sn)と、撮像装置11の撮像状態(つまり、シャッタスピードおよび絞り値など)あるいは信号補正部31の画像処理の補正が異なる複数の補正モード(M1,M2,…,Mk,…,Mn)との各組み合わせで撮像装置11による撮像が実行された場合に対して、特徴量抽出部35により抽出される複数の特徴量に対する基準値(F Mk,Sk)を記憶している。 The reference value storage unit 37 includes a plurality of predetermined region states (S1, S2,..., Sk,..., Sn) in which states of the imaging target region of the imaging device 11 (for example, the presence or absence of an occupant) are different, and the imaging device 11. Imaging device 11 in each combination with a plurality of correction modes (M1, M2,..., Mk,..., Mn) having different imaging states (that is, shutter speed, aperture value, etc.) or different image processing corrections of the signal correction unit 31. The reference values (F i Mk, Sk ) for a plurality of feature amounts extracted by the feature amount extraction unit 35 are stored in the case where the imaging by is performed.

一致度演算部36は、例えば特徴量抽出部35から出力される複数の特徴量による多次元ベクトル空間において、複数の特徴量と基準値との相間(例えば、内積など)を演算し、この演算結果において、例えば内積が大きくなることに伴い一致度が大きくなると判定する。
例えば所定の補正モードM1にて撮像装置11による撮像が実行されて上記表1に示すような複数(例えば、8つ)の特徴量(f M1)が特徴量抽出部35により抽出されると、一致度演算部36は、例えば下記表2に示すように、補正モードM1に対して複数(例えば、8つ)の領域状態(S1,…,S8)毎に設定された基準値(F (M1,S1),…,F (M1,S8))を基準値記憶部37から取得して、各領域状態(S1,…,S8)毎に特徴量(f M1)と基準値(F (M1,S1),…,F (M1,S8))との内積を演算する。なお、下記表2においては、処理用画像TPの注目領域Rが2つの領域画像Ra,Rbに分割されていることから、内積の演算は各領域画像Ra,Rb毎に実行される。
The coincidence calculation unit 36 calculates, for example, a phase (for example, inner product) between a plurality of feature amounts and a reference value in a multidimensional vector space including a plurality of feature amounts output from the feature amount extraction unit 35. In the result, for example, it is determined that the degree of coincidence increases as the inner product increases.
For example, when imaging by the imaging device 11 is executed in the predetermined correction mode M1, a plurality of (for example, eight) feature amounts (f i M1 ) as shown in Table 1 are extracted by the feature amount extraction unit 35. , matching degree calculation unit 36, for example, as shown in table 2, a plurality (e.g., eight) area state of (S1, ..., S8) with respect to correction mode M1 set reference value for each (F i (M1, S1) ,..., F i (M1, S8) ) are acquired from the reference value storage unit 37, and the feature value (f i M1 ) and the reference value (for each region state (S1,..., S8) are obtained. Calculate the inner product with F i (M1, S1) ,..., F i (M1, S8) ). In Table 2 below, since the attention area R of the processing image TP is divided into two area images Ra and Rb, the inner product is calculated for each of the area images Ra and Rb.

Figure 2010171530
Figure 2010171530

基準補正量設定部38は、一致度演算部36から出力される一致度が最も高い基準値に対応する領域状態を抽出し、この領域状態に対応する補正モードの補正量を補正量記憶部39から取得し、この補正量を基準補正量として設定する。なお、処理用データが複数の領域データに分割され、各領域データ毎に一致度が最も高い基準値に対応する領域状態が異なる場合には、複数の領域データ間において一致度を比較して基準補正量を設定する。   The reference correction amount setting unit 38 extracts an area state corresponding to the reference value having the highest degree of coincidence output from the coincidence degree calculating unit 36, and calculates the correction amount of the correction mode corresponding to the area state as the correction amount storage unit 39. And the correction amount is set as a reference correction amount. When the processing data is divided into a plurality of area data and the area state corresponding to the reference value having the highest degree of coincidence is different for each area data, the degree of coincidence is compared between the plurality of area data. Set the correction amount.

補正量記憶部39は、複数の所定の領域状態(S1,S2,…,Sk,…,Sn)毎に対応した最適な補正モードおよび補正量の情報、つまり撮像装置11の最適な撮像状態(つまり、シャッタスピードおよび絞り値など)あるいは信号補正部31の画像処理の最適な補正の情報を記憶している。
例えば下記表3に示すように、上記表2に示す各領域状態(S1,…,S8)に対しては、各補正モード(MODE1,…,MODE2)が対応付けられて記憶されている。
The correction amount storage unit 39 stores information on an optimal correction mode and correction amount corresponding to each of a plurality of predetermined region states (S1, S2,..., Sk,..., Sn), that is, an optimal imaging state ( That is, information on the optimum correction of image processing of the signal correction unit 31 is stored.
For example, as shown in Table 3 below, the correction modes (MODE1,..., MODE2) are stored in association with the region states (S1,..., S8) shown in Table 2 above.

Figure 2010171530
Figure 2010171530

基準補正量設定部38は、例えば上記表2に示す領域画像Raに対しては、一致度が最も高い基準値に対応する領域状態として、各領域状態(S1,…,S8)毎の特徴量(f M1)と基準値(F (M1,S1),…,F (M1,S8))との内積のうち、内積が最大となる基準値(F (M1,S2)=0.937)に対応する領域状態S2を抽出する。そして、この領域状態S2に対して最適となる補正モードMODE2および補正量を補正量記憶部39から取得する。また、例えば上記表2に示す領域画像Rbに対しては、一致度が最も高い基準値に対応する領域状態として、内積が最大となる基準値(F (M1,S3)=0.893)に対応する領域状態S3を抽出する。そして、この領域状態S3に対して最適となる補正モードMODE3および補正量を補正量記憶部39から取得する。 For example, for the region image Ra shown in Table 2 above, the reference correction amount setting unit 38 sets the feature amount for each region state (S1,..., S8) as the region state corresponding to the reference value having the highest degree of coincidence. Among the inner products of (f i M1 ) and the reference value (F i (M1, S1) ,..., F i (M1, S8) ), the reference value (F i (M1, S2) = 0 at which the inner product is maximum .937) is extracted. Then, the correction mode MODE2 and the correction amount that are optimum for the region state S2 are acquired from the correction amount storage unit 39. For example, for the region image Rb shown in Table 2 above, as the region state corresponding to the reference value having the highest degree of coincidence, the reference value (F i (M1, S3) = 0.893) that maximizes the inner product. The region state S3 corresponding to is extracted. Then, the correction mode MODE 3 and the correction amount that are optimum for the region state S 3 are acquired from the correction amount storage unit 39.

基準補正量設定部38は、処理用データが複数の領域データに分割され、各領域データ毎に一致度が演算されたときに、各領域データ毎に一致度が最も高い基準値に対応する領域状態が異なる場合には、複数の領域データ間において一致度を比較する。   The reference correction amount setting unit 38 divides the processing data into a plurality of area data, and when the degree of coincidence is calculated for each area data, the area corresponding to the reference value having the highest degree of coincidence for each area data When the states are different, the degree of coincidence is compared among a plurality of area data.

例えば図5(A)〜(D)に示す実施例では、撮像装置11の撮像状態(つまり、シャッタスピードおよび絞り値など)あるいは信号補正部31の画像処理の補正が異なる3回の撮像毎に、処理用画像TPの注目領域Rが2つの領域画像Ra,Rbに分割され、各領域画像Ra,Rb毎に一致度(例えば、内積)の演算が実行されている。   For example, in the embodiment shown in FIGS. 5A to 5D, every three imagings in which the imaging state of the imaging device 11 (that is, the shutter speed, the aperture value, etc.) or the image processing correction of the signal correction unit 31 is different. The attention area R of the processing image TP is divided into two area images Ra and Rb, and the degree of coincidence (for example, inner product) is calculated for each of the area images Ra and Rb.

例えば図5(A)に示すように、3回の撮像度数の全てにおいて2つの領域画像Ra,Rb毎の一致度が所定の下限値Lth以上であり、3回の撮像度数間において一致度が最も高い撮像度数が一致している場合には、この一致度が最も高い撮像度数(例えば、撮像度数=1)に対応する補正モードの補正量が、基準補正量として設定される。   For example, as shown in FIG. 5A, the degree of coincidence for each of the two region images Ra and Rb is equal to or greater than a predetermined lower limit Lth in all of the three times of imaging power, and the degree of coincidence between the three times of power of imaging. When the highest imaging power matches, the correction amount of the correction mode corresponding to the highest imaging power (for example, imaging power = 1) is set as the reference correction amount.

また、例えば図5(B)に示すように、3回の撮像度数間において一致度が最も高い撮像度数が2つの領域画像Ra,Rbで一致せず、一部の撮像度数において一致度が所定の下限値Lth未満である場合には、2つの領域画像Ra,Rb毎の一致度が所定の下限値Lth以上となる撮像度数を選択し、さらに、2つの領域画像Ra,Rbの一致度の和あるいは積などの総合的な一致度が最も高い撮像度数(例えば、撮像度数=2)に対応する補正モードの補正量が、基準補正量として設定される。   Further, for example, as shown in FIG. 5B, the imaging power having the highest matching degree among the three imaging powers does not match between the two region images Ra and Rb, and the matching degree is predetermined in some imaging powers. Is less than the lower limit value Lth, the imaging power at which the degree of coincidence between the two area images Ra and Rb is equal to or greater than the predetermined lower limit value Lth is selected, and the degree of coincidence between the two area images Ra and Rb is selected. The correction amount in the correction mode corresponding to the imaging frequency (for example, imaging frequency = 2) having the highest overall matching degree such as sum or product is set as the reference correction amount.

また、例えば図5(C)に示すように、3回の撮像度数の全てにおいて一方の領域画像Rbの一致度が所定の下限値Lth未満である場合には、この領域画像Rb以外の他方の領域画像Raにおいて一致度が最も高い撮像度数(例えば、撮像度数=1)に対応する補正モードの補正量が、基準補正量として設定される。   For example, as shown in FIG. 5C, when the degree of coincidence of one region image Rb is less than a predetermined lower limit Lth in all three imaging frequencies, the other image other than this region image Rb is used. The correction amount in the correction mode corresponding to the imaging frequency (for example, imaging frequency = 1) having the highest matching degree in the region image Ra is set as the reference correction amount.

また、例えば図5(D)に示すように、3回の撮像度数の全てにおいて何れの領域画像Ra,Rbの一致度が所定の下限値Lth未満である場合には、撮像装置11あるいは撮像対象領域の状態(例えば、乗員の姿勢など)が異常状態であると判定され、基準補正量の設定は禁止される。   Further, for example, as shown in FIG. 5D, when the degree of coincidence between any of the region images Ra and Rb is less than a predetermined lower limit Lth in all three imaging frequencies, the imaging device 11 or the imaging target It is determined that the state of the region (for example, the occupant's posture) is an abnormal state, and setting of the reference correction amount is prohibited.

補正量制御部40は、基準補正量設定部38から出力される基準補正量に応じて、撮像装置11の撮像状態(つまり、シャッタスピードおよび絞り値など)あるいは信号補正部31の画像処理の補正を制御する制御信号を出力する。
また、補正量制御部40は、基準補正量設定部38から出力される基準補正量に応じて、光源12の照射状態を制御する制御信号を出力する。
The correction amount control unit 40 corrects the imaging state of the imaging apparatus 11 (that is, the shutter speed and the aperture value) or the image processing of the signal correction unit 31 according to the reference correction amount output from the reference correction amount setting unit 38. A control signal for controlling is output.
The correction amount control unit 40 outputs a control signal for controlling the irradiation state of the light source 12 according to the reference correction amount output from the reference correction amount setting unit 38.

撮像制御部41は、例えば一致度演算部36から出力される一致度などに応じて、撮像装置11による撮像の実行および停止を制御する。
例えば、撮像制御部41は、一致度演算部36から出力される一致度の全てが所定の下限値Lth未満である場合には、撮像装置11による撮像を停止する。
The imaging control unit 41 controls execution and stop of imaging by the imaging device 11 according to, for example, the degree of coincidence output from the coincidence degree calculating unit 36.
For example, the imaging control unit 41 stops imaging by the imaging device 11 when all of the matching degrees output from the matching degree calculation unit 36 are less than a predetermined lower limit value Lth.

本実施の形態による撮像制御装置10は上記構成を備えており、次に、この撮像制御装置10の動作について説明する。   The imaging control device 10 according to the present embodiment has the above-described configuration. Next, the operation of the imaging control device 10 will be described.

先ず、例えば図6に示すステップS01においては、予め設定された所定の初期撮像状態あるいは前回の撮像時に処理装置13から出力された制御信号に応じた撮像状態(つまり、シャッタスピードおよび絞り値など)により、撮像装置11の撮像を実行する。
そして、ステップS02においては、撮像装置11の2つの撮像素子23によりほぼ同時に異なる方向(例えば、撮像対象領域に対して水平方向で左右にずれた位置)から撮像された左右の画像データPa,Pbを取得する。
First, for example, in step S01 shown in FIG. 6, a predetermined initial imaging state set in advance or an imaging state corresponding to a control signal output from the processing device 13 at the previous imaging (that is, shutter speed, aperture value, etc.). Thus, imaging of the imaging device 11 is executed.
In step S02, the left and right image data Pa and Pb imaged from the different directions (for example, positions shifted left and right in the horizontal direction with respect to the imaging target region) almost simultaneously by the two imaging elements 23 of the imaging device 11. To get.

そして、ステップS03においては、各画像データPa,Pbの信号に対してトーンカーブ補正やレベル補正やガンマ補正などの画像処理の補正をおこなう。
そして、ステップS04においては、補正後の2つの画像データPa,Pbに基づきステレオマッチングをおこなう。
そして、ステップS05においては、2つの画像データPa,Pbを構成する画素毎に実空間での撮像対象の距離を演算し、距離分布画像LPを生成する。
In step S03, image processing corrections such as tone curve correction, level correction, and gamma correction are performed on the signals of the image data Pa and Pb.
In step S04, stereo matching is performed based on the two corrected image data Pa and Pb.
In step S05, the distance of the imaging target in the real space is calculated for each pixel constituting the two image data Pa and Pb, and a distance distribution image LP is generated.

そして、ステップS06においては、距離分布画像LPから距離の情報の信頼度が低い画素領域を除外して処理用画像TPを生成する。
そして、ステップS07においては、処理用画像TPにおいて各画素毎に対応する実空間での撮像対象の距離が所定の基準距離と一致あるいは所定の基準距離範囲内の値となる画素領域を除外して注目領域Rを設定する。
そして、ステップS08においては、例えば車室内の複数の乗員毎などに対応して、注目領域Rを複数の領域画像に分割する。
In step S06, a processing image TP is generated by excluding a pixel region having low reliability of distance information from the distance distribution image LP.
In step S07, pixel regions in which the distance of the imaging target in the real space corresponding to each pixel in the processing image TP matches the predetermined reference distance or has a value within the predetermined reference distance range are excluded. An attention area R is set.
In step S08, the attention area R is divided into a plurality of area images, for example, corresponding to each of a plurality of passengers in the passenger compartment.

そして、ステップS09においては、複数の領域画像毎に複数の特徴量を抽出する。
そして、ステップS10においては、複数の特徴量による多次元ベクトル空間において、複数の特徴量と基準値との相間(例えば、内積など)を演算することで、複数の特徴量と基準値との一致度を算出する。
そして、ステップS11においては、複数の領域画像間において一致度を比較する。
そして、ステップS12においては、複数の領域画像間での一致度の比較結果に応じて、基準補正量を設定する。
In step S09, a plurality of feature amounts are extracted for each of the plurality of region images.
In step S10, in a multi-dimensional vector space with a plurality of feature amounts, the correlation between the plurality of feature amounts and the reference value is calculated by calculating the phase (for example, inner product) between the plurality of feature amounts and the reference value. Calculate the degree.
In step S11, the degree of coincidence is compared between the plurality of region images.
In step S12, the reference correction amount is set according to the comparison result of the degree of coincidence between the plurality of area images.

そして、ステップS13においては、基準補正量に応じて信号補正部31の画像処理の補正を変更して新たな処理用画像TPを取得することが指示されているか否かを判定する。
この判定結果が「YES」の場合には、上述したステップS03に進む。
一方、この判定結果が「NO」の場合には、ステップS14に進む。
そして、ステップS14においては、基準補正量に応じて撮像装置11の撮像状態(つまり、シャッタスピードおよび絞り値など)を変更して新たな処理用画像TPを取得することが指示されているか否かを判定する。
この判定結果が「YES」の場合には、上述したステップS01に進む。
一方、この判定結果が「NO」の場合には、ステップS15に進む。
そして、ステップS15においては、複数の処理用画像TPを合成して距離画像PLを生成し、エンドに進む。
In step S13, it is determined whether or not it is instructed to change the image processing correction of the signal correction unit 31 according to the reference correction amount and acquire a new processing image TP.
If this determination is “YES”, the flow proceeds to step S 03 described above.
On the other hand, if this determination is “NO”, the flow proceeds to step S14.
In step S14, whether or not it is instructed to change the imaging state (that is, shutter speed, aperture value, etc.) of the imaging device 11 according to the reference correction amount and acquire a new processing image TP. Determine.
If this determination is “YES”, the flow proceeds to step S 01 described above.
On the other hand, if this determination is “NO”, the flow proceeds to step S15.
In step S15, a plurality of processing images TP are combined to generate a distance image PL, and the process proceeds to the end.

上述したように、本実施の形態による撮像制御装置10によれば、撮像装置11の撮像状態(つまり、シャッタスピードおよび絞り値など)あるいは信号補正部31の画像処理の補正が異なる複数の処理用データを生成し、各処理用データ毎に複数の特徴量を抽出し、各処理用データ毎に複数の特徴量と基準値との一致度を演算することにより、一致度が最も高い処理用データつまり補正量を検知することができる。この補正量を基準補正量として、画像データの補正、例えば露出などの撮像状態の補正あるいは撮像により得られた画像のガンマ補正などの画像処理の補正を、容易かつ詳細に最適化することができる。   As described above, according to the imaging control device 10 according to the present embodiment, the imaging state of the imaging device 11 (that is, the shutter speed, the aperture value, etc.) or the processing for a plurality of processings with different image processing corrections of the signal correction unit 31 is different. Processing data with the highest degree of matching by generating data, extracting multiple feature quantities for each processing data, and calculating the degree of matching between multiple feature quantities and reference values for each processing data That is, the correction amount can be detected. With this correction amount as a reference correction amount, image data correction, for example, correction of image processing such as exposure or gamma correction of an image obtained by imaging can be optimized easily and in detail. .

さらに、度数状態量での一致度に応じた補正により撮像対象物の占有域を把握することができる。
さらに、輝度状態量での一致度に応じた補正により撮像対象物を的確に識別することができる。
さらに、統計状態量での一致度に応じた補正により所定の基準形状に少なくとも一部が一致する撮像対象物を検知することかできる。
Furthermore, the occupation area of the imaging target can be grasped by correction according to the degree of coincidence in the frequency state quantity.
Furthermore, the object to be imaged can be accurately identified by the correction according to the degree of coincidence in the luminance state quantity.
Furthermore, it is possible to detect an imaging object that at least partially matches a predetermined reference shape by correction according to the degree of coincidence in the statistical state quantity.

さらに、複数の特徴量による多次元ベクトル空間において、処理用データから抽出した複数の特徴量と基準値との内積を演算することから、加算および積算のみで演算処理を構成することができ、演算処理に要する時間を短縮して、基準補正量を迅速に設定することができる。   Furthermore, in a multidimensional vector space with a plurality of feature quantities, the inner product of the plurality of feature quantities extracted from the processing data and the reference value is computed, so that arithmetic processing can be configured only by addition and integration. The time required for processing can be shortened and the reference correction amount can be set quickly.

さらに、異なる補正量で補正された画像データによる処理用データを合成して距離データとすることにより、取得可能な距離情報が失われたり、距離情報の信頼性が低下してしまうこと無しに、たとえ撮像素子23の感度およびダイナミックレンジが小さい場合であっても、所望の分解能で距離情報を取得可能なデータ領域を拡大させることができる。これにより、例えば画像の全領域で一律に輝度を増大させるだけの補正をおこなう場合に比べて、低輝度領域あるいは高輝度領域での距離情報の検知が困難になることを防止し、距離情報を精度良く検知することができる。   Furthermore, by synthesizing the processing data based on the image data corrected with different correction amounts into the distance data, the distance information that can be acquired is lost, or the reliability of the distance information is not reduced. Even if the sensitivity and dynamic range of the image sensor 23 are small, the data area in which the distance information can be acquired with a desired resolution can be expanded. This prevents the distance information from becoming difficult to detect in the low-brightness area or the high-brightness area, compared with the case where correction is performed to increase the brightness uniformly in the entire area of the image, for example. It can be detected with high accuracy.

さらに、注目領域Rから抽出した複数の特徴量に対して一致度を演算することから、演算精度を向上させることができる。
さらに、距離状態量での一致度に応じた補正により撮像対象物の有無などを精度良く識別することができる。
さらに、一致度が所定の下限値Lth未満である場合には、撮像装置11あるいは撮像対象領域の状態(例えば、乗員の姿勢など)が異常状態であると判定し、撮像を停止することにより、不適切な撮像がおこなわれることを防止することができる。
Furthermore, since the degree of coincidence is calculated for a plurality of feature amounts extracted from the attention area R, the calculation accuracy can be improved.
Furthermore, the presence / absence of the imaging target can be accurately identified by correction according to the degree of coincidence in the distance state quantity.
Further, when the degree of coincidence is less than the predetermined lower limit Lth, it is determined that the state of the imaging device 11 or the imaging target region (for example, the posture of the occupant) is an abnormal state, and imaging is stopped, Inappropriate imaging can be prevented.

10 撮像制御装置
22 機構部(補正手段)
23 撮像素子
31 信号補正部(補正手段)
32 距離分布演算部(距離分布取得手段)
33 処理用データ生成部(処理用画像生成手段)
34 距離データ生成部(距離画像生成手段)
35 特徴量抽出部(特徴量抽出手段)
36 一致度演算部(演算手段)
37 基準値記憶部(第1記憶手段)
38 基準補正量設定部(基準補正量設定手段)
39 補正量記憶部(第2記憶手段)
40 補正量制御部(補正量設定手段)
41 撮像制御部(停止手段)
ステップS07 距離情報演算手段、注目領域設定手段
10 Imaging control device 22 Mechanism (correction means)
23 Image sensor 31 Signal correction part (correction means)
32 Distance distribution calculation unit (distance distribution acquisition means)
33 processing data generation unit (processing image generation means)
34 Distance data generation unit (distance image generation means)
35 Feature Extraction Unit (Feature Extraction Unit)
36 Matching degree calculation part (calculation means)
37 Reference value storage unit (first storage means)
38 Reference correction amount setting unit (reference correction amount setting means)
39 Correction amount storage section (second storage means)
40 Correction amount control unit (correction amount setting means)
41 Imaging control unit (stopping means)
Step S07 Distance information calculation means, attention area setting means

Claims (9)

所定の撮像対象領域を撮像して得た画像からなる画像情報を出力する撮像素子と、
前記撮像素子から出力される前記画像情報を補正する補正手段と、
複数の前記補正毎の補正量が異なるように設定する補正量設定手段と、
前記補正量の変化に応じて所定時間内に複数の前記画像情報を取得し、各前記補正量毎に前記画像情報に基づき処理用画像を生成する処理用画像生成手段と、
前記処理用画像から複数の特徴量を抽出する特徴量抽出手段と、
前記複数の前記特徴量の基準値を記憶する第1記憶手段と、
前記補正量を記憶する第2記憶手段と、
前記第1記憶手段に記憶された前記基準値と、前記特徴量抽出手段により抽出された前記特徴量との一致度を演算する演算手段と、
前記演算手段により演算された前記一致度が最も高い前記基準値に対応する前記第2記憶手段に記憶された前記補正量を、基準補正量として設定する基準補正量設定手段と
を備えることを特徴とする撮像制御装置。
An image sensor that outputs image information including an image obtained by imaging a predetermined imaging target region;
Correction means for correcting the image information output from the image sensor;
A correction amount setting means for setting a plurality of correction amounts for different correction amounts;
Processing image generation means for acquiring a plurality of the image information within a predetermined time according to a change in the correction amount, and generating a processing image based on the image information for each of the correction amounts;
Feature quantity extraction means for extracting a plurality of feature quantities from the processing image;
First storage means for storing reference values of the plurality of feature quantities;
Second storage means for storing the correction amount;
Computing means for computing the degree of coincidence between the reference value stored in the first storage means and the feature quantity extracted by the feature quantity extraction means;
Reference correction amount setting means for setting the correction amount stored in the second storage means corresponding to the reference value having the highest degree of coincidence calculated by the calculation means as a reference correction amount. An imaging control device.
前記特徴量は、前記処理用画像の輝度の度数分布での度数に係る度数状態量を含むことを特徴とする請求項1に記載の撮像制御装置。 The imaging control apparatus according to claim 1, wherein the feature amount includes a frequency state amount related to a frequency in a luminance frequency distribution of the processing image. 前記特徴量は、前記処理用画像の輝度に係る輝度状態量を含むことを特徴とする請求項1に記載の撮像制御装置。 The imaging control apparatus according to claim 1, wherein the feature amount includes a luminance state amount related to a luminance of the processing image. 前記特徴量は、前記処理用画像の輝度の度数分布での統計値に係る統計状態量を含むことを特徴とする請求項1に記載の撮像制御装置。 The imaging control apparatus according to claim 1, wherein the feature amount includes a statistical state amount related to a statistical value in a luminance frequency distribution of the processing image. 前記演算手段は、前記第1記憶手段に記憶された前記基準値と、前記特徴量抽出手段により抽出された前記特徴量との内積を演算し、
前記基準補正量設定手段は、前記内積が最も大きい前記基準値に対応する前記第2記憶手段に記憶された前記補正量を、前記基準補正量として設定することを特徴とする請求項1に記載の撮像制御装置。
The calculation means calculates an inner product of the reference value stored in the first storage means and the feature amount extracted by the feature amount extraction means,
The reference correction amount setting unit sets the correction amount stored in the second storage unit corresponding to the reference value having the largest inner product as the reference correction amount. Imaging control device.
複数の前記撮像素子から出力される前記画像情報に基づき前記画像の画素に対応した実空間での距離情報による距離分布を取得可能な距離分布取得手段を備え、
前記処理用画像生成手段は、前記距離分布を有する前記処理用画像を生成し、
前記補正量の変化に応じた前記距離分布の変化量に基づき、複数の前記処理用画像を合成して距離画像を生成する距離画像生成手段を備えることを特徴とする請求項1から請求項5の何れか1つに記載の撮像制御装置。
A distance distribution acquisition unit capable of acquiring a distance distribution based on distance information in a real space corresponding to the pixels of the image based on the image information output from the plurality of imaging elements;
The processing image generation means generates the processing image having the distance distribution,
6. A distance image generating unit that generates a distance image by combining a plurality of the processing images based on a change amount of the distance distribution according to the change of the correction amount. The imaging control device according to any one of the above.
各前記処理用画像毎に画素に対応した実空間での距離情報を演算する距離情報演算手段と、
前記距離情報演算手段により演算された前記距離情報のうち所定の基準距離と一致する前記距離情報に対応する画素領域を前記処理用画像から除外して注目領域を設定する注目領域設定手段とを備え、
前記特徴量抽出手段は、前記注目領域から前記特徴量を抽出することを特徴とする請求項1から請求項6の何れか1つに記載の撮像制御装置。
Distance information calculating means for calculating distance information in the real space corresponding to the pixel for each processing image;
Attention area setting means for setting an attention area by excluding a pixel area corresponding to the distance information that coincides with a predetermined reference distance from the distance information calculated by the distance information calculation means. ,
The imaging control apparatus according to claim 1, wherein the feature amount extraction unit extracts the feature amount from the region of interest.
前記特徴量は、前記距離情報に係る距離状態量を含むことを特徴とする請求項6に記載の撮像制御装置。 The imaging control apparatus according to claim 6, wherein the feature amount includes a distance state amount related to the distance information. 前記演算手段により演算された前記一致度が所定値以下の場合に、前記撮像素子による撮像を停止する停止手段を備えることを特徴とする請求項1から請求項8の何れか1つに記載の撮像制御装置。 9. The apparatus according to claim 1, further comprising a stopping unit that stops imaging by the imaging element when the degree of coincidence calculated by the calculating unit is equal to or less than a predetermined value. Imaging control device.
JP2009010097A 2009-01-20 2009-01-20 Imaging control device Expired - Fee Related JP5156654B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009010097A JP5156654B2 (en) 2009-01-20 2009-01-20 Imaging control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009010097A JP5156654B2 (en) 2009-01-20 2009-01-20 Imaging control device

Publications (2)

Publication Number Publication Date
JP2010171530A true JP2010171530A (en) 2010-08-05
JP5156654B2 JP5156654B2 (en) 2013-03-06

Family

ID=42703260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009010097A Expired - Fee Related JP5156654B2 (en) 2009-01-20 2009-01-20 Imaging control device

Country Status (1)

Country Link
JP (1) JP5156654B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7442268B2 (en) 2019-03-26 2024-03-04 日本製鉄株式会社 underground structure

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0486645A (en) * 1990-07-27 1992-03-19 Fuji Photo Film Co Ltd Exposure quantity deciding method for copying device
JP2003269917A (en) * 2002-03-15 2003-09-25 Sony Corp Method of measuring distance, instrument therefor, program therefor, recording medium therefor, and distance measuring instrument mounting type robot apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0486645A (en) * 1990-07-27 1992-03-19 Fuji Photo Film Co Ltd Exposure quantity deciding method for copying device
JP2003269917A (en) * 2002-03-15 2003-09-25 Sony Corp Method of measuring distance, instrument therefor, program therefor, recording medium therefor, and distance measuring instrument mounting type robot apparatus

Also Published As

Publication number Publication date
JP5156654B2 (en) 2013-03-06

Similar Documents

Publication Publication Date Title
EP3579546B1 (en) Exposure control method, exposure control device and electronic device
US9763558B2 (en) Endoscope apparatus, method for operating endoscope apparatus, and information storage device
US10559095B2 (en) Image processing apparatus, image processing method, and medium
JP5435307B2 (en) In-vehicle camera device
JP6786225B2 (en) Image processing equipment, imaging equipment and image processing programs
US10713810B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP2015075526A5 (en) Image data processing device, distance calculation device, imaging device, and image data processing method
JP2013005234A5 (en)
US20090207260A1 (en) Image pickup apparatus and image pickup method
JP2007150658A (en) On-vehicle perimeter image display apparatus
JP2013135341A5 (en)
JP2016133674A5 (en)
JP6412386B2 (en) Image processing apparatus, control method therefor, program, and recording medium
JP2016149613A5 (en)
JP2017083427A5 (en)
JP2016178608A5 (en)
US10362235B2 (en) Processing apparatus, processing system, image pickup apparatus, processing method, and storage medium
US10863103B2 (en) Setting apparatus, setting method, and storage medium
JP5156654B2 (en) Imaging control device
JP5256056B2 (en) Imaging control device
JP5693099B2 (en) Image processing apparatus, image processing method, radiation imaging system, and program
JP6866419B2 (en) How to detect motion in a video sequence
CN110225247B (en) Image processing method and electronic equipment
JP5271723B2 (en) Imaging control device
US20190109986A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees