JP5867806B2 - Imaging device and object identification device using the same - Google Patents

Imaging device and object identification device using the same Download PDF

Info

Publication number
JP5867806B2
JP5867806B2 JP2011202582A JP2011202582A JP5867806B2 JP 5867806 B2 JP5867806 B2 JP 5867806B2 JP 2011202582 A JP2011202582 A JP 2011202582A JP 2011202582 A JP2011202582 A JP 2011202582A JP 5867806 B2 JP5867806 B2 JP 5867806B2
Authority
JP
Japan
Prior art keywords
value
pixel
unit
image
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011202582A
Other languages
Japanese (ja)
Other versions
JP2013065995A (en
Inventor
洋義 関口
洋義 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011202582A priority Critical patent/JP5867806B2/en
Publication of JP2013065995A publication Critical patent/JP2013065995A/en
Application granted granted Critical
Publication of JP5867806B2 publication Critical patent/JP5867806B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、1種類又は2種類以上の偏光フィルタ部や色分解フィルタ部を周期的に配列した光学フィルタを通じて撮像領域からの光を受光素子アレイで受光し、これにより得た画像信号から撮像画像の画像情報の画素値を算出する撮像装置及びこれを用いた物体識別装置に関するものである。   In the present invention, light from an imaging region is received by a light receiving element array through an optical filter in which one type or two or more types of polarization filter units and color separation filter units are periodically arranged, and a captured image is obtained from an image signal obtained thereby. The present invention relates to an imaging device that calculates pixel values of image information and an object identification device using the imaging device.

この種の撮像装置としては、所定の撮像領域をデジタルカメラ等の撮像手段を用いて撮像し、その画像信号から、所望の波長帯域のみを抽出した画像情報や、所望の偏光成分のみを抽出した画像情報などを生成するものが知られている。このような撮像装置は、例えば、光学フィルタを通じて入射する撮像領域からの光を、多数の受光素子を2次元配置された受光素子アレイを用いて受光し、各受光素子で受光した光量に応じて受光素子アレイから出力される画像信号から、撮像領域の画像情報を生成する。特許文献1には、光学フィルタとして、例えば、R(Red)、G(Green)、B(Blue)の色分解フィルタ部が所定の配置パターンに従って配列されたカラーフィルタを用いた撮像装置が記載されている。また、特許文献2には、2種類(縦偏光成分と横偏光成分)の偏光フィルタ部が周期的に配置された光学フィルタを通じて入射する撮像領域からの光を受光素子アレイで受光する撮像装置が記載されている。このような撮像装置によれば、1回の撮像動作で、互いに異なる複数の光学成分それぞれを抽出した画像情報(例えば、R、G、Bそれぞれの画像情報や、縦偏光成分及び横偏光成分それぞれの画像情報)を得ることができる。   As this type of imaging apparatus, a predetermined imaging area is imaged using an imaging means such as a digital camera, and image information obtained by extracting only a desired wavelength band or only a desired polarization component is extracted from the image signal. Those that generate image information and the like are known. Such an imaging device, for example, receives light from an imaging region incident through an optical filter using a light receiving element array in which a large number of light receiving elements are two-dimensionally arranged, and according to the amount of light received by each light receiving element. Image information of the imaging region is generated from the image signal output from the light receiving element array. Patent Document 1 describes an imaging device using, as an optical filter, for example, a color filter in which color separation filter portions of R (Red), G (Green), and B (Blue) are arranged according to a predetermined arrangement pattern. ing. Patent Document 2 discloses an image pickup apparatus that receives light from an image pickup region that is incident through an optical filter in which two types of polarization filter units (vertical polarization component and horizontal polarization component) are periodically arranged, by a light receiving element array. Have been described. According to such an imaging apparatus, image information obtained by extracting each of a plurality of different optical components in one imaging operation (for example, image information of R, G, and B, vertical polarization component, and horizontal polarization component, respectively) Image information).

このような互いに異なる複数の光学成分から生成される光学成分抽出画像は、撮像領域内の物体を識別する物体識別処理に利用することで、単なる輝度情報のみからなる画像情報(モノクロ画像情報)で物体識別処理を行う場合よりも、高い精度での物体識別を可能とする点で有用である。そのため、このような撮像装置は、近年、例えば、車載カメラとして用いられ、自車の進行方向前方領域(撮像領域)を撮像して得られる撮像画像に基づく物体検出処理を行って先行車両や対向車両などの物体を検出し、自車の運転者(ドライバー)の運転負荷を軽減させる運転者支援システムへ利用されている。また、例えば、ロボット制御などに用いられる物体識別装置のための撮像装置など、その他の分野でも幅広く利用されることが期待されている。   Such an optical component extraction image generated from a plurality of different optical components is used for object identification processing for identifying an object in an imaging region, and thus is image information (monochrome image information) consisting of only luminance information. This is useful in that object identification can be performed with higher accuracy than when object identification processing is performed. Therefore, in recent years, such an imaging apparatus has been used as, for example, an in-vehicle camera, and performs object detection processing based on a captured image obtained by imaging a forward area (imaging area) in the traveling direction of the host vehicle, and the preceding vehicle or the opposite vehicle. It is used for a driver support system that detects an object such as a vehicle and reduces the driving load on the driver of the own vehicle. In addition, it is expected to be widely used in other fields such as an imaging device for an object identification device used for robot control.

本発明者らは、このような光学成分抽出画像をフレームレート30fpsでリアルタイム映像出力することを可能とする撮像装置を開発し、その開発にあたっては、次のような課題に直面した。以下の説明では、縦偏光成分及び横偏光成分それぞれの光学成分抽出画像を得る撮像装置について説明するが、R、G、B等の互いに波長成分が異なる画像情報を得る撮像装置においても同様である。   The inventors of the present invention have developed an imaging apparatus that can output such an optical component extracted image at a frame rate of 30 fps in real time, and faced the following problems in developing the imaging apparatus. In the following description, an imaging device that obtains optical component extraction images of the longitudinal polarization component and the lateral polarization component will be described. However, the same applies to an imaging device that obtains image information having different wavelength components such as R, G, and B. .

このような撮像装置を開発するにあたっては、受光素子アレイから出力される画像信号から縦偏光成分及び横偏光成分を抽出して光学成分抽出画像を生成するという画像処理を、フレームレート30fpsでのリアルタイム映像出力を可能とする短い時間内で完了することが要求される。現状において、この要求を満たす画像処理を可能とするには、現実的には、所定の画像処理プログラムを汎用CPUに実行させて当該画像処理を実現するソフトウェア処理ではなく、FPGA(Field Programmable Gate Array)等の専用ハードウェアを用いて当該画像処理を実現するハードウェア処理を採用することが必要となる。   In developing such an imaging apparatus, real-time image processing is performed at a frame rate of 30 fps by extracting an optical component extracted image by extracting a longitudinal polarization component and a lateral polarization component from an image signal output from a light receiving element array. It is required to complete within a short period of time enabling video output. At present, in order to enable image processing that satisfies this requirement, in reality, a predetermined image processing program is executed by a general-purpose CPU, and software processing that realizes the image processing is performed instead of FPGA (Field Programmable Gate Array). It is necessary to employ hardware processing that realizes the image processing using dedicated hardware such as

ここで、受光素子アレイから出力される画像信号から光学成分抽出画像を生成する画像処理の一例について説明する。
図31は、光学フィルタの偏光フィルタと受光素子アレイの受光素子との対応関係を示す説明図である。
この図において、縦横に並ぶ各正方形がそれぞれ受光素子を示し、受光素子の並び方向に対して斜めに延びるハッチング領域が縦偏光成分をカットする縦偏光フィルタの領域を示し、ハッチング領域以外の領域が横偏光成分をカットする横偏光フィルタの領域を示す。図示の例の光学フィルタは、縦偏光フィルタの帯及び横偏光フィルタの帯が交互に配置され、その帯の長手方向が受光素子の並び方向に対して斜めになるように、縦偏光フィルタの帯及び横偏光フィルタが配置されたものである。
Here, an example of image processing for generating an optical component extraction image from an image signal output from the light receiving element array will be described.
FIG. 31 is an explanatory diagram showing a correspondence relationship between the polarization filter of the optical filter and the light receiving elements of the light receiving element array.
In this figure, each square arranged vertically and horizontally indicates a light receiving element, a hatching area extending obliquely with respect to the direction in which the light receiving elements are arranged indicates an area of a vertical polarizing filter that cuts a vertical polarization component, and areas other than the hatching area indicate The area | region of the horizontal polarization filter which cuts a horizontal polarization component is shown. The optical filter of the example shown in the figure has a band of longitudinal polarization filters and a band of longitudinal polarization filters arranged alternately and the longitudinal direction of the bands is oblique with respect to the arrangement direction of the light receiving elements. And a lateral polarization filter are arranged.

受光素子アレイ上の1つの受光素子に対応する注目画素(図中の画素番号5)の縦偏光成分Vと横偏光成分Hは、例えば、当該注目画素5の受光量に対応した画像信号値I5だけでなく、その注目画素5の周囲を取り囲む8つの周辺画素1〜4,6〜9の受光量に対応した画像信号値I1〜I4,I6〜I9も用いて、下記の数1に示す式より求められる。下記の数1に示す式において、画像信号値I1〜I9から注目画素5の縦偏光成分Vと横偏光成分Hを算出するためのA1〜A18の要素をもつ係数行列(演算パラメータ)を、以下、疑似逆行列パラメータと称する。
The vertical polarization component V and the horizontal polarization component H of the target pixel (pixel number 5 in the figure) corresponding to one light receiving element on the light receiving element array are, for example, the image signal value I5 corresponding to the amount of light received by the target pixel 5. In addition to the image signal values I1 to I4 and I6 to I9 corresponding to the received light amounts of the eight peripheral pixels 1 to 4 and 6 to 9 that surround the periphery of the target pixel 5, the following equation 1 is used. More demanded. In the formula shown below, a coefficient matrix (calculation parameters) having elements A1 to A18 for calculating the vertical polarization component V and the horizontal polarization component H of the pixel of interest 5 from the image signal values I1 to I9 is expressed as follows. This is called a pseudo inverse matrix parameter.

この疑似逆行列パラメータは、以下のようにして予め求めておくことができる。
まず、図31に示した光学フィルタを通じて受光素子アレイ全体に、ほぼ一様な光強度Vで100%縦偏光のサンプル光を照射し、そのときに各受光素子(その受光素子の画素番号をiとする。)で受光する受光量に応じたサンプル縦偏光強度aviを取得する。また、同様に、光学フィルタを通じて受光素子アレイ全体に、ほぼ一様な光強度Hで100%横偏光のサンプル光を照射し、そのときに各受光素子で受光する受光量に応じたサンプル横偏光強度ahiを取得する。このようにして得られる各受光素子のサンプル縦偏光強度avi及びサンプル横偏光強度ahiは、それぞれ、その受光素子で受光される縦偏光成分及び横偏光成分の感度に比例していると考えることができる。よって、光学フィルタを透過して各受光素子iで受光する光の強度をIiとすると、Ii=avi×V+ahi×Hが成り立つ。そして、注目画素5を中心とした3×3画素の合計9つの画素1〜9に対して入射する光が同じであると仮定し、これらの画素1〜9について下記の数2に示す行列式を得る。この行列式において、av1〜9及びah1〜9を要素とした感度行列パラメータについての逆行列を求める。この逆行列が上述した疑似逆行列パラメータとなる。ただし、ハードウェア処理に最適化するために、このようにして求まる疑似逆行列パラメータを多少変形してもよい。
This pseudo inverse matrix parameter can be obtained in advance as follows.
First, the entire light receiving element array is irradiated with 100% longitudinally polarized sample light with a substantially uniform light intensity V through the optical filter shown in FIG. 31, and each light receiving element (the pixel number of the light receiving element is set to i). ) To obtain the sample longitudinal polarization intensity avi according to the amount of light received. Similarly, the entire light-receiving element array is irradiated with 100% laterally polarized sample light with an almost uniform light intensity H through an optical filter, and the sample laterally polarized light corresponding to the amount of light received by each light-receiving element at that time. Get strength ahi. It can be considered that the sample longitudinal polarization intensity avi and the sample transverse polarization intensity ahi of each light receiving element thus obtained are proportional to the sensitivities of the longitudinal polarization component and the lateral polarization component received by the light receiving element, respectively. it can. Therefore, if the intensity of light transmitted through the optical filter and received by each light receiving element i is Ii, Ii = avi × V + ahi × H is established. Then, it is assumed that the incident light is the same with respect to a total of nine pixels 1 to 9 of 3 × 3 pixels centered on the target pixel 5, and the determinant represented by the following equation 2 is set for these pixels 1 to 9. Get. In this determinant, an inverse matrix is obtained for sensitivity matrix parameters having av1 to 9 and ah1 to 9 as elements. This inverse matrix becomes the pseudo inverse matrix parameter described above. However, in order to optimize for hardware processing, the pseudo inverse matrix parameter obtained in this way may be slightly modified.

ここでは、縦偏光フィルタと横偏光フィルタとが交互に配置された光学フィルタを例に挙げたが、縦偏光フィルタとフィルタ無し(光をそのまま透過させる領域)とが交互に配置された光学フィルタや、横偏光フィルタとフィルタ無しとが交互に配置された光学フィルタであっても、上述した手順と同様の方法で、疑似逆行列パラメータを求めることができる。ただし、このような光学フィルタを用いる場合、実際の撮像時には、受光素子アレイが横偏光成分及び縦偏光成分のいずれか一方を受光しない。そのため、偏光フィルタを通過して受光される偏光成分の画像信号値とフィルタ無しを通過して受光される非偏光の画像信号値とを用いて、受光しない偏光成分を求める必要がある。この場合、例えば、非偏光の受光量が縦偏光成分の受光量と横偏光成分の受光量との合算値に近似することを利用して、疑似逆行列パラメータを生成すればよい。   Here, the optical filter in which the vertical polarization filter and the horizontal polarization filter are alternately arranged has been described as an example. However, the optical filter in which the vertical polarization filter and no filter (area that transmits light as it is) are alternately arranged, Even in the case of an optical filter in which a lateral polarization filter and no filter are alternately arranged, the pseudo inverse matrix parameter can be obtained by the same method as that described above. However, when such an optical filter is used, at the time of actual imaging, the light receiving element array does not receive either one of the horizontally polarized light component and the vertically polarized light component. For this reason, it is necessary to obtain a polarization component that does not receive light by using an image signal value of a polarization component that is received through the polarization filter and a non-polarization image signal value that is received through the absence of the filter. In this case, for example, the pseudo inverse matrix parameter may be generated using the fact that the amount of light received by non-polarized light approximates the sum of the amount of light received by the longitudinally polarized light component and the amount of light received by the horizontally polarized light component.

このように、注目画素の画素値を、疑似逆行列パラメータ等の演算パラメータを用いて、当該注目画素5の画像信号値I5と該注目画素周辺に位置する周辺画素1〜4,6〜9の画像信号値I1〜I4,I6〜I9とから構成される画像信号群から算出する場合、その画像信号群に異常な値が含まれていると、当該注目画素の画素値として正常な値を算出することができない。例えば、画像信号値がゼロである画素(いわゆる受光量がゼロで黒つぶれが生じている画素)や、画像信号値が上限値である画素(いわゆる受光量が飽和している画素)は、通常の撮像領域内からの光を受光する場合には存在し得ない場合が多く、その画素値は異常な画素値であることが多い。このような異常な画素値が注目画素を算出するための画像信号群の中に含まれていると、注目画素の画素値として、本来の画素値から外れた異常な値が算出される。撮像画像中に異常な値を示す画素値が含まれている場合、撮像画像の画素値を用いた後段の情報処理にそのまま利用されると、その処理結果に異常を来すという問題があった。例えば、撮像画像の画素値に基づいて物体の識別を行う物体識別処理であれば、物体識別率が低下したり、物体の誤識別を生じさせたりする。 As described above, the pixel value of the target pixel is calculated using the calculation parameter such as the pseudo inverse matrix parameter and the image signal value I5 of the target pixel 5 and the peripheral pixels 1 to 4 and 6 to 9 located around the target pixel. When calculating from an image signal value group composed of the image signal values I1 to I4 and I6 to I9, if the image signal value group includes an abnormal value, a normal value as the pixel value of the target pixel Cannot be calculated. For example, a pixel whose image signal value is zero (a pixel where the so-called light reception amount is zero and blackening occurs) or a pixel whose image signal value is the upper limit (a pixel where the so-called light reception amount is saturated) is usually In many cases, it cannot exist when receiving light from within the imaging region, and the pixel value is often an abnormal pixel value. When such an abnormal pixel value is included in the image signal value group for calculating the target pixel, an abnormal value deviating from the original pixel value is calculated as the pixel value of the target pixel. When a pixel value indicating an abnormal value is included in the captured image, there is a problem in that the processing result is abnormal when used as it is for subsequent information processing using the pixel value of the captured image. . For example, in the case of object identification processing for identifying an object based on the pixel value of the captured image, the object identification rate is reduced or the object is erroneously identified.

本発明は、上記問題に鑑みなされたものであり、その目的とするところは、撮像画像の画素値に基づいた後段の情報処理で異常な処理結果が生じるのを回避することが可能な撮像装置及びこれを用いた物体識別装置を提供することである。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging apparatus capable of avoiding an abnormal processing result from being generated in subsequent information processing based on the pixel value of the captured image. And an object identification device using the same.

上記目的を達成するために、本発明は、所定の光学成分を選択的に透過させる選択フィルタ領域を周期的に配列した光学フィルタを通じて、受光素子が2次元配置された受光素子アレイにより撮像領域からの光を受光し、該受光素子アレイ上の1つの受光素子又は2つ以上の受光素子に対応する単位画素ごとの受光量に応じた画像信号値を含む画像信号を出力する撮像手段と、該撮像手段から出力された画像信号に対応する単位画素の画素値を、所定の演算パラメータを用いて、該単位画素の画像信号と該単位画素周辺に位置する周辺画素の画像信号とから構成される画像信号群から算出する画素値算出手段とを備えた撮像装置において、上記画像信号値群を構成する画像信号値に基づき、該画像信号群を構成する画像信号の中に、所定の値範囲を外れているという異常判定条件を満たす画像信号が含まれているか否かを判定する異常信号判定手段を有し、上記画素値算出手段は、上記画像信号群を構成する画像信号の中に上記異常判定条件を満たす画像信号が含まれていると上記異常信号判定手段が判定した場合には、上記所定の演算パラメータを用いずに、異常な値であることを示す異常指示値を、該画像信号群に対応する単位画素の画素値とする処理を実行することを特徴とするものである。 To achieve the above object, the present invention is, through the selective optical filter that the transmitted was Ru selection filter regions periodically arranged a predetermined optical component, the light receiving element in which the light-receiving elements are arranged two-dimensionally The array receives light from the imaging region, and outputs an image signal including an image signal value corresponding to the amount of light received for each unit pixel corresponding to one light receiving element or two or more light receiving elements on the light receiving element array. an imaging unit, a pixel value of a unit pixel corresponding to the image signal output from the imaging means, using a predetermined calculation parameters, image signal value of the unit pixel and the unit of peripheral pixels located around the pixel image in the image pickup apparatus having a pixel value calculating means for calculating from the composed image signal value group from the signal value on the basis of the image signal values constituting the image signal value group, the image signal constituting the image signal value group in the, Has an abnormality signal value determining means for determining whether an abnormality determination condition is satisfied image signal values that are out of the constant range of values are included, the pixel value calculating means, constituting the image signal value group when the upper Kikoto normally satisfies the determination condition image signal value in the image signal values are included to the abnormality signal value determination means determines the without the predetermined operation parameters, abnormal value It is characterized in that processing for setting the abnormal instruction value indicating that the pixel value of the unit pixel corresponding to the image signal value group is executed.

本発明においては、単位画素の画素値を所定の演算パラメータを用いて算出する際に参照される画像信号群を構成する画像信号の中に、所定の値範囲を外れているという異常判定条件を満たす画像信号が含まれていると上記異常信号判定手段により判定された場合、当該画素値については、異常な値であることを示す異常指示値が割り当てられる。したがって、撮像画像の画素値を用いた後段の情報処理において、当該単位画素の画素値が異常判定条件を満たす異常な画像信号に基づく異常な値であることを把握することができる。その結果、後段の情報処理では、当該単位画素の画素値を異常な値として取り扱うことができるので、異常な値を示す単位画素の画素値をそのまま正常な画素値として処理してしまうことによる処理結果の異常を回避することが可能となる。 In the present invention, the abnormality determination that the image signal value constituting the image signal value group referred to when the pixel value of the unit pixel is calculated using the predetermined calculation parameter is out of the predetermined value range. When the abnormal signal value determining means determines that an image signal value satisfying the condition is included, an abnormal instruction value indicating an abnormal value is assigned to the pixel value. Accordingly, the subsequent information processing using the pixel values of the captured image, can be a pixel value of the unit pixel to grasp an abnormal value based on abnormal determination condition is satisfied abnormal image signal value. As a result, in the subsequent information processing, the pixel value of the unit pixel can be handled as an abnormal value, so that the pixel value of the unit pixel indicating the abnormal value is processed as it is as a normal pixel value. It is possible to avoid abnormal results.

以上、本発明によれば、撮像画像の画素値に基づいた後段の情報処理で異常な処理結果が生じるのを回避することが可能となるという優れた効果が得られる。   As described above, according to the present invention, it is possible to obtain an excellent effect that an abnormal processing result can be avoided in subsequent information processing based on the pixel value of the captured image.

実施形態に係る運転者支援システムの機能ブロック図である。It is a functional block diagram of the driver assistance system concerning an embodiment. 同運転者支援システムにおける車両検出処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the vehicle detection process in the driver | operator assistance system. 路面及び立体物を判別するための処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process for discriminating a road surface and a solid object. 高速道路を走行している車両に搭載した偏光カメラにより撮像して得た差分偏光度画像を示したものである。It shows a differential polarization degree image obtained by imaging with a polarization camera mounted on a vehicle traveling on a highway. 同差分偏光度画像について路面及び立体物の判別処理を施した後の画像を示したものである。The image after performing the discrimination | determination process of a road surface and a solid object about the same differential polarization degree image is shown. 立体物領域であると判定された領域の中から車両候補領域を決定するためのフローチャートである。It is a flowchart for determining a vehicle candidate area | region from the area | region determined to be a solid object area | region. 同運転者支援システムに利用可能な偏光カメラの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the polarization camera which can be used for the driver | operator assistance system. 同偏光カメラの光学フィルタと画像センサとを示す断面拡大図である。It is a cross-sectional enlarged view which shows the optical filter and image sensor of the polarization camera. 同光学フィルタの偏光フィルタと画像センサ上の画素との対応関係を示す説明図である。It is explanatory drawing which shows the correspondence of the polarization filter of the same optical filter, and the pixel on an image sensor. 同画像センサ上の受光素子を単位処理領域ごとに区分する方法を説明するための説明図である。It is explanatory drawing for demonstrating the method of classifying the light receiving element on the image sensor for every unit processing area. 一の単位処理領域における4種類の共通単位画素の分布を示す説明図である。It is explanatory drawing which shows distribution of four types of common unit pixels in one unit processing area. (a)は、第1共通単位画素を注目画素として画像処理を行う際に用いられる3×3画素内の共通単位画素分布を示す説明図である。(b)は、第2共通単位画素を注目画素として画像処理を行う際に用いられる3×3画素内の共通単位画素分布を示す説明図である。(c)は、第3共通単位画素を注目画素として画像処理を行う際に用いられる3×3画素内の共通単位画素分布を示す説明図である。(d)は、第4共通単位画素を注目画素として画像処理を行う際に用いられる3×3画素内の共通単位画素分布を示す説明図である。(A) is explanatory drawing which shows the common unit pixel distribution in 3x3 pixel used when performing an image process by making a 1st common unit pixel into an attention pixel. FIG. 6B is an explanatory diagram illustrating a common unit pixel distribution within 3 × 3 pixels used when image processing is performed using the second common unit pixel as a target pixel. (C) is an explanatory diagram showing a common unit pixel distribution within 3 × 3 pixels used when image processing is performed using the third common unit pixel as a target pixel. (D) is an explanatory diagram showing a common unit pixel distribution in 3 × 3 pixels used when image processing is performed with a fourth common unit pixel as a target pixel. 同画像センサ上の受光素子を単位処理領域ごとに区分した模式図を用いて、擬似逆行列パラメータが記憶されている単位処理領域と擬似逆行列パラメータが記憶されていない単位処理領域の分布の一例を示した説明図である。Example of distribution of unit processing area in which pseudo inverse matrix parameter is stored and unit processing area in which pseudo inverse matrix parameter is not stored, using schematic diagram in which light receiving element on same image sensor is divided for each unit processing area It is explanatory drawing which showed. すべての画素について予め個別に用意しておいた疑似逆行列パラメータ(疑似逆行列パラメータの全データ量=約26Mバイト)を用いて得た差分偏光度画像の一例を示すものである。It shows an example of a differential polarization degree image obtained using pseudo inverse matrix parameters (total data amount of pseudo inverse matrix parameters = about 26 Mbytes) prepared individually for all pixels. 同じ疑似逆行列パラメータを使い回すとともに上述した補間処理を行って得た差分偏光度画像(疑似逆行列パラメータの全データ量=約0.025Mバイト))の一例を示すものである。It shows an example of a differential polarization degree image (total data amount of pseudo inverse matrix parameters = approximately 0.025 Mbytes) obtained by using the same pseudo inverse matrix parameters repeatedly and performing the above-described interpolation processing. 変形例1に係る光学フィルタと画像センサ上の画素との対応関係を示す説明図である。It is explanatory drawing which shows the correspondence of the optical filter which concerns on the modification 1, and the pixel on an image sensor. 変形例1における一の単位処理領域に存在する6種類の共通単位画素の分布を示す説明図である。FIG. 10 is an explanatory diagram showing a distribution of six types of common unit pixels existing in one unit processing region in Modification 1. 変形例2に係る光学フィルタと画像センサ上の画素との対応関係を示す説明図である。It is explanatory drawing which shows the correspondence of the optical filter which concerns on the modification 2, and the pixel on an image sensor. 変形例2における一の単位処理領域に存在する12種類の共通単位画素の分布を示す説明図である。FIG. 12 is an explanatory diagram showing a distribution of 12 types of common unit pixels existing in one unit processing area in Modification 2. 実施例に係る偏光カメラの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the polarization camera which concerns on an Example. 同偏光カメラに設けられた差分偏光度画像生成部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the difference polarization degree image generation part provided in the same polarization camera. 同差分偏光度画像生成部に設けられたBRAMアドレス計算部の出力タイミングチャートである。It is an output timing chart of the BRAM address calculation part provided in the difference polarization degree image generation part. 同差分偏光度画像生成部に設けられた係数生成部の内部構成図である。It is an internal block diagram of the coefficient generation part provided in the difference polarization degree image generation part. 実施例における単位処理領域の区分を示す説明図である。It is explanatory drawing which shows the division of the unit processing area | region in an Example. 擬似逆行列パラメータが格納される擬似逆行列パラメータ格納用BRAMのアドレスマップである。It is an address map of a BRAM for storing pseudo inverse matrix parameters in which pseudo inverse matrix parameters are stored. 同差分偏光度画像生成部に設けられた偏光分離処理部の内部構成図である。It is an internal block diagram of the polarization separation process part provided in the same differential polarization degree image generation part. 同差分偏光度画像生成部に設けられた差分偏光度計算部の内部構成図である。It is an internal block diagram of the difference polarization degree calculation part provided in the same difference polarization degree image generation part. 同差分偏光度画像生成部に設けられた差分偏光度画像計算部の内部構成図である。It is an internal block diagram of the difference polarization degree image calculation part provided in the difference polarization degree image generation part. 擬似逆行列パラメータが格納されたSPIフラッシュメモリのアドレスマップである。It is an address map of the SPI flash memory in which pseudo inverse matrix parameters are stored. 同SPIフラッシュメモリのセクター24に格納される疑似逆行列パラメータのアドレスマップである。It is an address map of the pseudo inverse matrix parameter stored in the sector 24 of the SPI flash memory. 光学フィルタの偏光フィルタと受光素子アレイの受光素子との対応関係を示す説明図である。It is explanatory drawing which shows the correspondence of the polarizing filter of an optical filter, and the light receiving element of a light receiving element array.

以下、本発明に係る撮像装置を、自車の運転者(ドライバー)の運転負荷を軽減させるための運転者支援システムに適用した一実施形態について説明する。
まず、本運転者支援システムにおける概略構成及び動作概要を説明する。
図1は、本実施形態に係る運転者支援システムの機能ブロック図である。
図2は、本実施形態の運転者支援システムにおける車両検出処理の概要を示すフローチャートである。
図示しない車両に搭載された撮像装置としての偏光カメラ10により、車両が走行する路面(移動面)を含む自車周囲の風景を撮影する(S1)。これにより、偏光カメラ10の受光素子1つに対応した単位画素(以下、単に「画素」という。)ごとの縦偏光強度及び横偏光強度を得る(S2)。本実施形態では、このようにして得られる各画素の縦偏光強度及び横偏光強度から、単位画素ごとに、差分偏光度を算出する(S3)。この差分偏光度から、各画素の差分偏光度を画素値とした差分偏光度画像を生成することができる。ここで、「縦偏光強度」とは、自車両に設置された撮像装置内の受光素子アレイの縦列(鉛直方向の列)に平行な偏光方向をもった偏光の光強度を意味し、「横偏光強度」とは、自車両に設置された撮像装置内の受光素子アレイの横列(水平方向の列)に平行な偏光方向をもった偏光の光強度を意味する。
Hereinafter, an embodiment in which an imaging device according to the present invention is applied to a driver support system for reducing the driving load of a driver of the own vehicle will be described.
First, a schematic configuration and an operation outline in the driver assistance system will be described.
FIG. 1 is a functional block diagram of the driver assistance system according to the present embodiment.
FIG. 2 is a flowchart showing an outline of vehicle detection processing in the driver assistance system of the present embodiment.
A landscape around the host vehicle including a road surface (moving surface) on which the vehicle travels is photographed by a polarization camera 10 as an imaging device mounted on a vehicle (not shown) (S1). Thereby, the vertical polarization intensity and the horizontal polarization intensity for each unit pixel (hereinafter simply referred to as “pixel”) corresponding to one light receiving element of the polarization camera 10 are obtained (S2). In the present embodiment, the differential polarization degree is calculated for each unit pixel from the vertical polarization intensity and the horizontal polarization intensity of each pixel obtained in this way (S3). From this differential polarization degree, a differential polarization degree image with the differential polarization degree of each pixel as the pixel value can be generated. Here, “longitudinal polarization intensity” means the light intensity of polarized light having a polarization direction parallel to the column (vertical column) of the light receiving element array in the imaging apparatus installed in the vehicle. The “polarization intensity” means the light intensity of polarized light having a polarization direction parallel to a row (horizontal row) of the light receiving element array in the imaging device installed in the own vehicle.

差分偏光度は、下記の式(3)に示す計算式から求められる。すなわち、差分偏光度は、横偏光強度と縦偏光強度との合計値(輝度合計値)に対する横偏光強度と縦偏光強度との差分値(輝度差分値)の比率である。また、差分偏光度は、輝度合計値に対するP偏向強度の比率(横差分偏光度)と、輝度合計値に対するS偏向強度の比率(縦差分偏光度)との差分値であると言い換えることもできる。本実施形態では、横偏光強度から縦偏光強度を差し引く場合について説明するが、縦偏光強度から横偏光強度を差し引くようにしてもよい。
差分偏光度=(横偏光強度−縦偏光強度)/(横偏光強度+縦偏光強度) ・・(3)
The differential polarization degree is obtained from the calculation formula shown in the following formula (3). That is, the differential polarization degree is the ratio of the difference value (luminance difference value) between the lateral polarization intensity and the longitudinal polarization intensity to the total value (luminance total value) of the transverse polarization intensity and the longitudinal polarization intensity. In addition, the differential polarization degree can be paraphrased as a difference value between the ratio of the P deflection intensity with respect to the total luminance value (lateral differential polarization degree) and the ratio of the S deflection intensity with respect to the total luminance value (vertical differential polarization degree). . In the present embodiment, a case where the longitudinal polarization intensity is subtracted from the lateral polarization intensity will be described, but the lateral polarization intensity may be subtracted from the longitudinal polarization intensity.
Differential polarization degree = (transverse polarization intensity−longitudinal polarization intensity) / (transverse polarization intensity + longitudinal polarization intensity) (3)

本実施形態では、偏光カメラ10から差分偏光度画像のデータが出力され、この差分偏光度画像のデータが路面・立体物判別部21に入力される。路面・立体物判別部21は、偏光カメラ10から出力された差分偏光度画像について、路面を映し出した画像領域と立体物を映し出した画像領域とを判別する(S4)。
図3は、路面及び立体物を判別するための処理の流れを示すフローチャートである。
路面・立体物判別部21は、偏光カメラ10から差分偏光度画像のデータを受け取ったら、まず、差分偏光度画像を2値化するための閾値を設定し(S41)、その閾値を用いて差分偏光度画像を2値化する(S42)。具体的には、所定の閾値以上の差分偏光度を有する画素に「1」、そうでない画素に「0」を割り振ることで、2値化画像を作成する。その後、この2値化画像において、「1」が割り振られた画素が近接している場合には、それらを1つの画像領域として認識するラベリング処理を実施する(S43)。これによって、差分偏光度の高い近接した複数の画素の集合が1つの高差分偏光度領域として抽出される。このようにして抽出した各高差分偏光度領域を、図示しない路面特徴データ記憶手段としての記憶部内に記憶されている路面の特徴データと照らし合わせ、路面の特徴データに合致した高差分偏光度領域を路面領域として抽出する(S44)。そして、このようにして抽出した路面領域の形状を、路面形状パターンと照らし合わせて推定し(S45)、路面領域の両端すなわち路端ラインを特定する。その後、抽出した路面領域以外の残りの画像領域を、立体物を映し出した立体物領域として抽出する(S46)。
In the present embodiment, differential polarization degree image data is output from the polarization camera 10, and the differential polarization degree image data is input to the road surface / three-dimensional object determination unit 21. The road surface / three-dimensional object discriminating unit 21 discriminates between an image area showing a road surface and an image area showing a three-dimensional object from the differential polarization degree image output from the polarization camera 10 (S4).
FIG. 3 is a flowchart showing a flow of processing for discriminating a road surface and a three-dimensional object.
When the road surface / three-dimensional object discriminating unit 21 receives the differential polarization degree image data from the polarization camera 10, first, a threshold value for binarizing the differential polarization degree image is set (S 41), and the difference is calculated using the threshold value. The polarization degree image is binarized (S42). Specifically, a binary image is created by assigning “1” to pixels having a differential polarization degree equal to or greater than a predetermined threshold and assigning “0” to pixels that do not. Thereafter, in the binarized image, when pixels assigned with “1” are close to each other, a labeling process for recognizing them as one image area is performed (S43). As a result, a set of a plurality of adjacent pixels having a high difference polarization degree is extracted as one high difference polarization degree region. Each high differential polarization degree region extracted in this way is compared with road surface feature data stored in a storage unit (not shown) as road surface feature data storage means, and the high difference polarization degree region that matches the road surface feature data. Is extracted as a road surface area (S44). Then, the shape of the road surface area extracted in this way is estimated by comparing with the road surface shape pattern (S45), and both ends of the road surface area, that is, road edge lines are specified. Thereafter, the remaining image area other than the extracted road surface area is extracted as a three-dimensional object area in which a three-dimensional object is projected (S46).

図4は、高速道路を走行している車両に搭載した偏光カメラ10により撮像して得た差分偏光度画像を示したものである。
図5は、この差分偏光度画像について路面及び立体物の判別処理を施した後の画像を示したものである。
図5に示す画像中の黒塗り部分の画像領域が路面領域として抽出された箇所である。また、図5に示す画像中の点線で示すラインが路端ラインである。
FIG. 4 shows a differential polarization degree image obtained by imaging with a polarization camera 10 mounted on a vehicle traveling on a highway.
FIG. 5 shows an image after the road surface and the three-dimensional object are subjected to the differential polarization degree image.
The image area of the black part in the image shown in FIG. 5 is a location extracted as a road surface area. Moreover, the line shown with the dotted line in the image shown in FIG. 5 is a road edge line.

車両候補領域決定部22は、車両の窓ガラスからの光が有する差分偏光度の特徴を利用して、上記S46において立体物領域であると判定された領域の中から、車両候補領域を決定する(S5)。
図6は、立体物領域であると判定された領域の中から車両候補領域を決定するためのフローチャートである。
車両候補領域決定部22は、路面・立体物判別部21において判定された各立体物領域に対して、その差分偏光度が所定の閾値以上であるか否か(所定の数値範囲内であるか否か)を判断し、差分偏光度が所定の閾値以上である立体物領域を検知する(S51)。次に、このようにして検知した立体物領域の面積が、車両の窓ガラスに対応する面積範囲内であるか否かをチェックする(S52)。そして、このチェックを通った立体物領域に対し、車両の窓ガラスに対応する形状を有するかどうかをチェックして、このチェックも通った立体物領域を、車両後方領域として決定する(S53)。
The vehicle candidate area determination unit 22 determines a vehicle candidate area from the areas determined to be a three-dimensional object area in S46 using the characteristics of the differential polarization degree of light from the window glass of the vehicle. (S5).
FIG. 6 is a flowchart for determining a vehicle candidate area from among the areas determined to be solid objects areas.
The vehicle candidate area determination unit 22 determines whether or not the differential polarization degree is equal to or greater than a predetermined threshold for each solid object area determined by the road surface / three-dimensional object determination unit 21 (is within a predetermined numerical range). No) is detected, and a three-dimensional object region having a differential polarization degree equal to or greater than a predetermined threshold is detected (S51). Next, it is checked whether or not the area of the three-dimensional object region detected in this way is within the area range corresponding to the window glass of the vehicle (S52). Then, it is checked whether or not the three-dimensional object region that has passed this check has a shape corresponding to the window glass of the vehicle, and the three-dimensional object region that has passed this check is determined as the vehicle rear region (S53).

車両識別部23は、車両特徴量パターン記憶部24に記憶された車両特徴量パターンによるバターンマッチング手法により、上記車両候補領域決定部22が決定した車両候補領域が車両領域であるか否かを識別する。このバターンマッチング手法は、公知のものを広く利用できる。   The vehicle identification unit 23 identifies whether or not the vehicle candidate region determined by the vehicle candidate region determination unit 22 is a vehicle region by a pattern matching method using the vehicle feature amount pattern stored in the vehicle feature amount pattern storage unit 24. To do. As this pattern matching method, known methods can be widely used.

本実施形態では、例えば、CRTや液晶等で構成される車内の情報報知手段である表示部(ディスプレイ)25に、モノクロ画像処理部で算出した輝度データを用いて生成されるモノクロ輝度画像(フロントビュー画像)を表示し、その画像中の他車を映し出している領域を示す情報を、運転者にとって有益な情報として報知するために、運転者が見やすい表示形態で表示する。これによれば、例えば、運転者が目視で他車を認識することが困難な状況下であっても、運転者は表示部のフロントビュー画像を見ることで、自車と他車との相対位置関係を把握することができ、他車に衝突することなく安全に走行することが容易になる。   In the present embodiment, for example, a monochrome luminance image (front) generated by using the luminance data calculated by the monochrome image processing unit is displayed on the display unit (display) 25 which is an in-vehicle information notification unit composed of a CRT, a liquid crystal, or the like. (View image) is displayed, and information indicating an area in which the other vehicle is displayed is displayed as information useful for the driver in a display form that is easy for the driver to see. According to this, for example, even in a situation where it is difficult for the driver to visually recognize the other vehicle, the driver can view the relative position between the host vehicle and the other vehicle by looking at the front view image on the display unit. The positional relationship can be grasped, and it is easy to travel safely without colliding with another vehicle.

また、本実施形態の車両制御部26は、例えば、車両識別部23により識別された車両領域の位置情報から、自車と他車との相対位置関係を把握する処理を行い、自車が他車に近づいて走行していないかどうかを判断し、他車に近づいたときに警報音等を発する処理を行う。あるいは、他車に近づいたときに、自動ブレーキ機能を実行して、自車の走行速度を落とすような処理を行ってもよい。   In addition, the vehicle control unit 26 of the present embodiment performs a process of grasping the relative positional relationship between the own vehicle and the other vehicle from the position information of the vehicle area identified by the vehicle identification unit 23, for example. It is determined whether or not the vehicle is approaching the vehicle, and processing for generating an alarm sound or the like when the vehicle approaches another vehicle is performed. Or when approaching another vehicle, you may perform the process which performs an automatic brake function and reduces the traveling speed of the own vehicle.

以下、本発明の特徴部分である偏光カメラ10の構成及び動作について詳述する。
図7は、本実施形態における偏光カメラ10の概略構成を示す説明図である。
この偏光カメラ10は、主に、撮像レンズ1と、光学フィルタ2と、受光素子が2次元配置された受光素子アレイを有する画像センサ4が搭載されたセンサ基板3と、センサ基板3から出力されるアナログ電気信号(画像センサ4上の各受光素子が受光した受光量)をデジタル電気信号に変換するA/D変換部5と、A/D変換部5から出力されるデジタル電気信号(画素データ)に対して画像処理を行って差分偏光度画像のデータを生成して出力する信号処理部6とから構成されている。被写体(被検物)を含む撮像領域からの光は、撮像レンズ1を通り、光学フィルタ2を透過して、画像センサ4でその光強度に応じた電気信号に変換される。A/D変換部5では、画像センサ4から出力される電気信号(アナログ信号)が入力されると、その電気信号から、画素データとして、画像センサ4上における各画素の受光量を示すデジタル信号を、画像の垂直同期信号及び水平同期信号とともに信号処理部6へ出力する。
Hereinafter, the configuration and operation of the polarization camera 10 which is a characteristic part of the present invention will be described in detail.
FIG. 7 is an explanatory diagram showing a schematic configuration of the polarization camera 10 in the present embodiment.
The polarization camera 10 is mainly output from the image pickup lens 1, the optical filter 2, a sensor substrate 3 on which an image sensor 4 having a light receiving element array in which light receiving elements are two-dimensionally arranged, and a sensor substrate 3. A / D converter 5 that converts an analog electrical signal (the amount of light received by each light receiving element on image sensor 4) into a digital electrical signal, and a digital electrical signal (pixel data) output from A / D converter 5 ), And a signal processing unit 6 that generates and outputs differential polarization degree image data. Light from the imaging region including the subject (test object) passes through the imaging lens 1, passes through the optical filter 2, and is converted into an electrical signal corresponding to the light intensity by the image sensor 4. When an electrical signal (analog signal) output from the image sensor 4 is input to the A / D conversion unit 5, a digital signal indicating the amount of light received by each pixel on the image sensor 4 as pixel data from the electrical signal. Are output to the signal processing unit 6 together with the vertical synchronizing signal and horizontal synchronizing signal of the image.

図8は、光学フィルタ2と画像センサ4とを示す断面拡大図である。
画像センサ4は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いたイメージセンサであり、その受光素子にはフォトダイオード4aを用いている。フォトダイオード4aは、画素ごとに2次元的にアレイ配置されており、フォトダイオード4aの集光効率を上げるために、各フォトダイオード4aの入射側にはマイクロレンズ4bが設けられている。この画像センサ4がワイヤボンディングなどの手法によりPWB(printed wiring board)に接合されてセンサ基板3が形成されている。撮像する画像の波長範囲は略可視光であるため、画像センサ4としては、可視光の範囲に感度を有するものを選択すればよい。本実施形態の画像センサ4は、互いに直交する縦方向及び横方向に等間隔で配列された480×752の受光素子(フォトダイオード4a)を有効画素とする構成であり、1個のフォトダイオード4aを単位画素とする。
FIG. 8 is an enlarged cross-sectional view showing the optical filter 2 and the image sensor 4.
The image sensor 4 is an image sensor using a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, and a photodiode 4a is used as a light receiving element thereof. The photodiodes 4a are two-dimensionally arranged for each pixel, and a microlens 4b is provided on the incident side of each photodiode 4a in order to increase the light collection efficiency of the photodiodes 4a. The image sensor 4 is bonded to a PWB (printed wiring board) by a technique such as wire bonding to form a sensor substrate 3. Since the wavelength range of the image to be captured is substantially visible light, an image sensor 4 having sensitivity in the visible light range may be selected. The image sensor 4 of the present embodiment has a configuration in which light receiving elements (photodiodes 4a) of 480 × 752 arranged at equal intervals in the vertical and horizontal directions orthogonal to each other are effective pixels, and one photodiode 4a. Is a unit pixel.

画像センサ4のマイクロレンズ4b側の面には、光学フィルタ2が近接配置されている。光学フィルタ2の画像センサ4側の面には、図9に示すように、光をそのまま透過する非選択フィルタ領域である透過領域2aと、横偏光成分のみを選択的に透過させる選択フィルタ領域としての横偏光フィルタ領域2bとが、画像センサ4の縦方向(図中y方向)及び横方向(図中x方向)のいずれにも傾斜するように交互配置されたストライプ状の領域分割パターンを有している。具体的には、画像センサ4の縦方向における画素間隔(フォトダイオード4aの中心間距離)をnとし、横方向における画素間隔をmとしたとき、透過領域2a及び横偏光フィルタ領域2bの縦方向長さNが下記の式(1)を満たし、透過領域2a及び横偏光フィルタ領域2bの横方向長さMが下記の式(2)を満たすように、光学フィルタ2が構成されている。本実施形態の光学フィルタ2は、図9に示すように、A=1、B=2の例(すなわち、B/A=2の例)である。
N = A × n ・・・(1)
M = B × m ・・・(2)
The optical filter 2 is disposed close to the surface of the image sensor 4 on the microlens 4b side. On the surface of the optical filter 2 on the image sensor 4 side, as shown in FIG. 9, there are a transmission region 2a that is a non-selection filter region that transmits light as it is, and a selection filter region that selectively transmits only the lateral polarization component. The horizontal polarization filter region 2b has stripe-shaped region division patterns alternately arranged so as to incline in both the vertical direction (y direction in the drawing) and the horizontal direction (x direction in the drawing) of the image sensor 4. doing. Specifically, when the pixel interval (distance between the centers of the photodiodes 4a) in the vertical direction of the image sensor 4 is n and the pixel interval in the horizontal direction is m, the vertical direction of the transmission region 2a and the horizontal polarization filter region 2b. The optical filter 2 is configured such that the length N satisfies the following formula (1) and the lateral length M of the transmission region 2a and the lateral polarization filter region 2b satisfies the following formula (2). As shown in FIG. 9, the optical filter 2 of the present embodiment is an example of A = 1 and B = 2 (that is, an example of B / A = 2).
N = A × n (1)
M = B × m (2)

本実施形態においては、図9に示すように、光学フィルタ2に備わった2種類のフィルタ領域(透過領域2aと横偏光フィルタ領域2b)を透過した各光の1画素内における受光面積の比率が互いに等しい4種類の共通単位画素が周期的に存在するように構成される。
具体的に説明すると、第1共通単位画素は、図9に示す画素番号1の画素のように、当該画素の右上隅の小領域で横偏光フィルタ領域2bを透過した横偏光成分を受光するとともに、残りの大領域で透過領域2aを透過した非偏光の光を受光するパターンの画素である。
第2共通単位画素は、図9に示す画素番号2の画素のように、当該画素の左下隅の小領域で透過領域2aを透過した非偏光の光を受光するとともに、残りの大領域で横偏光フィルタ領域2bを透過した横偏光成分を受光するパターンの画素である。
第3共通単位画素は、図9に示す画素番号3の画素のように、当該画素の右上隅の小領域で透過領域2aを透過した非偏光の光を受光するとともに、残りの大領域で横偏光フィルタ領域2bを透過した横偏光成分を受光するパターンの画素である。
第4共通単位画素は、図9に示す画素番号5の画素のように、当該画素の左下隅の小領域で横偏光フィルタ領域2bを透過した横偏光成分を受光するとともに、残りの大領域で透過領域2aを透過した非偏光の光を受光するパターンの画素である。
In the present embodiment, as shown in FIG. 9, the ratio of the light receiving area in one pixel of each light transmitted through the two types of filter regions (the transmission region 2a and the lateral polarization filter region 2b) provided in the optical filter 2 is as follows. Four types of common unit pixels that are equal to each other are configured to periodically exist.
More specifically, the first common unit pixel receives the horizontally polarized light component transmitted through the horizontally polarized filter region 2b in the small region at the upper right corner of the pixel, like the pixel of pixel number 1 shown in FIG. These are pixels having a pattern for receiving the non-polarized light transmitted through the transmission region 2a in the remaining large region.
Like the pixel number 2 shown in FIG. 9, the second common unit pixel receives non-polarized light transmitted through the transmission region 2a in a small region at the lower left corner of the pixel, and horizontally in the remaining large region. It is a pixel having a pattern for receiving a laterally polarized light component transmitted through the polarizing filter region 2b.
The third common unit pixel receives the non-polarized light transmitted through the transmission region 2a in the small region at the upper right corner of the pixel, as in the pixel of pixel number 3 shown in FIG. It is a pixel having a pattern for receiving a laterally polarized light component transmitted through the polarizing filter region 2b.
The fourth common unit pixel, like the pixel of pixel number 5 shown in FIG. 9, receives the horizontally polarized light component transmitted through the horizontally polarized filter region 2b in the small region at the lower left corner of the pixel, and in the remaining large region. It is a pixel of the pattern which receives the non-polarized light which permeate | transmitted the transmissive area | region 2a.

本実施形態の偏光カメラ10の信号処理部6では、A/D変換部5から出力される画素データと疑似逆行列パラメータとを用いて、注目画素(図9中の画素番号5)の縦偏光成分Vと横偏光成分Hを、下記の数3に示す式より算出する。すなわち、本実施形態では、注目画素5の縦偏光成分Vと横偏光成分Hを、当該注目画素5の画素データI5だけでなく、その注目画素5の周囲を取り囲む8つの周辺画素1〜4,6〜9の画素データI1〜I4,I6〜I9も用いて算出する。この算出に必要な疑似逆行列パラメータは、予め求めておいて後述するパラメータ記憶手段としてのSPIフラッシュメモリに格納されているものを用いる。
In the signal processing unit 6 of the polarization camera 10 according to the present embodiment, the vertical polarization of the pixel of interest (pixel number 5 in FIG. 9) using the pixel data output from the A / D conversion unit 5 and the pseudo inverse matrix parameter. The component V and the lateral polarization component H are calculated from the formula shown in the following equation 3. That is, in the present embodiment, the vertical polarization component V and the horizontal polarization component H of the target pixel 5 are not only the pixel data I5 of the target pixel 5 but also the eight peripheral pixels 1 to 4 surrounding the target pixel 5. Calculations are also made using 6 to 9 pixel data I1 to I4 and I6 to I9. As the pseudo inverse matrix parameter necessary for this calculation, a parameter obtained in advance and stored in an SPI flash memory as a parameter storage means described later is used.

本実施形態の信号処理部6が実行する画像処理においては、画像センサ4の有効画素(480×752)について、図10に示すように、縦を30等分し、横を47等分して、16×16画素で構成される1410個の単位処理領域に区分して、注目画素5の縦偏光成分Vと横偏光成分Hを上記数3に示す式より算出する演算処理を行う。このように区分すると、各単位処理領域には、上述した4種類の共通単位画素それぞれについて、同一種類の共通単位画素が2つ以上存在する。   In the image processing executed by the signal processing unit 6 of the present embodiment, the effective pixels (480 × 752) of the image sensor 4 are divided into 30 equal parts and 47 equal parts as shown in FIG. , A processing process is performed in which the vertical polarization component V and the horizontal polarization component H of the pixel of interest 5 are calculated by the equation shown in the above equation 3 by dividing the pixel processing area into 1410 unit processing regions each composed of 16 × 16 pixels. When divided in this way, each unit processing region has two or more common unit pixels of the same type for each of the four types of common unit pixels described above.

一の単位処理領域における4種類の共通単位画素の分布は、図11に示す。
また、4種類の共通単位画素それぞれを注目画素とした場合において、その画像処理に用いられる3×3画素内における4種類の共通単位画素の分布は、図12(a)〜(d)に示す。
4種類の共通単位画素について、第1共通単位画素を丸付き数字1で示し、第2共通単位画素を丸付き数字2で示し、第3共通単位画素を丸付き数字3で示し、第4共通単位画素を丸付き数字4で示すと、図9に示すように構成された光学フィルタ2の場合、各単位処理領域内の共通単位画素分布は、図11に示すようになる。このような分布においては、上述したように、第1共通単位画素を注目画素とした画像処理に用いられる3×3画素内における4種類の共通単位画素の分布は、当該単位処理領域内のどの第1共通単位画素についても、図12(a)のようになる。すなわち、第1共通単位画素を注目画素とした場合、その3×3画素の共通単位画素分布は一意に決まる。第2共通単位画素、第3共通単位画素、第4共通単位画素についても、同様に、一意に決まる。
The distribution of the four types of common unit pixels in one unit processing region is shown in FIG.
When each of the four types of common unit pixels is a target pixel, the distribution of the four types of common unit pixels in the 3 × 3 pixels used for the image processing is shown in FIGS. .
For the four types of common unit pixels, the first common unit pixel is indicated by a circled number 1, the second common unit pixel is indicated by a circled number 2, the third common unit pixel is indicated by a circled number 3, and the fourth common When the unit pixel is indicated by a circled numeral 4, in the case of the optical filter 2 configured as shown in FIG. 9, the common unit pixel distribution in each unit processing region is as shown in FIG. In such a distribution, as described above, the distribution of the four types of common unit pixels in the 3 × 3 pixels used for the image processing using the first common unit pixel as the target pixel is which one in the unit processing region. The first common unit pixel is also as shown in FIG. That is, when the first common unit pixel is the target pixel, the 3 × 3 common unit pixel distribution is uniquely determined. Similarly, the second common unit pixel, the third common unit pixel, and the fourth common unit pixel are uniquely determined.

上述したとおり、受光面積比率が同じである同一種類の共通単位画素については、画像センサ4上で近接している画素同士であれば、その画像処理で用いる疑似逆行列パラメータ(演算パラメータ)が互いに近似する。特に、受光面積比率だけでなく、透過領域2a及び横偏光フィルタ領域2bを透過した各光の画素内における受光位置までも同じであるものを同一種類の共通単位画素とすれば、疑似逆行列パラメータの近似性はより高まる。よって、互いに近接して位置する同一種類の共通単位画素の疑似逆行列パラメータとして、同じ疑似逆行列パラメータを使い回しても、その演算誤差は許容範囲内に収めることができる。   As described above, regarding the same type of common unit pixels having the same light receiving area ratio, if the pixels are close to each other on the image sensor 4, pseudo inverse matrix parameters (calculation parameters) used in the image processing are mutually different. Approximate. In particular, if not only the light receiving area ratio but also the same light receiving position in the pixel of each light transmitted through the transmission region 2a and the lateral polarization filter region 2b is a common unit pixel of the same type, the pseudo inverse matrix parameter The closeness of is further increased. Therefore, even if the same pseudo inverse matrix parameter is used repeatedly as the pseudo inverse matrix parameter of the same type of common unit pixel located close to each other, the calculation error can be kept within an allowable range.

そこで、本実施形態においては、画像センサ4上における480×752の有効画素を、互いに隣接する16×16画素で構成された1410個の単位処理領域に区分することとしている。この区分数は、許容する演算誤差に応じて適宜設定されるものである。すなわち、同一種類の共通単位画素であっても、互いの距離が遠くなればなるほど近似性が低下するので、同じ疑似逆行列パラメータを使い回す同一種類の共通単位画素の範囲を、演算誤差が許容範囲に収まるほどの近似性が得られる距離に位置する範囲内に制限するように、その区分数を設定する。   Therefore, in the present embodiment, the effective pixels of 480 × 752 on the image sensor 4 are divided into 1410 unit processing regions composed of 16 × 16 pixels adjacent to each other. The number of divisions is appropriately set according to the allowable calculation error. In other words, even with the same type of common unit pixel, the closer the distance between each other, the lower the approximation, so that the range of the same type of common unit pixel that uses the same pseudo inverse matrix parameter is allowed to have a calculation error. The number of divisions is set so as to be limited to a range located at a distance at which the closeness within the range can be obtained.

この区分数を多くすればするほど、同じ疑似逆行列パラメータを使い回す同一種類の共通単位画素に対応する本来の疑似逆行列パラメータの近似性が高いので、より小さな演算誤差で済むが、必要となる疑似逆行列パラメータの数(データ量)は増えることになる。
具体例を挙げると、本実施形態の場合、1つの疑似逆行列パラメータの要素数が18個で、その1要素あたりのデータ量が4バイトであるので、疑似逆行列パラメータ1個あたりのデータ量は72バイトである。本実施形態のように1410個の単位処理領域に区分する場合、各単位処理領域それぞれで4つの疑似逆行列パラメータを使い回すことになるので、全体で4×1410=5640個の疑似逆行列パラメータが必要となる。したがって、疑似逆行列パラメータの全データ量は406080バイト(約0.4Mバイト)となる。これに対し、1つの単位処理領域が8×8画素で構成されるように区分すると、その区分数は5640個となり、全体で4×5640=22560個の疑似逆行列パラメータが必要となる。この場合、疑似逆行列パラメータの全データ量は1624320バイト(約1.6Mバイト)となる。
逆に、演算誤差に余裕がある場合には、区分数を減らして、同じ疑似逆行列パラメータを使い回す同一種類の共通単位画素の数を増やし、疑似逆行列パラメータの数(データ量)を更に減らすようにしてもよい。
As the number of divisions increases, the approximation of the original pseudo inverse matrix parameter corresponding to the same type of common unit pixel that uses the same pseudo inverse matrix parameter is higher, so a smaller calculation error is required. The number of pseudo inverse matrix parameters (data amount) increases.
Specifically, in the case of this embodiment, since the number of elements of one pseudo inverse matrix parameter is 18 and the data amount per element is 4 bytes, the data amount per pseudo inverse matrix parameter Is 72 bytes. When dividing into 1410 unit processing areas as in the present embodiment, four pseudo inverse matrix parameters are reused in each unit processing area, so that 4 × 1410 = 5640 pseudo inverse matrix parameters in total. Is required. Therefore, the total data amount of the pseudo inverse matrix parameter is 406080 bytes (about 0.4 Mbytes). On the other hand, if one unit processing area is divided into 8 × 8 pixels, the number of divisions is 5640, and a total of 4 × 5640 = 22560 pseudo inverse matrix parameters are required. In this case, the total data amount of the pseudo inverse matrix parameter is 1624320 bytes (about 1.6 Mbytes).
Conversely, if there is a margin for calculation error, the number of segments is reduced, the number of common unit pixels of the same type that reuse the same pseudo inverse matrix parameter is increased, and the number of pseudo inverse matrix parameters (data amount) is further increased. You may make it reduce.

本実施形態においては、疑似逆行列パラメータの1要素あたりのデータ量を例えば1バイトに減らしてもよい。この場合、疑似逆行列パラメータの全データ量は、更に101520バイト(約0.1Mバイト)にまで低減することができる。
特に、本実施形態においては、各単位処理領域で使い回す4種類の擬似逆行列パラメータは、その単位処理領域を構成する16×16画素のすべてについて求めた擬似逆行列パラメータの和をとり、その絶対値が一番大きい要素の絶対値が127となるように規格化してもよい。この規格化すると、疑似逆行列パラメータの1要素あたりのデータ量が1バイトとなるが、このようにデータ量を減らしても、計算精度の良好な差分偏光度が算出できる。
In the present embodiment, the data amount per element of the pseudo inverse matrix parameter may be reduced to, for example, 1 byte. In this case, the total data amount of the pseudo inverse matrix parameter can be further reduced to 101520 bytes (about 0.1 Mbyte).
In particular, in this embodiment, the four types of pseudo inverse matrix parameters that are reused in each unit processing area are the sum of the pseudo inverse matrix parameters obtained for all of the 16 × 16 pixels that constitute the unit processing area, You may normalize so that the absolute value of the element with the largest absolute value may become 127. With this normalization, the data amount per element of the pseudo inverse matrix parameter is 1 byte. Even if the data amount is reduced in this way, a differential polarization degree with good calculation accuracy can be calculated.

また、本実施形態においては、疑似逆行列パラメータの全データ量を更に低減するために、SPIフラッシュメモリには、上述した1410個の単位処理領域のうち一部の単位処理領域については擬似逆行列パラメータを記憶しない。そして、SPIフラッシュメモリに擬似逆行列パラメータが記憶されていない単位処理領域(特定単位処理領域)については、SPIフラッシュメモリに擬似逆行列パラメータが記憶されている単位処理領域の擬似逆行列パラメータを用いて補間処理を行い、この補間処理によって生成された算出擬似逆行列パラメータを用いて画像処理を行う。   In the present embodiment, in order to further reduce the total data amount of the pseudo inverse matrix parameter, the SPI flash memory includes a pseudo inverse matrix for a part of the 1410 unit processing areas described above. Does not memorize parameters. For a unit processing area (specific unit processing area) in which no pseudo inverse matrix parameter is stored in the SPI flash memory, the pseudo inverse matrix parameter of the unit processing area in which the pseudo inverse matrix parameter is stored in the SPI flash memory is used. Interpolation processing is performed, and image processing is performed using the calculated pseudo inverse matrix parameter generated by the interpolation processing.

図13は、画像センサ上の受光素子を単位処理領域ごとに区分した模式図を用いて、擬似逆行列パラメータが記憶されている単位処理領域と擬似逆行列パラメータが記憶されていない単位処理領域の分布の一例を示した説明図である。
本実施形態では、図13の太線で区画したように、1410個の単位処理領域を2×2の4領域で1ユニットとなるように分割する。そして、1ユニットにつき1領域の割合で、擬似逆行列パラメータをSPIフラッシュメモリに記憶する。これにより、擬似逆行列パラメータがSPIフラッシュメモリに記憶されない単位処理領域については、擬似逆行列パラメータがSPIフラッシュメモリに記憶されている少なくとも2つの単位処理領域の間に位置することになる。
FIG. 13 is a schematic diagram in which the light receiving elements on the image sensor are divided for each unit processing region. The unit processing region in which the pseudo inverse matrix parameter is stored and the unit processing region in which the pseudo inverse matrix parameter is not stored are illustrated. It is explanatory drawing which showed an example of distribution.
In this embodiment, as shown by the bold lines in FIG. 13, 1410 unit processing areas are divided into 4 units of 2 × 2 so as to be 1 unit. Then, pseudo inverse matrix parameters are stored in the SPI flash memory at a rate of one area per unit. As a result, for the unit processing area in which the pseudo inverse matrix parameter is not stored in the SPI flash memory, the pseudo inverse matrix parameter is located between at least two unit processing areas stored in the SPI flash memory.

ここで、本発明者が鋭意研究したところ、画像センサ4上で近接している単位処理領域同士は、各領域で用いる疑似逆行列パラメータ(演算パラメータ)がその並び方向に沿って一定の関係(線形に近い関係)にあるという知見を得た。よって、この関係を利用することで、互いに離間した2つの単位処理領域の間に位置する単位処理領域(特定単位処理領域)の疑似逆行列パラメータは、当該2つの単位処理領域の疑似逆行列パラメータから高精度に生成することが可能である。そして、このように生成される疑似逆行列パラメータを用いて、当該特定単位処理領域についての演算誤差は許容範囲内に収めることができる。   Here, as a result of intensive research, the present inventor has found that the unit processing areas adjacent to each other on the image sensor 4 have a fixed relationship (pseudo inverse matrix parameters (calculation parameters) used in each area along the arrangement direction ( It was found that the relationship is close to linear. Therefore, by using this relationship, the pseudo inverse matrix parameter of the unit processing region (specific unit processing region) located between two unit processing regions that are separated from each other can be converted into the pseudo inverse matrix parameter of the two unit processing regions. Can be generated with high accuracy. Then, using the pseudo inverse matrix parameter generated in this way, the calculation error for the specific unit processing region can be within an allowable range.

そこで、本実施形態においては、SPIフラッシュメモリに擬似逆行列パラメータが記憶されている単位処理領域については、SPIフラッシュメモリ内の擬似逆行列パラメータを用いて縦偏光成分Vと横偏光成分Hを算出する一方、SPIフラッシュメモリに擬似逆行列パラメータが記憶されていない単位処理領域については、補間処理により生成した擬似逆行列パラメータを用いて縦偏光成分Vと横偏光成分Hを算出する。   Therefore, in the present embodiment, for the unit processing area in which the pseudo inverse matrix parameter is stored in the SPI flash memory, the vertical polarization component V and the lateral polarization component H are calculated using the pseudo inverse matrix parameter in the SPI flash memory. On the other hand, for the unit processing area in which the pseudo inverse matrix parameter is not stored in the SPI flash memory, the longitudinal polarization component V and the lateral polarization component H are calculated using the pseudo inverse matrix parameter generated by the interpolation process.

具体的には、図13に示すように、単位処理領域Aについては当該領域Aに対応する擬似逆行列パラメータをSPIフラッシュメモリから読み出して利用する。一方、単位処理領域Aと単位処理領域Bとの間に位置する単位処理領域αについては、信号処理部6において、これらの領域A,Bの擬似逆行列パラメータをSPIフラッシュメモリから読み出し、その2つの擬似逆行列パラメータを用いた補間処理を行って、補間擬似逆行列パラメータを生成する。そして、その補間擬似逆行列パラメータを用いて単位処理領域αの画素の縦偏光成分Vと横偏光成分Hを算出する。また、単位処理領域Aと単位処理領域Eとの間に位置する単位処理領域βについては、信号処理部6において、これらの領域A,Eの擬似逆行列パラメータをSPIフラッシュメモリから読み出し、その2つの擬似逆行列パラメータを用いた補間処理を行って、補間擬似逆行列パラメータを生成する。そして、その補間擬似逆行列パラメータを用いて単位処理領域βの画素の縦偏光成分Vと横偏光成分Hを算出する。また、単位処理領域Aと単位処理領域Fとの間あるいは単位処理領域Bと単位処理領域Eとの間に位置する単位処理領域γについては、信号処理部6において、これらの領域A,Fあるいは領域B,Eの擬似逆行列パラメータをSPIフラッシュメモリから読み出し、その2つの擬似逆行列パラメータを用いた補間処理を行って、補間擬似逆行列パラメータを生成する。そして、その補間擬似逆行列パラメータを用いて単位処理領域γの画素の縦偏光成分Vと横偏光成分Hを算出する。   Specifically, as shown in FIG. 13, for the unit processing area A, the pseudo inverse matrix parameter corresponding to the area A is read from the SPI flash memory and used. On the other hand, for the unit processing region α located between the unit processing region A and the unit processing region B, the signal processing unit 6 reads out the pseudo inverse matrix parameters of these regions A and B from the SPI flash memory. An interpolation process using two pseudo inverse matrix parameters is performed to generate an interpolation pseudo inverse matrix parameter. Then, the longitudinal polarization component V and the lateral polarization component H of the pixel in the unit processing region α are calculated using the interpolation pseudo inverse matrix parameter. Further, for the unit processing region β located between the unit processing region A and the unit processing region E, the signal processing unit 6 reads the pseudo inverse matrix parameters of these regions A and E from the SPI flash memory. An interpolation process using two pseudo inverse matrix parameters is performed to generate an interpolation pseudo inverse matrix parameter. Then, the longitudinal polarization component V and the lateral polarization component H of the pixel in the unit processing region β are calculated using the interpolation pseudo inverse matrix parameter. For the unit processing region γ located between the unit processing region A and the unit processing region F or between the unit processing region B and the unit processing region E, the signal processing unit 6 uses these regions A, F or The pseudo inverse matrix parameters of the regions B and E are read from the SPI flash memory, and interpolation processing using the two pseudo inverse matrix parameters is performed to generate an interpolation pseudo inverse matrix parameter. Then, the longitudinal polarization component V and the lateral polarization component H of the pixel in the unit processing region γ are calculated using the interpolation pseudo inverse matrix parameter.

補間処理の方法は、互いに離間した2つの単位処理領域の疑似逆行列パラメータとこれらの間に位置する特定単位処理領域の本来の疑似逆行列パラメータとの間における一定の関係に応じて適宜選択されるが、本実施形態では線形補間処理が好ましい。線形補間処理をFPGA等を用いてハードウェア処理する場合、ビットシフトだけで済むように工夫するのが好ましい。そのため、本実施形態では、上述したように2×2の4領域につき1領域の割合で疑似逆行列パラメータをSPIフラッシュメモリに記憶するようにしているが、16領域につき1領域、64領域につき1領域の割合とすることも可能である。ただし、補間処理の精度上、本実施形態のように2×2の4領域につき1領域の割合で疑似逆行列パラメータをSPIフラッシュメモリに記憶するのが好ましい。   The method of interpolation processing is appropriately selected according to a certain relationship between the pseudo inverse matrix parameters of the two unit processing regions separated from each other and the original pseudo inverse matrix parameters of the specific unit processing region located between them. However, linear interpolation processing is preferable in this embodiment. When performing linear interpolation processing by hardware using FPGA or the like, it is preferable to devise so that only bit shift is required. Therefore, in the present embodiment, as described above, the pseudo inverse matrix parameters are stored in the SPI flash memory at a ratio of 1 area per 2 × 2 4 areas, but 1 area per 16 areas and 1 area per 64 areas. It is also possible to use the area ratio. However, in terms of the accuracy of the interpolation process, it is preferable to store the pseudo inverse matrix parameters in the SPI flash memory at a ratio of 1 area per 2 × 2 4 areas as in the present embodiment.

すべての画素について個別に疑似逆行列パラメータを用意する場合には、全疑似逆行列パラメータのデータ量が約26Mバイトにもなり、疑似逆行列パラメータを格納しておくメモリとして、26Mバイト以上の大容量メモリが必要であったところ、本実施形態によれば、同じ疑似逆行列パラメータを使い回すことで全疑似逆行列パラメータのデータ量を約0.4Mバイトにまで低減できるとともに、更に、補間処理を用いることでそのデータ量を1/4に低減できる。したがって、本実施形態によれば、全疑似逆行列パラメータのデータ量を約0.1Mバイトにまで低減できる。   When preparing the pseudo inverse matrix parameters individually for all the pixels, the data amount of all the pseudo inverse matrix parameters is about 26 Mbytes, and the memory for storing the pseudo inverse matrix parameters is a large memory of 26 Mbytes or more. When a capacity memory is required, according to the present embodiment, the data amount of all pseudo inverse matrix parameters can be reduced to about 0.4 Mbytes by using the same pseudo inverse matrix parameters, and further, interpolation processing is performed. The amount of data can be reduced to ¼ by using. Therefore, according to the present embodiment, the data amount of all pseudo inverse matrix parameters can be reduced to about 0.1 Mbytes.

特に、上述したように、疑似逆行列パラメータの1要素あたりのデータ量を例えば1バイトに減らした場合、同じ疑似逆行列パラメータを使い回すとともに、上述した補間処理を用いることで、全疑似逆行列パラメータのデータ量を約0.025Mバイトにまで低減することが可能である。すなわち、疑似逆行列パラメータのデータ量として約26M倍バイトという大きなデータ量が必要であった場合と比較して、疑似逆行列パラメータのデータ量を0.1%にまで圧縮することが可能となる。   In particular, as described above, when the data amount per element of the pseudo inverse matrix parameter is reduced to 1 byte, for example, the same pseudo inverse matrix parameter is reused and the above-described interpolation process is used to obtain the total pseudo inverse matrix. It is possible to reduce the parameter data amount to about 0.025 Mbytes. That is, the data amount of the pseudo inverse matrix parameter can be compressed to 0.1% as compared with the case where a large data amount of about 26 M times bytes is required as the data amount of the pseudo inverse matrix parameter. .

図14は、すべての画素について予め個別に用意しておいた疑似逆行列パラメータ(疑似逆行列パラメータの全データ量=約26Mバイト)を用いて得た差分偏光度画像の一例を示すものである。
図15は、本実施形態のように同じ疑似逆行列パラメータを使い回すとともに上述した補間処理を行って得た差分偏光度画像(疑似逆行列パラメータの全データ量=約0.025Mバイト))の一例を示すものである。
これらの図において、差分偏光度は画像中の各画素の輝度によって表現されている。これらの図を比較してわかるように、両者の間には輝度の違いがほとんど見受けられず、差分偏光度の違いはほとんどない。したがって、疑似逆行列パラメータの全データ量を0.1%にまで圧縮しても、高い精度の差分偏光度画像を得ることができる。
FIG. 14 shows an example of a differential polarization degree image obtained by using pseudo inverse matrix parameters (total data amount of pseudo inverse matrix parameters = about 26 Mbytes) prepared individually for all pixels. .
FIG. 15 shows a difference polarization degree image (total data amount of pseudo inverse matrix parameters = approximately 0.025 Mbytes) obtained by using the same pseudo inverse matrix parameters as in this embodiment and performing the above-described interpolation processing. An example is shown.
In these figures, the differential polarization degree is expressed by the luminance of each pixel in the image. As can be seen by comparing these figures, there is almost no difference in luminance between the two, and there is almost no difference in the degree of differential polarization. Therefore, even when the total data amount of the pseudo inverse matrix parameter is compressed to 0.1%, a highly accurate differential polarization degree image can be obtained.

本実施形態では、光学フィルタ2の各フィルタ領域2a,2bの配列パターン(領域分割パターン)が、縦に480画素、横に752画素の有効画素で構成される画像センサ4に対し、横に2画素分、縦に1画素分の傾きを有するストライプ状のパターンである例について説明したが、横に1画素分、縦に2画素分の傾きを有するストライプ状のパターンであっても同じである。この傾きは、適宜設定され、例えば傾きを1に設定してもよい。   In the present embodiment, the arrangement pattern (area division pattern) of the filter regions 2a and 2b of the optical filter 2 is 2 horizontally with respect to the image sensor 4 composed of 480 pixels vertically and 752 pixels horizontally. Although an example of a stripe pattern having an inclination of one pixel in the vertical direction has been described, the same applies to a stripe pattern having an inclination of one pixel in the horizontal direction and two pixels in the vertical direction. . This inclination is appropriately set. For example, the inclination may be set to 1.

〔変形例1〕
図16は、各フィルタ領域2a,2bの傾きが1/3となるように構成された変形例1に係る光学フィルタ2と画像センサ4の画素との対応関係を示す説明図である。
図17は、本変形例1における一の単位処理領域に存在する6種類の共通単位画素の分布を示す説明図である。
本変形例1の光学フィルタのように各フィルタ領域2a,2bの傾きが1/3となるように構成されている場合、全体で6種類の共通単位画素が存在することになり、その分布は図17に示すものを繰り返したものとなる。本変形例1では、共通単位画素の種類が6種類であることを考慮して、一の単位処理領域を6×6画素で構成した。この場合、その区分数はおよそ10080個となるので、全体で6×10080=60480個の疑似逆行列パラメータが必要となる。よって、疑似逆行列パラメータ1個あたりのデータ量を18バイトであるとすると、疑似逆行列パラメータの全データ量は1088640バイト(約1.1Mバイト)となる。
[Modification 1]
FIG. 16 is an explanatory diagram showing a correspondence relationship between the optical filter 2 according to the modification example 1 and the pixels of the image sensor 4 configured such that the slopes of the filter regions 2a and 2b become 1/3.
FIG. 17 is an explanatory diagram showing the distribution of six types of common unit pixels existing in one unit processing area in the first modification.
When the filter regions 2a and 2b are configured to have an inclination of 1/3 as in the optical filter of the first modification, there are six types of common unit pixels in total, and the distribution is The one shown in FIG. 17 is repeated. In the first modification, in consideration of the six types of common unit pixels, one unit processing region is configured by 6 × 6 pixels. In this case, since the number of divisions is approximately 10080, 6 × 10080 = 60480 pseudo inverse matrix parameters are required as a whole. Therefore, if the data amount per pseudo inverse matrix parameter is 18 bytes, the total data amount of the pseudo inverse matrix parameter is 1088640 bytes (about 1.1 Mbytes).

そして、上述した実施形態と同様の補間処理を行うことで、疑似逆行列パラメータの全データ量は更に1/4に圧縮できるので、本変形例によれば、疑似逆行列パラメータの全データ量を約0.27Mバイトにまで低減することができる。
傾きが3である場合も同様である。
Then, by performing the same interpolation processing as in the above-described embodiment, the total data amount of the pseudo inverse matrix parameter can be further compressed to ¼. Therefore, according to this modification, the total data amount of the pseudo inverse matrix parameter is reduced. It can be reduced to about 0.27 Mbytes.
The same applies when the inclination is 3.

〔変形例2〕
図18は、各フィルタ領域2a,2bの傾きが2/3となるように構成された変形例2に係る光学フィルタ2と画像センサ4の画素との対応関係を示す説明図である。
図19は、本変形例2における一の単位処理領域に存在する12種類の共通単位画素の分布を示す説明図である。
本変形例2の光学フィルタのように各フィルタ領域2a,2bの傾きが2/3となるように構成されている場合、全体で12種類の共通単位画素が存在することになる。本変形例2では、共通単位画素の種類が12種類であることを考慮して、一の単位処理領域を8×8画素で構成した。この場合、その区分数は5640個となるので、全体で12×5640=67680個の疑似逆行列パラメータが必要となる。よって、疑似逆行列パラメータ1個あたりのデータ量を18バイトであるとすると、疑似逆行列パラメータの全データ量は1218240バイト(約1.2Mバイト)となる。
[Modification 2]
FIG. 18 is an explanatory diagram showing a correspondence relationship between the optical filter 2 according to the modified example 2 configured so that the inclination of each of the filter regions 2a and 2b is 2/3 and the pixels of the image sensor 4.
FIG. 19 is an explanatory diagram showing the distribution of 12 types of common unit pixels existing in one unit processing area in the second modification.
When the filter regions 2a and 2b are configured to have an inclination of 2/3 as in the optical filter of the second modification, there are 12 types of common unit pixels as a whole. In the second modification, in consideration of the 12 types of common unit pixels, one unit processing region is configured by 8 × 8 pixels. In this case, since the number of divisions is 5640, 12 × 5640 = 67680 pseudo inverse matrix parameters are required as a whole. Therefore, if the data amount per pseudo inverse matrix parameter is 18 bytes, the total data amount of the pseudo inverse matrix parameter is 1218240 bytes (approximately 1.2 Mbytes).

そして、上述した実施形態と同様の補間処理を行うことで、疑似逆行列パラメータの全データ量は更に1/4に圧縮できるので、本変形例によれば、疑似逆行列パラメータの全データ量を約0.3Mバイトにまで低減することができる。   Then, by performing the same interpolation processing as in the above-described embodiment, the total data amount of the pseudo inverse matrix parameter can be further compressed to ¼. Therefore, according to this modification, the total data amount of the pseudo inverse matrix parameter is reduced. It can be reduced to about 0.3 Mbytes.

本実施形態(各変形例を含む。以下同じ。)においては、光学フィルタ2に備わった複数種類のフィルタ領域が、光をそのまま透過する透過領域2aと横偏光成分のみを選択的に透過させる横偏光フィルタ領域2bとである場合であったが、これに限られるものではない。例えば、光をそのまま透過する透過領域と縦偏光成分のみを選択的に透過させる縦偏光フィルタ領域とである場合や、縦偏光成分のみを選択的に透過させる縦偏光フィルタ領域と横偏光成分のみを選択的に透過させる横偏光フィルタ領域とである場合でも、同様の演算精度で差分偏光度画像を得ることができる。
また、本実施形態においては、光学フィルタ2に備わった複数種類のフィルタ領域が画像センサ4の縦方向及び横方向のいずれにも傾斜するように構成されたものであったが、画像センサ4の縦方向及び横方向のいずれか一方に平行である構成としてもよい。ただし、この場合には、各フィルタ領域を透過した両方の光が1つの画素内で受光されるように構成する。
In the present embodiment (including each modification example, the same applies hereinafter), a plurality of types of filter regions provided in the optical filter 2 selectively transmit only the transmission region 2a that transmits light as it is and the lateral polarization component. Although it is a case where it is with the polarizing filter area | region 2b, it is not restricted to this. For example, a transmission region that transmits light as it is and a vertical polarization filter region that selectively transmits only the vertical polarization component, or a vertical polarization filter region and horizontal polarization component that selectively transmits only the vertical polarization component. Even in the case of the lateral polarization filter region that allows selective transmission, a differential polarization degree image can be obtained with the same calculation accuracy.
In the present embodiment, the plurality of types of filter regions provided in the optical filter 2 are configured to be inclined in both the vertical direction and the horizontal direction of the image sensor 4. It is good also as a structure which is parallel to any one of a vertical direction and a horizontal direction. However, in this case, both light beams transmitted through each filter region are received within one pixel.

〔実施例〕
以下、本発明の実施例について説明する。
図20は、本実施例に係る偏光カメラ10の概略構成を示すブロック図である。
画像センサ4から出力される各画素の受光量に応じたアナログ電気信号は、A/D変換部5でデジタル信号である画素データに変換され、その画素データは垂直同期信号及び水平同期信号とともに信号処理部6へ順次出力する。信号処理部6に順次入力された垂直同期信号及び水平同期信号並びに画素データは、信号処理部6内のラインバッファ部31に一時的に保持される。このラインバッファ部31には、少なくとも直前2ライン分の画素データが保持される。そして、ラインバッファ部31は、保持している直前2ライン分の画素データと信号処理部6に入力されてくる最新の1ライン分の画素データとを含む3ライン分の画素データから、画像処理の対象となる注目画素及びその周辺画素からなる3×3画素分の画素データI1〜I9を選択して、差分偏光度画像生成部50へ出力する。そして、差分偏光度画像生成部50は、入力された3×3画素分の画素データI1〜I9と、パラメータ記憶手段としてのSPIフラッシュメモリ32に格納されていた当該注目画素に対応する擬似逆行列パラメータとを用いて、上記数3に示した式より、当該注目画素で受光した光の縦偏光強度Vと横偏光強度Hとを算出し、その算出結果から当該注目画素についての差分偏光度を算出する。算出した差分偏光度は、差分偏光度画像のデータ(画素値)として、水平・垂直同期信号とともに後段の機器へと順次出力される。このような画像処理を画像センサ4の有効画素全体について行うことで、各画素についての差分偏光度を画素値とした差分偏光度画像が生成される。
〔Example〕
Examples of the present invention will be described below.
FIG. 20 is a block diagram illustrating a schematic configuration of the polarization camera 10 according to the present embodiment.
An analog electrical signal corresponding to the amount of light received by each pixel output from the image sensor 4 is converted into pixel data, which is a digital signal, by the A / D converter 5, and the pixel data is a signal along with a vertical synchronization signal and a horizontal synchronization signal. The data is sequentially output to the processing unit 6. The vertical synchronization signal, horizontal synchronization signal, and pixel data sequentially input to the signal processing unit 6 are temporarily held in the line buffer unit 31 in the signal processing unit 6. The line buffer unit 31 holds pixel data for at least the previous two lines. Then, the line buffer unit 31 performs image processing from the pixel data for three lines including the pixel data for the previous two lines and the latest pixel data for one line input to the signal processing unit 6. 3 × 3 pixel data I1 to I9 consisting of the target pixel and its peripheral pixels are selected and output to the differential polarization degree image generation unit 50. The differential polarization degree image generation unit 50 then inputs the pixel data I1 to I9 for 3 × 3 pixels and the pseudo inverse matrix corresponding to the pixel of interest stored in the SPI flash memory 32 as parameter storage means. Using the parameters, the vertical polarization intensity V and the horizontal polarization intensity H of the light received by the target pixel are calculated from the equation shown in Equation 3 above, and the differential polarization degree for the target pixel is calculated from the calculation result. calculate. The calculated differential polarization degree is sequentially output to the subsequent apparatus together with the horizontal / vertical synchronization signal as data (pixel value) of the differential polarization degree image. By performing such image processing for all the effective pixels of the image sensor 4, a differential polarization degree image with the differential polarization degree for each pixel as a pixel value is generated.

ここで、本実施例における差分偏光度画像生成部50の構成及び動作について説明する。
図21は、差分偏光度画像生成部50の内部構成を示すブロック図である。
この差分偏光度画像生成部50は、FPGAで構成されていて、画素データI1〜I9と擬似逆行列パラメータとから当該画素についての縦偏光強度Vと横偏光強度Hを算出して、その算出結果から当該画素についての差分偏光度を算出する画像処理をハードウェア処理により実現している。この画像処理で用いるすべての擬似逆行列パラメータは、予めFPGA内部に設けられた擬似逆行列パラメータ格納用BRAM(Block-RAM)にロードしておく。
Here, the configuration and operation of the differential polarization degree image generation unit 50 in the present embodiment will be described.
FIG. 21 is a block diagram illustrating an internal configuration of the differential polarization degree image generation unit 50.
This differential polarization degree image generation unit 50 is composed of an FPGA, calculates the vertical polarization intensity V and the horizontal polarization intensity H for the pixel from the pixel data I1 to I9 and the pseudo inverse matrix parameter, and the calculation result Thus, image processing for calculating the degree of differential polarization for the pixel is realized by hardware processing. All the pseudo inverse matrix parameters used in this image processing are loaded in advance into a pseudo inverse matrix parameter storage BRAM (Block-RAM) provided in the FPGA.

差分偏光度画像生成部50のBRAMアドレス計算部51は、垂直同期信号と水平同期信号を受け取ることで、その画像処理に使用する擬似逆行列パラメータが格納されているBRAMアドレス値を計算する。本実施例におけるBRAMアドレス計算部51の出力タイミングチャートは図22に示すとおりである。   The BRAM address calculation unit 51 of the differential polarization degree image generation unit 50 receives the vertical synchronization signal and the horizontal synchronization signal, and calculates a BRAM address value in which a pseudo inverse matrix parameter used for the image processing is stored. The output timing chart of the BRAM address calculation unit 51 in this embodiment is as shown in FIG.

差分偏光度画像生成部50の係数生成部52は、BRAMアドレス計算部51から出力されるBRAMアドレス値を受け取ったら、そのBRAMアドレス値に格納されている擬似逆行列パラメータを偏光分離処理部53へ出力する。本実施例における係数生成部52の内部構成図を図23に示す。また、本実施例における単位処理領域の区分を図24に示す。また、擬似逆行列パラメータが格納される擬似逆行列パラメータ格納用BRAMのアドレスマップを図25に示す。上述した補間処理は、係数生成部52のパラメータ算出部において実行される。   When the coefficient generation unit 52 of the differential polarization degree image generation unit 50 receives the BRAM address value output from the BRAM address calculation unit 51, the pseudo inverse matrix parameter stored in the BRAM address value is transmitted to the polarization separation processing unit 53. Output. FIG. 23 shows an internal configuration diagram of the coefficient generation unit 52 in the present embodiment. FIG. 24 shows the division of the unit processing area in this embodiment. FIG. 25 shows an address map of the pseudo inverse matrix parameter storage BRAM in which the pseudo inverse matrix parameters are stored. The interpolation process described above is executed in the parameter calculation unit of the coefficient generation unit 52.

差分偏光度画像生成部50の偏光分離処理部53は、ラインバッファ部31から出力される9個の画素データI1〜I9と、係数生成部52から出力される18個の要素A1〜A18をもつ擬似逆行列パラメータとを受け取り、上記数3に示した式より、横偏光成分Hと縦偏光成分Vを算出する。本実施例における偏光分離処理部53の内部構成を図26に示す。   The polarization separation processing unit 53 of the differential polarization degree image generation unit 50 includes nine pieces of pixel data I1 to I9 output from the line buffer unit 31 and 18 elements A1 to A18 output from the coefficient generation unit 52. The pseudo inverse matrix parameter is received, and the lateral polarization component H and the longitudinal polarization component V are calculated from the equation shown in Equation 3 above. FIG. 26 shows an internal configuration of the polarization separation processing unit 53 in this embodiment.

差分偏光度画像生成部50の差分偏光度計算部54は、偏光分離処理部53から出力される横偏光成分Hと縦偏光成分Vを受け取ったら、差分偏光度P=(H−V)/(H+V)を計算する。通常の場合、差分偏光度Pは−1〜1の範囲内の値をとるので、小数部分をビット表現したものが差分偏光度計算部54から出力されることになる。本実施例における差分偏光度計算部54の内部構成図を図27に示す。   When the differential polarization degree calculation unit 54 of the differential polarization degree image generation unit 50 receives the horizontal polarization component H and the vertical polarization component V output from the polarization separation processing unit 53, the differential polarization degree P = (HV) / ( H + V) is calculated. In a normal case, the differential polarization degree P takes a value in the range of −1 to 1, and therefore, the differential polarization degree calculation unit 54 outputs a bit representation of the decimal part. FIG. 27 shows an internal configuration diagram of the differential polarization degree calculation unit 54 in the present embodiment.

差分偏光度画像生成部50の差分偏光度画像計算部55は、差分偏光度計算部54から出力された差分偏光度Pを受け取ったら、小数部分をビット表現した差分偏光度Pを、差分偏光度画像の画素値へ変換して出力する処理を行う。具体的には、この処理は、−1〜1の範囲内の値を示す差分偏光度Pを0〜1022の範囲にスケーリングして、スケーリング後の値を差分偏光度画像の画素値として出力する処理である。このとき、差分偏光度Pが−1〜1の範囲外である場合、その差分偏光度Pは異常な値である可能性が高い。よって、−1〜1の範囲外の値を示す差分偏光度Pについては、異常指示値である1023を画素値として出力する。本実施例における差分偏光度画像計算部55の内部構成図を図28に示す。   When the differential polarization degree image calculation unit 55 of the differential polarization degree image generation unit 50 receives the differential polarization degree P output from the differential polarization degree calculation unit 54, the differential polarization degree P that represents the decimal part in bits is represented by the differential polarization degree P. A process of converting to an image pixel value and outputting it is performed. Specifically, this process scales the differential polarization degree P indicating a value in the range of −1 to 1 to a range of 0 to 1022, and outputs the scaled value as the pixel value of the differential polarization degree image. It is processing. At this time, when the differential polarization degree P is outside the range of −1 to 1, the differential polarization degree P is highly likely to be an abnormal value. Therefore, for the differential polarization degree P indicating a value outside the range of −1 to 1, the abnormality indication value 1023 is output as the pixel value. FIG. 28 shows an internal configuration diagram of the differential polarization degree image calculation unit 55 in the present embodiment.

また、本実施形態の差分偏光度画像計算部55は、図21に示すように、遅延処理部56を介して画素データI1〜I9(RAWデータ)を取得する。そして、各画素データI1〜I9のいずれかが、所定の黒つぶれ閾値以下である場合、あるいは、所定の飽和閾値以上である場合には、これらの画素データI1〜I9から算出された差分偏光度Pの画素値として、異常指示値である1023を出力する。   Further, the differential polarization degree image calculation unit 55 of the present embodiment acquires pixel data I1 to I9 (RAW data) via the delay processing unit 56, as shown in FIG. If any one of the pixel data I1 to I9 is equal to or less than a predetermined blackout threshold value or equal to or greater than a predetermined saturation threshold value, the differential polarization degree calculated from these pixel data I1 to I9. As the P pixel value, 1023 which is an abnormal instruction value is output.

各画素データI1〜I9のいずれかが、所定の黒つぶれ閾値以下であるか、あるいは、所定の飽和閾値以上であるかを検出する方法としては、例えば、これらの閾値を表すレジスタを用意して、それと各画素データI1〜I9とを比較して判定する方法が好適である。黒つぶれ閾値は、ゼロに近い値が設定されるが、必ずしもゼロである必要はない。同様に、飽和閾値は、A/D変換部5から出力されるデジタル電気信号(画素データ)の上限値に近い値が設定されるが、必ずしも当該上限値である必要はない。これらの閾値は、適宜変更可能に構成するのが好ましい。   As a method for detecting whether any one of the pixel data I1 to I9 is equal to or lower than a predetermined blackout threshold value or equal to or higher than a predetermined saturation threshold value, for example, a register representing these threshold values is prepared. It is preferable to make a determination by comparing the pixel data I1 to I9. The blackout threshold value is set to a value close to zero, but is not necessarily zero. Similarly, the saturation threshold value is set to a value close to the upper limit value of the digital electric signal (pixel data) output from the A / D converter 5, but it is not necessarily required to be the upper limit value. These threshold values are preferably configured to be appropriately changeable.

このような処理を行うことで、差分偏光度画像データの各画素値は、正常値については0〜1022の範囲を示し、異常値については1023を示すものとなる。このような差分偏光度画像データを、路面及び立体物を判別するための処理(後段の情報処理)で使用する際、異常な値が示された画素については、例えば、これを除外して処理したり、これを補正して使用したりして、適切な異常値対応を実行することができる。異常な値が示された画素を補正して使用する方法としては、例えば、差分偏光度画像を2値化処理する際、異常値を示す画素については、その周囲の正常な画素値から「0」又は「1」を割り振る方法が挙げられる。その結果、正常値と異常値とを区別できないまま処理する場合と比較して、路面及び立体物の誤判別などを少なく抑えることができ、路面及び立体物の判定精度を向上させることができる。   By performing such processing, each pixel value of the differential polarization degree image data indicates a range of 0 to 1022 for a normal value and 1023 for an abnormal value. When such differential polarization degree image data is used in a process (discrete information processing) for discriminating a road surface and a three-dimensional object, for example, a pixel having an abnormal value is excluded and processed. Or correct this and use it to perform appropriate outlier response. As a method of correcting and using a pixel having an abnormal value, for example, when a differential polarization degree image is binarized, for a pixel indicating an abnormal value, “0” is calculated from the surrounding normal pixel values. ”Or“ 1 ”. As a result, compared with the case where the normal value and the abnormal value are processed without being distinguished from each other, misdetermination of the road surface and the three-dimensional object can be suppressed, and the determination accuracy of the road surface and the three-dimensional object can be improved.

次に、本実施例におけるパラメータ制御部40の構成及び動作について説明する。
本実施例においては、事前にすべての疑似逆行列パラメータを算出しておき、それをSPIフラッシュメモリ32内に格納してある。本実施例におけるSPIフラッシュメモリ32のアドレスマップは、図29及び図30に示すとおりである。パラメータ制御部40は、図20や図21に示したように、汎用のCPU41を備えていて、電源投入時に、SPIインターフェース42を通じてSPIフラッシュメモリ32から擬似逆行列パラメータを読み出し、読み出した全擬似逆行列パラメータを、CPUバス43及びUserインターフェース44を介して、差分偏光度画像生成部50を構成するFPGA内の擬似逆行列パラメータ格納用BRAMへ転送する。
Next, the configuration and operation of the parameter control unit 40 in the present embodiment will be described.
In this embodiment, all pseudo inverse matrix parameters are calculated in advance and stored in the SPI flash memory 32. The address map of the SPI flash memory 32 in this embodiment is as shown in FIGS. As shown in FIGS. 20 and 21, the parameter control unit 40 includes a general-purpose CPU 41. When the power is turned on, the parameter control unit 40 reads the pseudo inverse matrix parameters from the SPI flash memory 32 through the SPI interface 42, and reads all the pseudo inverses. The matrix parameter is transferred to the pseudo inverse matrix parameter storage BRAM in the FPGA constituting the differential polarization degree image generation unit 50 via the CPU bus 43 and the User interface 44.

次に、電源を投入してから差分偏光度画像を生成するまでの処理フローについて説明する。
電源が投入されると、まず、パラメータ制御部40のCPU41は、SPIフラッシュメモリ32内のFPGA回路データを、差分偏光度画像生成部50を構成するFPGA内にロードする。その後、CPU41は、擬似逆行列パラメータ転送処理を実行する。この擬似逆行列パラメータ転送処理では、まず、CPU41からSPIインターフェース42にRead用コマンドを発行する。これにより、SPIインターフェース42を介してSPIフラッシュメモリ32内の擬似逆行列パラメータがCPU41に読み込まれる。その後、CPU41はUserインターフェース44にWrite用コマンドを発行する。これにより、Userインターフェース44を介して擬似逆行列パラメータが係数生成部52内における擬似逆行列パラメータ格納用BRAMに書き込まれる。すべての擬似逆行列パラメータが係数生成部52内の擬似逆行列パラメータ格納用BRAMに転送されるまで、上述したRead用コマンドの発行からWrite用コマンドの発行までの処理を繰り返し行う。
Next, a processing flow from when the power is turned on to when the differential polarization degree image is generated will be described.
When the power is turned on, first, the CPU 41 of the parameter control unit 40 loads the FPGA circuit data in the SPI flash memory 32 into the FPGA constituting the differential polarization degree image generation unit 50. Thereafter, the CPU 41 executes a pseudo inverse matrix parameter transfer process. In this pseudo inverse matrix parameter transfer process, first, a read command is issued from the CPU 41 to the SPI interface 42. As a result, the pseudo inverse matrix parameter in the SPI flash memory 32 is read into the CPU 41 via the SPI interface 42. Thereafter, the CPU 41 issues a write command to the user interface 44. As a result, the pseudo inverse matrix parameter is written into the pseudo inverse matrix parameter storage BRAM in the coefficient generation unit 52 via the User interface 44. Until all the pseudo inverse matrix parameters are transferred to the pseudo-inverse matrix parameter storage BRAM in the coefficient generation unit 52, the above-described processing from issuing the Read command to issuing the Write command is repeated.

以上のようにして、SPIフラッシュメモリ32内の全擬似逆行列パラメータが係数生成部52内の擬似逆行列パラメータ格納用BRAMに転送されて擬似逆行列パラメータ転送処理が完了したら、差分偏光度画像生成工程に移行する。この差分偏光度画像生成工程では、垂直同期信号と水平同期信号と画素データとが画像センサ4から転送されてくると、まず、垂直同期信号と水平同期信号を参照して、画素ごとに係数生成部52内の擬似逆行列パラメータ格納用BRAMのアドレス値を計算し、そのBRAMに格納されている擬似逆行列パラメータの要素(144bitのbus信号)を読み出す。そして、読み出した144bitのbus信号を18要素に分割して、擬似逆行列パラメータの18要素A1〜A18を得る。その後、偏光分離処理部53において、この18要素の擬似逆行列パラメータを用いて、処理対象となる画素(注目画素)についての横偏光成分Hと縦偏光成分Vを、当該注目画素及びその周辺画素の画素データI1〜I9から上記数3に示した式より計算する。このようにして算出された横偏光成分Hと縦偏光成分Vは差分偏光度計算部54に送られ、差分偏光度計算部54にて差分偏光度Pが算出される。そして、差分偏光度画像計算部55では、この差分偏光度Pを差分偏光度画像の画素値(画像データ)へ変換する処理行う。これにより、差分偏光度画像の1画素についての画像データが得られる。以上のような処理を全画素について行うことで差分偏光度画像が生成される。   When all the pseudo inverse matrix parameters in the SPI flash memory 32 are transferred to the pseudo inverse matrix parameter storage BRAM in the coefficient generation unit 52 and the pseudo inverse matrix parameter transfer process is completed as described above, the differential polarization degree image generation is performed. Move to the process. In this differential polarization degree image generation step, when a vertical synchronization signal, a horizontal synchronization signal, and pixel data are transferred from the image sensor 4, first, coefficients are generated for each pixel with reference to the vertical synchronization signal and the horizontal synchronization signal. The address value of the pseudo-inverse matrix parameter storage BRAM in the unit 52 is calculated, and the pseudo-inverse matrix parameter element (144-bit bus signal) stored in the BRAM is read. Then, the read 144-bit bus signal is divided into 18 elements to obtain 18 elements A1 to A18 of pseudo inverse matrix parameters. Thereafter, the polarization separation processing unit 53 uses the 18-element pseudo inverse matrix parameter to convert the horizontal polarization component H and the vertical polarization component V of the pixel to be processed (target pixel) into the target pixel and its peripheral pixels. The pixel data I1 to I9 are calculated from the equation shown in the above equation (3). The lateral polarization component H and the longitudinal polarization component V calculated in this way are sent to the differential polarization degree calculation unit 54, and the differential polarization degree calculation unit 54 calculates the differential polarization degree P. Then, the differential polarization degree image calculation unit 55 performs a process of converting the differential polarization degree P into a pixel value (image data) of the differential polarization degree image. Thereby, image data for one pixel of the differential polarization degree image is obtained. A differential polarization degree image is generated by performing the above processing for all pixels.

以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
所定の光学成分を選択的に透過させる選択フィルタ領域を周期的に配列した光学フィルタ2を通じて、フォトダイオード4a等の受光素子が2次元配置された画像センサ4等の受光素子アレイにより撮像領域からの光を受光し、該受光素子アレイ上の1つの受光素子又は2つ以上の受光素子に対応する単位画素ごとの受光量に応じた画像信号値を含む画像信号を出力する撮像部等の撮像手段と、該撮像手段から出力された画像信号に対応する単位画素の画素値(0〜1022の範囲)を、所定の演算パラメータを用いて、該単位画素の画像信号と該単位画素周辺に位置する周辺画素の画像信号とから構成される画像信号群から算出する信号処理部6等の画素値算出手段とを備えた撮像装置において、上記画像信号値群を構成する画像信号値に基づき、該画像信号群を構成する画像信号の中に、所定の値範囲を外れているという異常判定条件を満たす画像信号が含まれているか否かを判定する差分偏光度画像計算部55等の異常信号判定手段を有し、上記画像信号群を構成する画像信号の中に上記異常判定条件を満たす画像信号が含まれていると上記異常信号判定手段が判定した場合には、上記所定の演算パラメータを用いずに、異常な値であることを示す異常指示値(1023)を、該画像信号群に対応する単位画素の画素値とする処理を実行することを特徴とする。
これによれば、撮像画像の画素値を用いて路面及び立体物を判別する処理等の後段情報処理において、当該画素値が異常値であることを把握することができる。その結果、後段の情報処理では、当該画素値が異常値として取り扱うことができるので、異常値を示す画素値をそのまま正常な画素値として処理してしまうことによる誤判定などの処理結果異常を回避することが可能となる。
What has been described above is merely an example, and the present invention has a specific effect for each of the following modes.
(Aspect A)
Through selective permeation is allowed Ru selection filter region periodically arranged the optical filter 2 a predetermined optical component, the light-receiving element array of the image sensor 4 such that the light receiving elements are arranged two-dimensionally such as a photodiode 4a An imaging unit that receives light from the imaging region and outputs an image signal including an image signal value corresponding to the amount of received light for each unit pixel corresponding to one light receiving element or two or more light receiving elements on the light receiving element array an imaging unit etc., a pixel value of a unit pixel corresponding to the image signal output from the image pickup means (range 0-1022), using a predetermined calculation parameters, image signal value of the unit pixel and the unit An image forming the image signal value group in an imaging apparatus including a pixel value calculation unit such as a signal processing unit 6 that calculates from an image signal value group composed of image signal values of peripheral pixels located around the pixel Trust Based on the value, the in the image signal value forming the image signal value group, determining whether or not differential polarization degree image includes the abnormality determination satisfies the image signal value that is outside a predetermined value range has an abnormality signal value determination means such calculation unit 55, when the abnormality determination condition is satisfied image signal value in the image signal values constituting the image signal value group contains the abnormality signal value determining means If the determination is made, the process of setting the abnormal instruction value (1023) indicating an abnormal value as the pixel value of the unit pixel corresponding to the image signal value group without using the predetermined calculation parameter is executed. It is characterized by doing.
According to this, it is possible to grasp that the pixel value is an abnormal value in subsequent information processing such as processing for discriminating the road surface and the three-dimensional object using the pixel value of the captured image. As a result, in the subsequent information processing, the pixel value can be handled as an abnormal value, so that an abnormal result such as a misjudgment caused by processing a pixel value indicating an abnormal value as a normal pixel value as it is can be avoided. It becomes possible to do.

(態様B)
上記態様Aにおいて、上記異常判定条件は、受光量が所定の黒つぶれ閾値以下である場合に対応した画像信号であるという条件及び受光量が所定の飽和閾値以上である場合に対応した画像信号であるという条件の少なくとも一方を含むことを特徴とする。
これによれば、異常値である可能性が高い黒つぶれした画像信号あるいは飽和した画像信号を、適切に異常値として取り扱うことができる。
(Aspect B)
In the above embodiments A, upper Kikoto normal determination condition corresponding to the case conditions and the received light amount of the received light quantity is the image signal values corresponding to the case is less than a predetermined underexposure threshold is equal to or greater than a predetermined saturation threshold It includes at least one of the conditions that it is an image signal value .
According to this, the image signal value image signal value or saturated with underexposed likely to be outliers, can be handled as a suitably outliers.

(態様C)
上記態様A又はBにおいて、上記画素値算出手段は、上記異常指示値として、上記所定の演算パラメータを用いて算出され得る画素値の数値範囲(0〜1022)から外れた値であって、該数値範囲の上限値に隣接する値又は該数値範囲の下限値に隣接する値を用いることを特徴とする。
これによれば、正常値と異常値のデータ処理が容易となる。
(Aspect C)
In the aspect A or B, the pixel value calculation means is a value that is out of a numerical value range (0 to 1022) of pixel values that can be calculated using the predetermined calculation parameter as the abnormality indication value, A value adjacent to the upper limit value of the numerical range or a value adjacent to the lower limit value of the numerical range is used.
This facilitates data processing of normal values and abnormal values.

(態様D)
上記態様A〜Cのいずれかの態様において、上記選択フィルタ領域は、所定の偏光成分を選択的に透過させる偏光フィルタで構成されていることを特徴とする。
これによれば、受光素子アレイから出力される画像信号から特定の偏光成分を抽出することができる。
(Aspect D)
In any one of the aspects A to C, the selection filter region is configured by a polarization filter that selectively transmits a predetermined polarization component.
According to this, a specific polarization component can be extracted from the image signal output from the light receiving element array.

(態様E)
撮像手段が撮像した撮像画像の画素値に基づいて撮像領域内に存在する検出対象物の識別処理を行う物体識別処理手段を有する物体識別装置において、上記撮像手段として、上記態様A〜Dのいずれかの態様に係る撮像装置を用い、上記撮像画像の画素値として上記単位画素の画素値を出力するものであり、上記物体識別処理手段は、上記異常指示値を示す画素値を除外した残りの画素値に基づいて上記識別処理を行うことを特徴とする。
これによれば、異常値を示す画素による識別処理の異常を回避することができる。
(Aspect E)
In an object identification apparatus having an object identification processing unit that performs identification processing of a detection target existing in an imaging region based on a pixel value of a captured image captured by an imaging unit, any of the above aspects A to D is used as the imaging unit. The pixel value of the unit pixel is output as the pixel value of the captured image using the imaging apparatus according to any of the above aspects, and the object identification processing unit excludes the pixel value indicating the abnormality indication value. The identification process is performed based on the pixel value.
According to this, it is possible to avoid an abnormality in the identification process by a pixel indicating an abnormal value.

以上の説明では、光学フィルタ2の選択フィルタ領域を、所定の偏光成分を選択的に透過させる偏光フィルタで構成して、互いに異なる2つの偏光成分から差分偏光度画像を生成する場合について説明したが、光学フィルタ2の選択フィルタ領域を、特定の波長成分を選択的に透過させる分光フィルタで構成して、互いに異なる複数の波長成分から例えば色分解画像を生成する場合でも、本発明を同様に適用できる。
また、本実施形態に係る運転者支援システムは、そのシステム全体が車両に搭載されているが、必ずしもシステム全体が車両に搭載されている必要はない。したがって、例えば、偏光カメラ10のみを自車に搭載して、残りのシステム構成要素を自車とは別の場所に遠隔配置するようにしてもよい。この場合、車両の走行状態を運転者以外の者が客観的に把握するシステムとすることもできる。
また、本発明に係る撮像装置は、本実施形態に限らず、幅広い分野に応用することができる。
In the above description, the selection filter region of the optical filter 2 is configured with a polarization filter that selectively transmits a predetermined polarization component, and the case where a differential polarization degree image is generated from two different polarization components has been described. The present invention is similarly applied to a case where a selective filter region of the optical filter 2 is configured by a spectral filter that selectively transmits a specific wavelength component and, for example, a color separation image is generated from a plurality of different wavelength components. it can.
Further, the driver assistance system according to the present embodiment is mounted on the vehicle as a whole, but the entire system is not necessarily mounted on the vehicle. Therefore, for example, only the polarization camera 10 may be mounted on the own vehicle, and the remaining system components may be remotely arranged at a location different from the own vehicle. In this case, a system in which a person other than the driver objectively grasps the traveling state of the vehicle can be provided.
The imaging apparatus according to the present invention is not limited to the present embodiment, and can be applied to a wide range of fields.

1 撮像レンズ
2 光学フィルタ
2a 透過領域
2b 横偏光フィルタ領域
4 画像センサ
4a フォトダイオード(受光素子)
5 A/D変換部
6 信号処理部
10 偏光カメラ
31 ラインバッファ部
32 SPIフラッシュメモリ
40 パラメータ制御部
41 CPU
50 差分偏光度画像生成部
51 アドレス計算部
52 係数生成部
53 偏光分離処理部
54 差分偏光度計算部
55 差分偏光度画像計算部
DESCRIPTION OF SYMBOLS 1 Image pick-up lens 2 Optical filter 2a Transmission area 2b Lateral polarization filter area 4 Image sensor 4a Photodiode (light receiving element)
5 A / D conversion unit 6 Signal processing unit 10 Polarization camera 31 Line buffer unit 32 SPI flash memory 40 Parameter control unit 41 CPU
DESCRIPTION OF SYMBOLS 50 Differential polarization degree image generation part 51 Address calculation part 52 Coefficient generation part 53 Polarization separation process part 54 Differential polarization degree calculation part 55 Differential polarization degree image calculation part

特開2007−086720号公報JP 2007-086720 A 特許3771054号公報Japanese Patent No. 3777054

Claims (5)

所定の光学成分を選択的に透過させる選択フィルタ領域を周期的に配列した光学フィルタを通じて、受光素子が2次元配置された受光素子アレイにより撮像領域からの光を受光し、該受光素子アレイ上の1つの受光素子又は2つ以上の受光素子に対応する単位画素ごとの受光量に応じた画像信号値を含む画像信号を出力する撮像手段と、
該撮像手段から出力された画像信号に対応する単位画素の画素値を、所定の演算パラメータを用いて、該単位画素の画像信号と該単位画素周辺に位置する周辺画素の画像信号とから構成される画像信号群から算出する画素値算出手段とを備えた撮像装置において、
上記画像信号値群を構成する画像信号値に基づき、該画像信号群を構成する画像信号の中に、所定の値範囲を外れているという異常判定条件を満たす画像信号が含まれているか否かを判定する異常信号判定手段を有し、
上記画素値算出手段は、上記画像信号群を構成する画像信号の中に上記異常判定条件を満たす画像信号が含まれていると上記異常信号判定手段が判定した場合には、上記所定の演算パラメータを用いずに、異常な値であることを示す異常指示値を、該画像信号群に対応する単位画素の画素値とする処理を実行することを特徴とする撮像装置。
Predetermined selectively transmitted so Ru selection filter region of the optical component through the optical filter that is periodically arranged, and receiving light from the imaging region by the light receiving element array in which the light-receiving elements are arranged two-dimensionally, the An image pickup means for outputting an image signal including an image signal value corresponding to an amount of light received for each unit pixel corresponding to one light receiving element or two or more light receiving elements on the light receiving element array;
The pixel value of the unit pixel corresponding to the image signal output from the imaging means is calculated from the image signal value of the unit pixel and the image signal values of the peripheral pixels located around the unit pixel using a predetermined calculation parameter. In an imaging apparatus comprising a pixel value calculation means for calculating from a configured image signal value group,
Based on the image signal values constituting the image signal value group, whether the image signal values constituting the image signal value group include an image signal value satisfying an abnormality determination condition that the image signal value group is out of a predetermined value range . Having an abnormal signal value determining means for determining whether or not
The pixel value calculation unit, when the upper Kikoto normally satisfies the determination condition image signal value in the image signal values constituting the image signal value group contains the error signal value determination unit determines the An image pickup apparatus that performs a process of using an abnormal instruction value indicating an abnormal value as a pixel value of a unit pixel corresponding to the image signal value group without using the predetermined calculation parameter. .
請求項1の撮像装置において、
記異常判定条件は、受光量が所定の黒つぶれ閾値以下である場合に対応した画像信号であるという条件及び受光量が所定の飽和閾値以上である場合に対応した画像信号であるという条件の少なくとも一方を含むことを特徴とする撮像装置。
The imaging device according to claim 1.
Upper Kikoto normal determination conditions are image signal values corresponding to when the conditions and the received light amount of the received light quantity is the image signal values corresponding to the case is less than a predetermined underexposure threshold is equal to or greater than a predetermined saturation threshold An image pickup apparatus including at least one of the following conditions.
請求項1又は2の撮像装置において、
上記画素値算出手段は、上記異常指示値として、上記所定の演算パラメータを用いて算出され得る画素値の数値範囲から外れた値であって、該数値範囲の上限値に隣接する値又は該数値範囲の下限値に隣接する値を用いることを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
The pixel value calculation means is a value that deviates from a numerical range of pixel values that can be calculated using the predetermined calculation parameter as the abnormality indication value, and is a value adjacent to the upper limit value of the numerical range or the numerical value An image pickup apparatus using a value adjacent to a lower limit value of a range.
請求項1乃至3のいずれか1項に記載の撮像装置において、
上記選択フィルタ領域は、所定の偏光成分を選択的に透過させる偏光フィルタで構成されていることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 3,
The image pickup apparatus, wherein the selection filter region includes a polarization filter that selectively transmits a predetermined polarization component.
撮像手段が撮像した撮像画像の画素値に基づいて撮像領域内に存在する検出対象物の識別処理を行う物体識別処理手段を有する物体識別装置において、
上記撮像手段として、請求項1乃至4のいずれか1項に記載の撮像装置を用い、上記撮像画像の画素値として上記単位画素の画素値を出力するものであり、
上記物体識別処理手段は、上記異常指示値を示す画素値を除外した残りの画素値に基づいて上記識別処理を行うことを特徴とする物体識別装置。
In an object identification device having object identification processing means for performing identification processing of a detection target existing in an imaging region based on a pixel value of a captured image captured by an imaging means,
The imaging device according to any one of claims 1 to 4 is used as the imaging unit, and the pixel value of the unit pixel is output as the pixel value of the captured image.
The object identification device according to claim 1, wherein the object identification processing means performs the identification processing based on a remaining pixel value excluding a pixel value indicating the abnormality indication value.
JP2011202582A 2011-09-16 2011-09-16 Imaging device and object identification device using the same Active JP5867806B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011202582A JP5867806B2 (en) 2011-09-16 2011-09-16 Imaging device and object identification device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011202582A JP5867806B2 (en) 2011-09-16 2011-09-16 Imaging device and object identification device using the same

Publications (2)

Publication Number Publication Date
JP2013065995A JP2013065995A (en) 2013-04-11
JP5867806B2 true JP5867806B2 (en) 2016-02-24

Family

ID=48189109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011202582A Active JP5867806B2 (en) 2011-09-16 2011-09-16 Imaging device and object identification device using the same

Country Status (1)

Country Link
JP (1) JP5867806B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6215865B2 (en) * 2014-04-25 2017-10-18 日東電工株式会社 Manufacturing method of polarizer
JP6215864B2 (en) * 2014-04-25 2017-10-18 日東電工株式会社 Polarizer, polarizing plate and image display device
JP6214594B2 (en) 2014-04-25 2017-10-18 日東電工株式会社 Polarizer, polarizing plate and image display device
JP6215261B2 (en) 2014-06-27 2017-10-18 日東電工株式会社 Long polarizer, long polarizing plate and image display device
JP6713189B2 (en) 2014-06-27 2020-06-24 日東電工株式会社 Long polarizing film laminate
JP7163000B2 (en) 2015-06-25 2022-10-31 日東電工株式会社 Polarizer with non-polarizing portion
JP6422415B2 (en) 2015-09-28 2018-11-14 日東電工株式会社 Polarizer, polarizing plate and image display device
WO2018089068A1 (en) 2016-08-12 2018-05-17 University Of Washington Millimeter wave imaging systems and methods using direct conversion receivers and/or modulation techniques
WO2018147929A2 (en) 2016-12-08 2018-08-16 University Of Washington Millimeter wave and/or microwave imaging systems and methods including examples of partioned inverse and enhanced resolution modes and imaging devices
EP3579548B1 (en) * 2017-02-01 2021-09-22 Sony Semiconductor Solutions Corporation Imaging system, imaging device, and control device
CN117173188B (en) * 2023-11-03 2024-01-26 泸州通鑫显示科技有限公司 Glass scar identification method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4317624B2 (en) * 1999-09-10 2009-08-19 メディア・テック・ユーエスエイ・インコーポレーテッド Image processing device
JP3747909B2 (en) * 2002-12-24 2006-02-22 ソニー株式会社 Pixel defect detection correction apparatus and pixel defect detection correction method
JP4895567B2 (en) * 2005-10-07 2012-03-14 パナソニック株式会社 Image encoding method and apparatus, image decoding method and apparatus, and imaging apparatus
JP4799428B2 (en) * 2007-01-22 2011-10-26 株式会社東芝 Image processing apparatus and method
US8050458B2 (en) * 2007-06-18 2011-11-01 Honda Elesys Co., Ltd. Frontal view imaging and control device installed on movable object
JP2010021858A (en) * 2008-07-11 2010-01-28 Olympus Corp Pixel defect correction device
JP5446521B2 (en) * 2009-07-06 2014-03-19 株式会社リコー Imaging device
JP5625286B2 (en) * 2009-08-19 2014-11-19 株式会社ニコン Imaging device
JP4762369B2 (en) * 2009-12-08 2011-08-31 パナソニック株式会社 Image processing device

Also Published As

Publication number Publication date
JP2013065995A (en) 2013-04-11

Similar Documents

Publication Publication Date Title
JP5867806B2 (en) Imaging device and object identification device using the same
US20180308282A1 (en) Shape measuring apparatus and method
US8400505B2 (en) Calibration method, calibration device, and calibration system including the device
US9613429B2 (en) Image reading out control apparatus, image reading out control method thereof, and storage medium
US11159722B2 (en) Method for processing image signal, image signal processor, and image sensor chip
EP3148179A1 (en) Focusing state prompting method and shooting device
CN103227905B (en) Exposure controller for on-vehicle camera
JP5310483B2 (en) Imaging device
US20160035099A1 (en) Depth estimation apparatus, imaging device, and depth estimation method
JP5943393B2 (en) Imaging device
CN112513676A (en) Depth acquisition device, depth acquisition method, and program
JP2014165638A (en) Image processing device, image pickup device, moving body control system, and program
US8045826B2 (en) Detecting edges in a digital images
US10204400B2 (en) Image processing apparatus, imaging apparatus, image processing method, and recording medium
JP2013258596A (en) Image pick-up device
EP3389256B1 (en) Method and device for processing image
US20210067718A1 (en) Imaging device and signal processing device
JP7089355B2 (en) Image processing device, control method and program of image processing device
JP5863005B2 (en) Imaging device
JP5674130B2 (en) Imaging device
JP6190119B2 (en) Image processing apparatus, imaging apparatus, control method, and program
US9645290B2 (en) Color filter array and solid-state image sensor
JP2011155365A (en) Image processing apparatus and image processing method
US20230373396A1 (en) Monitoring system monitoring periphery of mobile object, method of controlling monitoring system, and storage medium
JP2009182733A (en) Image data generating method, image data generating device, and information code reader

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151224

R151 Written notification of patent or utility model registration

Ref document number: 5867806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250