JP5674130B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP5674130B2 JP5674130B2 JP2011001320A JP2011001320A JP5674130B2 JP 5674130 B2 JP5674130 B2 JP 5674130B2 JP 2011001320 A JP2011001320 A JP 2011001320A JP 2011001320 A JP2011001320 A JP 2011001320A JP 5674130 B2 JP5674130 B2 JP 5674130B2
- Authority
- JP
- Japan
- Prior art keywords
- light receiving
- pixel
- unit
- filter
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Studio Devices (AREA)
- Blocking Light For Cameras (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、1種類又は2種類以上の偏光フィルタや色分解フィルタを周期的に配列した光学フィルタを通じて撮像領域からの光を受光素子アレイで受光し、これにより得た画像信号に対して画像処理を行って互いに異なった光学成分をそれぞれ抽出し、抽出した複数種類の光学成分を用いた画像情報を出力する撮像装置に関するものである。 The present invention relates to an image with respect to one or via two or more polarizing filter or a color separation filter periodically arranged the optical filter the light from the imaging region received light by the light receiving element array, an image signal obtained by this The present invention relates to an imaging apparatus that performs processing to extract different optical components from each other and output image information using the extracted plural types of optical components.
この種の撮像装置としては、所定の撮像領域をデジタルカメラ等の撮像手段を用いて撮像し、その画像信号から、所望の波長帯域のみを抽出した画像情報や、所望の偏光成分のみを抽出した画像情報などを生成するものが知られている。このような撮像装置は、例えば、光学フィルタを通じて入射する撮像領域からの光を、多数の受光素子を2次元配置された受光素子アレイを用いて受光し、各受光素子で受光した光量に応じて受光素子アレイから出力される画像信号から、撮像領域の画像情報を生成する。特許文献1には、光学フィルタとして、例えば、R(Red)、G(Green)、B(Blue)の色分解フィルタが所定の配置パターンに従って配列されたカラーフィルタを用いた撮像装置が記載されている。また、特許文献2には、2種類(縦偏光成分と横偏光成分)の偏光フィルタが周期的に配置された光学フィルタを通じて入射する撮像領域からの光を受光素子アレイで受光する撮像装置が記載されている。このような撮像装置によれば、1回の撮像動作で、互いに異なる複数の光学成分それぞれを抽出した画像情報(例えば、R、G、Bそれぞれの画像情報や、縦偏光成分及び横偏光成分それぞれの画像情報)を得ることができる。 As this type of imaging apparatus, a predetermined imaging area is imaged using an imaging means such as a digital camera, and image information obtained by extracting only a desired wavelength band or only a desired polarization component is extracted from the image signal. Those that generate image information and the like are known. Such an imaging device, for example, receives light from an imaging region incident through an optical filter using a light receiving element array in which a large number of light receiving elements are two-dimensionally arranged, and according to the amount of light received by each light receiving element. Image information of the imaging region is generated from the image signal output from the light receiving element array. Patent Document 1 describes an imaging device using a color filter in which, for example, R (Red), G (Green), and B (Blue) color separation filters are arranged according to a predetermined arrangement pattern as an optical filter. Yes. Patent Document 2 describes an imaging device that receives light from an imaging region that is incident through an optical filter in which two types of polarizing filters (longitudinal polarization component and lateral polarization component) are periodically arranged, by a light receiving element array. Has been. According to such an imaging apparatus, image information obtained by extracting each of a plurality of different optical components in one imaging operation (for example, image information of R, G, and B, vertical polarization component, and horizontal polarization component, respectively) Image information).
このような互いに異なる複数の光学成分から生成される光学成分抽出画像は、撮像領域内の物体を識別する物体識別処理に利用することで、単なる輝度情報のみからなる画像情報(モノクロ画像情報)で物体識別処理を行う場合よりも、高い精度での物体識別を可能とする点で有用である。そのため、このような撮像装置は、近年、例えば、車載カメラとして用いられ、自車の進行方向前方領域(撮像領域)を撮像して得られる撮像画像に基づく物体検出処理を行って先行車両や対向車両などの物体を検出し、自車の運転者(ドライバー)の運転負荷を軽減させる運転者支援システムへ利用されている。また、例えば、ロボット制御などに用いられる物体識別装置のための撮像装置など、その他の分野でも幅広く利用されることが期待されている。 Such an optical component extraction image generated from a plurality of different optical components is used for object identification processing for identifying an object in an imaging region, and thus is image information (monochrome image information) consisting of only luminance information. This is useful in that object identification can be performed with higher accuracy than when object identification processing is performed. Therefore, in recent years, such an imaging apparatus has been used as, for example, an in-vehicle camera, and performs object detection processing based on a captured image obtained by imaging a forward area (imaging area) in the traveling direction of the host vehicle, and the preceding vehicle It is used for a driver support system that detects an object such as a vehicle and reduces the driving load on the driver of the own vehicle. In addition, it is expected to be widely used in other fields such as an imaging device for an object identification device used for robot control.
本発明者らは、このような光学成分抽出画像をフレームレート30fpsでリアルタイム映像出力することを可能とする撮像装置を開発し、その開発にあたっては、次のような課題に直面した。なお、以下の説明では、縦偏光成分及び横偏光成分それぞれの光学成分抽出画像を得る撮像装置について説明するが、R、G、B等の互いに波長成分が異なる画像情報を得る撮像装置においても同様である。 The inventors of the present invention have developed an imaging apparatus that can output such an optical component extracted image at a frame rate of 30 fps in real time, and faced the following problems in developing the imaging apparatus. In the following description, an imaging device that obtains optical component extraction images of the longitudinal polarization component and the lateral polarization component will be described. However, the same applies to an imaging device that obtains image information having different wavelength components such as R, G, and B. It is.
このような撮像装置を開発するにあたっては、受光素子アレイから出力される画像信号から縦偏光成分及び横偏光成分を抽出して光学成分抽出画像を生成するという画像処理を、フレームレート30fpsでのリアルタイム映像出力を可能とする短い時間内で完了することが要求される。現状において、この要求を満たす画像処理を可能とするには、現実的には、所定の画像処理プログラムを汎用CPUに実行させて当該画像処理を実現するソフトウェア処理ではなく、FPGA(Field Programmable Gate Array)等の専用ハードウェアを用いて当該画像処理を実現するハードウェア処理を採用することが必要となる。 In developing such an imaging apparatus, real-time image processing is performed at a frame rate of 30 fps by extracting an optical component extracted image by extracting a longitudinal polarization component and a lateral polarization component from an image signal output from a light receiving element array. It is required to complete within a short period of time enabling video output. At present, in order to enable image processing that satisfies this requirement, in reality, a predetermined image processing program is executed by a general-purpose CPU, and software processing that realizes the image processing is performed instead of FPGA (Field Programmable Gate Array). It is necessary to employ hardware processing that realizes the image processing using dedicated hardware such as
ここで、受光素子アレイから出力される画像信号から光学成分抽出画像を生成する画像処理の一例について説明する。
図30は、光学フィルタの偏光フィルタと受光素子アレイの受光素子との対応関係を示す説明図である。
この図において、縦横に並ぶ各正方形がそれぞれ受光素子を示し、受光素子の並び方向に対して斜めに延びるハッチング領域が縦偏光成分をカットする縦偏光フィルタの領域を示し、ハッチング領域以外の領域が横偏光成分をカットする横偏光フィルタの領域を示す。図示の例の光学フィルタは、縦偏光フィルタの帯及び横偏光フィルタの帯が交互に配置され、その帯の長手方向が受光素子の並び方向に対して斜めになるように、縦偏光フィルタの帯及び横偏光フィルタが配置されたものである。
Here, an example of image processing for generating an optical component extraction image from an image signal output from the light receiving element array will be described.
FIG. 30 is an explanatory diagram showing a correspondence relationship between the polarization filter of the optical filter and the light receiving elements of the light receiving element array.
In this figure, each square arranged vertically and horizontally indicates a light receiving element, a hatching area extending obliquely with respect to the direction in which the light receiving elements are arranged indicates an area of a vertical polarizing filter that cuts a vertical polarization component, and areas other than the hatching area indicate The area | region of the horizontal polarization filter which cuts a horizontal polarization component is shown. The optical filter of the example shown in the figure has a band of longitudinal polarization filters and a band of longitudinal polarization filters arranged alternately and the longitudinal direction of the bands is oblique with respect to the arrangement direction of the light receiving elements. And a lateral polarization filter are arranged.
受光素子アレイ上の1つの受光素子に対応する注目画素(図中の画素番号5)の縦偏光成分Vと横偏光成分Hは、例えば、当該注目画素5の受光量に対応した画像信号値I5だけでなく、その注目画素5の周囲を取り囲む8つの周辺画素1〜4,6〜9の受光量に対応した画像信号値I1〜I4,I6〜I9も用いて、下記の数1に示す式より求められる。なお、下記の数1に示す式において、画像信号値I1〜I9から注目画素5の縦偏光成分Vと横偏光成分Hを算出するためのA1〜A18の要素をもつ係数行列(演算パラメータ)を、以下、疑似逆行列パラメータと称する。
この疑似逆行列パラメータは、以下のようにして予め求めておくことができる。
まず、図30に示した光学フィルタを通じて受光素子アレイ全体に、ほぼ一様な光強度Vで100%縦偏光のサンプル光を照射し、そのときに各受光素子(その受光素子の画素番号をiとする。)で受光する受光量に応じたサンプル縦偏光強度aviを取得する。また、同様に、光学フィルタを通じて受光素子アレイ全体に、ほぼ一様な光強度Hで100%横偏光のサンプル光を照射し、そのときに各受光素子で受光する受光量に応じたサンプル横偏光強度ahiを取得する。このようにして得られる各受光素子のサンプル縦偏光強度avi及びサンプル横偏光強度ahiは、それぞれ、その受光素子で受光される縦偏光成分及び横偏光成分の感度に比例していると考えることができる。よって、光学フィルタを透過して各受光素子iで受光する光の強度をIiとすると、Ii=avi×V+ahi×Hが成り立つ。そして、注目画素5を中心とした3×3画素の合計9つの画素1〜9に対して入射する光が同じであると仮定し、これらの画素1〜9について下記の数2に示す行列式を得る。この行列式において、av1〜9及びah1〜9を要素とした感度行列パラメータについての逆行列を求める。この逆行列が上述した疑似逆行列パラメータとなる。ただし、ハードウェア処理に最適化するために、このようにして求まる疑似逆行列パラメータを多少変形してもよい。
First, the entire light receiving element array is irradiated with 100% longitudinally polarized sample light with a substantially uniform light intensity V through the optical filter shown in FIG. 30, and each light receiving element (the pixel number of the light receiving element is set to i). ) To obtain the sample longitudinal polarization intensity avi according to the amount of light received. Similarly, the entire light-receiving element array is irradiated with 100% laterally polarized sample light with an almost uniform light intensity H through an optical filter, and the sample laterally polarized light corresponding to the amount of light received by each light-receiving element at that time. Get strength ahi. It can be considered that the sample longitudinal polarization intensity avi and the sample transverse polarization intensity ahi of each light receiving element thus obtained are proportional to the sensitivities of the longitudinal polarization component and the lateral polarization component received by the light receiving element, respectively. it can. Therefore, if the intensity of light transmitted through the optical filter and received by each light receiving element i is Ii, Ii = avi × V + ahi × H is established. Then, it is assumed that the incident light is the same with respect to a total of nine pixels 1 to 9 of 3 × 3 pixels centered on the target pixel 5, and the determinant represented by the following equation 2 is set for these pixels 1 to 9. Get. In this determinant, an inverse matrix is obtained for sensitivity matrix parameters having av1 to 9 and ah1 to 9 as elements. This inverse matrix becomes the pseudo inverse matrix parameter described above. However, in order to optimize for hardware processing, the pseudo inverse matrix parameter obtained in this way may be slightly modified.
なお、ここでは、縦偏光フィルタと横偏光フィルタとが交互に配置された光学フィルタを例に挙げたが、縦偏光フィルタとフィルタ無し(光をそのまま透過させる領域)とが交互に配置された光学フィルタや、横偏光フィルタとフィルタ無しとが交互に配置された光学フィルタであっても、上述した手順と同様の方法で、疑似逆行列パラメータを求めることができる。ただし、このような光学フィルタを用いる場合、実際の撮像時には、受光素子アレイが横偏光成分及び縦偏光成分のいずれか一方を受光しない。そのため、偏光フィルタを通過して受光される偏光成分の画像信号値とフィルタ無しを通過して受光される非偏光の画像信号値とを用いて、受光しない偏光成分を求める必要がある。この場合、例えば、非偏光の受光量が縦偏光成分の受光量と横偏光成分の受光量との合算値に近似することを利用して、疑似逆行列パラメータを生成すればよい。 In this example, the optical filter in which the vertical polarization filter and the horizontal polarization filter are alternately arranged has been described as an example. However, the optical filter in which the vertical polarization filter and no filter (area in which light is transmitted as it is) is alternately arranged. Even in the case of a filter or an optical filter in which a lateral polarization filter and no filter are alternately arranged, the pseudo inverse matrix parameter can be obtained by the same method as the above-described procedure. However, when such an optical filter is used, at the time of actual imaging, the light receiving element array does not receive either one of the horizontally polarized light component and the vertically polarized light component. For this reason, it is necessary to obtain a polarization component that does not receive light by using an image signal value of a polarization component that is received through the polarization filter and a non-polarization image signal value that is received through the absence of the filter. In this case, for example, the pseudo inverse matrix parameter may be generated using the fact that the amount of light received by non-polarized light approximates the sum of the amount of light received by the longitudinally polarized light component and the amount of light received by the horizontally polarized light component.
このようにして生成される疑似逆行列パラメータは、従来、受光素子1つ1つについて個別に設定されていた。この場合、その疑似逆行列パラメータを記憶するのに要する全記憶容量は、例えば、受光素子アレイの画素数(受光素子数)が480×752であり、1つの疑似逆行列パラメータの要素数が18個であり、その1要素あたりのデータ量が4バイトであると、約26Mバイトとなる。上記数1に示した式より、各受光素子の縦偏光成分Vと横偏光成分Hを、その周辺画素を含む3×3画素の画像信号値I1〜I9も用いて上記数1に示した式より求める画像処理をハードウェア処理にて行う場合、予めSPIフラッシュメモリなどのROMに擬似逆行列パラメータを格納しておく方法が考えられる。この方法によれば、予め擬似逆行列パラメータが算出済みであるので、撮像装置が起動するたびに擬似逆行列パラメータを算出する必要がなく、撮像装置の起動時間を短縮化できる。 Conventionally, the pseudo inverse matrix parameters generated in this way are individually set for each light receiving element. In this case, the total storage capacity required to store the pseudo inverse matrix parameter is, for example, the number of pixels of the light receiving element array (the number of light receiving elements) is 480 × 752, and the number of elements of one pseudo inverse matrix parameter is 18 If the data amount per element is 4 bytes, it is about 26 Mbytes. From the formula shown in the above equation 1, the vertical polarization component V and the lateral polarization component H of each light receiving element are used in the equation shown in the above equation 1 using 3 × 3 pixel image signal values I1 to I9 including the peripheral pixels. In the case where the image processing to be obtained is performed by hardware processing, a method of storing pseudo inverse matrix parameters in a ROM such as an SPI flash memory in advance can be considered. According to this method, since the pseudo inverse matrix parameter has been calculated in advance, it is not necessary to calculate the pseudo inverse matrix parameter every time the imaging apparatus is activated, and the activation time of the imaging apparatus can be shortened.
しかしながら、この方法では、擬似逆行列パラメータを格納しておくROMとして、26Mバイト以上の大容量メモリが必要となり、コストの面や消費電力の面で不利となるという問題が生じる。特に、FPGA等のプログラマブルな専用ハードウェアに上記数1に示した式に基づく画像処理を実行させる場合、一般には、撮像装置の起動時等に、擬似逆行列パラメータだけでなく、回路データ(例えば1.4Mバイト程度)やその他の初期データも専用ハードウェア内のRAMにロードする必要がある。この場合、擬似逆行列パラメータを記憶するROMには回路データや初期データも記憶する必要が出てくるので、当該ROMに必要な容量は更に増大する。したがって、コストの面や消費電力の面から擬似逆行列パラメータを記憶するROMの低容量化を図るために、擬似逆行列パラメータの記憶容量を削減することが強く望まれる。 However, this method requires a large-capacity memory of 26 Mbytes or more as a ROM for storing pseudo inverse matrix parameters, which causes a problem in terms of cost and power consumption. In particular, when image processing based on the formula shown in the above equation 1 is executed by programmable dedicated hardware such as FPGA, in general, not only pseudo inverse matrix parameters but also circuit data (for example, when the imaging apparatus is activated) It is also necessary to load other initial data into the RAM in the dedicated hardware. In this case, since it is necessary to store circuit data and initial data in the ROM that stores the pseudo inverse matrix parameters, the capacity required for the ROM further increases. Therefore, in order to reduce the capacity of the ROM that stores the pseudo inverse matrix parameters from the viewpoint of cost and power consumption, it is strongly desired to reduce the storage capacity of the pseudo inverse matrix parameters.
なお、擬似逆行列パラメータをROMに記憶するのではなく、例えば、疑似逆行列パラメータを求めるために取得した各受光素子iのサンプル縦偏光強度aviとサンプル横偏光強度ahiとをROMに記憶しておき、撮像装置内において各受光素子iの擬似逆行列パラメータを算出するという方法も考えられる。この方法の場合、ROMに記憶するサンプル縦偏光強度aviとサンプル横偏光強度ahiの全記憶容量は、受光素子アレイの画素数(受光素子数)が480×752であり、1画素あたりのデータ量が4バイトであると、約2.9Mバイト程度となり、擬似逆行列パラメータの全容量(約26Mバイト)よりも大幅に少なくできる。しかしながら、この方法では、すべての受光素子についての擬似逆行列パラメータを撮像装置内で演算する必要がある。このような逆行列演算は、特殊な演算処理が必要となり、その演算処理を行うための専用装置を設けるのにコストがかかる上、演算処理の負荷が大きく、かえって消費電力の面で不利となるおそれがある。 Instead of storing the pseudo inverse matrix parameter in the ROM, for example, the sample longitudinal polarization intensity avi and the sample transverse polarization intensity ahi of each light receiving element i acquired for obtaining the pseudo inverse matrix parameter are stored in the ROM. A method of calculating the pseudo inverse matrix parameter of each light receiving element i in the imaging apparatus is also conceivable. In the case of this method, the total storage capacity of the sample longitudinal polarization intensity avi and the sample transverse polarization intensity ahi stored in the ROM is 480 × 752 in the number of pixels of the light receiving element array (the number of light receiving elements), and the data amount per pixel Is 4 bytes, it is about 2.9 Mbytes, which can be significantly smaller than the total capacity of the pseudo inverse matrix parameters (about 26 Mbytes). However, in this method, it is necessary to calculate pseudo inverse matrix parameters for all the light receiving elements in the imaging apparatus. Such inverse matrix calculation requires special calculation processing, and it is expensive to provide a dedicated device for performing the calculation processing, and the calculation processing load is large, which is disadvantageous in terms of power consumption. There is a fear.
本発明は、以上の背景に鑑みなされたものであり、その目的とするところは、光学フィルタを通じて撮像した撮像画像に対して画像処理を行って互いに異なった光学成分を抽出して光学成分抽出画像を生成する場合に必要となる演算パラメータのデータ量を少なくして、その演算パラメータを格納するメモリの低容量化を実現できる撮像装置を提供することである。 The present invention has been made in view of the above background, and an object of the present invention is to perform image processing on a captured image captured through an optical filter to extract different optical components and extract an optical component extracted image. It is an object of the present invention to provide an imaging apparatus capable of reducing the amount of calculation parameter data required to generate the memory and reducing the capacity of a memory for storing the calculation parameter.
上記目的を達成するために、請求項1の発明は、互いに異なる光学成分を選択的に透過させる複数種類の選択フィルタ領域を周期的に配列した光学フィルタ、又は、1種類又は2種類以上の選択フィルタ領域及び入射光をそのまま透過させる非選択フィルタ領域を周期的に配列した光学フィルタを通じて、受光素子が2次元配置された受光素子アレイにより撮像領域からの光を受光し、該受光素子アレイ上の1つの受光素子又は2以上の受光素子群に対応する単位画素ごとの受光量に応じた画像信号を出力するものであって、上記光学フィルタに備わった複数種類のフィルタ領域を透過した各光の単位画素内における受光面積比率が偏るように構成された撮像手段と、該撮像手段から出力された画像信号に基づき、単位画素及びその周辺画素の受光量から、該単位画素に応じた演算パラメータを用いて、該単位画素で受光された光に含まれる互いに異なった光学成分を演算する画像処理を実行する画像処理手段と、全単位画素に対応する演算パラメータを記憶するパラメータ記憶手段とを備えた撮像装置であって、上記撮像手段は、上記光学フィルタに備わった複数種類のフィルタ領域を透過した各光の単位画素内における受光面積比率が互いに等しい1種類又は2種類以上の共通単位画素が周期的に存在するように構成されており、上記画像処理手段は、同一種類の共通単位画素を複数含んだ互いに隣接する4つ以上の単位画素で構成される2以上の単位処理領域に区分し、同一の単位処理領域内における同一種類の共通単位画素については、同一の演算パラメータを用いて上記画像処理を実行することを特徴とするものである。
また、請求項2の発明は、請求項1の撮像装置において、上記光学フィルタは、複数種類のフィルタ領域をストライプ状に配列したものであることを特徴とするものである。
また、請求項3の発明は、請求項2の撮像装置において、上記受光素子アレイは、互いに直交する縦方向及び横方向に受光素子が等間隔で配列されたものであり、上記光学フィルタは、上記複数種類のフィルタ領域の長手方向が上記受光素子アレイの縦方向及び横方向のいずれにも傾斜するように構成されていることを特徴とするものである。
また、請求項4の発明は、請求項3の撮像装置において、上記受光素子アレイの縦方向における受光素子間隔をnとし、横方向における受光素子間隔をmとしたとき、上記光学フィルタは、上記複数種類のフィルタ領域の縦方向長さNが下記の式(1)を満たし、該複数種類のフィルタ領域の横方向長さMが下記の式(2)を満たすように構成されていることを特徴とするものである。
N=A×n・・・(1)
M=B×m・・・(2)
ただし、A及びBは自然数であり、かつ、A≠Bを満たすものである。
また、請求項5の発明は、請求項4の撮像装置において、上記式(1)中のAに対する上記式(2)中のBの比率が1/2又は2であることを特徴とするものである。
また、請求項6の発明は、請求項1乃至5のいずれか1項に記載の撮像装置において、上記選択フィルタ領域は、所定の偏光成分を選択的に透過させる偏光フィルタで構成されていることを特徴とするものである。
In order to achieve the above object, the invention of claim 1 is an optical filter in which a plurality of types of selection filter regions that selectively transmit different optical components are periodically arranged, or one or more types of selections. The light from the imaging area is received by the light receiving element array in which the light receiving elements are two-dimensionally arranged through the optical filter in which the filter area and the non-selected filter area that transmits the incident light as they are periodically arranged. An image signal corresponding to the amount of light received for each unit pixel corresponding to one light receiving element or two or more light receiving element groups is output , and each light transmitted through a plurality of types of filter regions included in the optical filter is output . imaging means configured to receiving area ratio is biased in the unit pixel, based on the image signal outputted from the image pickup means, a unit pixel and its surrounding pixels From the light-receiving amount by using the operation parameter corresponding to the unit pixel, and an image processing means for executing image processing for calculating the different optical components to each other contained in the light received by the unit pixel, corresponding to all the unit pixels An imaging device including a parameter storage unit that stores calculation parameters to be received, wherein the imaging unit has a light receiving area ratio in each unit pixel of each light transmitted through a plurality of types of filter regions included in the optical filter. One type or two or more types of common unit pixels are present periodically, and the image processing means includes four or more adjacent unit pixels including a plurality of the same type of common unit pixels. It is divided into two or more configured unit processing areas, and the same type of common unit pixel in the same unit processing area is described above using the same calculation parameter. It is characterized in executing the image processing.
According to a second aspect of the present invention, in the image pickup apparatus according to the first aspect, the optical filter includes a plurality of types of filter regions arranged in a stripe shape.
According to a third aspect of the present invention, in the imaging apparatus according to the second aspect , the light receiving element array includes light receiving elements arranged at equal intervals in a vertical direction and a horizontal direction orthogonal to each other. The plurality of types of filter regions are configured such that the longitudinal direction thereof is inclined in both the vertical direction and the horizontal direction of the light receiving element array.
According to a fourth aspect of the present invention, in the imaging apparatus of the third aspect , when the light receiving element interval in the vertical direction of the light receiving element array is n and the light receiving element interval in the horizontal direction is m, the optical filter is The vertical length N of the plurality of types of filter regions satisfies the following formula (1), and the horizontal length M of the plurality of types of filter regions satisfies the following formula (2). It is a feature.
N = A × n (1)
M = B × m (2)
However, A and B are natural numbers and satisfy A ≠ B.
According to a fifth aspect of the present invention, in the imaging apparatus of the fourth aspect , the ratio of B in the formula (2) to A in the formula (1) is 1/2 or 2. It is.
According to a sixth aspect of the present invention, in the imaging apparatus according to any one of the first to fifth aspects, the selection filter region is configured by a polarization filter that selectively transmits a predetermined polarization component. It is characterized by.
本発明においては、撮像手段の光学フィルタに備わった複数種類のフィルタ領域を透過した各光束の単位画素内における受光面積比率が互いに等しい1種類又は2種類以上の共通単位画素が周期的に存在する。なお、ここでいう「フィルタ領域」とは、所定の光学成分を選択的に透過させる選択フィルタ領域だけでなく、入射光をそのまま透過させる非選択フィルタ領域を含む意味である。また、ここでは、受光面積比率が同じもの同士を同一種類の共通単位画素としている。
本発明者が鋭意研究したところ、受光面積比率が同じである同一種類の共通単位画素は、受光素子アレイ上で近接している画素同士であれば、その画像信号から出力画像情報の画素値を算出する画像処理で用いる演算パラメータが互いに近似しているという知見を得た。本発明は、この知見に基づいてなされたものである。すなわち、受光素子アレイ上の単位画素を、同一種類の共通単位画素を複数含んだ互いに隣接する4つ以上の単位画素で構成される2以上の単位処理領域に区分する。このように区分された単位処理領域内には、受光素子アレイ上で互いに近接した少なくとも2つの同一種類の共通単位画素が含まれる。よって、これらの共通単位画素に対する画像処理で用いる演算パラメータは互いに近似したものである。したがって、これらの共通単位画素の演算パラメータとして同一の演算パラメータを使い回しても、その演算誤差は許容範囲内に収めることができる。その結果、パラメータ記憶手段に記憶しておく演算パラメータの数が、すべての単位画素について演算パラメータをパラメータ記憶手段に記憶しておく場合と比較して、その使い回し分だけ少なくできる。
In the present invention, one type or two or more types of common unit pixels having the same light-receiving area ratio in each unit pixel of each light flux that has passed through a plurality of types of filter regions provided in the optical filter of the imaging means periodically exist. . The “filter region” here means not only a selected filter region that selectively transmits a predetermined optical component but also a non-selected filter region that transmits incident light as it is. Further, here, the same unit pixels of the same type are used as those having the same light receiving area ratio.
As a result of intensive research by the present inventors, if the same type of common unit pixel having the same light receiving area ratio is adjacent to each other on the light receiving element array, the pixel value of the output image information is obtained from the image signal. It was found that the calculation parameters used in the image processing to be calculated are close to each other. The present invention has been made based on this finding. That is, the unit pixel on the light receiving element array is divided into two or more unit processing regions including four or more adjacent unit pixels including a plurality of common unit pixels of the same type. The unit processing area thus divided includes at least two common unit pixels of the same type that are close to each other on the light receiving element array. Therefore, the operation parameters used in the image processing for these common unit pixels are approximate to each other. Therefore, even if the same calculation parameter is repeatedly used as the calculation parameter for these common unit pixels, the calculation error can be within an allowable range. As a result, the number of calculation parameters stored in the parameter storage means can be reduced by the amount of reuse compared to the case where calculation parameters are stored in the parameter storage means for all unit pixels.
以上、本発明によれば、光学フィルタを通じて撮像した撮像画像に対して画像処理を行って互いに異なった光学成分を抽出して光学成分抽出画像を生成する場合に必要となる演算パラメータのデータ量を少なくすることができるので、その演算パラメータを格納するメモリ(パラメータ記憶手段)の低容量化を実現できるという優れた効果が得られる。 As described above, according to the present invention, the amount of calculation parameter data required when performing image processing on a captured image captured through an optical filter to extract different optical components to generate an optical component extracted image is reduced. Since the number can be reduced, an excellent effect can be obtained in that the capacity of the memory (parameter storage means) for storing the operation parameters can be reduced.
以下、本発明に係る撮像装置を、自車の運転者(ドライバー)の運転負荷を軽減させるための運転者支援システムに適用した一実施形態について説明する。
まず、本運転者支援システムにおける概略構成及び動作概要を説明する。
図1は、本実施形態に係る運転者支援システムの機能ブロック図である。
図2は、本実施形態の運転者支援システムにおける車両検出処理の概要を示すフローチャートである。
図示しない車両に搭載された撮像装置としての偏光カメラ10により、車両が走行する路面(移動面)を含む自車周囲の風景を撮影する(S1)。これにより、偏光カメラ10の受光素子1つに対応した単位画素(以下、単に「画素」という。)ごとの垂直偏光強度(以下「縦偏光強度」という。)及び水平偏光強度(以下「横偏光強度」という。)を得る(S2)。本実施形態では、このようにして得られる各画素の縦偏光強度及び横偏光強度から、単位画素ごとに、差分偏光度を算出する(S3)。この差分偏光度から、各画素の差分偏光度を画素値とした差分偏光度画像を生成することができる。
Hereinafter, an embodiment in which an imaging device according to the present invention is applied to a driver support system for reducing the driving load of a driver of the own vehicle will be described.
First, a schematic configuration and an operation outline in the driver assistance system will be described.
FIG. 1 is a functional block diagram of the driver assistance system according to the present embodiment.
FIG. 2 is a flowchart showing an outline of vehicle detection processing in the driver assistance system of the present embodiment.
A landscape around the host vehicle including a road surface (moving surface) on which the vehicle travels is photographed by a polarization camera 10 as an imaging device mounted on a vehicle (not shown) (S1). Thereby, the vertical polarization intensity (hereinafter referred to as “vertical polarization intensity”) and horizontal polarization intensity (hereinafter referred to as “lateral polarization”) for each unit pixel (hereinafter simply referred to as “pixel”) corresponding to one light receiving element of the polarization camera 10. Strength ”) is obtained (S2). In the present embodiment, the differential polarization degree is calculated for each unit pixel from the vertical polarization intensity and the horizontal polarization intensity of each pixel obtained in this way (S3). From this differential polarization degree, a differential polarization degree image with the differential polarization degree of each pixel as the pixel value can be generated.
差分偏光度は、下記の式(3)に示す計算式から求められる。すなわち、差分偏光度は、横偏光強度と縦偏光強度との合計値(輝度合計値)に対する横偏光強度と縦偏光強度との差分値(輝度差分値)の比率である。また、差分偏光度は、輝度合計値に対するP偏向強度の比率(横差分偏光度)と、輝度合計値に対するS偏向強度の比率(縦差分偏光度)との差分値であると言い換えることもできる。なお、本実施形態では、横偏光強度から縦偏光強度を差し引く場合について説明するが、縦偏光強度から横偏光強度を差し引くようにしてもよい。
差分偏光度=(横偏光強度−縦偏光強度)/(横偏光強度+縦偏光強度) ・・(3)
The differential polarization degree is obtained from the calculation formula shown in the following formula (3). That is, the differential polarization degree is the ratio of the difference value (luminance difference value) between the lateral polarization intensity and the longitudinal polarization intensity to the total value (luminance total value) of the transverse polarization intensity and the longitudinal polarization intensity. In addition, the differential polarization degree can be paraphrased as a difference value between the ratio of the P deflection intensity with respect to the total luminance value (lateral differential polarization degree) and the ratio of the S deflection intensity with respect to the total luminance value (vertical differential polarization degree). . In this embodiment, the case where the vertical polarization intensity is subtracted from the horizontal polarization intensity is described. However, the horizontal polarization intensity may be subtracted from the vertical polarization intensity.
Differential polarization degree = (transverse polarization intensity−longitudinal polarization intensity) / (transverse polarization intensity + longitudinal polarization intensity) (3)
本実施形態では、偏光カメラ10から差分偏光度画像のデータが出力され、この差分偏光度画像のデータが路面・立体物判別部21に入力される。路面・立体物判別部21は、偏光カメラ10から出力された差分偏光度画像について、路面を映し出した画像領域と立体物を映し出した画像領域とを判別する(S4)。
図3は、路面及び立体物を判別するための処理の流れを示すフローチャートである。
路面・立体物判別部21は、偏光カメラ10から差分偏光度画像のデータを受け取ったら、まず、差分偏光度画像を2値化するための閾値を設定し(S41)、その閾値を用いて差分偏光度画像を2値化する(S42)。具体的には、所定の閾値以上の差分偏光度を有する画素に「1」、そうでない画素に「0」を割り振ることで、2値化画像を作成する。その後、この2値化画像において、「1」が割り振られた画素が近接している場合には、それらを1つの画像領域として認識するラベリング処理を実施する(S43)。これによって、差分偏光度の高い近接した複数の画素の集合が1つの高差分偏光度領域として抽出される。このようにして抽出した各高差分偏光度領域を、図示しない路面特徴データ記憶手段としての記憶部内に記憶されている路面の特徴データと照らし合わせ、路面の特徴データに合致した高差分偏光度領域を路面領域として抽出する(S44)。そして、このようにして抽出した路面領域の形状を、路面形状パターンと照らし合わせて推定し(S45)、路面領域の両端すなわち路端ラインを特定する。その後、抽出した路面領域以外の残りの画像領域を、立体物を映し出した立体物領域として抽出する(S46)。
In the present embodiment, differential polarization degree image data is output from the polarization camera 10, and the differential polarization degree image data is input to the road surface / three-dimensional object determination unit 21. The road surface / three-dimensional object discriminating unit 21 discriminates between an image area showing a road surface and an image area showing a three-dimensional object from the differential polarization degree image output from the polarization camera 10 (S4).
FIG. 3 is a flowchart showing a flow of processing for discriminating a road surface and a three-dimensional object.
When the road surface / three-dimensional object discriminating unit 21 receives the differential polarization degree image data from the polarization camera 10, first, a threshold value for binarizing the differential polarization degree image is set (S 41), and the difference is calculated using the threshold value. The polarization degree image is binarized (S42). Specifically, a binary image is created by assigning “1” to pixels having a differential polarization degree equal to or greater than a predetermined threshold and assigning “0” to pixels that do not. Thereafter, in the binarized image, when pixels assigned with “1” are close to each other, a labeling process for recognizing them as one image area is performed (S43). As a result, a set of a plurality of adjacent pixels having a high difference polarization degree is extracted as one high difference polarization degree region. Each high differential polarization degree region extracted in this way is compared with road surface feature data stored in a storage unit (not shown) as road surface feature data storage means, and the high difference polarization degree region that matches the road surface feature data. Is extracted as a road surface area (S44). Then, the shape of the road surface area extracted in this way is estimated by comparing with the road surface shape pattern (S45), and both ends of the road surface area, that is, road edge lines are specified. Thereafter, the remaining image area other than the extracted road surface area is extracted as a three-dimensional object area in which a three-dimensional object is projected (S46).
図4は、高速道路を走行している車両に搭載した偏光カメラ10により撮像して得た差分偏光度画像を示したものである。
図5は、この差分偏光度画像について路面及び立体物の判別処理を施した後の画像を示したものである。
図5に示す画像中の黒塗り部分の画像領域が路面領域として抽出された箇所である。また、図5に示す画像中の点線で示すラインが路端ラインである。
FIG. 4 shows a differential polarization degree image obtained by imaging with a polarization camera 10 mounted on a vehicle traveling on a highway.
FIG. 5 shows an image after the road surface and the three-dimensional object are subjected to the differential polarization degree image.
The image area of the black part in the image shown in FIG. 5 is a location extracted as a road surface area. Moreover, the line shown with the dotted line in the image shown in FIG. 5 is a road edge line.
車両候補領域決定部22は、車両の窓ガラスからの光が有する差分偏光度の特徴を利用して、上記S46において立体物領域であると判定された領域の中から、車両候補領域を決定する(S5)。
図6は、立体物領域であると判定された領域の中から車両候補領域を決定するためのフローチャートである。
車両候補領域決定部22は、路面・立体物判別部21において判定された各立体物領域に対して、その差分偏光度が所定の閾値以上であるか否か(所定の数値範囲内であるか否か)を判断し、差分偏光度が所定の閾値以上である立体物領域を検知する(S51)。次に、このようにして検知した立体物領域の面積が、車両の窓ガラスに対応する面積範囲内であるか否かをチェックする(S52)。そして、このチェックを通った立体物領域に対し、車両の窓ガラスに対応する形状を有するかどうかをチェックして、このチェックも通った立体物領域を、車両後方領域として決定する(S53)。
The vehicle candidate area determination unit 22 determines a vehicle candidate area from the areas determined to be a three-dimensional object area in S46 using the characteristics of the differential polarization degree of light from the window glass of the vehicle. (S5).
FIG. 6 is a flowchart for determining a vehicle candidate area from among the areas determined to be solid objects areas.
The vehicle candidate area determination unit 22 determines whether or not the differential polarization degree is equal to or greater than a predetermined threshold for each solid object area determined by the road surface / three-dimensional object determination unit 21 (is within a predetermined numerical range). No) is detected, and a three-dimensional object region having a differential polarization degree equal to or greater than a predetermined threshold is detected (S51). Next, it is checked whether or not the area of the three-dimensional object region detected in this way is within the area range corresponding to the window glass of the vehicle (S52). Then, it is checked whether or not the three-dimensional object region that has passed this check has a shape corresponding to the window glass of the vehicle, and the three-dimensional object region that has passed this check is determined as the vehicle rear region (S53).
車両識別部23は、車両特徴量パターン記憶部24に記憶された車両特徴量パターンによるバターンマッチング手法により、上記車両候補領域決定部22が決定した車両候補領域が車両領域であるか否かを識別する。このバターンマッチング手法は、公知のものを広く利用できる。 The vehicle identification unit 23 identifies whether or not the vehicle candidate region determined by the vehicle candidate region determination unit 22 is a vehicle region by a pattern matching method using the vehicle feature amount pattern stored in the vehicle feature amount pattern storage unit 24. To do. As this pattern matching method, known methods can be widely used.
本実施形態では、例えば、CRTや液晶等で構成される車内の情報報知手段である表示部(ディスプレイ)25に、モノクロ画像処理部で算出した輝度データを用いて生成されるモノクロ輝度画像(フロントビュー画像)を表示し、その画像中の他車を映し出している領域を示す情報を、運転者にとって有益な情報として報知するために、運転者が見やすい表示形態で表示する。これによれば、例えば、運転者が目視で他車を認識することが困難な状況下であっても、運転者は表示部のフロントビュー画像を見ることで、自車と他車との相対位置関係を把握することができ、他車に衝突することなく安全に走行することが容易になる。 In the present embodiment, for example, a monochrome luminance image (front) generated by using the luminance data calculated by the monochrome image processing unit is displayed on the display unit (display) 25 which is an in-vehicle information notification unit composed of CRT, liquid crystal, or the like. (View image) is displayed, and information indicating an area in which the other vehicle is displayed is displayed as information useful for the driver in a display form that is easy for the driver to see. According to this, for example, even in a situation where it is difficult for the driver to visually recognize the other vehicle, the driver can view the relative position between the host vehicle and the other vehicle by looking at the front view image on the display unit. The positional relationship can be grasped, and it is easy to travel safely without colliding with another vehicle.
また、本実施形態の車両制御部26は、例えば、車両識別部23により識別された車両領域の位置情報から、自車と他車との相対位置関係を把握する処理を行い、自車が他車に近づいて走行していないかどうかを判断し、他車に近づいたときに警報音等を発する処理を行う。あるいは、他車に近づいたときに、自動ブレーキ機能を実行して、自車の走行速度を落とすような処理を行ってもよい。 In addition, the vehicle control unit 26 of the present embodiment performs a process of grasping the relative positional relationship between the own vehicle and the other vehicle from the position information of the vehicle area identified by the vehicle identification unit 23, for example. It is determined whether or not the vehicle is approaching the vehicle, and processing for generating an alarm sound or the like when the vehicle approaches another vehicle is performed. Or when approaching another vehicle, you may perform the process which performs an automatic brake function and reduces the traveling speed of the own vehicle.
以下、本発明の特徴部分である偏光カメラ10の構成及び動作について詳述する。
図7は、本実施形態における偏光カメラ10の概略構成を示す説明図である。
この偏光カメラ10は、主に、撮像レンズ1と、光学フィルタ2と、受光素子が2次元配置された受光素子アレイを有する画像センサ4が搭載されたセンサ基板3と、センサ基板3から出力されるアナログ電気信号(画像センサ4上の各受光素子が受光した受光量)をデジタル電気信号に変換するA/D変換部5と、A/D変換部5から出力されるデジタル電気信号(画素データ)に対して画像処理を行って差分偏光度画像のデータを生成して出力する信号処理部6とから構成されている。被写体(被検物)を含む撮像領域からの光は、撮像レンズ1を通り、光学フィルタ2を透過して、画像センサ4でその光強度に応じた電気信号に変換される。A/D変換部5では、画像センサ4から出力される電気信号(アナログ信号)が入力されると、その電気信号から、画素データとして、画像センサ4上における各画素の受光量を示すデジタル信号を、画像の垂直同期信号及び水平同期信号とともに信号処理部6へ出力する。
Hereinafter, the configuration and operation of the polarization camera 10 which is a characteristic part of the present invention will be described in detail.
FIG. 7 is an explanatory diagram showing a schematic configuration of the polarization camera 10 in the present embodiment.
The polarization camera 10 is mainly output from the image pickup lens 1, the optical filter 2, a sensor substrate 3 on which an image sensor 4 having a light receiving element array in which light receiving elements are two-dimensionally arranged, and a sensor substrate 3. A / D converter 5 that converts an analog electrical signal (the amount of light received by each light receiving element on image sensor 4) into a digital electrical signal, and a digital electrical signal (pixel data) output from A / D converter 5 ), And a signal processing unit 6 that generates and outputs differential polarization degree image data. Light from the imaging region including the subject (test object) passes through the imaging lens 1, passes through the optical filter 2, and is converted into an electrical signal corresponding to the light intensity by the image sensor 4. When an electrical signal (analog signal) output from the image sensor 4 is input to the A / D conversion unit 5, a digital signal indicating the amount of light received by each pixel on the image sensor 4 as pixel data from the electrical signal. Are output to the signal processing unit 6 together with the vertical synchronizing signal and horizontal synchronizing signal of the image.
図8は、光学フィルタ2と画像センサ4とを示す断面拡大図である。
画像センサ4は、CCD(Charge Coupled Device)やCMOS(Complementary Metal
Oxide Semiconductor)などを用いたイメージセンサであり、その受光素子にはフォトダイオード4aを用いている。フォトダイオード4aは、画素ごとに2次元的にアレイ配置されており、フォトダイオード4aの集光効率を上げるために、各フォトダイオード4aの入射側にはマイクロレンズ4bが設けられている。この画像センサ4がワイヤボンディングなどの手法によりPWB(printed wiring board)に接合されてセンサ基板3が形成されている。撮像する画像の波長範囲は略可視光であるため、画像センサ4としては、可視光の範囲に感度を有するものを選択すればよい。本実施形態の画像センサ4は、互いに直交する縦方向及び横方向に等間隔で配列された480×752の受光素子(フォトダイオード4a)を有効画素とする構成であり、1個のフォトダイオード4aを単位画素とする。
FIG. 8 is an enlarged cross-sectional view showing the optical filter 2 and the image sensor 4.
The image sensor 4 is a CCD (Charge Coupled Device) or CMOS (Complementary Metal).
Oxide Semiconductor) and the like, and a photodiode 4a is used as a light receiving element thereof. The photodiodes 4a are two-dimensionally arranged for each pixel, and a microlens 4b is provided on the incident side of each photodiode 4a in order to increase the light collection efficiency of the photodiodes 4a. The image sensor 4 is bonded to a PWB (printed wiring board) by a technique such as wire bonding to form a sensor substrate 3. Since the wavelength range of the image to be captured is substantially visible light, an image sensor 4 having sensitivity in the visible light range may be selected. The image sensor 4 of the present embodiment has a configuration in which light receiving elements (photodiodes 4a) of 480 × 752 arranged at equal intervals in the vertical and horizontal directions orthogonal to each other are effective pixels, and one photodiode 4a. Is a unit pixel.
画像センサ4のマイクロレンズ4b側の面には、光学フィルタ2が近接配置されている。光学フィルタ2の画像センサ4側の面には、図9に示すように、光をそのまま透過する非選択フィルタ領域である透過領域2aと、横偏光成分のみを選択的に透過させる選択フィルタ領域としての横偏光フィルタ領域2bとが、画像センサ4の縦方向(図中y方向)及び横方向(図中x方向)のいずれにも傾斜するように交互配置されたストライプ状の領域分割パターンを有している。具体的には、画像センサ4の縦方向における画素間隔(フォトダイオード4aの中心間距離)をnとし、横方向における画素間隔をmとしたとき、透過領域2a及び横偏光フィルタ領域2bの縦方向長さNが下記の式(1)を満たし、透過領域2a及び横偏光フィルタ領域2bの横方向長さMが下記の式(2)を満たすように、光学フィルタ2が構成されている。本実施形態の光学フィルタ2は、図9に示すように、A=1、B=2の例(すなわち、B/A=2の例)である。
N = A × n ・・・(1)
M = B × m ・・・(2)
The optical filter 2 is disposed close to the surface of the image sensor 4 on the microlens 4b side. On the surface of the optical filter 2 on the image sensor 4 side, as shown in FIG. 9, there are a transmission region 2a that is a non-selection filter region that transmits light as it is, and a selection filter region that selectively transmits only the lateral polarization component. The horizontal polarization filter region 2b has stripe-shaped region division patterns alternately arranged so as to incline in both the vertical direction (y direction in the drawing) and the horizontal direction (x direction in the drawing) of the image sensor 4. doing. Specifically, when the pixel interval (distance between the centers of the photodiodes 4a) in the vertical direction of the image sensor 4 is n and the pixel interval in the horizontal direction is m, the vertical direction of the transmission region 2a and the horizontal polarization filter region 2b. The optical filter 2 is configured such that the length N satisfies the following formula (1) and the lateral length M of the transmission region 2a and the lateral polarization filter region 2b satisfies the following formula (2). As shown in FIG. 9, the optical filter 2 of the present embodiment is an example of A = 1 and B = 2 (that is, an example of B / A = 2).
N = A × n (1)
M = B × m (2)
本実施形態においては、図9に示すように、光学フィルタ2に備わった2種類のフィルタ領域(透過領域2aと横偏光フィルタ領域2b)を透過した各光の1画素内における受光面積の比率が互いに等しい4種類の共通単位画素が周期的に存在するように構成される。
具体的に説明すると、第1共通単位画素は、図9に示す画素番号1の画素のように、当該画素の右上隅の小領域で横偏光フィルタ領域2bを透過した横偏光成分を受光するとともに、残りの大領域で透過領域2aを透過した非偏光の光を受光するパターンの画素である。
第2共通単位画素は、図9に示す画素番号2の画素のように、当該画素の左下隅の小領域で透過領域2aを透過した非偏光の光を受光するとともに、残りの大領域で横偏光フィルタ領域2bを透過した横偏光成分を受光するパターンの画素である。
第3共通単位画素は、図9に示す画素番号3の画素のように、当該画素の右上隅の小領域で透過領域2aを透過した非偏光の光を受光するとともに、残りの大領域で横偏光フィルタ領域2bを透過した横偏光成分を受光するパターンの画素である。
第4共通単位画素は、図9に示す画素番号5の画素のように、当該画素の左下隅の小領域で横偏光フィルタ領域2bを透過した横偏光成分を受光するとともに、残りの大領域で透過領域2aを透過した非偏光の光を受光するパターンの画素である。
In the present embodiment, as shown in FIG. 9, the ratio of the light receiving area in one pixel of each light transmitted through the two types of filter regions (the transmission region 2a and the lateral polarization filter region 2b) provided in the optical filter 2 is as follows. Four types of common unit pixels that are equal to each other are configured to periodically exist.
More specifically, the first common unit pixel receives the horizontally polarized light component transmitted through the horizontally polarized filter region 2b in the small region at the upper right corner of the pixel, like the pixel of pixel number 1 shown in FIG. These are pixels having a pattern for receiving the non-polarized light transmitted through the transmission region 2a in the remaining large region.
Like the pixel number 2 shown in FIG. 9, the second common unit pixel receives non-polarized light transmitted through the transmission region 2a in a small region at the lower left corner of the pixel, and horizontally in the remaining large region. It is a pixel having a pattern for receiving a laterally polarized light component transmitted through the polarizing filter region 2b.
The third common unit pixel receives the non-polarized light transmitted through the transmission region 2a in the small region at the upper right corner of the pixel, as in the pixel of pixel number 3 shown in FIG. It is a pixel having a pattern for receiving a laterally polarized light component transmitted through the polarizing filter region 2b.
The fourth common unit pixel, like the pixel of pixel number 5 shown in FIG. 9, receives the horizontally polarized light component transmitted through the horizontally polarized filter region 2b in the small region at the lower left corner of the pixel, and in the remaining large region. It is a pixel of the pattern which receives the non-polarized light which permeate | transmitted the transmission region 2a.
本実施形態の偏光カメラ10の信号処理部6では、A/D変換部5から出力される画素データと疑似逆行列パラメータとを用いて、注目画素(図9中の画素番号5)の縦偏光成分Vと横偏光成分Hを、下記の数3に示す式より算出する。すなわち、本実施形態では、注目画素5の縦偏光成分Vと横偏光成分Hを、当該注目画素5の画素データI5だけでなく、その注目画素5の周囲を取り囲む8つの周辺画素1〜4,6〜9の画素データI1〜I4,I6〜I9も用いて算出する。この算出に必要な疑似逆行列パラメータは、予め求めておいて後述するパラメータ記憶手段としてのSPIフラッシュメモリに格納されているものを用いる。
本実施形態の信号処理部6が実行する画像処理においては、画像センサ4の有効画素(480×752)について、図10に示すように、縦を30等分し、横を47等分して、16×16画素で構成される1410個の単位処理領域に区分して、注目画素5の縦偏光成分Vと横偏光成分Hを上記数3に示す式より算出する演算処理を行う。このように区分すると、各単位処理領域には、上述した4種類の共通単位画素それぞれについて、同一種類の共通単位画素が2つ以上存在する。 In the image processing executed by the signal processing unit 6 of the present embodiment, the effective pixels (480 × 752) of the image sensor 4 are divided into 30 equal parts and 47 equal parts as shown in FIG. , A processing process is performed in which the vertical polarization component V and the horizontal polarization component H of the pixel of interest 5 are calculated by the equation shown in the above equation 3 by dividing the pixel processing area into 1410 unit processing regions each composed of 16 × 16 pixels. When divided in this way, each unit processing region has two or more common unit pixels of the same type for each of the four types of common unit pixels described above.
図11は、一の単位処理領域における4種類の共通単位画素の分布を示す説明図である。
図12(a)〜(d)は、4種類の共通単位画素それぞれを注目画素とした場合において、その画像処理に用いられる3×3画素内における4種類の共通単位画素の分布を示す説明図である。
4種類の共通単位画素について、第1共通単位画素を丸付き数字1で示し、第2共通単位画素を丸付き数字2で示し、第3共通単位画素を丸付き数字3で示し、第4共通単位画素を丸付き数字4で示すと、図9に示すように構成された光学フィルタ2の場合、各単位処理領域内の共通単位画素分布は、図11に示すようになる。このような分布においては、第1共通単位画素を注目画素とした画像処理に用いられる3×3画素内における4種類の共通単位画素の分布は、当該単位処理領域内のどの第1共通単位画素についても、図12(a)のようになる。すなわち、第1共通単位画素を注目画素とした場合、その3×3画素の共通単位画素分布は一意に決まる。
FIG. 11 is an explanatory diagram showing the distribution of four types of common unit pixels in one unit processing region.
FIGS. 12A to 12D are explanatory diagrams showing the distribution of four types of common unit pixels in the 3 × 3 pixels used for image processing when each of the four types of common unit pixels is a target pixel. It is.
For the four types of common unit pixels, the first common unit pixel is indicated by a circled number 1, the second common unit pixel is indicated by a circled number 2, the third common unit pixel is indicated by a circled number 3, and the fourth common When the unit pixel is indicated by a circled numeral 4, in the case of the optical filter 2 configured as shown in FIG. 9, the common unit pixel distribution in each unit processing region is as shown in FIG. In such a distribution, the distribution of the four types of common unit pixels in the 3 × 3 pixels used for image processing using the first common unit pixel as the target pixel is which first common unit pixel in the unit processing region. Is also as shown in FIG. That is, when the first common unit pixel is the target pixel, the 3 × 3 common unit pixel distribution is uniquely determined.
同様に、第2共通単位画素を注目画素とした場合、その3×3画素の共通単位画素分布も、図12(b)に示すように、一意に決まる。
また、第3共通単位画素を注目画素とした場合、その3×3画素の共通単位画素分布も、図12(c)に示すように、一意に決まる。
また、第4共通単位画素を注目画素とした場合、その3×3画素の共通単位画素分布も、図12(d)に示すように、一意に決まる。
Similarly, when the second common unit pixel is the target pixel, the 3 × 3 common unit pixel distribution is uniquely determined as shown in FIG.
When the third common unit pixel is the target pixel, the common unit pixel distribution of 3 × 3 pixels is uniquely determined as shown in FIG.
Further, when the fourth common unit pixel is the target pixel, the 3 × 3 common unit pixel distribution is uniquely determined as shown in FIG.
本発明者が鋭意研究したところ、受光面積比率が同じである同一種類の共通単位画素については、画像センサ4上で近接している画素同士であれば、その画像処理で用いる疑似逆行列パラメータ(演算パラメータ)が互いに近似するという知見を得た。特に、受光面積比率だけでなく、透過領域2a及び横偏光フィルタ領域2bを透過した各光の画素内における受光位置までも同じであるものを同一種類の共通単位画素とすれば、疑似逆行列パラメータの近似性はより高まる。よって、互いに近接して位置する同一種類の共通単位画素の疑似逆行列パラメータとして、同じ疑似逆行列パラメータを使い回しても、その演算誤差は許容範囲内に収めることができる。 As a result of intensive research by the present inventor, regarding the same type of common unit pixel having the same light receiving area ratio, if the pixels are close to each other on the image sensor 4, pseudo inverse matrix parameters ( We have found that the calculation parameters are close to each other. In particular, if not only the light receiving area ratio but also the same light receiving position in the pixel of each light transmitted through the transmission region 2a and the lateral polarization filter region 2b is a common unit pixel of the same type, the pseudo inverse matrix parameter The closeness of is further increased. Therefore, even if the same pseudo inverse matrix parameter is used repeatedly as the pseudo inverse matrix parameter of the same type of common unit pixel located close to each other, the calculation error can be kept within an allowable range.
そこで、本実施形態においては、画像センサ4上における480×752の有効画素を、互いに隣接する16×16画素で構成された1410個の単位処理領域に区分することとしている。この区分数は、許容する演算誤差に応じて適宜設定されるものである。すなわち、同一種類の共通単位画素であっても、互いの距離が遠くなればなるほど近似性が低下するので、同じ疑似逆行列パラメータを使い回す同一種類の共通単位画素の範囲を、演算誤差が許容範囲に収まるほどの近似性が得られる距離に位置する範囲内に制限するように、その区分数を設定する。 Therefore, in the present embodiment, the effective pixels of 480 × 752 on the image sensor 4 are divided into 1410 unit processing regions composed of 16 × 16 pixels adjacent to each other. The number of divisions is appropriately set according to the allowable calculation error. In other words, even with the same type of common unit pixel, the closer the distance between each other, the lower the approximation, so that the range of the same type of common unit pixel that uses the same pseudo inverse matrix parameter is allowed to have a calculation error. The number of divisions is set so as to be limited to a range located at a distance at which the closeness within the range can be obtained.
この区分数を多くすればするほど、同じ疑似逆行列パラメータを使い回す同一種類の共通単位画素に対応する本来の疑似逆行列パラメータの近似性が高いので、より小さな演算誤差で済むが、必要となる疑似逆行列パラメータの数(データ量)は増えることになる。
具体例を挙げると、本実施形態の場合、1つの疑似逆行列パラメータの要素数が18個で、その1要素あたりのデータ量が4バイトであるので、疑似逆行列パラメータ1個あたりのデータ量は72バイトである。本実施形態のように1410個の単位処理領域に区分する場合、各単位処理領域それぞれで4つの疑似逆行列パラメータを使い回すことになるので、全体で4×1410=5640個の疑似逆行列パラメータが必要となる。したがって、疑似逆行列パラメータの全データ量は406080バイト(約0.4Mバイト)となる。これに対し、1つの単位処理領域が8×8画素で構成されるように区分すると、その区分数は5640個となり、全体で4×5640=22560個の疑似逆行列パラメータが必要となる。この場合、疑似逆行列パラメータの全データ量は1624320バイト(約1.6Mバイト)となる。
なお、逆に、演算誤差に余裕がある場合には、区分数を減らして、同じ疑似逆行列パラメータを使い回す同一種類の共通単位画素の数を増やし、疑似逆行列パラメータの数(データ量)を更に減らすようにしてもよい。
As the number of divisions increases, the approximation of the original pseudo inverse matrix parameter corresponding to the same type of common unit pixel that uses the same pseudo inverse matrix parameter is higher, so a smaller calculation error is required. The number of pseudo inverse matrix parameters (data amount) increases.
Specifically, in the case of this embodiment, since the number of elements of one pseudo inverse matrix parameter is 18 and the data amount per element is 4 bytes, the data amount per pseudo inverse matrix parameter Is 72 bytes. When dividing into 1410 unit processing areas as in the present embodiment, four pseudo inverse matrix parameters are reused in each unit processing area, so that 4 × 1410 = 5640 pseudo inverse matrix parameters in total. Is required. Therefore, the total data amount of the pseudo inverse matrix parameter is 406080 bytes (about 0.4 Mbytes). On the other hand, if one unit processing area is divided into 8 × 8 pixels, the number of divisions is 5640, and a total of 4 × 5640 = 22560 pseudo inverse matrix parameters are required. In this case, the total data amount of the pseudo inverse matrix parameter is 1624320 bytes (about 1.6 Mbytes).
On the other hand, if there is a margin for calculation error, the number of segments is reduced, the number of common unit pixels of the same type that reuse the same pseudo inverse matrix parameter is increased, and the number of pseudo inverse matrix parameters (data amount) May be further reduced.
すべての画素について個別に疑似逆行列パラメータを用意する場合には、全疑似逆行列パラメータのデータ量が約26Mバイトにもなり、疑似逆行列パラメータを格納しておくメモリとして、26Mバイト以上の大容量メモリが必要であったところ、本実施形態によれば、全疑似逆行列パラメータのデータ量を約0.4Mバイトにまで低減できるので、低消費電力である安価な小容量メモリで済む。 When preparing the pseudo inverse matrix parameters individually for all the pixels, the data amount of all the pseudo inverse matrix parameters is about 26 Mbytes, and the memory for storing the pseudo inverse matrix parameters is a large memory of 26 Mbytes or more. Where a capacity memory is required, according to the present embodiment, the data amount of all pseudo inverse matrix parameters can be reduced to about 0.4 Mbytes, so that an inexpensive small capacity memory with low power consumption is sufficient.
本実施形態においては、疑似逆行列パラメータの1要素あたりのデータ量を例えば1バイトに減らしてもよい。この場合、疑似逆行列パラメータの全データ量は、更に101520バイト(約0.1Mバイト)にまで低減することができる。
特に、本実施形態においては、各単位処理領域で使い回す4種類の擬似逆行列パラメータは、その単位処理領域を構成する16×16画素のすべてについて求めた擬似逆行列パラメータの和をとり、その絶対値が一番大きい要素の絶対値が127となるように規格化してもよい。この規格化すると、疑似逆行列パラメータの1要素あたりのデータ量が1バイトとなるが、このようにデータ量を減らしても、計算精度の良好な差分偏光度が算出できる。
In the present embodiment, the data amount per element of the pseudo inverse matrix parameter may be reduced to, for example, 1 byte. In this case, the total data amount of the pseudo inverse matrix parameter can be further reduced to 101520 bytes (about 0.1 Mbyte).
In particular, in this embodiment, the four types of pseudo inverse matrix parameters that are reused in each unit processing area are the sum of the pseudo inverse matrix parameters obtained for all of the 16 × 16 pixels that constitute the unit processing area, You may normalize so that the absolute value of the element with the largest absolute value may become 127. With this normalization, the data amount per element of the pseudo inverse matrix parameter is 1 byte. Even if the data amount is reduced in this way, a differential polarization degree with good calculation accuracy can be calculated.
本実施形態では、光学フィルタ2の各フィルタ領域2a,2bの配列パターン(領域分割パターン)が、縦に480画素、横に752画素の有効画素で構成される画像センサ4に対し、横に2画素分、縦に1画素分の傾きを有するストライプ状のパターンである例について説明したが、横に1画素分、縦に2画素分の傾きを有するストライプ状のパターンであっても同じである。この傾きは、適宜設定され、例えば傾きを1に設定してもよい。 In the present embodiment, the arrangement pattern (area division pattern) of the filter regions 2a and 2b of the optical filter 2 is 2 horizontally with respect to the image sensor 4 composed of 480 pixels vertically and 752 pixels horizontally. Although an example of a stripe pattern having an inclination of one pixel in the vertical direction has been described, the same applies to a stripe pattern having an inclination of one pixel in the horizontal direction and two pixels in the vertical direction. . This inclination is appropriately set. For example, the inclination may be set to 1.
〔変形例1〕
図13は、各フィルタ領域2a,2bの傾きが1/3となるように構成された変形例1に係る光学フィルタ2と画像センサ4の画素との対応関係を示す説明図である。
図14は、本変形例1における一の単位処理領域に存在する6種類の共通単位画素の分布を示す説明図である。
本変形例1の光学フィルタのように各フィルタ領域2a,2bの傾きが1/3となるように構成されている場合、全体で6種類の共通単位画素が存在することになり、その分布は図14に示すものを繰り返したものとなる。本変形例1では、共通単位画素の種類が6種類であることを考慮して、一の単位処理領域を6×6画素で構成した。この場合、その区分数はおよそ10080個となるので、全体で6×10080=60480個の疑似逆行列パラメータが必要となる。よって、疑似逆行列パラメータ1個あたりのデータ量を18バイトであるとすると、疑似逆行列パラメータの全データ量は1088640バイト(約1.1Mバイト)となる。なお、傾きが3である場合も同様である。
[Modification 1]
FIG. 13 is an explanatory diagram showing a correspondence relationship between the optical filter 2 according to the modification example 1 and the pixels of the image sensor 4 configured such that the inclinations of the filter regions 2a and 2b are 1/3.
FIG. 14 is an explanatory diagram showing the distribution of six types of common unit pixels existing in one unit processing area in the first modification.
When the filter regions 2a and 2b are configured to have an inclination of 1/3 as in the optical filter of the first modification, there are six types of common unit pixels in total, and the distribution is The one shown in FIG. 14 is repeated. In the first modification, in consideration of the six types of common unit pixels, one unit processing region is configured by 6 × 6 pixels. In this case, since the number of divisions is approximately 10080, 6 × 10080 = 60480 pseudo inverse matrix parameters are required as a whole. Therefore, if the data amount per pseudo inverse matrix parameter is 18 bytes, the total data amount of the pseudo inverse matrix parameter is 1088640 bytes (about 1.1 Mbytes). The same applies when the inclination is 3.
〔変形例2〕
図15は、各フィルタ領域2a,2bの傾きが2/3となるように構成された変形例2に係る光学フィルタ2と画像センサ4の画素との対応関係を示す説明図である。
図16は、本変形例2における一の単位処理領域に存在する12種類の共通単位画素の分布を示す説明図である。
本変形例2の光学フィルタのように各フィルタ領域2a,2bの傾きが2/3となるように構成されている場合、全体で12種類の共通単位画素が存在することになる。本変形例2では、共通単位画素の種類が12種類であることを考慮して、一の単位処理領域を8×8画素で構成した。この場合、その区分数は5640個となるので、全体で12×5640=67680個の疑似逆行列パラメータが必要となる。よって、疑似逆行列パラメータ1個あたりのデータ量を18バイトであるとすると、疑似逆行列パラメータの全データ量は1218240バイト(約1.2Mバイト)となる。
[Modification 2]
FIG. 15 is an explanatory diagram showing a correspondence relationship between the optical filter 2 according to the modified example 2 configured so that the inclination of each of the filter regions 2a and 2b is 2/3 and the pixels of the image sensor 4. FIG.
FIG. 16 is an explanatory diagram showing the distribution of 12 types of common unit pixels existing in one unit processing area in the second modification.
When the filter regions 2a and 2b are configured to have an inclination of 2/3 as in the optical filter of the second modification, there are 12 types of common unit pixels as a whole. In the second modification, in consideration of the 12 types of common unit pixels, one unit processing region is configured by 8 × 8 pixels. In this case, since the number of divisions is 5640, 12 × 5640 = 67680 pseudo inverse matrix parameters are required as a whole. Therefore, if the data amount per pseudo inverse matrix parameter is 18 bytes, the total data amount of the pseudo inverse matrix parameter is 1218240 bytes (approximately 1.2 Mbytes).
本実施形態(各変形例を含む。以下同じ。)においては、光学フィルタ2に備わった複数種類のフィルタ領域が、光をそのまま透過する透過領域2aと横偏光成分のみを選択的に透過させる横偏光フィルタ領域2bとである場合であったが、これに限られるものではない。例えば、光をそのまま透過する透過領域と縦偏光成分のみを選択的に透過させる縦偏光フィルタ領域とである場合や、縦偏光成分のみを選択的に透過させる縦偏光フィルタ領域と横偏光成分のみを選択的に透過させる横偏光フィルタ領域とである場合でも、同様の演算精度で差分偏光度画像を得ることができる。
また、本実施形態においては、光学フィルタ2に備わった複数種類のフィルタ領域が画像センサ4の縦方向及び横方向のいずれにも傾斜するように構成されたものであったが、画像センサ4の縦方向及び横方向のいずれか一方に平行である構成としてもよい。ただし、この場合には、各フィルタ領域を透過した両方の光が1つの画素内で受光されるように構成する。
In the present embodiment (including each modification example, the same applies hereinafter), a plurality of types of filter regions provided in the optical filter 2 selectively transmit only the transmission region 2a that transmits light as it is and the lateral polarization component. Although it is a case where it is with the polarizing filter area | region 2b, it is not restricted to this. For example, a transmission region that transmits light as it is and a vertical polarization filter region that selectively transmits only the vertical polarization component, or a vertical polarization filter region and horizontal polarization component that selectively transmits only the vertical polarization component. Even in the case of the lateral polarization filter region that allows selective transmission, a differential polarization degree image can be obtained with the same calculation accuracy.
In the present embodiment, the plurality of types of filter regions provided in the optical filter 2 are configured to be inclined in both the vertical direction and the horizontal direction of the image sensor 4. It is good also as a structure which is parallel to any one of a vertical direction and a horizontal direction. However, in this case, both light beams transmitted through each filter region are received within one pixel.
〔実施例〕
以下、本発明の実施例について説明する。
図17は、本実施例に係る偏光カメラ10の概略構成を示すブロック図である。
画像センサ4から出力される各画素の受光量に応じたアナログ電気信号は、A/D変換部5でデジタル信号である画素データに変換され、その画素データは垂直同期信号及び水平同期信号とともに信号処理部6へ順次出力する。信号処理部6に順次入力された垂直同期信号及び水平同期信号並びに画素データは、信号処理部6内のラインバッファ部31に一時的に保持される。このラインバッファ部31には、少なくとも直前2ライン分の画素データが保持される。そして、ラインバッファ部31は、保持している直前2ライン分の画素データと信号処理部6に入力されてくる最新の1ライン分の画素データとを含む3ライン分の画素データから、画像処理の対象となる注目画素及びその周辺画素からなる3×3画素分の画素データI1〜I9を選択して、差分偏光度画像生成部50へ出力する。そして、差分偏光度画像生成部50は、入力された3×3画素分の画素データI1〜I9と、パラメータ記憶手段としてのSPIフラッシュメモリ32に格納されていた当該注目画素に対応する擬似逆行列パラメータとを用いて、上記数3に示した式より、当該注目画素で受光した光の縦偏光強度Vと横偏光強度Hとを算出し、その算出結果から当該注目画素についての差分偏光度を算出する。算出した差分偏光度は、差分偏光度画像のデータ(画素値)として、水平・垂直同期信号とともに後段の機器へと順次出力される。このような画像処理を画像センサ4の有効画素全体について行うことで、各画素についての差分偏光度を画素値とした差分偏光度画像が生成される。
〔Example〕
Examples of the present invention will be described below.
FIG. 17 is a block diagram illustrating a schematic configuration of the polarization camera 10 according to the present embodiment.
An analog electrical signal corresponding to the amount of light received by each pixel output from the image sensor 4 is converted into pixel data, which is a digital signal, by the A / D converter 5, and the pixel data is a signal along with a vertical synchronization signal and a horizontal synchronization signal. The data is sequentially output to the processing unit 6. The vertical synchronization signal, horizontal synchronization signal, and pixel data sequentially input to the signal processing unit 6 are temporarily held in the line buffer unit 31 in the signal processing unit 6. The line buffer unit 31 holds pixel data for at least the previous two lines. Then, the line buffer unit 31 performs image processing from the pixel data for three lines including the pixel data for the previous two lines and the latest pixel data for one line input to the signal processing unit 6. 3 × 3 pixel data I1 to I9 consisting of the target pixel and its peripheral pixels are selected and output to the differential polarization degree image generation unit 50. The differential polarization degree image generation unit 50 then inputs the pixel data I1 to I9 for 3 × 3 pixels and the pseudo inverse matrix corresponding to the pixel of interest stored in the SPI flash memory 32 as parameter storage means. Using the parameters, the vertical polarization intensity V and the horizontal polarization intensity H of the light received by the target pixel are calculated from the equation shown in Equation 3 above, and the differential polarization degree for the target pixel is calculated from the calculation result. calculate. The calculated differential polarization degree is sequentially output to the subsequent apparatus together with the horizontal / vertical synchronization signal as data (pixel value) of the differential polarization degree image. By performing such image processing for all the effective pixels of the image sensor 4, a differential polarization degree image with the differential polarization degree for each pixel as a pixel value is generated.
ここで、本実施例における差分偏光度画像生成部50の構成及び動作について説明する。
図18は、差分偏光度画像生成部50の内部構成を示すブロック図である。
この差分偏光度画像生成部50は、FPGAで構成されていて、画素データI1〜I9と擬似逆行列パラメータとから当該画素についての縦偏光強度Vと横偏光強度Hを算出して、その算出結果から当該画素についての差分偏光度を算出する画像処理をハードウェア処理により実現している。なお、この画像処理で用いるすべての擬似逆行列パラメータは、予めFPGA内部に設けられた擬似逆行列パラメータ格納用BRAM(Block-RAM)にロードしておく。
Here, the configuration and operation of the differential polarization degree image generation unit 50 in the present embodiment will be described.
FIG. 18 is a block diagram illustrating an internal configuration of the differential polarization degree image generation unit 50.
This differential polarization degree image generation unit 50 is composed of an FPGA, calculates the vertical polarization intensity V and the horizontal polarization intensity H for the pixel from the pixel data I1 to I9 and the pseudo inverse matrix parameter, and the calculation result Thus, image processing for calculating the degree of differential polarization for the pixel is realized by hardware processing. Note that all pseudo inverse matrix parameters used in this image processing are loaded in advance into a pseudo inverse matrix parameter storage BRAM (Block-RAM) provided in the FPGA.
差分偏光度画像生成部50のBRAMアドレス計算部51は、垂直同期信号と水平同期信号を受け取ることで、その画像処理に使用する擬似逆行列パラメータが格納されているBRAMアドレス値を計算する。本実施例におけるBRAMアドレス計算部51の出力タイミングチャートは図19に示すとおりである。 The BRAM address calculation unit 51 of the differential polarization degree image generation unit 50 receives the vertical synchronization signal and the horizontal synchronization signal, and calculates a BRAM address value in which a pseudo inverse matrix parameter used for the image processing is stored. The output timing chart of the BRAM address calculation unit 51 in this embodiment is as shown in FIG.
差分偏光度画像生成部50の係数生成部52は、BRAMアドレス計算部51から出力されるBRAMアドレス値を受け取ったら、そのBRAMアドレス値に格納されている擬似逆行列パラメータを偏光分離処理部53へ出力する。本実施例における係数生成部52の内部構成図を図20に示す。また、本実施例における単位処理領域の区分を図21に示す。また、擬似逆行列パラメータが格納される擬似逆行列パラメータ格納用BRAMのアドレスマップを図22に示す。 When the coefficient generation unit 52 of the differential polarization degree image generation unit 50 receives the BRAM address value output from the BRAM address calculation unit 51, the pseudo inverse matrix parameter stored in the BRAM address value is transmitted to the polarization separation processing unit 53. Output. FIG. 20 shows an internal configuration diagram of the coefficient generation unit 52 in the present embodiment. In addition, FIG. 21 shows divisions of unit processing areas in the present embodiment. FIG. 22 shows an address map of the pseudo-inverse matrix parameter storage BRAM in which pseudo-inverse matrix parameters are stored.
差分偏光度画像生成部50の偏光分離処理部53は、ラインバッファ部31から出力される9個の画素データI1〜I9と、係数生成部52から出力される18個の要素A1〜A18をもつ擬似逆行列パラメータとを受け取り、上記数3に示した式より、横偏光成分Hと縦偏光成分Vを算出する。本実施例における偏光分離処理部53の内部構成を図23に示す。 The polarization separation processing unit 53 of the differential polarization degree image generation unit 50 includes nine pieces of pixel data I1 to I9 output from the line buffer unit 31 and 18 elements A1 to A18 output from the coefficient generation unit 52. The pseudo inverse matrix parameter is received, and the lateral polarization component H and the longitudinal polarization component V are calculated from the equation shown in Equation 3 above. FIG. 23 shows an internal configuration of the polarization separation processing unit 53 in this embodiment.
差分偏光度画像生成部50の差分偏光度計算部54は、偏光分離処理部53から出力される横偏光成分Hと縦偏光成分Vを受け取ったら、差分偏光度P=(H−V)/(H+V)を計算する。理論的に差分偏光度Pは−1〜1の範囲内の値をとるので、小数部分をビット表現したものが差分偏光度計算部54から出力されることになる。本実施例における差分偏光度計算部54の内部構成図を図24に示す。 When the differential polarization degree calculation unit 54 of the differential polarization degree image generation unit 50 receives the horizontal polarization component H and the vertical polarization component V output from the polarization separation processing unit 53, the differential polarization degree P = (HV) / ( H + V) is calculated. Theoretically, the differential polarization degree P takes a value in the range of −1 to 1, and therefore, the differential polarization degree calculation unit 54 outputs a bit representation of the decimal part. FIG. 24 shows an internal configuration diagram of the differential polarization degree calculation unit 54 in the present embodiment.
差分偏光度画像生成部50の差分偏光度画像計算部55は、差分偏光度計算部54から出力された差分偏光度Pを受け取ったら、小数部分をビット表現した差分偏光度Pを、差分偏光度画像の画素値へ変換する処理を行う。本実施例における差分偏光度画像計算部55の内部構成図を図25に示す。 When the differential polarization degree image calculation unit 55 of the differential polarization degree image generation unit 50 receives the differential polarization degree P output from the differential polarization degree calculation unit 54, the differential polarization degree P that represents the decimal part in bits is represented by the differential polarization degree P. A process of converting the pixel value of the image is performed. FIG. 25 shows an internal configuration diagram of the differential polarization degree image calculation unit 55 in the present embodiment.
次に、本実施例におけるパラメータ制御部40の構成及び動作について説明する。
本実施例においては、事前にすべての疑似逆行列パラメータを算出しておき、それをSPIフラッシュメモリ32内に格納してある。本実施例におけるSPIフラッシュメモリ32のアドレスマップは、図26〜図29に示すとおりである。パラメータ制御部40は、図17や図18に示したように、汎用のCPU41を備えていて、電源投入時に、SPIインターフェース42を通じてSPIフラッシュメモリ32から擬似逆行列パラメータを読み出し、読み出した全擬似逆行列パラメータを、CPUバス43及びUserインターフェース44を介して、差分偏光度画像生成部50を構成するFPGA内の擬似逆行列パラメータ格納用BRAMへ転送する。
Next, the configuration and operation of the parameter control unit 40 in the present embodiment will be described.
In this embodiment, all pseudo inverse matrix parameters are calculated in advance and stored in the SPI flash memory 32. The address map of the SPI flash memory 32 in this embodiment is as shown in FIGS. As shown in FIGS. 17 and 18, the parameter control unit 40 includes a general-purpose CPU 41. When the power is turned on, the parameter control unit 40 reads the pseudo inverse matrix parameters from the SPI flash memory 32 through the SPI interface 42, and reads all the pseudo inverses. The matrix parameter is transferred to the pseudo inverse matrix parameter storage BRAM in the FPGA constituting the differential polarization degree image generation unit 50 via the CPU bus 43 and the User interface 44.
次に、電源を投入してから差分偏光度画像を生成するまでの処理フローについて説明する。
電源が投入されると、まず、パラメータ制御部40のCPU41は、SPIフラッシュメモリ32内のFPGA回路データを、差分偏光度画像生成部50を構成するFPGA内にロードする。その後、CPU41は、擬似逆行列パラメータ転送処理を実行する。この擬似逆行列パラメータ転送処理では、まず、CPU41からSPIインターフェース42にRead用コマンドを発行する。これにより、SPIインターフェース42を介してSPIフラッシュメモリ32内の擬似逆行列パラメータがCPU41に読み込まれる。その後、CPU41はUserインターフェース44にWrite用コマンドを発行する。これにより、Userインターフェース44を介して擬似逆行列パラメータが係数生成部52内における擬似逆行列パラメータ格納用BRAMに書き込まれる。すべての擬似逆行列パラメータが係数生成部52内の擬似逆行列パラメータ格納用BRAMに転送されるまで、上述したRead用コマンドの発行からWrite用コマンドの発行までの処理を繰り返し行う。
Next, a processing flow from when the power is turned on to when the differential polarization degree image is generated will be described.
When the power is turned on, first, the CPU 41 of the parameter control unit 40 loads the FPGA circuit data in the SPI flash memory 32 into the FPGA constituting the differential polarization degree image generation unit 50. Thereafter, the CPU 41 executes a pseudo inverse matrix parameter transfer process. In this pseudo inverse matrix parameter transfer process, first, a read command is issued from the CPU 41 to the SPI interface 42. As a result, the pseudo inverse matrix parameter in the SPI flash memory 32 is read into the CPU 41 via the SPI interface 42. Thereafter, the CPU 41 issues a write command to the user interface 44. As a result, the pseudo inverse matrix parameter is written into the pseudo inverse matrix parameter storage BRAM in the coefficient generation unit 52 via the User interface 44. Until all the pseudo inverse matrix parameters are transferred to the pseudo-inverse matrix parameter storage BRAM in the coefficient generation unit 52, the above-described processing from issuing the Read command to issuing the Write command is repeated.
以上のようにして、SPIフラッシュメモリ32内の全擬似逆行列パラメータが係数生成部52内の擬似逆行列パラメータ格納用BRAMに転送されて擬似逆行列パラメータ転送処理が完了したら、差分偏光度画像生成工程に移行する。この差分偏光度画像生成工程では、垂直同期信号と水平同期信号と画素データとが画像センサ4から転送されてくると、まず、垂直同期信号と水平同期信号を参照して、画素ごとに係数生成部52内の擬似逆行列パラメータ格納用BRAMのアドレス値を計算し、そのBRAMに格納されている擬似逆行列パラメータの要素(144bitのbus信号)を読み出す。そして、読み出した144bitのbus信号を18要素に分割して、擬似逆行列パラメータの18要素A1〜A18を得る。その後、偏光分離処理部53において、この18要素の擬似逆行列パラメータを用いて、処理対象となる画素(注目画素)についての横偏光成分Hと縦偏光成分Vを、当該注目画素及びその周辺画素の画素データI1〜I9から上記数3に示した式より計算する。このようにして算出された横偏光成分Hと縦偏光成分Vは差分偏光度計算部54に送られ、差分偏光度計算部54にて差分偏光度Pが算出される。そして、差分偏光度画像計算部55では、この差分偏光度Pを差分偏光度画像の画素値(画像データ)へ変換する処理行う。これにより、差分偏光度画像の1画素についての画像データが得られる。以上のような処理を全画素について行うことで差分偏光度画像が生成される。 When all the pseudo inverse matrix parameters in the SPI flash memory 32 are transferred to the pseudo inverse matrix parameter storage BRAM in the coefficient generation unit 52 and the pseudo inverse matrix parameter transfer process is completed as described above, the differential polarization degree image generation is performed. Move to the process. In this differential polarization degree image generation step, when a vertical synchronization signal, a horizontal synchronization signal, and pixel data are transferred from the image sensor 4, first, coefficients are generated for each pixel with reference to the vertical synchronization signal and the horizontal synchronization signal. The address value of the pseudo-inverse matrix parameter storage BRAM in the unit 52 is calculated, and the pseudo-inverse matrix parameter element (144-bit bus signal) stored in the BRAM is read. Then, the read 144-bit bus signal is divided into 18 elements to obtain 18 elements A1 to A18 of pseudo inverse matrix parameters. Thereafter, the polarization separation processing unit 53 uses the 18-element pseudo inverse matrix parameter to convert the horizontal polarization component H and the vertical polarization component V of the pixel to be processed (target pixel) into the target pixel and its peripheral pixels. The pixel data I1 to I9 are calculated from the equation shown in the above equation (3). The lateral polarization component H and the longitudinal polarization component V calculated in this way are sent to the differential polarization degree calculation unit 54, and the differential polarization degree calculation unit 54 calculates the differential polarization degree P. Then, the differential polarization degree image calculation unit 55 performs a process of converting the differential polarization degree P into a pixel value (image data) of the differential polarization degree image. Thereby, image data for one pixel of the differential polarization degree image is obtained. A differential polarization degree image is generated by performing the above processing for all pixels.
以上、本実施形態に係る運転者支援システムの偏光カメラ10は、所望の光学成分である横偏光成分を選択的に透過させる選択フィルタ領域としての横偏光フィルタ領域2bと入射光をそのまま透過させる非選択フィルタ領域としての透過領域2aとを周期的に配列した光学フィルタ2を通じて、フォトダイオード4aからなる受光素子が2次元配置された受光素子アレイである画像センサ4により撮像領域からの光を受光し、画像センサ4上の1つの受光素子に対応する単位画素(単に「画素」という。)ごとの受光量に応じた画像信号である画素データを出力する撮像手段としての撮像部と、撮像部から出力された画素データから、各画素に応じた演算パラメータである疑似逆行列パラメータを用いて、その画素で受光された光に含まれる互いに異なった光学成分(縦偏光成分と横偏光成分)を算出する画像処理を実行する画像処理手段としての信号処理部6と、全画素に対応する疑似逆行列パラメータを記憶するパラメータ記憶手段としてのSPIフラッシュメモリ32とを備えた撮像装置である。この偏光カメラ10において、撮像部は、光学フィルタ2に備わった複数種類のフィルタ領域2a,2bを透過した各光の一画素内における受光面積比率が互いに等しい4種類の共通単位画素が周期的に存在するように構成されている。そして、信号処理部6では、同一種類の共通単位画素を複数含んだ互いに隣接する4つ以上の単位画素で構成される2以上の単位処理領域、具体的には、各種類の共通単位画素についてそれぞれ64個ずつ含んだ16×16画素で構成される単位処理領域に区分して、合計1410個の単位処理領域を得て、同一の単位処理領域内における同一種類の共通単位画素については、同一の疑似逆行列パラメータを用いて画像処理を実行する。この構成により、同一の単位処理領域内における同一種類の共通単位画素については、同じ疑似逆行列パラメータを使い回して画像処理を実行することができる。すべての画素について個別に疑似逆行列パラメータを用意する場合には、全疑似逆行列パラメータのデータ量が約26Mバイトにもなっていたが、本実施形態ではこれを約0.4Mバイトにまで低減することができる。
また、本実施形態において、撮像部は、光学フィルタ2に備わった複数種類のフィルタ領域2a,2bを透過した各光の一画素内における受光面積比率が偏るように構成されている。このように受光面積比率が偏っていることで、当該画素で受光される光学成分のうち少なくとも1つの光学成分(受光面積が大きい光学成分)についての感度を、各光学成分の受光面積がすべて等しい場合よりも大きくすることができる。そして、本実施形態では、このような画素が周期的に存在するので、注目画素の周囲には、その注目画素とは別の光学成分についての受光面積が大きい画素が隣接して存在することになる。これらの画素は、微小領域内で互いに隣接して位置するので、実質的に撮像領域内の同じ箇所からの光を受光すると考えることができる。よって、これらの画素からの画素データに基づき、撮像領域内の同一箇所からの光について互いに異なる光学成分の光強度を高い感度で検知することができる。
また、本実施形態において、光学フィルタ2は、複数種類のフィルタ領域2a,2bをストライプ状に配列したものである。これにより、複数種類のフィルタ領域2a,2bを例えば市松模様状に配列した場合よりも、光学フィルタ2を安価に製造できる。
また、本実施形態において、画像センサ4は、互いに直交する縦方向及び横方向に受光素子が等間隔で配列されたものであり、光学フィルタ2は、複数種類のフィルタ領域2a,2bの長手方向が画像センサ4の縦方向及び横方向のいずれにも傾斜するように構成されている。このような構成により、傾斜していない構成よりも、注目画素の周囲に、注目画素とは異なる種類の共通単位画素がより多く配置されやすく、演算精度を高めやすい。
特に、画像センサ4の縦方向における受光素子間隔をnとし、横方向における受光素子間隔をmとしたとき、複数種類のフィルタ領域2a,2bの縦方向長さNが上記式(1)を満たし、複数種類のフィルタ領域2a,2bの横方向長さMが上記式(2)を満たすように構成すれば、注目画素の周囲に、注目画素とは異なる種類の共通単位画素がより多く配置され、演算精度を高めることができる。
As described above, the polarization camera 10 of the driver assistance system according to the present embodiment is configured to transmit the incident light as it is and the lateral polarization filter region 2b as a selection filter region that selectively transmits the lateral polarization component that is a desired optical component. Light from the imaging region is received by the image sensor 4 which is a light receiving element array in which light receiving elements made up of the photodiodes 4a are two-dimensionally arranged through the optical filter 2 in which transmission regions 2a as selection filter regions are periodically arranged. An imaging unit serving as an imaging unit that outputs pixel data that is an image signal corresponding to an amount of received light for each unit pixel (simply referred to as “pixel”) corresponding to one light receiving element on the image sensor 4; It is included in the light received by the pixel from the output pixel data using a pseudo inverse matrix parameter that is a calculation parameter according to each pixel. Signal processing unit 6 as image processing means for executing image processing for calculating different optical components (longitudinal polarization component and transverse polarization component), and parameter storage means for storing pseudo inverse matrix parameters corresponding to all pixels An imaging apparatus including an SPI flash memory 32. In this polarization camera 10, the imaging unit periodically includes four types of common unit pixels having the same light receiving area ratio in each pixel of each light transmitted through the plurality of types of filter regions 2 a and 2 b provided in the optical filter 2. It is configured to exist. In the signal processing unit 6, two or more unit processing regions each including four or more adjacent unit pixels including a plurality of the same type of common unit pixels, specifically, each type of common unit pixel. A total of 1410 unit processing regions are obtained by dividing the unit processing region into 64 × 16 × 16 pixels, and the same type of common unit pixel in the same unit processing region is the same. The image processing is executed using the pseudo inverse matrix parameter. With this configuration, image processing can be executed using the same pseudo inverse matrix parameter for the same type of common unit pixel in the same unit processing region. When preparing pseudo inverse matrix parameters individually for all pixels, the data amount of all pseudo inverse matrix parameters is about 26 Mbytes, but in the present embodiment, this is reduced to about 0.4 Mbytes. can do.
In the present embodiment, the imaging unit is configured such that the light receiving area ratio in one pixel of each light transmitted through the plurality of types of filter regions 2 a and 2 b provided in the optical filter 2 is biased. As the light receiving area ratio is biased in this way, the sensitivity of at least one optical component (optical component having a large light receiving area) among the optical components received by the pixel is equal to the light receiving area of each optical component. It can be larger than the case. In this embodiment, since such pixels periodically exist, a pixel having a large light receiving area for an optical component different from the target pixel is adjacent to the target pixel. Become. Since these pixels are positioned adjacent to each other in the minute region, it can be considered that light from the same location in the imaging region is substantially received. Therefore, based on the pixel data from these pixels, the light intensities of optical components different from each other can be detected with high sensitivity for light from the same location in the imaging region.
In the present embodiment, the optical filter 2 has a plurality of types of filter regions 2a and 2b arranged in a stripe pattern. Thereby, the optical filter 2 can be manufactured at a lower cost than when a plurality of types of filter regions 2a and 2b are arranged in a checkered pattern, for example.
In the present embodiment, the image sensor 4 includes light receiving elements arranged at equal intervals in the vertical direction and the horizontal direction orthogonal to each other, and the optical filter 2 includes the longitudinal direction of a plurality of types of filter regions 2a and 2b. Is configured to incline in both the vertical direction and the horizontal direction of the image sensor 4. With such a configuration, more common unit pixels of a type different from the target pixel are more easily arranged around the target pixel than in a configuration that is not inclined, and the calculation accuracy is easily improved.
In particular, when the distance between the light receiving elements in the vertical direction of the image sensor 4 is n and the distance between the light receiving elements in the horizontal direction is m, the vertical length N of the plurality of types of filter regions 2a and 2b satisfies the above formula (1). If the horizontal length M of the plurality of types of filter regions 2a and 2b satisfies the above formula (2), more common unit pixels of a type different from the target pixel are arranged around the target pixel. The calculation accuracy can be increased.
以上の説明では、光学フィルタ2の選択フィルタ領域を、所定の偏光成分を選択的に透過させる偏光フィルタで構成して、互いに異なる2つの偏光成分から差分偏光度画像を生成する場合について説明したが、光学フィルタ2の選択フィルタ領域を、特定の波長成分を選択的に透過させる分光フィルタで構成して、互いに異なる複数の波長成分から例えば色分解画像を生成する場合でも、本発明を同様に適用できる。
また、本実施形態に係る運転者支援システムは、そのシステム全体が車両に搭載されているが、必ずしもシステム全体が車両に搭載されている必要はない。したがって、例えば、偏光カメラ10のみを自車に搭載して、残りのシステム構成要素を自車とは別の場所に遠隔配置するようにしてもよい。この場合、車両の走行状態を運転者以外の者が客観的に把握するシステムとすることもできる。
また、本発明に係る撮像装置は、本実施形態に限らず、幅広い分野に応用することができる。
In the above description, the selection filter region of the optical filter 2 is configured with a polarization filter that selectively transmits a predetermined polarization component, and the case where a differential polarization degree image is generated from two different polarization components has been described. The present invention is similarly applied to a case where a selective filter region of the optical filter 2 is configured by a spectral filter that selectively transmits a specific wavelength component and, for example, a color separation image is generated from a plurality of different wavelength components. it can.
Further, the driver assistance system according to the present embodiment is mounted on the vehicle as a whole, but the entire system is not necessarily mounted on the vehicle. Therefore, for example, only the polarization camera 10 may be mounted on the own vehicle, and the remaining system components may be remotely arranged at a location different from the own vehicle. In this case, a system in which a person other than the driver objectively grasps the traveling state of the vehicle can be provided.
The imaging apparatus according to the present invention is not limited to the present embodiment, and can be applied to a wide range of fields.
1 撮像レンズ
2 光学フィルタ
2a 透過領域
2b 横偏光フィルタ領域
4 画像センサ
4a フォトダイオード(受光素子)
5 A/D変換部
6 信号処理部
10 偏光カメラ
31 ラインバッファ部
32 SPIフラッシュメモリ
40 パラメータ制御部
41 CPU
50 差分偏光度画像生成部
51 アドレス計算部
52 係数生成部
53 偏光分離処理部
54 差分偏光度計算部
55 差分偏光度画像計算部
DESCRIPTION OF SYMBOLS 1 Image pick-up lens 2 Optical filter 2a Transmission area 2b Lateral polarization filter area 4 Image sensor 4a Photodiode (light receiving element)
5 A / D conversion unit 6 Signal processing unit 10 Polarization camera 31 Line buffer unit 32 SPI flash memory 40 Parameter control unit 41 CPU
DESCRIPTION OF SYMBOLS 50 Differential polarization degree image generation part 51 Address calculation part 52 Coefficient generation part 53 Polarization separation process part 54 Differential polarization degree calculation part 55 Differential polarization degree image calculation part
Claims (6)
該撮像手段から出力された画像信号に基づき、単位画素及びその周辺画素の受光量から、該単位画素に応じた演算パラメータを用いて、該単位画素で受光された光に含まれる互いに異なった光学成分を演算する画像処理を実行する画像処理手段と、
全単位画素に対応する演算パラメータを記憶するパラメータ記憶手段とを備えた撮像装置であって、
上記撮像手段は、上記光学フィルタに備わった複数種類のフィルタ領域を透過した各光の単位画素内における受光面積比率が互いに等しい1種類又は2種類以上の共通単位画素が周期的に存在するように構成されており、
上記画像処理手段は、同一種類の共通単位画素を複数含んだ互いに隣接する4つ以上の単位画素で構成される2以上の単位処理領域に区分し、同一の単位処理領域内における同一種類の共通単位画素については、同一の演算パラメータを用いて上記画像処理を実行することを特徴とする撮像装置。 An optical filter in which a plurality of types of selection filter regions that selectively transmit different optical components are periodically arranged, or one or more types of selection filter regions and a non-selection filter region that transmits incident light as they are A unit corresponding to one light receiving element or two or more light receiving element groups on the light receiving element array by receiving light from the imaging region by a light receiving element array in which the light receiving elements are two-dimensionally arranged through an optical filter arranged in a line An image signal that outputs an image signal corresponding to the amount of light received for each pixel, and is configured so that a light receiving area ratio in each unit pixel of each light transmitted through a plurality of types of filter regions provided in the optical filter is biased Means,
Based on the image signal outputted from the image pickup means, from the unit pixel and a light receiving amount of the surrounding pixels, by using a calculation parameter corresponding to the unit pixel, different from each other are included in the light received by the unit pixel optical Image processing means for executing image processing for calculating components;
An image capturing apparatus including parameter storage means for storing calculation parameters corresponding to all unit pixels,
In the imaging means, one or two or more types of common unit pixels having the same light receiving area ratio in the unit pixel of each light transmitted through the plurality of types of filter regions provided in the optical filter periodically exist. Configured,
The image processing means divides into two or more unit processing areas composed of four or more adjacent unit pixels including a plurality of common unit pixels of the same type, and the same type of common unit pixels in the same unit processing area. For the unit pixel, the image processing is executed using the same calculation parameter.
上記光学フィルタは、複数種類のフィルタ領域をストライプ状に配列したものであることを特徴とする撮像装置。 The imaging device according to claim 1 .
The above-mentioned optical filter is an image pickup apparatus in which a plurality of types of filter regions are arranged in a stripe shape.
上記受光素子アレイは、互いに直交する縦方向及び横方向に受光素子が等間隔で配列されたものであり、
上記光学フィルタは、上記複数種類のフィルタ領域の長手方向が上記受光素子アレイの縦方向及び横方向のいずれにも傾斜するように構成されていることを特徴とする撮像装置。 The imaging device according to claim 2 .
The light receiving element array is a structure in which light receiving elements are arranged at equal intervals in the vertical and horizontal directions orthogonal to each other.
The optical filter is configured such that the longitudinal direction of the plurality of types of filter regions is inclined in both the longitudinal direction and the lateral direction of the light receiving element array.
上記受光素子アレイの縦方向における受光素子間隔をnとし、横方向における受光素子間隔をmとしたとき、上記光学フィルタは、上記複数種類のフィルタ領域の縦方向長さNが下記の式(1)を満たし、該複数種類のフィルタ領域の横方向長さMが下記の式(2)を満たすように構成されていることを特徴とする撮像装置。
N = A × n ・・・(1)
M = B × m ・・・(2)
ただし、A及びBは自然数であり、かつ、A≠Bを満たすものである。 The imaging device according to claim 3 .
When the light receiving element interval in the vertical direction of the light receiving element array is n and the light receiving element interval in the horizontal direction is m, in the optical filter, the vertical length N of the plurality of types of filter regions is expressed by the following formula (1) ), And the horizontal length M of the plurality of types of filter regions is configured to satisfy the following expression (2).
N = A × n (1)
M = B × m (2)
However, A and B are natural numbers and satisfy A ≠ B.
上記式(1)中のAに対する上記式(2)中のBの比率が1/2又は2であることを特徴とする撮像装置。 The imaging device according to claim 4 .
The ratio of B in the said Formula (2) with respect to A in said Formula (1) is 1/2 or 2, The imaging device characterized by the above-mentioned.
上記選択フィルタ領域は、所定の偏光成分を選択的に透過させる偏光フィルタで構成されていることを特徴とする撮像装置。 The imaging device according to any one of claims 1 to 5 ,
The image pickup apparatus, wherein the selection filter region includes a polarization filter that selectively transmits a predetermined polarization component.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011001320A JP5674130B2 (en) | 2011-01-06 | 2011-01-06 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011001320A JP5674130B2 (en) | 2011-01-06 | 2011-01-06 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012142903A JP2012142903A (en) | 2012-07-26 |
JP5674130B2 true JP5674130B2 (en) | 2015-02-25 |
Family
ID=46678709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011001320A Expired - Fee Related JP5674130B2 (en) | 2011-01-06 | 2011-01-06 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5674130B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017056822A1 (en) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | Image processing device, image processing method, and vehicle control system |
WO2023105961A1 (en) * | 2021-12-08 | 2023-06-15 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0488780A (en) * | 1990-07-31 | 1992-03-23 | Canon Inc | Color solid-state image pickup element |
US7426065B2 (en) * | 2003-08-26 | 2008-09-16 | Hewlett-Packard Development Company, L.P. | System and method for alternating between transmitting and reducing incident light on pixel portion of an imager |
JP4974543B2 (en) * | 2005-08-23 | 2012-07-11 | 株式会社フォトニックラティス | Polarization imaging device |
JP5076244B2 (en) * | 2008-10-30 | 2012-11-21 | 富士フイルム株式会社 | Calculation device, imaging device, calculation method, method, and program |
JP5310483B2 (en) * | 2009-10-28 | 2013-10-09 | 株式会社リコー | Imaging device |
-
2011
- 2011-01-06 JP JP2011001320A patent/JP5674130B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012142903A (en) | 2012-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5867806B2 (en) | Imaging device and object identification device using the same | |
US20180308282A1 (en) | Shape measuring apparatus and method | |
CN113271400B (en) | Imaging device and electronic equipment | |
US8077204B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP6376429B2 (en) | Target point arrival detection device, target point arrival detection program, mobile device control system, and mobile | |
CN107273788B (en) | Imaging system for performing lane detection in a vehicle and vehicle imaging system | |
US10148938B2 (en) | Vehicle-mounted image recognition device to set a stereoscopic-vision and monocular-vision image areas | |
JP2010057067A (en) | Image pickup apparatus and image processing apparatus | |
JP7248574B2 (en) | Camera device and method for recognizing surrounding area of vehicle | |
EP3148179A1 (en) | Focusing state prompting method and shooting device | |
JP6089767B2 (en) | Image processing apparatus, imaging apparatus, moving body control system, and program | |
JP2013137767A (en) | Obstacle detection method and driver support system | |
US11416707B2 (en) | Information processing method, information processing system, and information processing apparatus | |
JP2013250907A (en) | Parallax calculation device, parallax calculation method and parallax calculation program | |
JP2010064531A (en) | White line detection device | |
JP2013258596A (en) | Image pick-up device | |
JPWO2012153532A1 (en) | Imaging device | |
JP5674130B2 (en) | Imaging device | |
JP5863005B2 (en) | Imaging device | |
JP6674959B2 (en) | Parallax calculating device, stereo camera device, vehicle, and parallax calculating method | |
JP2009027480A (en) | Optical communication device | |
JP6190119B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP2014026396A (en) | Movable surface boundary line recognition device, movable body having movable surface boundary line recognition device, movable surface boundary line recognition method, and movable surface boundary line recognition program | |
EP2830020B1 (en) | Object detection device and program | |
JP4821399B2 (en) | Object identification device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141218 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5674130 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |