JP2012008845A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2012008845A
JP2012008845A JP2010144844A JP2010144844A JP2012008845A JP 2012008845 A JP2012008845 A JP 2012008845A JP 2010144844 A JP2010144844 A JP 2010144844A JP 2010144844 A JP2010144844 A JP 2010144844A JP 2012008845 A JP2012008845 A JP 2012008845A
Authority
JP
Japan
Prior art keywords
adjustment amount
image processing
chroma
processing apparatus
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010144844A
Other languages
Japanese (ja)
Inventor
Shuji Ichitani
修司 一谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2010144844A priority Critical patent/JP2012008845A/en
Publication of JP2012008845A publication Critical patent/JP2012008845A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of detecting a specific subject to perform image processing for highlighting the specific subject regardless of low cost.SOLUTION: Since a calculating part 44 determines adjustment amounts IRAD and ChAD from an infrared component ratio α and chroma Ch to adjust luminance and chroma on the basis of the determined adjustment amounts IRAD and ChAD, for example, a person, a traffic signal lamp or a tail lamp of a vehicle, and a road can be detected and distinguished without using cost necessary for processing.

Description

本発明は、撮像素子により撮像された原画像データを画像処理する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that performs image processing on original image data captured by an image sensor.

近年、夜間のシーンをカラーで撮像する撮像装置が知られている。例えば、特許文献1には、撮像素子の可視光透過型ロングパスフィルタと、赤外光透過ロングパスフィルタの赤外光領域における透過率データを適用して可視光透過型ロングパスフィルタを介する信号に含まれる赤外光成分をほぼ0にするパラメータを算出し、算出パラメータを適用して可視光透過型ロングパスフィルタを介する信号に含まれる赤外光成分を除去して高品質な可視光(RGB)画像を生成する技術が開示されている。又、特許文献2には、撮像した被写体から人物を抽出する技術が開示されている。更に、特許文献3には、検出した人物を画面上で強調する技術が開示されている。   2. Description of the Related Art In recent years, imaging devices that capture night scenes in color are known. For example, Patent Document 1 includes a visible light transmissive long-pass filter of an image sensor and a signal that passes through the visible light transmissive long-pass filter by applying transmittance data in the infrared region of the infrared light transmissive long-pass filter. Calculate the parameter that makes the infrared light component almost zero, and apply the calculated parameter to remove the infrared light component contained in the signal that passes through the visible light transmission type long pass filter to obtain a high-quality visible light (RGB) image. A technique for generating is disclosed. Patent Document 2 discloses a technique for extracting a person from a captured subject. Further, Patent Document 3 discloses a technique for emphasizing a detected person on a screen.

特開2008−288629号公報JP 2008-288629 A 特開2009−64100号公報JP 2009-64100 A 特開2001−76298号公報JP 2001-76298 A

ところで、特許文献1に開示された撮像装置において、特許文献2に開示された技術で人物を検出し、特許文献3に開示された技術で、検出された人物を強調することは技術的には可能である。しかしながら、特許文献2に開示された技術で人物を検出することは、時間がかかり計算コストの増大を招く。また、計算量が多いため、ソフトウェアでのリアルタイム処理が困難で、ASIC化などハードウェアの整備が必要だが、それにより撮像装置のコストの増大を招く。加えて、特許文献3に開示された技術は、人物を強調する結果、人物と、その人物に隣接する被写体との階調のつながりが悪く、例えば人物が道路に立っている場合など、画像を視認した者が違和感を覚える恐れがある。   By the way, in the imaging device disclosed in Patent Document 1, it is technically possible to detect a person with the technique disclosed in Patent Document 2 and emphasize the detected person with the technique disclosed in Patent Document 3. Is possible. However, detecting a person with the technique disclosed in Patent Document 2 is time consuming and causes an increase in calculation cost. In addition, since the amount of calculation is large, real-time processing with software is difficult, and it is necessary to prepare hardware such as ASIC. However, this increases the cost of the imaging apparatus. In addition, as a result of emphasizing a person, the technique disclosed in Patent Document 3 has a poor gradation connection between a person and a subject adjacent to the person. For example, when a person is standing on a road, There is a risk that the viewer will feel uncomfortable.

一方、人体は赤外線を放射しているので、単純に赤外成分の高い被写体の画素値を増大させることで、人物を検出して強調することもできる。画素値を増大する処理は、特許文献2、3の技術に比べれば、より低コストで迅速に行えるが、人物以外の領域を区別できないため、強調が不要な被写体を強調してしまう恐れがある。具体的には、赤外成分を反射/放射する被写体としては人物に限られず、例えば交通信号などは放射光の中に赤外成分を含んでいるから、人物を強調すべく上述の処理を行うと、交通信号まで強調されて白く飛んでしまい、交通信号の情報として重要な色が不明となるという問題がある。よって、人物以外の不要な被写体を強調せず、人物のみを低コストで強調することが一つの課題となっている。又、人物と同様に、交通信号の色をはっきりさせたい、道路をよりグレーにしたいといった別な課題もあり、被写体画像を選択的に調整する技術が求められている。   On the other hand, since the human body emits infrared rays, it is possible to detect and emphasize a person simply by increasing the pixel value of a subject having a high infrared component. The process of increasing the pixel value can be performed quickly and at a lower cost than the techniques of Patent Documents 2 and 3. However, since the area other than the person cannot be distinguished, there is a risk of emphasizing a subject that does not need to be emphasized. . Specifically, the subject that reflects / radiates the infrared component is not limited to a person. For example, a traffic signal includes an infrared component in the radiated light, and thus the above-described processing is performed to emphasize the person. The traffic signal is emphasized and flies white, and there is a problem that an important color as traffic signal information becomes unclear. Therefore, it is an issue to emphasize only a person at low cost without emphasizing unnecessary subjects other than the person. In addition, as with a person, there are other problems such as clarifying the color of a traffic signal and making the road more gray, and a technique for selectively adjusting a subject image is required.

本発明の目的は、低コストでありながら、特定の被写体を検出して強調する画像処理を行うことができる画像処理装置を提供することである。   An object of the present invention is to provide an image processing apparatus capable of performing image processing for detecting and enhancing a specific subject at a low cost.

請求項1に記載の画像処理装置は、
分光感度の異なる少なくとも3種類の画素が配列され、そのうち少なくとも1種類の画素は赤外領域に感度を持ち、被写体からの光を入射して、少なくとも3種類の原画像成分を含む原画像データに変換する撮像素子と、
前記原画像成分に基づき、前記撮像素子が受光した全体の光に対する赤外成分の割合又は差分を算出する算出手段と、
前記原画像データを輝度信号と色差信号とを含む色空間に変換する色空間変換部と、
前記割合又は差分と、前記色空間に対応した色情報とから、調整量を決定する調整量決定手段と、
決定された前記調整量に基づいて、前記色空間を調整する調整手段と、を有することを特徴とする。
The image processing apparatus according to claim 1,
At least three types of pixels having different spectral sensitivities are arranged, and at least one of the pixels has sensitivity in the infrared region, and light from a subject is incident on the original image data including at least three types of original image components. An image sensor to convert;
Based on the original image component, a calculation means for calculating a ratio or difference of an infrared component with respect to the total light received by the imaging device;
A color space conversion unit for converting the original image data into a color space including a luminance signal and a color difference signal;
An adjustment amount determining means for determining an adjustment amount from the ratio or difference and the color information corresponding to the color space;
Adjusting means for adjusting the color space based on the determined adjustment amount.

図1を参照して、例えば車載カメラの夜間撮像時において、自発光の被写体である交通信号灯SL、街灯TL、車両VHのテールランプTP等の他、自発光でない被写体である歩行者HMや自転車、路面RDなどが混在している。ここで、被写体として強調したいものは、交通信号灯SL、車両VHのテールランプTP、歩行者HM、路面RDである。しかるに、単純な画像処理で、これらのみを識別することは困難である。本発明者は、鋭意研究の結果、被写体の赤外成分とクロマとから、これらを識別できることを見出した。   Referring to FIG. 1, for example, at the time of night imaging with an in-vehicle camera, in addition to a traffic light SL, a streetlight TL, a tail lamp TP of a vehicle VH, etc. Road surface RD etc. are mixed. Here, the traffic light SL, the tail lamp TP of the vehicle VH, the pedestrian HM, and the road surface RD are emphasized as subjects. However, it is difficult to identify only these by simple image processing. As a result of intensive studies, the present inventor has found that these can be distinguished from the infrared component and chroma of the subject.

図2は、被写体として人物(a)、白熱電球式の交通信号灯又は車のテールランプ(b)、道路(c)を撮像した際における被写体光の赤外成分の割合とクロマとの関係を表すヒストグラムを示した図である。図2において、赤外成分の割合とクロマとの関係を度数で表し、度数が強いと1に近づき、弱いと0に近づくものとし、5段階に分けて領域A〜Eでそれぞれ示している。尚、図2に示すヒストグラムの求め方としては、あらかじめパラメータ調整用に撮影した画像から、道路・信号・人物部分を抽出し、例えば道路の範囲をXY座標で指定し、次いで指定した範囲を処理にかけ、クロマと赤外割合を出し、その関連度から度数を求めて、最後に描画ソフトで3Dグラフを描けばよい。但し、以上に限られることはない。   FIG. 2 is a histogram showing the relationship between the ratio of the infrared component of subject light and the chroma when a person (a), an incandescent bulb type traffic signal light or car tail lamp (b), and a road (c) are imaged as subjects. FIG. In FIG. 2, the relationship between the ratio of the infrared component and the chroma is represented by a frequency, and when the frequency is strong, it approaches 1 and when it is weak, it approaches 0, and is shown by regions A to E in five stages. The histogram shown in FIG. 2 is obtained by extracting a road / signal / person portion from an image captured in advance for parameter adjustment, for example, specifying a road range in XY coordinates, and then processing the specified range. Then, the chroma and infrared ratios are calculated, the frequency is obtained from the degree of association, and finally a 3D graph is drawn with the drawing software. However, it is not limited to the above.

図2(a)に示すように、被写体としての人物はクロマが低く、且つ赤外光を放射するため赤外成分の割合が多くなり、図2(b)に示すように、被写体としての交通信号灯等はクロマも赤外成分の割合もともに高くなり、図2(c)に示すように、被写体としての道路はクロマも赤外成分の割合もともに低いという特性がある。かかる結果を考察するに、単純に赤外成分が多い被写体を強調してしまうと、交通信号灯又は車のテールランプが白飛びしてしまうことがわかる。一方、クロマが低い被写体を強調してしまうと、道路は強調されるが、人物を強調することができないということがわかる。   As shown in FIG. 2 (a), a person as a subject has a low chroma and emits infrared light, so that the proportion of infrared components increases, and as shown in FIG. 2 (b), traffic as a subject. Signal lamps and the like both have high chroma and infrared component ratios, and as shown in FIG. 2C, the road as a subject has a characteristic that both chroma and infrared component ratios are low. Considering such a result, it can be seen that if a subject with many infrared components is simply emphasized, the traffic signal lamp or the tail lamp of the car will be blown out. On the other hand, if a subject with low chroma is emphasized, the road is emphasized, but the person cannot be emphasized.

そこで本発明においては、前記調整量決定手段が、前記割合又は差分と、前記色空間に対応した色情報とから、調整量を決定し、前記調整手段が、決定された前記調整量に基づいて、前記色空間を調整するので、処理に必要なコストをかけることなく、例えば人物、交通信号灯又は車のテールランプ、道路を検出して区別することができるのである。   Therefore, in the present invention, the adjustment amount determining means determines an adjustment amount from the ratio or difference and color information corresponding to the color space, and the adjustment means is based on the determined adjustment amount. Since the color space is adjusted, it is possible to detect and distinguish, for example, a person, a traffic signal light or a car taillight, and a road without incurring the cost required for processing.

本発明の別な態様によれば、前記色情報とは、色相、クロマ、明度の少なくとも1つであると好ましい。尚、CIE1976L***均等色空間において、クロマは、sqrt{(a*2+(b*2}で与えられ、彩度を表し、L*は、明度に対応する。そして、色相平面上における色相角Hueは、arctan(b*/a*)で与えられる。 According to another aspect of the present invention, the color information is preferably at least one of hue, chroma, and brightness. In the CIE 1976 L * a * b * uniform color space, the chroma is given by sqrt {(a * ) 2 + (b * ) 2 } and represents saturation, and L * corresponds to lightness. The hue angle Hue on the hue plane is given by arctan (b * / a * ).

本発明の別な態様によれば、前記調整量決定手段は、前記割合又は差分において第1の閾値より赤外成分が高く、且つ前記色情報におけるクロマ又は明度が第2の閾値より低い場合、それ以外の場合と比較して、前記調整量を増大すると好ましい。これにより、撮像素子からの原画像データより、被写体としての人物を識別して強調できる。   According to another aspect of the present invention, the adjustment amount determination means has an infrared component higher than a first threshold in the ratio or difference, and chroma or brightness in the color information is lower than a second threshold. Compared to other cases, it is preferable to increase the adjustment amount. Thereby, the person as the subject can be identified and emphasized from the original image data from the image sensor.

本発明の別な態様によれば、前記調整量決定手段は、前記割合又は差分において第3の閾値より赤外成分が高く、且つ前記色情報における色相が所定範囲である場合、それ以外の場合と比較して、前記調整量を減少すると好ましい。これにより、撮像素子からの原画像データより、被写体としての交通信号灯や車両のテールランプを識別して、その白飛びを抑制できる。   According to another aspect of the present invention, the adjustment amount determination means has an infrared component higher than a third threshold in the ratio or difference, and the hue in the color information is within a predetermined range, otherwise It is preferable to reduce the adjustment amount as compared with. Thereby, it is possible to identify the traffic signal lamp as the subject and the tail lamp of the vehicle from the original image data from the image sensor, and to suppress the whiteout.

本発明の別な態様によれば、前記調整量決定手段は、前記割合又は差分において第4の閾値より赤外成分が高く、且つ前記色情報におけるクロマが第5の閾値より高い場合、それ以外の場合と比較して、前記調整量を増大すると好ましい。これにより、撮像素子からの原画像データより、被写体としての交通信号灯や車両のテールランプを識別して、より鮮明に表示できる。   According to another aspect of the present invention, the adjustment amount determination unit is configured to perform the processing in the case where the infrared component is higher than the fourth threshold in the ratio or difference and the chroma in the color information is higher than the fifth threshold. It is preferable to increase the adjustment amount as compared with the above case. As a result, the traffic signal lamp as the subject and the tail lamp of the vehicle can be identified and displayed more clearly from the original image data from the image sensor.

本発明の別な態様によれば、前記調整量決定手段は、前記割合又は差分において第6の閾値より赤外成分が低く、且つ前記色情報におけるクロマが第7の閾値より低い場合、それ以外の場合と比較して、前記調整量を減少すると好ましい。これにより、撮像素子からの原画像データより、被写体としての道路を識別してグレー色にするなどして、他の被写体と区別して表示できる。   According to another aspect of the present invention, the adjustment amount determination unit is configured to perform the processing when the infrared component is lower than a sixth threshold in the ratio or difference and the chroma in the color information is lower than a seventh threshold. It is preferable to reduce the adjustment amount as compared with the case. Thereby, the original image data from the image sensor can be displayed separately from other subjects by identifying the road as the subject and making it gray.

本発明の別な態様によれば、前記調整手段は、決定された前記調整量に基づいて前記色情報を調整し、調整された前記色情報に基づいて前記色空間を調整すると好ましい。   According to another aspect of the present invention, it is preferable that the adjusting unit adjusts the color information based on the determined adjustment amount and adjusts the color space based on the adjusted color information.

本発明によれば、低コストでありながら、特定の被写体を検出して強調する画像処理を行うことができる画像処理装置を提供することができる。   According to the present invention, it is possible to provide an image processing apparatus capable of performing image processing for detecting and emphasizing a specific subject at a low cost.

車載カメラで撮像した被写体の例を示す図である。It is a figure which shows the example of the to-be-photographed object imaged with the vehicle-mounted camera. 被写体として人物(a)、白熱電球式の交通信号灯又は車のテールランプ(b)、道路(c)を撮像した際における被写体光の赤外成分の割合とクロマとの関係を表すヒストグラムを示した図である。The figure which showed the histogram showing the relationship between the ratio of the infrared component of a to-be-photographed object light, and a chroma at the time of imaging a person (a), an incandescent light bulb type traffic signal light or a car tail lamp (b), and a road (c) as a subject. It is. 実施の形態1にかかる画像処理装置1のブロック図を示す図である。1 is a block diagram of an image processing apparatus 1 according to a first embodiment. 撮像素子3の画素の配列を示す図である。2 is a diagram illustrating an array of pixels of an image sensor 3. FIG. Ye、R、IRフィルタの分光透過特性を示した図であり、縦軸は透過率(感度)を示し、横軸は波長(nm)を示している。It is the figure which showed the spectral transmission characteristic of Ye, R, and IR filter, the vertical axis | shaft has shown the transmittance | permeability (sensitivity), and the horizontal axis has shown the wavelength (nm). 画像処理部4の詳細な構成を示すブロック図である。3 is a block diagram illustrating a detailed configuration of an image processing unit 4. FIG. 実施の形態1にかかる画像処理装置1の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image processing apparatus 1 according to the first embodiment. 赤外成分の割合αと調整量IRADとの関係を示すグラフである。It is a graph which shows the relationship between the ratio (alpha) of an infrared component, and adjustment amount IRAD. 赤外成分の割合αとクロマChとクロマ調整量ChADとの関係を示すグラフである。It is a graph which shows the relationship between the ratio (alpha) of an infrared component, chroma Ch, and chroma adjustment amount ChAD. 色相と調整量との関係を示す図である。It is a figure which shows the relationship between a hue and adjustment amount.

以下、本発明の実施の形態にかかる画像処理装置1について説明する。図3は、実施の形態1にかかる画像処理装置1のブロック図である。図3に示すように画像処理装置1は、レンズ2、撮像素子3、画像処理部4、及び制御部5を備えている。ここで、画像処理装置1は、例えば車両に搭載され、車両の周囲の被写体を撮像する用途に用いられる。   Hereinafter, an image processing apparatus 1 according to an embodiment of the present invention will be described. FIG. 3 is a block diagram of the image processing apparatus 1 according to the first embodiment. As shown in FIG. 3, the image processing apparatus 1 includes a lens 2, an image sensor 3, an image processing unit 4, and a control unit 5. Here, the image processing apparatus 1 is mounted on a vehicle, for example, and is used for imaging a subject around the vehicle.

レンズ2は、被写体の光像を取り込み、撮像素子3へ導く光学レンズ系から構成される。光学レンズ系としては、被写体の光像の光軸Lに沿って直列的に配置される、例えばズームレンズやフォーカスレンズ、その他の固定レンズブロック等を採用することができる。また、レンズ2は、透過光量を調節するための絞り(図略)、シャッタ(図略)等を備え、制御部5の制御の下、絞り及びシャッタの駆動が制御される。   The lens 2 includes an optical lens system that captures a light image of a subject and guides it to the image sensor 3. As the optical lens system, for example, a zoom lens, a focus lens, other fixed lens blocks, and the like arranged in series along the optical axis L of the optical image of the subject can be employed. The lens 2 includes a diaphragm (not shown) for adjusting the amount of transmitted light, a shutter (not shown), and the like, and the driving of the diaphragm and the shutter is controlled under the control of the control unit 5.

撮像素子3は、PD(フォトダイオード)からなる受光部と、受光部により光電変換された信号を出力する出力回路と、撮像素子3を駆動する駆動回路とを含み、光量に応じたレベルを有する原画像データを生成する。ここで、撮像素子3としては、CMOSイメージセンサ、VMISイメージセンサ、及びCCDイメージセンサ等の種々の撮像センサを採用することができる。   The image pickup device 3 includes a light receiving unit composed of a PD (photodiode), an output circuit that outputs a signal photoelectrically converted by the light receiving unit, and a drive circuit that drives the image pickup device 3, and has a level corresponding to the amount of light. Generate original image data. Here, as the imaging device 3, various imaging sensors such as a CMOS image sensor, a VMIS image sensor, and a CCD image sensor can be employed.

本実施の形態において、撮像素子3は、被写体の光像を入射して、カラーフィルタを備える画素により可視カラー画像成分を変換出力し、赤外フィルタを備える画素により赤外画像成分を変換出力し、フィルタを備えない画素により可視輝度画像成分と赤外画像成分とを含む輝度画像成分を変換出力するようになっている。   In the present embodiment, the image sensor 3 receives a light image of a subject, converts a visible color image component by a pixel having a color filter, and converts and outputs an infrared image component by a pixel having an infrared filter. A luminance image component including a visible luminance image component and an infrared image component is converted and output by a pixel not provided with a filter.

画像処理部4は、演算回路及び演算回路の作業領域として用いられるメモリ等を含み、撮像素子3から出力された原画像データをA/D変換してデジタル信号に変換し、後述する画像処理を実行した後、例えば図略のメモリや表示装置に出力する。   The image processing unit 4 includes an arithmetic circuit and a memory used as a work area for the arithmetic circuit, A / D converts the original image data output from the image sensor 3 to convert it into a digital signal, and performs image processing to be described later. After execution, for example, the data is output to a memory or a display device (not shown).

制御部5は、CPU及びCPUが実行するプログラムを格納するメモリ等を含み、外部からの制御信号に応答し、画像処理装置1の全体制御を司る。   The control unit 5 includes a CPU and a memory that stores a program executed by the CPU, and controls the image processing apparatus 1 in response to an external control signal.

図4は、撮像素子3の画素の配列を示す図である。図4に示すように撮像素子3には、可視波長領域と赤外波長領域とを有感度波長帯域とするYe画素(第1の画素)、R画素(第2の画素)、IR画素(第3の画素)、及びW画素(第4の画素)とを含む単位画素部31がマトリックス状に配列されている。尚、例えば「Ye」画素とは、「Ye」フィルタを有する画素の意味であり、以下同様とする。   FIG. 4 is a diagram illustrating an array of pixels of the image sensor 3. As shown in FIG. 4, the imaging device 3 includes a Ye pixel (first pixel), an R pixel (second pixel), an IR pixel (first pixel) having a visible wavelength region and an infrared wavelength region as sensitive wavelength bands. 3) and unit pixel units 31 including W pixels (fourth pixels) are arranged in a matrix. For example, “Ye” pixel means a pixel having a “Ye” filter, and so on.

図4の場合、単位画素部31において、第1行第1列にR画素が配列され、第2行第1列にIR画素が配列され、第1行第2列にW画素が配列され、第2行第2列にYe画素が配列されるというように、R画素、IR画素、W画素,及びYe画素は干鳥状に配列されている。但し、これは一例であり、他のパターンでR画素、IR画素、W画素、及びYe画素を千鳥状に配列してもよい。   In the case of FIG. 4, in the unit pixel unit 31, R pixels are arranged in the first row and first column, IR pixels are arranged in the second row and first column, and W pixels are arranged in the first row and second column, The R pixel, the IR pixel, the W pixel, and the Ye pixel are arranged in a zigzag manner so that Ye pixels are arranged in the second row and the second column. However, this is only an example, and the R pixel, IR pixel, W pixel, and Ye pixel may be arranged in a zigzag pattern in another pattern.

Ye画素はYeフィルタ(第1のカラーフィルタ)を備えているため、Yeの可視カラー画像成分である画像成分Ye(原画像成分)および赤外画像成分を出力する。R画素はRフィルタ(第2のカラーフィルタ)を備えているため、Rの可視カラー画像成分である画像成分R(原画像成分)および赤外画像成分を出力する。IR画素はIRフィルタ(赤外フィルタ)を備えているため、赤外画像成分である画像成分IR(原画像成分)を出力する。W画素はフィルタを備えていないため、可視輝度画像成分と画像成分IRとを含む輝度画像成分である画像成分W(原画像成分)を出力する。   Since the Ye pixel includes a Ye filter (first color filter), it outputs an image component Ye (original image component) and an infrared image component, which are visible color image components of Ye. Since the R pixel includes an R filter (second color filter), it outputs an image component R (original image component) and an infrared image component, which are R visible color image components. Since the IR pixel includes an IR filter (infrared filter), it outputs an image component IR (original image component) that is an infrared image component. Since the W pixel does not include a filter, an image component W (original image component) that is a luminance image component including a visible luminance image component and an image component IR is output.

図5は、Ye、R、IRフィルタの分光透過特性を示した図であり、縦軸は透過率(感度)を示し、横軸は波長(nm)を示している。なお、点線で示すグラフはフィルタが取り外された状態における画素の分光感度特性を示している。この分光感度特性は、600nm付近でピークを有し、上に凸の曲線を描いて変化していることが分かる。また、図5では、400nm〜700nmが可視波長領域とされ、700nm〜1100nmが赤外波長領域とされ、400nm〜1100nmが有感度波長帯域とされている。   FIG. 5 is a diagram showing the spectral transmission characteristics of the Ye, R, and IR filters, where the vertical axis shows the transmittance (sensitivity) and the horizontal axis shows the wavelength (nm). A graph indicated by a dotted line shows the spectral sensitivity characteristics of the pixel in a state where the filter is removed. It can be seen that this spectral sensitivity characteristic has a peak near 600 nm and changes in a convex curve. In FIG. 5, 400 nm to 700 nm is a visible wavelength region, 700 nm to 1100 nm is an infrared wavelength region, and 400 nm to 1100 nm is a sensitive wavelength band.

図5に示すように、Yeフィルタは、可視波長領域の青色領域を除く前記有感度波長帯域の光を透過する特性を有する。よって、Yeフィルタは主にイエローの光と赤外光とを透過する。   As shown in FIG. 5, the Ye filter has a characteristic of transmitting light in the sensitive wavelength band excluding the blue region in the visible wavelength region. Therefore, the Ye filter mainly transmits yellow light and infrared light.

Rフィルタは、可視波長領域の青色領域及び緑色領域を除く有感度波長帯域の光を透過する特性を有する。よって、Rフィルタは主に赤の光と赤外光とを透過する。   The R filter has a characteristic of transmitting light in a sensitive wavelength band excluding a blue region and a green region in the visible wavelength region. Therefore, the R filter mainly transmits red light and infrared light.

IRフィルタは、可視波長領域を除く有感度波長帯域、すなわち赤外波長帯域の光を透過する特性を有する。Wはフィルタを備えていない場合を示し、画素の有感度波長帯域の光が全て透過される。   The IR filter has a characteristic of transmitting light in a sensitive wavelength band excluding the visible wavelength region, that is, in the infrared wavelength band. W indicates a case where no filter is provided, and all light in the sensitive wavelength band of the pixel is transmitted.

他に似たような特性を実現するには、Ye、R、IRの代わりにYe、M(マゼンタ)+IR、C(シアン)+IR(但し、M+IRは、グリーンのみを遮蔽し、C+IRはレッドのみを遮蔽する。)でも実現可能である。ただし、R画素、IR画素、Ye画素は、分光透過特性を急峻にすることができ、例えば、M+IRフィルタやC+IRフィルタに比べて、分光透過特性が良好である。つまり、M+IRフィルタ及びC+IRフィルタは、それぞれ、有感度波長帯域のうち、中央の一部の領域である緑色領域及び赤色領域のみを遮蔽する特性を有しており、このようなフィルタに、Rフィルタ、IRフィルタ、Yeフィルタのような急峻な分光透過特性を持たせることは困難である。そのため、M+IRフィルタ及びC+IRフィルタは、それぞれ、演算してもRGB画像成分を精度良く抽出することができない。よって、R画素、IR画素、Ye画素、W画素で撮像素子3を構成することで、撮像素子3の高性能化を図ることができる。   To achieve similar characteristics, Ye, M (magenta) + IR, C (cyan) + IR instead of Ye, R and IR (however, M + IR blocks only green and C + IR only red) Is also possible. However, the R pixel, the IR pixel, and the Ye pixel can make the spectral transmission characteristics steep, and, for example, the spectral transmission characteristics are better than those of the M + IR filter and the C + IR filter. That is, each of the M + IR filter and the C + IR filter has a characteristic of shielding only the green region and the red region, which are partial regions in the center, in the sensitive wavelength band. It is difficult to provide steep spectral transmission characteristics such as IR filter and Ye filter. Therefore, each of the M + IR filter and the C + IR filter cannot extract the RGB image components with high accuracy even if the calculation is performed. Therefore, by configuring the image sensor 3 with R pixels, IR pixels, Ye pixels, and W pixels, the performance of the image sensor 3 can be improved.

図6は、画像処理部4の詳細な構成を示すブロック図である。画像処理部4は、色補間部41、色信号生成部42、色空間変換部43、演算部44,及びRGB色信号生成部45を備えている。図7は、画像処理部4の処理を示すフローチャートである。   FIG. 6 is a block diagram illustrating a detailed configuration of the image processing unit 4. The image processing unit 4 includes a color interpolation unit 41, a color signal generation unit 42, a color space conversion unit 43, a calculation unit 44, and an RGB color signal generation unit 45. FIG. 7 is a flowchart showing the processing of the image processing unit 4.

色補間部41は、図7のステップS101で撮像素子3から出力された画像成分Ye、画像成分R、画像成分IR、及び画像成分Wのそれぞれに、欠落画素データを補間するための補間処理を施し、画像成分R、画像成分IR、画像成分W、及び画像成分Yeのそれぞれを撮像素子3の画素数と同一画素数からなる画像データにする。なお、画像成分Ye、R、R、Wに欠落画素データが発生するのは、R画素、IR画素、W画素、及びYe画素が千鳥状に配列されているためである。また。補間処理としては、例えば線形補間処理を採用すればよい。   The color interpolation unit 41 performs an interpolation process for interpolating the missing pixel data on each of the image component Ye, the image component R, the image component IR, and the image component W output from the image sensor 3 in step S101 of FIG. The image component R, the image component IR, the image component W, and the image component Ye are converted into image data having the same number of pixels as the number of pixels of the image sensor 3. The missing pixel data is generated in the image components Ye, R, R, and W because the R pixel, the IR pixel, the W pixel, and the Ye pixel are arranged in a staggered manner. Also. As the interpolation process, for example, a linear interpolation process may be employed.

色信号生成部42は、ステップS102で、色補間部41により補間処理が施された画像成分Yeと、画像成分Rと、画像成分IRと、画像成分Wとを下記式(1)により合成して、色信号dR、dG、dB(RGB色信号)を生成する。
dR=R−IR
dG=Ye−R (1)
dB=W−Ye
In step S102, the color signal generation unit 42 synthesizes the image component Ye, the image component R, the image component IR, and the image component W that have been subjected to the interpolation processing by the color interpolation unit 41, using the following equation (1). Thus, the color signals dR, dG, dB (RGB color signals) are generated.
dR = R-IR
dG = Ye-R (1)
dB = W-Ye

色空間変換部43は、ステップS103で、式(2)に示すように、色信号dR,dG,dBを、輝度信号Y(第1の輝度信号の一例)と色差信号Cb、Cr(色差信号の一例)とを含む色空間に変換する、ここで、色差信号Cbは青の色差信号を示し、色差信号Crは赤の色差信号を示す。
Y=0.3・dR+0.6・dG+0.1・dB
Cb=dR−Y (2)
Cr=dB−Y
In step S103, the color space conversion unit 43 converts the color signals dR, dG, and dB into a luminance signal Y (an example of a first luminance signal) and color difference signals Cb and Cr (color difference signals) as shown in Expression (2). In this case, the color difference signal Cb indicates a blue color difference signal, and the color difference signal Cr indicates a red color difference signal.
Y = 0.3 · dR + 0.6 · dG + 0.1 · dB
Cb = dR−Y (2)
Cr = dB-Y

また、色空間変換部43は、ステップS104で、式(3)に示すように、画像成分Ye、R、IR、Wを加算することで得られる輝度信号Yadd(第2の輝度信号の一例)を、変換対象となる色空間の輝度信号として算出する。
Yadd=(R+IR+W+Ye)/4 (3)
In step S104, the color space conversion unit 43 adds a luminance signal Yadd (an example of a second luminance signal) obtained by adding the image components Ye, R, IR, and W as shown in Expression (3). Is calculated as a luminance signal of the color space to be converted.
Yadd = (R + IR + W + Ye) / 4 (3)

ここで、輝度信号Yaddは、加算処理により算出されているため。減算処理により輝度信号Yを算出した場合に比べてノイズ成分を低くすることができる。   Here, the luminance signal Yadd is calculated by the addition process. The noise component can be reduced as compared with the case where the luminance signal Y is calculated by the subtraction process.

算出手段、調整量決定手段及び調整手段を兼ねる演算部44は、ステップS105で、全体の入射光量に対する赤外成分の割合αを計算する。割合α=IR/Wで計算できるが、WとIRの差分(W−IR)/Wを利用しても良い。   In step S105, the calculation unit 44 serving as the calculation unit, the adjustment amount determination unit, and the adjustment unit calculates the ratio α of the infrared component to the total incident light amount. The ratio α = IR / W can be calculated, but the difference between W and IR (W-IR) / W may be used.

次いで演算部44は、色差信号Cr、Cbから、色情報としてのクロマ(Ch)、色相(Hue)を計算する。明度を計算しても良い。尚、クロマ、色相、明度の計算方法は、例えば特開2007−312313号公報に記載されているので、ここでは説明しない。   Next, the calculation unit 44 calculates chroma (Ch) and hue (Hue) as color information from the color difference signals Cr and Cb. Lightness may be calculated. Note that the method of calculating chroma, hue, and brightness is described in, for example, Japanese Patent Application Laid-Open No. 2007-31313, and will not be described here.

演算部44は、以下の式に従い、赤外成分割合αとクロマChとから、赤外成分の調整量IRADと、クロマの調整量ChADを演算する。
IRAD=IR_adjust_max*exp(−π*((α−α_center)/α_sigma)2+((Ch−Ch_center)/Ch_sigma)2) (4)
ChAD=Ch_adjust_max*exp(−π*((α−α_center)/α_sigma)2+((Ch−Ch_center)/Ch_sigma)2) (5)
但し、
IR_adjust_max:赤外成分の調整量IRADの最大値
Ch_adjust_max:クロマの調整量ChADの最大値
α_center:対象被写体のヒストグラム(図2参照)における赤外成分割合αの中心座標
Ch_center:対象被写体のヒストグラム(図2参照)におけるクロマChの中心座標
α_sigma:調整量を付与する赤外成分割合αの範囲
Ch_sigma:調整量を付与するクロマChの範囲
The computing unit 44 computes an infrared component adjustment amount IRAD and a chroma adjustment amount ChAD from the infrared component ratio α and the chroma Ch according to the following formula.
IRAD = IR_adjust_max * exp (−π * ((α−α_center) / α_sigma) 2 + ((Ch−Ch_center) / Ch_sigma) 2 ) (4)
ChAD = Ch_adjust_max * exp (−π * ((α−α_center) / α_sigma) 2 + ((Ch−Ch_center) / Ch_sigma) 2 ) (5)
However,
IR_adjust_max: Maximum value of IR component adjustment amount IRAD Ch_adjust_max: Maximum value of chroma adjustment amount ChAD α_center: Center coordinates of infrared component ratio α in the histogram of the subject (see FIG. 2) Ch_center: Histogram of the subject 2), the center coordinate α_sigma of the chroma Ch: the range of the infrared component ratio α that gives the adjustment amount Ch_sigma: the range of the chroma Ch that gives the adjustment amount

尚、赤外成分割合αの調整量IRADは、図8に示すように、赤外成分割合αが閾値Th1以下及び閾値Th2以上では一定で、その間を線形もしくは非線形に変化させるようにしても良い。   As shown in FIG. 8, the adjustment amount IRAD of the infrared component ratio α is constant when the infrared component ratio α is equal to or less than the threshold value Th1 and equal to or greater than the threshold value Th2, and may be changed linearly or nonlinearly. .

更に演算部44は、ステップS107で、以下の式に従い輝度値を計算する。
Y_add=Yadd+IRAD (6)
Further, in step S107, the calculation unit 44 calculates a luminance value according to the following formula.
Y_add = Yadd + IRAD (6)

又、演算部44は、輝度の変更に応じて、ステップS108、S109で、以下の式に従いCr、Cbのクロマを調整し、更にクロマの調整量ChADに応じて色差信号を調整する。尚、クロマの調整量ChADの一例を図9に示す。
Cr_add=(Y_add/Y)*Cr*ChAD (7)
Cb_add=(Y_add/Y)*Cb*ChAD
In addition, in step S108 and S109, the calculation unit 44 adjusts the Cr and Cb chromas according to the following equations in accordance with the change in luminance, and further adjusts the color difference signal according to the chroma adjustment amount ChAD. An example of the chroma adjustment amount ChAD is shown in FIG.
Cr_add = (Y_add / Y) * Cr * ChAD (7)
Cb_add = (Y_add / Y) * Cb * ChAD

その後、RGB色信号生成部45は、ステップS110で式(2)を逆変換することで、輝度信号Y_addと、色差信号Cr_add、Cb_addとから色信号dR’,dG’,dB’を算出する。以上で画像処理が完了する。   Thereafter, the RGB color signal generation unit 45 inversely converts the equation (2) in step S110 to calculate the color signals dR ′, dG ′, and dB ′ from the luminance signal Y_add and the color difference signals Cr_add and Cb_add. This completes the image processing.

なお、色信号dR’、dG’、dB’は、上述の処理を経て算出されたものであるため、画像成分Ye,R、IR、Wを減算処理することで算出された色信号dR、dG,dBに比べて遙かに精度の高い色信号となっている。   Since the color signals dR ′, dG ′, and dB ′ are calculated through the above processing, the color signals dR, dG calculated by subtracting the image components Ye, R, IR, and W are used. The color signal is much more accurate than, dB.

次に、具体例を示す。まず、被写体の人物を強調したい場合について説明する。図1(a)を参照して、赤外成分割合αとクロマChとを8bitの信号で表すと、人物を被写体とする場合、α_center_jinbutuは比較的大きな値である255となり、α_sigma_jinbutuは190〜255となる。一方、Ch_center_jinbutuは比較的小さな値である70前後となり、Ch_sigma_jinbutuは、30〜150となる。つまり演算部44は、赤外成分割合αが190(第1の閾値)以上255(任意値)以下であり、且つクロマが30(任意値)以上150(第2の閾値)以下である場合には、撮像した被写体が人物であると判断して、以下の式により調整量IRAD、ChADを求めることができる。これにより、人物以外の被写体に比べ調整量が増大するので、人物を強調することができる。
IRAD=α_adjust_max_jinbutu*exp(−π*((α−α_center_jinbutu)/α_sigma_jinbutu)2)+((Ch−Ch_center_jinbutu)/Ch_sigma_jinbutu)2) (8)
ChAD=Ch_adjust_max_jinbutu*exp(−π*((α−α_center_jinbutu)/α_sigma_jinbutu)2+((Ch−Ch_center_jinbutu)/Ch_sigma_jinbutu)2) (9)
但し、
IR_adjust_max_jinbutu:被写体を人物とする際の赤外成分の調整量IRADの最大値
Ch_adjust_max_jinbutu:被写体を人物とする際のクロマの調整量ChADの最大値
α_center_jinbutu:被写体を人物とする際のヒストグラム(図1(a)参照)における赤外成分割合αの中心座標
Ch_center_jinbutu:被写体を人物とする際のヒストグラム(図1(a)参照)におけるクロマChの中心座標
α_sigma_jinbutu:被写体を人物とする際の調整量を付与する赤外成分割合αの範囲
Ch_sigma_jinbutu:被写体を人物とする際の調整量を付与するクロマChの範囲
Next, a specific example is shown. First, a case where it is desired to emphasize the subject person will be described. Referring to FIG. 1A, when the infrared component ratio α and chroma Ch are represented by 8-bit signals, α_center_jinbutu is a relatively large value 255 when a person is a subject, and α_sigma_jinbutu is 190 to 255. It becomes. On the other hand, Ch_center_jinbutu is around 70, which is a relatively small value, and Ch_sigma_jinbutu is 30 to 150. That is, the calculation unit 44 has a case where the infrared component ratio α is 190 (first threshold) or more and 255 (arbitrary value) or less, and the chroma is 30 (arbitrary value) or more and 150 (second threshold) or less. Can determine that the imaged subject is a person, and obtain the adjustment amounts IRAD and ChAD by the following equations. As a result, the amount of adjustment increases compared to subjects other than a person, so that the person can be emphasized.
IRAD = α_adjust_max_jinbutu * exp (−π * ((α−α_center_jinbutu) / α_sigma_jinbutu) 2 ) + ((Ch-Ch_center_jinbutu) / Ch_sigma_jinbutu) ( 2 ) 2
ChAD = Ch_adjust_max_jinbutu * exp (−π * ((α−α_center_jinbutu) / α_sigma_jinbutu) 2 + ((Ch−Ch_center_jinbutu) / Ch_sigma_jinbutu) ( 2 )
However,
IR_adjust_max_jinbutu: maximum IR component adjustment amount IRAD when the subject is a person Ch_adjust_max_jinbutu: maximum chroma adjustment amount ChAD when the subject is a person α_center_jinbutu: histogram when the subject is a person (FIG. 1 ( In FIG. 1 (a), the center coordinates Ch_center_jinbutu of the infrared component ratio α: the chroma coordinates when the subject is a person (see FIG. 1A) α_sigma_jinbutu: the adjustment amount when the subject is a person Range of infrared component ratio α to be performed Ch_sigma_jinbutu: range of chroma Ch that gives an adjustment amount when the subject is a person

又、図1(b)を参照して、交通信号灯や車両のテールランプを被写体とする場合、α_center_shingoは比較的大きな値である255となり、α_sigma_shingoは192〜255となる。一方、Ch_center_shingoも比較的大きな値である255となり、Ch_sigma_shingoは、175〜255となる。つまり演算部44は、赤外成分割合αが192(第3の閾値又は第4の閾値)以上255(任意値)以下であり、且つクロマが175(第5の閾値)以上255(任意値)以下である場合には、撮像した被写体が交通信号灯や車両のテールランプであると判断して、以下の式により調整量IRAD、ChADを求めることができる。これにより、交通信号灯や車両のテールランプを被写体とする場合には、それ以外の被写体に比べ調整量を抑えることで、白飛びを抑えつつ鮮明化を図ることができる。
IRAD=α_adjust_max_shingo*exp(−π*((α−α_center_shingo)/α_sigma_shingo)2)+((Ch−Ch_center_shingo)/Ch_sigma_shingo)2) (10)
ChAD=Ch_adjust_max_shingo*exp(−π*((α−α_center_shingo)/α_sigma_shingo)2+((Ch−Ch_center_shingo)/Ch_sigma_shingo)2) (11)
但し、
IR_adjust_max_shingo:被写体を交通信号灯や車両のテールランプとする際の赤外成分の調整量IRADの最大値
Ch_adjust_max_shingo:被写体を交通信号灯や車両のテールランプとする際のクロマの調整量ChADの最大値
α_center_shingo:被写体を交通信号灯や車両のテールランプとする際のヒストグラム(図1(b)参照)における赤外成分割合αの中心座標
Ch_center_shingo:被写体を交通信号灯や車両のテールランプとする際のヒストグラム(図1(b)参照)におけるクロマChの中心座標
α_sigma_shingo:被写体を交通信号灯や車両のテールランプとする際の調整量を付与する赤外成分割合αの範囲
Ch_sigma_shingo:被写体を交通信号灯や車両のテールランプとする際の調整量を付与するクロマChの範囲
Referring to FIG. 1B, when a traffic signal lamp or a vehicle tail lamp is used as a subject, α_center_shingo is a relatively large value of 255, and α_sigma_shingo is 192 to 255. On the other hand, Ch_center_shingo is also a relatively large value 255, and Ch_sigma_shingo is 175-255. That is, the calculation unit 44 has an infrared component ratio α of 192 (third threshold or fourth threshold) to 255 (arbitrary value) or less, and chroma of 175 (fifth threshold) to 255 (arbitrary value). In the following cases, it is determined that the imaged subject is a traffic signal lamp or a vehicle tail lamp, and the adjustment amounts IRAD and ChAD can be obtained by the following equations. As a result, when a traffic signal light or a tail lamp of a vehicle is used as a subject, the amount of adjustment can be suppressed as compared with other subjects, so that clearing can be achieved while suppressing overexposure.
IRAD = α_adjust_max_shingo * exp (−π * ((α−α_center_shingo) / α_sigma_shingo) 2 ) + ((Ch-Ch_center_shingo) / Ch_sigma_shingo) 2 ) (10)
ChAD = Ch_adjust_max_shingo * exp (−π * ((α−α_center_shingo) / α_sigma_shingo) 2 + ((Ch−Ch_center_shingo) / Ch_sigma_shingo) 2 ) (11)
However,
IR_adjust_max_shingo: Maximum IR component adjustment amount IRAD when the subject is a traffic signal lamp or vehicle tail lamp Ch_adjust_max_shingo: Chroma adjustment amount ChAD maximum value α_center_shingo when the subject is a traffic signal light or vehicle tail lamp Center coordinates Ch_center_shingo of the infrared component ratio α in a histogram for traffic signal lights and vehicle tail lamps (see FIG. 1B): histogram for when the subject is a traffic signal light and vehicle tail lamps (see FIG. 1B) ) Chroma center coordinates α_sigma_shingo: Infrared component ratio α range Ch_sigma_shingo that gives an adjustment amount when the subject is a traffic light or a vehicle tail lamp Range of chroma Ch imparting an adjustment amount at the time of the subject with the tail lamp of the traffic lights or a vehicle

更に、図1(c)を参照して、道路を被写体とする場合、α_center_douroは比較的小さな値である96前後となり、α_sigma_douroは35〜155となる。一方、Ch_center_douroも比較的小さな値である64前後となり、Ch_sigma_douroは、35〜175となる。つまり演算部44は、赤外成分割合αが35(任意値)以上155(第6の閾値)以下であり、且つクロマが35(任意値)以上175(第7の閾値)以下である場合には、撮像した被写体が交通信号灯や車両のテールランプであると判断して、以下の式により調整量IRAD、ChADを求めることができる。これにより、道路を被写体とする場合、それ以外の被写体に比べ調整量を増大させることで、強調しながらもクロマを減少させて、グレー色として他の被写体と違和感なく区別することができる。
IRAD=α_adjust_max_douro*exp(−π*((α−α_center_douro)/α_sigma_douro)2)+((Ch−Ch_center_douro)/Ch_sigma_douro)2) (12)
ChAD=Ch_adjust_max_douro*exp(−π*((α−α_center_douro)/α_sigma_douro)2+((Ch−Ch_center_douro)/Ch_sigma_douro)2) (13)
但し、
IR_adjust_max_douro:被写体を道路とする際の赤外成分の調整量IRADの最大値
Ch_adjust_max_douro:被写体を道路とする際のクロマの調整量ChADの最大値
α_center_douro:被写体を道路とする際のヒストグラム(図1(c)参照)における赤外成分割合αの中心座標
Ch_center_douro:被写体を道路とする際のヒストグラム(図1(c)参照)におけるクロマChの中心座標
α_sigma_douro:被写体を道路とする際の調整量を付与する赤外成分割合αの範囲
Ch_sigma_douro:被写体を道路とする際の調整量を付与するクロマChの範囲
Further, referring to FIG. 1C, when a road is a subject, α_center_duro is a relatively small value of around 96, and α_sigma_duro is 35 to 155. On the other hand, Ch_center_duro is also a relatively small value of around 64, and Ch_sigma_duro is between 35 and 175. That is, the calculation unit 44 determines that the infrared component ratio α is 35 (arbitrary value) or more and 155 (sixth threshold) or less and the chroma is 35 (arbitrary value) or more and 175 (seventh threshold) or less. Determines that the imaged subject is a traffic signal lamp or a vehicle tail lamp, and can determine the adjustment amounts IRAD and ChAD by the following equations. As a result, when the road is a subject, the amount of adjustment is increased compared to other subjects, so that the chroma can be reduced while emphasizing and can be distinguished from other subjects as a gray color without any discomfort.
IRAD = α_adjust_max_douro * exp (−π * ((α−α_center_douro) / α_sigma_duro) 2 ) + ((Ch−Ch_center_duro) / Ch_sigma_duro) 2 ) (12)
ChAD = Ch_adjust_max_duro * exp (−π * ((α−α_center_duro) / α_sigma_duro) 2 + ((Ch−Ch_center_duro) / Ch_sigma_duro) 2 ) (13)
However,
IR_adjust_max_duro: the maximum amount IRAD adjustment amount IRAD when the subject is a road Ch_adjust_max_douro: the maximum chroma adjustment amount ChAD when the subject is a road α_center_duro: a histogram when the subject is a road (FIG. 1 ( c) center coordinates Ch_center_duro of the infrared component ratio α in FIG. 1): Chroma Ch center coordinates α_sigma_douro in the histogram when the subject is a road (see FIG. 1C): an adjustment amount is given when the subject is a road Range of infrared component ratio α to be performed Ch_sigma_duro: range of chroma Ch that gives an adjustment amount when the subject is a road

以上は、指数を使ったガウス関数を例として示したが、直線の繰り返しを組み合わせたものでもかまわない。又、上記は、赤外成分割合αとクロマChを基準とした調整量の算出だが、クロマの代わりに輝度や色相を基準にしてもよい。例えば、赤、青、緑、黄といった所定の色相であって、且つ赤外成分割合αが高い被写体を交通信号として判別すれば、クロマを用いることなく上述と同様な調整を行うことができる。これにより交通信号灯の色相のみを鮮やかにでき、それ以外のオレンジや水色といった色相を鮮やかにしないようにできる。図10は、色相で調整量を決定する関数の例であり、ここでは、緑信号と赤信号の調整量を多くした場合である。   In the above, a Gaussian function using an exponent is shown as an example, but a combination of linear repetitions may be used. The above is the calculation of the adjustment amount based on the infrared component ratio α and the chroma Ch, but it may be based on the luminance and hue instead of the chroma. For example, if a subject having a predetermined hue such as red, blue, green, and yellow and having a high infrared component ratio α is identified as a traffic signal, the same adjustment as described above can be performed without using chroma. As a result, only the hue of the traffic light can be vivid, and other hues such as orange and light blue can be prevented from being vivid. FIG. 10 shows an example of a function that determines the adjustment amount based on the hue. In this example, the adjustment amount of the green signal and the red signal is increased.

変形例としては、以下の式に従い輝度の計算を行っても良い。
Y_add=(a*W+b*Ye+c*R+d*IR)/4 (14)
As a modification, the luminance may be calculated according to the following equation.
Y_add = (a * W + b * Ye + c * R + d * IR) / 4 (14)

(14)式において、例えば、a、b、cは1とし、d=IRADにする。こうすることで、人物の領域が強調される。但し、dのみを変更した場合、Y_addが大きくなりやすいので、dの値に応じて、a、b、cを変更しても良い。下式は、a、b、c、dの和が4を超えないようにしたものである。
a=1−(d−1)/3
b=1−(d−1)/3
c=1−(d−1)/3
In the formula (14), for example, a, b, and c are set to 1 and d = IRAD. By doing so, the area of the person is emphasized. However, when only d is changed, Y_add tends to increase, so a, b, and c may be changed according to the value of d. The following formula is such that the sum of a, b, c and d does not exceed 4.
a = 1- (d-1) / 3
b = 1- (d-1) / 3
c = 1- (d-1) / 3

本発明は、車載カメラや監視カメラ等に適用可能であるが、用途はそれに限られない。   The present invention can be applied to in-vehicle cameras, surveillance cameras, and the like, but the application is not limited thereto.

1画像処理装置
2レンズ
3撮像素子
4画像処理部
5制御部
41色補間部
42色信号生成部
43色空間変換部
44演算部
45RGB信号生成部
1 Image processing device 2 Lens 3 Image sensor 4 Image processing unit 5 Control unit 41 Color interpolation unit 42 Color signal generation unit 43 Color space conversion unit 44 Calculation unit 45 RGB signal generation unit

Claims (7)

分光感度の異なる少なくとも3種類の画素が配列され、そのうち少なくとも1種類の画素は赤外領域に感度を持ち、被写体からの光を入射して、少なくとも3種類の原画像成分を含む原画像データに変換する撮像素子と、
前記原画像成分に基づき、前記撮像素子が受光した全体の光に対する赤外成分の割合又は差分を算出する算出手段と、
前記原画像データを輝度信号と色差信号とを含む色空間に変換する色空間変換部と、
前記割合又は差分と、前記色空間に対応した色情報とから、調整量を決定する調整量決定手段と、
決定された前記調整量に基づいて、前記色空間を調整する調整手段と、を有することを特徴とする画像処理装置。
At least three types of pixels having different spectral sensitivities are arranged, and at least one of the pixels has sensitivity in the infrared region, and light from a subject is incident on the original image data including at least three types of original image components. An image sensor to convert;
Based on the original image component, a calculation means for calculating a ratio or difference of an infrared component with respect to the total light received by the imaging device;
A color space conversion unit for converting the original image data into a color space including a luminance signal and a color difference signal;
An adjustment amount determining means for determining an adjustment amount from the ratio or difference and the color information corresponding to the color space;
An image processing apparatus comprising: adjusting means for adjusting the color space based on the determined adjustment amount.
前記色情報とは、色相、クロマ、明度の少なくとも1つであることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the color information is at least one of hue, chroma, and brightness. 前記調整量決定手段は、前記割合又は差分において第1の閾値より赤外成分が高く、且つ前記色情報におけるクロマ又は明度が第2の閾値より低い場合、それ以外の場合と比較して、前記調整量を増大することを特徴とする請求項1又は2に記載の画像処理装置。   The adjustment amount determination means, when the infrared component is higher than the first threshold in the ratio or difference and the chroma or lightness in the color information is lower than the second threshold, compared to other cases, The image processing apparatus according to claim 1, wherein the adjustment amount is increased. 前記調整量決定手段は、前記割合又は差分において第3の閾値より赤外成分が高く、且つ前記色情報における色相が所定範囲である場合、それ以外の場合と比較して、前記調整量を減少することを特徴とする請求項1〜3のいずれかに記載の画像処理装置。   The adjustment amount determination means decreases the adjustment amount when the infrared component is higher than a third threshold in the ratio or difference and the hue in the color information is within a predetermined range compared to the other cases. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記調整量決定手段は、前記割合又は差分において第4の閾値より赤外成分が高く、且つ前記色情報におけるクロマが第5の閾値より高い場合、それ以外の場合と比較して、前記調整量を増大することを特徴とする請求項1〜4のいずれかに記載の画像処理装置。   The adjustment amount determination unit is configured to compare the adjustment amount when the infrared component is higher than the fourth threshold in the ratio or difference and the chroma in the color information is higher than the fifth threshold, as compared with the other cases. The image processing apparatus according to claim 1, wherein 前記調整量決定手段は、前記割合又は差分において第6の閾値より赤外成分が低く、且つ前記色情報におけるクロマが第7の閾値より低い場合、それ以外の場合と比較して、前記調整量を減少することを特徴とする請求項1〜5のいずれかに記載の画像処理装置。   The adjustment amount determination unit is configured to compare the adjustment amount when the infrared component is lower than the sixth threshold in the ratio or difference and the chroma in the color information is lower than the seventh threshold, compared to the other cases. The image processing apparatus according to claim 1, wherein: 前記調整手段は、決定された前記調整量に基づいて前記色情報を調整し、調整された前記色情報に基づいて前記色空間を調整することを特徴とする請求項1〜6のいずれかに記載の画像処理装置。   The adjustment unit adjusts the color information based on the determined adjustment amount, and adjusts the color space based on the adjusted color information. The image processing apparatus described.
JP2010144844A 2010-06-25 2010-06-25 Image processor Pending JP2012008845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010144844A JP2012008845A (en) 2010-06-25 2010-06-25 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010144844A JP2012008845A (en) 2010-06-25 2010-06-25 Image processor

Publications (1)

Publication Number Publication Date
JP2012008845A true JP2012008845A (en) 2012-01-12

Family

ID=45539298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010144844A Pending JP2012008845A (en) 2010-06-25 2010-06-25 Image processor

Country Status (1)

Country Link
JP (1) JP2012008845A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013187574A (en) * 2012-03-05 2013-09-19 Honda Motor Co Ltd Image processing device
WO2014044265A1 (en) * 2012-09-20 2014-03-27 Conti Temic Microelectronic Gmbh Method for calibrating a color-resolving vehicle camera
JP2014107665A (en) * 2012-11-27 2014-06-09 Nikon Corp Solid-state imaging device, imaging system, and vehicle
JP2016086266A (en) * 2014-10-24 2016-05-19 株式会社Jvcケンウッド Imaging apparatus, imaging method, and imaging program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318523A (en) * 2004-03-30 2005-11-10 Seiko Epson Corp Image processing device, its method and its program
JP2007264838A (en) * 2006-03-27 2007-10-11 Toyota Central Res & Dev Lab Inc Object identification apparatus
JP2008099218A (en) * 2006-10-16 2008-04-24 Sanyo Electric Co Ltd Target detector

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318523A (en) * 2004-03-30 2005-11-10 Seiko Epson Corp Image processing device, its method and its program
JP2007264838A (en) * 2006-03-27 2007-10-11 Toyota Central Res & Dev Lab Inc Object identification apparatus
JP2008099218A (en) * 2006-10-16 2008-04-24 Sanyo Electric Co Ltd Target detector

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013187574A (en) * 2012-03-05 2013-09-19 Honda Motor Co Ltd Image processing device
WO2014044265A1 (en) * 2012-09-20 2014-03-27 Conti Temic Microelectronic Gmbh Method for calibrating a color-resolving vehicle camera
JP2014107665A (en) * 2012-11-27 2014-06-09 Nikon Corp Solid-state imaging device, imaging system, and vehicle
JP2016086266A (en) * 2014-10-24 2016-05-19 株式会社Jvcケンウッド Imaging apparatus, imaging method, and imaging program

Similar Documents

Publication Publication Date Title
US9906766B2 (en) Imaging device
JP5527448B2 (en) Image input device
WO2012067028A1 (en) Image input device and image processing device
WO2013183330A1 (en) Imaging device
JP5397788B2 (en) Image input device
US10298856B2 (en) Imaging device
US9131199B2 (en) Imaging apparatus capable of generating an appropriate color image
JP2014107852A (en) Imaging apparatus
JP6000133B2 (en) Imaging apparatus, imaging system, and imaging method
US11200647B2 (en) Image processing
US20130176416A1 (en) Imaging apparatus, method for controlling imaging apparatus, and storage medium
JP2012008845A (en) Image processor
JP5228717B2 (en) Image input device
JP2010272934A (en) Color balance adjustment device
JP2012010141A (en) Image processing apparatus
JP5521927B2 (en) Imaging device
JP2010276469A (en) Image processor and image processing method of ranging apparatus
JP2012010282A (en) Imaging device, exposure control method, and exposure control program
WO2015008383A1 (en) Imaging device
JP6717660B2 (en) Imaging device
JP2012015834A (en) Imaging device
JP2011250260A (en) Image processing apparatus and image processing method
WO2020195515A1 (en) Imaging device and image processing method
WO2011162155A1 (en) Image capturing device
WO2015111197A1 (en) Imaging device and vehicle-mounted imaging system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140520