JP2008157851A - Camera module - Google Patents

Camera module Download PDF

Info

Publication number
JP2008157851A
JP2008157851A JP2006349166A JP2006349166A JP2008157851A JP 2008157851 A JP2008157851 A JP 2008157851A JP 2006349166 A JP2006349166 A JP 2006349166A JP 2006349166 A JP2006349166 A JP 2006349166A JP 2008157851 A JP2008157851 A JP 2008157851A
Authority
JP
Japan
Prior art keywords
imaging
camera module
light
distance
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006349166A
Other languages
Japanese (ja)
Inventor
Takashi Ota
高志 太田
Satoshi Tamaki
悟史 玉木
Tsuguhiro Korenaga
継博 是永
Tomokuni Iijima
友邦 飯島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006349166A priority Critical patent/JP2008157851A/en
Publication of JP2008157851A publication Critical patent/JP2008157851A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Lens Barrels (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a compact, thin camera module that can measure distance to an object, aims at gaining both of daytime color reproducibility and nighttime sensitivity, and can be utilized day and night continuously without providing any mechanical mechanism for turning on/off an infrared cut filter. <P>SOLUTION: The camera module has a plurality of imaging units, having a lens 1, an optical filter 2, and an imaging region 4 having a number of pixels. The plurality of imaging units comprise: a red light imaging unit; a blue light imaging unit; a green light imaging unit; and an infrared light imaging unit. There are each two imaging units selected from the red light imaging unit, blue light imaging unit, and the green light imaging unit, and each two infrared light imaging units. The camera module has an arithmetic circuit 5 for comparing and computing image information outputted from each imaging region of the plurality of imaging units, and each lens of the plurality of imaging units is integrated. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、昼夜兼用で利用可能な、小型、薄型で、かつ対象物までの距離を測定することのできるカメラモジュールに関するものである。   The present invention relates to a camera module that can be used both day and night, is small and thin, and can measure the distance to an object.

従来、2台のカメラ、すなわちステレオカメラを用いて、対象物までの距離を視差により測定する方法では、それぞれのカメラの機械的な取付け誤差が存在する。例えば、2台のカメラの各光軸間距離や光軸間の平行度のずれはステレオ画像における視差の誤差となって現れ、それによって算出された距離は正確な距離からかけ離れた値となってしまう。そのため信頼度の高い距離情報を得るためには、高精度な取付け機構や、取付け誤差を補正するための複雑な画像処理が必要となる。例えば特許文献1には、ステレオカメラの取付け誤差を補正する方法として、一方の撮像画像平面において、距離方向に延在する互いに空間的に平行な複数の近似直線の交点から第1の消失点を算出し、同様に他方の撮像平面において、距離方向に延在する互いに平行な複数の近似直線の交点から第2の消失点を算出し、第1の消失点と第2の消失点のズレ量に基づいて誤差を補正している。具体的には、左右両側に存在する道路の白線を検出し、その白線のエッジを利用して、消失点を算出している。   Conventionally, in a method of measuring the distance to an object by parallax using two cameras, that is, stereo cameras, there is a mechanical attachment error of each camera. For example, the distance between the optical axes of two cameras and the deviation of the parallelism between the optical axes appear as parallax errors in the stereo image, and the calculated distance is a value far from the accurate distance. End up. Therefore, in order to obtain highly reliable distance information, a highly accurate mounting mechanism and complicated image processing for correcting mounting errors are required. For example, in Patent Document 1, as a method for correcting a mounting error of a stereo camera, a first vanishing point is obtained from the intersection of a plurality of approximate straight lines extending in the distance direction on one captured image plane. Similarly, in the other imaging plane, the second vanishing point is calculated from the intersection of a plurality of approximate straight lines extending in the distance direction and the amount of deviation between the first vanishing point and the second vanishing point. The error is corrected based on the above. Specifically, the white line of the road which exists in both right and left sides is detected, and the vanishing point is calculated using the edge of the white line.

一方、夜間の認識率を上げるため、1台の可視光カメラと、1台の赤外線カメラとを組み合わせて、それぞれの撮像情報を画像処理し、夜間の認識率を高くするような画像処理方法が提案されている。例えば特許文献2には、2値化された可視画像のテールランプ等の高輝度部分に対応する温度情報に基づいて赤外画像の2値化用閾値を決定し、2値化された赤外画像に基づき車両を認識している。   On the other hand, in order to increase the nighttime recognition rate, there is an image processing method in which one visible light camera and one infrared camera are combined to perform image processing on each piece of imaging information and increase the nighttime recognition rate. Proposed. For example, Patent Document 2 discloses a binarized infrared image by determining a binarization threshold value of an infrared image based on temperature information corresponding to a high-luminance portion such as a tail lamp of a binarized visible image. The vehicle is recognized based on.

近年、特に車載や監視カメラにおいては、昼間における対象物までの距離計測だけでなく、夜間における距離計測の必要性が高まっている。   In recent years, especially in a vehicle or a surveillance camera, there is an increasing need for distance measurement at night as well as distance measurement to an object in the daytime.

そのため、昼間測定用の可視光カメラ2台と夜間測定用の近赤外カメラ2台を組み合わせる距離測定システムが提案されている。
特開2003−83742号公報 特開平10−255019号公報 特開2004−12863号公報
Therefore, a distance measurement system that combines two visible light cameras for daytime measurement and two near-infrared cameras for nighttime measurement has been proposed.
JP 2003-83742 A Japanese Patent Laid-Open No. 10-255019 JP 2004-12863 A

しかしながら、ステレオ視により距離を算出する場合、可視光用、近赤外用の各2台のカメラの取付け精度を高精度化、もしくは、誤差補正のための複雑な演算処理が必要となり、レイアウト性、コストアップの要因となっている。   However, when calculating the distance by stereo vision, it is necessary to increase the mounting accuracy of the two cameras for visible light and near infrared, or to perform complicated arithmetic processing for error correction, This is a factor of cost increase.

また、特許文献3では、被写体までの距離を演算するための近赤外用の2個の測距レンズと、可視光用の撮影レンズ1個とを、同一平面上に配置したレンズモジュールを用いている。しかし、この構成では、測距レンズ群と撮影レンズとが別構成であり、あくまでも、測距レンズは自動焦点調節機能(AF)のための撮影レンズの移動量を算出するものであり、対象物の撮像は撮影レンズで行っている。したがって、測距用と撮影用とで独立した光学系が必要となり、部品点数、スペースが多く必要となり、コストアップや、カメラが大型化する問題がある。   In Patent Document 3, a lens module in which two near-infrared distance measuring lenses for calculating the distance to a subject and one visible light photographing lens are arranged on the same plane is used. Yes. However, in this configuration, the distance measuring lens group and the photographic lens are separate configurations, and the distance measuring lens only calculates the movement amount of the photographic lens for the automatic focus adjustment function (AF). The image is taken with a photographic lens. Therefore, separate optical systems are required for distance measurement and photographing, which requires a large number of parts and space, increasing costs and increasing the size of the camera.

上記課題を解決するため、本発明に係るカメラモジュールは、レンズと、光学フィルタと、多数の画素を有する撮像領域とを有する撮像ユニットを複数備えたカメラモジュールであって、前記複数の撮像ユニットは、赤色光を撮像する赤色光撮像ユニットと、青色光を撮像する青色光撮像ユニットと、緑色光を撮像する緑色光撮像ユニットと、赤外波長帯の光を撮像する赤外光撮像ユニットとを有し、前記赤色光撮像ユニット、前記青色光撮像ユニット、前記緑色光撮像ユニットのうちのいずれか一つの撮像ユニットと、前記赤外光撮像ユニットとはそれぞれ2つあり、前記複数の撮像ユニットのそれぞれの撮像領域から出力される画像情報を比較演算する演算回路を備え、前記複数の撮像ユニットのそれぞれの前記レンズが一体化されているカメラモジュールである。   In order to solve the above problems, a camera module according to the present invention is a camera module including a plurality of imaging units each having a lens, an optical filter, and an imaging region having a large number of pixels. A red light imaging unit for imaging red light, a blue light imaging unit for imaging blue light, a green light imaging unit for imaging green light, and an infrared light imaging unit for imaging light in the infrared wavelength band. Each of the red light imaging unit, the blue light imaging unit, and the green light imaging unit, and the two infrared light imaging units. An arithmetic circuit for comparing and calculating image information output from each imaging region is provided, and each of the lenses of the plurality of imaging units is integrated. It is a camera module.

本発明のカメラモジュールは、カラー画像の撮影のみならず、昼間、夜間を問わず対象物の距離測定が可能となる。また、昼間、夜間の距離測定用の演算回路を共有化することにより、システムの小型化に有利である。   The camera module of the present invention can measure the distance of an object not only for color images but also for daytime and nighttime. Also, sharing the arithmetic circuit for distance measurement during the daytime and nighttime is advantageous for downsizing of the system.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
図1は、実施の形態1のカメラモジュールの分解斜視図であり、図2はカメラモジュールの側面からみた断面図である。
(Embodiment 1)
FIG. 1 is an exploded perspective view of the camera module of Embodiment 1, and FIG. 2 is a cross-sectional view of the camera module as seen from the side.

図2において、1はレンズモジュール、2は光学フィルタモジュール、3は基板、4a〜4cは撮像領域、5はデジタルシグナルプロセッサ(DSP)等からなる演算回路である。図1の図中の矢印は被写体からの光線を意味している。図2において、6は、レンズモジュール1、光学フィルタモジュール2を支持固定し、基板3と固定を行う固定台である。   In FIG. 2, 1 is a lens module, 2 is an optical filter module, 3 is a substrate, 4a to 4c are imaging regions, and 5 is an arithmetic circuit including a digital signal processor (DSP). The arrows in the diagram of FIG. 1 mean light rays from the subject. In FIG. 2, reference numeral 6 denotes a fixing base that supports and fixes the lens module 1 and the optical filter module 2 and fixes the lens module 1 and the optical filter module 2.

図1において、レンズモジュール1は、同一平面内に1a〜1fのレンズ6個が一体で形成されている。各レンズは、光の3原色である、赤色、青色、緑色及び赤外(IR)の光に対して、要求されるMTF等の光学仕様を満足するよう個々に設計されている。レンズ1a〜1fは、ガラス、あるいはプラスチックなどで構成され、光学フィルタモジュール2を通過した対象物からの光を、各撮像領域4a〜4f上に結像させる役割を果たす。レンズ1aは緑色、1bは赤色、1cは赤外、1dは青色、1eは緑色、1fは赤外の各波長帯域に合わせた設計となっている。   In FIG. 1, the lens module 1 is formed by integrally forming six lenses 1a to 1f in the same plane. Each lens is individually designed to satisfy optical specifications such as required MTF for red, blue, green and infrared (IR) light, which are the three primary colors of light. The lenses 1a to 1f are made of glass, plastic, or the like, and serve to form an image of light from the object that has passed through the optical filter module 2 on the imaging regions 4a to 4f. The lens 1a is green, 1b is red, 1c is infrared, 1d is blue, 1e is green, and 1f is designed for each wavelength band of infrared.

光学フィルタモジュール2も、レンズモジュール1と同様、2a〜2fの光学フィルタから形成されており、対応するレンズ毎に赤色、青色、緑色及び赤外それぞれの波長帯域のみを透過するように設計されている。すなわち、2aは緑色、2bは赤色、2cは赤外、2dは青色、2eは緑色、2fは赤外の各波長帯域の光を透過させる。撮像領域4a〜4fは、CCD等の撮像センサである。上記レンズモジュール1の各レンズ1a〜1fを通過した光は、2a〜2fの各光学フィルタを透過し、赤色、青色、緑色、赤外の各波長帯域のそれぞれの光がそれぞれの撮像領域に結像する。その結果、撮像領域4aは緑色の波長帯域の光を結像し、撮像領域4bは赤色の波長帯域の光を結像し、撮像領域4cは赤外の波長帯域の光を結像し、撮像領域4dは青色の波長帯域の光を結像し、撮像領域4eは緑色の波長帯域の光を結像し、4fは赤外の波長帯域の光を結像することになる。即ち、対象物からの光を、赤色、緑色、青色、赤外の各波長帯域に分離してそれぞれ結像することになる。各撮像領域4a〜4fは、色毎に分離した光を各撮像領域上に結像し、受光した光の強度に応じて、光電変換した電気信号(図示せず)として、画像情報をそれぞれ出力する。光電変換されたそれぞれの電気信号に対して、様々な演算処理、即ち、画像処理を行う。たとえば4a、4b、4d、4eの4つの撮像領域で撮影された画像を合成してカラー画像を作成する等の画像処理を行う。これらの演算処理は、DSP5等を用いて実施される。   Similarly to the lens module 1, the optical filter module 2 is formed of optical filters 2a to 2f, and is designed to transmit only the red, blue, green, and infrared wavelength bands for each corresponding lens. Yes. That is, 2a is green, 2b is red, 2c is infrared, 2d is blue, 2e is green, and 2f transmits light in each wavelength band of infrared. The imaging areas 4a to 4f are imaging sensors such as CCDs. The light that has passed through the lenses 1a to 1f of the lens module 1 passes through the optical filters 2a to 2f, and each light in each of the red, blue, green, and infrared wavelength bands is coupled to each imaging region. Image. As a result, the imaging area 4a forms an image of light in the green wavelength band, the imaging area 4b forms an image of light in the red wavelength band, and the imaging area 4c forms an image of light in the infrared wavelength band. The region 4d forms an image of light in the blue wavelength band, the imaging region 4e forms an image of light in the green wavelength band, and 4f forms an image of light in the infrared wavelength band. That is, the light from the object is separated into the red, green, blue, and infrared wavelength bands to form images. Each of the imaging regions 4a to 4f forms an image of light separated for each color on each imaging region, and outputs image information as an electrical signal (not shown) photoelectrically converted according to the intensity of the received light. To do. Various arithmetic processing, that is, image processing, is performed on each photoelectrically converted electric signal. For example, image processing such as creating a color image by combining images captured in four imaging regions 4a, 4b, 4d, and 4e is performed. These arithmetic processes are performed using the DSP 5 or the like.

なお、1つのレンズと、それに対応する光学フィルタ、撮像領域からなる一組の撮像単位を撮像ユニットと定義する。   A set of imaging units including one lens, an optical filter corresponding to the lens, and an imaging region is defined as an imaging unit.

以上のように構成されたカメラモジュールにおいて、昼間においては、被写体からの緑色の光はレンズ1a、1e、光学フィルタ2a、2eをそれぞれ透過し、撮像領域4a、4eにそれぞれ結像する。撮像領域4a、4eで撮像される画像は同じ緑色であるため、視差の分だけずれた画像となる。したがって、それぞれ光電変換した結果得られる電気信号、即ち画像情報を演算処理することによって、各撮像ユニット間の視差を算出し、視差から対象物までの距離が演算できる。   In the camera module configured as described above, in the daytime, green light from the subject passes through the lenses 1a and 1e and the optical filters 2a and 2e, respectively, and forms images on the imaging regions 4a and 4e, respectively. Since the images picked up in the image pickup areas 4a and 4e are the same green, the images are shifted by the amount of parallax. Accordingly, by calculating the electrical signal obtained as a result of the photoelectric conversion, that is, image information, the parallax between the imaging units can be calculated, and the distance from the parallax to the object can be calculated.

同様に夜間においては、赤外光源で被写体を照明すると、被写体からの赤外光はレンズ1c、1f、光学フィルタ2c、2fをそれぞれ透過し、撮像領域4c、4fでそれぞれ結像する。撮像領域4c、4fで撮像される画像は同じ赤外光の画像情報であるため、視差の分だけずれた画像となる。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   Similarly, at night, when an object is illuminated with an infrared light source, infrared light from the object passes through the lenses 1c and 1f and the optical filters 2c and 2f, respectively, and forms images in the imaging regions 4c and 4f, respectively. Since the images captured in the imaging regions 4c and 4f are the same infrared light image information, the images are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

図4を用いて測定原理について説明する。撮像領域(撮像面)4aの画像を基準画像とする。撮像領域4aをある特定のブロックに分割し、たとえば、8×8画素のブロック毎に分割する。そして、4aのあるブロックと相関を有する領域を他方の撮像領域4eの画像において探索し特定する。そしてこの画素ブロックの視差、すなわち画素ブロックの相対的なズレ量すなわち視差に基づき対象物までの距離を算出する。   The measurement principle will be described with reference to FIG. The image of the imaging region (imaging surface) 4a is set as a reference image. The imaging area 4a is divided into specific blocks, for example, divided into blocks each having 8 × 8 pixels. Then, an area having a correlation with a certain block 4a is searched and specified in the image of the other imaging area 4e. Then, the distance to the object is calculated based on the parallax of the pixel block, that is, the relative shift amount of the pixel block, that is, the parallax.

図5は、本実施の形態におけるカメラモジュールの各ユニットの配置図を示す。   FIG. 5 shows a layout of each unit of the camera module in the present embodiment.

昼間時について、図4において、対象物までの距離をDとし、レンズ1а、1eは同一レンズであり、その焦点距離をfとし、レンズ1a、1eのレンズ間距離をLとし、そして、視差をΔaとすると、対象物までの距離は(数1)を用いて求めることができる。   In the daytime, in FIG. 4, the distance to the object is D, the lenses 1a and 1e are the same lens, the focal distance is f, the distance between the lenses 1a and 1e is L, and the parallax is Assuming Δa, the distance to the object can be obtained using (Equation 1).

Figure 2008157851
Figure 2008157851

上記構成においては、レンズ1a、1eはレンズモジュールとして一体的に形成されているため、レンズ間の距離は、2台のカメラを用いて組み立てた場合に比べてはるかに高精度、かつ安定にレンズ間距離を保持することができ、高精度に対象物までの距離を演算で求めることができる。   In the above configuration, since the lenses 1a and 1e are integrally formed as a lens module, the distance between the lenses is much higher accuracy and more stable than when assembled using two cameras. The distance between the objects can be maintained, and the distance to the object can be obtained with high accuracy.

昼間においては赤、緑、青色の波長帯域の光が対象物からカメラモジュールに入射するため、例えば、4a、4b、4dの撮像領域から得られた映像信号を、視差を考慮して合成することで、1枚のカラー画像を得ることも同時に可能となる。緑色の撮像領域4a、4eの画像情報より、基準画像4aに対する4eの相対的なズレ量から、赤、青色のそれぞれの画像の基準画像4aに対するズレ量を算出し、算出結果に基づき赤、青色の画像を補正し、基準画像4aと合成することで、視差補正をした後、色ずれのないカラー画像を得ることができる。   Since light in the red, green, and blue wavelength bands is incident on the camera module from the object during the daytime, for example, video signals obtained from the imaging areas 4a, 4b, and 4d are combined in consideration of parallax. Thus, it is possible to obtain one color image at the same time. Based on the image information of the green imaging regions 4a and 4e, the amount of displacement of the red and blue images with respect to the reference image 4a is calculated from the amount of relative displacement of 4e with respect to the reference image 4a. By correcting the image and synthesizing it with the reference image 4a, it is possible to obtain a color image without color misregistration after performing parallax correction.

また、カラー画像を用いて、形状認識を実施する場合、赤、緑、青色の波長成分より、輝度、色相、彩度の3成分を抽出することが可能となり、幾何的に連結したひとつの領域は色が似ていることより、色情報を特徴量とすることができ、白黒画像に比べて形状認識精度も格段に向上することが可能となる。   In addition, when shape recognition is performed using color images, it is possible to extract three components of luminance, hue, and saturation from the red, green, and blue wavelength components, and one geometrically connected region Since the colors are similar, color information can be used as a feature amount, and the shape recognition accuracy can be remarkably improved as compared with a monochrome image.

また、夜間時における距離の測定原理についても、基本的には昼間時と同様である。すなわち、レンズ1c、1fが同一レンズであり、その焦点距離をfとし、レンズ1c、1fのレンズ間距離はL/√2とし、距離がDの対象物を見る場合、視差Δbは(数2)により求められる。なお、夜間においては、赤外波長の光源を設けて対象物を照らことが好ましい。   The distance measurement principle at night is basically the same as that at daytime. That is, when the lenses 1c and 1f are the same lens, the focal length is f, the distance between the lenses 1c and 1f is L / √2, and the object whose distance is D is viewed, the parallax Δb is expressed by ). At night, it is preferable to provide an infrared light source to illuminate the object.

Figure 2008157851
Figure 2008157851

距離Dにある対象物はレンズ1a、1eの比較ではΔaの視差分だけずれ、レンズ1c、1fの比較ではΔa/√2の視差分だけずれている。   The object at the distance D is shifted by a parallax of Δa in the comparison of the lenses 1a and 1e, and is shifted by a parallax of Δa / √2 in the comparison of the lenses 1c and 1f.

その一方で撮像領域の単位ピクセルをpとした場合、71a、71b方向の画素のピッチはそれぞれ√2p、pとなる。   On the other hand, when the unit pixel in the imaging region is p, the pixel pitches in the 71a and 71b directions are √2p and p, respectively.

すなわち、レンズ1a、1eでは視差量は大きいが、視差が生じる方向(ここでは71a)の画素ピッチも粗くなる。   That is, although the amount of parallax is large in the lenses 1a and 1e, the pixel pitch in the direction in which the parallax is generated (here, 71a) is also coarse.

(数1)より対象物の距離Dが大きくなるほど視差は小さくなる。したがって、細かい視差まで読み取れるほど、遠くの対象物の距離測定が可能となる。   The parallax decreases as the distance D of the object increases from (Equation 1). Therefore, the distance measurement of a distant object becomes possible as fine parallax can be read.

各画素を直接比較して視差の読み取りを行う場合、71a、71b方向の画素のピッチはそれぞれ√2p、pであり、距離Dにある対象物はレンズ1a、1eの比較ではΔaの視差分だけずれ、レンズ1c、1fの比較ではΔa/√2の視差分だけずれているので、71a、71b方向の画素のピッチに相当する視差を持つ対象物の距離はまったく同じになる。   When the parallax is read by directly comparing each pixel, the pitches of the pixels in the 71a and 71b directions are √2p and p, respectively, and the object at the distance D is the amount of parallax of Δa in the comparison of the lenses 1a and 1e. In the comparison between the lenses 1c and 1f, the distances of the objects having the parallax corresponding to the pitch of the pixels in the directions of 71a and 71b are exactly the same because they are shifted by the amount of parallax of Δa / √2.

また、夜間においては赤外の波長帯域に感度を有しているため、例えば、撮像領域4cから得られた画像情報を用いて1枚の白黒画像を得ることも同時に可能となる。   In addition, since it has sensitivity in the infrared wavelength band at night, for example, it is possible to simultaneously obtain a single monochrome image using image information obtained from the imaging region 4c.

そして、レンズ1a、1e、あるいは1c、1fはレンズモジュールとして一体的に形成されているため、レンズ間の距離は、2台のカメラを用いて組み立てた場合に比べてはるかに高精度にレンズ間距離を確保することができ、高精度に対象物までの距離を演算で求めることができる。   Since the lenses 1a, 1e, or 1c, 1f are integrally formed as a lens module, the distance between the lenses is much higher than that when assembled using two cameras. The distance can be ensured, and the distance to the object can be obtained by calculation with high accuracy.

ここで、3原色の各色フィルタはそのまま用いても構わないが、好ましくは、当該3原色の色フィルタは、必ずしも1枚のフィルタである必要はなく、赤外光を遮断する特性を有していることが望ましい。例えば、3原色の色フィルタと赤外カットフィルタとを重ねて配置してもよいし、RGBの各分光特性に赤外カットフィルタの分光特性を掛け合わせた特性を有する色フィルタを構成し、これを配置するようにしても良い。   Here, the three primary color filters may be used as they are, but preferably the three primary color filters do not necessarily have to be a single filter, and have a characteristic of blocking infrared light. It is desirable. For example, a color filter having three primary colors and an infrared cut filter may be arranged to overlap each other, or a color filter having characteristics obtained by multiplying each of the RGB spectral characteristics by the spectral characteristics of the infrared cut filter may be configured. May be arranged.

本カメラモジュールでは昼間と、夜間では動作モードの変更を行う。   This camera module changes the operation mode during the day and at night.

第1のモードでは、可視光の光電変換信号、すなわち、RGBの色フィルタ(赤外カットフィルタの分光特性が掛け合わされたもの)が配置された撮像領域の情報を主に利用して測距演算を行う。ここで言う「主に利用する」とは、Gフィルタが配置された撮像領域からの信号出力が、赤外フィルタが配置された撮像領域からの信号出力よりも大きいことを意味する。この第1のモードはカラー画像に適しており、昼間時に利用するモードである。   In the first mode, a distance measurement calculation is performed mainly using information of an imaging region where a photoelectric conversion signal of visible light, that is, an RGB color filter (multiplied by spectral characteristics of an infrared cut filter) is arranged. I do. Here, “mainly used” means that the signal output from the imaging region in which the G filter is arranged is larger than the signal output from the imaging region in which the infrared filter is arranged. This first mode is suitable for color images and is a mode used at daytime.

一方、第2のモードでは、赤外光の光電変換信号、すなわち、IRフィルタが配置された撮像領域の情報を主に利用して測距演算を行う。ここで言う「主に利用する」とは、IRフィルタが配置された撮像領域からの信号出力が、緑フィルタが配置された撮像領域からの信号出力よりも大きいことを意味する。この第2のモードは感度が高く、夜間時に利用するモードである。   On the other hand, in the second mode, the distance measurement calculation is performed mainly using the photoelectric conversion signal of infrared light, that is, the information of the imaging region where the IR filter is arranged. Here, “mainly used” means that the signal output from the imaging region in which the IR filter is arranged is larger than the signal output from the imaging region in which the green filter is arranged. This second mode has a high sensitivity and is used at night.

以上詳しく説明したように、本実施の形態によれば、昼間などの比較的明るいときは第1のモードで、夜間などの比較的暗いときは第2のモードで画像生成と対象物の距離測定を行い、昼間のカラー画像の色再現性向上と夜間の感度向上との両立を図ることができる。   As described above in detail, according to the present embodiment, image generation and object distance measurement are performed in the first mode when it is relatively bright such as daytime, and in the second mode when it is relatively dark such as at night. To improve both daytime color image color reproducibility and nighttime sensitivity.

また、本実施の形態では、光学フィルタ2のフィルタ配列を工夫し、RGBGの4つの撮像領域に対してのみ赤外カットフィルタをかけ、IRの2撮像領域には赤外カットフィルタはかけないようにしている。そして、第1のモードと第2のモードの切り替えを撮像領域からの電気信号に基づいてソフトウェア的に決めているので、赤外カットフィルタをON/OFFするための機械的な機構を設ける必要がなく、撮像装置の小型軽量化、コストダウン、信頼性の向上を図ることができる。   Further, in the present embodiment, the filter arrangement of the optical filter 2 is devised so that the infrared cut filter is applied only to the four RGBG imaging regions, and the infrared cut filter is not applied to the two IR imaging regions. I have to. Since switching between the first mode and the second mode is determined by software based on the electrical signal from the imaging region, it is necessary to provide a mechanical mechanism for turning on / off the infrared cut filter. Therefore, it is possible to reduce the size and weight of the imaging device, reduce costs, and improve reliability.

また、上記実施の形態では、各撮像領域の信号出力からモードの切り替えを行ったが、可視光の照度を検出するための専用の受光素子を設けても良い。   In the above embodiment, the mode is switched from the signal output of each imaging region. However, a dedicated light receiving element for detecting the illuminance of visible light may be provided.

そして、第2のモードにおいて、被写体に赤外光を照射して撮影を行うことにより、いままで撮影できなかったより暗い被写体の撮影(例えば、真っ暗闇での撮影)も可能となる。上記実施の形態ではレンズモジュール1を図1のように構成したが、これらの構成要素に加えて、赤外照明用の発光素子(赤外発光LEDなど)を更に備えるようにしても良い。   Then, in the second mode, by irradiating the subject with infrared light and taking a picture, it becomes possible to take a picture of a darker subject (for example, photography in the darkness) that could not be photographed until now. In the above embodiment, the lens module 1 is configured as shown in FIG. 1, but in addition to these components, a light emitting element for infrared illumination (such as an infrared light emitting LED) may be further provided.

また、上記実施の形態では、本実施の形態のカメラモジュールはデジタルカメラに限定されない。例えば、デジタルビデオカメラ、カメラ付き携帯電話機、監視カメラ、カメラ付きPDA(Personal Digital Assistant)などにも適用することが可能である。これらの端末は、昼間の明るい被写体から夜間の暗い対象物を撮影する機会が多いので、本実施の形態を適用して好適なものである。   Moreover, in the said embodiment, the camera module of this Embodiment is not limited to a digital camera. For example, the present invention can also be applied to a digital video camera, a mobile phone with a camera, a surveillance camera, a PDA (Personal Digital Assistant) with a camera, and the like. These terminals are suitable for applying this embodiment because there are many opportunities to shoot dark objects at night from bright subjects in the daytime.

また、以上に説明した撮像領域4は、光電変換信号の読み出し方式としてプログレッシブ方式(全画素読み出し方式)およびフレーム読み出し方式の双方に適用することが可能である。   Further, the imaging region 4 described above can be applied to both the progressive method (all-pixel reading method) and the frame reading method as the photoelectric conversion signal reading method.

(実施の形態2)
図6は、実施の形態2のカメラモジュールのユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図6の9aと9eは赤外領域の波長のユニット、9bと9dは緑色の波長を撮像するユニット、9cは青色、9fは赤色の波長をそれぞれ撮像するユニットである。
(Embodiment 2)
FIG. 6 is a layout diagram of units of the camera module according to the second embodiment. Note that description and description similar to those of the first embodiment are omitted. In FIG. 6, 9a and 9e are infrared wavelength units, 9b and 9d are green wavelength imaging units, 9c is blue, and 9f is red wavelength imaging units.

昼間においては、図1において、被写体からの緑色の光線はレンズ1b、1d、光学フィルタ2b、2dをそれぞれ透過し、撮像領域4b、4dでそれぞれ結像する。撮像領域4b、4dで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   In the daytime, in FIG. 1, green light rays from the subject are transmitted through the lenses 1b and 1d and the optical filters 2b and 2d, respectively, and are imaged in the imaging regions 4b and 4d, respectively. Since the images picked up in the image pickup regions 4b and 4d are the same green, they are images that are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

同様に夜間においては、図1において、別途、赤外光源で対象物を照明した場合、対象物からの赤外光線はレンズ1a、1e、光学フィルタ2a、2eをそれぞれ透過し、撮像領域4a、4eでそれぞれ結像する。撮像領域4a、4eで撮像される画像は同じ赤外の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   Similarly, at night, in FIG. 1, when an object is separately illuminated with an infrared light source, infrared rays from the object pass through the lenses 1a and 1e and the optical filters 2a and 2e, respectively, and the imaging regions 4a and Each image is formed at 4e. Since the images picked up in the image pickup areas 4a and 4e are the same infrared image, the images are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

また、2つの赤外光を撮像するユニットおよび2つの緑色光を撮像するユニットはそれぞれ斜め方向に配置している為、縦線、横線のいずれか一方の模様や外形がある場合でも、両方の対象物の検知が可能である。   In addition, since the unit for capturing two infrared light and the unit for capturing two green light are arranged in an oblique direction, both of the vertical line and the horizontal line have a pattern or an outer shape. The object can be detected.

なお、各ユニットの撮像領域は、複数の撮像領域を用いるよりも一つの撮像領域から分割して構成したほうが、対象物の距離測定の精度、測定安定性が向上し望ましい。   Note that it is desirable that the imaging area of each unit be divided from one imaging area, rather than using a plurality of imaging areas, because the accuracy and measurement stability of the object distance measurement are improved.

(実施の形態3)
図7は、実施の形態3のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図7の10aと10fは赤外領域の波長のユニット、10cと10dは緑色の波長を撮像するユニット、10bは青色、10eは赤色の波長をそれぞれ撮像するユニットである。
(Embodiment 3)
FIG. 7 is a layout diagram of units of the camera module according to the third embodiment. Note that description and description similar to those of the first embodiment are omitted. In FIG. 7, 10a and 10f are infrared wavelength units, 10c and 10d are green wavelength imaging units, 10b is blue, and 10e is red wavelength imaging units.

昼間においては、図1において、被写体からの緑色の光線はレンズ1c、1d、光学フィルタ2c、2dをそれぞれ透過し、撮像領域4c、4dでそれぞれ結像する。撮像領域4c、4dで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   In the daytime, in FIG. 1, green light rays from the subject are transmitted through the lenses 1c and 1d and the optical filters 2c and 2d, respectively, and are imaged in the imaging regions 4c and 4d, respectively. Since the images picked up in the image pickup regions 4c and 4d are the same green, they are images that are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

同様に夜間においては、図1において別途、赤外光源で被写体を照明した場合、被写体からの赤外光線はレンズ1a、1f、光学フィルタ2a、2fをそれぞれ透過し、撮像領域4a、4fでそれぞれ結像する。撮像領域4a、4fで撮像される画像は同じ赤外の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   Similarly, at night, when the subject is illuminated separately with an infrared light source in FIG. 1, infrared rays from the subject pass through the lenses 1a and 1f and the optical filters 2a and 2f, respectively, and respectively in the imaging regions 4a and 4f. Form an image. Since the images captured in the imaging regions 4a and 4f are the same infrared image, the images are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

また、2つの赤外光を撮像するユニットおよび2つの緑色光を撮像するユニットはそれぞれ斜め方向に配置している為、縦線、横線のいずれか一方の模様や外形がある場合でも、両方の対象物の検知が可能である。   In addition, since the unit for capturing two infrared light and the unit for capturing two green light are arranged in an oblique direction, both of the vertical line and the horizontal line have a pattern or an outer shape. The object can be detected.

(実施の形態4)
図8は、実施の形態4のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図8の11aと11cは赤外領域の波長のユニット、11dと11fは緑色の波長を撮像するユニット、11bは青色、11eは赤色の波長をそれぞれ撮像するユニットである。
(Embodiment 4)
FIG. 8 is a layout diagram of units of the camera module according to the fourth embodiment. Note that description and description similar to those of the first embodiment are omitted. In FIG. 8, 11a and 11c are infrared wavelength units, 11d and 11f are green wavelength imaging units, 11b is blue, and 11e is red wavelength imaging units.

昼間においては、図1において、被写体からの緑色の光線はレンズ1d、1f、光学フィルタ2d、2fをそれぞれ透過し、撮像領域4d、4fでそれぞれ結像する。撮像領域4d、4fで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   In the daytime, in FIG. 1, green light rays from the subject are transmitted through the lenses 1d and 1f and the optical filters 2d and 2f, respectively, and are imaged in the imaging regions 4d and 4f, respectively. Since the images picked up in the image pickup regions 4d and 4f are the same green, they are images that are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

同様に夜間においては、図1において、別途、赤外光源で被写体を照明した場合、被写体からの赤外光線はレンズ1a、1c、光学フィルタ2a、2cをそれぞれ透過し、撮像領域4a、4cでそれぞれ結像する。撮像領域4a、4cで撮像される画像は同じ赤外の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   Similarly, at night, when the subject is separately illuminated with an infrared light source in FIG. 1, infrared rays from the subject pass through the lenses 1a and 1c and the optical filters 2a and 2c, respectively, and in the imaging regions 4a and 4c. Each forms an image. Since the images picked up in the image pickup regions 4a and 4c are the same infrared image, the images are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

また、昼夜それぞれの波長帯域で視差検出を行うので測定分解能も向上する。   In addition, since the parallax detection is performed in the day and night wavelength bands, the measurement resolution is also improved.

例えば3フィールドのインターレース型の撮像素子を用いる場合、撮像領域の横方向に第1の走査線、第2の走査線、第3の走査線、第1の走査線・・・の順で配列しておき、第1の時間フィールドでは第1の各走査線上の画素情報を一度に読み出し、第2の時間フィールドでは第2の各走査線上の画素情報を一度に読み出し、第3の時間フィールドでは第3の各走査線上の画素情報を一度に読み出す。   For example, when a three-field interlaced image sensor is used, the first scanning line, the second scanning line, the third scanning line, the first scanning line,... The pixel information on each first scanning line is read at a time in the first time field, the pixel information on each second scanning line is read at a time in the second time field, and the pixel information on each second scanning line is read in the third time field. The pixel information on each scanning line 3 is read at a time.

本実施の形態では、11aと11cは赤外領域の波長のユニット、11dと11fは緑色の波長を撮像するユニットはそれぞれ走査線と平行に配置しているため、第1〜第3の全時間フィールドの画素情報は必要なく、第1の時間フィールドだけで視差検出ができる。   In the present embodiment, 11a and 11c are infrared wavelength units, and 11d and 11f are green wavelength imaging units, which are arranged in parallel with the scanning line, respectively, so that the first to third total time The pixel information of the field is not necessary, and the parallax can be detected only by the first time field.

このため、距離測定の演算処理に必要な画素情報データが少なくすむために、距離検出時間が短縮でき、応答性の向上や、演算回路規模の縮小が可能であるとともに、同じフィールドの画素情報を比較するために、動きの激しい対象物であっても、時間差による被写体像のずれが起こりにくく、距離測定精度の低下が防げるという特長を有する。   For this reason, since the pixel information data required for the calculation processing of the distance measurement is reduced, the distance detection time can be shortened, the responsiveness can be improved, the arithmetic circuit scale can be reduced, and the pixel information of the same field can be compared. Therefore, even if the object moves rapidly, the subject image is not easily displaced due to the time difference, and the distance measurement accuracy can be prevented from being lowered.

(実施の形態5)
図9は、実施の形態5のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図9の12dと12eは赤外領域の波長のユニット、12bと12cは緑色の波長を撮像するユニット、12aは青色、12fは赤色の波長をそれぞれ撮像するユニットである。
(Embodiment 5)
FIG. 9 is a layout diagram of units of the camera module according to the fifth embodiment. Note that description and description similar to those of the first embodiment are omitted. In FIG. 9, 12d and 12e are infrared wavelength units, 12b and 12c are green wavelength imaging units, 12a is blue, and 12f is red wavelength imaging units.

昼間においては、図1において、対象物からの緑色の光線はレンズ1b、1c、光学フィルタ2b、2cをそれぞれ透過し、撮像領域4b、4cでそれぞれ結像する。撮像領域4b、4cで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   In the daytime, in FIG. 1, green light from the object passes through the lenses 1b and 1c and the optical filters 2b and 2c, respectively, and forms images in the imaging regions 4b and 4c, respectively. Since the images picked up in the image pickup regions 4b and 4c are the same green, they are images that are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

同様に夜間においては、図1において、別途、赤外光源で被写体を照明した場合、被写体からの赤外光線はレンズ1d、1e、光学フィルタ2d、2eをそれぞれ透過し、撮像領域4d、4eでそれぞれ結像する。撮像領域4d、4eで撮像される画像は同じ赤外光の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   Similarly, at night, when the subject is separately illuminated with an infrared light source in FIG. 1, infrared rays from the subject are transmitted through the lenses 1d and 1e and the optical filters 2d and 2e, respectively, and in the imaging regions 4d and 4e. Each forms an image. Since the images captured in the imaging regions 4d and 4e are the same infrared light image, the images are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

例えば3フィールドのインターレース型の撮像素子を用いる場合、撮像領域の横方向に第1の走査線、第2の走査線、第3の走査線、第1の走査線・・・の順で配列しておき、第1の時間フィールドでは第1の各走査線上の画素情報を一度に読み出し、第2の時間フィールドでは第2の各走査線上の画素情報を一度に読み出し、第3の時間フィールドでは第3の各走査線上の画素情報を一度に読み出す。   For example, when a three-field interlaced image sensor is used, the first scanning line, the second scanning line, the third scanning line, the first scanning line,... The pixel information on each first scanning line is read at a time in the first time field, the pixel information on each second scanning line is read at a time in the second time field, and the pixel information on each second scanning line is read in the third time field. The pixel information on each scanning line 3 is read at a time.

本実施の形態では12dと12eは赤外領域の波長のユニット、12bと12cは緑色の波長を撮像するユニットはそれぞれ走査線と平行に配置しているため、第1〜第3の全時間フィールドの画素情報は必要なく、第1の時間フィールドだけで視差検出ができる。   In the present embodiment, 12d and 12e are infrared wavelength units, and 12b and 12c are green wavelength imaging units, which are arranged in parallel with the scanning line. This pixel information is not necessary, and the parallax can be detected only in the first time field.

このため、距離測定の演算処理に必要な画素情報データが少なくすむために、距離検出時間が短縮でき、応答性の向上や、演算回路規模の縮小が可能であるとともに、同じフィールドの画素情報を比較するために、動きの激しい対象物であっても、時間差による被写体像のずれが起こりにくく、距離測定精度の低下が防げるという特長を有する。   For this reason, since the pixel information data required for the calculation processing of the distance measurement is reduced, the distance detection time can be shortened, the responsiveness can be improved, the arithmetic circuit scale can be reduced, and the pixel information of the same field can be compared. Therefore, even if the object moves rapidly, the subject image is not easily displaced due to the time difference, and the distance measurement accuracy can be prevented from being lowered.

(実施の形態6)
CCD等の撮像素子を通して得られる画像の各画素からの出力は、受光面すなわち光センサに入射する照度で決定される。このとき受光面は面積を持っているので、CCDの1画素に入射した光の画素値は、受光面の各点における光の強さを積分した値となる。図10においてハッチングを施した領域が1画素の領域となる。また、画素の中心間距離が画素ピッチとなる。
(Embodiment 6)
The output from each pixel of an image obtained through an image sensor such as a CCD is determined by the illuminance incident on the light receiving surface, that is, the optical sensor. At this time, since the light receiving surface has an area, the pixel value of the light incident on one pixel of the CCD is a value obtained by integrating the light intensity at each point on the light receiving surface. In FIG. 10, the hatched area is an area of one pixel. The distance between the centers of the pixels is the pixel pitch.

実施の形態1で説明してきた三角測量法を用いて被写体までの距離を測定する方法では、2つの画像から得られる相対的なズレ量を、上述したような、CCDの1画素から出力される輝度値を用いて演算していることになる。すなわち、1画素内に異なる距離情報等をもつ画像を撮像しているが、実際には、各点の情報を平均化した1画素の情報を用いて処理していることになる。   In the method of measuring the distance to the subject using the triangulation method described in the first embodiment, the relative shift amount obtained from the two images is output from one pixel of the CCD as described above. The calculation is performed using the luminance value. That is, an image having different distance information or the like is captured within one pixel, but in reality, processing is performed using information of one pixel obtained by averaging the information of each point.

そこで、各画素の情報だけではなく、画素間の輝度情報を求めることができれば、対象物までの距離の測定精度を上げることが可能となることがわかる。その場合、レンズ間距離を短く保ったままで、被写体までの距離を測定する際、より遠くの距離まで精度よく測定することが可能となることがわかる。   Therefore, it can be understood that if not only the information of each pixel but also the luminance information between the pixels can be obtained, the measurement accuracy of the distance to the object can be increased. In this case, it can be seen that when measuring the distance to the subject while keeping the distance between the lenses short, it is possible to accurately measure farther distances.

そこで、図11(a)に示すように、1画素よりも小さい領域(これをサブピクセルとよぶ)を設定する。この場合、1画素は5×5のサブピクセルの集合で構成されることになる。図11(a)において、実線で囲まれた領域が1画素、点線で囲まれた領域がサブピクセルである。一つのサブピクセルはハッチングを施した領域となる。   Therefore, as shown in FIG. 11A, an area smaller than one pixel (referred to as a sub-pixel) is set. In this case, one pixel is composed of a set of 5 × 5 subpixels. In FIG. 11A, a region surrounded by a solid line is one pixel, and a region surrounded by a dotted line is a subpixel. One subpixel is a hatched area.

対象物までの距離を測定する際、実施の形態1での説明と同様に、基準画像となる4aのあるブロックと相関を有する領域を他方4eの画像において探索し特定する際に、1画素単位で相関をとるのではなく、前述のサブピクセル単位で相関をとることで、対象物までの距離の測定精度を上げることが可能となる。また、レンズ間距離を短く保ったままで、対象物までの距離を測定する際、近くの距離から、より遠くの距離まで精度よく測定することが可能となる。実施の形態1で説明した例では1画素ピッチで視差を測定し距離を算出した。その場合、1ピクセルのズレ量である約20cm以上はなれた対象物の距離算出ができなくなる。その一方で、1画素を1/5のブロックのサブピクセル化することで、その被写体までの距離は約10mまで測定が可能となる。サブピクセルの画素値を求める方法として、撮像領域の1画素より出力される画素値から、線形補間により内挿して求める方法がある。   When measuring the distance to the object, in the same manner as described in the first embodiment, when searching for and specifying a region having a correlation with a block with 4a serving as a reference image in the other 4e image, one pixel unit It is possible to improve the measurement accuracy of the distance to the target object by taking the correlation in units of the sub-pixels described above instead of taking the correlation in step. Further, when measuring the distance to the object while keeping the distance between the lenses short, it is possible to accurately measure from a near distance to a far distance. In the example described in the first embodiment, the distance is calculated by measuring the parallax at one pixel pitch. In that case, it becomes impossible to calculate the distance of an object that is more than about 20 cm, which is a displacement amount of one pixel. On the other hand, by making one pixel into a sub-pixel of 1/5 block, the distance to the subject can be measured up to about 10 m. As a method for obtaining the pixel value of the sub-pixel, there is a method of obtaining the value by interpolating by linear interpolation from the pixel value output from one pixel in the imaging region.

図11(b)で2×2のサブピクセルに分割した例で説明する。   An example in which the pixel is divided into 2 × 2 subpixels will be described with reference to FIG.

1画素より出力される画素値は画素の中心位置にあるとし、サブピクセルより出力される画素値もその画素の中心位置にあると表現し、1画素の各画素値をそれぞれ、P(i、j)、P(i,j)、P(i,j)、P(i,j)とし、求めたいサブピクセルの画素値をP、各画素値からサブピクセルの画素値までの距離をそれぞれa1、a2、b1、b2とすると、算出したいサブピクセルの画素値Pは(数3)で求めることができる。   The pixel value output from one pixel is assumed to be at the center position of the pixel, and the pixel value output from the sub-pixel is also expressed to be at the center position of the pixel, and each pixel value of one pixel is represented by P (i, j), P (i, j), P (i, j), P (i, j), the pixel value of the subpixel to be obtained is P, and the distance from each pixel value to the pixel value of the subpixel is a1 , A2, b1, and b2, the pixel value P of the subpixel to be calculated can be obtained by (Equation 3).

Figure 2008157851
Figure 2008157851

なお、サブピクセルの画素値を求める際に、サブピクセル内のエッジの有無を検出し、近接するサブピクセルの画素値を用いて補間する方法や、線形補間とエッジ検出とを組み合わせて補間する等して求めることができる。また、本実施の形態では、2×2、5×5のサブピクセルに分割した事例を説明したが、必要な精度等により、分割数を決定すればよい。   When obtaining the pixel value of a subpixel, a method of detecting the presence or absence of an edge in the subpixel and interpolating using the pixel values of adjacent subpixels, interpolating by combining linear interpolation and edge detection, etc. Can be obtained. In this embodiment, an example in which the pixel is divided into 2 × 2, 5 × 5 subpixels has been described. However, the number of divisions may be determined based on necessary accuracy or the like.

(実施の形態7)
図12は、実施の形態7のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図12の13bと13eは赤外領域の波長のユニット、13aと13fは緑色の波長を撮像するユニット、13cは青色、13dは赤色の波長をそれぞれ撮像するユニットである。
(Embodiment 7)
FIG. 12 is a layout diagram of units of the camera module according to the seventh embodiment. Note that description and description similar to those of the first embodiment are omitted. In FIG. 12, 13b and 13e are infrared wavelength units, 13a and 13f are green wavelength imaging units, 13c is blue, and 13d is red wavelength imaging units.

昼間においては、図1において、対象物からの緑色の光線はレンズ1a、1f、光学フィルタ2a、2fをそれぞれ透過し、撮像領域4a、4fでそれぞれ結像する。撮像領域4a、4fで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   In the daytime, in FIG. 1, green light from the object passes through the lenses 1a and 1f and the optical filters 2a and 2f, respectively, and forms images in the imaging regions 4a and 4f, respectively. Since the images picked up in the image pickup areas 4a and 4f are the same green color, the images are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

同様に夜間においては、図1において、別途、赤外光源で対象物を照明した場合、対象物からの赤外光線はレンズ1b、1e、光学フィルタ2b、2eをそれぞれ透過し、撮像領域4b、4eでそれぞれ結像する。撮像領域4b、4eで撮像される画像は同じ赤外の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   Similarly, at night, in FIG. 1, when an object is separately illuminated with an infrared light source, infrared rays from the object pass through the lenses 1b and 1e and the optical filters 2b and 2e, respectively, and the imaging region 4b, Each image is formed at 4e. Since the images picked up in the image pickup areas 4b and 4e are the same infrared image, the images are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

また、図4において、距離Dにある対象物はレンズ1a、1fの比較ではΔcの視差分だけずれ、レンズ1a、1fの比較ではΔc/√5の視差分だけずれている。   Further, in FIG. 4, the object at the distance D is shifted by a parallax of Δc in the comparison of the lenses 1a and 1f, and is shifted by a parallax of Δc / √5 in the comparison of the lenses 1a and 1f.

その一方で撮像領域の単位ピクセルをpとした場合、71b、71c方向の画素のピッチはそれぞれ√5p、pとなる。   On the other hand, when the unit pixel of the imaging region is p, the pitches of the pixels in the directions 71b and 71c are √5p and p, respectively.

すなわち、レンズ1a、1fでは視差量は大きいが、視差が生じる方向(ここでは71c)の画素ピッチも粗くなる。   That is, although the amount of parallax is large in the lenses 1a and 1f, the pixel pitch in the direction in which the parallax occurs (here 71c) also becomes coarse.

(数1)より対象物の距離Dが大きくなるほど視差は小さくなる。細かい視差まで読み取れるほど、遠くの対象物の距離測定が可能となる。   The parallax decreases as the distance D of the object increases from (Equation 1). The distance to a distant object can be measured as fine parallax can be read.

各画素を直接比較して視差の読み取りを行う場合、71b、71c方向の画素のピッチはそれぞれp、√5pであり、距離Dにある対象物はレンズ1a、1cの比較ではΔaの視差分だけずれ、レンズ1a、1fの比較ではΔc/√5の視差分だけずれているので、71b、61c方向の画素のピッチに相当する視差を持つ対象物の距離はまったく同じになり検知には有効である。   When the parallax is read by directly comparing each pixel, the pitches of the pixels in the directions 71b and 71c are p and √5p, respectively, and the object at the distance D is only the amount of parallax of Δa in the comparison of the lenses 1a and 1c. In the comparison between the lenses 1a and 1f, the distance is shifted by the amount of parallax of Δc / √5. Therefore, the distance between the objects having the parallax corresponding to the pitch of the pixels in the 71b and 61c directions is exactly the same, which is effective for detection. is there.

対象物までの距離を測定する際、実施の形態1での説明と同様に、基準画像となるブロックと相関を有する領域を他方の画像において探索し特定する際に、1画素単位で相関をとるのではなく、サブピクセル単位で相関をとることで、対象物までの距離の測定精度を上げることが可能となる。   When measuring the distance to the object, as in the description in the first embodiment, when searching for and specifying a region having a correlation with the block serving as the reference image in the other image, a correlation is obtained in units of one pixel. Instead of taking the correlation in units of sub-pixels, it is possible to increase the measurement accuracy of the distance to the object.

(実施の形態8)
図13は、実施の形態8のカメラモジュールの各ユニットの配置図である。なお、実施の形態1と同様の説明、記載については省略する。図13の14aと14cは赤外領域の波長のユニット、14eと14fは緑色の波長を撮像するユニット、14bは青色、14dは赤色の波長をそれぞれ撮像するユニットである。
(Embodiment 8)
FIG. 13 is a layout diagram of units of the camera module according to the eighth embodiment. Note that description and description similar to those of the first embodiment are omitted. In FIG. 13, 14a and 14c are infrared wavelength units, 14e and 14f are green wavelength imaging units, 14b is blue, and 14d is red wavelength imaging units.

昼間においては図1において、被写体からの緑色の光線はレンズ1e、1f、光学フィルタ2e、2fをそれぞれ透過し、撮像領域4e、4fでそれぞれ結像する。撮像領域4e、4fで撮像される画像は同じ緑色であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   In the daytime, as shown in FIG. 1, green light rays from the subject pass through the lenses 1e and 1f and the optical filters 2e and 2f, respectively, and form images in the imaging regions 4e and 4f, respectively. Since the images captured in the imaging regions 4e and 4f are the same green, the images are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

同様に夜間においては、図1において、別途、赤外光源で対象物を照明した場合、対象物からの赤外光線はレンズ1a、1c、光学フィルタ2a、2cをそれぞれ透過し、撮像領域4a、4cでそれぞれ結像する。撮像領域4a、4cで撮像される画像は同じ赤外の像であるため、視差の分だけずれた画像である。それぞれ光電変換した結果得られる電気信号を処理して、各撮像画像データを基に視差を算出し、視差から対象物までの距離を演算する。   Similarly, at night, in FIG. 1, when an object is separately illuminated with an infrared light source, infrared rays from the object pass through the lenses 1a and 1c and the optical filters 2a and 2c, respectively, and the imaging region 4a and Each image is formed at 4c. Since the images picked up in the image pickup regions 4a and 4c are the same infrared image, the images are shifted by the amount of parallax. Electric signals obtained as a result of photoelectric conversion are processed, parallax is calculated based on each captured image data, and a distance from the parallax to the object is calculated.

対象物までの距離を測定する際、実施の形態1での説明と同様に、基準画像となるブロックと相関を有する領域を他方の画像において探索し特定する際に、1画素単位で相関をとるのではなく、サブピクセル単位で相関をとることで、対象物までの距離の測定精度を上げることが可能となる。   When measuring the distance to the object, as in the description in the first embodiment, when searching for and specifying a region having a correlation with the block serving as the reference image in the other image, a correlation is obtained in units of one pixel. Instead of taking the correlation in units of sub-pixels, it is possible to increase the measurement accuracy of the distance to the object.

(実施の形態9)
図14において、100は自動車を上から見た図である。101〜104はカメラモジュール、101a〜104aはカメラの画角である。105は先行車両、106は対向車両、107は道路の白線、108は歩行者である。複数のカメラモジュールを図14のように各々画角ができるだけ重なり合うように配置することで、運転席からの死角をなくし、カメラモジュールから得られる撮像情報を用いて、歩行者108や、白線107、対向車両106、先行車両105の情報を検出することができる。なお、各々のカメラモジュールから得られる撮像結果を表示装置(図示せず)を用いて表示することも可能である。車両のデザイン、空力特性等を考慮すると、車両に複数個のカメラモジュールを搭載するには、形状として薄く小さいものが望まれる。本発明のカメラモジュールは、波長帯域毎にレンズ、光学フィルタ、撮像領域を使用しているため、単レンズ構成で実現することが可能であり、非常に薄型化が可能となる。また、同一波長帯域の光学系を少なくとも2つ有しているため、三角測量法を用い、対象物までの距離を測定することができ、車速、ハンドル舵角信号と組み合わせることで、さらなる予防安全を図ることが可能となる。さらに、可視光領域と赤外線領域の2つの撮像情報をあわせもつことから、対向車量のヘッドライト等の明るい状況から、夜間での歩行者等の暗い状況まで、距離情報と合わせて認識することが可能となる。さらには、可視光領域では、カラー画像を取得することが可能であるため、赤、緑、青色の波長成分より、輝度、色相、彩度の3成分を抽出することが可能となり、幾何的に連結したひとつの領域は色が似ていることより、色情報を特徴量とすることができ、白黒画像に比べて形状認識精度も格段に向上することが可能となる。なお、周囲の状況情報として車室外を想定しているが、車室内でも有効であることは言うまでもない。
(Embodiment 9)
In FIG. 14, reference numeral 100 is a view of the automobile as viewed from above. Reference numerals 101 to 104 denote camera modules, and 101a to 104a denote camera angles of view. 105 is a preceding vehicle, 106 is an oncoming vehicle, 107 is a road white line, and 108 is a pedestrian. By arranging a plurality of camera modules so that the angles of view overlap as much as possible as shown in FIG. 14, the blind spots from the driver's seat are eliminated, and the pedestrian 108, the white line 107, Information on the oncoming vehicle 106 and the preceding vehicle 105 can be detected. In addition, it is also possible to display the imaging result obtained from each camera module using a display device (not shown). Considering the design of the vehicle, aerodynamic characteristics, etc., a thin and small shape is desired to mount a plurality of camera modules on the vehicle. Since the camera module of the present invention uses a lens, an optical filter, and an imaging region for each wavelength band, the camera module can be realized with a single lens configuration, and can be very thin. In addition, since it has at least two optical systems of the same wavelength band, it is possible to measure the distance to the object using the triangulation method, and further preventive safety by combining with the vehicle speed and steering wheel steering angle signal Can be achieved. In addition, since it has both imaging information in the visible light region and the infrared region, it recognizes with distance information from bright situations such as headlights for oncoming vehicles to dark situations such as pedestrians at night. Is possible. Furthermore, since it is possible to obtain a color image in the visible light region, it is possible to extract three components of luminance, hue, and saturation from the red, green, and blue wavelength components, and geometrically Since one connected area is similar in color, color information can be used as a feature amount, and the shape recognition accuracy can be significantly improved as compared with a monochrome image. In addition, although the vehicle exterior is assumed as surrounding situation information, it goes without saying that it is also effective in the vehicle interior.

(実施の形態10)
自動車はある速度で移動しているため、進むべく方向の状況情報をより早く、正確に入手することが必要となる。図15において、カメラモジュール103は車両前方の状況情報を得るためのカメラモジュールである。カメラが固定されて取付けられていると、車体の進行方向が変化して初めて、前方の状況情報を得ることが可能となる。より安全に、より早く前方の状況情報を得るために、図15に示すように、カメラモジュール103を、z軸202を中心に回転機構200によって回転させる。ここで、x、y、z軸は図16に示す方向とする。車両進行方向をx軸、水平方向をy軸、それぞれと直交する方向をz軸とする。回転させる角度および位置決め整定までの時間は車速信号、ハンドル舵角信号を用いて、車両の進行方向を推定して決定する。このように、車両の進行方向を予測して、カメラモジュールをz軸を中心にして回転させることで、車体の進行方向が変化するより前に、進行方向の状況情報を得ることが可能となり、より高い安全性を提供することが可能となる。なお、カメラモジュールをz軸を中心に回転移動させるために、図15では、回転台200を用いているが、この例に限らず、図17の例のように回転中心にトーションバー301を設け、x軸方向に力F1(302)およびF2(303)を最適に加えることで、z軸を中心に回転させる等レンズモジュールを回転させる機構は車両に取付けるスペース等に応じて最適な機構を採用すればよい。また、本実施の形態では、レンズが6個あるカメラモジュールについて説明したが、レンズが2つ以上であれば上記した高精度な測距が可能である。また、対象物までの距離を測定するために用いるレンズの配置も、視差、測距精度等より適切な配置を選択すればよい。そして、本実施の形態では、レンズから撮像領域までの光路は直線状であるが、プリズム等を用いて光路を曲げた反射型でも同様な効果が得られる。
(Embodiment 10)
Since the automobile is moving at a certain speed, it is necessary to obtain the situation information in the direction faster and more accurately in order to proceed. In FIG. 15, a camera module 103 is a camera module for obtaining situation information in front of the vehicle. When the camera is fixed and attached, it is possible to obtain the front situation information only when the traveling direction of the vehicle body changes. In order to obtain the situation information ahead more safely and faster, the camera module 103 is rotated by the rotation mechanism 200 about the z-axis 202 as shown in FIG. Here, the x, y, and z axes are the directions shown in FIG. The vehicle traveling direction is the x axis, the horizontal direction is the y axis, and the direction orthogonal to each is the z axis. The rotation angle and the time until positioning settling are determined by estimating the traveling direction of the vehicle using the vehicle speed signal and the steering angle signal. In this way, by predicting the traveling direction of the vehicle and rotating the camera module around the z axis, it becomes possible to obtain situation information on the traveling direction before the traveling direction of the vehicle body changes, It becomes possible to provide higher safety. In order to rotate the camera module around the z-axis, the rotary table 200 is used in FIG. 15, but the present invention is not limited to this example, and a torsion bar 301 is provided at the rotation center as in the example of FIG. , By applying force F1 (302) and F2 (303) optimally in the x-axis direction, the mechanism that rotates the lens module, such as rotating around the z-axis, adopts the optimal mechanism according to the space to be mounted on the vehicle do it. In this embodiment, the camera module having six lenses has been described. However, if there are two or more lenses, the above-described high-precision distance measurement is possible. Further, as for the arrangement of the lenses used for measuring the distance to the object, an appropriate arrangement may be selected based on parallax, ranging accuracy, and the like. In this embodiment, the optical path from the lens to the imaging region is linear, but the same effect can be obtained by a reflection type in which the optical path is bent using a prism or the like.

本発明のカメラモジュールは、小型、薄型でカメラ機能を備えた携帯電話、デジタルスチルカメラ、監視用カメラ、車載カメラなどに有用である。   The camera module of the present invention is useful for mobile phones, digital still cameras, surveillance cameras, vehicle-mounted cameras, etc. that are small and thin and have camera functions.

本発明の実施の形態1のカメラモジュールの分解斜視図1 is an exploded perspective view of a camera module according to Embodiment 1 of the present invention. 本発明の実施の形態1のレンズモジュールの断面図Sectional drawing of the lens module of Embodiment 1 of this invention 本発明の視差計算を説明するための説明図Explanatory drawing for demonstrating the parallax calculation of this invention 本発明の実施の形態1の被写体距離を測定するための説明図Explanatory drawing for measuring the subject distance of Embodiment 1 of the present invention 本発明の実施の形態1のカメラモジュールの各ユニットの配置図Arrangement of units of the camera module according to Embodiment 1 of the present invention 本発明の実施の形態2のカメラモジュールの各ユニットの配置図Arrangement of units of the camera module according to the second embodiment of the present invention 本発明の実施の形態3のカメラモジュールの各ユニットの配置図Arrangement of units of the camera module according to Embodiment 3 of the present invention 本発明の実施の形態4のカメラモジュールの各ユニットの配置図Arrangement of units of the camera module according to Embodiment 4 of the present invention 本発明の実施の形態5のカメラモジュールの各ユニットの配置図Arrangement of units of camera module according to Embodiment 5 of the present invention 本発明の実施の形態6の撮像センサの概念図Conceptual diagram of the imaging sensor according to the sixth embodiment of the present invention. 本発明の実施の形態6のサブピクセルの概念図Conceptual diagram of sub-pixel according to Embodiment 6 of the present invention 本発明の実施の形態7のカメラモジュールの各ユニットの配置図Arrangement of units of camera module according to embodiment 7 of the present invention 本発明の実施の形態8のカメラモジュールの各ユニットの配置図Arrangement of units of camera module according to embodiment 8 of the present invention 本発明の実施の形態9の車載カメラの説明図Explanatory drawing of the vehicle-mounted camera of Embodiment 9 of the present invention 本発明の実施の形態10のカメラモジュールの構成図Configuration diagram of a camera module according to the tenth embodiment of the present invention 本発明の実施の形態10の基準軸の説明図Explanatory drawing of the reference axis of Embodiment 10 of this invention 本発明の実施の形態10の他の回転機構の説明図Explanatory drawing of the other rotation mechanism of Embodiment 10 of this invention. 従来における消失点の算出図Conventional vanishing point calculation chart

符号の説明Explanation of symbols

1 レンズモジュール
1a〜1f レンズ
2 光学フィルタモジュール
2a〜2f 光学フィルタ
3 基板
4a〜4f 撮像領域
5 デジタルシグナルプロセッサ
6 固定台
7 カメラモジュールの各ユニット
8 カメラモジュールの各ユニット
9 カメラモジュールの各ユニット
10 カメラモジュールの各ユニット
11 カメラモジュールの各ユニット
12 カメラモジュールの各ユニット
13 カメラモジュールの各ユニット
14 カメラモジュールの各ユニット
DESCRIPTION OF SYMBOLS 1 Lens module 1a-1f Lens 2 Optical filter module 2a-2f Optical filter 3 Board | substrate 4a-4f Imaging area 5 Digital signal processor 6 Fixing stand 7 Each unit of camera module 8 Each unit of camera module 9 Each unit of camera module 10 Camera Each unit of module 11 Each unit of camera module 12 Each unit of camera module 13 Each unit of camera module 14 Each unit of camera module

Claims (8)

レンズと、光学フィルタと、多数の画素を有する撮像領域とを有する撮像ユニットを複数備えたカメラモジュールであって、
前記複数の撮像ユニットは、赤色光を撮像する赤色光撮像ユニットと、青色光を撮像する青色光撮像ユニットと、緑色光を撮像する緑色光撮像ユニットと、赤外波長帯の光を撮像する赤外光撮像ユニットとを有し、
前記赤色光撮像ユニット、前記青色光撮像ユニット、前記緑色光撮像ユニットのうちのいずれか一つの撮像ユニットと、前記赤外光撮像ユニットとはそれぞれ2つあり、
前記複数の撮像ユニットのそれぞれの撮像領域から出力される画像情報を比較演算する演算回路を備え、
前記複数の撮像ユニットのそれぞれの前記レンズが一体化されているカメラモジュール。
A camera module including a plurality of imaging units having a lens, an optical filter, and an imaging region having a large number of pixels,
The plurality of imaging units include a red light imaging unit that captures red light, a blue light imaging unit that captures blue light, a green light imaging unit that captures green light, and a red that captures light in the infrared wavelength band. An external light imaging unit,
There are two each of the red light imaging unit, the blue light imaging unit, the green light imaging unit, and the infrared light imaging unit.
An arithmetic circuit that compares and calculates image information output from each imaging region of the plurality of imaging units;
A camera module in which the lenses of the plurality of imaging units are integrated.
前記演算回路は、同じ波長帯の光を撮像する2つの前記撮像ユニットの撮像領域から出力される画像情報より、撮影された対象物までの距離を算出する請求項1記載のカメラモジュール。 The camera module according to claim 1, wherein the arithmetic circuit calculates a distance to the photographed object from image information output from the imaging regions of the two imaging units that capture light in the same wavelength band. 前記演算回路は、同じ波長帯の光を撮像する2つの前記撮像ユニットの撮像領域から出力される画像情報より、撮影された対象物までの距離を算出し、前記算出された距離に基づいて前記赤色光撮像ユニットと前記青色光撮像ユニットと前記緑色光撮像ユニットのそれぞれの撮像領域から出力される画像情報を合成したカラー画像の画像情報を出力する請求項1記載のカメラモジュール。 The arithmetic circuit calculates a distance to the captured object from image information output from the imaging regions of the two imaging units that capture light in the same wavelength band, and based on the calculated distance, 2. The camera module according to claim 1, wherein image information of a color image obtained by combining image information output from respective imaging regions of the red light imaging unit, the blue light imaging unit, and the green light imaging unit is output. 同じ波長帯の光を撮像する2つの前記撮像ユニットが前記撮像領域の画素配列に対して斜めに配置されている請求項1記載のカメラモジュール。 The camera module according to claim 1, wherein the two imaging units that image light in the same wavelength band are arranged obliquely with respect to a pixel array of the imaging region. 同じ波長帯の光を撮像する2つの前記撮像ユニットが前記撮像領域の走査線方向と平行に配置されている請求項1記載のカメラモジュール。 The camera module according to claim 1, wherein the two imaging units that image light in the same wavelength band are arranged in parallel with a scanning line direction of the imaging region. 前記演算回路は、前記撮像領域から出力される画像情報より内挿により画素間の画像情報を算出し、前記撮像領域から出力される画像情報及び前記内容により算出された画素間の画像情報より、撮影された対象物までの距離を算出する請求項2に記載のカメラモジュール。 The arithmetic circuit calculates image information between pixels by interpolation from image information output from the imaging region, and from image information output from the imaging region and image information between pixels calculated from the content, The camera module according to claim 2, wherein a distance to the photographed object is calculated. 赤外光照明用の発光素子をさらに備えた請求項1から6のいずれか1項に記載のカメラモジュール。 The camera module according to claim 1, further comprising a light emitting element for infrared illumination. 自動車に搭載され、周囲の状況情報を得る請求項1から7のいずれか1項に記載のカメラモジュール。 The camera module according to claim 1, wherein the camera module is mounted on an automobile and obtains surrounding situation information.
JP2006349166A 2006-12-26 2006-12-26 Camera module Pending JP2008157851A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006349166A JP2008157851A (en) 2006-12-26 2006-12-26 Camera module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006349166A JP2008157851A (en) 2006-12-26 2006-12-26 Camera module

Publications (1)

Publication Number Publication Date
JP2008157851A true JP2008157851A (en) 2008-07-10

Family

ID=39658906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006349166A Pending JP2008157851A (en) 2006-12-26 2006-12-26 Camera module

Country Status (1)

Country Link
JP (1) JP2008157851A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247356A (en) * 2011-05-30 2012-12-13 Canon Inc Imaging module, imaging apparatus, image processing apparatus, and image processing method
JP2013044893A (en) * 2011-08-23 2013-03-04 Ricoh Co Ltd Compound-eye imaging device, and distance image acquisition device
WO2013108656A1 (en) * 2012-01-16 2013-07-25 ソニー株式会社 Solid-state image sensor and camera system
CN103354611A (en) * 2013-06-22 2013-10-16 太仓博天网络科技有限公司 Intelligent digital camera system based on ZORAN chip
JP2015159397A (en) * 2014-02-24 2015-09-03 株式会社リコー Image processing apparatus, image processing system, and image processing method
WO2016104235A1 (en) * 2014-12-26 2016-06-30 コニカミノルタ株式会社 Stereo imaging device and moving body
WO2021166542A1 (en) * 2020-02-18 2021-08-26 株式会社デンソー Object detection device, light reception unit, and object detection device control method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247356A (en) * 2011-05-30 2012-12-13 Canon Inc Imaging module, imaging apparatus, image processing apparatus, and image processing method
US8749652B2 (en) 2011-05-30 2014-06-10 Canon Kabushiki Kaisha Imaging module having plural optical units in which each of at least two optical units include a polarization filter and at least one optical unit includes no polarization filter and image processing method and apparatus thereof
JP2013044893A (en) * 2011-08-23 2013-03-04 Ricoh Co Ltd Compound-eye imaging device, and distance image acquisition device
WO2013108656A1 (en) * 2012-01-16 2013-07-25 ソニー株式会社 Solid-state image sensor and camera system
CN104012082A (en) * 2012-01-16 2014-08-27 索尼公司 Solid-state image sensor and camera system
CN103354611A (en) * 2013-06-22 2013-10-16 太仓博天网络科技有限公司 Intelligent digital camera system based on ZORAN chip
JP2015159397A (en) * 2014-02-24 2015-09-03 株式会社リコー Image processing apparatus, image processing system, and image processing method
WO2016104235A1 (en) * 2014-12-26 2016-06-30 コニカミノルタ株式会社 Stereo imaging device and moving body
WO2021166542A1 (en) * 2020-02-18 2021-08-26 株式会社デンソー Object detection device, light reception unit, and object detection device control method
JP2021131229A (en) * 2020-02-18 2021-09-09 株式会社デンソー Object detection device, light receiving unit, and control method of object detection device
JP7255513B2 (en) 2020-02-18 2023-04-11 株式会社デンソー OBJECT DETECTION DEVICE, LIGHT SENSOR, AND CONTROL METHOD OF OBJECT DETECTION DEVICE

Similar Documents

Publication Publication Date Title
US7385680B2 (en) Camera module
US20110211068A1 (en) Image pickup apparatus and rangefinder
JP5273356B2 (en) Compound eye image input device and distance measuring device using the same
CN104512411B (en) Vehicle control system and imaging sensor
JP6156724B2 (en) Stereo camera
JP6480441B2 (en) Time-of-flight camera system
JP5012495B2 (en) IMAGING ELEMENT, FOCUS DETECTION DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
KR100804719B1 (en) Imaging module
US6420704B1 (en) Method and system for improving camera infrared sensitivity using digital zoom
JP2008157851A (en) Camera module
JP4992481B2 (en) Focus detection apparatus and imaging apparatus
US20080112643A1 (en) Correlation operation method, correlation operation device, focus detection device and imaging device
US20170264811A1 (en) Phase detection autofocus using opposing filter masks
JP2002171537A (en) Compound image pickup system, image pickup device and electronic device
JP2020056839A (en) Imaging apparatus
US10992920B2 (en) Stereo image processing device
JP2008211631A (en) Focal point detection element, focal point detector, and imaging apparatus
WO2013140873A1 (en) In-vehicle image processing device and method
JP2004258266A (en) Stereoscopic adapter and distance image input device using the same
US11437425B2 (en) Image sensing device
JP2020057869A (en) Imaging apparatus
US20240283899A1 (en) Image sensor, imaging apparatus, and image processing method
US20050151863A1 (en) Arrangement in a measuring system
JP6202364B2 (en) Stereo camera and moving object
JP6949086B2 (en) Camera devices, driving assistance systems and vehicles