JP2008005244A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2008005244A
JP2008005244A JP2006172983A JP2006172983A JP2008005244A JP 2008005244 A JP2008005244 A JP 2008005244A JP 2006172983 A JP2006172983 A JP 2006172983A JP 2006172983 A JP2006172983 A JP 2006172983A JP 2008005244 A JP2008005244 A JP 2008005244A
Authority
JP
Japan
Prior art keywords
image
imaging
ccd
smear
cmos
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006172983A
Other languages
Japanese (ja)
Other versions
JP4745147B2 (en
Inventor
Soji Yanagida
聡司 柳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006172983A priority Critical patent/JP4745147B2/en
Publication of JP2008005244A publication Critical patent/JP2008005244A/en
Application granted granted Critical
Publication of JP4745147B2 publication Critical patent/JP4745147B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent degradation of picture quality due to occurrence of smearing, with less amount of calculation. <P>SOLUTION: A subject image is taken with each of a CCD imaging part and a CMOS imaging part, to generate CCD image data and CMOS image data (102). The CMOS image data and CCD image data in a monitoring region of the image that has been taken are subjected to a pattern matching process, and applied with an error detection process for detecting CMOS image data and CCD image data (112). If a detected error is less than a threshold value, no smear is judged to have occurred (114) and the image taken with a CCD area sensor is selected as an output image (116). If the error that has been detected is equal to or higher than the threshold value, a smear is judged to have occurred (114), and the image which is taken with the CMOS image sensor in which no smear occurs is selected as an output image (116). <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像装置に係り、特に、スミアの発生による画質の劣化を防止する撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly, to an imaging apparatus that prevents image quality deterioration due to occurrence of smear.

従来、デジタルカメラなどの撮像装置において、CCDエリアセンサによって被写体像を撮像したときに、逆光などにより高輝度な部分を有する画像が撮像される場合には、CCDエリアセンサにスミアが発生し、画像に白い帯状の線が入るため、画質が劣化してしまう。   Conventionally, in an imaging device such as a digital camera, when a subject image is captured by a CCD area sensor, if an image having a high-luminance portion is captured by backlight or the like, smear occurs in the CCD area sensor, and the image Since a white belt-like line is inserted, the image quality is deteriorated.

このスミア対策方法として、撮像光を分岐して二つの撮像素子を持ち、二つの撮像素子を互いに90度回転した方向に走査させて、双方の画像データからスミア発生部分を検出して、スミアの発生部分の画像データを他方のスミアの無い画像データに置き換えるビデオカメラが知られている(特許文献1)。
特開2004−112190号公報
As a smear countermeasure method, the image pickup light is branched to have two image pickup devices, the two image pickup devices are scanned in directions rotated by 90 degrees, and a smear occurrence portion is detected from both image data. A video camera that replaces the image data of the generated portion with the other image data without smear is known (Patent Document 1).
JP 2004-112190 A

しかしながら、上記の特許文献1に記載の技術では、スミア発生部分の画像処理を行うために計算量が大きくなってしまい、また、撮像光を分岐して二つに分割することで光量が減少するため高画質な画像が得られない、という問題がある。   However, in the technique described in Patent Document 1 described above, the amount of calculation increases because image processing is performed on the smeared portion, and the amount of light is reduced by dividing the imaging light into two parts. Therefore, there is a problem that a high-quality image cannot be obtained.

本発明は上記問題点を解決するためになされたものであり、少ない計算量で、スミアの発生による画質の劣化を防止することができる撮像装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image pickup apparatus that can prevent image quality deterioration due to occurrence of smear with a small amount of calculation.

上記目的を達成するために、本発明の撮像装置は、電荷結合素子で構成され、被写体像を撮像する第1の撮像手段と、スミアを発生させない撮像素子で構成され、被写体像を撮像する第2の撮像手段と、前記第1の撮像手段が撮像したときに、前記電荷結合素子にスミアが発生したか否かを判定する判定手段と、前記判定手段によって、スミアが発生しなかったと判定された場合に、前記第1の撮像手段によって撮像された画像を選択し、スミアが発生したと判定された場合に、前記第2の撮像手段によって撮像された画像を選択する選択手段とを含んで構成されている。   In order to achieve the above object, an imaging apparatus according to the present invention includes a first imaging unit that includes a charge-coupled element and that captures a subject image, and an imaging element that does not generate smear. 2 and the determination means for determining whether smear has occurred in the charge-coupled device when the first imaging means has picked up the image, and the determination means determines that smear has not occurred. A selection unit that selects an image captured by the first imaging unit and selects an image captured by the second imaging unit when it is determined that smear has occurred. It is configured.

本発明の撮像装置によれば、第1の撮像手段によって被写体像を撮像すると共に、第2の撮像手段によって被写体像を撮像する。そして、判定手段によって、第1の撮像手段が撮像したときに、電荷結合素子にスミアが発生したか否かを判定し、判定手段によって、スミアが発生しなかったと判定された場合に、選択手段によって、第1の撮像手段によって撮像された画像を選択し、スミアが発生したと判定された場合に、選択手段によって、第2の撮像手段によって撮像された画像を選択する。   According to the imaging apparatus of the present invention, the subject image is captured by the first imaging unit, and the subject image is captured by the second imaging unit. Then, the determining means determines whether smear has occurred in the charge-coupled device when the first imaging means has picked up an image. If the determining means determines that smear has not occurred, the selecting means When the image picked up by the first image pickup means is selected and it is determined that smear has occurred, the image picked up by the second image pickup means is selected by the selection means.

従って、電荷結合素子にスミアが発生した場合には、スミアが発生しない撮像素子によって撮像された画像を選択するだけで済むため、少ない計算量で、スミアの発生による画質の劣化を常に防止することができる。   Therefore, when smear occurs in the charge-coupled device, it is only necessary to select an image picked up by an image sensor that does not generate smear. Therefore, degradation of image quality due to smear is always prevented with a small amount of calculation. Can do.

上記の第2の撮像手段の撮像素子は、スミアが発生しない状態の電荷結合素子より撮像した画像の画質が低いことを特徴とすることができる。これにより、撮像した画像にスミアが発生しない場合には、画質が高い画像として、電荷結合素子より撮像した画像を選択することができる。   The image pickup device of the second image pickup means can be characterized in that the image quality of an image picked up is lower than that of a charge coupled device in a state where smear does not occur. Thereby, when smear does not occur in the captured image, an image captured by the charge coupled device can be selected as an image with high image quality.

上記の判定手段は、第1の撮像手段によって撮像された画像の予め定められた領域の画像データと第2の撮像手段によって撮像された画像の予め定められた領域の画像データとのパターンマッチング処理を行い、パターンマッチング処理の結果に基づいて、電荷結合素子にスミアが発生したか否かを判定することができる。これによって、パターンマッチング処理の結果に基づいて、スミアの発生を判定するため、高精度にスミアの発生を検出することができる。   The determination unit includes a pattern matching process between image data of a predetermined region of the image captured by the first image capturing unit and image data of a predetermined region of the image captured by the second image capturing unit. It is possible to determine whether smear has occurred in the charge coupled device based on the result of the pattern matching process. Thus, since the occurrence of smear is determined based on the result of the pattern matching process, the occurrence of smear can be detected with high accuracy.

上記の判定手段のパターンマッチング処理を、ステレオマッチングとすることができる。これにより、ステレオマッチングの結果を用いて、高精度にスミアの発生を検出することができる。   The pattern matching process of the determination means can be stereo matching. Thereby, it is possible to detect the occurrence of smear with high accuracy using the result of stereo matching.

また、上記の判定手段は、第1の撮像手段によって撮像された画像の予め定められた領域と第2の撮像手段によって撮像された画像の予め定められた領域とにおいて対応する部分の輝度値の差分を算出し、算出された輝度値の差分が所定値以上のとき、スミアが発生したと判定することができる。これにより、輝度値の差分を算出して、スミアの発生を判定するため、少ない計算量で、スミアを検出することができる。   In addition, the determination unit is configured to calculate a luminance value of a portion corresponding to a predetermined region of the image captured by the first imaging unit and a predetermined region of the image captured by the second imaging unit. The difference is calculated, and it can be determined that smear has occurred when the difference in the calculated luminance value is equal to or greater than a predetermined value. Thereby, since the difference in luminance values is calculated and the occurrence of smear is determined, it is possible to detect smear with a small amount of calculation.

上記の予め定められた領域を、第1の撮像手段及び第2の撮像手段によって撮像された画像の部分領域とすることができる。これにより、パターンマッチング処理や輝度値差分の算出を行う領域は小さくなるため、少ない計算量で、スミアを検出することができる。   The predetermined region can be a partial region of an image captured by the first imaging unit and the second imaging unit. Thereby, since the area | region which calculates a pattern matching process and a luminance value difference becomes small, a smear can be detected with a small calculation amount.

また、上記の第1の撮像手段及び第2の撮像手段の各々は、自装置における位置及び撮像方向の少なくとも一方を調整可能とすることができる。これにより、第1の撮像手段及び第2の撮像手段の各々によって撮像した画像における被写体の位置が同じになるように調整することができるため、スミア発生の検出精度を向上させることができる。   In addition, each of the first imaging unit and the second imaging unit described above can adjust at least one of the position and the imaging direction in the own apparatus. Thereby, since it can adjust so that the to-be-photographed object's position in the image imaged by each of the 1st imaging means and the 2nd imaging means may become the same, the detection precision of smear generation | occurrence | production can be improved.

上記の撮像装置は、選択手段によって選択された画像を出力する出力手段を更に含むことができる。これにより、スミアの発生により画質が劣化していない画像を常に出力することができる。   The imaging apparatus may further include an output unit that outputs an image selected by the selection unit. As a result, it is possible to always output an image whose image quality has not deteriorated due to the occurrence of smear.

また、上記の撮像装置は、選択手段によって選択された画像を記憶する記憶手段を更に含むことができる。これにより、スミアの発生により画質が劣化していない画像を常に記憶することができる。   The imaging apparatus may further include a storage unit that stores an image selected by the selection unit. As a result, an image whose image quality has not deteriorated due to the occurrence of smear can always be stored.

本発明に係る撮像装置によれば、電荷結合素子にスミアが発生した場合には、スミアが発生しない撮像素子によって撮像された画像を選択するだけで済むため、少ない計算量で、スミアの発生による画質の劣化を常に防止することができる、という効果が得られる。   According to the image pickup apparatus of the present invention, when smear occurs in the charge coupled device, it is only necessary to select an image picked up by the image pickup device that does not generate smear. There is an effect that the deterioration of the image quality can always be prevented.

以下、本発明の実施の形態について詳細に説明する。なお、複眼となっているデジタルカメラに本発明を適用した場合について説明する。   Hereinafter, embodiments of the present invention will be described in detail. A case where the present invention is applied to a digital camera having a compound eye will be described.

図1に示すように、第1の実施の形態に係る複眼カメラシステム10は、2つの撮像部を有する複眼カメラ12と、複眼カメラ12によって撮像された画像データを出力するための出力装置14とから構成されている。   As shown in FIG. 1, a compound eye camera system 10 according to the first embodiment includes a compound eye camera 12 having two image capturing units, and an output device 14 for outputting image data captured by the compound eye camera 12. It is composed of

複眼カメラ12は、電荷結合素子(以下、「CCDエリアセンサ」という。)42を備え、被写体像を撮像して画像データを生成するCCD撮像部16と、スミアが発生しない状態のCCDエリアセンサ42より撮像した画像の画質が低く、かつ、スミアを発生させないCMOSイメージセンサ44で構成され、被写体を撮像して画像データを生成するCMOS撮像部18とを備えている。また、複眼カメラ12には、CCD撮像部16によって生成されたCCD画像データを記憶するための左画像メモリ20と、CMOS撮像部18によって生成されたCMOS画像データを記憶するための右画像メモリ22と、カメラの出力画像として採用する画像データを記憶するための、例えば、可搬型のスマートメディア(Smart Media(登録商標))で構成されるメモリカード24とが設けられている。   The compound-eye camera 12 includes a charge coupled device (hereinafter referred to as “CCD area sensor”) 42, a CCD imaging unit 16 that captures a subject image and generates image data, and a CCD area sensor 42 that does not generate smear. The CMOS image sensor 44 is configured by a CMOS image sensor 44 that has a lower image quality of a captured image and does not generate smear, and that captures a subject and generates image data. Further, the compound eye camera 12 has a left image memory 20 for storing the CCD image data generated by the CCD imaging unit 16 and a right image memory 22 for storing the CMOS image data generated by the CMOS imaging unit 18. And a memory card 24 made of, for example, portable smart media (Smart Media (registered trademark)) for storing image data used as an output image of the camera.

また、複眼カメラ12には、複眼カメラ12全体を制御するための制御部26と、出力装置14と接続するための入出力インタフェース28と、ユーザが複眼カメラ12を操作するための操作部40とが設けられている。また、制御部26に設けられたメモリ(図示省略)には、後述する撮像処理ルーチンを実行するためのプログラムが予め記憶されている。   The compound-eye camera 12 includes a control unit 26 for controlling the entire compound-eye camera 12, an input / output interface 28 for connection to the output device 14, and an operation unit 40 for a user to operate the compound-eye camera 12. Is provided. Further, a memory (not shown) provided in the control unit 26 stores in advance a program for executing an imaging process routine described later.

上記のCCD撮像部16、CMOS撮像部18、左画像メモリ20、右画像メモリ22、メモリカード24、制御部26、入出力インタフェース28、及び操作部40は、バス30によって相互に接続されている。   The CCD image capturing unit 16, the CMOS image capturing unit 18, the left image memory 20, the right image memory 22, the memory card 24, the control unit 26, the input / output interface 28, and the operation unit 40 are connected to each other by a bus 30. .

CCD撮像部16は、レンズを含む複数のレンズからなるレンズユニットを含んで構成された光学ユニット46を備えており、また、光学ユニット46の光軸後方に配設されたCCDエリアセンサ42と、入力されたアナログ信号に対して各種のアナログ信号処理を行なうアナログ信号処理部48とが設けられている。   The CCD imaging unit 16 includes an optical unit 46 configured to include a lens unit including a plurality of lenses including lenses, and a CCD area sensor 42 disposed behind the optical axis of the optical unit 46; An analog signal processing unit 48 that performs various analog signal processing on the input analog signal is provided.

また、CCD撮像部16には、入力されたアナログ信号をデジタルデータに変換するアナログ/デジタル変換器(以下、「ADC」という。)50と、このデジタルデータに対して各種のデジタル信号処理を行うためのデジタル信号処理回路(以下、「DSP」という。)52とが設けられている。   Further, the CCD image pickup unit 16 performs an analog / digital converter (hereinafter referred to as “ADC”) 50 for converting an input analog signal into digital data, and performs various digital signal processing on the digital data. A digital signal processing circuit (hereinafter referred to as “DSP”) 52 is provided.

CCDエリアセンサ42の出力端はアナログ信号処理部48の入力端に、アナログ信号処理部48の出力端はADC50の入力端に、ADC50の出力端はDSP52の入力端に、各々接続されている。従って、CCDエリアセンサ42から出力された被写体像を示すアナログ信号はアナログ信号処理部48によって所定のアナログ信号処理が施され、ADC50によってデジタル画像データに変換された後に、DSP52によって各種のデジタル信号処理が施され、CCD画像データが生成される。   The output terminal of the CCD area sensor 42 is connected to the input terminal of the analog signal processing unit 48, the output terminal of the analog signal processing unit 48 is connected to the input terminal of the ADC 50, and the output terminal of the ADC 50 is connected to the input terminal of the DSP 52. Accordingly, the analog signal indicating the subject image output from the CCD area sensor 42 is subjected to predetermined analog signal processing by the analog signal processing unit 48, converted into digital image data by the ADC 50, and then subjected to various digital signal processing by the DSP 52. Is applied to generate CCD image data.

また、CCD撮像部16は、CCDエリアセンサ42を駆動させるためのタイミング信号を生成してCCDエリアセンサ42に供給するタイミングジェネレータ(図示省略)を備えており、CCDエリアセンサ42の駆動は制御部26によりタイミングジェネレータを介して制御される。   The CCD imaging unit 16 includes a timing generator (not shown) that generates a timing signal for driving the CCD area sensor 42 and supplies the timing signal to the CCD area sensor 42. The driving of the CCD area sensor 42 is performed by the control unit. 26 through a timing generator.

また、CMOS撮像部18は、CCD撮像部16とほぼ同様な構成となっており、光学ユニット56、CMOSイメージセンサ44、アナログ信号処理部58、ADC60、及びDSP62を備えている。   The CMOS imaging unit 18 has substantially the same configuration as the CCD imaging unit 16 and includes an optical unit 56, a CMOS image sensor 44, an analog signal processing unit 58, an ADC 60, and a DSP 62.

出力装置14は、LCD(図示省略)及びハードディスク(図示省略)を備えており、複眼カメラ12によって撮像された画像をLCDに表示することができ、また、複眼カメラ12によって撮像された画像の画像データをハードディスクに記憶することができる。   The output device 14 includes an LCD (not shown) and a hard disk (not shown), can display an image captured by the compound eye camera 12 on the LCD, and also an image of the image captured by the compound eye camera 12. Data can be stored on the hard disk.

図2に示すように、複眼カメラ12の前面は、ジャバラ36によって構成され、複眼カメラ12の上面には、CCD撮像部16及びCMOS撮像部18の各々に対して設けられた2つの回転軸32と、回転軸32をスライドさせて、CCD撮像部16及びCMOS撮像部18の各々を移動可能とするためのスライド溝34とが設けられている。   As shown in FIG. 2, the front surface of the compound eye camera 12 is configured by a bellows 36, and two rotation shafts 32 provided on the upper surface of the compound eye camera 12 for each of the CCD imaging unit 16 and the CMOS imaging unit 18. And a slide groove 34 for sliding the rotating shaft 32 so that each of the CCD image pickup unit 16 and the CMOS image pickup unit 18 can be moved.

図3(A)〜(C)に示すように、回転軸32を回転させると、CCD撮像部16及びCMOS撮像部18の各々が回転するため、CCD撮像部16及びCMOS撮像部18の各々の撮像方向が調整可能であり、図3(B)に示すように、回転軸32をスライド溝34に沿ってスライドさせると、CCD撮像部16及びCMOS撮像部18の各々が平行移動するため、CCD撮像部16及びCMOS撮像部18の各々の位置が調整可能となっている。   As shown in FIGS. 3A to 3C, when the rotation shaft 32 is rotated, each of the CCD image pickup unit 16 and the CMOS image pickup unit 18 rotates. Therefore, each of the CCD image pickup unit 16 and the CMOS image pickup unit 18 is rotated. The imaging direction can be adjusted. As shown in FIG. 3B, when the rotary shaft 32 is slid along the slide groove 34, each of the CCD imaging unit 16 and the CMOS imaging unit 18 moves in parallel. The positions of the imaging unit 16 and the CMOS imaging unit 18 can be adjusted.

次に、第1の実施の形態に係る複眼カメラシステム10の動作について説明する。まず、図4に示すように、複眼カメラ12において、CCD撮像部16及びCMOS撮像部18の各々に対応する回転軸32をユーザが操作して、被写体位置に合わせて、CCD撮像部16及びCMOS撮像部18の各々の位置及び撮像方向を調整する。   Next, the operation of the compound eye camera system 10 according to the first embodiment will be described. First, as shown in FIG. 4, in the compound-eye camera 12, the user operates the rotation shaft 32 corresponding to each of the CCD imaging unit 16 and the CMOS imaging unit 18 to match the subject position, and the CCD imaging unit 16 and the CMOS. Each position and imaging direction of the imaging unit 18 are adjusted.

例えば、被写体位置が複眼カメラ12に近い場合には、CCD撮像部16及びCMOS撮像部18の撮像方向がお互いに内側方向に向くように回転軸32を回転させ輻輳角(カメラの光軸のなす角)を調整する、又は、CCD撮像部16及びCMOS撮像部18の各々の撮像方向が交わる位置が、複眼カメラ12側に近くなるように、CCD撮像部16及びCMOS撮像部18の回転軸32をスライド溝34に沿って平行移動させて、CCD撮像部16及びCMOS撮像部18の位置を近づける。また、被写体位置が複眼カメラ12に遠い場合には、CCD撮像部16及びCMOS撮像部18の撮像方向の輻輳角が小さくなるように回転軸32を回転させ、又は、CCD撮像部16及びCMOS撮像部18の各々の撮像方向が交わる位置が、複眼カメラ12側から遠くなるように、CCD撮像部16及びCMOS撮像部18の回転軸32をスライド溝34に沿って平行移動させて、CCD撮像部16及びCMOS撮像部18の位置を遠ざける。   For example, when the subject position is close to the compound-eye camera 12, the rotation axis 32 is rotated so that the imaging directions of the CCD imaging unit 16 and the CMOS imaging unit 18 are inward of each other, and the convergence angle (the optical axis of the camera is formed). The rotation axis 32 of the CCD image pickup unit 16 and the CMOS image pickup unit 18 so that the positions where the image pickup directions of the CCD image pickup unit 16 and the CMOS image pickup unit 18 intersect each other are close to the compound eye camera 12 side. Are translated along the slide groove 34 to bring the CCD imaging unit 16 and the CMOS imaging unit 18 closer to each other. When the subject position is far from the compound-eye camera 12, the rotation shaft 32 is rotated so that the convergence angle in the imaging direction of the CCD imaging unit 16 and the CMOS imaging unit 18 is reduced, or the CCD imaging unit 16 and the CMOS imaging unit are captured. The rotational axes 32 of the CCD imaging unit 16 and the CMOS imaging unit 18 are translated along the slide groove 34 so that the positions at which the imaging directions of the unit 18 intersect with each other are far from the compound-eye camera 12 side. 16 and the CMOS imaging unit 18 are moved away from each other.

そして、複眼カメラ12の電源をオンすると、図5に示す撮像処理ルーチンが制御部26によって実行される。まず、ステップ100において、撮像開始するか否かを判定し、ユーザが操作部40を操作して、撮像開始を指示すると、ステップ100からステップ102へ進み、CCD撮像部16及びCMOS撮像部18の各々に対して、撮像指示を出力し、CCD撮像部16及びCMOS撮像部18の各々において、被写体像を撮像し、CCD画像データ及びCMOS画像データを生成する。   When the power of the compound eye camera 12 is turned on, the imaging processing routine shown in FIG. First, in step 100, it is determined whether or not to start imaging. When the user operates the operation unit 40 to instruct to start imaging, the process proceeds from step 100 to step 102, where the CCD imaging unit 16 and the CMOS imaging unit 18 An imaging instruction is output to each, and a subject image is captured in each of the CCD imaging unit 16 and the CMOS imaging unit 18 to generate CCD image data and CMOS image data.

そして、ステップ104では、CCD撮像部16で生成されたCCD画像データを取得して、左画像メモリ20に格納し、次のステップ106では、CMOS撮像部18で生成されたCMOS画像データを取得して、右画像メモリ22に格納する。   In step 104, the CCD image data generated by the CCD imaging unit 16 is acquired and stored in the left image memory 20, and in the next step 106, the CMOS image data generated by the CMOS imaging unit 18 is acquired. And stored in the right image memory 22.

ステップ108では、左画像メモリ20からCCD画像データが表すCCD画像における予め定められた監視領域のCCD部分画像データを読み込み、ステップ110では、右画像メモリ22からCMOS画像データが表すCMOS画像における予め定められた監視領域のCMOS部分画像データを読み込み、ステップ112において、CCD部分画像データ及びCMOS部分画像データのパターンマッチング処理を行い、パターンマッチング処理の結果から、CCD部分画像データ及びCMOS部分画像データの誤差を検出する誤差検出処理を行う。ここで、監視領域は、CCD撮像部16及びCMOS撮像部18の各々によって撮像されたCCD画像及びCMOS画像の部分領域であり、CCD撮像部16及びCMOS撮像部18によって撮像されたCCD画像及びCMOS画像の各々において、同じ位置の領域となっている。   In step 108, the CCD partial image data of a predetermined monitoring area in the CCD image represented by the CCD image data is read from the left image memory 20, and in step 110, a predetermined image in the CMOS image represented by the CMOS image data is read from the right image memory 22. In step 112, the CCD partial image data and the CMOS partial image data are read out, and pattern matching processing is performed on the CCD partial image data and the CMOS partial image data. An error detection process is performed to detect. Here, the monitoring area is a partial area of the CCD image and the CMOS image captured by each of the CCD image capturing unit 16 and the CMOS image capturing unit 18. The CCD image and the CMOS image captured by the CCD image capturing unit 16 and the CMOS image capturing unit 18. Each of the images is an area at the same position.

そして、ステップ114において、ステップ112で検出された誤差がしきい値未満であるか否かを判定する。しきい値として、CCDエリアセンサ42にスミアが発生している場合に得られる誤差を実験的に求めておき、求められた値を予め設定しておけばよい。ここで、検出された誤差がしきい値未満である場合には、スミアが発生していないと判断し、ステップ116において、画質の点で有利なCCDエリアセンサ42によって撮像されたCCD画像を出力画像として選択して、左画像メモリ20からCCD画像データを読み込んで、メモリカード24に書き込むと共に、出力装置14へ出力し、撮像処理ルーチンを終了する。一方、検出された誤差がしきい値以上である場合には、スミアが発生していると判断し、ステップ118において、スミアが発生しないCMOSイメージセンサ44によって撮像されたCMOS画像を出力画像として選択して、右画像メモリ22からCMOS画像データを読み込んで、メモリカード24に書き込むと共に、出力装置14へ出力し、撮像処理ルーチンを終了する。   In step 114, it is determined whether or not the error detected in step 112 is less than a threshold value. As a threshold value, an error obtained when smear occurs in the CCD area sensor 42 is experimentally obtained, and the obtained value may be set in advance. If the detected error is less than the threshold value, it is determined that smear has not occurred, and in step 116, a CCD image captured by the CCD area sensor 42, which is advantageous in terms of image quality, is output. It selects as an image, reads CCD image data from the left image memory 20, writes it in the memory card 24, and outputs it to the output device 14, and complete | finishes an imaging process routine. On the other hand, if the detected error is greater than or equal to the threshold value, it is determined that smear has occurred, and in step 118, a CMOS image captured by the CMOS image sensor 44 that does not generate smear is selected as an output image. Then, the CMOS image data is read from the right image memory 22, written into the memory card 24, and output to the output device 14, and the imaging processing routine is terminated.

そして、出力装置14では、入力されたCCD画像データ及びCMOS画像データの何れか一方をハードディスクに記憶すると共に、CCD画像データ及びCMOS画像データの何れか一方に基づいて、撮像された画像をLCDに表示する。   Then, the output device 14 stores either the input CCD image data or CMOS image data in the hard disk and, based on either the CCD image data or the CMOS image data, the captured image on the LCD. indicate.

以上説明したように、第1の実施の形態に係る複眼カメラシステムによれば、CCDエリアセンサにスミアが発生した場合には、スミア発生部分の画像補正を行わずに、スミアが発生しないCMOSイメージセンサによって撮像されたCMOS画像を選択するだけで済むため、少ない計算量で、スミアの発生による画質の劣化を常に防止することができる。   As described above, according to the compound-eye camera system according to the first embodiment, when smear occurs in the CCD area sensor, a CMOS image in which smear does not occur without performing image correction of the smear occurrence portion. Since it is only necessary to select a CMOS image picked up by the sensor, it is possible to always prevent image quality deterioration due to smearing with a small amount of calculation.

また、パターンマッチング処理の結果に基づいて、スミアの発生の有無を判定するため、高精度にスミアの発生を検出することができる。   Further, since the presence or absence of smear is determined based on the result of the pattern matching process, it is possible to detect the occurrence of smear with high accuracy.

また、画像の部分領域である監視領域のみに対してパターンマッチング処理を行うため、少ない計算量で、スミアを検出することができる。   Further, since the pattern matching process is performed only on the monitoring area which is a partial area of the image, it is possible to detect smear with a small amount of calculation.

また、CCD撮像部及びCMOS撮像部の各々によって撮像した画像における被写体の位置が同じになるように、CCD撮像部及びCMOS撮像部の各々の位置や撮像方向を調整することができるため、スミア発生の検出精度を向上させることができる。   In addition, since the position and direction of each of the CCD image pickup unit and the CMOS image pickup unit can be adjusted so that the positions of the subjects in the images picked up by the CCD image pickup unit and the CMOS image pickup unit are the same, smear is generated. Detection accuracy can be improved.

なお、上記の実施の形態では、スミアが発生しない撮像素子として、CMOSイメージセンサを用いた場合を例に説明したが、スミアが発生しない撮像素子として、有機撮像デバイスとしての有機CMOS、νMAICOVICON(ニューマイコビコン)、及びHARP(High−gain Avalanche Rushing amorphous Photoconductor)の何れかを用いてもよい。   In the above-described embodiment, a case where a CMOS image sensor is used as an image pickup element that does not generate smear has been described as an example. However, as an image pickup element that does not generate smear, an organic CMOS as an organic image pickup device, νMAICOVICON (new Any of Mycobicon) and HARP (High-gain Avalanche Rushing Amorphous Photoconductor) may be used.

次に、第2の実施の形態に係る複眼カメラシステムについて説明する。なお、第2の実施の形態に係る複眼カメラシステムの構成は、第1の実施の形態と同様であるため、同一符号を付して説明を省略する。   Next, a compound eye camera system according to the second embodiment will be described. Note that the configuration of the compound eye camera system according to the second embodiment is the same as that of the first embodiment, and therefore the same reference numerals are given and description thereof is omitted.

第2の実施の形態では、パターンマッチング処理としてステレオマッチングを行う点と、2つの監視領域において、CCD画像データとCMOS画像データとを比較する点とが第1の実施の形態と異なっている。   The second embodiment is different from the first embodiment in that stereo matching is performed as pattern matching processing and that CCD image data and CMOS image data are compared in two monitoring areas.

図6に示すように、CCD画像データが示すCCD画像と、CMOS画像データが示すCMOS画像とにおいて、それぞれ同じ位置の領域を監視領域1及び監視領域2として予め設定している。監視領域1、2は、矩形状の領域であり、垂直方向に発生する特性を持つスミアが検出されるように、監視領域1、2の長手方向は水平方向となっている。また、画像の左上を原点とし、水平方向の位置をx座標として定義し、垂直方向の位置をy座標として定義しており、監視領域1、2のみについて、ステレオマッチングを行ってスミアを判定する。   As shown in FIG. 6, in the CCD image indicated by the CCD image data and the CMOS image indicated by the CMOS image data, the regions at the same position are set in advance as the monitoring region 1 and the monitoring region 2, respectively. The monitoring areas 1 and 2 are rectangular areas, and the longitudinal directions of the monitoring areas 1 and 2 are horizontal so that smear having characteristics that occur in the vertical direction is detected. Further, the upper left corner of the image is defined as the origin, the horizontal position is defined as the x coordinate, and the vertical position is defined as the y coordinate. Only the monitoring areas 1 and 2 are subjected to stereo matching to determine smear. .

次に第2の実施の形態に係る撮像処理ルーチンについて図7を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, an imaging processing routine according to the second embodiment will be described with reference to FIG. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、ステップ100において、撮像開始するか否かを判定し、撮像開始が指示されると、ステップ102において、CCD撮像部16及びCMOS撮像部18の各々に対して、撮像指示を出力し、CCD撮像部16及びCMOS撮像部18の各々において、被写体像を撮像し、そして、ステップ104では、CCD撮像部16で生成されたCCD画像データを取得して、左画像メモリ20に格納し、次のステップ106では、CMOS撮像部18で生成されたCMOS画像データを取得して、右画像メモリ22に格納する。   First, in step 100, it is determined whether or not to start imaging. When imaging start is instructed, in step 102, imaging instruction is output to each of the CCD imaging unit 16 and the CMOS imaging unit 18, and the CCD is started. In each of the imaging unit 16 and the CMOS imaging unit 18, a subject image is captured, and in step 104, the CCD image data generated by the CCD imaging unit 16 is acquired and stored in the left image memory 20. In step 106, the CMOS image data generated by the CMOS imaging unit 18 is acquired and stored in the right image memory 22.

次のステップ200では、左画像メモリ20からCCD画像データが表すCCD画像における監視領域1のCCD部分画像データを読み込み、ステップ202では、右画像メモリ22からCMOS画像データが表すCMOS画像における監視領域1のCMOS部分画像データを読み込み、ステップ204において、CCD部分画像データ及びCMOS部分画像データのステレオマッチングを行う。   In the next step 200, the CCD partial image data of the monitoring area 1 in the CCD image represented by the CCD image data is read from the left image memory 20, and in step 202, the monitoring area 1 in the CMOS image represented by the CMOS image data is read from the right image memory 22. In step 204, the CCD partial image data and the CMOS partial image data are stereo-matched.

ステレオマッチングでは、CCD部分画像データが示すCCD画像の小領域画像(監視領域1内の小領域画像)とCMOS部分画像データが示すCMOS画像の小領域画像(監視領域1内の小領域画像)との相関値を算出し、CCD部分画像データが示すCCD画像の小領域画像と一致する小領域画像が、CMOS部分画像データが示すCMOS画像の中から検索されるまで、CMOS部分画像データが示すCMOS画像の小領域画像を変更しながら、相関値を算出し、相関値に基づいて、一致する小領域画像であるか否かを判定する。また、CCD部分画像データが示すCCD画像の小領域画像と一致する小領域画像が検索されると、CCD部分画像データが示すCCD画像の小領域画像を次の小領域画像に移動し、次の小領域画像と一致する小領域画像をCMOS部分画像データが示すCMOS画像の中から検索する。例えば検索には、CMOS画像のエピポーラ線上もしくは、エピポーラ線を含む周辺領域について検索する方法がある。ここで使用するエピポーラ線方程式は、予め求めておけばよい。   In stereo matching, a small area image of the CCD image indicated by the CCD partial image data (small area image in the monitoring area 1) and a small area image of the CMOS image indicated by the CMOS partial image data (small area image in the monitoring area 1) Until the small area image matching the small area image of the CCD image indicated by the CCD partial image data is retrieved from the CMOS image indicated by the CMOS partial image data. The correlation value is calculated while changing the small area image of the image, and based on the correlation value, it is determined whether or not the image is a matching small area image. When a small area image that matches the small area image of the CCD image indicated by the CCD partial image data is retrieved, the small area image of the CCD image indicated by the CCD partial image data is moved to the next small area image, and A small area image matching the small area image is searched from the CMOS image indicated by the CMOS partial image data. For example, there is a method of searching for an epipolar line in a CMOS image or a peripheral region including the epipolar line. The epipolar line equation used here may be obtained in advance.

また、CCD部分画像データが示す画像の小領域画像について、CMOS部分画像データが示すCMOS画像のどの小領域画像とも相関がとれず、一致する小領域画像を、CMOS部分画像データが示すCMOS画像の中から検索できなかった場合には、マッチングエラーとなる。   Further, the small area image of the image indicated by the CCD partial image data is not correlated with any small area image of the CMOS image indicated by the CMOS partial image data, and the matching small area image is represented by the CMOS image indicated by the CMOS partial image data. If the search is not possible, a matching error occurs.

そして、ステップ206では、ステップ204のステレオマッチングでマッチングエラーが検出されたか否かを判定し、マッチングエラーが検出されなかった場合には、ステップ116へ移行するが、スミアの発生などによってCCD画像の一部が、CMOS画像のどの部分とも一致せずに、マッチングエラーが検出された場合には、ステップ208において、左画像メモリ20からCCD画像データが表すCCD画像における監視領域2のCCD部分画像データを読み込み、ステップ210では、右画像メモリ22からCMOS画像データが表すCMOS画像における監視領域2のCMOS部分画像データを読み込み、ステップ212において、ステップ204と同様に、CCD部分画像データ及びCMOS部分画像データのステレオマッチングを行う。   In step 206, it is determined whether or not a matching error is detected by the stereo matching in step 204. If no matching error is detected, the process proceeds to step 116. If a matching error is detected without any part matching any part of the CMOS image, in step 208, the CCD partial image data of the monitoring area 2 in the CCD image represented by the CCD image data from the left image memory 20 is detected. In step 210, the CMOS partial image data of the monitoring area 2 in the CMOS image represented by the CMOS image data is read from the right image memory 22, and in step 212, the CCD partial image data and the CMOS partial image data are read in the same manner as in step 204. Stereo map Carry out the ring.

そして、ステップ214では、ステップ204と同様に、ステップ212のステレオマッチングでマッチングエラーが検出されたか否かを判定し、マッチングエラーが検出されなかった場合には、ステップ116へ移行するが、マッチングエラーが検出された場合には、ステップ216において、ステップ204のステレオマッチングにおけるマッチングエラーの検出位置のx座標と、ステップ212のステレオマッチングにおけるマッチングエラーの検出位置のx座標とが同じであるか否かを判定する。   In step 214, as in step 204, it is determined whether or not a matching error has been detected in the stereo matching in step 212. If no matching error has been detected, the process proceeds to step 116. Is detected, whether or not the x coordinate of the detection position of the matching error in the stereo matching in step 204 is the same as the x coordinate of the detection position of the matching error in the stereo matching in step 212. Determine.

CCDエリアセンサ42にスミアが発生し、CCDエリアセンサ42によって撮像されたCCD画像に、図6に示すように、垂直方向に白い帯状の線が入っている場合には、マッチングエラーの検出位置のx座標が、監視領域1及び監視領域2で同じになるため、上記のステップ216において、マッチングエラーの検出位置のx座標が同じになると判定されると、ステップ118へ移行し、CMOSイメージセンサ44によって撮像されたCMOS画像を出力画像として選択して、右画像メモリ22からCMOS画像データを読み込んで、メモリカード24に書き込むと共に、出力装置14へ出力し、撮像処理ルーチンを終了する。一方、マッチングエラーの検出位置のx座標が異なる場合には、スミアが発生しておらず、単なるゴミが撮像された場合や、違うものが撮像された場合であると判断されるため、ステップ116へ移行する。ステップ116では、スミアが発生していないため、CCDエリアセンサ42によって撮像されたCCD画像を出力画像として選択して、左画像メモリ20からCCD画像データを読み込んで、メモリカード24に書き込むと共に、出力装置14へ出力し、撮像処理ルーチンを終了する。   When smear occurs in the CCD area sensor 42 and the CCD image picked up by the CCD area sensor 42 includes a white belt-like line in the vertical direction as shown in FIG. 6, the detection position of the matching error is detected. Since the x coordinate is the same in the monitoring area 1 and the monitoring area 2, if it is determined in step 216 that the x coordinate of the detection position of the matching error is the same, the process proceeds to step 118, and the CMOS image sensor 44. Is selected as an output image, CMOS image data is read from the right image memory 22, written to the memory card 24, and output to the output device 14, and the imaging processing routine is terminated. On the other hand, if the x coordinate of the detection position of the matching error is different, it is determined that smear has not occurred, and that it is a case where a mere dust is imaged or a different image is captured. Migrate to In step 116, since smear has not occurred, the CCD image picked up by the CCD area sensor 42 is selected as the output image, the CCD image data is read from the left image memory 20, written to the memory card 24, and output. The image is output to the apparatus 14, and the imaging processing routine is terminated.

以上説明したように、第2の実施の形態に係る複眼カメラステムによれば、ステレオマッチングの結果を用いて、高精度にスミアの発生を検出することができる。   As described above, according to the compound eye camera stem according to the second embodiment, the occurrence of smear can be detected with high accuracy using the result of stereo matching.

また、2つの監視領域におけるマッチングエラーの検出位置に基づいて、スミアが発生したか否かを判定するため、スミアの発生の誤検出を防止することができる。   Further, since it is determined whether or not smear has occurred based on the matching error detection positions in the two monitoring areas, it is possible to prevent erroneous detection of smear.

次に、第3の実施の形態に係る複眼カメラシステムについて説明する。なお、第3の実施の形態に係る複眼カメラシステムの構成は、第1の実施の形態及び第2の実施の形態と同様であるため、同一符号を付して説明を省略する。   Next, a compound eye camera system according to a third embodiment will be described. The configuration of the compound eye camera system according to the third embodiment is the same as that of the first embodiment and the second embodiment, and thus the same reference numerals are given and the description thereof is omitted.

第3の実施の形態では、CCDエリアセンサによって撮像されたCCD画像と、CMOSイメージセンサによって撮像されたCMOS画像との輝度値を比較することにより、スミアの発生を判定する点が第2の実施の形態と異なっている。   In the third embodiment, the second embodiment is that the occurrence of smear is determined by comparing the luminance values of the CCD image captured by the CCD area sensor and the CMOS image captured by the CMOS image sensor. The form is different.

図8に示すように、CCD画像データが示すCCD画像と、CMOS画像データが示すCMOS画像とにおいて、第2の実施の形態と同様に、それぞれ同じ位置の領域を監視領域1、2として予め設定しており、監視領域1、2のみについて、輝度値を比較してスミアの発生を判定する。   As shown in FIG. 8, in the CCD image indicated by the CCD image data and the CMOS image indicated by the CMOS image data, the regions at the same position are set in advance as the monitoring regions 1 and 2, respectively, as in the second embodiment. Thus, only the monitoring areas 1 and 2 are compared to determine the occurrence of smear by comparing the luminance values.

次に第3の実施の形態に係る撮像処理ルーチンについて図9を用いて説明する。なお、第1の実施の形態及び第2の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, an imaging processing routine according to the third embodiment will be described with reference to FIG. In addition, about the process similar to 1st Embodiment and 2nd Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、ステップ100において、撮像開始するか否かを判定し、撮像開始が指示されると、ステップ102において、CCD撮像部16及びCMOS撮像部18の各々に対して、撮像指示を出力し、CCD撮像部16及びCMOS撮像部18の各々において、被写体像を撮像し、そして、ステップ104では、CCD撮像部16で生成されたCCD画像データを取得して、左画像メモリ20に格納し、次のステップ106では、CMOS撮像部18で生成されたCMOS画像データを取得して、右画像メモリ22に格納する。   First, in step 100, it is determined whether or not to start imaging. When imaging start is instructed, in step 102, imaging instruction is output to each of the CCD imaging unit 16 and the CMOS imaging unit 18, and the CCD is started. In each of the imaging unit 16 and the CMOS imaging unit 18, a subject image is captured, and in step 104, the CCD image data generated by the CCD imaging unit 16 is acquired and stored in the left image memory 20. In step 106, the CMOS image data generated by the CMOS imaging unit 18 is acquired and stored in the right image memory 22.

次のステップ200では、左画像メモリ20からCCD画像データが表すCCD画像における監視領域1のCCD部分画像データを読み込み、ステップ202では、右画像メモリ22からCMOS画像データが表すCMOS画像における監視領域1のCMOS部分画像データを読み込み、ステップ300において、CCD部分画像データ及びCMOS部分画像データによって、監視領域1の輝度値比較を行う。   In the next step 200, the CCD partial image data of the monitoring area 1 in the CCD image represented by the CCD image data is read from the left image memory 20, and in step 202, the monitoring area 1 in the CMOS image represented by the CMOS image data is read from the right image memory 22. In step 300, the luminance value of the monitoring area 1 is compared based on the CCD partial image data and the CMOS partial image data.

輝度値比較では、CCD部分画像データが示すCCD画像の小領域画像(監視領域1内の小領域画像)とCMOS部分画像データが示すCMOS画像の同じ位置の小領域画像(監視領域1内の対応する部分の小領域画像)との輝度値差分を算出し、監視領域1内の全ての小領域画像に対して、輝度値差分を算出する。なお、小領域画像の大きさは、CCD撮像部16とCMOS撮像部18との距離や複眼カメラ12と被写体との距離に基づいて、CCD撮像部16とCMOS撮像部18とで撮像した画像のずれを実験的に求め、このずれを許容するような大きさを予め求めておけばよい。   In the luminance value comparison, the small area image of the CCD image indicated by the CCD partial image data (small area image in the monitoring area 1) and the small area image at the same position of the CMOS image indicated by the CMOS partial image data (correspondence in the monitoring area 1). Brightness value differences with respect to all small area images in the monitoring area 1 are calculated. Note that the size of the small area image is based on the distance between the CCD imaging unit 16 and the CMOS imaging unit 18 and the distance between the compound eye camera 12 and the subject, and the image captured by the CCD imaging unit 16 and the CMOS imaging unit 18. What is necessary is to obtain | require experimentally and to obtain | require the magnitude | size which accept | permits this deviation beforehand.

そして、ステップ302では、ステップ300の輝度値比較において算出された輝度値差分のうち、しきい値以上の輝度値差分があるか否かを判定し、全ての小領域画像において、輝度値差分がしきい値未満である場合には、CCD画像の監視領域1にスミアによる高輝度部分がないと判断し、ステップ116へ移行する。一方、ある小領域画像において、輝度値差分がしきい値以上となる場合には、CCD画像の監視領域1に、スミアの発生やゴミが撮像されることによる高輝度部分があるため、ステップ208へ移行する。なお、しきい値として、スミアが発生した場合における、スミアによるCCD画像の高輝度部分と、CMOS画像の対応する部分との輝度値差分を、予め実験的に求めておけばよい。   In step 302, it is determined whether there is a luminance value difference equal to or greater than a threshold value among the luminance value differences calculated in the luminance value comparison in step 300, and the luminance value difference is determined in all the small region images. If it is less than the threshold value, it is determined that there is no high brightness portion due to smear in the monitoring area 1 of the CCD image, and the routine proceeds to step 116. On the other hand, if the luminance value difference is equal to or larger than the threshold value in a certain small area image, there is a high luminance portion in the monitoring area 1 of the CCD image due to the occurrence of smear or dust being imaged. Migrate to It should be noted that the threshold value difference between the high-luminance portion of the CCD image due to smear and the corresponding portion of the CMOS image when smear occurs may be experimentally obtained in advance.

そして、ステップ208において、左画像メモリ20からCCD画像データが表すCCD画像における監視領域2のCCD部分画像データを読み込み、ステップ210では、右画像メモリ22からCMOS画像データが表すCMOS画像における監視領域2のCMOS部分画像データを読み込み、ステップ304において、ステップ300と同様に、CCD部分画像データ及びCMOS部分画像データによって、監視領域2の輝度値比較を行う。   In step 208, the CCD partial image data of the monitoring area 2 in the CCD image represented by the CCD image data is read from the left image memory 20, and in step 210, the monitoring area 2 in the CMOS image represented by the CMOS image data is read from the right image memory 22. The CMOS partial image data is read, and in step 304, as in step 300, the luminance values of the monitoring region 2 are compared using the CCD partial image data and the CMOS partial image data.

そして、ステップ306では、ステップ302と同様に、ステップ300の輝度値比較において算出された輝度値差分のうち、しきい値以上の輝度値差分があるか否かを判定し、全ての小領域画像において、輝度値差分がしきい値未満である場合には、ステップ116へ移行するが、ある小領域画像において、輝度値差分がしきい値以上となる場合には、ステップ308において、ステップ300の輝度値比較におけるしきい値以上の輝度値差分となる位置のx座標と、ステップ304の輝度値比較におけるしきい値以上の輝度値差分となる位置のx座標とが同じであるか否かを判定する。   In step 306, as in step 302, it is determined whether or not there is a luminance value difference equal to or greater than a threshold value among the luminance value differences calculated in the luminance value comparison in step 300. When the luminance value difference is less than the threshold value, the process proceeds to step 116. However, when the luminance value difference is equal to or larger than the threshold value in a certain small region image, in step 308, the process proceeds to step 300. It is determined whether or not the x coordinate of the position that is the luminance value difference equal to or greater than the threshold value in the luminance value comparison is the same as the x coordinate of the position that is the luminance value difference equal to or greater than the threshold value in the luminance value comparison in step 304. judge.

CCDエリアセンサ42にスミアが発生し、CCDエリアセンサ42によって撮像されたCCD画像に、図8に示すように、垂直方向に白い帯状の線が入っている場合には、しきい値以上の輝度値差分発生位置のx座標が、監視領域1及び監視領域2で同じになるため、上記のステップ308において、しきい値以上の輝度値差分発生位置のx座標が同じになると判定されると、ステップ118へ移行し、CMOSイメージセンサ44で撮像されたCMOS画像を出力画像として選択して、右画像メモリ22からCMOS画像データを読み込んで、メモリカード24に書き込むと共に、出力装置14へ出力し、撮像処理ルーチンを終了する。一方、しきい値以上の輝度値差分発生位置のx座標が異なる場合には、ステップ116へ移行する。ステップ116では、スミアが発生していないため、CCDエリアセンサ42で撮像されたCCD画像を出力画像として選択して、左画像メモリ20からCCD画像データを読み込んで、メモリカード24に書き込むと共に、出力装置14へ出力し、撮像処理ルーチンを終了する。   When smear occurs in the CCD area sensor 42 and the CCD image picked up by the CCD area sensor 42 includes a white band-like line in the vertical direction as shown in FIG. Since the x coordinate of the value difference occurrence position is the same in the monitoring area 1 and the monitoring area 2, if it is determined in step 308 that the x coordinate of the luminance value difference occurrence position equal to or greater than the threshold value is the same, The process proceeds to step 118, a CMOS image captured by the CMOS image sensor 44 is selected as an output image, CMOS image data is read from the right image memory 22, written to the memory card 24, and output to the output device 14, The imaging process routine ends. On the other hand, if the x-coordinates of the luminance value difference occurrence positions equal to or greater than the threshold value are different, the process proceeds to step 116. In step 116, since no smear has occurred, the CCD image picked up by the CCD area sensor 42 is selected as an output image, the CCD image data is read from the left image memory 20, written to the memory card 24, and output. The image is output to the apparatus 14, and the imaging processing routine is terminated.

以上説明したように、第3の実施の形態に係る複眼カメラシステムによれば、輝度値の差分を算出して、スミアの発生を判定するため、少ない計算量で、スミアを検出することができる。   As described above, according to the compound-eye camera system according to the third embodiment, it is possible to detect the smear with a small amount of calculation because the difference between the luminance values is calculated to determine the occurrence of the smear. .

本発明の第1の実施の形態に係る複眼カメラシステムの主要構成を示すブロック図である。It is a block diagram which shows the main structures of the compound eye camera system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る複眼カメラシステムを示す概略図である。1 is a schematic diagram showing a compound eye camera system according to a first embodiment of the present invention. (A)は本発明の第1の実施の形態に係る複眼カメラを示す正面図、(B)は複眼カメラを示す上面図、(C)は複眼カメラを示す側面図である。(A) is a front view showing a compound eye camera according to the first embodiment of the present invention, (B) is a top view showing a compound eye camera, and (C) is a side view showing the compound eye camera. 本発明の第1の実施の形態に係る複眼カメラのCCD撮像部及びCMOS撮像部の位置及び撮像方向を調整する場合のイメージ図である。It is an image figure in the case of adjusting the position and imaging direction of a CCD imaging part and a CMOS imaging part of a compound eye camera concerning a 1st embodiment of the present invention. 本発明の第1の実施の形態に係る複眼カメラの撮像処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the imaging process routine of the compound eye camera which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る複眼カメラにおけるステレオマッチングの様子を示すイメージ図である。It is an image figure which shows the mode of the stereo matching in the compound eye camera which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る複眼カメラの撮像処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the imaging process routine of the compound eye camera which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る複眼カメラにおける輝度値比較の様子を示すイメージ図である。It is an image figure which shows the mode of the luminance value comparison in the compound eye camera which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る複眼カメラの撮像処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the imaging process routine of the compound eye camera which concerns on the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

10 複眼カメラシステム
12 複眼カメラ
14 出力装置
16 CCD撮像部
18 CMOS撮像部
20 左画像メモリ
22 右画像メモリ
24 メモリカード
26 制御部
32 回転軸
34 スライド溝
42 CCDエリアセンサ
44 CMOSイメージセンサ
DESCRIPTION OF SYMBOLS 10 Compound eye camera system 12 Compound eye camera 14 Output device 16 CCD image pick-up part 18 CMOS image pick-up part 20 Left image memory 22 Right image memory 24 Memory card 26 Control part 32 Rotating shaft 34 Slide groove 42 CCD area sensor 44 CMOS image sensor

Claims (9)

電荷結合素子で構成され、被写体像を撮像する第1の撮像手段と、
スミアを発生させない撮像素子で構成され、被写体像を撮像する第2の撮像手段と、
前記第1の撮像手段が撮像したときに、前記電荷結合素子にスミアが発生したか否かを判定する判定手段と、
前記判定手段によって、スミアが発生しなかったと判定された場合に、前記第1の撮像手段によって撮像された画像を選択し、スミアが発生したと判定された場合に、前記第2の撮像手段によって撮像された画像を選択する選択手段と、
を含む撮像装置。
A first imaging means that is constituted by a charge coupled device and images a subject image;
A second imaging means that is configured by an imaging element that does not generate smear, and that captures a subject image;
A determination unit that determines whether smear has occurred in the charge-coupled device when the first imaging unit captures an image;
When the determination means determines that smear has not occurred, the image picked up by the first image pickup means is selected, and when it is determined that smear has occurred, the second image pickup means A selection means for selecting a captured image;
An imaging apparatus including:
前記第2の撮像手段の撮像素子は、スミアが発生しない状態の前記電荷結合素子より撮像した画像の画質が低いことを特徴とする請求項1記載の撮像装置。   The image pickup apparatus according to claim 1, wherein the image pickup device of the second image pickup means has a lower image quality of an image picked up than the charge coupled device in a state where smear does not occur. 前記判定手段は、前記第1の撮像手段によって撮像された画像の予め定められた領域の画像データと前記第2の撮像手段によって撮像された画像の前記予め定められた領域の画像データとのパターンマッチング処理を行い、前記パターンマッチング処理の結果に基づいて、前記電荷結合素子にスミアが発生したか否かを判定する請求項1又は2記載の撮像装置。   The determination means includes a pattern of image data of a predetermined area of the image captured by the first imaging means and image data of the predetermined area of the image captured by the second imaging means. The imaging apparatus according to claim 1, wherein matching processing is performed, and it is determined whether smear has occurred in the charge coupled device based on a result of the pattern matching processing. 前記判定手段のパターンマッチング処理は、ステレオマッチングである請求項3記載の撮像装置。   The imaging apparatus according to claim 3, wherein the pattern matching processing of the determination unit is stereo matching. 前記判定手段は、前記第1の撮像手段によって撮像された画像の予め定められた領域と前記第2の撮像手段によって撮像された画像の前記予め定められた領域とにおいて対応する部分の輝度値の差分を算出し、前記算出された輝度値の差分が所定値以上のとき、スミアが発生したと判定する請求項1又は2記載の撮像装置。   The determination unit is configured to obtain a luminance value of a portion corresponding to a predetermined region of the image captured by the first imaging unit and the predetermined region of the image captured by the second imaging unit. The imaging apparatus according to claim 1, wherein a difference is calculated, and it is determined that smear has occurred when the difference between the calculated luminance values is equal to or greater than a predetermined value. 前記予め定められた領域は、前記第1の撮像手段及び第2の撮像手段によって撮像された画像の部分領域である請求項3〜請求項5の何れか1項記載の撮像装置。   The imaging apparatus according to claim 3, wherein the predetermined area is a partial area of an image captured by the first imaging unit and the second imaging unit. 前記第1の撮像手段及び前記第2の撮像手段の各々は、自装置における位置及び撮像方向の少なくとも一方が調整可能となっている請求項1〜請求項6の何れか1項記載の撮像装置。   The imaging apparatus according to any one of claims 1 to 6, wherein each of the first imaging unit and the second imaging unit is adjustable in at least one of a position and an imaging direction in the own apparatus. . 前記選択手段によって選択された画像を出力する出力手段を更に含む請求項1〜請求項7の何れか1項記載の撮像装置。   The imaging apparatus according to claim 1, further comprising an output unit that outputs an image selected by the selection unit. 前記選択手段によって選択された画像を記憶する記憶手段を更に含む請求項1〜請求項8の何れか1項記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a storage unit that stores an image selected by the selection unit.
JP2006172983A 2006-06-22 2006-06-22 Imaging device Expired - Fee Related JP4745147B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006172983A JP4745147B2 (en) 2006-06-22 2006-06-22 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006172983A JP4745147B2 (en) 2006-06-22 2006-06-22 Imaging device

Publications (2)

Publication Number Publication Date
JP2008005244A true JP2008005244A (en) 2008-01-10
JP4745147B2 JP4745147B2 (en) 2011-08-10

Family

ID=39009264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006172983A Expired - Fee Related JP4745147B2 (en) 2006-06-22 2006-06-22 Imaging device

Country Status (1)

Country Link
JP (1) JP4745147B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012199736A (en) * 2011-03-22 2012-10-18 Sony Corp Image processing system, image processing method and program
JP2016521480A (en) * 2013-03-22 2016-07-21 セイコーエプソン株式会社 Infrared video display eyewear

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004363935A (en) * 2003-06-04 2004-12-24 Fuji Photo Film Co Ltd Digital camera
JP2005223146A (en) * 2004-02-05 2005-08-18 Asahi Kasei Microsystems Kk Solid-state imaging element and method for manufacturing same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004363935A (en) * 2003-06-04 2004-12-24 Fuji Photo Film Co Ltd Digital camera
JP2005223146A (en) * 2004-02-05 2005-08-18 Asahi Kasei Microsystems Kk Solid-state imaging element and method for manufacturing same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012199736A (en) * 2011-03-22 2012-10-18 Sony Corp Image processing system, image processing method and program
JP2016521480A (en) * 2013-03-22 2016-07-21 セイコーエプソン株式会社 Infrared video display eyewear
US10218884B2 (en) 2013-03-22 2019-02-26 Seiko Epson Corporation Infrared video display eyewear

Also Published As

Publication number Publication date
JP4745147B2 (en) 2011-08-10

Similar Documents

Publication Publication Date Title
US8619120B2 (en) Imaging apparatus, imaging method and recording medium with program recorded therein
US20160142627A1 (en) Image capturing device and digital zooming method thereof
JP5154392B2 (en) Imaging device
CN102870404B (en) Imaging device and dark current correction method of same
US20130063555A1 (en) Image processing device that combines a plurality of images
US8929452B2 (en) Image processing apparatus, image capturing apparatus, and computer program
JP4798236B2 (en) Imaging apparatus, image processing method, and program
JP2009152698A (en) Imaging apparatus, control method therefor, and program
JP2012105023A (en) Image processing apparatus, image pickup device, and image processing method
US7961241B2 (en) Image correcting apparatus, picked-up image correcting method, and computer readable recording medium
JP2012231262A (en) Imaging apparatus, blur correction method, control program, and recording medium for recording control program
JP5696419B2 (en) Image processing apparatus and method, and program
JP6564284B2 (en) Image processing apparatus and image processing method
US20130076940A1 (en) Photographing apparatus and method of detecting distortion thereof
JP2010050842A (en) High dynamic stitching method for multi-lens camera system
JP4745147B2 (en) Imaging device
JP2011101158A (en) Imaging apparatus
JP2005227931A (en) Image processing apparatus
JP2009239460A (en) Focus control method, distance measuring equipment, imaging device
JP2009088628A (en) Image processor
JP5209137B2 (en) Imaging device
JP2004117195A (en) Digital camera with speed measuring function
JP6218408B2 (en) Image processing apparatus, image processing method, and program
JP2005134617A (en) Focus detector
JP2008122981A (en) Focus detection device for camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110218

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110511

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees