JP4322921B2 - カメラモジュールおよびそれを備えた電子機器 - Google Patents
カメラモジュールおよびそれを備えた電子機器 Download PDFInfo
- Publication number
- JP4322921B2 JP4322921B2 JP2006515432A JP2006515432A JP4322921B2 JP 4322921 B2 JP4322921 B2 JP 4322921B2 JP 2006515432 A JP2006515432 A JP 2006515432A JP 2006515432 A JP2006515432 A JP 2006515432A JP 4322921 B2 JP4322921 B2 JP 4322921B2
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- image
- camera module
- block
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 claims description 365
- 238000011156 evaluation Methods 0.000 claims description 236
- 238000012937 correction Methods 0.000 claims description 190
- 238000004364 calculation method Methods 0.000 claims description 59
- 238000000034 method Methods 0.000 claims description 55
- 238000012545 processing Methods 0.000 claims description 52
- 230000003287 optical effect Effects 0.000 claims description 27
- 230000000875 corresponding effect Effects 0.000 claims description 26
- 230000002596 correlated effect Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 12
- 230000001276 controlling effect Effects 0.000 claims description 4
- 230000015654 memory Effects 0.000 description 69
- 238000010586 diagram Methods 0.000 description 47
- 238000003708 edge detection Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 26
- 230000008859 change Effects 0.000 description 25
- 230000014509 gene expression Effects 0.000 description 11
- 230000003595 spectral effect Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 239000006059 cover glass Substances 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 239000011347 resin Substances 0.000 description 6
- 229920005989 resin Polymers 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 239000000758 substrate Substances 0.000 description 5
- 239000000853 adhesive Substances 0.000 description 4
- 230000001070 adhesive effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 238000007740 vapor deposition Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005294 ferromagnetic effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000005476 soldering Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/13—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
- H04N23/15—Image signal generation with circuitry for avoiding or correcting image misregistration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/13—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/40—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
- H04N25/41—Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L2224/00—Indexing scheme for arrangements for connecting or disconnecting semiconductor or solid-state bodies and methods related thereto as covered by H01L24/00
- H01L2224/01—Means for bonding being attached to, or being formed on, the surface to be connected, e.g. chip-to-package, die-attach, "first-level" interconnects; Manufacturing methods related thereto
- H01L2224/42—Wire connectors; Manufacturing methods related thereto
- H01L2224/44—Structure, shape, material or disposition of the wire connectors prior to the connecting process
- H01L2224/45—Structure, shape, material or disposition of the wire connectors prior to the connecting process of an individual wire connector
- H01L2224/45001—Core members of the connector
- H01L2224/45099—Material
- H01L2224/451—Material with a principal constituent of the material being a metal or a metalloid, e.g. boron (B), silicon (Si), germanium (Ge), arsenic (As), antimony (Sb), tellurium (Te) and polonium (Po), and alloys thereof
- H01L2224/45138—Material with a principal constituent of the material being a metal or a metalloid, e.g. boron (B), silicon (Si), germanium (Ge), arsenic (As), antimony (Sb), tellurium (Te) and polonium (Po), and alloys thereof the principal constituent melting at a temperature of greater than or equal to 950°C and less than 1550°C
- H01L2224/45144—Gold (Au) as principal constituent
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L2224/00—Indexing scheme for arrangements for connecting or disconnecting semiconductor or solid-state bodies and methods related thereto as covered by H01L24/00
- H01L2224/01—Means for bonding being attached to, or being formed on, the surface to be connected, e.g. chip-to-package, die-attach, "first-level" interconnects; Manufacturing methods related thereto
- H01L2224/42—Wire connectors; Manufacturing methods related thereto
- H01L2224/47—Structure, shape, material or disposition of the wire connectors after the connecting process
- H01L2224/48—Structure, shape, material or disposition of the wire connectors after the connecting process of an individual wire connector
- H01L2224/4805—Shape
- H01L2224/4809—Loop shape
- H01L2224/48091—Arched
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L2924/00—Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
- H01L2924/15—Details of package parts other than the semiconductor or other solid state devices to be connected
- H01L2924/161—Cap
- H01L2924/1615—Shape
- H01L2924/16195—Flat cap [not enclosing an internal cavity]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Color Television Image Signal Generators (AREA)
- Focusing (AREA)
Description
本発明の実施の形態1に係るカメラモジュールは、エッジを検出し、ブロックに分割し、ブロック毎の視差に基づき視差補正することにより、全画像領域できれいな画像を得る。また、視差に基づく自動焦点制御により粗調整を行い、高精度なコントラストに基づく自動焦点制御により微調整を行うことにより、高速で高精度に自動焦点制御できる。また、微調整量を学習し、次回の粗調整の精度を向上する。
次に、コントラストと焦点距離との関係を説明する。
・・・(2)
C2(x,y)=C1(x-1,y-1)+C1(x,y-1)+C1(x+1,y-1)
+C1(x-1,y)+C1(x,y)+C1(x+1,y)
+C1(x-1,y+1)+C1(x,y+1)+C1(x+1,y+1)・・・(3)
ステップS122において、エッジを検出する。図13(C)は、本発明の実施の形態1に係るカメラモジュールのエッジ検出を説明するエッジの画像である。図13(B)のエッジ検出用コントラスト評価値C2(x,y)の0クロス(値が正から負に変化する点、および値が負から正に変化する点)を検知することにより、図13(C)のようなエッジを検出できる。次に、ステップS130を実行する。
この視差評価値Ri(k)は、i番目のブロックBiの第1の画像信号I1と、x、y方向にそれぞれ(k、k)だけ離れた領域における第4の画像信号I4がどれだけ相関があるかを示し、値が小さいほど相関が大きい(よく似ている)ことを示す。図15は、本発明の実施の形態1に係るカメラモジュールの視差と視差評価値との関係を説明する図である。図15のように、視差評価値Ri(k)はkの値によって変化し、k=Δiのとき極小値を持つ。これは、第4の画像信号I4のi番目のブロックBiをx、y方向にそれぞれ(−Δi、−Δi)だけ移動させて得られるブロックの画像信号は、第1の画像信号I1と最も相関がある(最も似ている)ことを示す。したがって、i番目のブロックについての第1の撮像信号I1と第4の撮像信号I4とのx、y方向の視差が(Δi、Δi)であることが分かる。以下、このΔiを、i番目のブロックBiの視差値Δiと呼ぶ。このように、i=0からi=nまでの全てのブロックBiの視差値Δiを求める。次に、ステップS151を実行する。
Biの視差値Δiを利用する。次に、ステップS152を実行する。
B(x,y)=I2(x-Δi,y) ・・・(6)
R(x,y)=I3(x,y-Δi) ・・・(7)
ステップS152において、画像を出力する。入出力部136は、システム制御部131のメモリ上のデータであるG(x,y),B(x,y),R(x,y)を、上位CPU(図示せず)や外部表示装置(図示せず)に出力する。なお、G(x,y),B(x,y),R(x,y)の代わりに、例えば、輝度、色差信号などの出力を出力してもよい。また、ホワイトバランスやγ補正などの画像処理後の値を出力してもよい。次に、S161を実行する。
Xact=kx・Δaf ・・・(9)
ステップS163において、アクチュエータ制御部146は、下記式(10)で示した操作量関数を用いてアクチュエータ操作量(アクチュエータ可動部115のコイルへの印加電圧)Vactを演算する。また、後述の操作量関数の学習のために、アクチュエータ操作量をVact0として保存する。次に、ステップS164を実行する。
Vact0=Vact ・・・(10’)
ステップS164において、アクチュエータを動作させる。アクチュエータ操作量出力部134は、アンプ126を介したのちアクチュエータ可動部115のコイル(図示せず)に印加される電圧がVactになるように出力する電圧信号を変更する。次に、ステップS171を実行する。
・・・(11)
C4(x,y)=C3(x-1,y-1)+C3(x,y-1)+C3(x+1,y-1)
+C3(x-1,y)+C3(x,y)+C3(x+1,y)
+C3(x-1,y+1)+C3(x,y+1)+C3(x+1,y+1) ・・・(12)
C5=ΣC4(x,y)/N ・・・(13)
C50=C5 ・・・(14)
ステップS172において、アクチュエータ操作量の正側補正時の自動焦点制御用コントラスト評価値を作成する。ステップS172は、ステップS172a、ステップS172b、ステップS172c、およびステップS172dから成る。まず、ステップS172aを実行する。
Vactp=Vact ・・・(16)
ステップS172bにおいて、アクチュエータを動作させ、ステップS172cにおいて、撮影を実行し、ステップS172dにおいて、自動焦点制御用コントラスト評価値を作成する。ステップS172bはステップS164と同様な動作を行う。また、ステップS172c、ステップS172dは、ステップ171c、ステップS171dと同様な動作を行い、下記式(17)のように、コントラスト評価値C5を正側補正後の自動焦点用コントラスト評価値C5pとし、システム制御部131のメモリに書き込む。次に、ステップS173を実行する。
ステップS173において、アクチュエータ操作量の負側補正時の自動焦点制御用コントラスト評価値を作成する。ステップS173は、ステップS173a、ステップS173b、ステップS173c、およびステップS173dから成る。まず、ステップS173aを実行する。
Vactn=Vact ・・・(19)
ステップS173bにおいて、アクチュエータを動作させ、ステップS173cにおいて、撮影を実行し、ステップS173dにおいて、自動焦点制御用コントラスト評価値を作成する。ステップ172b、ステップS172c、ステップS172dと同様な動作を行い、下記式(20)のように、コントラスト評価値C5を負側補正後の自動焦点用コントラスト評価値C5nとし、システム制御部131のメモリに書き込む。次に、ステップS174を実行する。
ステップS174において、焦点制御用コントラスト評価値を評価する。C50、C5p、C5nを比較し、どれが最大値であるかによって分岐する。
C5pが最大値のとき、以下の動作を行い、次にステップS175を実行する。図16(B)は、本発明の実施の形態1に係るカメラモジュールにおいて、正側補正後のコントラスト評価値が最大となるときのアクチュエータ操作量とコントラスト評価値の関係を説明する図である。図16(B)のように、正側補正後のアクチュエータ操作量Vactp、あるいは、さらに正側に補正した後のアクチュエータ操作量Vactが、自動焦点制御用コントラスト評価値C5のほぼ極大値を与えるため、さらにアクチュエータ操作量を正側に補正し、極大値を探索する。なお、下記式(22)のように、C5pを前回値としてC5ppとして保存する。
C5nが最大値のとき、以下の動作を行い、次にステップS176を実行する。図16(C)は、本発明の実施の形態1に係るカメラモジュールにおいて、負側補正後のコントラスト評価値が最大となるときのアクチュエータ操作量とコントラスト評価値の関係を説明する図である。図16(C)のように、負側補正後のアクチュエータ操作量Vactn、あるいは、さらに負側に補正した後のアクチュエータ操作量Vactが、自動焦点制御用コントラスト評価値C5のほぼ極大値を与えるため、さらにアクチュエータ操作量を負側に補正し、極大値を探索する。なお、下記式(23)のように、C5nを前回値としてC5npとして保存する。
ステップS175において、さらなる正側補正時の自動焦点用コントラスト評価値の作成と評価を行う。ステップS175は、ステップS175a、ステップS175b、ステップS175c、ステップS175d、およびステップS175eから成る。まず、ステップS175aを実行する。
Vactp=Vact ・・・(25)
ステップS175bにおいて、アクチュエータを動作させ、ステップS175cにおいて、撮影を実行し、ステップS175dにおいて、自動焦点制御用コントラスト評価値を作成する。ステップ172b、ステップS172c、ステップS172dと同様な動作を行い、下記式(26)のように、コントラスト評価値C5を正側補正後の自動焦点用コントラスト評価値C5pとして、システム制御部131のメモリに書き込む。次に、ステップS175eを実行する。
ステップS175eにおいて、焦点制御用コントラスト評価値を評価する。C5pp、C5pを比較し、どれが最大値であるかによって分岐する。
C5pが最大値のとき、以下の動作を行い、次にステップS175aを実行する。図17(B)は、本発明の実施の形態1に係るカメラモジュールにおいて、さらなる正側補正をしたとき、この正側補正後でのコントラスト評価値が最大となるアクチュエータ操作量とコントラスト評価値の関係を説明する図である。図17(B)のように、今回の正側補正後のアクチュエータ操作量Vactp、あるいは、さらに正側に補正した後のアクチュエータ操作量Vactが、自動焦点制御用コントラスト評価値C5のほぼ極大値を与えるため、さらにアクチュエータ操作量を正側に補正し、極大値を探索する。なお、下記式(28)のように、C5pを前回値としてC5ppとして保存する。
ステップS176において、さらなる負側補正時の自動焦点用コントラスト評価値の作成と評価を行う。ステップS176は、ステップS176a、ステップS176b、ステップS176c、ステップS176d、およびステップS176eから成る。まず、ステップS176aを実行する。
Vactn=Vact ・・・(30)
ステップS176bにおいて、アクチュエータを動作させ、ステップS176cにおいて、撮影を実行し、ステップS176dにおいて、自動焦点制御用コントラスト評価値を作成する。ステップ172b、ステップS172c、ステップS172dと同様な動作を行い、下記式(31)のように、コントラスト評価値C5を負側補正後の自動焦点用コントラスト評価値C5nとして、システム制御部131のメモリに書き込む。次に、ステップS176eを実行する。
ステップS176eにおいて、焦点制御用コントラスト評価値を評価する。C5np、C5nを比較し、どれが最大値であるかによって分岐する。
C5nが最大値のとき、以下の動作を行い、次にステップS176aを実行する。図18(B)は、本発明の実施の形態1に係るカメラモジュールにおいて、さらなる負側補正をしたとき、この負側補正後でのコントラスト評価値が最大となるアクチュエータ操作量とコントラスト評価値の関係を説明する図である。図18(B)のように、今回の負側補正後のアクチュエータ操作量Vactn、あるいは、さらに負側に補正した後のアクチュエータ操作量Vactが、自動焦点制御用コントラスト評価値C5のほぼ極大値を与えるため、さらにアクチュエータ操作量を負側に補正し、極大値を探索する。なお、下記式(33)のように、C5nを前回値としてC5npとして保存する。
ステップS181とステップS182とステップS183とステップS184とステップS185とにおいて、最終的な撮影と画像出力を行う。
S182において、アクチュエータを動作させる。このステップは、ステップS164と同様に動作させる。次に、ステップS183を実行する。
ステップS199において、処理を終了する。
本発明の実施の形態2に係るカメラモジュールは、複数画像のコントラストを用いてエッジの視差を検出し、この視差に基づき全画像領域の視差を演算し、この視差に基づき視差の影響を低減するように画像合成し視差補正することにより、全画像領域で視差の影響が低減されたきれいな画像を得る。
ステップS212において、アクチュエータ位置指令Xactを作成する。なお、位置指令Xactは、無限遠像の合焦位置を基準とし、被写体に向かう向きの位置の指令を示す。次に、ステップS213を実行する。
ステップS213において、下記式(38)のように、アクチュエータ位置指令Xactに基づき制御量関数を用いてアクチュエータ制御量Vactを演算する。次に、ステップS214を実行する。
ステップS214において、アクチュエータを動作させる。この動作は、実施の形態1のステップS162の動作と同様であり、説明を省略する。次に、ステップS215を実行する。
・・・(39)
C2(i,x,y)=C1(i,x-1,y-1)+C1(i,x,y-1)+C1(i,x+1,y-1)
+C1(i,x-1,y)+C1(i,x,y)+C1(i,x+1,y)
+C1(i,x-1,y+1)+C1(i,x,y+1)+C1(i,x+1,y+1) ・・・(40)
ステップS217において、撮影枚数をチェックし、分岐する。まず、下記式(41)のように、カウンタiを1だけ増加させる。カウンタiが撮影枚数Npより小さければ、次にステップS212を実行する。カウンタiが撮影枚数Npに等しければ、次に、ステップS221を実行する。
ステップS221、およびステップS222において、自動焦点制御部242は、システム制御部231のメモリ上のデータを用いて、合焦位置で撮影された画像を選択する。
ip:C3(i)で最大値を与えるi ・・・(43)
ステップS230において、エッジ視差演算部243は、システム制御部231のメモリ上のデータを用いて、エッジを検出し、その視差を検出する。実施の形態1のステップS122と同様に、合焦位置での画像を利用し、コントラスト評価値C2(ip,x,y)の0クロス(値が正から負に変化する点、および値が負から正に変化する点)を検知する。
ipe(xe,ye):C4(i,xe,ye)で最大値を与えるi ・・・(45)
Δ(xe,ye)=(kx2/kx)ipe(xe,ye) ・・・(46)
ステップS240において、エッジ視差演算部244は、システム制御部231のメモリ上のデータを用いて、エッジ上の点(xe,ye)での視差Δ(xe,ye)から全画像領域での視差Δ(x,y)を演算する。ほぼ同一のエッジ上の視差Δ(xe,ye)で囲まれた領域の視差Δ(x,y)として、このエッジ上での視差Δ(xe,ye)を採用する。次に、ステップS250を実行する。
B(x,y)=I2(ip,x-Δ(x,y),y) ・・・(48)
R(x,y)=I3(ip,x,y-Δ(x,y)) ・・・(49)
ステップS260において、画像出力する。このステップは、実施の形態1のS152と同様に動作させる。次に、ステップS299を実行する。
本発明の実施の形態3に係るカメラモジュールは、撮像領域をブロックに分割し、ブロック毎の視差を演算し、ブロック毎に演算したコントラスト値と視差だけ移動した像の相関とに基づき視差を評価する。相関が大きくコントラストが大きいときは、求めた視差が正しいと判断し、視差に基づき通常の視差補正を行う。そして、相関が小さくコントラストが小さいときは求めた視差が低精度である判断し、低コントラスト用の視差補正を行う。さらに、相関が小さくコントラストが大きいときは、複数の距離の被写体が含まれるため求めた視差が正しくないと判断し、ブロックを再分割する。このようにして、全画像領域できれいな画像を得る。
ステップS3123において、下記式(51)で示した操作量関数を用いてアクチュエータ操作量(アクチュエータ可動部115のコイルへの印加電圧)Vactを演算する。ここで、ka、およびkbは、それぞれ設定された値である。次に、ステップS3124を実行する。
ステップS3124において、アクチュエータを動作させる。アクチュエータ操作量出力部134は、アンプ126を介したのちアクチュエータ可動部115のコイル(図示せず)に印加される電圧がVactになるように、出力する電圧信号を変更する。次に、ステップS3125を実行する。
・・・(52)
C2(x,y)=C1(x-1,y-1)+C1(x,y-1)+C1(x+1,y-1)
+C1(x-1,y)+C1(x,y)+C1(x+1,y)
+C1(x-1,y+1)+C1(x,y+1)+C1(x+1,y+1) ・・・(53)
C3=ΣC2(x,y)/Naf ・・・(54)
ステップS3128において、下記式(55)のように、コントラスト評価値C3をC3(i)として、システム制御部331のメモリに書き込む。次に、ステップS3129を実行する。
ステップS3129において、下記式(56)のように、カウンタiに1を加える。次に、ステップS3130を実行する。
ステップS3130において、カウンタiをしきい値Safと比較し、その結果により分岐する。カウンタiがしきい値Safより小さいとき(ステップS3130の比較結果がY)、次に、ステップ3122を実行する。一方、カウンタiがしきい値Saf以上のとき(ステップS3130の比較結果がN)、次に、ステップS3140を実行する。このように、ステップS3121においてカウンタiを0に初期化し、ステップS3129においてカウンタiに1を加え、ステップS3130においてカウンタiで分岐を行うことにより、S3122からS3128までの処理をSaf回だけ繰り返す。
ステップS3151において、アクチュエータの位置指令を演算する。下記式(58)のように、コントラスト最大値を与えるカウンタ値iafを用いてアクチュエータの位置指令Xactを演算する。なお、位置指令Xactは、無限遠像の合焦位置を基準とし、被写体に向かう向きが正の位置の指令を示す。次に、ステップS3152を実行する。
ステップS3152において、操作量関数を用いてアクチュエータ操作量(アクチュエータ可動部115のコイルへの印加電圧)Vactを演算する。この動作は、ステップS3123と同様であり、説明を省略する。次に、ステップS3153を実行する。
この視差評価値Ri(k)は、i番目のブロックBiの第1の画像信号I1と、x、y方向にそれぞれ(k、k)だけ離れた領域における第4の画像信号I4がどれだけ相関があるかを示し、値が小さいほど相関が大きい(よく似ている)ことを示す。図15のように、視差評価値Ri(k)はkの値によって変化し、k=Δiのとき極小値を持つ。これは、第4の画像信号I4のi番目のブロックBiをx、y方向にそれぞれ(-Δi、-Δi)だけ移動させて得られる画像信号は、第1の画像信号I1と最も相関がある(最も似ている)ことを示す。したがって、i番目のブロックBiについての第1の撮像信号I1と第4の撮像信号I4とのx、y方向の視差が(Δi、Δi)であることが分かる。以下、このΔ(i,j)を、i番目のブロックB(i,j)の視差値Δ(i,j)と呼ぶ。このように、i=0からi=M×N−1までBiの視差値Δiを求める。次に、ステップS3251を実行する。
/√ΣΣ{I1(x,y)-avg(I1(x,y))}2
/√ΣΣ{I4(x-Δi,y-Δi)-avg(I4(x-Δi,y-Δi))}2 ・・・(60)
ステップS3252において、視差精度評価用相関値R2iに基づき各ブロックBiごとの視差補正方式を選択する。下記式(61)のように、視差精度評価用相関値R2iがしきい値R20より大きいとき、視差補正方式フラッグFiに通常視差補正を示す1を代入し、システム制御部331のメモリに保存する。次に、ステップS3261を実行する。
ステップS3261において、コントラスト演算部345は、システム制御部331のメモリ上のデータを利用し、各ブロック毎の視差精度評価用コントラスト値を演算する。そして、システム制御部331のメモリに書き込む。下記式(62)のように、x方向とy方向の2階微分の和であるラプラシアンの絶対値を演算し、下記式(63)のように空間的にLPF(ローパスフィルタ。Low Pass Filter)を作用させ、これを下記式(64)のように各ブロックBi内で平均して視差精度評価用コントラスト評価値C6iを得て、システム制御部331のメモリに書き込む。ここで、NBiは、ブロックBiの画素数である。なお、コントラスト評価値は式(62)から式(64)に限定されず、コントラストを表現できるものであればよく、例えば、式(62)において、ラプラシアンの変わりに1次微分を用いたり、ラプラシアンの絶対値ではなくx、yそれぞれの2階微分の絶対値の和を用いてもよい。また、式(63)以外の形式のLPFを用いてもよい。さらに、式(64)の結果に対して、I1の大きさの平均で除するなどの正規化をしてもよい。次に、ステップS3262を実行する。
・・・(62)
C5(x,y)=C4(x-1,y-1)+C4(x,y-1)+C4(x+1,y-1)
+C4(x-1,y)+C4(x,y)+C4(x+1,y)
+C4(x-1,y+1)+C4(x,y+1)+C4(x+1,y+1) ・・・(63)
C6i=ΣC5(x,y)/NBi ・・・(64)
ステップS3262において、視差精度評価用コントラスト評価値C6iに基づき各ブロックBiごとの視差補正方式を選択する。ここで、ステップS3262において、ステップS3251で視差補正方式フラッグFiに1が代入されないブロックにおいてのみ評価を行う。そのため、ステップS3261において、視差補正方式フラッグFi=1のブロックBiでは、視差精度評価用コントラスト値C6iの演算を省略してもよい。下記式(65)のように、視差精度評価用コントラスト評価値C6iがしきい値C60より小さいとき、視差補正方式フラッグFiに低コントラスト用視差補正を示す2を代入し、システム制御部331のメモリに保存する。また、下記式(66)のように、視差精度評価用コントラスト評価値C6iがしきい値C60以上のとき、視差補正方式フラッグFiに低相関用視差補正を示す3を代入し、システム制御部331のメモリに保存する。次に、ステップS3271を実行する。
Fi=3 (C6i>=C60、かつ、Fi=1ではない) ・・・(66)
ステップS3271において、視差補正方式フラッグとブロックのサイズの大きさにより、ブロックの再分割が必要か否かを判断し、その判断結果に応じて分岐する。少なくとも1つのブロックの視差補正方式フラッグFiが3であり、かつ、全てのブロックBiの中で最小のブロックの画素数がS0より大きいとき、ブロックの再分割が必要であると判断し(ステップS1271の判断結果がYes)、次に、ステップS3272を実行する。全てのブロックの視差補正方式フラッグFiが1または2のとき、あるいは、全てのブロックBiの中で最小のブロックの画素数がS0以下のとき、ブロックの再分割が不要と判断し(ステップS3271の判断結果がNo)、次に、ステップS3280を実行する。
B(x,y)=I2(x-Δi,y) ・・・(68)
R(x,y)=I3(x,y-Δi) ・・・(69)
ステップS3280において視差補正方式フラッグFi=2のブロックでは、視差精度評価用相関値R2iが小さく、視差精度評価用コントラスト評価値C6iが小さい。図33は、本発明の実施の形態3に係るカメラモジュールにおいて、視差精度評価用コントラスト評価値と視差補正方式フラッグの関係を説明する図である。ステップS3261において求めた視差精度評価用コントラスト評価値C6は、i番目のブロックBi内の第1の撮像信号I1(x,y)がはっきりした、すなわち濃淡の変化が大きい画像を示すとき大きくなり、ぼやけた、すなわち濃淡の変化が少ない画像を示すとき0に近くなる。ここで、図33のように、しきい値C60を設定し、これより視差精度評価用コントラスト評価値が小さいとき、i番目のブロックBi内の第1の撮像信号I1(x,y)の示す画像は濃淡が小さく、変化に乏しい画像である。そのため、信号成分に対するノイズ成分が大きくなり、視差Δiの精度が悪いと判断できる。また、濃淡が小さい画像であるため、再現する画像に多少の誤差が含まれても実用上問題ない。そこで、主に第1の撮像信号I1(x,y)の情報に基づき色を再現する。なお、第2の撮像信号I2(x,y)、第3の撮像信号I3(x,y)、あるいは第4の撮像信号I4(x,y)の情報に基づき色を再現してよい。ただし、赤色、青色と比較し、緑色に最も視覚感度が高いため、物体光の緑色成分の情報を持つ第1の撮像信号I1(x,y)、あるいは第4の撮像信号I4(x,y)に基づくことが好ましい。また、視差Δiの精度が悪いため、第1の撮像信号I1(x,y)、あるいは第4の撮像信号I4(x,y)を単独で用いることが好ましい。
B(x,y)=I1(x,y)*kB ・・・(71)
R(x,y)=I1(x,y)*kR ・・・(72)
ステップS3280において視差補正方式フラッグFi=3のブロックでは、視差精度評価用相関値R2iが小さく、視差精度評価用コントラスト評価値C6iが大きい。図32のように、しきい値R20を1に近い値(例えば0.9)に設定し、これより視差精度評価用相関値R2iが小さいとき、i番目のブロックBi内の第1の撮像信号I1(x,y)と視差Δiだけ移動した第4の撮像信号I4(x-Δi,y-Δi)が似ていないと判断できる。これは、i番目のブロックBiにおいて、異なる被写体距離の被写体が複数含まれ、視差Δiが全ての被写体に対応できないことを示す。
・・・(73)
C8(x,y)=C7(x-1,y-1)+C7(x,y-1)+C7(x+1,y-1)
+C7(x-1,y)+C7(x,y)+C7(x+1,y)
+C7(x-1,y+1)+C7(x,y+1)+C7(x+1,y+1) ・・・(74)
ステップS3330において、エッジを検出する。図35(C)は、本発明の実施の形態3に係るカメラモジュールの低相関用視差補正部349のエッジ検出を説明するエッジの画像である。図35(B)のエッジ検出用コントラスト評価値C2(x,y)の0クロス(値が正から負に変化する点、および値が負から正に変化する点)を検知することにより、図35(C)のようなエッジを検出できる。次に、ステップS3340を実行する。
本発明の実施の形態4は、インターレース読み込みをする場合に、それぞれのフィールド毎に視差を求め画像合成し、それぞれのフィールド毎の合成画像を合成し最終画像とする。このようにして、各フィールドごとに視差演算を行うことにより、動く被写体の撮影時に各フィールドの撮影時間が異なることにより各フィールドの画像が異なる場合においても、各フィールドごとの視差を正しく求められ、この視差を用いて画像合成することができるため、全画像領域で視差の影響がさらに低減されたきれいな画像を得ることができる。
R(x,2*y+1)=Rf2(x,y) ・・・(76)
G(x,2*y)=Gf1(x,y) ・・・(77)
G(x,2*y+1)=Gf2(x,y) ・・・(78)
B(x,2*y)=Bf1(x,y) ・・・(79)
B(x,2*y+1)=Bf2(x,y) ・・・(80)
ステップS4800において、画像を出力する。この動作は実施の形態3と同様であり、説明を省略する。次に、S4900を実行する。
本発明の実施の形態5は、視差が小さい、すなわち被写体距離が大きいブロックを背景であると認識し、あらかじめ保存された背景画像等の別画像と置き換える。このようにして、視差に基づき補正した画像と別画像とを組み合わせることにより、補正した画像から視差が大きい部分の画像を正しく抽出できるため、きれいにこれらの画像を組み合わせることができる。
G(x,y)=G(x,y) (Δi>Δsh) ・・・(82)
B(x,y)=B(x,y) (Δi>Δsh) ・・・(83)
R(x,y)=Rback(x,y) (Δi≦Δsh) ・・・(84)
G(x,y)=Gback(x,y) (Δi≦Δsh) ・・・(85)
B(x,y)=Bback(x,y) (Δi≦Δsh) ・・・(86)
ステップS5800において、画像を出力する。この動作は実施の形態3と同様であり、説明を省略する。次に、S5900を実行する。
本発明にかかる電子機器の一実施形態を図46(A)および図46(B)に示す。図46(A)および図46(B)に示すように、本発明にかかる電子機器の一実施形態としてのカメラ付き携帯電話600は、スピーカ601、アンテナ602、液晶ディスプレイ603、キー部605、マイクロフォン606を備えており、ヒンジ部604によって折りたたみが可能である。また、携帯電話600は、図46(B)に示すように、液晶ディスプレイ603の背面側にレンズモジュール110を内蔵し、静止画や動画の撮影が可能である。
G(x,y)=[I1(x,y)+I2(x-Δi,y)]/2 ・・・(88)
B(x,y)=I3(x,y-Δi) ・・・(89)
R(x,y)=I4(x,y-Δi) ・・・(90)
また、第1の撮像信号I1が主に緑色成分を示し、第2の撮像信号I2は主に青色成分を示し、第3の撮像信号は主に緑色成分を示し、第4の撮像信号I4は主に赤色成分を示すように変更してもよい。この場合、下記式(91)のように視差評価関数を変更し、下記式(92)(93)(94)のように視差補正するなどの変更が必要である。
G(x,y)=[I1(x,y)+I3(x,y-Δi)]/2 ・・・(92)
B(x,y)=I2(x-Δi,y) ・・・(93)
R(x,y)=I4(x-Δi,y-Δi) ・・・(94)
また、実施の形態1から実施の形態5において、格子状に4つの撮像領域を設けたがこれに限定されない。例えば、第1の撮像素子、第2の撮像素子、第3の撮像素子、第4の撮像素子が1直線上になるように配置し、第1の撮像信号I1が主に青色を示し、第2の撮像信号I2が主に緑色を示し、第3の撮像信号I3が主に緑色を示し、第4の撮像信号が主に赤色を示すように変更してもよい。この場合、下記式(95)のように視差評価関数を変更し、下記式(96)(97)(98)のように視差補正するなどの変更が必要である。
G(x,y)=[I2(x,y)+I3(x-Δi,y)]/2 ・・・(96)
B(x,y)=I1(x+Δi,y) ・・・(97)
R(x,y)=I4(x-2*Δi,y) ・・・(98)
また、実施の形態1から実施の形態5において、4つの撮像領域を設けたがこれに限定されない。例えば、3つの撮像領域を持ち、第1の撮像素子、第2の撮像素子、第3の撮像素子が1直線上になるように配置し、第1の撮像信号I1が主に青色を示し、第2の撮像信号I2が主に緑色を示し、第3の撮像信号I3が主に赤色を示すように変更してもよい。この場合、下記式(99)、(100)のように視差評価関数を変更し、下記式(101)のように緑色成分Gを作成し、式(99)を用いて求めた視差Δiを利用し下記式(102)のように青色成分Bを作成し、式(100)を用いて求めた視差Δiを利用し下記式(103)のように赤色成分Rを作成し、視差補正するなどの変更が必要である。また、式(99)(100)の代わりに、式(60)のような形式を使用してもよい。
Ri(k)=ΣΣ|I2(x,y)-I3(x-k,y)| ・・・(100)
G(x,y)=I2(x,y) ・・・(101)
B(x,y)=I1(x+Δi,y) ・・・(102)
R(x,y)=I3(x-*Δi,y) ・・・(103)
また、3つの撮像領域を持ち、第1の撮像素子の右に(x軸の正の位置に)第2の撮像素子が配置され、第1の撮像素子の下に(y軸の正の位置に)第3の撮像素子を配置し、第1の撮像信号I1が主に緑色を示し、第2の撮像信号I2が主に青色を示し、第3の撮像信号I3が主に赤色を示すように変更してもよい。この場合、下記式(104)、(105)のように視差評価関数を変更し、下記式(106)のように緑色成分Gを作成し、式(104)を用いて求めた視差Δiを利用し下記式(107)のように青色成分Bを作成し、式(105)を用いて求めた視差Δiを利用し下記式(108)のように赤色成分Rを作成し、視差補正するなどの変更が必要である。また、式(104)(105)の代わりに、式(60)のような形式を使用してもよい。
Ri(k)=ΣΣ|I1(x,y)-I3(x,y-k)| ・・・(105)
G(x,y)=I1(x,y) ・・・(106)
B(x,y)=I2(x-Δi,y) ・・・(107)
R(x,y)=I3(x,y-Δi) ・・・(108)
実施の形態1、実施の形態3から実施の形態5のカメラモジュールにおいて、ブロックにおける視差Δiを用いて視差補正を行ったが、ブロック毎の視差Δiを用いて各画素の視差Δ(x,y)を定め、この各画素の視差Δ(x,y)を用いて視差補正を行ってもよい。
Claims (21)
- それぞれが少なくとも1枚のレンズを含む複数のレンズ部と、
前記複数のレンズ部に一対一に対応し、対応する前記レンズ部の光軸方向に対して略垂直な受光面をそれぞれ備える複数の撮像領域と、
前記複数の撮像領域からそれぞれ出力される複数の撮像信号が入力される撮像信号入力部と、
前記複数の撮像信号のうちの少なくとも1つの撮像信号を複数のブロックに分割するブロック分割部と、
前記撮像信号を用いて、前記ブロックごとに、前記複数のレンズ部がそれぞれ形成する像間の視差を演算する視差演算部と、
前記ブロックごとの視差に基づいて、ブロックごとに前記複数の撮像信号を補正し、補正後の前記複数の撮像信号を合成する視差補正部と、を有するカメラモジュール。 - 前記複数のレンズ部と前記複数の撮像領域との相対距離を変化させるアクチュエータと、
前記視差に基づきアクチュエータを制御する焦点制御部とを更に有する、請求項1に記載のカメラモジュール。 - 前記複数の撮像信号のうち少なくとも1つの撮像信号に基づいてコントラストを演算するコントラスト演算部を更に有し、
前記焦点制御部は、前記視差と前記コントラストとに基づき前記アクチュエータを制御する、請求項2に記載のカメラモジュール。 - 前記焦点制御部は、前記アクチュエータを複数回制御し、初回は前記視差に基づき前記アクチュエータを制御し、2回目以降は前記コントラストに基づき前記アクチュエータを制御する、請求項3に記載のカメラモジュール。
- 前記焦点制御部は、前記コントラストに基づき前記アクチュエータを制御したときの前記アクチュエータに対する操作量を学習する、請求項3に記載のカメラモジュール。
- 前記ブロック分割部は、前記少なくとも1つの撮像信号に基づいて複数の画像領域の輪郭を検出し、前記輪郭により前記複数の画像領域に分割されるように、前記少なくとも1つの撮像信号を複数のブロックに分割する、請求項5に記載のカメラモジュール。
- 前記撮像信号に基づいて前記輪郭の視差である輪郭視差を求める輪郭視差演算部が付加され、
前記視差演算部は、前記輪郭視差に基づいて、前記ブロックごとに、前記複数のレンズ部がそれぞれ形成する像間の視差を演算する、請求項6に記載のカメラモジュール。 - 前記ブロック分割部は、前記少なくとも1つの撮像信号を矩形状の複数のブロックに分割する、請求項1に記載のカメラモジュール。
- 前記撮像信号に基づき前記複数のブロックごとに前記視差の精度を示す少なくとも1つの視差精度評価値を演算する視差評価値演算部を更に有し、
前記視差補正部は、前記複数のブロックごとに前記視差と前記視差精度評価値とに基づいて前記複数の撮像信号を補正し画像を合成する、請求項1に記載のカメラモジュール。 - 前記視差補正部は、前記複数のブロックごとに前記視差精度評価値に基づき当該ブロックを少なくとも2つに分割するかどうかを決定し、分割すべきと判断されたブロックにおいて分割後のブロックの視差に基づき画像を合成する、請求項9に記載のカメラモジュール。
- 前記視差評価値演算部は、前記複数の撮像信号のうち少なくとも1つの撮像信号に基づいて前記複数のブロックごとにコントラストの大きさを示す第1の視差精度評価値を演算する、請求項9に記載のカメラモジュール。
- 前記視差評価値演算部は、前記複数のブロックに分割された前記撮像信号を用いて、前記複数のブロックごとに、少なくとも2つの前記レンズ部がそれぞれ形成する像を前記視差だけ移動した像がどれだけ相関があるかを示す第2の視差精度評価値を演算する、請求項9に記載のカメラモジュール。
- 前記視差補正部は、前記複数のブロックごとに前記第2の視差精度評価値が小さいとき当該ブロックを少なくとも2つに分割し、分割されたブロックにおいて分割後のブロックの視差に基づき画像を合成する、請求項11に記載のカメラモジュール。
- 前記視差評価値演算部は、前記複数の撮像信号のうち少なくとも1つの撮像信号に基づいて前記複数のブロックごとにコントラストの大きさを示す第1の視差精度評価値と、
前記複数のブロックに分割された前記撮像信号を用いて、前記複数のブロックごとに、少なくとも2つの前記レンズ部がそれぞれ形成する像を前記視差だけ移動した像がどれだけ相関があるかを示す第2の視差精度評価値を演算し、
前記視差補正部は、前記複数のブロックごとに前記第1の視差精度評価値が大きくかつ前記第2の視差精度評価値が小さいとき当該ブロックを少なくとも2つに分割し、分割されたブロックにおいて分割後のブロックの視差に基づき画像を合成する、請求項10に記載のカメラモジュール。 - 前記撮像信号入力部は、前記複数の撮像信号を複数のフィールドごとに入力し、
前記視差演算部は、前記複数のフィールドのそれぞれについて、前記ブロック毎の視差を演算する、請求項1に記載のカメラモジュール。 - 前記複数のレンズ部に一対一に対応し、複数色のフィルタが配置されたカラーフィルタをさらに備え、
前記複数のレンズ部のうち、前記フィールドの走査方向に平行に配置された少なくとも2つのレンズ部に対応して、同色のフィルタが配置されている、請求項15に記載のカメラモジュール。 - 撮影画像とは異なる別画像を保存する別画像保存部を更に有し、
前記視差補正部は、前記視差に基づき前記撮像信号を補正した画像と前記別画像とを組み合わせる、請求項1に記載のカメラモジュール。 - 前記視差補正部は、前記視差が大きいほど前記撮像信号を補正した画像の割合を大きく前記別画像の割合を小さくなるように組み合わせる、請求項17に記載のカメラモジュール。
- 請求項1〜18のいずれか一項に記載のカメラモジュールを備えた電子機器。
- それぞれが少なくとも1枚のレンズを含む複数のレンズ部と、前記複数のレンズ部に一対一に対応し、対応する前記レンズ部の光軸方向に対して略垂直な受光面をそれぞれ備える複数の撮像領域と、前記複数の撮像領域からそれぞれ出力される複数の撮像信号が入力される撮像信号入力部と、入力された撮像信号の画像処理を行う画像処理部とを備えたカメラモジュールにおいて、前記画像処理部の動作を制御するプログラムであって、
前記複数の撮像信号のうちの少なくとも1つの撮像信号を複数のブロックに分割するブロック分割処理と、
前記撮像信号を用いて、前記ブロックごとに、前記複数のレンズ部がそれぞれ形成する像間の視差を演算する視差演算処理と、
前記ブロックごとの視差に基づいて、ブロックごとに前記複数の撮像信号を補正し、補正後の前記複数の撮像信号を合成する視差補正処理とを、前記画像処理部に実行させることを特徴とするプログラム。 - それぞれが少なくとも1枚のレンズを含む複数のレンズ部と、前記複数のレンズ部に一対一に対応し、対応する前記レンズ部の光軸方向に対して略垂直な受光面をそれぞれ備える複数の撮像領域と、前記複数の撮像領域からそれぞれ出力される複数の撮像信号が入力される撮像信号入力部と、入力された撮像信号の画像処理を行う画像処理部とを備えたカメラモジュールにおいて、前記画像処理部の動作を制御するプログラムを記録したプログラム記録媒体であって、
前記プログラムは、
前記複数の撮像信号のうちの少なくとも1つの撮像信号を複数のブロックに分割するブロック分割処理と、
前記撮像信号を用いて、前記ブロックごとに、前記複数のレンズ部がそれぞれ形成する像間の視差を演算する視差演算処理と、
前記ブロックごとの視差に基づいて、ブロックごとに前記複数の撮像信号を補正し、補正後の前記複数の撮像信号を合成する視差補正処理とを、前記画像処理部に実行させることを特徴とするプログラム記録媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004279794 | 2004-09-27 | ||
JP2004279794 | 2004-09-27 | ||
JP2004371849 | 2004-12-22 | ||
JP2004371849 | 2004-12-22 | ||
PCT/JP2005/017762 WO2006035778A1 (ja) | 2004-09-27 | 2005-09-27 | カメラモジュールおよびそれを備えた電子機器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2006035778A1 JPWO2006035778A1 (ja) | 2008-05-15 |
JP4322921B2 true JP4322921B2 (ja) | 2009-09-02 |
Family
ID=36118924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006515432A Expired - Fee Related JP4322921B2 (ja) | 2004-09-27 | 2005-09-27 | カメラモジュールおよびそれを備えた電子機器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7911516B2 (ja) |
JP (1) | JP4322921B2 (ja) |
WO (1) | WO2006035778A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BRPI0506340A (pt) * | 2005-12-12 | 2007-10-02 | Univ Fed Sao Paulo Unifesp | sistema de visualização de realidade aumentada com computação pervasiva |
US7539412B2 (en) * | 2006-05-17 | 2009-05-26 | Terrasem Co. Ltd. | Camera module with first and second image sensor chips, holders and lens |
JP5472584B2 (ja) * | 2008-11-21 | 2014-04-16 | ソニー株式会社 | 撮像装置 |
JP5299188B2 (ja) * | 2009-09-16 | 2013-09-25 | 富士通株式会社 | 撮像装置、それを備えた電子装置、及び撮像装置の製造方法 |
KR101630303B1 (ko) * | 2010-02-02 | 2016-06-14 | 삼성전자주식회사 | 디지털 영상 처리 장치 및 그 제어 방법 |
WO2011097038A1 (en) * | 2010-02-08 | 2011-08-11 | Thomson Licensing | Reducing chromatic aberration |
JP5387856B2 (ja) * | 2010-02-16 | 2014-01-15 | ソニー株式会社 | 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置 |
JP5641200B2 (ja) * | 2010-05-28 | 2014-12-17 | ソニー株式会社 | 画像処理装置、画像処理方法および画像処理プログラムならびに記録媒体 |
US8922704B2 (en) * | 2010-09-01 | 2014-12-30 | Apple Inc. | Techniques for collection of auto-focus statistics |
US20120133747A1 (en) * | 2010-11-29 | 2012-05-31 | Sony Corporation | Image processing apparatus, display apparatus, image processing method and image processing program |
JP5673032B2 (ja) * | 2010-11-29 | 2015-02-18 | ソニー株式会社 | 画像処理装置、表示装置、画像処理方法及びプログラム |
US8581995B2 (en) * | 2011-01-25 | 2013-11-12 | Aptina Imaging Corporation | Method and apparatus for parallax correction in fused array imaging systems |
DE102012200200B4 (de) * | 2012-01-09 | 2020-09-17 | Robert Bosch Gmbh | Kamerasystem, insbesondere für ein Fahrzeug, sowie ein Fahrzeug |
JP6167525B2 (ja) * | 2012-03-21 | 2017-07-26 | 株式会社リコー | 距離計測装置及び車両 |
US9124762B2 (en) * | 2012-12-20 | 2015-09-01 | Microsoft Technology Licensing, Llc | Privacy camera |
WO2015025734A1 (ja) * | 2013-08-22 | 2015-02-26 | コニカミノルタ株式会社 | レンズユニット、撮像装置及びマルチアレイレンズ |
US20160295097A1 (en) * | 2015-03-31 | 2016-10-06 | Qualcomm Incorporated | Dual camera autofocus |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5220441A (en) * | 1990-09-28 | 1993-06-15 | Eastman Kodak Company | Mechanism for determining parallax between digital images |
JPH04330411A (ja) | 1991-05-02 | 1992-11-18 | Olympus Optical Co Ltd | 自動合焦装置 |
JPH07220113A (ja) | 1994-01-28 | 1995-08-18 | Canon Inc | 画像記録再生装置 |
US6519358B1 (en) * | 1998-10-07 | 2003-02-11 | Sony Corporation | Parallax calculating apparatus, distance calculating apparatus, methods of the same, and information providing media |
US6859229B1 (en) * | 1999-06-30 | 2005-02-22 | Canon Kabushiki Kaisha | Image pickup apparatus |
JP3397755B2 (ja) | 1999-06-30 | 2003-04-21 | キヤノン株式会社 | 撮像装置 |
JP2001116513A (ja) * | 1999-10-18 | 2001-04-27 | Toyota Central Res & Dev Lab Inc | 距離画像算出装置 |
JP2001175863A (ja) * | 1999-12-21 | 2001-06-29 | Nippon Hoso Kyokai <Nhk> | 多視点画像内挿方法および装置 |
US7262799B2 (en) * | 2000-10-25 | 2007-08-28 | Canon Kabushiki Kaisha | Image sensing apparatus and its control method, control program, and storage medium |
JP3703424B2 (ja) * | 2000-10-25 | 2005-10-05 | キヤノン株式会社 | 撮像装置及びその制御方法及び制御プログラム及び記憶媒体 |
JP2002320133A (ja) | 2001-04-23 | 2002-10-31 | Nikon Corp | 電子カメラ |
JP2002330332A (ja) | 2001-04-27 | 2002-11-15 | Canon Inc | 画像処理装置、撮像装置、その制御方法、及び記録媒体 |
JP4746795B2 (ja) | 2001-08-27 | 2011-08-10 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体、及び立体視画像生成装置 |
US7286168B2 (en) * | 2001-10-12 | 2007-10-23 | Canon Kabushiki Kaisha | Image processing apparatus and method for adding blur to an image |
JP2003143459A (ja) | 2001-11-02 | 2003-05-16 | Canon Inc | 複眼撮像系およびこれを備えた装置 |
US7251346B2 (en) * | 2002-11-19 | 2007-07-31 | Honda Motor Co., Ltd. | Moving object detection device, moving object detection method, and moving object detection program |
US7511749B2 (en) * | 2003-12-18 | 2009-03-31 | Aptina Imaging Corporation | Color image sensor having imaging element array forming images on respective regions of sensor elements |
-
2005
- 2005-09-27 US US11/576,119 patent/US7911516B2/en active Active
- 2005-09-27 WO PCT/JP2005/017762 patent/WO2006035778A1/ja active Application Filing
- 2005-09-27 JP JP2006515432A patent/JP4322921B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20080259201A1 (en) | 2008-10-23 |
US7911516B2 (en) | 2011-03-22 |
JPWO2006035778A1 (ja) | 2008-05-15 |
WO2006035778A1 (ja) | 2006-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4322921B2 (ja) | カメラモジュールおよびそれを備えた電子機器 | |
JP4524717B2 (ja) | 画像処理装置、撮像装置、画像処理方法及びプログラム | |
KR101265358B1 (ko) | 컬러 디지털 이미지를 사용하여 선명도 변경과 같은 액션을제어하는 방법 | |
US8890972B2 (en) | Image capturing apparatus and image processing method | |
US9215389B2 (en) | Image pickup device, digital photographing apparatus using the image pickup device, auto-focusing method, and computer-readable medium for performing the auto-focusing method | |
US8023016B2 (en) | Imaging device and manufacturing method thereof | |
CN108462830B (zh) | 摄像装置及摄像装置的控制方法 | |
JP5642433B2 (ja) | 撮像装置及び画像処理方法 | |
KR20120068655A (ko) | 무선통신장치를 이용하여 양질의 홍채 및 피사체 영상을 편리하게 촬영하기 위한 방법 및 한 개의 밴드패스필터로 가시광선과 근적외선 일부영역을 투과시키는 카메라 장치 | |
WO2006022373A1 (ja) | 撮像装置および撮像方法 | |
JP2012037574A (ja) | 電子撮像装置 | |
CN105391934B (zh) | 焦点检测设备、其控制方法以及摄像装置 | |
JP2012256118A (ja) | 画像復元装置およびその方法 | |
JP2013097154A (ja) | 距離測定装置、撮像装置、距離測定方法 | |
JP2006094471A (ja) | 撮像装置および画像変換方法 | |
JP2007235862A (ja) | 撮像装置 | |
KR20110055242A (ko) | 렌즈 왜곡과 색수차를 보정하는 장치 및 방법 | |
CN100546345C (zh) | 摄像机模组以及具有其的电子设备 | |
JP5786355B2 (ja) | デフォーカス量検出装置および電子カメラ | |
JP6541835B2 (ja) | 画像処理装置及びその制御方法、プログラム、記憶媒体 | |
JP5173664B2 (ja) | 画像処理装置及び画像処理方法 | |
US7898591B2 (en) | Method and apparatus for imaging using sensitivity coefficients | |
CN106993110A (zh) | 摄像设备及其控制方法 | |
JP6639208B2 (ja) | 撮像装置及びその制御方法 | |
JP2016066015A (ja) | 焦点検出装置及びその制御方法、プログラム、記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090512 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090603 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120612 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees | ||
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060410 |