JP2012133232A - 撮影装置及び撮影制御方法 - Google Patents

撮影装置及び撮影制御方法 Download PDF

Info

Publication number
JP2012133232A
JP2012133232A JP2010286717A JP2010286717A JP2012133232A JP 2012133232 A JP2012133232 A JP 2012133232A JP 2010286717 A JP2010286717 A JP 2010286717A JP 2010286717 A JP2010286717 A JP 2010286717A JP 2012133232 A JP2012133232 A JP 2012133232A
Authority
JP
Japan
Prior art keywords
lens
parallax
detection position
unit
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010286717A
Other languages
English (en)
Inventor
Teruyuki Sato
輝幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010286717A priority Critical patent/JP2012133232A/ja
Priority to US13/200,364 priority patent/US20120162388A1/en
Priority to CN201110337856.4A priority patent/CN102547332B/zh
Publication of JP2012133232A publication Critical patent/JP2012133232A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】複眼式の撮影装置において、それぞれの光学系で合焦ズレが起こらないような良好なAF制御を行うこと。
【解決手段】立体画像を撮影可能な撮影装置であって、第1レンズ及び第2レンズの視差量を、前記第1レンズを駆動するための制御量に関連付けた視差情報を記憶する記憶部と、第1検波位置において合焦させるため前記第1レンズの駆動を制御する第1合焦制御部と、第1合焦制御部により合焦した際の制御量に対応する視差量を前記視差情報から取得し、視差量を前記第1検波位置に反映した第2検波位置を検出する視差補償部と、視差補償部により検出された第2検波位置において合焦させるため第2レンズの駆動を制御する第2合焦制御部と、を備える。
【選択図】図4

Description

本発明は、立体映像を撮影する撮影装置及び撮影制御方法に関する。
両眼による視差を用いた立体画像を得るために、1台のカメラに2つの光学系を設けた複眼カメラを用いて撮影が行なわれる。ところが、複数の受光レンズを介して画像を入力する場合、それぞれの受光レンズが対象物上の何処かで合焦していたとしても、同一点で合焦しているとは限らない。
特に複眼のカメラでマクロ撮影する場合やズーム撮影した場合、両眼それぞれのカメラ制御の精度不足によるズレにより、両眼画像のフォーカスのズレが大きくなる。したがって、複数のカメラにより撮影されたそれぞれの画像は、対象物上の同一点であっても、ボケ状態が互いに異なったりすることがある。
図1は、両眼画像のフォーカスのズレを説明するための図である。図1に示す例は、簡単のため、右目用のカメラ11と左目用のカメラ12とを別体にして説明するが、複眼カメラでも同様のことが起こりうる。
図1に示すように、右目用のカメラ11は、手前の円錐3にピントが合っている。また、右目用のカメラ11は、奥の直方体1にはピントがあっておらず、直方体1は表示部においてボケて写っている。
一方、左目用のカメラ12は、真ん中の円柱2にピントが合っている。また、左目用のカメラ12は、手前の円錐3と奥の直方体1にはピントが合っておらず、円錐3と直方体1とは表示部においてボケて写っている。
この問題を解決するため、複眼カメラに別途測距センサを設け、この測距センサにより測定した距離情報に基づいて複数のカメラのフォーカスを制御する技術がある。この測距方式は、例えばアクティブ式といわれる、被写体に光を照射しその反射光で距離を測る方式である。この方式は、測定精度も高く、早い合焦が可能だが、外付けの測距センサがコストアップの原因となることと、実際の映像に対する合焦の精度、さらに測距ポイントの自由度がないなどの問題がある。
また、近年では、小型のデジタルカメラ(以下、コンパクトデジカメともいう)には、カメラセンサ自体がAF(Auto Focus)センサをかねるコントラスト方式が採用されている。コントラスト方式では、別途測距センサを設ける必要がない。
図2は、コントラスト方式による合焦処理の一例を示すフローチャートである。図2に示すように、予め与えられている検波位置(検波ポイントともいう)を含む所定領域(例えば3×3)でのエッジ量が算出される(S101)。
次に、ステップモータを前後に動かし前回との差分をとって、エッジ量の大きい方向にモータが制御される(S102)。
エッジ量の変化量が正である場合(S103−YES)、その方向にモータは動かされ(S104)、この変化量が負になった場合(S103−NO)、前回の位置が合焦位置となる(S105)。以上のように、コントラスト方式は、検波ポイントでのエッジ量を極大させるようにすることで合焦する手法である。
ここで、複眼カメラの場合、被写体が近いものほど、視差が大きくなることから、左右のAF検波ポイントが大きくずれ、焦点を合わせることが難しい。この検波ポイントのズレについて図3を用いて説明する。図3は、検波ポイントのズレを説明するための図である。図3(A)は、左目用のカメラで写る画像の例を示す。図3(A)に示すように、検波ポイント22は、真ん中の円柱2上にある。
図3(B)は、右目用のカメラで写る画像の例を示す。図3(B)に示すように、検波ポイント21は、円錐3上にある。このまま右目用のカメラと左目用のカメラとでそれぞれ合焦を行うと、それぞれ異なる被写体にピントが合ってしまい、合焦ズレが生じる。本来であれば、例えば同じ円錐3に検波ポイントが設定されるべきである。この場合、図3(A)に示す点線の検波ポイント23が設定されるべきである。しかし、検波ポイントはそれぞれの合焦時に予め与えられるものであり、また、一方で合焦した被写体を他方では知ることができない。
そこで、この問題に対して、互いに視差を有する第1の像と第2の像とを撮像素子上に交互に形成する光学系と、第1及び第2の像のうち一方を撮像した撮像素子の出力から得られた信号のみに基づいて光学系の焦点調節動作を行う技術がある。
また、両眼視差を利用するための立体撮影用の2つの撮像光学系に係る情報に基づいた共通の範囲に対して自動合焦処理を行う技術がある。
特開2001−148866号公報 特開2005−500228号公報 特開2005−173270号公報 特開平8−194274号公報
測距センサを設けないコントラスト方式を用いる場合、特許文献3においては、もう一方のカメラでの合焦の有無を評価しない方式なので、モータ制御の個体差などで、もう一方のカメラで、被写体に焦点が合う保証がない。
また、特許文献4は、焦点距離が長いとき共通領域は狭められるが、近接物を撮るのにズームレンズより広角レンズを用いることを考えれば、被写体まで特定できるほど共通領域は狭くはならない。
以上のように、コントラスト方式でAF制御を行う複眼式の撮影装置において、一方の光学系で合焦している物体の位置を他方の光学系が知りえないため、それぞれの光学系で撮像した像に合焦ズレが起こりうるという問題があった。
そこで、開示の技術は、複眼式の撮影装置において、それぞれの光学系で合焦ズレが起こらないような良好なAF制御を行うことができる撮影装置及び撮影制御方法を提供することを目的とする。
開示の一態様の撮影装置は、立体画像を撮影可能な撮影装置であって、第1レンズ及び第2レンズの視差量を、前記第1レンズを駆動するための制御量に関連付けた視差情報を記憶する記憶部と、第1検波位置において合焦させるため前記第1レンズの駆動を制御する第1合焦制御部と、前記第1合焦制御部により合焦した際の制御量に対応する視差量を前記視差情報から取得し、該視差量を前記第1検波位置に反映した第2検波位置を検出する視差補償部と、前記視差補償部により検出された第2検波位置において合焦させるため前記第2レンズの駆動を制御する第2合焦制御部と、を備える。
開示の技術によれば、複眼式の撮影装置において、それぞれの光学系で合焦ズレが起こらないような良好なAF制御を行うことができる。
両眼画像のフォーカスのズレを説明するための図。 コントラスト方式による合焦処理の一例を示すフローチャート。 検波ポイントのズレを説明するための図。 実施例1における撮影装置の構成の一例を示すブロック図。 駆動差情報の一例を示す図。 視差情報の一例を示す図。 第2AF制御部の構成の一例を示すブロック図。 合焦処理の具体例を示す図。 実施例1における合焦制御処理の一例を示すフローチャート。 実施例2における撮影装置の構成の一例を示すブロック図。 実施例2における視差補償部の構成の一例を示すブロック図。 実施例2における合焦制御処理の一例を示すフローチャート。 変形例における携帯端末装置の構成の一例を示すブロック図。
以下、図面に基づいて実施例について説明する。
[実施例1]
<構成>
図4は、実施例1における撮影装置100の構成の一例を示すブロック図である。図4に示すように、実施例1における撮影装置100は、第1レンズ101、第1センサ102、信号処理部103、第1駆動部104、第2レンズ105、第2センサ106、第2駆動部107、ホストCPU108、ピクチャメモリ109を含む。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
第1レンズ101は、第1駆動部104により駆動される。第1センサ102は、第1レンズ101により受光された像に対応する画像データを生成する。第1センサ102は、例えばCCD(Charge Coupled Device)などである。
信号処理部103は、第1レンズ101に対するオートフォーカス(AF:Auto Focus)制御を行う。また、信号処理部103は、後述する第2レンズ105に対するAF制御を行う。信号処理部103の詳細は後述する。信号処理部103は、例えば信号処理LSIとして実装されうる。
第1駆動部104は、信号処理部103から出力された第1AF制御信号に応じて、内蔵するレンズ移動素子を駆動して第1レンズ101を移動させる。レンズ移動素子は、例えばステッピングモータ、ボイスコイルモータなどである。
第2レンズ105は、第2駆動部107により駆動される。第2センサ106は、第2レンズ105により受光された像に対応する画像データを生成する。第2センサ106は、例えばCCDなどである。
第2駆動部107は、信号処理部103から出力された第2AF制御信号に応じて、内蔵するレンズ移動素子を駆動して第2レンズ105を移動させる。
ホストCPU108は、例えば、撮影装置100の撮影メニューを制御したり、画像データにヘッダを付けたり、撮影装置100の全体制御を行う。また、ホストCPU108は、処理した画像データなどをピクチャメモリ109に出力したり、伝送路を用いて伝送したりする。ピクチャメモリ109は、ホストCPU108から出力された画像データを記憶する。ピクチャメモリ109は、例えば立体映像を記憶する。
次に、信号処理部103について説明する。信号処理部103は、第1AF検波部110、第1AF制御部111、駆動差補償部112、第2記憶部113、視差補償部114、第1記憶部115、第2AF制御部116、第2AF検波部117を含む。なお、以降に説明する実施例では、第1側の制御をマスタ制御とする。
第1AF検波部110は、第1センサ102から取得した画像データに基づいて、第1検波位置(第1検波ポイント)における高周波の積分データを検出する。この積分データは、第1AF制御部111に出力される。第1AF検波部110は、第1センサ102から取得した画像データを例えば右目用の画像データとしてホストCPU108に出力する。
第1AF制御部111は、第1AF検波部110から取得した積分データに対し演算を行って、第1レンズ101の移動方向と移動量とを求める。第1AF制御部111は、求めた移動方向と移動量とを第1AF制御信号として第1駆動部104、駆動差補償部112、及び視差補償部114に出力する。第1AF制御信号は、例えば、第1駆動部104がステッピングモータであればステップ数を示す駆動パルスであり、ボイスコイルモータであれば制御パルスである。
駆動差補償部112は、モータの個体差を補償する。モータの制御は、モータ自体によって異なる制御をするので、この差を吸収しておく必要がある。駆動差補償部112は、第1AF検波部110から第1AF制御信号を取得した場合、第2記憶手段113に記憶されている駆動差情報を参照して、第2レンズ105に対する制御量を取得する。
図5は、駆動差情報の一例を示す図である。駆動差情報は、例えば、図5に示すように、モータ制御の差を補償するモータの駆動制御量の値を保持する駆動差補償テーブルである。駆動差情報は、例えば、第1レンズ101及び第2レンズ105の焦点距離を同じにするため第1レンズ101の駆動に対する制御量と第2レンズ105の駆動に対する制御量とを関連付けておく。図5に示す第1制御量は、第1レンズ101の駆動に対する制御量を表し、第2制御量は、第2レンズ105の駆動に対する制御量を表す。
駆動差補償部112は、第2記憶部113に記憶される駆動差情報を参照して、第1AF制御信号が示す第1制御量に対応する第2制御量を取得する。駆動差補償部112は、取得した制御量を第2AF制御部116に出力する。第2記憶部113は、駆動差情報を記憶する。
視差補償部114は、第1レンズ101及び第2レンズ105における視差を補償する。視差補償部114は、第1AF制御部111から第1AF制御信号を取得する。次に、視差補償部114は、第1記憶部115に記憶される視差情報を参照して、第1AF制御信号が示す制御量に対応する視差量を取得する。
図6は、視差情報の一例を示す図である。視差情報は、例えば、図6に示すように、第1レンズ101及び第2レンズ105の視差量を、第1レンズ101を駆動するための制御量に関連付けた視差補償テーブルである。初期値から合焦するまでの第1レンズ101の駆動に対する制御量は、撮影装置100から被写体までの距離に相当する量であり、その距離における左右の視差を事前学習によって定めた値が視差情報である。距離における左右の視差は、左右の光学系の間隔と、被写体から成る三角測量で求めることができる。
なお、図6に示す例では、左右の画像に対して平行化処理が終了しているという前提で、垂直方向のズレ(縦ズレ)の補正はなく、水平方向の視差のみピクセル数を用いて示している。縦ズレがある場合は、画像の縦ズレの補正分を視差情報に含めればよい。
視差補償部114は、取得した視差量を第1検波位置に反映し、第2検波位置を検出する。例えば、視差補償部114は、保持している第1検波位置の座標に、視差量を加算して第2検波位置を検出する。検出された第2検波位置は第2AF検波部117に出力される。
第2AF検波部117は、第2センサ106から取得した画像データに基づいて、第2検波位置(第2検波ポイント)における高周波の積分データを検出する。この積分データは、第2AF制御部116に出力される。第2AF検波部117は、第2センサ106から取得した画像データを例えば左目用の画像データとしてホストCPU108に出力する。
第2AF制御部116は、図7を用いて説明する。図7は、第2AF制御部116の構成の一例を示すブロック図である。図7に示すように、第2AF制御部116は、駆動制御部201を含む。
駆動制御部201は、駆動差補償部112により取得した制御量に基づいて、第2レンズ105に対する初期合焦のための第2AF制御信号を第2駆動部107に出力する。駆動制御部201は、初期合焦が終了すると、第2AF検波部117から取得する積分データに対し演算を行って、第2レンズ105の移動方向と移動量とを求める。駆動制御部201は、求めた移動方向と移動量とを第2AF制御信号として第2駆動部107に出力する。
すなわち、第2AF制御部116は、初期合焦の制御には駆動差補償部112からの出力データを用い、2回目以降の合焦制御には第2AF検波部117からの出力データを用いる。
これにより、初期合焦で、モータの個体差を補償しておおよそのズレをなくした後に、それぞれの光学系で、同一の被写体に検波位置を設定して合焦処理を行うことができる。よって、左右の画像データで合焦ズレが生じにくいAF制御を行うことができる。
<合焦処理の例>
次に、合焦処理の具体例について説明する。図8は、合焦処理の具体例を示す図である。図8に示す画像301は、右画像とし、画像302は、左画像とする。ここでは、右画像301を第1の光学系で撮像し、左画像302を第2の光学系で撮像するとする。
第1検波位置310の座標は予め与えられており、第1AF制御部111のAF制御により右画像301の円錐部分で合焦動作が行われたとする。このときの第1駆動部104による移動量は、距離に相当する量である。第1駆動部104による移動量は、第1AF制御部111による制御量に相当する。視差補償部114は、この制御量に対応する視差量t(位置のオフセットt)を視差情報(図6参照)から取得する。
右画像301の第1検波位置310にこのオフセットtを足しこむと左画像302での第2検波位置320を定めることができる。このようにして定めた第2検波位置320で第2AF制御部116による合焦動作の制御を行えば、ボケていた円錐に対して焦点があうようになる。
<動作>
次に、実施例1における撮影装置100の動作について説明する。図9は、実施例1における合焦制御処理の一例を示すフローチャートである。図9に示すステップS201で、第1AF検波部110、第1AF制御部111などは、第1レンズ101を通して撮像された画像データの第1検波位置において合焦処理を行う。合焦処理は、図2に示す処理と同様である。
ステップS202で、駆動差補償部112は、第1AF制御信号を取得し、駆動差情報を参照し、第2レンズ105に対する制御量を取得する。これにより、第2レンズ105の駆動に対する初期の制御量が設定され、初期合焦が行われる。
ステップS203で、視差補償部114は、第1AF制御信号を取得し、視差情報を参照し、視差量を取得する。視差補償部114は、この視差量を第1検波位置に反映することで第2検波位置を検出する。
ステップS204で、第2AF検波部117、第2AF制御部116などは、第2レンズ105を通して撮像された画像データの第2検出位置において合焦処理を行う。合焦処理は、図2に示す処理と同様である。
以上、実施例1によれば、初期合焦で、モータの個体差を補償しておおよそのズレをなくした後に、それぞれの光学系で、同一の被写体に検波位置を設定して合焦処理を行うことができる。よって、左右の画像データで合焦ズレが生じにくいAF制御を行うことができる。
[実施例2]
次に、実施例2における撮影装置400について説明する。実施例2では、視差量を反映して第2検波位置を検出した後、左右の画像データを用いてブロックマッチングを行って第2検波位置を修正することで、より精緻な第2検波位置を求めることができる。
<構成>
図10は、実施例2における撮影装置400の構成の一例を示すブロック図である。図10に示す構成で、図4に示す構成と同様のものは同じ符号を付し、その説明を省略する。図10に示す撮影装置400は、実施例1と比べて信号処理部401の構成が異なる。よって、以下では信号処理部401について主に説明する。
信号処理部401は、第1AF検波部402、第1AF制御部111、駆動差補償部112、第2記憶部113、視差補償部403、第1記憶部115、第2AF制御部116、第2AF検波部404を含む。
第1AF検波部402は、第1センサ102から取得した画像データに基づいて、第1検波位置(第1検波ポイント)における高周波の積分データを検出する。この積分データは、第1AF制御部111に出力される。第1AF検波部110は、第1センサ102から取得した画像データを例えば右目用の画像データとしてホストCPU108及び視差補償部403に出力する。このとき、第1AF検波部110は、合焦した際の画像データを出力するようにすればよい。
第2AF検波部404は、第2センサ106から取得した画像データに基づいて、第2検波位置(第2検波ポイント)における高周波の積分データを検出する。この積分データは、第2AF制御部116に出力される。第2AF検波部404は、第2センサ106から取得した画像データを例えば左目用の画像データとしてホストCPU108及び視差補償部403に出力する。
このとき、第2AF検波部404は、初期合焦後の画像データを視差補償部403に出力し、合焦後の画像データをホストCPU108に出力すればよい。視差補償部403に出力する画像データが初期合焦後である理由は、ある程度の合焦ボケを解消した画像データでないと、後述するマッチング処理が適切にできないからである。よって、マッチングには、第1駆動部104及び第2駆動部107の駆動差を補償した初期合焦後の画像データを用いるとよい。
視差補償部403については、図11を用いて説明する。図11は、実施例2における視差補償部403の構成の一例を示すブロック図である。図11に示すように、視差補償部403は、第2検波位置検出部501、マッチング部502、修正部503を含む。
第2検波位置検出部501は、第1レンズ101及び第2レンズ105における視差を補償する。第2検波位置検出部501は、第1AF制御部111から第1AF制御信号を取得する。次に、第2検波位置検出部501は、第1記憶部115に記憶される視差情報を参照して、第1AF制御信号が示す制御量に対応する視差量を取得する。視差情報は、図6に示す通りである。
第2検波位置検出部501は、視差情報を参照して取得した視差量を第1検波位置に反映し、第2検波位置を検出する。例えば、第2検波位置検出部501は、保持している第1検波位置の座標に、視差量を加算して第2検波位置を検出する。検出された第2検波位置はマッチング部502及び修正部503に出力される。
マッチング部502は、第1AF検波部402から第1画像データを取得し、第2AF検波部403から第2画像データを取得する。マッチング部502は、第1検波位置を含む所定の領域と、第2画像データ内の所定の領域とでマッチングを行う。第2画像データ内の所定領域は、例えば第2検波位置周辺の所定領域とする。これにより、マッチング処理の負荷を軽減することができる。
このマッチング処理は、MPEG(Moving Picture Experts Group)の動き探索などで用いられる技術を適用すればよい。マッチング部502は、マッチング結果であるブロック間のズレ(動き量)を修正部503に出力する。
修正部503は、マッチング部502から取得したマッチング結果を用いて、第2検波位置検出部501から取得した第2検波位置を修正する。修正部503は、具体的には、第2検波位置をマッチング結果が示すブロック間のズレ分だけ移動させる。修正部503は、修正された第2検波位置を第2AF検波部404に出力する。
第2AF検波部404は、修正された第2検波位置における高周波の積分データを検出する。この検出は、初期合焦後に行われる。検出されたデータは、第2AF制御部116に出力される。
これにより、第1及び第2画像データを用いてブロックマッチングを行って第2検波位置を修正することで、より精緻な第2検波位置を求めることができる。また、第2画像データは、初期合焦後の画像データにすることで、ボケた画像とのマッチング処理を防止することができる。また、第2検波位置周辺の領域とブロックマッチングを行うことで、マッチング処理の負荷を軽減させることができる。
<動作>
次に、実施例2における撮影装置400の動作について説明する。図12は、実施例2における合焦制御処理の一例を示すフローチャートである。図12に示すステップS301で、第1AF検波部402、第1AF制御部111などは、第1レンズ101を通して撮像された画像データの第1検波位置(x,y)における合焦処理を行う。合焦処理は、図2に示す処理と同様である。
ステップS302で、駆動差補償部112は、第1AF制御信号が示す制御量dを取得し、駆動差情報difTab(d)を参照し、第2レンズ105に対する制御量d’を設定する。difTab(d)は、図5に示す関係を、第1の制御量dを引数として、第2制御量が求められる関数とする。
’=difTab(d) ・・・式(1)
これにより、第2レンズ105の駆動するための初期の制御量d’が設定され、初期合焦が行われる。
ステップS303で、視差補償部403は、第1AF制御信号が示す制御量dを取得し、視差情報PlxTab(d)を参照し、視差量(xoff,yoff)を取得する。この例では、垂直方向、水平方向の視差量(オフセット量)が視差情報に設定されている。PlxTab(d)は、図6に示す関係を、第1の制御量dを引数として、視差量が求められる関数とする。
(xoff,yoff)=PlxTab(d) ・・・式(2)
視差補償部403は、この視差量(xoff,yoff)を第1検波位置(x,y)に反映することで第2検波位置(x,y)を検出する。
(x,y)=(x+xoff,y+yoff) ・・・式(3)
ステップS304で、視差補償部403は、左右両方の画像データを用いて、第2検波位置(x,y)の周辺の領域でマッチングを取り、第2検波位置を修正する。
(x’,y’)=(x+x,y+y) ・・・式(4)
ここで、(x,y)は、
Σ|Pl(x+x,y+y)−Pr(x,y)| ・・・式(5)
を最小化する(x,y)とする。Plは、左の画像データを表し、Prは、右の画像データを表す。
ステップS305で、第2AF検波部404、第2AF制御部116などは、視差補償部403が検出し、修正した第2検出位置(x’,y’)において合焦処理を行う。合焦処理は、図2に示す処理と同様である。
ステップS302とS303の処理は、次のステップS304の左右の画像のマッチングを行う際に有用な処理であり、まったく焦点の合わない画像でマッチングが行われることを防ぐことができる。また、これらの処理は、計算量の削減、マッチング誤りを防止することもできる。
以上、実施例2によれば、第1及び第2画像データを用いてブロックマッチングを行って第2検波位置を修正することで、より精緻な第2検波位置を求めることができる。また、第2画像データは、初期合焦後の画像データにすることで、ボケた画像とのマッチング処理を防止することができる。また、第2検波位置周辺の領域とブロックマッチングを行うことで、マッチング処理の負荷を軽減させることができる。
また、特性が合致しない2つのAF制御動作を、片側を先に合焦させて、合焦までの駆動部の制御量を他方のAF制御時に用いて他方をおおよそ合焦させ、その後、他方を単独で精緻に合焦させることができる。このとき、マッチング過程で得られた補正量は、図に示す視差情報にフィードバックし、視差情報を学習させてもよい。なお、実施例1及び実施例2では、2眼カメラを例に説明したが、2以上のカメラ数であっても、開示の技術は同様に適用できる。
[変形例]
図13は、変形例における携帯端末装置600の構成の一例を示すブロック図である。図13に示すように、携帯端末装置600は、アンテナ601、無線部602、ベースバンド処理部603、制御部604、端末インタフェース部605、カメラ部606を有する。
アンテナ601は、送信アンプで増幅された無線信号を送信し、また、基地局から無線信号を受信する。無線部602は、ベースバンド処理部603で拡散された送信信号をD/A変換し、直交変調により高周波信号に変換し、その信号を電力増幅器により増幅する。無線部602は、受信した無線信号を増幅し、その信号をA/D変換してベースバンド処理部603に伝送する。
ベースバンド処理部603は、送信データの誤り訂正符号の追加、データ変調、拡散変調、受信信号の逆拡散、受信環境の判定、各チャネル信号の閾値判定、誤り訂正復号などのベースバンド処理を行う。
制御部604は、制御信号の送受信などの無線制御を行う。端末インタフェース部605は、データ用アダプタ処理、ハンドセットおよび外部データ端末とのインタフェース処理を行う。
カメラ部606は、実施例1で説明した第1レンズ101、第1センサ102、信号処理部103、第1駆動部104、第2レンズ105、第2センサ106、第2駆動部107に相当する。また、カメラ部606は、第1レンズ101、第1センサ102、信号処理部401、第1駆動部104、第2レンズ105、第2センサ106、第2駆動部107に相当してもよい。
また、前述した実施例1及び実施例2で説明した合焦制御処理を実現するためのプログラムを記録媒体に記録することで、各実施例での処理をコンピュータに実施させることができる。
また、このプログラムを記録媒体に記録し、このプログラムが記録された記録媒体をコンピュータや携帯端末装置に読み取らせて、前述した合焦制御処理を実現させることも可能である。なお、記録媒体は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。また、前述した各実施例で説明した信号処理部は、1つ又は複数の半導体集積回路に実装されてもよい。
以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した各実施例の構成要素を全部又は複数を組み合わせることも可能である。
なお、以上の実施例に関し、さらに以下の付記を開示する。
(付記1)
立体画像を撮影可能な撮影装置であって、
第1レンズ及び第2レンズの視差量を、前記第1レンズを駆動するための制御量に関連付けた視差情報を記憶する記憶部と、
第1検波位置において合焦させるため前記第1レンズの駆動を制御する第1合焦制御部と、
前記第1合焦制御部により合焦した際の制御量に対応する視差量を前記視差情報から取得し、該視差量を前記第1検波位置に反映した第2検波位置を検出する視差補償部と、
前記視差補償部により検出された第2検波位置において合焦させるため前記第2レンズの駆動を制御する第2合焦制御部と、
を備える撮影装置。
(付記2)
前記視差補償部は、
前記第1レンズを通して撮像された第1画像及び前記第2レンズを通して撮像された第2画像とのマッチング処理を行い、前記第2検波位置を修正する付記1記載の撮影装置。
(付記3)
前記第1及び第2レンズの焦点距離を同じにするため前記第1レンズに対する制御量と前記第2レンズに対する制御量とを関連付けた駆動差情報を記憶する第2記憶部と、
前記第1合焦制御部により合焦した際の制御量に対応する前記第2レンズに対する制御量を前記駆動差情報から取得する駆動差補償部と、をさらに備え、
前記第2合焦制御部は、
前記駆動差補償部により取得された制御量に基づき、前記第2レンズの駆動を制御し、次に、前記第2検波位置において合焦させるため前記第2レンズの駆動を制御する付記2記載の撮影装置。
(付記4)
前記第2画像は、前記第2合焦制御部により、前記取得された制御量に基づき前記第2レンズの駆動を制御した後に、前記第2レンズを通して撮像された画像である付記3記載の撮影装置。
(付記5)
前記マッチング処理は、前記第1検波位置を含む領域と、前記第2検波位置周辺の領域とで行われる付記2乃至4何れか一項に記載の撮影装置。
(付記6)
立体画像を撮影可能な撮影装置における撮影制御方法であって、
第1検波位置において合焦させるため第1レンズの駆動を制御し、
前記第1レンズで合焦した際の制御量に対応する視差量を、前記第1レンズ及び第2レンズの視差量を前記第1レンズを駆動するための制御量に関連付けた視差情報を記憶した記憶部から取得し、
前記取得された視差量を前記第1検波位置に反映した第2検波位置を検出し、
前記検出された第2検波位置において合焦させるため前記第2レンズの駆動を制御する撮影制御方法。
100、400 撮影装置
101 第1レンズ
102 第1センサ
103、401 信号処理部
104 第1駆動部
105 第2レンズ
106 第2センサ
107 第2駆動部
110、402 第1AF検波部
111 第1AF制御部
112 駆動差補償部
113 第2記憶部
114、403 視差補償部
115 第1記憶部
116 第2AF制御部
117、404 第2AF検波部
201 駆動制御部
501 第2検波位置検出部
502 マッチング部
503 修正部

Claims (6)

  1. 立体画像を撮影可能な撮影装置であって、
    第1レンズ及び第2レンズの視差量を、前記第1レンズを駆動するための制御量に関連付けた視差情報を記憶する記憶部と、
    第1検波位置において合焦させるため前記第1レンズの駆動を制御する第1合焦制御部と、
    前記第1合焦制御部により合焦した際の制御量に対応する視差量を前記視差情報から取得し、該視差量を前記第1検波位置に反映した第2検波位置を検出する視差補償部と、
    前記視差補償部により検出された第2検波位置において合焦させるため前記第2レンズの駆動を制御する第2合焦制御部と、
    を備える撮影装置。
  2. 前記視差補償部は、
    前記第1レンズを通して撮像された第1画像及び前記第2レンズを通して撮像された第2画像とのマッチング処理を行い、前記第2検波位置を修正する請求項1記載の撮影装置。
  3. 前記第1及び第2レンズの焦点距離を同じにするため前記第1レンズに対する制御量と前記第2レンズに対する制御量とを関連付けた駆動差情報を記憶する第2記憶部と、
    前記第1合焦制御部により合焦した際の制御量に対応する前記第2レンズに対する制御量を前記駆動差情報から取得する駆動差補償部と、をさらに備え、
    前記第2合焦制御部は、
    前記駆動差補償部により取得された制御量に基づき、前記第2レンズの駆動を制御し、次に、前記第2検波位置において合焦させるため前記第2レンズの駆動を制御する請求項2記載の撮影装置。
  4. 前記第2画像は、前記第2合焦制御部により、前記取得された制御量に基づき前記第2レンズの駆動を制御した後に、前記第2レンズを通して撮像された画像である請求項3記載の撮影装置。
  5. 前記マッチング処理は、前記第1検波位置を含む領域と、前記第2検波位置周辺の領域とで行われる請求項2乃至4何れか一項に記載の撮影装置。
  6. 立体画像を撮影可能な撮影装置における撮影制御方法であって、
    第1検波位置において合焦させるため第1レンズの駆動を制御し、
    前記第1レンズで合焦した際の制御量に対応する視差量を、前記第1レンズ及び第2レンズの視差量を前記第1レンズを駆動するための制御量に関連付けた視差情報を記憶した記憶部から取得し、
    前記取得された視差量を前記第1検波位置に反映した第2検波位置を検出し、
    前記検出された第2検波位置において合焦させるため前記第2レンズの駆動を制御する撮影制御方法。
JP2010286717A 2010-12-22 2010-12-22 撮影装置及び撮影制御方法 Pending JP2012133232A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010286717A JP2012133232A (ja) 2010-12-22 2010-12-22 撮影装置及び撮影制御方法
US13/200,364 US20120162388A1 (en) 2010-12-22 2011-09-23 Image capturing device and image capturing control method
CN201110337856.4A CN102547332B (zh) 2010-12-22 2011-10-31 图像拍摄装置和图像拍摄控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010286717A JP2012133232A (ja) 2010-12-22 2010-12-22 撮影装置及び撮影制御方法

Publications (1)

Publication Number Publication Date
JP2012133232A true JP2012133232A (ja) 2012-07-12

Family

ID=46316202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010286717A Pending JP2012133232A (ja) 2010-12-22 2010-12-22 撮影装置及び撮影制御方法

Country Status (3)

Country Link
US (1) US20120162388A1 (ja)
JP (1) JP2012133232A (ja)
CN (1) CN102547332B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011049A (ja) * 2013-06-26 2015-01-19 富士通セミコンダクター株式会社 撮像装置、選択方法、および選択プログラム
KR20170019823A (ko) * 2015-08-12 2017-02-22 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자장치
KR20190021725A (ko) * 2017-08-23 2019-03-06 삼성전자주식회사 복수 개의 카메라들 간의 시차를 감소시키는 방법 및 이를 지원하는 전자 장치
JP2021003726A (ja) * 2019-06-26 2021-01-14 積水化学工業株式会社 溶接モニタ装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4972716B2 (ja) * 2010-10-14 2012-07-11 パナソニック株式会社 ステレオ画像表示装置
US8760567B2 (en) * 2010-12-21 2014-06-24 Samsung Electronics Co., Ltd. Photographing apparatus and method to reduce auto-focus time
US20130057655A1 (en) * 2011-09-02 2013-03-07 Wen-Yueh Su Image processing system and automatic focusing method
CN103856704B (zh) * 2012-11-29 2018-08-10 联想(北京)有限公司 一种移动终端3d拍摄的方法和装置
US9948918B2 (en) * 2012-12-10 2018-04-17 Mediatek Inc. Method and apparatus for stereoscopic focus control of stereo camera
JP2014154907A (ja) * 2013-02-05 2014-08-25 Canon Inc 立体撮像装置
JP6586239B2 (ja) * 2016-08-29 2019-10-02 株式会社日立製作所 撮影装置及び撮影方法
CN108020200B (zh) * 2016-10-31 2020-02-28 杭州海康威视数字技术股份有限公司 一种深度测量方法及系统
CN109963080B (zh) * 2019-03-26 2021-07-09 Oppo广东移动通信有限公司 图像采集方法、装置、电子设备和计算机存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08242468A (ja) * 1995-03-01 1996-09-17 Olympus Optical Co Ltd 立体撮影装置
US20090160931A1 (en) * 2007-12-20 2009-06-25 Nokia Corporation Image processing for supporting a stereoscopic presentation

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0641132B1 (en) * 1993-08-26 1999-04-14 Matsushita Electric Industrial Co., Ltd. Stereoscopic image pickup apparatus
US5530514A (en) * 1994-07-19 1996-06-25 Eastman Kodak Company Direct focus feedback autofocus system
JP2001231055A (ja) * 2000-02-14 2001-08-24 Sony Corp 撮影装置及び撮影調整方法
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US20050207486A1 (en) * 2004-03-18 2005-09-22 Sony Corporation Three dimensional acquisition and visualization system for personal electronic devices
JP2006162991A (ja) * 2004-12-07 2006-06-22 Fuji Photo Film Co Ltd 立体画像撮影装置
JP4861109B2 (ja) * 2006-09-27 2012-01-25 富士通株式会社 画像データ処理装置、画像データ処理方法、画像データ処理プログラム、および、撮像装置
US20080117290A1 (en) * 2006-10-18 2008-05-22 Mgc Works, Inc. Apparatus, system and method for generating stereoscopic images and correcting for vertical parallax
JP2009069255A (ja) * 2007-09-11 2009-04-02 Sony Corp 撮像装置および合焦制御方法
CA2752691C (en) * 2009-02-27 2017-09-05 Laurence James Claydon Systems, apparatus and methods for subtitling for stereoscopic content
CN101840146A (zh) * 2010-04-20 2010-09-22 夏佳梁 自动矫正视差的立体图像拍摄方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08242468A (ja) * 1995-03-01 1996-09-17 Olympus Optical Co Ltd 立体撮影装置
US20090160931A1 (en) * 2007-12-20 2009-06-25 Nokia Corporation Image processing for supporting a stereoscopic presentation

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011049A (ja) * 2013-06-26 2015-01-19 富士通セミコンダクター株式会社 撮像装置、選択方法、および選択プログラム
KR20170019823A (ko) * 2015-08-12 2017-02-22 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자장치
KR102349428B1 (ko) 2015-08-12 2022-01-10 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자장치
KR20190021725A (ko) * 2017-08-23 2019-03-06 삼성전자주식회사 복수 개의 카메라들 간의 시차를 감소시키는 방법 및 이를 지원하는 전자 장치
KR102348504B1 (ko) 2017-08-23 2022-01-10 삼성전자주식회사 복수 개의 카메라들 간의 시차를 감소시키는 방법 및 이를 지원하는 전자 장치
JP2021003726A (ja) * 2019-06-26 2021-01-14 積水化学工業株式会社 溶接モニタ装置
JP7312039B2 (ja) 2019-06-26 2023-07-20 積水化学工業株式会社 溶接モニタ装置

Also Published As

Publication number Publication date
US20120162388A1 (en) 2012-06-28
CN102547332B (zh) 2014-12-17
CN102547332A (zh) 2012-07-04

Similar Documents

Publication Publication Date Title
JP2012133232A (ja) 撮影装置及び撮影制御方法
US20240056681A1 (en) Camera body for receiving first and second image plane transfer coefficients
US9523836B2 (en) Image pickup device and program
US9602727B2 (en) Imaging apparatus and imaging method
US20130057655A1 (en) Image processing system and automatic focusing method
KR102130756B1 (ko) 자동 초점 조절 방법 및 자동 초점 조절 장치
CN107924104A (zh) 深度感测自动聚焦多相机系统
US8593531B2 (en) Imaging device, image processing method, and computer program
JP2019510234A (ja) 奥行き情報取得方法および装置、ならびに画像取得デバイス
JP2010128820A (ja) 立体画像処理装置、方法及びプログラム並びに立体撮像装置
JP4533735B2 (ja) 立体画像撮影装置
JP7009142B2 (ja) 撮像装置および画像処理方法
US10187564B2 (en) Focus adjustment apparatus, imaging apparatus, focus adjustment method, and recording medium storing a focus adjustment program thereon
US20130002830A1 (en) Stereoscopic imaging device and method for automatically adjusting the focal point of a stereoscopic imaging device
JP2010230879A (ja) 複眼カメラ装置
JP2014122993A (ja) 撮影機器、カメラシステム及びフォーカス制御のための情報を算出する方法
JP2006162991A (ja) 立体画像撮影装置
JP2014021328A (ja) 立体映像撮影システムに用いる光学装置
JP5867996B2 (ja) 焦点検出装置及びそれを有する撮像装置
JP2014081462A (ja) 焦点検出装置及びそれを有するレンズ装置及び撮像装置
KR20180046624A (ko) 이미지 합성용 보정데이터를 획득하는 듀얼카메라 모듈 제조방법 및 장치 그리고 이에 의해 제조된 듀얼카메라 모듈
US20130128002A1 (en) Stereography device and stereography method
JP2015194686A (ja) 撮像装置
JP2012133194A (ja) 撮像装置
JP5688543B2 (ja) 立体画像撮像装置および立体画像撮像装置におけるレンズ駆動方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150127