JP6214236B2 - 画像処理装置、撮像装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6214236B2
JP6214236B2 JP2013134111A JP2013134111A JP6214236B2 JP 6214236 B2 JP6214236 B2 JP 6214236B2 JP 2013134111 A JP2013134111 A JP 2013134111A JP 2013134111 A JP2013134111 A JP 2013134111A JP 6214236 B2 JP6214236 B2 JP 6214236B2
Authority
JP
Japan
Prior art keywords
image
subject
distance
shifted
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013134111A
Other languages
English (en)
Other versions
JP2014197824A (ja
JP2014197824A5 (ja
Inventor
渡辺 和宏
和宏 渡辺
亘 加来
亘 加来
修 坂田
修 坂田
慶太 ▲高▼谷
慶太 ▲高▼谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013134111A priority Critical patent/JP6214236B2/ja
Priority to US14/195,951 priority patent/US9270902B2/en
Priority to CN201410078684.7A priority patent/CN104038690B/zh
Priority to CN201610015181.4A priority patent/CN105491294B/zh
Publication of JP2014197824A publication Critical patent/JP2014197824A/ja
Publication of JP2014197824A5 publication Critical patent/JP2014197824A5/ja
Priority to US14/984,071 priority patent/US9521320B2/en
Application granted granted Critical
Publication of JP6214236B2 publication Critical patent/JP6214236B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、被写体のピント制御に関する情報を得るための画像処理装置、撮像装置、画像処理方法、プログラムに関するものである。
デジタルカメラなどの撮像装置では、撮像画像に含まれる被写体をユーザがタッチパネル操作等で指示することにより、その被写体への合焦(ピント、或いはフォーカス)調整を行うものが知られている(例えば、特許文献1)。
また、撮像対象物(被写体)の奥行き方向での位置を表す奥行き位置と、フォーカスの位置を表すフォーカス位置とを示すためのマップ画像を表示することにより、ユーザが合焦している撮像対象物を容易に把握することが可能な技術も提案されている(例えば、特許文献2)。
また、近年、光線の向きと強度の情報(ライトフィールドデータ)を取得し、後で画像処理によってフォーカス位置の調節(リフォーカス)や被写界深度の調節を行うライトフィールドフォトグラフィ技術が知られている(たとえば、特許文献3参照)。
この技術を用いれば、撮像後にピント調整を行えるため、撮像時のピント調整の失敗を画像処理で補うことができるという利点がある。さらに、画像処理方法を変えることで画像中の任意の被写体にピントを合わせた複数の画像を一枚の撮像画像から得る事ができ、撮像回数を減らす事ができるという利点もある。
特開2011−39457号公報 特開2010−177741号公報 特表2008−515110号公報 特開平9−186931号公報 特開2001−169308号公報
撮像画像データまたはライトフィールドデータの表示において、合焦する対象物は、撮像位置から一定距離の面上に存在することになる。しかしながら、特定の被写体を指示することにより合焦を行う場合には、ユーザはその特定被写体以外のどの被写体に合焦するかを把握することができない。
また、特許文献2の技術では、撮像対象物を表すマークが奥行き方向に並んだマップ画像によって、どの被写体に合焦するかを把握可能であるものの、係るマップ画像は撮像画像(実際の画像)とは大きく乖離するため、直感的に把握することが難しい。
本発明に係る画像処理装置は、2次元画像から検出された被写体と当該被写体までの距離情報とに基づき、前記2次元画像から距離ごとに前記被写体の領域を抽出する被写体領域抽出手段と、抽出された被写体領域の各距離に応じて、水平方向におけるずれ量と垂直方向におけるずれ量との比率が一定となるように、前記被写体領域の位置がずれた画像を生成するずれ画像生成手段と、を有することを特徴とする。
本発明によれば、ユーザは、撮影時、或いは画像の編集時に、被写体の合焦状態を直観的に把握することができる。
デジタルカメラの外観の一例を示す図である。 デジタルカメラの内部構成を示すブロック図である。 実施例1に係るデジタルカメラにおいて実行される画像処理の流れを示すフローチャートである。 デジタルカメラの表示部に表示される2次元画像の一例を示す図である。 2次元画像から被写体が検出された状態を示す図である。 距離画像の一例を示す図である。 被写体領域を抽出した状態を示す図である。 水平・垂直方向のずれ量の比率を決定する処理の流れを示すフローチャートである。 被写体領域が抽出された画像についてずれ画像生成処理を行った結果を示す図である。 ずれ画像における各被写体領域に対し、シアー処理を行った結果を示す図である。 シアー処理が施された画像に、地面格子パターンを重畳した結果を示す図である。 地面格子パターンが合成された画像に、合焦距離の指標及び被写界深度の指標を重畳した結果を示す図である。 ライトフィールドデータを扱う装置の内部構成の一例を示す図である。 実施例2に係る装置において実行される画像処理の流れを示すフローチャートである。
以下、図面を参照して、本発明の実施例を詳細に説明する。
[実施例1]
ここでは、本発明に係る画像処理装置を、デジタルカメラに適用した態様について、実施例1として説明する。
図1は、デジタルカメラの外観の一例を示す図である。
表示部101は、例えば液晶ディスプレイが用いられ、画像や各種情報を表示する。表示部101はタッチスクリーン機能を有し、表示部101に対する接触を検知できる。例えば、タッチパネルを光の透過率が表示部101の表示を妨げないように構成し、表示部101の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部101上の表示座標とを対応付ける。これにより、あたかもユーザが表示部101上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。
シャッターボタン102は、撮像指示を行うための操作部である。
モードダイアル103は、各種モードを切り替えるための操作部である。
コネクタ104は、接続ケーブル111とデジタルカメラ100とのコネクタである。
操作部105は、ユーザからの各種操作を受け付ける各種スイッチ、ボタン等である。
コントローラーホイール106は、操作部105に含まれる回転操作可能な操作部材である。
電源スイッチ107は、デジタルカメラ100の電源のオンとオフを切り替える。
記録媒体108は、撮像画像データやライトフィールドデータを記録するための、メモリカードやハードディスクといった情報記録媒体である。
記録媒体スロット109は、記録媒体108を格納するためのスロットである。記録媒体スロット109に格納された記録媒体108は、デジタルカメラ100との通信が可能となる。
蓋110は、記録媒体スロット109の蓋である。
図2は、デジタルカメラ100の内部構成を示すブロック図である。
撮像レンズ201にはフォーカスレンズを含む。
シャッター202は、絞り機能を備え、シャッターボタン102に連動して露光を制御する。
撮像部203は、光学像を電気信号に変換するCCDやCMOS素子等で構成される。
A/D変換器204は、撮像部203から出力されるアナログ信号をデジタル信号に変換する。
バリア205は、撮像レンズ201やシャッター202を含む撮像部203を覆うことにより、撮像系の汚れや破損を防止する。
画像処理部206は、A/D変換器204からの画像データ、又は、メモリ制御部207からの画像データに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部206では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部208が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部206では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。A/D変換器204からの画像データは、画像処理部206及びメモリ制御部207を介して、或いは、メモリ制御部207を介してメモリ209に直接書き込まれる。
メモリ209は、撮像部203によって得られA/D変換器204によりデジタルデータに変換された画像データや、表示部101に表示するための画像データを格納する。メモリ209は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。撮像した画像データを、表示部101を用いて逐次表示すれば、電子ファインダー機能(スルー画像表示)を実現することが可能である。また、メモリ209は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器210は、メモリ209に格納されている画像表示用のデータをアナログ信号に変換して表示部101に供給する。こうして、メモリ209に書き込まれた表示用の画像データは、D/A変換器210を介して表示部101に表示される。
表示部101は、LCD等の表示器上に、D/A変換器210からのアナログ信号に応じた表示を行う。
不揮発性メモリ211は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ211には、システム制御部208の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部208は、デジタルカメラ100の全体を制御する。前述した不揮発性メモリ211に記録されたプログラムを実行することで、後述する各処理を実現する。システムメモリ212には、RAMが用いられ、システム制御部208の動作用の定数、変数、不揮発性メモリ211から読み出したプログラム等を展開する。また、システム制御部208は、メモリ209、D/A変換器210、表示部101等を制御することにより表示制御も行う。また、システム制御部208は、タッチパネルへの以下の操作を検出できる。
・タッチパネルを指やペンで触れたこと(以下、タッチダウンと称する。)
・タッチパネルを指やペンで触れている状態であること(以下、タッチオンと称する。)
・タッチパネルを指やペンで触れたまま移動していること(以下、ムーブと称する。)
・タッチパネルを2本の指で触れて、その間隔を狭めるように動かすこと(以下、ピンチインと称する。)
・タッチパネルを2本の指で触れて、その間隔を広げるように動かすこと(以下、ピンチアウトと称する。)
・タッチパネルに触れていた指やペンを離したこと(以下、タッチアップと称する。)
・タッチパネルに何も触れていない状態(以下、タッチオフと称する。)
上記各種操作や、タッチパネル上に指やペンが触れている位置座標は、システム制御部208に通知され、システム制御部208は通知された情報に基づいてタッチパネル上でどのような操作が行なわれたかを判定する。ムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。またタッチパネル上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
モードダイアル103は、システム制御部208の動作モードを、静止画および動画を記録可能な撮像モード、再生モード等のいずれかに切り替える。シャッターボタン102は、不図示の第1シャッタースイッチと第2シャッタースイッチとを含む。第1シャッタースイッチは、シャッターボタン102の操作途中、いわゆる半押し(撮像準備動作指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作(以下、これらのうち少なくとも一つを撮像準備動作と称する)を開始する。これらの処理はシステム制御部208の制御によって行われる。第2シャッタースイッチは、シャッターボタン102の操作完了、いわゆる全押し(撮像指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部208は、第2シャッタースイッチ信号SW2により、撮像部203からの信号読み出しから記録媒体108に画像データを書き込むまでの一連の撮像処理の動作を開始する。
操作部105の各操作部材は、表示部101に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部101に表示される。ユーザは、表示部101に表示されたメニュー画面と、4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。コントローラーホイール106は、操作部105に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。
電源制御部213は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部213は、その検出結果及びシステム制御部208の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体108を含む各部へ供給する。
電源部214は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
インタフェース215は、メモリカードやハードディスク等の記録媒体108とのインタフェースである。
図3は、本実施例に係るデジタルカメラにおいて実行される画像処理の流れを示すフローチャートである。なお、この一連の処理は、システム制御部208が不揮発性メモリ211に記録されたプログラムをシステムメモリ212に展開して実行することで実現される。
ユーザにより電源が投入されると、ステップ301において、システム制御部208は、所定の撮像条件(フォーカス、露出、ホワイトバランス等)で撮像を開始する。この撮像条件は、たとえば電源切断前の値を回復して用いる等、装置の仕様による。
ステップ302において、システム制御部208は、撮像部203で取得された2次元画像を表示部101に表示する。図4は、表示部101に表示される2次元画像の一例を示す図である。図4の2次元画像は、屋外での撮像画像であり、空が写っているため、最も遠い被写体までの距離は無限遠となる。この場合において、最も遠い被写体である「空」に合焦したとき(合焦距離が無限遠のとき)、その前方被写界深度はいわゆる「過焦点距離」の1/2と等しくなる。過焦点距離の値は、以下の式(1)で求められる。
(f^2)/(δ・F) ・・・式(1)
ここで、fはレンズの焦点距離(mm)、Fはレンズの絞り値、δは許容錯乱円径(mm)である。
たとえば、レンズの焦点距離を50mm、開放時のレンズの絞り値を2.8、許容錯乱円径を0.03328mmとするとき、過焦点距離は約26.8mとなり、その前方被写界深度は約13.4mとなる。この場合、約13.4mより距離が大きくなる領域が、「背景領域」となる。なお、最も遠い被写体に絞りを開放にして合焦した場合において前方被写界深度にある被写体のいずれかに合焦するとき、この範囲にある被写体すべてに合焦することとなる。そこで、これらの被写体の領域を一体として「背景領域」として表示することで、この領域内の被写体については合焦するものと合焦しないものとを分けることができないことをユーザに対して明確にすることができる。
ステップ303において、システム制御部208は、フラッシュ強制発光/フラッシュ禁止/自動の選択といった各種設定について所定のユーザ操作があったときは、その設定を行う。
ステップ304において、システム制御部208は、ユーザにより表示モードを変更する指示があるかどうかを判定する。表示モードを変更する指示があれば、ステップ305に進む。一方、表示モードを変更する指示がなければ、ステップ302に戻る。
ステップ305において、システム制御部208は、撮像している画像に含まれる被写体を検出する。撮像画像内の被写体を検出する方法としては、たとえば、特許文献4が開示するものなど種々の方法を適用すればよい。図5は、図4に示した2次元画像から、被写体として人物、横向きの自動車、道路標識、建物がそれぞれ検出された状態を示す図である。図5において、画像中の木立、郵便ポスト、正面向きの自動車の各被写体は、絞り開放時の過焦点距離の1/2以遠にあるものとして、最遠の被写体である「空」と一体で上述の「背景領域」に含めている。
ステップ306において、システム制御部208は、撮像している2次元画像の距離情報(2次元画像から検出された各被写体までの距離の情報)を取得する。ここで、距離情報とは、2次元画像中の各被写体までの距離をその2次元画像の座標と対応させて記録したものであり、たとえば、座標に対してグレーの濃淡によりその座標の奥行の大小(遠近)を表わした「距離画像(距離マップ)」などが相当する。撮像している画像に対して距離情報を得る方法としては、たとえば、特許文献5が開示するものなど種々の方法を適用すればよい。図6は、図4に示した2次元画像について生成された距離画像の一例を示している。図6の距離画像においては、人物、横向きの自動車、道路標識、建物の4つの被写体の領域が、各距離に応じて濃度の異なるグレースケールの画像(一番距離が近い人物が最も濃く、建物が最も淡い)によって表現されている。なお、建物よりも遠くにある木立等は上述のとおり背景の一部に含まれることになるため、ここでの“被写体”としては扱われない。
ステップ307において、システム制御部208は、ステップ305で検出した被写体とステップ306で取得した距離情報とに基づき、次のステップ308におけるずらし処理の対象となる被写体領域を抽出する処理を行う。この被写体領域抽出処理は、一定の距離ごとに被写体の領域を分離する処理と言い換えることもできる。例えば、ステップ305で検出された被写体であって背景領域には含まれない被写体のうち、所定の距離の範囲内(例えば、1m±50cm)にある部分が、1の被写体領域の単位として抽出される。図7は、図4に示した2次元画像から被写体領域を抽出した状態を示す図であり、破線で示す部分(人物、横向きの自動車、道路標識、建物の各領域)が抽出された各被写体領域を示している。
ステップ308において、システム制御部208は、ステップ307で抽出した被写体領域ごとに、ステップ306で取得した距離情報に応じてその位置(座標)を変更する(ずらす)処理を行って、各被写体領域が一定の方向にずれた「ずれ画像」を生成する。たとえば、図7に示した4つの被写体領域までの距離が夫々、1m、3m、5m、8mのように対応するとき、各被写体領域の座標を水平方向及び垂直方向に夫々所定量(例えば、100画素、33画素、20画素、13画素ずつ)ずれた画像が生成される。この「ずれ画像生成」におけるずれ量は、必ずしも距離に逆比例させる必要はなく、例えば、対数比としてもよいし、距離とずれ量との対応テーブルを予め用意しこれを適用して決定するようにしてもよい。この際、各領域のずらし方向を同じにするため、水平方向のずれ量と垂直方向のずれ量との比率が一定となるようにする。あるいは、以下に示すような処理によって、水平・垂直方向のずれ量の比率を決定することとしてもよい。
図8は、水平・垂直方向のずれ量の比率を決定する処理の流れを示すフローチャートである。
ステップ801において、システム制御部208は、所定の比率でずれを生じさせた画像を生成する。処理開始直後の段階では、予め定めた初期値(例えば、1対1の比率)でずれを生じさせたずれ画像が生成される。
ステップ802において、システム制御部208は、ステップ801で得られたずれ画像内に、被写体領域どうしの重なりがあるかどうかを判定する。被写体領域どうしの重なりがある場合には、ステップ803へ進む。一方、被写体領域どうしの重なりがない場合にはステップ805へ進む。
ステップ803において、システム制御部208は、被写体領域どうしが重なり合う領域のうち背後に表示されることとなる被写体領域の覆い隠される部分の面積の割合が所定の閾値(例えば50%)を超えるかどうかを判定する。この場合において、背後に表示されることとなる領域の覆い隠される面積の割合が少ないほどユーザは適切に被写体を把握することが可能となる。所定の閾値は、この点を考慮して予め決定される。覆い隠される部分の面積の割合が閾値を超えるときは、ステップ804へ進む。一方、覆い隠される部分の面積の割合が閾値を越えないときは、ステップ805へ進む。
ステップ804において、システム制御部208は、水平・垂直方向にずらす比率を変更し、ステップ801に戻る。すなわち、重なり合う領域のうち背後に表示されることとなる領域の覆い隠される部分の面積の割合がより小さくなるように比率を変更し、当該変更後の比率に従ってずれを生じさせたずれ画像を生成する。
ステップ805において、システム制御部208は、背後に表示されることとなる領域の覆い隠される面積の割合が閾値を下回ったときの比率を、表示のための正式な比率として決定する。こうして決定された比率に応じたずれ量が、ずれ画像生成におけるずれ量として決定される。
なお、ずれ画像生成処理においては、近距離の被写体に対応する被写体領域(第1の被写体領域)が遠距離の被写体に対応する被写体領域(第2の被写体領域)よりも下方になるような方向にずらすことが望ましい。これにより、ユーザが前方から俯瞰しているように表示でき、ユーザの感覚に適したような表示となるためである。また、上述の背景領域(2次元画像の中の最も距離の遠い被写体にシャッターの絞りを開放にして合焦したとき、その前方被写界深度に含まれる領域)を、位置(座標)をずらす際の基準とする。このように「背景領域」を基準にずらすのは、以下の理由による。すなわち、本発明の目的は、どの被写体に合焦するのかをユーザが把握しやすくすることにあるところ、最も距離の遠い被写体に合焦しているときの、絞り開放での被写界深度に含まれる領域は、絞り値を変更したときも合焦していると認識されるからである。図9は、4つの被写体領域が抽出された画像(図7参照)について、ずれ画像生成処理を行った結果を示す図であり、被写体領域ごとに、その距離に応じて位置(座標)がずれているのが分かる。図9の例では、各被写体領域のずらし方向を同じにするため、水平方向と垂直方向のずらし量が一定の比率となっている。
図3のフローチャートの説明に戻る。
ステップ309において、システム制御部208は、ステップ308のずれ画像生成処理で生成された「ずれ画像」における各被写体領域に対し、水平方向が傾くようにシアー処理(斜変形処理)を行う。このシアー処理を行うことにより、ユーザが斜め前方から見ているという感覚により適するように表示することが可能となる。どの程度、斜めに変形させるかは予め定められたシアー角度によって決まる。図10は、ずれ画像における各被写体領域(図9参照)に対し、シアー処理を行った結果を示す図である。このシアー処理により、ユーザは、被写体どうしの距離間隔をより把握しやすくなる。なお、シアー角度は、予め定められた所与の角度としてもよいし、ユーザが任意に指定できるようにしてもよい。
ステップ310において、システム制御部208は、ずらし方向及びシアー角度に基づいて、格子パターンを重畳(合成)する処理を行う。例えば、ずらし方向と同方向の線分と、シアー(斜変形)方向と同方向の線分から成る地面格子パターンを生成して、画像に重畳する。図11は、シアー処理が施された図10の画像に、格子パターンを重畳した結果を示す図である。これにより、ユーザは、被写体どうしの距離間隔をさらに分かりやすく把握することが可能となる。なお、図11の例では、地面格子パターン1101と壁面格子パターン1102の計2種類の格子パターンが重畳表示されている。これにより、ユーザが斜め前方から見ているという感覚に更に適するように表示することが可能となる。なお、「背景領域」については「壁」のように表示し、それよりも遠くの距離に対応する格子パターンを表示しないようにしてもよい。これにより、ユーザは、被写界深度等の変更の限界(すなわち、当該「壁」のように表示された部分については合焦距離や被写界深度を変更できないこと)を直感的に把握できるようになる。
ステップ311において、システム制御部208は、撮像画像の撮像条件(フォーカス、露出、ホワイトバランス等)より、前方被写界深度と後方被写界深度を導出する。例えば、以下の式(2)及び式(3)を用いた演算によって、前方被写界深度と後方被写界深度とがそれぞれ導出される。
前方被写界深度(mm)=(R^2・δ・F)/(f^2+R・δ・F) ・・・式(2)
後方被写界深度(mm)=(R^2・δ・F)/(f^2−R・δ・F) ・・・式(3)
上記式(2)及び式(3)において、Rは合焦している被写体(ただし無限遠ではない)までの距離(mm)、fはレンズの焦点距離(mm)、Fはレンズの絞り値、δは許容錯乱円径(mm)を表す。
なお、許容錯乱円径は、撮像素子の対角線長から導かれる固有値であり、たとえば、幅36mm、高さ24mm、対角線長43.27mmの撮像素子については0.03328mmの値が使用される。
ステップ312において、システム制御部208は、合焦している被写体までの距離(以下、「合焦距離」という)と、ステップ311で導出された前方被写界深度及び後方被写界深度を表す指標とを、撮像画像に重畳(合成)する処理を行う。すなわち、これらの距離に対応する、ステップ310で重畳した地面格子パターン上の位置に、指標となる画像を重畳する。図12は、格子パターンが合成された図11の画像に、合焦距離の指標及び被写界深度の指標(前方被写界深度の指標と後方被写界深度の指標)を重畳した結果を示す図である。図12において、指標1201は、地面格子パターンに沿って、人物(被写体P)のある位置の奥行き方向の距離(合焦距離)を示しており、人物(被写体P)に合焦していることを表している。また、指標1202及び1203は、地面格子パターンに沿って、それぞれ前方被写界深度と後方被写界深度を示しており、横向きの自動車(被写体C)が被写界深度にあること(撮像画像において合焦していると認識できること)を表している。
ステップ313において、システム制御部208は、ステップ312で各指標が合成された撮像画像を、表示部101上に表示する。そして、後述するように、合成された指標に対してユーザが指示・操作をすることにより、撮像レンズ201やシャッター202の絞り等を制御して、合焦距離や被写界深度を変更することができる。その際、指標を移動させるユーザ操作に応じて、その位置に対応する格子線を強調表示したり、その位置に対応する被写体の領域を他の被写体の領域と異ならせて表示するようにしてもよい。これにより、ユーザは、どの被写体に合焦するか、どの被写体が被写界深度にあるかといったことをより明確に把握することができる。
ステップ314において、システム制御部208は、ユーザにより表示部101へのタッチ操作があったかどうかを判定する。ユーザによるタッチ操作があれば、ステップ315へ進む。一方、ユーザによるタッチ操作がなければ、ステップ305に戻る。
ステップ315において、システム制御部208は、ユーザによるタッチ操作が「合焦距離の指標近傍へタッチダウンしてムーブ」する操作であるかどうかを判定する。ユーザによるタッチ操作が「合焦距離の指標近傍へタッチダウンしてムーブ」する操作であれば、ステップ316へ進む。一方、ユーザによるタッチ操作が「合焦距離の指標近傍へタッチダウンしてムーブ」以外の操作であれば、ステップ318へ進む。
ステップ316において、システム制御部208は、ユーザがタッチしている位置に対応する距離の被写体に合焦するように撮像レンズ201を制御し、フォーカスを調整する。
ステップ317において、システム制御部208は、合焦距離を表す指標の表示位置をユーザがタッチしている位置に移動する。
ステップ318において、システム制御部208は、ユーザによるタッチ操作が「被写界深度の指標近傍へタッチダウンしてピンチインまたはピンチアウト」する操作であるかどうかを判定する。ユーザによるタッチ操作が「被写界深度の指標近傍へタッチダウンしてピンチインまたはピンチアウト」する操作であればステップ319へ進む。一方、ユーザによるタッチ操作が「被写界深度の指標近傍へタッチダウンしてピンチインまたはピンチアウト」以外の操作であれば、ステップ321へ進む。
ステップ319において、システム制御部208は、ユーザの2本の指(タッチしている指)にそれぞれ対応する距離の間にある被写体が合焦するように撮像レンズ201やシャッター202を制御して、被写界深度を調整する。焦点距離、許容錯乱円径といった条件が一定であるとき、絞りを絞ることにより被写界深度が増すことが知られている。なお、絞り値の変更による光量の増減に対しては、ND(Neutral Density)フィルタの使用や撮像素子の増感または減感等により調整可能である。
ステップ320において、システム制御部208は、被写界深度を表す2つの指標の表示位置をユーザのタッチしている2本の指の位置にそれぞれ移動する。
ステップ321において、システム制御部208は、ユーザのタッチ操作の内容に対応した処理を行う。たとえば、ユーザにより撮像画像から抽出された領域のいずれかがタッチされたときは、その領域に対応する距離に合焦するように撮像レンズ201を制御し、合焦距離を表す指標の表示位置を対応する位置に移動する。
ステップ314において、システム制御部208は、ユーザによる電源断など所定の終了操作に応じて本処理を終了する。
以上のとおり、本実施例に係る画像処理装置を適用したデジタルカメラでは、ユーザは、そのUI上でどの被写体に合焦するかを、実際の画像に近い状態で直感的に把握することが可能となる。
[実施例2]
次に、本発明に係る画像処理装置を、ライトフィールドデータを扱う情報処理装置に適用した態様について、実施例2として説明する。なお、実施例1と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
まず、ライトフィールドデータについて説明する。
ライトフィールドデータ(光線情報)とは、光線経路に対する光量を記録したデータである。具体的には、2つの平行平面上の座標(第1の平面上の座標(u,v)と第2の平面上の座標(x、y))を通過する光線について、その光量Lを、u、v、x、yの関数としてL(u,v,x,y)で表わしたものである。これに対して、2次元画像は単一の平面上の座標(x、y)における光線光量で表わされる。たとえば、撮像素子の座標(x、y)における光量を記録したものが、撮像画像の2次元画像である。言い換えれば、2次元画像を、第1の平面上の座標の個数分だけ束ねたものがライトフィールドデータとなる。
撮像装置によりライトフィールドデータを取得する方法としては、撮像素子の前にマイクロレンズアレイを配置する方法や絞りの開口位置を制御する方法等がある。要するに、撮像素子の座標の光量を、これと平行な平面上の座標(例えば、一つ一つのマイクロレンズの位置の座標)に対応させて記録することにより、ライトフィールドデータを得ることができる。
ライトフィールドデータL(u,v,x,y)を、上記の第1の平面上の座標(u,v)の一部または全部について積分する(総和をとる)ことにより、2次元のディスプレイに表示可能な2次元画像が得られる。つまり、ライトフィールドデータを構成する、上記第1の平面上の一定範囲の座標に対する複数の2次元画像を重畳して、2次元のディスプレイに表示することが可能となる。
ライトフィールドデータを構成する2次元画像を重畳する際に、特定の距離の被写体の位置が一致するように重畳してゆくと、その距離の被写体に合焦した2次元画像を得ることができる。反対に、ライトフィールドデータを構成する2次元画像は、それぞれ上記の第1の平面上の座標の離間距離分の視差を有しているため、前記特定の距離以外の距離の被写体は位置がずれて重畳され、得られた2次元画像上では像がボケることになる。
ライトフィールドデータを構成する2次元画像を、上記の第1の平面上の小さな範囲内の座標分だけ重畳することとすると、それぞれの2次元画像の視差が限定されるため、被写界深度の大きい2次元画像を得ることができる。つまり、重畳する2次元画像について対応する上記第1の平面上の範囲を変更することにより、重畳して得られる2次元画像の被写界深度を変更することが可能となる。
また、「画像相関法」を適用して、以下のようにライトフィールドデータから距離画像を得ることができる。すなわち、上記の第1の平面から2つの座標を選び、これらに対応する2つの2次元画像を比較する。一方の2次元画像中の任意の画素を中心とした小領域について、他方の2次元画像中でよく似たパターンの小領域を特定し、これら対応する2つの小領域の、2つの2次元画像の間での移動量を計算する。この移動量がいわゆる「視差」であり、その座標に表示されている被写体までの距離に逆比例する。したがって、座標ごとの視差から被写体までの距離を求め、当該座標の画素の色(たとえば、グレーの濃淡)に反映させれば距離画像が得られる。
図13は、ライトフィールドデータを扱う、例えば、一般的なパーソナルコンピュータ(以下、PC)やタブレット端末といった情報処理を行う装置の内部構成の一例を示す図である。
図13において、装置1300は、CPU1301、ハードディスク(HD)1302、メモリ1303、表示制御部1304、入力部1305、ドライブ装置1306および通信I/F1307で構成され、内部バス1308によって相互に接続される。内部バス1308に接続される各部は、内部バス1308を介して互いにデータのやりとりを行うことができる。
ハードディスク1302は、画像データやその他のデータ、CPU1301が動作するための各種プログラムなどが格納される。メモリ1303は、例えばRAMからなる。表示制御手段、変更手段および算出手段としてのCPU1301は、例えばハードディスク1302に格納されるプログラムに従い、メモリ1303をワークメモリとして用いて、この装置1300の各部を制御する。なお、CPU1301が動作するためのプログラムは、ハードディスク1302に格納されるものに限られず、例えば図示されないROMにあらかじめ記憶しておいてもよい。
入力部1305は、ユーザ操作を受け付け、操作に応じた制御信号を生成し、CPU1301に供給する。例えば、入力部1305は、ユーザ操作を受け付ける入力デバイスとして、キーボードといった文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイスなどを有する。なお、タッチパネルは、例えば平面的に構成された入力部1305に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。CPU1301は、入力デバイスに対してなされたユーザ操作に応じて入力部1305で生成され供給される制御信号に基づき、プログラムに従って装置1300の各部を制御する。これにより、装置1300に対し、ユーザ操作に応じた動作を行わせることができる。
表示制御部1304は、ディスプレイ1310に対して画像を表示させるための表示信号を出力する。例えば、表示制御部1304に対して、CPU1301がプログラムに従い生成した表示制御信号が供給される。表示制御部1304は、この表示制御信号に基づき表示信号を生成してディスプレイ1310に対して出力する。例えば、表示制御部1304は、CPU1301が生成する表示制御信号に基づき、GUI(Graphical User Interface)を構成するGUI画面をディスプレイ1310に対して表示させる。
なお、入力部1305としてタッチパネルを用いる場合、入力部1305とディスプレイ1310とを一体的に構成してもよい。
ドライブ装置1306は、CDやDVDといった外部記憶媒体1320が装着可能とされ、CPU1301の制御に基づき、装着された外部記憶媒体1320からのデータの読み出しや、当該外部記憶媒体1320に対するデータの書き込みを行う。なお、ドライブ装置1306が装着可能な外部記憶媒体1320は、CDやDVDといったディスク記録媒体に限られず、例えばメモリカードなどの不揮発性の半導体メモリをドライブ装置1306に装着するものとしてもよい。通信インタフェース(I/F)1307は、CPU1301の制御に基づき、LANやインターネットといったネットワーク1330に対する通信を行う。
図14は、本実施例に係るライトフィールドデータを扱う装置において実行される画像処理の流れを示すフローチャートである。なお、この一連の処理は、CPU1301がハードディスク1302または図示されないROMに記録されたプログラムをメモリ1303に展開して実行することにより実現される。
まず、撮像装置で得られたライトフィールドデータから2次元画像が生成され(ステップ1401)、表示制御部1304によって、生成された2次元画像がディスプレイ1310に表示される(ステップ1402)。
そして、ユーザにより表示モードを変更するが指示があるかどうかが判定され、表示モードを変更する指示があればステップ1404に進み、表示モードを変更する指示がなければステップ1402に戻る(ステップ1403)。
その後に続く、ステップ1404〜ステップ1412までの各処理は、実施例1におけるステップ305〜ステップ313に相当する。すなわち、以下の各処理が実行される。・2次元画像に含まれる被写体を検出(ステップ1404)
・2次元画像の距離情報(距離画像)を取得(ステップ1405)
・ステップ1404で検出された被写体とステップ1405で取得された距離情報とに基づき、被写体領域を抽出(ステップ1406)
・抽出された被写体領域ごとに、距離情報に応じたずれ画像を生成(ステップ1407)
・生成されたずれ画像に対し、水平方向が傾くようにシアー処理を実行(ステップ1408)
・ずらし方向及びシアー角度に基づいて、格子パターンを重畳(ステップ1409)
・2次元画像の前方被写界深度と後方被写界深度を導出(ステップ1410)
・合焦している被写体までの距離(合焦距離)及び前方被写界深度及び後方被写界深度を表す各指標を2次元画像に合成(ステップ1411)
・指標が合成された2次元画像を、ディスプレイ1310上に表示(ステップ1412)
上記の各処理の後、ステップ1413において、ユーザによりディスプレイ1310上に表示された画像内の各指標に対し、ユーザ指示・操作があったかどうかが判定される。この場合において、指標に対するユーザ指示・操作は、一般的なPCであればマウスを用いて入力され、タッチパネルを有するタブレット端末であれば実施例1と同様のタッチ操作によって入力されることになる。指標に対するユーザ指示・操作があれば、ステップ1414へ進み、指標に対するユーザ指示・操作がなければステップ1404に戻る。
そして、ユーザが指定した新たな指標の位置に応じて、合焦距離及び/又は被写界深度を変更する処理が前述のライトフィールドデータを用いて実行される(ステップ1414)。これに併せ、合焦距離や被写界深度を表す指標の表示位置が、ユーザによって指定された新たな位置に移動される(ステップ1415)。
ユーザによってアプリケーションの終了指示など所定の終了操作が与えられると、本処理は終了する(ステップ1416)。
なお、本実施例においても、上述のステップ1405では距離情報として例えば図6のような距離画像が生成され、ステップ1407のずれ画像生成処理では図9のような各被写体領域の位置がずれた「ずれ画像」が得られる。すなわち、ライトフィールドデータに基づいて単に視点を変更しただけの画像(この場合、各被写体は立体的に表現)とは異なる、各被写体領域が書割のように表現(各被写体領域に奥行き感がなく、平面的に表現)された画像が得られる。これにより、ユーザは、被写体毎の距離感が把握しやすくなる。
以上のとおり、本実施例に係る装置によっても、ユーザは、PC等のディスプレイ上でどの被写体に合焦するかを、実際の画像に近い状態で直感的に把握することが可能となる。
[その他の実施形態]
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。

Claims (13)

  1. 2次元画像から検出された被写体と当該被写体までの距離情報とに基づき、前記2次元画像から距離ごとに前記被写体の領域を抽出する被写体領域抽出手段と、
    抽出された被写体領域の各距離に応じて、水平方向におけるずれ量と垂直方向におけるずれ量との比率が一定となるように、前記被写体領域の位置がずれた画像を生成するずれ画像生成手段と、
    を有することを特徴とする画像処理装置。
  2. 前記ずれ画像生成手段は、前記2次元画像のうち背景となる領域を基準として、前記被写体領域の位置がずれた画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記背景となる領域は、所定の距離より遠くにあるすべての被写体を含む1の領域であることを特徴とする請求項2に記載の画像処理装置。
  4. 生成される前記被写体領域の位置がずれた画像において、被写体領域どうしの重なり合う領域のうち背後に表示されることとなる被写体領域の覆い隠される部分の面積の割合が、閾値より小さくなるようなずれ量を決定する、ずれ量決定手段をさらに備え、
    前記ずれ画像生成手段は、決定されたずれ量に基づいて、前記被写体領域の位置がずれた画像を生成する
    ことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  5. 前記ずれ画像生成手段は、第1の被写体領域の位置が、当該第1の被写体領域よりも遠くの距離に対応する第2の被写体領域の位置よりも下方になるように、前記被写体領域の位置がずれた画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  6. 前記ずれ画像生成手段で生成された、前記被写体領域の位置がずれた画像における各被写体領域に対し、水平方向を傾けるシアー処理を行うシアー処理手段をさらに備えたことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  7. 前記ずれ画像生成手段で生成された画像に対し、当該画像におけるずらし方向に基づく格子パターンを合成する手段をさらに備えたことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  8. 前記格子パターンを合成する手段は、背景となる領域に対しては、前記格子パターンを合成しないことを特徴とする請求項に記載の画像処理装置。
  9. 合焦している被写体までの距離を示す指標及び被写界深度を示す指標の少なくとも一方を、前記被写体領域の位置がずれた画像に合成する手段をさらに備えることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  10. 請求項に記載の画像処理装置を有する撮像装置であって、
    前記指標が合成された画像を表示する表示手段と、
    前記指標が合成された画像内の当該指標に対するユーザ操作に応じて、フォーカス及び被写界深度を調整する手段と
    を備えたことを特徴とする撮像装置。
  11. 請求項に記載の画像処理装置を有する装置であって、
    ライトフィールドデータから前記2次元画像を生成する手段と、
    前記指標が合成された画像を表示する表示手段と、
    前記指標が合成された画像内の当該指標に対するユーザ操作に応じて、前記指標が合成された画像における合焦距離及び被写界深度を、前記ライトフィールドデータを用いて変更する手段と
    を備えたことを特徴とする装置。
  12. 2次元画像から検出された被写体と当該被写体までの距離情報とに基づき、前記2次元画像から距離ごとに前記被写体の領域を抽出する被写体領域抽出ステップと、
    抽出された被写体領域の各距離に応じて、水平方向におけるずれ量と垂直方向におけるずれ量との比率が一定となるように、前記被写体領域の位置がずれた画像を生成するずれ画像生成ステップと、
    を含むことを特徴とする画像処理方法。
  13. コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2013134111A 2013-03-05 2013-06-26 画像処理装置、撮像装置、画像処理方法、及びプログラム Active JP6214236B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013134111A JP6214236B2 (ja) 2013-03-05 2013-06-26 画像処理装置、撮像装置、画像処理方法、及びプログラム
US14/195,951 US9270902B2 (en) 2013-03-05 2014-03-04 Image processing apparatus, image capturing apparatus, image processing method, and storage medium for obtaining information on focus control of a subject
CN201410078684.7A CN104038690B (zh) 2013-03-05 2014-03-05 图像处理装置、图像拍摄装置及图像处理方法
CN201610015181.4A CN105491294B (zh) 2013-03-05 2014-03-05 图像处理装置、图像拍摄装置及图像处理方法
US14/984,071 US9521320B2 (en) 2013-03-05 2015-12-30 Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013043264 2013-03-05
JP2013043264 2013-03-05
JP2013134111A JP6214236B2 (ja) 2013-03-05 2013-06-26 画像処理装置、撮像装置、画像処理方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015115100A Division JP6234401B2 (ja) 2013-03-05 2015-06-05 画像処理装置、撮像装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2014197824A JP2014197824A (ja) 2014-10-16
JP2014197824A5 JP2014197824A5 (ja) 2015-07-23
JP6214236B2 true JP6214236B2 (ja) 2017-10-18

Family

ID=51469264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013134111A Active JP6214236B2 (ja) 2013-03-05 2013-06-26 画像処理装置、撮像装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (2) US9270902B2 (ja)
JP (1) JP6214236B2 (ja)
CN (2) CN104038690B (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013254432A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像処理装置及び画像処理方法
JP6029380B2 (ja) 2012-08-14 2016-11-24 キヤノン株式会社 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
JP2014126612A (ja) * 2012-12-25 2014-07-07 Canon Inc 撮像装置およびその制御方法
JP6305053B2 (ja) * 2013-01-15 2018-04-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
EP2961152A4 (en) * 2013-02-21 2016-09-21 Nec Corp IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND PERMANENT COMPUTER-READABLE MEDIUM
WO2015137635A1 (en) * 2014-03-13 2015-09-17 Samsung Electronics Co., Ltd. Image pickup apparatus and method for generating image having depth information
JP6432038B2 (ja) * 2014-03-19 2018-12-05 パナソニックIpマネジメント株式会社 撮像装置
CN104243823B (zh) 2014-09-15 2018-02-13 北京智谷技术服务有限公司 光场采集控制方法和装置、光场采集设备
CN104243825B (zh) * 2014-09-22 2017-11-14 广东欧珀移动通信有限公司 一种移动终端自动对焦方法及系统
CN105574818B (zh) * 2014-10-17 2020-07-17 中兴通讯股份有限公司 一种景深渲染方法和装置
CN104410784B (zh) 2014-11-06 2019-08-06 北京智谷技术服务有限公司 光场采集控制方法和装置
CN104469147B (zh) * 2014-11-20 2018-09-04 北京智谷技术服务有限公司 光场采集控制方法和装置、光场采集设备
JP6704700B2 (ja) * 2014-12-15 2020-06-03 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
EP3234870A1 (en) * 2014-12-19 2017-10-25 United Technologies Corporation Sensor data fusion for prognostics and health monitoring
JP6504693B2 (ja) * 2015-01-06 2019-04-24 オリンパス株式会社 撮像装置、操作支援方法及び操作支援プログラム
US9797716B2 (en) 2015-01-09 2017-10-24 Ricoh Company, Ltd. Estimating surface properties using a plenoptic camera
JP6529267B2 (ja) * 2015-01-23 2019-06-12 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
EP3271747B1 (en) 2015-03-17 2022-05-25 Cornell University Depth field imaging apparatus, methods, and applications
KR102354989B1 (ko) * 2015-04-14 2022-01-24 삼성전자주식회사 경로 렌더링을 위한 타일 비닝을 수행하는 방법 및 장치.
JP6521715B2 (ja) * 2015-04-22 2019-05-29 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
JP6646361B2 (ja) * 2015-04-27 2020-02-14 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6546474B2 (ja) 2015-07-31 2019-07-17 キヤノン株式会社 撮像装置およびその制御方法
CN105827936B (zh) * 2015-08-28 2019-06-07 维沃移动通信有限公司 一种图像处理方法及移动终端
JP6404482B2 (ja) * 2015-08-31 2018-10-10 富士フイルム株式会社 測距装置、測距用制御方法、及び測距用制御プログラム
JP6611531B2 (ja) * 2015-09-16 2019-11-27 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
JP6592330B2 (ja) * 2015-11-02 2019-10-16 キヤノン株式会社 撮像装置及び撮像方法
CN106888352B (zh) * 2015-12-16 2020-12-18 中兴通讯股份有限公司 一种推焦位置确定方法及装置
CN106254804B (zh) * 2016-01-18 2019-03-29 北京智谷睿拓技术服务有限公司 光场显示控制方法和装置、光场显示设备
JP6628617B2 (ja) * 2016-01-25 2020-01-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP6702738B2 (ja) * 2016-01-27 2020-06-03 キヤノン株式会社 照明装置、照明システム及び外部電源装置
JP2017224970A (ja) * 2016-06-15 2017-12-21 ソニー株式会社 画像処理装置、画像処理方法、および撮像装置
US9953432B2 (en) * 2016-08-17 2018-04-24 David M. Smith Systems and methods of detecting motion
JP6752681B2 (ja) * 2016-10-19 2020-09-09 キヤノン株式会社 表示制御装置、表示制御装置の制御方法及びプログラム並びに記憶媒体
CN109923854B (zh) * 2016-11-08 2022-01-04 索尼公司 图像处理装置、图像处理方法以及记录介质
CN106657782B (zh) * 2016-12-21 2020-02-18 努比亚技术有限公司 一种图片处理方法和终端
JP6729428B2 (ja) * 2017-02-01 2020-07-22 オムロン株式会社 画像処理システム、光学センサ、及び学習装置
CN107037683A (zh) * 2017-05-25 2017-08-11 歌尔股份有限公司 一种投影仪及自动对焦的方法
CN107091800A (zh) * 2017-06-06 2017-08-25 深圳小孚医疗科技有限公司 用于显微成像粒子分析的聚焦系统和聚焦方法
JP7033865B2 (ja) * 2017-08-10 2022-03-11 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
JP2019053644A (ja) * 2017-09-19 2019-04-04 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP7158841B2 (ja) * 2017-11-08 2022-10-24 キヤノン株式会社 撮像装置、撮像方法、プログラム、記録媒体および画像処理装置
DE102018218997A1 (de) * 2017-11-10 2019-05-16 Denso Corporation Kameramodul
DE102018103092A1 (de) * 2018-02-12 2019-08-14 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Fokuseinstellungs-Anzeigeeinheit
US10863103B2 (en) * 2018-02-21 2020-12-08 Canon Kabushiki Kaisha Setting apparatus, setting method, and storage medium
CN108600623B (zh) * 2018-04-20 2020-07-28 维沃移动通信有限公司 重聚焦显示方法以及终端设备
JP7173841B2 (ja) 2018-11-14 2022-11-16 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
JP7198055B2 (ja) * 2018-11-16 2022-12-28 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
CN111510694A (zh) 2019-01-30 2020-08-07 中强光电股份有限公司 投影装置及调校格线产生方法
JP7327964B2 (ja) * 2019-03-20 2023-08-16 キヤノン株式会社 制御装置、撮像システム、プログラム、および、記憶媒体
JP2020167517A (ja) * 2019-03-29 2020-10-08 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび撮像装置
US10853959B2 (en) * 2019-04-01 2020-12-01 Sandisk Technologies Llc Optical inspection tool and method
JP7007324B2 (ja) * 2019-04-25 2022-01-24 ファナック株式会社 画像処理装置、画像処理方法、及びロボットシステム
JP7373297B2 (ja) * 2019-04-25 2023-11-02 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JPWO2021060397A1 (ja) * 2019-09-26 2021-04-01
US20230005213A1 (en) * 2020-01-23 2023-01-05 Sony Group Corporation Imaging apparatus, imaging method, and program
CN111524062B (zh) * 2020-04-22 2023-11-24 北京百度网讯科技有限公司 图像生成方法和装置
CN113747067B (zh) * 2021-09-07 2024-02-02 维沃移动通信有限公司 拍照方法、装置、电子设备及存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3624037B2 (ja) 1995-12-28 2005-02-23 キヤノン株式会社 画像入力装置および画像処理装置
JP3728160B2 (ja) 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
JP2005332471A (ja) 2004-05-19 2005-12-02 Hitachi Ltd ディスクアレイ装置
KR101134208B1 (ko) 2004-10-01 2012-04-09 더 보드 어브 트러스티스 어브 더 리랜드 스탠포드 주니어 유니버시티 촬상 장치 및 그 방법
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
US20100103175A1 (en) 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
JP4905326B2 (ja) 2007-11-12 2012-03-28 ソニー株式会社 撮像装置
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
JP5178553B2 (ja) 2009-01-27 2013-04-10 オリンパス株式会社 撮像装置
JP5478935B2 (ja) * 2009-05-12 2014-04-23 キヤノン株式会社 撮像装置
JP4906893B2 (ja) 2009-08-18 2012-03-28 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP5495683B2 (ja) * 2009-09-10 2014-05-21 キヤノン株式会社 撮像装置および測距方法
EP2584309B1 (en) * 2010-06-15 2018-01-10 Panasonic Corporation Image capture device and image capture method
JP5871113B2 (ja) * 2011-03-31 2016-03-01 株式会社Jvcケンウッド 立体画像生成装置、立体画像生成方法及び立体画像生成プログラム
WO2012133286A1 (ja) * 2011-03-31 2012-10-04 株式会社Jvcケンウッド 立体画像生成装置及び立体画像生成方法
JP2013009274A (ja) * 2011-06-27 2013-01-10 Canon Inc 画像処理装置および画像処理方法、プログラム
JP6080417B2 (ja) * 2011-08-19 2017-02-15 キヤノン株式会社 画像処理装置、及び画像処理方法
JP6029380B2 (ja) 2012-08-14 2016-11-24 キヤノン株式会社 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
JP6305053B2 (ja) 2013-01-15 2018-04-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20140253760A1 (en) 2014-09-11
CN105491294B (zh) 2018-11-09
US9521320B2 (en) 2016-12-13
CN105491294A (zh) 2016-04-13
JP2014197824A (ja) 2014-10-16
US20160134807A1 (en) 2016-05-12
CN104038690A (zh) 2014-09-10
US9270902B2 (en) 2016-02-23
CN104038690B (zh) 2017-06-20

Similar Documents

Publication Publication Date Title
JP6214236B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2014197824A5 (ja)
CN107566732B (zh) 控制装置的相机的方法及其装置
US10212335B2 (en) Electronic apparatus and control method therefor
JP5451433B2 (ja) 表示制御装置および表示制御装置の制御方法
US10715719B2 (en) Image capturing apparatus and control method thereof
CN108322641B (zh) 摄像控制设备、控制方法和存储介质
JP5709816B2 (ja) 撮像装置、その制御方法、および制御プログラム、並びに記録媒体
US11496670B2 (en) Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method
US9671932B2 (en) Display control apparatus and control method thereof
JP2014228629A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP5751775B2 (ja) 撮像装置、その制御方法及びプログラム並びに記録媒体
US11048400B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP6234521B2 (ja) 表示制御装置、表示制御装置の制御方法およびプログラム
JP6541462B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2014017665A (ja) 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
US11184543B2 (en) Exposure setting apparatus, control method thereof, and storage medium
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP2018107753A (ja) 撮像制御装置及びその制御方法
JP5777446B2 (ja) 表示制御装置及びその制御方法
US11064128B2 (en) Exposure setting apparatus, control method thereof, and storage medium
JP7286451B2 (ja) 撮像装置、撮像方法およびプログラム
US20210166658A1 (en) Display control apparatus and control method therefor
JP5989202B2 (ja) 表示制御装置、表示制御装置の制御方法およびプログラム
JP5976145B2 (ja) 撮像装置、その制御方法及びプログラム並びに記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170919

R151 Written notification of patent or utility model registration

Ref document number: 6214236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151