JP5657343B2 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP5657343B2
JP5657343B2 JP2010241969A JP2010241969A JP5657343B2 JP 5657343 B2 JP5657343 B2 JP 5657343B2 JP 2010241969 A JP2010241969 A JP 2010241969A JP 2010241969 A JP2010241969 A JP 2010241969A JP 5657343 B2 JP5657343 B2 JP 5657343B2
Authority
JP
Japan
Prior art keywords
distance
image
depth
field
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010241969A
Other languages
English (en)
Other versions
JP2012095186A (ja
Inventor
晋平 福本
晋平 福本
晶彦 山田
晶彦 山田
貫一 古山
貫一 古山
佳行 津田
佳行 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2010241969A priority Critical patent/JP5657343B2/ja
Priority to CN2011103321763A priority patent/CN102572262A/zh
Priority to US13/284,578 priority patent/US20120105590A1/en
Publication of JP2012095186A publication Critical patent/JP2012095186A/ja
Application granted granted Critical
Publication of JP5657343B2 publication Critical patent/JP5657343B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、撮像装置、携帯情報端末、パーソナルコンピュータ等の電子機器に関する。
撮影画像の合焦状態を画像処理によって調整する機能が提案されており、この機能を実現する処理の一種はデジタルフォーカスとも呼ばれている(例えば下記特許文献1〜3参照)。
特開2009−224982号公報 特開2008−271241号公報 特開2002−247439号公報
デジタルフォーカスを経て得られる出力画像の被写界深度は、ユーザの希望に沿ったものとなるべきである。しかしながら、被写界深度の設定操作や確認を支援するユーザインターフェースとして十分なものは未だ提供されていない。それらの支援が適切に成されれば、所望の被写界深度を容易に設定することが可能となる。
そこで本発明は、画像処理を用いた被写界深度の調整時における操作の容易化等に寄与する電子機器を提供することを目的とする。
本発明に係る第1の電子機器は、画像処理によって対象入力画像の被写界深度を変更することにより対象出力画像を生成する対象出力画像生成部と、前記対象入力画像上の各位置における物体と前記対象入力画像を撮影した機器との間の距離の分布を表す距離ヒストグラム、及び、前記距離ヒストグラムにおける距離軸に沿って移動可能な選択指標を表示画面上に表示するモニタと、前記選択指標を前記距離軸に沿って移動させるための操作を介して定められた前記選択指標の位置に基づき、前記対象出力画像の被写界深度を設定する被写界深度設定部と、を備えたことを特徴とする。
これにより、距離ヒストグラムとの関係において被写界深度を設定することが可能となり、ユーザは、希望通りの被写界深度を容易に設定することが可能となる。
具体的に例えば、前記第1の電子機器において、前記被写界深度設定部は、前記選択指標の位置に対応する前記距離軸上の距離が前記対象出力画像の被写界深度に属するように、前記対象出力画像の被写界深度を設定すると良い。
また例えば、前記第1の電子機器において、前記被写界深度設定部は、前記距離ヒストグラムにおける度数から代表距離を設定するとともに前記代表距離に対応する物体の画像データを前記対象入力画像の画像データから抽出し、抽出画像データに基づく代表距離物体画像を前記距離ヒストグラム上の代表距離に対応付けて前記表示画面上に表示させても良い。
これにより、ユーザは、被写界深度を所望のものにより設定し易くなる。
本発明に係る第2の電子機器は、画像処理によって対象入力画像の被写界深度を変更することにより対象出力画像を生成する対象出力画像生成部と、表示画面を有し且つ操作体が前記表示画面に触れることによるタッチパネル操作を受け付けるモニタであって、前記対象入力画像又は前記対象入力画像に基づく画像を前記表示画面に表示している状態において前記表示画面上の複数の特定物体を指定する指定操作を前記タッチパネル操作として受け付けるタッチパネルモニタと、前記指定操作に基づき前記対象出力画像の被写界深度を設定する被写界深度設定部と、を備えたことを特徴とする。
これにより、例えば、所望の特定物体が全て被写界深度内に収まるように、対象出力画像の被写界深度を容易且つ迅速に設定することが可能となる。
即ち例えば、前記第2の電子機器において、前記被写界深度設定部は、前記複数の特定物体が前記対象出力画像の被写界深度内に収まるように、前記対象出力画像の被写界深度を設定するとよい。
また具体的には例えば、前記第2の電子機器において、前記被写界深度設定部は、前記対象入力画像上の各位置における物体と前記対象入力画像を撮影した機器との間の距離を表す距離マップから、各特定物体と前記機器との間の距離を抽出し、抽出した距離に基づき、前記対象出力画像の被写界深度における両端距離を設定しても良い。
本発明に係る第3の電子機器は、画像処理によって対象入力画像の被写界深度を変更することにより対象出力画像を生成する対象出力画像生成部と、表示画面を有し且つ操作体が前記表示画面に触れることによるタッチパネル操作を受け付けるモニタであって、前記対象入力画像又は前記対象入力画像に基づく画像を前記表示画面に表示している状態において前記表示画面上の特定物体を指定する指定操作を前記タッチパネル操作として受け付けるタッチパネルモニタと、前記物体が前記対象出力画像の被写界深度内に収まるように前記対象出力画像の被写界深度を設定する被写界深度設定部と、を備え、前記被写界深度設定部は、前記指定操作において前記操作体が前記表示画面上の前記特定物体に触れている時間の長さに応じて、前記対象出力画像の被写界深度の深さを設定することを特徴とする。
これにより、所望の物体を被写界深度内に収めた、所望の被写界深度の深さを有する対象出力画像を、容易且つ迅速な操作にて生成させることが可能となる。
本発明に係る第4の電子機器は、画像処理によって対象入力画像の被写界深度を変更することにより対象出力画像を生成する対象出力画像生成部と、与えられた操作に従って、前記対象出力画像の被写界深度を設定する被写界深度設定部と、設定された被写界深度を表す情報を表示するモニタと、を備えたことを特徴とする。
これにより、ユーザは、対象出力画像の被写界深度が所望の被写界深度に設定されているのか否かの判断を成し易くなる。即ち、対象出力画像の被写界深度の設定が支援される。
具体的には例えば、前記情報は、設定された被写界深度に対応する絞り値を含む。
本発明によれば、画像処理を用いた被写界深度の調整時における操作の容易化等に寄与する電子機器を提供することが可能となる。
本発明の実施形態に係る撮像装置の概略全体ブロック図である。 図1に示される撮像部の内部構成図である。 図1に示されるモニタの概略分解図である。 XY座標面と表示画面との関係図(a)と、XY座標面と二次元画像との関係図(b)である。 本発明の実施形態に係り、デジタルフォーカス機能に関与する部位のブロック図である。 デジタルフォーカスが適用される対象入力画像の例を示す図(a)と、その対象入力画像の距離マップを示す図(b)と、撮像装置と被写体との距離関係を示す図(c)である。 被写界深度、合焦基準距離、近点距離及び遠点距離の関係を示す図である。 被写界深度、合焦基準距離、近点距離及び遠点距離の意義を説明するための図である。 図5に示される各部位の動作フローチャートである。 図1のモ二タに表示可能なスライダバーの構成を示す図である。 スライダバーが対象入力画像と共に表示される様子を示した図である。 距離ヒストグラムの例を示す図である。 距離ヒストグラムとスライダバーとの組み合わせを示す図である。 距離ヒストグラムとスライダバーと代表距離物体画像との組み合わせを示す図である。 表示画面上における各被写体と各被写体の表示位置を示した図である。 表示画面に絞り値(F値:F-number)が表示される様子を示した図である。 表示画面上に表示可能な確認用画像の例を示す図である。
以下、本発明の実施形態の例を、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第6実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。
図1は、本発明の実施形態に係る撮像装置1の概略全体ブロック図である。撮像装置1は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。撮像装置1は、携帯電話機などの携帯端末に搭載されるものであっても良い。
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、主制御部13と、内部メモリ14と、モニタ15と、記録媒体16と、操作部17と、を備えている。尚、モニタ15は、撮像装置1の外部に設けられた表示装置のモニタであると考えても良い。
図2に、撮像部11の内部構成図を示す。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。ドライバ34は、主制御部13からの制御信号に基づいてズームレンズ30及びフォーカスレンズ31の各位置並びに絞り32の開度を駆動制御することにより、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量を制御する。
撮像素子33は、光学系35及び絞り32を介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次AFE12に出力される。
AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号をRAWデータとして主制御部13に出力する。AFE12における信号増幅の増幅度は、主制御部13によって制御される。
主制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等から成る。主制御部13は、AFE12からのRAWデータに基づいて、撮像部11によって撮影された画像(以下、撮影画像とも言う)を表す画像データを生成する。ここで生成される画像データには、例えば、輝度信号及び色差信号が含まれる。但し、RAWデータそのものも画像データの一種であり、撮像部11から出力されるアナログ信号も画像データの一種である。また、主制御部13は、モニタ15の表示内容を制御する表示制御部としての機能をも備え、表示に必要な制御をモニタ15に対して行う。
内部メモリ14は、SDRAM(Synchronous Dynamic Random Access Memory)等にて形成され、撮像装置1内で生成された各種データを一時的に記憶する。モニタ15は、液晶ディスプレイパネル等の表示画面を有する表示装置であり、主制御部13の制御の下、撮影された画像や記録媒体16に記録されている画像などを表示する。
記録媒体16は、カード状半導体メモリや磁気ディスク等の不揮発性メモリであり、主制御部13による制御の下、撮影画像などを記憶する。操作部17は、静止画像の撮影指示を受け付けるシャッタボタン20等を備え、外部からの各種操作を受け付ける。操作部17に対する操作を、タッチパネル操作と区別すべく、ボタン操作とも呼ぶ。操作部17に対する操作内容は、主制御部13に伝達される。
モニタ15にはタッチパネルが設けられている。図3は、モニタ15の概略分解図である。タッチパネルモニタとしてのモニタ15には、液晶ディスプレイ等から成る表示画面51と、操作体が表示画面51上に触れている位置(圧力を加えている位置)を検出するタッチ検出部52と、が設けられている。ユーザは、モニタ15の表示画面51を操作体で触れることで撮像装置1に特定の指示を与えることができる。表示画面51を操作体で触れることによる操作をタッチパネル操作と呼ぶ。操作体と表示画面51との接触位置をタッチ位置と呼ぶ。操作体が表示画面51に触れているとき、タッチ検出部52は、その触れた位置(即ちタッチ位置)を指し示すタッチ位置情報を主制御部13にリアルタイムで出力する。操作体は、指やペンなどであるが、以下では主として操作体が指であることを想定する。また、本明細書において、単に表示と言った場合、それは表示画面51における表示を指すものとする。
図4(a)に示す如く、表示画面51上の位置は、二次元のXY座標面上の位置として定義される。また更に、図4(b)に示す如く、撮像装置1において、任意の二次元画像300もXY座標面上の画像として取り扱われる。XY座標面は、表示画面51及び二次元画像300の水平方向に伸びるX軸と、表示画面51及び二次元画像300の垂直方向に伸びるY軸と、を座標軸として有する。本明細書において述べられる画像は、全て、特に記述なき限り二次元画像である。表示画面51及び二次元画像300上における或る注目点の位置を(x,y)にて表す。xは、該注目点のX軸座標値を表すと共に、表示画面51及び二次元画像300上における該注目点の水平位置を表す。yは、該注目点のY軸座標値を表すと共に、表示画面51及び二次元画像300上における該注目点の垂直位置を表す。二次元画像300を表示画面51にて表示する際(二次元画像300を表示画面51の全体を使って表示する際)、二次元画像300上の位置(x,y)における画像は、表示画面51上の位置(x,y)に表示される。
撮像装置1には、撮影画像の画像データの取得後において、撮影画像の被写界深度を変更する機能が設けられている。ここでは、この機能をデジタルフォーカス機能と呼ぶ。図5に、デジタルフォーカス機能に関与する部位のブロック図を示す。符号61〜65によって参照される各部位を、例えば、図1の主制御部13に設けておくことができる。
被写界深度の変更前の撮影画像を対象入力画像と呼び、被写界深度の変更後の撮影画像を対象出力画像と呼ぶ。対象入力画像は、RAWデータに基づく撮影画像であり、RAWデータに対して所定の画像処理(例えば、デモザイキング処理やノイズ低減処理)を施して得られる画像が対象入力画像であっても良い。また、対象入力画像の画像データを一旦記録媒体16に記録しておいた後、任意のタイミングで記録媒体16から対象入力画像の画像データを読み出して図5に示される各部位に対象入力画像の画像データを与えるようにしても良い。
[距離マップ取得部]
距離マップ取得部61は、撮像装置1の撮影範囲内に収まっている各被写体の被写体距離を検出する被写体距離検出処理を実行し、これによって対象入力画像上の各位置における被写体の被写体距離を表す距離マップ(被写体距離情報)を生成する。或る被写体についての被写体距離とは、その被写体と撮像装置1(より具体的には撮像素子33)との間における実空間上の距離を指す。被写体距離検出処理を周期的に又は所望のタイミングに実行することができる。距離マップは、自身を形成する各画素値が被写体距離の検出値を持つ距離画像と言える。図6(a)の画像310は対象入力画像の例であり、図6(b)の距離画像320は、対象入力画像310に基づく距離マップである。距離画像を示す図面において、被写体距離が小さい部分ほど白く示され、被写体距離が大きい部分ほど黒く示されている。対象入力画像310は、被写体SUB〜SUBを含む被写体群を撮影することで得られる。図6(c)に示す如く、被写体SUB〜SUBの被写体距離を、夫々、L〜Lに表す。ここで、0<L<L<Lが成立する。
対象入力画像の撮影時に被写体距離検出処理が実行し、これによって得られた距離マップを対象入力画像の画像データと関連付けた上で対象入力画像の画像データと共に記録媒体16に記録しておいても良い。これにより、距離マップ取得部61は、任意のタイミングにおいて距離マップを記録媒体16から取得することができる。尚、上記の関連付けは、例えば、対象入力画像の画像データを格納する画像ファイルのヘッダ領域に距離マップを格納することで実現される。
被写体距離の検出方法及び距離マップの生成方法として、公知の方法を含む任意の方法を利用可能である。対象入力画像の画像データを用いて距離マップを生成するようにしても良いし、対象入力画像の画像データ以外の情報を用いて距離マップを生成するようにしても良い。例えば、2つの撮像部を用いて撮影した画像からステレオ法(ステレオビジョン法)によって距離マップを生成するようにしても良い。2つの撮像部の内、一方は撮像部11でありうる。或いは例えば、各被写体の被写体距離を測定する測距センサ(不図示)を用いて距離マップを生成しても良い。測距センサとして、三角測量法に基づく測距センサや、アクティブ方式の測距センサなどを用いることができる。アクティブ方式の測距センサは、発光素子を備え、発光素子から撮像装置1の撮影範囲内に位置する被写体に向けて照射した光が被写体にて反射して戻ってくるまでの時間を計測し、計測結果に基づいて各被写体の被写体距離を検出することができる。
或いは例えば、RAWデータに被写体距離を表す情報が含まれるように撮像部11を形成しておき、RAWデータから距離マップを生成するようにしても良い。これを実現するために、例えば“Light Field Photography”と呼ばれる方法(例えば、国際公開第06/039486号パンフレット又は特開2009−224982号公報に記載の方法;以下、Light Field法と呼ぶ)を用いても良い。Light Field法では、開口絞りを有する撮像レンズとマイクロレンズアレイを用いることで、撮像素子から得られる画像信号が、撮像素子の受光面における光の強度分布に加えて光の進行方向の情報をも含むようになっている。従って、図2には表れていないが、Light Field法を用いる場合には、Light Field法の実現に必要な光学部材が撮像部11に設けられる。この光学部材には、マイクロレンズアレイ等が含まれ、被写体からの入射光はマイクロレンズアレイ等を介して撮像素子33の受光面(換言すれば撮像面)に入射する。マイクロレンズアレイは複数のマイクロレンズから成り、撮像素子33上の1又は複数の受光画素に対して1つのマイクロレンズを割り当てられる。これによって、撮像素子33の出力信号が、撮像素子33の受光面における光の強度分布に加えて、撮像素子33への入射光の進行方向の情報をも含むようになる。
更に或いは例えば、光学系35の軸上色収差を利用し、特開2010−81002号公報に記載の方法の如く、対象入力画像の画像データ(RAWデータ)から距離マップを生成するようにしても良い。
[被写界深度設定部]
図5の被写界深度設定部62には、距離マップ及び対象入力画像の画像データが与えられ、また設定用UI生成部63が設けられている。但し、設定用UI生成部63は、被写界深度設定部62の外に設けられていると考えてもよい。設定用UI生成部63は、設定用UI(ユーザインターフェース)を生成して、任意の画像と共に設定用UIを表示画面51に表示させる。被写界深度設定部62は、ユーザによる指示の内容に基づいて深度設定情報を生成する。深度設定情報に影響を与えるユーザの指示は、タッチパネル操作又はボタン操作によって実現される。ボタン操作には、操作部17に設けられた任意の操作用部材(ボタン、十字キー、ダイヤル、レバーなど)に対する操作が含まれる。
深度設定情報には、対象出力画像の被写界深度を指定する情報が含まれており、この情報によって、対象出力画像の被写界深度に属する合焦基準距離、近点距離及び遠点距離が指定される。被写界深度の近点距離と被写界深度の遠点距離との差は、被写界深度の深さと呼ばれる。従って、深度設定情報によって、対象出力画像における被写界深度の深さも指定される。図7に示す如く、任意の注目画像の合焦基準距離を記号Loにて表すと共に、注目画像の被写界深度の近点距離及び遠点距離を夫々記号Ln及びLfにて表す。注目画像は、例えば、対象入力画像又は対象出力画像である。
図8(a)〜(c)を参照して、被写界深度、合焦基準距離Lo、近点距離Ln及び遠点距離Lfの意義を説明する。図8(a)に示す如く、撮像部11の撮影範囲内に、理想的な点光源330が被写体として含まれている状態を想定する。撮像部11において、点光源330からの入射光は光学系35を介して結像点にて結像するが、その結像点が撮像素子33の撮像面上にあるとき、撮像面上における点光源330の像の直径は実質的にゼロであって撮像素子33の許容錯乱円径よりも小さい。一方、その結像点が撮像素子33の撮像面上にない場合、撮像面上において点光源330の光学像はぼけ、結果、撮像面上における点光源330の像の直径が許容錯乱円径よりも大きくなりうる。撮像面上における点光源330の像の直径が許容錯乱円径以下であるとき、点光源330としての被写体は撮像面上で合焦しており、撮像面上における点光源330の像の直径が許容錯乱円径よりも大きいとき、点光源330としての被写体は撮像面上で合焦していない。
同様に考えて、図8(b)に示す如く、注目画像340に点光源330の像330’が被写体の像として含まれている場合において、像330’の直径が許容錯乱円径に相当する基準径RREF以下であるとき、注目画像340において点光源330としての被写体は合焦しており、像330’の直径が該基準径RREFよりも大きいとき、注目画像340において点光源330としての被写体は合焦していない。注目画像340において、合焦している被写体を合焦被写体と呼び、合焦していない被写体を非合焦被写体と呼ぶ。或る被写体が注目画像340の被写界深度内に位置している場合(換言すれば、或る被写体の被写体距離が注目画像340の被写界深度に属している場合)、その被写体は注目画像340上において合焦被写体である。或る被写体が注目画像340の被写界深度内に位置していない場合(換言すれば、或る被写体の被写体距離が注目画像340の被写界深度に属していない場合)、その被写体は注目画像340上において非合焦被写体である。
図8(c)に示す如く、像330’の直径が基準径RREF以下となる被写体距離の範囲が注目画像340の被写界深度であり、注目画像340の被写界深度に、注目画像340の合焦基準距離Lo、近点距離Ln及び遠点距離Lfが属する。像330’の直径に最小値を与える被写体距離が注目画像340の合焦基準距離Loであり、注目画像340の被写界深度の内、最小の距離及び最大の距離が夫々近点距離Ln及び遠点距離Lfである。
[合焦状態確認用画像生成部]
図5の合焦状態確認用画像生成部64(以下、確認用画像生成部64又は生成部64と略記することがある)は、深度設定情報に従って生成される対象出力画像の合焦状態をユーザに知らしめるための確認用画像を生成する。生成部64は、深度設定情報及び対象入力画像の画像データに基づき確認用画像を生成することができる。生成部64は、確認用画像の生成に、必要に応じて、距離マップ及び対象出力画像の画像データを利用することもできる。確認用画像が表示画面51に表示されることで、ユーザは、既に生成された対象出力画像の合焦状態、又は、これから生成される予定の対象出力画像の合焦状態を認識することができる。
[デジタルフォーカス部]
図5のデジタルフォーカス部(対象出力画像生成部)65は、対象入力画像の被写界深度を変更する画像処理を実現可能である。この画像処理を、デジタルフォーカスと呼ぶ。デジタルフォーカスによって、対象入力画像から任意の被写界深度を有する対象出力画像を生成することができる。デジタルフォーカス部65は、対象入力画像の画像データ、距離マップ及び深度設定情報に基づくデジタルフォーカスによって、対象出力画像の被写界深度が深度設定情報に規定された被写界深度と一致するように対象出力画像を生成することができる。生成された対象出力画像をモニタ15に表示することができると共に、対象出力画像の画像データを記録媒体16に記録することもできる。
対象入力画像は、理想的な又は擬似的な全合焦画像である。全合焦画像とは、全合焦画像上に画像データが存在する全ての被写体に対して合焦している画像を指す。注目画像上における全被写体が合焦被写体であるとき、注目画像は全合焦画像である。具体的には例えば、撮像部11において所謂パンフォーカス(ディープフォーカス)を利用して対象入力画像を撮影することで、対象入力画像を理想的な又は擬似的な全合焦画像とすることができる。即ち、対象入力画像の撮影時における撮像部11の被写界深度を十分に深くして対象入力画像を撮影すれば良い。対象入力画像の撮影時における撮像部11の被写界深度内に、撮像部11の撮影範囲に含まれる全被写体が収まっておれば、対象入力画像は理想的な全合焦画像として機能する。以下の説明では、特に記述なき限り、対象入力画像の撮影時における撮像部11の被写界深度内に、撮像部11の撮影範囲に含まれる全被写体が収まっているものとする。
また、以下の説明において、単に被写界深度、合焦基準距離、近点距離及び遠点距離といった場合、それらは、対象出力画像の被写界深度、合焦基準距離、近点距離及び遠点距離を指すものとする。また、被写界深度の内と外の境界距離に相当する近点距離及び遠点距離は、被写界深度内の距離である(換言すれば、被写界深度に属している)と考える。
デジタルフォーカス部65は、対象入力画像の各画素に対応する被写体距離を距離マップから抽出し、深度設定情報に基づいて、対象入力画像の各画素を、対象出力画像の被写界深度外の被写体距離に対応するぼかし対象画素と対象出力画像の被写界深度内の被写体距離に対応する非ぼかし対象画素に分類する。全てのぼかし対象画素を内包する画像領域をぼかし対象領域と呼び、全ての非ぼかし対象画素を内包する画像領域を非ぼかし対象領域と呼ぶ。このように、デジタルフォーカス部65は、距離マップ及び深度設定情報に基づき、対象入力画像の全体画像領域をぼかし対象領域と非ぼかし対象領域とに分類することができる。例えば、図6(a)の対象入力画像310において被写体SUBの画像データが存在している画像領域は、対象出力画像の被写界深度外に被写体距離Lが位置しているならば、ぼかし対象領域に分類され、対象出力画像の被写界深度内に被写体距離Lが位置しているならば、非ぼかし対象領域に分類される(図6(c)も参照)。デジタルフォーカス部65は、対象入力画像のぼかし対象領域に対してのみぼかし処理を施し、このぼかし処理後の対象入力画像を対象出力画像として生成することができる。
ぼかし処理は、ぼかし処理が施される画像領域(即ち、ぼかし対象領域)内の画像をぼかす処理である。ぼかし処理を、二次元の空間フィルタリングによって実現することができる。ぼかし処理の空間フィルタリングに用いられるフィルタは、画像の平滑化に適した任意の空間フィルタ(例えば、平均化フィルタ、加重平均フィルタ又はガウシアンフィルタ)である。
具体的には例えば、デジタルフォーカス部65は、ぼかし対象画素ごとにぼかし対象画素に対応する被写体距離LBLURを距離マップから抽出し、抽出した被写体距離LBLURと深度設定情報からぼかし対象画素ごとにぼかし量を設定する。或るぼかし対象画素に関し、抽出した被写体距離LBLURが近点距離Lnよりも小さい場合には、距離差(Ln−LBLUR)が大きくなるほど該ぼかし対象画素に対するぼかし量が大きくなるように、且つ、抽出した被写体距離LBLURが遠点距離Lfよりも大きい場合には、距離差(LBLUR−Lf)が大きくなるほど該ぼかし対象画素に対するぼかし量は大きくなるように、ぼかし量を設定する。そして、ぼかし対象画素ごとに、ぼかし量に応じた空間フィルタを用いてぼかし対象画素の画素信号を平滑化することで、ぼかし処理を実現することができる。
この際、ぼかし量が大きいほど、用いる空間フィルタのフィルタサイズを大きくすると良い。これにより、ぼかし量が大きいほど、対応する画素信号が大きくぼかされる。結果、対象出力画像において被写界深度内に収まらない被写体は、被写界深度から離れれば離れるほど大きくぼかされるようになる。
尚、ぼかし処理を、周波数フィルタリングによって実現することもできる。ぼかし処理は、ぼかし対象領域内の画像の空間周波数成分の内、比較的高い空間周波数成分を低減させるローパスフィルタ処理であっても良い。
図9は、対象出力画像の生成動作の流れを示すフローチャートである。まず、ステップS11及びS12において、対象入力画像の画像データを撮影によって取得すると共に上述した方法によって距離マップを取得する。ステップS13において被写界深度の初期設定を行う。この初期設定では、全ての被写体距離に対するぼかし量をゼロに設定する。全ての被写体距離に対するぼかし量をゼロに設定することは、対象入力画像の全体画像領域を非ぼかし対象領域に設定することに相当する。
続くステップS14において、対象入力画像を表示画面51に表示する。対象入力画像の表示と共に、任意の指標を表示するようにしても良い。この指標は、例えば、ファイル名、撮影日時、設定用UI生成部63にて生成された設定用UIである(設定用UIの具体例については後述)。ステップS14において、対象入力画像そのものではなく、対象入力画像に基づく画像を表示するようにしても良い。ここにおける、対象入力画像に基づく画像には、対象入力画像に解像度変換を施して得られる画像、対象入力画像に特定の画像処理を施して得られる画像が含まれる。
次にステップS15において、撮像装置1は、ユーザによる、被写界深度の変更を指示する調整指示(変更指示)又は被写界深度の調整の完了を指示する確定指示を受け付ける。調整指示及び確定指示の夫々は、所定のタッチパネル操作又はボタン操作にて成される。調整指示が成された場合にはステップS15からステップS16に移行する一方、確定指示が成された場合にはステップS15からステップS18に移行する。
ステップS16において、被写界深度設定部62は、調整指示の内容に従い深度設定情報を変更し、続くステップS17において、確認用画像生成部64は、変更後の深度設定情報を用いて、対象入力画像に基づく画像である確認用画像を生成する(確認用画像の具体例は第4実施例等において後述)。ステップS17にて生成された確認用画像は表示画面51に表示され、この表示を成したまま、ステップS15に戻る。即ち、確認用画像が表示されている状態において、ステップS15における調整操作を再度受け付ける。このとき、確定指示が成されるとステップS18及びS19の処理が実行されるが、再度の調整指示が成されると再度の調整指示に従ってステップS16及びS17の処理が再び実行される。尚、確認用画像と共に、設定用UI生成部63にて生成された設定用UIを表示画面51に表示するようにしても良い。
ステップS18において、デジタルフォーカス部65は、深度設定情報に基づくデジタルフォーカスにより対象入力画像から対象出力画像を生成する。生成された対象出力画像は表示画面51に表示される。ステップS15において調整指示が一度も成されていない場合には、対象入力画像そのものを対象出力画像として生成することができる。ステップS15において調整指示が成されている場合には、調整指示に従って変更された深度設定情報に基づき対象出力画像を生成する。その後、ステップS19において、対象出力画像の画像データは記録媒体16に記録される。対象入力画像の画像データが記録媒体16に記録されている場合、対象出力画像の画像データを記録するときに、対象入力画像の画像データを記録媒体16から削除するようにしても良いし、対象入力画像の画像データの記録を保持しておいても良い。
尚、調整指示を受けた後、確定指示の入力を待つことなく対象出力画像を生成するようにしても良い。これと類似するが、ステップS16にて深度変更情報を変更した後、確認用画像の生成及び表示を行うのではなく、直ちに、変更後の深度設定情報に基づく対象出力画像の生成及び表示を行い、対象出力画像の表示を成している状態においてステップS15における調整操作を再度受け付けるようにしても良い。
以下、デジタルフォーカスの実現等に関する具体例として、第1〜第6実施例を説明する。矛盾なき限り、或る実施例に記載した事項と、他の実施例に記載した事項を組み合わせることも可能である。特に記述なき限り、第1〜第6実施例では、図6(a)の対象入力画像310が図5に示される各部位に与えられたことを想定し、距離マップとは対象入力画像310についての距離マップを指すものとする。
<<第1実施例>>
本発明に係る第1実施例を説明する。図10(a)には、設定用UIとしてのスライダバー410が示されている。スライダバー410は、表示画面51上において一定方向に伸びる長方形の距離軸アイコン411と、距離軸アイコン411上を上記一定方向に沿って移動可能なバーアイコン(選択指標)412及び413と、から成る。距離軸アイコン411上における位置は被写体距離を表している。図10(b)に示す如く、距離軸アイコン411の長手方向における両端の内、一端415はゼロの被写体距離に対応し、他端416は無限遠の被写体距離又は十分に大きな被写体距離に対応する。距離軸アイコン411上におけるバーアイコン412及び413の位置はそれぞれ近点距離Ln及び遠点距離Lfに対応し、従ってバーアイコン412はバーアイコン413よりも常に端415側に位置する。尚、距離軸アイコン411の形状は、長方形以外であってもよく、例えば、図10(c)又は(d)に示す如く、平行四辺形又は台形であっても良い。
スライダバー410が表示されているとき、ユーザは、タッチパネル操作又はボタン操作によって距離軸アイコン411上でバーアイコン412及び413を移動させることが可能である。例えば、指にてバーアイコン412を触れた後、指と表示画面51との接触状態を保ちつつ、その指を表示画面51上で距離軸アイコン411が伸びる方向に沿って移動させることにより、バーアイコン412を距離軸アイコン411上で移動させることができる。バーアイコン413についても同様である。また、操作部17に第1〜第4の方向キーから成る十字キー(不図示)が設けられている場合には、例えば、第1の方向キーの押下操作によってバーアイコン412を端415側に移動させ、第2の方向キーの押下操作によってバーアイコン412を端416側に移動させ、第3の方向キーの押下操作によってバーアイコン413を端415側に移動させ、第4の方向キーの押下操作によってバーアイコン413を端416側に移動させてもよい。また例えば、操作部17にダイヤル式ボタンが設けられている場合には、ダイヤル式ボタンへのダイヤル操作によってバーアイコン412及び413の移動を実現してしても良い。
図11に示す如く、撮像装置1は、対象入力画像310又は対象入力画像310に基づく画像が表示されている際、スライダバー410も表示させ、この状態で、ユーザによる被写界深度の調整指示又は確定指示を受け付ける(図9参照)。ユーザによるバーアイコン412及び413の位置を変更するタッチパネル操作又はボタン操作が、調整指示に相当する。距離軸アイコン411上において互いに異なる位置は互いに異なる被写体距離に対応している。被写界深度設定部62は、調整指示によってバーアイコン412の位置が変更されると、変更後のバーアイコン412の位置に応じて近点距離Lnを変更し、調整指示によってバーアイコン413の位置が変更されると、変更後のバーアイコン413の位置に応じて遠点距離Lfを変更する。また、近点距離Ln及び遠点距離Lfに基づいて合焦基準距離Loを設定することができる(距離Loの導出方法については後述)。調整指示によって変更又は設定された距離Ln、Lf及びLoは深度設定情報に反映される(図9のステップS16)。
尚、図11では、スライダバー410の長手方向が表示画面51の水平方向に向けられているが、スライダバー410の長手方向を表示画面51上の任意の方向に向けることができる。また、図9のステップS15〜S17において、図10(e)に示す如く、合焦基準距離Loを指し示すバーアイコン418をバーアイコン412及び413と共に距離軸アイコン411上に表示するようにしても良い。
ユーザは、バーアイコン412及び413が所望の位置に配置されていることを確認すると上述の確定指示を成すことができる。確定指示が成されると、確定指示が成された時点における深度設定情報に基づき対象出力画像が生成される(図9のステップS18)。
また、対象入力画像の各画素位置における被写体距離を変数として用いて求められたヒスグラムを距離ヒストグラムと呼ぶ。図12に、対象入力画像310に対応する距離ヒストグラム430を示す。距離ヒストグラム430は、対象入力画像310の各画素位置における被写体距離の分布を表している。撮像装置1(例えば、被写界深度設定部62又は設定用UI生成部63)は、対象入力距離310の距離マップに基づき距離ヒストグラム430を生成することができる。距離ヒストグラム430において、横軸は被写体距離を表す距離軸431である。距離ヒストグラム430の縦軸は距離ヒストグラム430の度数に対応する。例えば、被写体距離Lの画素値を有する画素が距離マップにQ個存在する場合、距離ヒストグラム430において被写体距離Lに対する度数(画素数)はQとなる(Qは整数)。
距離ヒストグラム430を設定用UIに含め、図10(a)のスライダバー410を表示する際、距離ヒストグラム430を更に表示すると良い。この際、図13(a)に示す如く、スライダバー410における距離軸アイコン411と距離ヒストグラム430における距離軸431とを対応付け、バーアイコン412及び413を距離軸431に沿って移動可能にしておくと良い。例えば、距離軸アイコン411の長手方向及び距離軸431の方向を表示画面51の水平方向に一致させると共に、表示画面51上の任意の水平位置Hに対応する距離軸アイコン411上の被写体距離と、同水平位置Hに対応する距離軸431上の被写体距離と、を一致させておく。これによれば、距離軸アイコン411上におけるバーアイコン412及び413の移動は、距離軸431に沿った移動となる。図13(a)に示す例では、距離ヒストグラム430とスライダバー410とが垂直方向に並べて表示されているが、距離ヒストグラム430の中にスライダバー410を組み込んでも良い。即ち例えば、図13(b)に示す如く、距離軸アイコン411を距離軸431として表示するようにしても良い。
撮像装置1は、対象入力画像310又は対象入力画像310に基づく画像が表示されている際、距離ヒストグラム430及びスライダバー410を含む設定用UIも表示させ、この状態で、ユーザによる被写界深度の調整指示又は確定指示を受け付けることができる(図9参照)。この場合における調整指示は、スライダバー410のみが設定用UIに含められている場合と同様、バーアイコン412及び413の位置を変更するタッチパネル操作又はボタン操作であり、バーアイコン412及び413の位置変更に伴う距離Ln、Lf及びLoの設定動作等は上述したそれと同様である。ユーザは、バーアイコン412及び413が所望の位置に配置されていることを確認すると上述の確定指示を成すことができる。確定指示が成されると、確定指示が成された時点における深度設定情報に基づき対象出力画像が生成される(図9のステップS18)。
上述の如くスライダバーを用いることにより、直感的且つ簡素な操作によって被写界深度を設定することが可能となる。この際、距離ヒストグラムを合わせて表示することにより、ユーザは被写体距離の分布を把握した状態で被写界深度を設定することが可能となる。例えば、撮像装置1の近傍に位置し且つ度数の多い代表的な被写体距離(例えば、被写体SUBに対応する被写体距離L)を被写界深度内に含める、或いは、度数は多いが相当に大きな被写体距離(例えば、背景に相当するような、被写体SUBに対応する被写体距離L)を被写界深度から外すといった調整が容易となり、ユーザは、所望の被写界深度を設定し易くなる。
バーアイコン412及び413を距離軸アイコン411上又は距離ヒストグラム430の距離軸431上で移動させるタッチパネル操作又はボタン操作が成された際、スライドバー412及び413の位置を連続的に変化させるようにしても良いが、距離軸アイコン411上又は距離軸431上において離散的に存在する或る代表距離から他の代表距離へとスライドバー412及び413の位置をステップ的に変化させるようにしても良い。これにより、特にボタン操作によってバーアイコンコン412及び413の移動を指示する場合において、より容易且つ迅速に被写界深度を設定することが可能となる。例えば、距離ヒストグラム430について被写体距離L〜Lのみが代表距離に設定された場合を考える。この場合、第1〜第3の代表距離L〜Lに対応する第1〜第3の代表位置が距離軸アイコン411上又は距離軸431上に設定される。そして、バーアイコン412が第2の代表位置に配置されているときに、ユーザがバーアイコン412を1単位量だけ移動させる操作を行うと、バーアイコン412の位置は第1又は第3の代表位置へと移動する(バーアイコン413についても同様)。
設定用UI生成部63は、距離ヒストグラム430における各被写体距離の度数から代表距離を設定することができる。例えば、距離ヒストグラム430において、度数が集中している被写体距離を代表距離として設定することができる。より具体的には例えば、距離ヒストグラム430において、所定の閾値以上の度数を有する被写体距離を代表距離として設定することができる。距離ヒストグラム430において、所定の閾値以上の度数を有する被写体距離が一定距離範囲内に連続的に存在する場合には、該一定距離範囲の中心距離を代表距離として設定することができる。一定距離幅を有する窓を距離ヒストグラム430上に設定し、窓内に属する度数の合計が所定の閾値以上である場合に、その窓の中心距離を代表距離として設定することもできる。
また、代表距離を被写体距離として有する被写体の画像データを対象入力画像310の画像データから抽出し、調整指示又は確定指示の受け付け時において、抽出した画像データに基づく画像(以下、代表距離物体画像と呼ぶ)を距離ヒストグラム430上の代表距離に対応付けて表示するようにしても良い。代表距離物体画像も、設定用UIに含まれていると考えても良い。
被写体距離L〜Lが第1〜第3の代表距離に設定された場合を想定して、代表距離物体画像の生成及び表示方法を説明する。設定用UI生成部63は、距離マップに基づき、代表距離L又は代表距離Lの近傍距離を被写体距離として持つ画像領域を検出し、検出した画像領域内の画像データを対象入力画像310から第1の代表距離物体画像の画像データとして抽出する。代表距離Lの近傍距離とは、例えば、代表距離Lとの距離差が所定値以下の距離を指す。同様にして、代表距離L及びLに対応する第2及び第3の代表距離物体画像の画像データも抽出する。代表距離L〜Lは、夫々、第1〜第3の代表距離物体画像に対応付けられる。そして、図14に示す如く、距離軸アイコン411上又は距離ヒストグラム430の距離軸431上における代表距離L〜Lと、第1〜第3の代表距離物体画像との対応関係がユーザに分かるように、スライダバー410及び距離ヒストグラム430と共に第1〜第3の代表距離物体画像を表示すると良い。図14において、画像441〜443は、それぞれ第1〜第3の代表距離物体画像であり、それぞれ代表距離L〜Lに対応した位置に表示される。
スライダバー410及び距離ヒストグラム430と共に代表距離物体画像を表示することによって、ユーザは、対象出力画像の被写界深度内に収められることになる被写体及び対象出力画像の被写界深度外に位置することになる被写体を直感的且つ容易に認識することができ、被写界深度を所望のものにより設定し易くなる。
尚、設定用UIにスライダバー410及び代表距離物体画像を含める一方で設定用UIから距離ヒストグラム430を除外し、図14と同様、調整指示又は確定指示の受け付け時において、各代表距離物体画像を距離軸アイコン411上の代表距離に対応付けて表示するようにしても良い。
また、設定用UIの表示位置は任意である。設定用UIを対象入力画像310上に重畳されるように表示しても良いし、設定用UIと対象入力画像310を表示画面上で並べて表示するようにしても良い。また、距離軸アイコン411の長手方向及び距離軸431の方向は表示画面51の水平方向以外であっても良い。
合焦基準距離Loの算出方法について説明する。撮影によって得られた注目画像の合焦基準距離Loは、下記式(1)及び(2)を満たすことが知られている。ここで、δは予め設定された撮像素子33の許容錯乱円径であり、fは注目画像の撮影時における撮像部11の焦点距離であり、Fは注目画像の撮影時における撮像部11の絞り値である。式(1)及び(2)におけるLn及びLfは、夫々、注目画像の近点距離及び遠点距離である。
δ=(f・(Lo−Ln))/(F・Lo・Ln) ・・・(1)
δ=(f・(Lf−Lo))/(F・Lo・Lf) ・・・(2)
式(1)及び(2)から下記式(3)が得られる。
Lo=2・Ln・Lf/(Ln+Lf) ・・・(3)
従って、被写界深度設定部62は、対象出力画像の近点距離Ln及び遠点距離Lfの設定後、設定した距離Ln及びLfを式(3)に代入することで対象出力画像の合焦基準距離Loを求めることができる。尚、被写界深度設定部62は、対象出力画像の近点距離Ln及び遠点距離Lfの設定後、単純に距離((Ln+Lf)/2)を対象出力画像の合焦基準距離Loに設定するようにしても良い。
<<第2実施例>>
本発明に係る第2実施例を説明する。第2実施例では、図9のステップS15にて成されうる調整指示の他の具体的方法を説明する。ステップS15にて調整指示がなされるときに表示画面51に表示される画像は、対象入力画像310そのもの又は対象入力画像310に基づく画像であるが、ここでは、説明の簡略化上、ステップS15にて調整指示がなされるときに、対象入力画像310そのものが表示されていることを想定する(後述の第3実施例においても同様)。
第2実施例における調整指示は、表示画面51上の複数の特定物体を指定する指定操作にて実現され、ユーザは該指定操作をタッチパネル操作の一種として成すことができる。被写界深度設定部62は、指定操作にて指定された複数の特定物体が対象出力画像の被写界深度内に収まるように深度設定情報を生成する。より具体的には、指定された各特定物体の被写体距離を対象入力画像310の距離マップから抽出し、抽出した全ての被写体距離が対象出力画像の被写界深度に属するように、抽出した被写体距離に基づき対象出力画像の被写界深度における両端距離(即ち、近点距離Ln及び遠点距離Lf)を設定する。更に、第1実施例と同様、近点距離Ln及び遠点距離Lfに基づき合焦基準距離Loを設定する。設定内容は深度設定情報に反映される。
具体的には例えば、ユーザは、表示画面51上における被写体SUBの表示位置501及び被写体SUBの表示位置502を指にて触れることにより(図15参照)、被写体SUB及びSUBを複数の特定物体として指定することができる。複数の表示位置を指にて触れるタッチパネル操作は、同時に成されて良いし、同時に成されなくても良い。
被写体SUB及びSUBが複数の特定物体として指定された場合、表示位置501及び502に対応する画素位置の被写体距離、即ち被写体SUB及びSUBの被写体距離L及びLを距離マップから抽出し、抽出した被写体距離L及びLが対象出力画像の被写界深度に属するように近点距離Ln及び遠点距離Lfを設定すると共に、合焦基準距離Loを算出する。L<Lであるため、被写体距離L及びLを夫々近点距離Ln及び遠点距離Lfに設定することができる。これにより、被写体SUB及びSUBが対象出力画像の被写界深度内に収まるようになる。或いは、距離(L−ΔLn)及び(L+ΔLf)を夫々近点距離Ln及び遠点距離Lfに設定しても良い。但し、ΔLn>0且つΔLf>0である。
3以上の被写体が複数の特定物体として指定された場合、3以上の特定物体に対応する被写体距離の内の最小距離から近点距離Lnを設定すると共に、3以上の特定物体に対応する被写体距離の内の最大距離から遠点距離Lfを設定すると良い。例えば、ユーザが、表示画面51上における被写体SUBの表示位置503を表示位置501及び502に加えて指にて触れると、被写体SUB〜SUBを複数の特定物体として指定される。被写体SUB〜SUBが複数の特定物体として指定された場合、表示位置501〜503に対応する画素位置の被写体距離、即ち被写体SUB〜SUBの被写体距離L〜Lを距離マップから抽出する。抽出した被写体距離L〜Lの内、最小距離は被写体距離Lであり、最大距離は被写体距離Lである。従って、この場合、被写体距離L及びLを夫々近点距離Ln及び遠点距離Lfに設定することができる。これにより、被写体SUB〜SUBが対象出力画像の被写界深度内に収まるようになる。或いは、距離(L−ΔLn)及び(L+ΔLf)を夫々近点距離Ln及び遠点距離Lfに設定しても良い。
第2実施例によれば、所望の被写体が被写界深度内に収まるように、対象出力画像の被写界深度を容易且つ迅速に設定することが可能となる。
尚、複数の特定物体を指定する指定操作を受け付ける際、第1実施例で述べたスライダバー410(図10(a)参照)、又は、スライダバー410と距離ヒストグラム430との組み合わせ(図13(a)又は(b)参照)、又は、スライダバー410と距離ヒストグラム430と代表距離物体画像との組み合わせ(図14参照)を、対象入力画像310と共に表示し、指定操作によって設定された近点距離Ln及び遠点距離Lfをバーアイコン412及び413の位置に反映しても良い。更に、指定操作によって設定された合焦基準距離Loをバーアイコン418の位置に反映しても良い(図10(e)参照)。
また、ユーザによる指定操作を容易にするため、第1実施例で述べた方法によって代表距離を求め、複数の特定物体を指定する指定操作を受け付ける際、代表距離に位置する被写体を強調表示するようにしてもよい。例えば、被写体距離L〜Lが第1〜第3の代表距離に設定された場合、対象入力画像310が表示された表示画面51上において、代表距離L〜Lに対応する被写体SUB〜SUBを強調表示してもよい。被写体SUBの強調表示は、表示画面51上における被写体SUBの輝度の増加や被写体SUBの輪郭強調などによって実現可能である(被写体SUB及びSUBについても同様)。
<<第3実施例>>
本発明に係る第3実施例を説明する。第3実施例では、図9のステップS15にて成されうる調整指示の更に他の具体的方法を説明する。
第3実施例における調整指示は、表示画面51上の特定物体を指定する指定操作にて実現され、ユーザは該指定操作をタッチパネル操作の一種として成すことができる。被写界深度設定部62は、指定操作にて指定された特定物体が対象出力画像の被写界深度内に収まるように深度設定情報を生成する。この際、指定操作において表示画面51上の特定物体が指にて触れられる時間の長さTLに応じて、対象出力画像の被写界深度の深さを決定する。
具体的には例えば、被写体SUBを被写界深度内に収めた対象出力画像を得たい場合、ユーザは、表示画面51上における被写体SUBの表示位置501を指にて触れることにより(図15参照)、被写体SUBを特定物体として指定することができる。当該指が表示位置501にて表示画面51に触れている時間の長さが長さTLである。
被写体SUBが特定物体として指定された場合、表示位置501に対応する画素位置の被写体距離、即ち被写体SUBの被写体距離Lを距離マップから抽出し、抽出した被写体距離Lが対象出力画像の被写界深度に属するように、時間長さTLに応じて近点距離Ln、遠点距離Lf及び合焦基準距離Loを設定する。設定内容は深度設定情報に反映される。これにより、被写体SUBが対象出力画像の被写界深度内に収まるようになる。
近点距離Ln及び遠点距離Lf間の距離差(Lf−Ln)は、対象出力画像の被写界深度の深さを表す。第3実施例では、距離差(Lf−Ln)が時間長さTLに応じて決定される。具体的には例えば、時間長さTLがゼロから増大するにつれて、距離差(Lf−Ln)をゼロよりも大きな初期値から増大させると良い。この際、時間長さTLがゼロから増大するにつれて、遠点距離Lfを増加させる、或いは、近点距離Lnを減少させる、或いは、遠点距離Lfを増加させると同時に近点距離Lnを減少させると良い。逆に、時間長さTLがゼロから増大するにつれて、距離差(Lf−Ln)を一定の初期値から下限値に向かって減少させても良い。この際、時間長さTLがゼロから増大するにつれて、遠点距離Lfを減少させる、或いは、近点距離Lnを増加させる、或いは、遠点距離Lfを減少させると同時に近点距離Lnを増加させると良い。
被写体SUBが特定物体として指定された場合、“L=(Lf+Ln)/2”が成立するように近点距離Ln及び遠点距離Lfを設定し、設定した距離Ln及びLfに基づき合焦基準距離Loを求めても良い。或いは、合焦基準距離Loを被写体距離Lに一致させても良い。但し、被写体距離Lが対象出力画像の被写界深度に属する限り、被写体距離Lは“(Lf+Ln)/2”及び合焦基準距離Lo以外であっても良い。
第3実施例によれば、所望の被写体を被写界深度内に収めた、所望の被写界深度の深さを有する対象出力画像を、容易且つ迅速な操作にて生成させることが可能となる。
尚、特定物体を指定する指定操作を受け付ける際、第1実施例で述べたスライダバー410(図10(a)参照)、又は、スライダバー410と距離ヒストグラム430との組み合わせ(図13(a)又は(b)参照)、又は、スライダバー410と距離ヒストグラム430と代表距離物体画像との組み合わせ(図14参照)を、対象入力画像310と共に表示し、指定操作によって設定された近点距離Ln及び遠点距離Lfをバーアイコン412及び413の位置に反映しても良い。更に、指定操作によって設定された合焦基準距離Loをバーアイコン418の位置に反映しても良い(図10(e)参照)。
また、ユーザによる指定操作を容易にするため、第1実施例で述べた方法によって代表距離を求め、特定物体を指定する指定操作を受け付ける際、第2実施例と同様の方法にて、代表距離に位置する被写体を強調表示するようにしてもよい。
<<第4実施例>>
本発明に係る第4実施例を説明する。第4実施例及び後述の第5実施例を、第1〜第3実施例と組み合わせて実施することができる。第4実施例では、図5の確認用画像生成部64にて生成可能な確認用画像について説明する。上述したように、確認用画像を対象入力画像に基づく画像とすることができる。
第4実施例では、深度設定情報にて規定される対象出力画像の被写界深度を表す情報JJを確認用画像に含める。情報JJは、例えば、対象出力画像の被写界深度に対応する絞り値(F値;F-number)である。対象出力画像の画像データが、デジタルフォーカスを経て得られるのではなく撮像素子33上の光学像のサンプリングのみによって得られると仮定した場合の、対象出力画像の撮影時の絞り値FOUTを情報JJとして求めることできる。
上述の方法に従って求められた距離Ln、Lf及びLoが深度設定情報に含められた上で確認用画像生成部64に送られる。生成部64は、深度設定情報に含められた距離Ln、Lf及びLoを上記式(1)又は(2)に代入することで式(1)又は(2)の“F”の値を算出し、算出した値を対象出力画像の撮影時の絞り値FOUTとして(即ち情報JJとして)求めることができる。この際、式(1)又は(2)の焦点距離fの値は撮像部11のレンズ設計値と対象入力画像の撮影時の光学ズーム倍率から決定されると共に、式(1)又は(2)の許容錯乱円径δの値は予め設定されている。尚、式(1)又は(2)における“F”の値を算出する際、焦点距離fと許容錯乱円径δの単位系を揃えておく必要がある(例えば、それらを、35mmフィルム換算時の単位系又は実際のスケールの単位系にて揃えておく)。
確認用画像生成部64は、深度設定情報が与えられた際、絞り値FOUTを求め、絞り値FOUTを対象入力画像に重畳した画像を確認用画像として生成することができる。第4実施例に示す確認用画像を、図9のステップS17にて生成及び表示することができる。図16に、絞り値FOUTの表示の成された表示画面51の例を示す。図16の例では、対象入力画像上に絞り値FOUTが重畳表示されているが、対象入力画像と絞り値FOUTとを並べて表示するようにしても構わない。また、図16の例では、絞り値FOUTが数値として示されているが、絞り値FOUTの表現方法はこれに限定されない。例えば、絞り値FOUTを表現可能なアイコンの表示などによって絞り値FOUTの表示を実現しても良い。
また、深度設定情報に基づく対象出力画像に絞り値FOUTを重畳した画像を確認用画像として生成及び表示するようにしても良い。対象出力画像上に絞り値FOUTを重畳表示するのではなく、対象出力画像と絞り値FOUTとを並べて表示するようにしても構わない。
尚、図9のステップS19等において、対象出力画像を記録媒体16に記録する際には、Exif(Exchangeable image file format)等のファイルフォーマットに準拠するように、情報JJを対象出力画像の画像ファイル内に格納することができる。
絞り値FOUTを表示することにより、ユーザは、対象出力画像の被写界深度の状態を通常カメラの撮影条件との関係において把握することが可能となり、対象出力画像の被写界深度が所望の被写界深度に設定されているのか否かの判断を成し易くなる。即ち、対象出力画像の被写界深度の設定が支援される。
<<第5実施例>>
本発明に係る第5実施例を説明する。第5実施例では、図5の確認用画像生成部64にて生成可能な他の確認用画像について説明する。
第5実施例において、確認用画像生成部64に深度設定情報が供給された場合、確認用画像生成部64は、距離マップ及び深度設定情報を用いた上述の方法により、対象入力画像の各画素を、対象出力画像の被写界深度外の被写体距離に対応する深度外画素と対象出力画像の被写界深度内の被写体距離に対応する深度内画素に分類する。同様の方法にて、対象出力画像の各画素も、深度外画素と深度内画素に分類することもできる。全ての深度外画素を内包する画像領域を深度外領域と呼び、全ての深度内画素を内包する画像領域を深度内領域と呼ぶ。深度外画素及び深度外領域はデジタルフォーカスにおけるぼかし対象画素及びぼかし対象領域に相当し、深度内画素及び深度内領域はデジタルフォーカスにおける非ぼかし対象画素及び非ぼかし対象領域に相当する。
確認用画像生成部64は、深度外領域における画像の輝度、色相若しくは彩度を変化させる画像処理IP、又は、深度内領域における画像の輝度、色彩若しくは彩度を変化させる画像処理IPを対象入力画像に施すことができる。そして、画像処理IP後の対象入力画像、画像処理IP後の対象入力画像、又は、画像処理IP及びIP後の対象入力画像を確認用画像として生成することができる。図17に、図6(a)の対象入力画像310に基づく確認用画像の例を示す。図17の確認用画像の生成時における深度設定情報では、被写界深度内に被写体SUBのみが収まっており、被写体SUB及びSUBが被写界深度外に位置することが定められているものとする。対象入力画像の深度外領域における画像の輝度又は彩度を低下させた画像が、図17の確認用画像である。対象入力画像の深度外領域における画像の輝度又は彩度を低下させた画像に対して、更に深度内領域の画像のエッジを強調する処理を実施し、その処理後の画像を確認用画像として生成しても良い。
第5実施例に係る確認用画像を、図9のステップS17にて生成及び表示することができる。これにより、調整指示によって深度設定情報が変更される度に、その変更内容がどのように画像に反映されるのかがリアルタイムで表示され、ユーザは、調整指示の結果を分かり易く確認することができる。例えば、第1及び第5実施例を組み合わせた場合、調整指示によってスライダバー412又は413の位置が変更される度に(図11参照)、変更後の位置に応じて表示画面51上の確認用画像も変化する。
尚、確認用画像生成部64は、対象入力画像の代わりに対象出力画像を元にして確認用画像を生成することもできる。つまり、上記画像処理IP及びIPの少なくとも一方を対象出力画像に施し、画像処理IP後の対象出力画像、画像処理IP後の対象出力画像、又は、画像処理IP及びIP後の対象出力画像を確認用画像として生成するようにしても良い。
<<第6実施例>>
本発明に係る第6実施例を説明する。対象入力画像を全合焦画像として取得するべく、所謂パンフォーカスを利用する方法を上述したが、対象入力画像の取得方法は、これに限定されない。
例えば、RAWデータに被写体距離を表す情報が含まれるように撮像部11を形成しておき、RAWデータから全合焦画像としての対象入力画像を構築するようにしても良い。これを実現するために、上述のLight Field法を用いることができる。Light Field法によれば、撮像素子33の出力信号が、撮像素子33の受光面における光の強度分布に加えて撮像素子33への入射光の進行方向の情報をも含むようになり、この情報を内包するRAWデータから全合焦画像としての対象入力画像を構築することもできる。尚、Light Field法を用いる場合、デジタルフォーカス部65はLight Field法によって対象出力画像を生成するため、RAWデータに基づく対象入力画像は全合焦画像でなくても良い。Light Field法を用いた場合、全合焦画像が存在していなくても、RAWデータを得た後に任意の被写界深度を有する対象出力画像を自由に構築することができるからである。
また、Light Field法に分類されない方法(例えば、特開2007−181193号公報に記載の方法)を用いて、RAWデータから理想的な又は擬似的な全合焦画像を対象入力画像として生成するようにしても良い。例えば、位相板(wavefront coding optical element)を用いて全合焦画像としての対象入力画像を生成しても良いし、撮像素子33上の像のぼけを除去する画像復元処理を用いて全合焦画像としての対象入力画像を生成するようにしても良い。
<<変形等>>
本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態に適用可能な注釈事項として、以下に、注釈1〜注釈4を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[注釈1]
図9のステップS13の初期設定において、全ての被写体距離に対するぼかし量をゼロに設定する方法を上述したが、初期設定の方法はこれに限定されない。例えば、ステップS13において、上述の方法に従って距離マップから1又は複数の代表距離を設定し、各代表距離が対象出力画像の被写界深度に属するという条件を満たしつつ対象出力画像の被写界深度がなるだけ浅くなるように、深度設定情報を設定しても良い。また、対象入力画像に対して公知のシーン判定を適用し、シーン判定の結果を利用して被写界深度の初期値を設定しても良い。例えば、対象入力画像が風景を撮影したシーンであると判定されたならば、調整指示前における対象出力画像の被写界深度が比較的深くなるように、且つ、対象入力画像が人物を撮影したシーンであると判定されたならば、調整指示前における対象出力画像の被写界深度が比較的浅くなるように、ステップS13の初期設定を行っても良い。
[注釈2]
図5に示される各部位は撮像装置1以外の電子機器(不図示)に設けられていても良く、その電子機器上において上述の各動作を実現させても良い。電子機器は、例えば、パーソナルコンピュータ、携帯情報端末、携帯電話機である。尚、撮像装置1も、電子機器の一種である。
[注釈3]
上述の実施形態では、撮像装置1を主体とした動作を説明しているため、画像や表示画面上の物体を主として被写体と呼んでいる。画像又は表示画面上における被写体と、画像又は表示画面上における物体は同義であると言える。
[注釈4]
図1の撮像装置1及び上記電子機器を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1及び電子機器を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。特に、図5に示される各部位(但し、モニタ15を除く)にて実現される機能の全部又は一部をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部又は一部を実現するようにしてもよい。
1 撮像装置
11 撮像部
15 モニタ
33 撮像素子
51 表示画面
52 タッチ検出部
61 距離マップ取得部
62 被写界深度設定部
63 設定用UI生成部
64 合焦状態確認用画像生成部
65 デジタルフォーカス部

Claims (3)

  1. 画像処理によって対象入力画像の被写界深度を変更することにより対象出力画像を生成する対象出力画像生成部と、
    前記対象入力画像上の各位置における物体と前記対象入力画像を撮影した機器との間の距離の分布を表す距離ヒストグラム、及び、前記距離ヒストグラムにおける距離軸に沿って移動可能な選択指標を表示画面上に表示するモニタと、
    前記選択指標を前記距離軸に沿って移動させるための操作を介して定められた前記選択指標の位置に基づき、前記対象出力画像の被写界深度を設定する被写界深度設定部と、を備えたことを特徴とする電子機器。
  2. 前記被写界深度設定部は、前記選択指標の位置に対応する前記距離軸上の距離が前記対象出力画像の被写界深度に属するように、前記対象出力画像の被写界深度を設定する
    ことを特徴とする請求項1に記載の電子機器。
  3. 前記被写界深度設定部は、前記距離ヒストグラムにおける度数から代表距離を設定するとともに前記代表距離に対応する物体の画像データを前記対象入力画像の画像データから抽出し、抽出画像データに基づく代表距離物体画像を前記距離ヒストグラム上の代表距離に対応付けて前記表示画面上に表示させる
    ことを特徴とする請求項1または請求項2に記載の電子機器。
JP2010241969A 2010-10-28 2010-10-28 電子機器 Expired - Fee Related JP5657343B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010241969A JP5657343B2 (ja) 2010-10-28 2010-10-28 電子機器
CN2011103321763A CN102572262A (zh) 2010-10-28 2011-10-27 电子设备
US13/284,578 US20120105590A1 (en) 2010-10-28 2011-10-28 Electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010241969A JP5657343B2 (ja) 2010-10-28 2010-10-28 電子機器

Publications (2)

Publication Number Publication Date
JP2012095186A JP2012095186A (ja) 2012-05-17
JP5657343B2 true JP5657343B2 (ja) 2015-01-21

Family

ID=45996265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010241969A Expired - Fee Related JP5657343B2 (ja) 2010-10-28 2010-10-28 電子機器

Country Status (3)

Country Link
US (1) US20120105590A1 (ja)
JP (1) JP5657343B2 (ja)
CN (1) CN102572262A (ja)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101733443B1 (ko) 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
US20120012748A1 (en) 2010-05-12 2012-01-19 Pelican Imaging Corporation Architectures for imager arrays and array cameras
JP5671842B2 (ja) * 2010-06-03 2015-02-18 株式会社ニコン 画像処理装置および撮像装置
US8947584B2 (en) * 2010-12-01 2015-02-03 Blackberry Limited Apparatus, and associated method, for a camera module of electronic device
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
KR101973822B1 (ko) 2011-05-11 2019-04-29 포토네이션 케이맨 리미티드 어레이 카메라 이미지 데이터를 송신 및 수신하기 위한 시스템들 및 방법들
JP2013012820A (ja) * 2011-06-28 2013-01-17 Sony Corp 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるプログラム
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
EP2761534B1 (en) 2011-09-28 2020-11-18 FotoNation Limited Systems for encoding light field image files
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
JP6019729B2 (ja) * 2012-05-11 2016-11-02 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2015534734A (ja) 2012-06-28 2015-12-03 ペリカン イメージング コーポレイション 欠陥のあるカメラアレイ、光学アレイ、およびセンサを検出するためのシステムおよび方法
JP5370542B1 (ja) * 2012-06-28 2013-12-18 カシオ計算機株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
JP6103849B2 (ja) * 2012-08-02 2017-03-29 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP6016516B2 (ja) * 2012-08-13 2016-10-26 キヤノン株式会社 画像処理装置およびその制御方法、画像処理プログラム、並びに撮像装置
EP3869797B1 (en) 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
JP2014048714A (ja) * 2012-08-29 2014-03-17 Canon Inc 画像処理装置及び画像処理方法
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
JP5709816B2 (ja) * 2012-10-10 2015-04-30 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム、並びに記録媒体
JP6091176B2 (ja) * 2012-11-19 2017-03-08 キヤノン株式会社 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP6172935B2 (ja) * 2012-12-27 2017-08-02 キヤノン株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6281562B2 (ja) 2013-02-21 2018-02-21 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
WO2014159779A1 (en) * 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
JP6244655B2 (ja) 2013-05-16 2017-12-13 ソニー株式会社 画像処理装置および画像処理方法
JP6288952B2 (ja) 2013-05-28 2018-03-07 キヤノン株式会社 撮像装置およびその制御方法
KR102101740B1 (ko) * 2013-07-08 2020-04-20 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP6223059B2 (ja) * 2013-08-21 2017-11-01 キヤノン株式会社 撮像装置、その制御方法およびプログラム
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US20150185308A1 (en) * 2014-01-02 2015-07-02 Katsuhiro Wada Image processing apparatus and image processing method, image pickup apparatus and control method thereof, and program
JP6323022B2 (ja) * 2014-01-21 2018-05-16 株式会社ニコン 画像処理装置
JP6294703B2 (ja) * 2014-02-26 2018-03-14 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9423901B2 (en) * 2014-03-26 2016-08-23 Intel Corporation System and method to control screen capture
JP2015213299A (ja) * 2014-04-15 2015-11-26 キヤノン株式会社 画像処理装置および画像処理方法
KR101783991B1 (ko) * 2014-04-29 2017-10-11 한화테크윈 주식회사 영상촬영장치에서 개선된 줌트래킹 방법
JP6548367B2 (ja) * 2014-07-16 2019-07-24 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
US9635242B2 (en) * 2014-09-29 2017-04-25 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
EP3201877B1 (en) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
TWI529661B (zh) * 2014-10-17 2016-04-11 國立臺灣大學 快速建立景深圖的方法及影像處理裝置
US20180176483A1 (en) 2014-12-29 2018-06-21 Metaio Gmbh Method and sytem for generating at least one image of a real environment
JP6478654B2 (ja) * 2015-01-23 2019-03-06 キヤノン株式会社 撮像装置及びその制御方法
JP6525611B2 (ja) * 2015-01-29 2019-06-05 キヤノン株式会社 画像処理装置およびその制御方法
CN105187722B (zh) * 2015-09-15 2018-12-21 努比亚技术有限公司 景深调节方法、装置及终端
JP6693236B2 (ja) * 2016-03-31 2020-05-13 株式会社ニコン 画像処理装置、撮像装置、および画像処理プログラム
JP6808550B2 (ja) * 2017-03-17 2021-01-06 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN107172346B (zh) * 2017-04-28 2020-02-07 维沃移动通信有限公司 一种虚化方法及移动终端
KR102344104B1 (ko) * 2017-08-22 2021-12-28 삼성전자주식회사 이미지의 표시 효과를 제어할 수 있는 전자 장치 및 영상 표시 방법
JP6515978B2 (ja) * 2017-11-02 2019-05-22 ソニー株式会社 画像処理装置および画像処理方法
DE102018103092A1 (de) * 2018-02-12 2019-08-14 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Fokuseinstellungs-Anzeigeeinheit
JP6580172B2 (ja) * 2018-02-16 2019-09-25 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2018125887A (ja) * 2018-04-12 2018-08-09 株式会社ニコン 電子機器
JP6566091B2 (ja) * 2018-06-28 2019-08-28 株式会社ニコン 画像生成装置、及び画像検索装置
JP6711428B2 (ja) * 2019-01-30 2020-06-17 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP7362265B2 (ja) * 2019-02-28 2023-10-17 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6780748B2 (ja) * 2019-07-30 2020-11-04 株式会社ニコン 画像処理装置、及び画像処理プログラム
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
KR20230004423A (ko) 2019-10-07 2023-01-06 보스턴 폴라리메트릭스, 인크. 편광을 사용한 표면 법선 감지 시스템 및 방법
WO2021108002A1 (en) 2019-11-30 2021-06-03 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
KR20220133973A (ko) 2020-01-30 2022-10-05 인트린식 이노베이션 엘엘씨 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들
JP2021145209A (ja) * 2020-03-11 2021-09-24 キヤノン株式会社 電子機器
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079193A (ja) * 2006-09-25 2008-04-03 Fujifilm Corp デジタルカメラ
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP5213688B2 (ja) * 2008-12-19 2013-06-19 三洋電機株式会社 撮像装置
JP2010176460A (ja) * 2009-01-30 2010-08-12 Nikon Corp 電子機器およびカメラ

Also Published As

Publication number Publication date
US20120105590A1 (en) 2012-05-03
CN102572262A (zh) 2012-07-11
JP2012095186A (ja) 2012-05-17

Similar Documents

Publication Publication Date Title
JP5657343B2 (ja) 電子機器
JP6271990B2 (ja) 画像処理装置、画像処理方法
JP6173156B2 (ja) 画像処理装置、撮像装置及び画像処理方法
US9106837B2 (en) Image capturing device and image capturing method
JP5931206B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP2010093422A (ja) 撮像装置
JP2013029656A (ja) 撮像装置
JP5901782B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6000446B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
JP6086975B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2012160863A (ja) 撮像装置、画像再生装置及び画像処理装置
US8558942B2 (en) Focusing measurement device, focusing measurement method, and program
JP5619124B2 (ja) 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法
JP2012178820A (ja) 電子機器
JP2011217103A (ja) 複眼撮影方法および装置
JP2018046535A (ja) 撮像装置
JP2011223294A (ja) 撮像装置
JP2017060010A (ja) 撮像装置、撮像装置の制御方法、およびプログラム
JP2008079193A (ja) デジタルカメラ
US20200366882A1 (en) Image processing device, imaging device, image processing method, and recording medium
JP2013246052A (ja) 距離測定装置
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
JP6558902B2 (ja) 複眼撮像装置、複眼撮像装置の制御方法、複眼撮像制御プログラム、および記憶媒体
JP2011193066A (ja) 撮像装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141126

R150 Certificate of patent or registration of utility model

Ref document number: 5657343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees