JP2017518658A - 多焦点イメージングのためのシステムおよび方法 - Google Patents

多焦点イメージングのためのシステムおよび方法 Download PDF

Info

Publication number
JP2017518658A
JP2017518658A JP2016560451A JP2016560451A JP2017518658A JP 2017518658 A JP2017518658 A JP 2017518658A JP 2016560451 A JP2016560451 A JP 2016560451A JP 2016560451 A JP2016560451 A JP 2016560451A JP 2017518658 A JP2017518658 A JP 2017518658A
Authority
JP
Japan
Prior art keywords
interest
regions
region
scene
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016560451A
Other languages
English (en)
Other versions
JP2017518658A5 (ja
JP6594897B2 (ja
Inventor
ナガラジャ、アダルシュ・ホサアグラハラ
リウ、ウェイリアン
リウ、シジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2017518658A publication Critical patent/JP2017518658A/ja
Publication of JP2017518658A5 publication Critical patent/JP2017518658A5/ja
Application granted granted Critical
Publication of JP6594897B2 publication Critical patent/JP6594897B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions

Abstract

多焦点イメージングのためのシステムおよび方法が開示される。イメージングシステムは、関心シーンのプレビューモードに基づいて、複数の関心領域をユーザに提案し得る。ユーザは、多焦点イメージのために複数の提案された関心領域を選択し得る。イメージングシステムは、複数の関心領域の各々についてオートフォーカスパラメータを計算し、カメラのシャッターボタンが押されたとき、関心領域の各々の単一のイメージをキャプチャする。イメージングシステムは、次いで、複数のイメージから多焦点イメージを生成する。【選択図】 図2

Description

[0001]本明細書で開示するシステムおよび方法は、一般に、多焦点イメージング(multi-focus imaging)に関する。
[0002]カメラを用いて高品質イメージを撮影するために、露出および焦点レベルは、関心シーン(scene of interest)内のオブジェクトに合わせてうまく調整されなければならない。しかしながら、多くの状況では、シーン内のすべてのオブジェクトのために最適な露出および焦点レベルを取得することが困難であり得る。たとえば、カメラレンズから無限に延びるスクリーン深度を定義する軸(通常z軸)に沿って異なる距離において点在するオブジェクトに焦点が合っているように維持することが困難であり得る。被写界深度は、一般に、関心シーンのオブジェクトが焦点が合っているz軸のエリアである。カメラレンズがズームインされるとき、被写界深度はカメラレンズがズームアウトされるときよりも浅い。このために、被写界深度z軸に沿って異なる位置にあるいくつかのオブジェクト上に焦点を維持することが困難であり得る。
[0003]本開示のシステム、方法およびデバイスは、それぞれいくつかの発明的態様を有し、それらのうちの単一の態様が、単独で、本明細書で開示する望ましい属性を担当するとは限らない。本明細書で説明する革新、態様および特徴の組合せはシステム、方法、およびデバイスの様々な実施形態に組み込まれ得、そのような組合せは、本明細書で説明する実施形態の例によって制限されない。
[0004]本明細書で説明する実施形態および革新は、焦点が合っている複数の関心領域(region of interest)を有するイメージを取得するための電子デバイスのためのプロセッサ中で実行され得るシステムおよび方法に関する。ユーザが単一のイメージ内のシーン内の異なる深度における異なるエリアに焦点を合わせることを可能にするために、直観的なユーザエクスペリエンスが提示される。
[0005]いくつかの実施形態では、カメラは、複数の関心領域(ROI:region of interest)を含んでいるシーンにおいて選択され、そのシーンに向けられる。オートフォーカス機構が動作し始め、いくつかのROIがイメージプレビューにおいてユーザに提案され得る。これらのROIは、限定はしないが、(a)顔検出、(b)オブジェクトトラッキング、または(c)直接ユーザ入力を含む、様々な知られている方法を使用して決定され得る。ユーザは、所望の選択を選択し、調整するために、スクリーンにタッチするかまたはそれをピンチすることによって、プレビュー中に複数のROIを選択し得る。ユーザのタッチに基づいて、オートフォーカスは、各関心領域についてパラメータを計算し、この情報を記憶する。
[0006]いくつかの実施形態では、イメージをキャプチャするためにユーザがシャッターボタンを押すとき、複数のイメージが、選択されたROIの数(または、等価的に、計算され、記憶されたオートフォーカスパラメータの数)に基づいてキャプチャされる。複数のイメージの各々は、焦点が合っているROIのうちの1つを含んでいる。次いで、複数のイメージから単一のイメージが生成され、単一のイメージは複数のイメージからシームレスに形成されたように見える。得られた単一のイメージは、焦点が合っている複数の関心領域のすべてを含んでいる。
[0007]一態様は、シーン内の複数の関心領域を提案し、複数の関心領域から多焦点イメージ(multi-focus image)を生成するためのシステムに関する。本システムは、シーン内の候補関心領域を決定することと、シーン内の可能な関心領域から関心領域の提案をディスプレイスクリーン上に示すことと、複数の関心領域の選択を示す入力を受信することと、選択された複数の関心領域の各々に関連するオートフォーカスパラメータを決定することと、関心領域に関連するオートフォーカスパラメータを使用して、各関心領域のイメージをキャプチャすることと、各関心領域を含むイメージからのイメージデータを含む多焦点イメージを生成することとを行うように構成された制御モジュールを含む。本システムは、センサーを含むイメージングデバイスをさらに含み得、ここにおいて、制御モジュールは、イメージングデバイスと関心領域に関連するオートフォーカスパラメータとを使用して各関心領域のイメージをキャプチャするように構成される。制御モジュールは、プレビューモードにおいてイメージングデバイスを動作させるようにさらに構成され得る。制御モジュールは、プレビューモードにおいて提案された複数の関心領域をユーザにグラフィカルに表示するようにさらに構成され得る。制御モジュールは、顔検出アルゴリズムまたはオブジェクトトラッキングアルゴリズムを使用してシーン内の関心領域を決定するようにさらに構成され得る。制御モジュールは、シーン内の候補関心領域を決定することに関する入力を受信するようにさらに構成され得る。イメージングデバイスは、タッチスクリーンをさらに含み得、制御モジュールは、タッチスクリーン上でタッチイベントを登録することによって、複数の関心領域の選択を示す入力を受信するようにさらに構成され得る。本システムは、モバイルデバイスをさらに含み得、ここにおいて、制御モジュールは、モバイルデバイスのカメラアプリケーションの構成要素であり得る。
[0008]別の態様では、シーン内の複数の関心領域を提案し、複数の関心領域から多焦点イメージを生成するための方法は、シーン内の候補関心領域を決定するステップと、シーン内の可能な関心領域から関心領域の提案をディスプレイスクリーン上に示すステップと、複数の関心領域の選択に関する入力を受信するステップと、選択された複数の関心領域の各々に関連するオートフォーカスパラメータを決定するステップと、関心領域に関連するオートフォーカスパラメータを使用して、各関心領域のイメージをキャプチャするステップと、各関心領域を含むイメージからのイメージデータを含む多焦点イメージを生成するステップとを含む。本方法は、プレビューモードにおいてイメージングデバイスを動作させるステップをさらに含み得る。いくつかの実施形態では、シーン内の候補関心領域を決定することは、シーン内の顔またはオブジェクトに対して顔検出およびオブジェクトトラッキングのうちの1つまたは複数を実行することをさらに含む。本方法は、プレビューモードにおいて提案された複数の関心領域をユーザにグラフィカルに表示するステップをさらに含み得る。いくつかの実施形態では、複数の関心領域の選択に関するユーザ入力を受け付けることは、イメージングデバイスのタッチスクリーン上でタッチイベントを登録することをさらに含む。いくつかの実施形態では、イメージングデバイスは、モバイルデバイスのためのカメラアプリケーションの一部として動作するように構成される。
[0009]また別の態様では、シーン内の複数の関心領域を提案し、複数の関心領域から多焦点イメージを生成するための装置は、シーン内の候補関心領域を決定するための手段と、シーン内の可能な関心領域から複数の関心領域をユーザに提案するための手段と、複数の関心領域の選択に関するユーザ入力を受け付けるための手段と、複数の関心領域の各々に関連するオートフォーカスパラメータを決定するための手段と、関心領域に関連するオートフォーカスパラメータを使用して、各関心領域の単一のイメージをキャプチャするための手段と、各関心領域の単一のイメージから単一の多焦点イメージを生成するための手段とを含む。本装置は、プレビューモードにおいてイメージングデバイスを動作させるための手段をさらに含み得る。いくつかの実施形態では、シーン内の候補関心領域を決定するための手段は、シーン内の顔またはオブジェクトに対して顔検出およびオブジェクトトラッキングのうちの1つまたは複数を実行するための手段をさらに含む。いくつかの実施形態では、本装置は、プレビューモードにおいて提案された複数の関心領域をユーザにグラフィカルに表示するための手段をさらに含み得る。いくつかの実施形態では、複数の関心領域の選択に関するユーザ入力を受け付けるための手段は、イメージングデバイスのタッチスクリーン上でタッチイベントを登録するための手段をさらに含む。
[0010]別の態様では、非一時的コンピュータ可読媒体は、実行されたとき、シーン内の複数の関心領域を提案することと、複数の関心領域から多焦点イメージを生成することとの方法を少なくとも1つの物理的コンピュータプロセッサに実行させる命令を記憶する。方法は、シーン内の複数の可能なまたは候補の関心領域を決定するステップと、シーン内の可能な関心領域から複数の関心領域をユーザに提案するステップと、複数の関心領域の選択に関するユーザ入力を受け付けるステップと、複数の関心領域の各々に関連するオートフォーカスパラメータを決定するステップと、関心領域に関連するオートフォーカスパラメータを使用して、各関心領域の単一のイメージをキャプチャするステップと、各関心領域の単一のイメージから単一の多焦点イメージを生成するステップとを含む。いくつかの実施形態では、方法は、プレビューモードにおいてイメージングデバイスを動作させるステップを含む。いくつかの実施形態では、シーン内の複数の可能なまたは候補の関心領域を決定することは、シーン内の顔またはオブジェクトに対して顔検出およびオブジェクトトラッキングのうちの1つまたは複数を実行することをさらに含む。ある実施形態では、方法は、プレビューモードにおいて提案された複数の関心領域をユーザにグラフィカルに表示するステップをさらに含む。いくつかの実施形態では、複数の関心領域の選択に関するユーザ入力を受け付けることは、イメージングデバイスのタッチスクリーン上でタッチイベントを登録することをさらに含む。いくつかの実施形態では、イメージングデバイスは、モバイルデバイスのためのカメラアプリケーションの一部として動作するように構成される。
[0011]開示する態様について、開示する態様を限定するためにではなく、例示するために与える、添付の図面とともに以下で説明し、同様の表示は同様の要素を示す。
[0012]焦点が合っている複数の関心領域を有するイメージを取得するためのいくつかの動作可能な要素を実装するシステムを示すブロック図。 [0013]焦点が合っている複数の関心領域を有するイメージを取得するためのプロセスを示すフローチャート。 [0014]焦点の関心領域のための提案とユーザによって選択された関心領域とを示すユーザインターフェースの一例の図。 [0015]複数の焦点領域を有する多焦点イメージの一例の図。
[0016]一般に、セルフォン、タブレット、または他のモバイルデバイスなど、スマートデバイス中のカメラは、異なる深度におけるオブジェクトを明確にイメージキャプチャすることができない。たいていの現在のデバイスは、単一のイメージ中で複数の関心オブジェクトをキャプチャし、それらに焦点を合わせることができない。いくつかのカメラは異なる深度における複数の関心オブジェクトに焦点を合わせるように指示され得るが、このイメージを捕捉するためのレンズ位置は、関心オブジェクトのすべてに焦点が合っている単一のイメージを生成するのではなく、関心シーン中の各オブジェクトの焦点を「折衷」する。以下で説明する方法およびシステムが、異なる焦点深度に位置する複数のオブジェクトの焦点が合った単一のイメージを取得するためのソリューションを与える。
[0017]いくつかの実施形態では、提案する多焦点イメージングプロセスは、プレビューモード中にいくつかの関心領域をユーザに提案するようにプロセッサに指示する。これらの提案は、顔検出、オブジェクトトラッキング、あるいは他の特徴またはオブジェクトを識別する方法に基づいて行われ得る。ユーザは、1つまたは複数の関心領域を、最終の多焦点イメージ中に含まれるように選択し得る。プロセッサは、次いで、各関心領域についてオートフォーカスパラメータを計算し、この情報を記憶する。イメージをキャプチャするためにユーザがシャッターボタンを押すとき、複数のイメージが、選択されたROIの数(または、等価的に、計算され、記憶されたオートフォーカスパラメータの数)に基づいてキャプチャされる。複数のイメージの各々は、望ましくは、焦点が合っているROIのうちの1つを含んでいる。次いで、複数のイメージから単一のイメージが生成され、単一のイメージは複数のイメージからシームレスに形成されたように見える。得られた単一のイメージは、望ましくは、焦点が合っている複数の関心領域のすべてを含んでいる。
[0018]例は、フローチャート、流れ図、有限状態図、構造図、またはブロック図として示されるプロセスとして説明されることがあることに留意されたい。フローチャートは動作を逐次プロセスとして説明することがあるが、動作の多くは並列にまたは同時に実施され得、プロセスは繰り返され得る。さらに、動作の順序は並べ替えられ得る。プロセスは、それの動作が完了したときに終了する。プロセスは、メソッド、関数、プロシージャ、サブルーチン、サブプログラムなどに対応し得る。プロセスがソフトウェア関数に対応するとき、それの終了は呼出し関数またはメイン関数への関数の復帰に対応する。
[0019]実施形態は、システムオンチップ(SoC)または外部ハードウェア、ソフトウェア、ファームウェア、あるいはそれらの任意の組合せで実装され得る。情報および信号は、多種多様な技術および技法のいずれかを使用して表され得ることを当業者は理解されよう。たとえば、上記の説明全体にわたって言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、およびチップは、電圧、電流、電磁波、磁界または磁性粒子、光場または光学粒子、あるいはそれらの任意の組合せによって表され得る。
[0020]以下の説明では、例の完全な理解を与えるために具体的な詳細を与える。ただし、例はこれらの具体的な詳細なしに実施され得ることを当業者は理解されよう。たとえば、例を不必要な詳細において不明瞭にしないために、電気的構成要素/デバイスをブロック図で示すことがある。他の事例では、例についてさらに説明するために、そのような構成要素、他の構造および技法を詳細に図示することがある。
システム概観
[0021]図1に、焦点が合っている複数の関心領域を有する単一のイメージを取得するように構成されたイメージングシステム100の一例を示す。図示の実施形態は、限定するものではなく、いくつかの実施形態におけるいくつかの構成要素を説明するものである。システム100は、図示された構成要素の明快のために示されていない他の機能のための様々な他の構成要素を含み得る。
[0022]イメージングシステム100は、イメージングデバイス110と電子ディスプレイ130とを含み得る。電子ディスプレイ130のいくつかの実施形態は、LED、LCD、プラズマまたは投影スクリーンなど、任意のフラットパネルディスプレイ技術であり得る。電子ディスプレイ130は、ユーザへの視覚表示のための情報を受信するためのプロセッサ120に結合され得る。そのような情報は、限定はしないが、メモリロケーションに記憶されたファイルと、プロセッサ120上にインストールされたソフトウェアアプリケーションと、ユーザインターフェースと、ネットワークアクセス可能コンテンツオブジェクトとの視覚表現を含み得る。
[0023]イメージングデバイス110は、イメージングセンサーのうちの1つまたは組合せを採用し得る。イメージングシステム100は、イメージングデバイス110にリンクされたプロセッサ120をさらに含むことができる。ワーキングメモリ135、電子ディスプレイ130、およびプログラムメモリ140も、プロセッサ120と通信している。イメージングシステム100は、タブレット、ラップトップコンピュータ、またはセルラー電話など、モバイルデバイスであり得る。
[0024]プロセッサ120は、汎用処理ユニットであり得、またはハンドヘルド電子デバイスのためのイメージングアプリケーションのために特別に設計されたプロセッサであり得る。図示のように、プロセッサ120は、プログラムメモリ140とワーキングメモリ135とに接続され、それらとデータ通信している。いくつかの実施形態では、ワーキングメモリ135は、プロセッサ120、たとえば、キャッシュメモリに組み込まれ得る。ワーキングメモリ135はまた、プロセッサ120とは別個の構成要素であり得、プロセッサ120に結合された、たとえば、1つまたは複数のRAMまたはDRAM構成要素であり得る。言い換えれば、図1は、いくつかのモジュールを備えるメモリ構成要素140とワーキングメモリを備える別個のメモリ135とを含む、2つのメモリ構成要素を示しているが、当業者は、異なるメモリアーキテクチャを利用するいくつかの実施形態を認識されよう。たとえば、設計は、メモリ140中に含まれているモジュールを実装するプロセッサ命令の記憶のためにROMまたはスタティックRAMメモリを利用し得る。プロセッサ命令は、次いで、プロセッサによる実行を可能にするためにRAMにロードされ得る。たとえば、ワーキングメモリ135はRAMメモリであり得、命令は、プロセッサ120による実行の前にワーキングメモリ135にロードされる。
[0025]図示の実施形態では、プログラムメモリ140は、イメージキャプチャモジュール145と、関心領域(ROI)提案モジュール150と、オートフォーカスパラメータ決定モジュール155と、単一イメージ生成モジュール160と、オペレーティングシステム165と、ユーザインターフェースモジュール170とを記憶する。これらのモジュールは、様々なイメージプロセッシングおよびデバイス管理タスクを実行するようにプロセッサ120を構成する命令を含み得る。プログラムメモリ140は、非一時的記憶媒体など、任意の好適なコンピュータ可読記憶媒体であり得る。ワーキングメモリ135は、メモリ140のモジュール中に含まれているプロセッサ命令のワーキングセットを記憶するために、プロセッサ120によって使用され得る。代替的に、ワーキングメモリ135はまた、イメージングシステム100の動作中に生成される動的データを記憶するために、プロセッサ120によって使用され得る。
[0026]上述のように、プロセッサ120は、メモリ140に記憶されたいくつかのモジュールによって構成され得る。言い換えれば、プロセス120は、メモリ140中のモジュールに記憶された命令を実行することができる。イメージキャプチャモジュール145は、イメージングデバイスからイメージを取得するようにプロセッサ120を構成する命令を含み得る。したがって、プロセッサ120は、イメージキャプチャモジュール145、イメージングデバイス110、およびワーキングメモリ135とともに、1つまたは複数の関心領域のイメージセンサーデータを取得するための1つの手段を表す。
[0027]まだ図1を参照すると、メモリ140は、ROI提案モジュール150をも含んでいることがある。ROI提案モジュール150は、以下でさらに詳細に説明するように、顔検出、オブジェクトトラッキング、または他のアルゴリズムを使用して関心領域をユーザに提案することと、イメージングデバイス110のプレビューモード中に電子ディスプレイ130上で関心領域をユーザに表示することとを行うようにプロセッサ120を構成する命令を含み得る。したがって、プロセッサ120は、ROI提案モジュール150、ワーキングメモリ135、および電子ディスプレイ130とともに、1つまたは複数の関心領域を提案し、ユーザ電子デバイスに示すための1つの手段を表す。
[0028]メモリ140は、オートフォーカスパラメータ決定モジュール155をも含んでいることがある。オートフォーカスパラメータ決定モジュール155は、オートフォーカス機能を実行し、識別された関心領域の各々についてオートフォーカスパラメータを計算し、記憶するようにプロセッサ120を構成する命令を含み得る。たとえば、3つの関心領域が選択された場合、プロセッサ120は、関心領域の各々に対応するオートフォーカスパラメータを計算し、ワーキングメモリ135またはストレージデバイス125にオートフォーカスパラメータを記憶するように、オートフォーカスパラメータ決定モジュール155によって命令され得る。プロセッサ120は、次いで、想像デバイス110を使用して、各関心領域のオートフォーカスパラメータに基づいて各関心領域の単一のイメージをキャプチャするように、イメージキャプチャモジュール145によって命令され得る。したがって、プロセッサ120は、ROI提案モジュール150、オートフォーカスパラメータ決定モジュール155、およびワーキングメモリ135とともに、選択された各関心領域についてオートフォーカスパラメータを計算し、記憶するための1つの手段を表す。
[0029]メモリ140は、単一イメージ生成モジュール160をも含んでいることがある。図1に示されている単一イメージ生成モジュール160は、ROI提案モジュール150によって識別された複数の関心領域を含んでいる単一の多焦点イメージを生成するようにプロセッサ120を構成する命令を含み得る。たとえば、3つの関心領域が選択された場合、オートフォーカスパラメータが、各関心領域について計算され、記憶され、複数のイメージのうちの1つ中で各関心領域が焦点が合っている中の複数のイメージが撮影され、プロセッサ120は、複数のイメージをシームレスに統合することによって単一の多焦点イメージを生成するように、単一イメージ生成モジュール160によって命令され得る。したがって、プロセッサ120は、ROI提案モジュール150、単一イメージ生成モジュール160、およびワーキングメモリ135とともに、関心領域の複数のイメージから単一のイメージを生成するための1つの手段を表す。
[0030]メモリ140は、ユーザインターフェースモジュール170をも含んでいることがある。図1に示されているユーザインターフェースモジュール170は、イメージングデバイスのプレビューモードにおいて識別され、表示された関心領域をユーザが選択することを可能にすることなど、ユーザがデバイスと対話することを可能にするディスプレイ上オブジェクトとソフト制御との集合を与えるようにプロセッサ120を構成する命令を含み得る。ユーザインターフェースモジュール170はまた、アプリケーションがシステムの残部と対話することを可能にする。オペレーティングシステムモジュール165も、システム100のメモリおよび処理リソースを管理するために、メモリ140中に常駐し、プロセッサ120とともに動作し得る。たとえば、オペレーティングシステム165は、電子ディスプレイ130またはイメージングデバイス110など、ハードウェアリソースを管理するためのデバイスドライバを含み得る。いくつかの実施形態では、ROI提案モジュール150およびオートフォーカスパラメータ決定モジュール155中に含まれている命令は、これらのハードウェアリソースと直接対話せず、代わりにオペレーティングシステム165中にある標準サブルーチンまたはAPIを通して対話することがある。オペレーティングシステム165内の命令は、次いで、これらのハードウェア構成要素と直接対話し得る。
[0031]プロセッサ120は、ストレージモジュール125にデータを書き込み得る。ストレージモジュール125が従来のディスクドライブとしてグラフィカルに表されているが、複数の実施形態は、ディスクベースストレージデバイス、または、メモリディスク、USBドライブ、フラッシュドライブ、リモートで接続された記憶媒体、仮想ディスクドライバなどを含むいくつかの他のタイプの記憶媒体のうちの1つのいずれかを含むことができることを当業者は理解されよう。
[0032]図1は、プロセッサと、イメージングデバイスと、電子ディスプレイと、メモリとを含むように別個の構成要素を備えるデバイスを示しているが、これらの別個の構成要素は、特定の設計目標を達成するために様々な方法で組み合わせられ得ることを当業者は認識されよう。たとえば、代替実施形態では、メモリ構成要素は、コストを節約し、性能を改善するために、プロセッサ構成要素と組み合わせられ得る。
[0033]さらに、図1は、いくつかのモジュールを備えるメモリ構成要素140とワーキングメモリを備える別個のメモリ135とを含む、2つのメモリ構成要素を示しているが、当業者は、異なるメモリアーキテクチャを利用するいくつかの実施形態を認識されよう。たとえば、設計は、メモリ140中に含まれているモジュールを実装するプロセッサ命令の記憶のためにROMまたはスタティックRAMメモリを利用し得る。代替的に、プロセッサ命令は、イメージングシステム100に組み込まれるかまたは外部デバイスポートを介して接続されたディスクストレージデバイスからシステム開始時に読み取られ得る。プロセッサ命令は、次いで、プロセッサによる実行を可能にするためにRAMにロードされ得る。たとえば、ワーキングメモリ135はRAMメモリであり得、命令は、プロセッサ120による実行の前にワーキングメモリ135にロードされる。
方法概観
[0034]本発明の実施形態は、単一の関心シーン内の複数の候補関心領域をユーザに推奨することと、シーン内の候補関心領域を決定することに関する入力を受信することと、単一のシーン内のキャプチャされるべき所望の関心領域の選択に関する入力を受信することと、所望のまたは選択された関心領域に関連するオートフォーカスパラメータに基づいて複数のイメージを取得することと、複数のイメージを単一の多焦点イメージにシームレスに統合することとを含むことができる、多焦点イメージングのためのプロセスに関する。それは、たとえば、異なるオブジェクトプレーン(または深度)における複数の領域を有する単一のイメージであり、複数の領域の各々は統合されたイメージ中で焦点が合っている。例は、フローチャート、流れ図、有限状態図、構造図、またはブロック図として示されるプロセスとして説明されることがある。フローチャートは動作を逐次プロセスとして説明することがあるが、動作の多くは並列にまたは同時に実施され得、プロセスは繰り返され得る。さらに、動作の順序は並べ替えられ得る。プロセスは、それの動作が完了したときに終了する。プロセスは、メソッド、関数、プロシージャ、サブルーチン、サブプログラムなどに対応し得る。プロセスがソフトウェア関数に対応するとき、それの終了は呼出し関数またはメイン関数への関数の復帰に対応する。
[0035]図2に、図1に示されたモジュールのうちの1つまたは複数において実装され得る多焦点イメージングを実行するように(図1に示されているイメージングデバイス110などの)イメージングデバイスを有する電子デバイスを構成するためのプロセス200の一実施形態を示す。いくつかの例では、プロセス200は、プロセッサ、たとえば、プロセッサ120(図1)上で、およびメモリ140に記憶されたかあるいは他のハードウェアまたはソフトウェアに組み込まれた図1に示されている他の構成要素上で実行され得る。
[0036]プロセス200は、開始ブロック202において開始し、ブロック204に遷移し、ここにおいて、プレビューモードにおいてイメージングデバイス110を動作させる。いくつかの実施形態では、プレビューモードは、イメージングデバイス110のレンズによって閲覧されるシーンを電子ディスプレイ、たとえば、電子ディスプレイ130(図1)上に表示することを含み得る。電子デバイスは、ハンドヘルド通信デバイス、たとえば、セルラーフォンまたは「スマートフォン」、あるいはタブレットコンピュータを含むモバイル個人情報端末(PDA)であり得る。たとえば、ユーザは、イメージをキャプチャすべきか否かを決定するために、プレビューモードにおいてモバイルデバイスのカメラを動作させ得る。別の例では、ユーザは、ユーザが多焦点イメージ中でどの関心領域をキャプチャすることを望むかを決定するために、プレビューモードにおいてモバイルデバイスのカメラを動作させ得る。
[0037]プロセス200は、次いで、ブロック206に遷移し、ここにおいて、プロセッサ120などのプロセッサが、現在のシーン内の可能な関心領域を決定するように命令される。いくつかの実施形態では、プロセッサは、可能な関心領域を識別するために、顔検出またはオブジェクトトラッキングを使用し得る。一実施形態では、顔検出アルゴリズム、たとえば、オムロン(登録商標)顔検出アルゴリズムが使用され得る。しかしながら、選択されたアルゴリズムが顔を検出することが可能であり、検出された顔の周りの正確な関心領域(ROI)ウィンドウを出力する限り、説明したようなシステムは、好ましくは、使用される顔検出アルゴリズムに鈍感である。いくつかの実施形態では、オブジェクトトラッキングアルゴリズムは、QUALCOMM Inc.のSnapdragon(登録商標)プロセッサ上で開発されたtouch to track(T2T)使用事例において使用されるものと同様であり得る。
[0038]一例では、顔検出は、シーン内の様々な深度において3つの顔が見えると決定し得る。別の例では、オブジェクトトラッキングは、シーン内で2つまたはそれ以上のアイテムを識別し、たとえば、ビーチでバケツ、砂城、および鳥を識別し得る。可能な関心領域が決定された後、プロセス200はブロック208に遷移する。
[0039]ブロック208において、プロセッサは、関心領域をユーザに提案し、イメージングデバイスのプレビューモードにおいてこれらの関心領域を表示するように命令される。上記で説明した例を続けると、プロセッサが、異なるシーン深度における3つの顔など、シーン内で複数の顔を検出した場合、プロセッサは、各顔の周りに矩形、円、括弧または他のインジケータを表示することによって、各顔を可能な関心領域として示すように命令され得る。関心領域のサイズは、ROIがシステムによって提案されるのか、ROIがユーザによって選択されるのかに依存し得る。ROIがシステムによって、たとえば、顔検出またはオブジェクト検出演算を通して提案される場合、ROIウィンドウは、提案されたオブジェクトを十分に含んでいることができる矩形、円、楕円などの形状である。いくつかの実施形態では、ROIは、顔の周りに描かれた矩形であり得る。いくつかの実施形態では、ROIのサイズは、検出されたROIによって占有されるイメージのエリアに依存して、数個のピクセルと同程度に小さいか、またはフルディスプレイスクリーンと同程度に大きいことがある。いくつかの実施形態では、ROIがユーザによって選択される場合、ROIは固定サイズの矩形または他の形状であり得る。他の実施形態では、ユーザは、ROIを囲む形状を定義するために、ROIを囲む2つまたはそれ以上のポイントを選択することによって、ROIを示すことができる。別の例では、プロセッサは、多焦点イメージングのためのこれらの可能性をユーザに明確に示すために、各顔または関心領域においてポインタまたはハンドインジケータを表示するように命令され得る。プロセス200は、次に、ブロック210に遷移し、ここにおいて、プロセッサは、1つまたは複数の関心領域に関するユーザ入力を受け付けるように命令される。たとえば、タッチスクリーンで構成された電子デバイスの場合、ユーザは、タッチスクリーン上の各顔を選択することによって、プレビューモードにおいて表示された顔のうちの1つまたは複数を選択し得る。ユーザはまた、複数の関心領域を選択するために、マウス、ポインタ、またはボタンを使用し得る。ユーザが複数の関心領域を選択することを示すユーザインターフェースの一例が、図3に示されている。図3に示されているように、ユーザは、複数の関心領域の各々にポインタを導き得る。この例では、ユーザは、「焦点」テキストと、「ドラゴン」テキストと、ナイトのチェスの駒と、花とを選択した。
[0040]プロセス200は、次に、ブロック212に遷移し、ここにおいて、プロセッサは、選択されたROIに関係するオートフォーカスパラメータを決定するように命令される。いくつかの実施形態では、プロセッサは、選択された関心領域の各々が焦点が合っているようにオートフォーカスパラメータを決定するために、イメージングデバイス110のオートフォーカス機能を実行するように命令され得る。オートフォーカスパラメータは、プロセッサ120のセンサードライバに送られるコマンドのセットである。センサードライバは、イメージングデバイス110のレンズ位置を移動するための設定または命令を含む。いくつかの実施形態では、センサードライバは、イメージングデバイス110のオートフォーカス、オートホワイトバランス、およびオート露出設定を調整するためのパラメータを含むことができる。オートフォーカスパラメータは、好ましくは、基礎をなすオートフォーカス、オートホワイトバランス、およびオート露出設定アルゴリズムによって決定され、イメージングデバイス100に基づき得る。たとえば、オートフォーカス機能は、多焦点イメージのために、シーン内の関心領域として識別された、および所望の関心領域としてユーザによって選択された顔の各々についてオートフォーカスパラメータを計算することができる。プロセス200は、次に、ブロック214に遷移し、ここにおいて、プロセッサは、各関心領域に関連するオートフォーカスパラメータを使用して、焦点が合っている関心領域のうちの1つを各イメージが含んでいる、1つまたは複数のイメージをキャプチャするように命令される。たとえば、ユーザによって関心領域として識別された3つの顔の各々から別個のイメージがキャプチャされ得る。
[0041]プロセス200は、次いで、ブロック216に遷移し、ここにおいて、プロセッサは、複数の関心領域からキャプチャされた1つまたは複数のイメージから単一のイメージを生成するように命令される。マルチ焦点の単一のイメージの一例が、図4に示されている。この図では、図3に示されているように選択された関心領域は、図4に示されている単一のイメージ中で焦点が合って表示される。単一のイメージは、上記で説明したようにイメージングデバイス110によってキャプチャされた2つまたはそれ以上のイメージを組み合わせ、任意の知られているイメージ組合せアルゴリズムを使用してイメージを互いに「スティッチ」することによって生成され得る。たとえば、単一のイメージは、異なる焦点設定をもつイメージングデバイス110によってキャプチャされた2つまたはそれ以上のイメージに、当技術分野で知られているようなイメージ整合、イメージ登録、およびイメージ混合技法を適用することによって捕捉され得る。単一のイメージが生成された後、プロセス200は、ブロック218に遷移し、終了する。
用語に関する明確化
[0042]別段に規定されていない限り、特定の特徴を有する装置の動作のいかなる開示も、類似の特徴を有する方法を開示する(その逆も同様)ことをも明確に意図し、特定の構成による装置の動作のいかなる開示も、類似の構成による方法を開示する(その逆も同様)ことをも明確に意図する。「構成」という用語は、それの特定の文脈によって示されるように、方法、装置、および/またはシステムに関して使用され得る。「方法」、「プロセス」、「プロシージャ」、および「技法」という用語は、特定の文脈によって別段に規定されていない限り、一般的に、互換的に使用される。「装置」および「デバイス」という用語も、特定の文脈によって別段に規定されていない限り、一般的に、互換的に使用される。「要素」および「モジュール」という用語は、一般に、より大きな構成の一部分を示すために使用される。それの文脈によって明確に限定されない限り、「システム」という用語は、本明細書では、「共通の目的を果たすために対話する要素のグループ」を含む、それの通常の意味のいずれをも示すために使用される。文書の一部分の参照による任意の組込みは、その部分内で言及された用語または変数の定義が、文書中の他の場所に現れ、ならびに組み込まれた部分で参照される図に現れた場合、そのような定義を組み込んでいることも理解されたい。
[0043]さらに、本明細書で開示する実装形態に関連して説明した様々な例示的な論理ブロック、モジュール、回路、およびプロセスステップは、電子ハードウェア、コンピュータソフトウェア、またはその両方の組合せとして実装され得ることを当業者は諒解されよう。ハードウェアとソフトウェアのこの互換性を明確に示すために、様々な例示的な構成要素、ブロック、モジュール、回路、およびステップについて、上記では概してそれらの機能に関して説明した。そのような機能をハードウェアとして実装するか、ソフトウェアとして実装するかは、特定の適用例および全体的なシステムに課せられた設計制約に依存する。当業者は、説明する機能を特定の適用例ごとに様々な方法で実装し得るが、そのような実装の決定は、本発明の範囲からの逸脱を生じるものと解釈されるべきではない。当業者は、ある一部分または一部が、全体よりも少ないかまたはそれに等しいものを備え得ることを認識されよう。たとえば、ピクセルの集合の一部分は、それらのピクセルの部分集合を指すことがある。
[0044]本明細書で開示した実装形態に関して説明した様々な例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス、個別ゲートまたはトランジスタ論理、個別ハードウェア構成要素、あるいは本明細書で説明した機能を実施するように設計されたそれらの任意の組合せを用いて実装または実施され得る。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、または状態機械であり得る。プロセッサはまた、コンピューティングデバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、あるいは任意の他のそのような構成として実装され得る。
[0045]本明細書で開示する実装形態に関して説明した方法またはプロセスのステップは、直接ハードウェアで実施されるか、プロセッサによって実行されるソフトウェアモジュールで実施されるか、またはその2つの組合せで実施され得る。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROM(登録商標)メモリ、レジスタ、ハードディスク、リムーバブルディスク、CD−ROM、または当技術分野で知られている任意の他の形態の非一時的記憶媒体中に常駐し得る。例示的なコンピュータ可読記憶媒体は、プロセッサがコンピュータ可読記憶媒体から情報を読み取り、コンピュータ可読記憶媒体に情報を書き込むことができるようにプロセッサに結合される。代替として、記憶媒体はプロセッサに一体化され得る。プロセッサおよび記憶媒体はASIC中に存在し得る。ASICは、ユーザ端末、カメラ、または他のデバイス中に存在し得る。代替として、プロセッサおよび記憶媒体は、ユーザ端末、カメラ、または他のデバイス中に個別構成要素として存在し得る。
[0046]本明細書には、参照のための、および様々なセクションを見つけるのを助けるための見出しが含まれる。これらの見出しは、見出しに関連して説明した概念の範囲を限定するものではない。そのような概念は、本明細書全体にわたって適用性を有し得る。
[0047]開示する実装形態の以上の説明は、当業者が本発明を実施または使用することができるように与えたものである。これらの実施形態に対する様々な変更は当業者には容易に明らかであり、本明細書で定義した一般原理は、本発明の趣旨または範囲から逸脱することなく他の実施形態に適用され得る。したがって、本発明は、本明細書で示した実装形態に限定されるものではなく、本明細書で開示する原理および新規の特徴に一致する最も広い範囲を与られるべきである。
[0047]開示する実装形態の以上の説明は、当業者が本発明を実施または使用することができるように与えたものである。これらの実施形態に対する様々な変更は当業者には容易に明らかであり、本明細書で定義した一般原理は、本発明の趣旨または範囲から逸脱することなく他の実施形態に適用され得る。したがって、本発明は、本明細書で示した実装形態に限定されるものではなく、本明細書で開示する原理および新規の特徴に一致する最も広い範囲を与られるべきである。
以下に本願発明の当初の特許請求の範囲に記載された発明を付記する。
[C1]
シーン内の複数の関心領域を提案し、前記複数の関心領域から多焦点イメージを生成するためのシステムであって、
シーン内の候補関心領域を決定することと、
前記シーン内の可能な関心領域から関心領域の提案をディスプレイスクリーン上に示すことと、
複数の関心領域の選択を示す入力を受信することと、
前記選択された複数の関心領域の各々に関連するオートフォーカスパラメータを決定することと、
前記関心領域に関連する前記オートフォーカスパラメータを使用して、各関心領域のイメージをキャプチャすることと、
各関心領域を含む前記イメージからのイメージデータを含む多焦点イメージを生成することと
を行うように構成された制御モジュールを備える、システム。
[C2]
センサーを備えるイメージングデバイスをさらに備え、ここにおいて、前記制御モジュールが、前記イメージングデバイスと前記関心領域に関連する前記オートフォーカスパラメータとを使用して各関心領域のイメージをキャプチャするように構成された、C1に記載のシステム。
[C3]
前記制御モジュールが、プレビューモードにおいて前記イメージングデバイスを動作させるようにさらに構成された、C2に記載のシステム。
[C4]
前記制御モジュールが、前記プレビューモードにおいて前記提案された関心領域をユーザにグラフィカルに表示するようにさらに構成された、C3に記載のシステム。
[C5]
前記制御モジュールが、顔検出アルゴリズムまたはオブジェクトトラッキングアルゴリズムを使用してシーン内の前記関心領域を決定するようにさらに構成された、C1に記載のシステム。
[C6]
前記イメージングデバイスが、タッチスクリーンをさらに備え、前記制御モジュールが、前記タッチスクリーン上でタッチイベントを登録することによって、複数の関心領域の選択を示す入力を受信するようにさらに構成された、C2に記載のシステム。
[C7]
前記制御モジュールが、シーン内の候補関心領域を決定することに関する入力を受信するようにさらに構成された、C1に記載のシステム。
[C8]
モバイルデバイスをさらに備え、ここにおいて、前記制御モジュールが、前記モバイルデバイスのカメラアプリケーションの構成要素である、C1に記載のシステム。
[C9]
シーン内の複数の関心領域を提案し、前記複数の関心領域から多焦点イメージを生成するための方法であって、
シーン内の候補関心領域を決定することと、
シーン内の可能な関心領域から関心領域の提案をディスプレイスクリーン上に示すことと、
複数の関心領域の選択を示す入力を受信することと、
前記選択された複数の関心領域の各々に関連するオートフォーカスパラメータを決定することと、
前記関心領域に関連する前記オートフォーカスパラメータを使用して、各関心領域のイメージをキャプチャすることと、
各関心領域を含む前記イメージからのイメージデータを含む多焦点イメージを生成することとを備える、方法。
[C10]
プレビューモードにおいてイメージングデバイスを動作させることをさらに備える、C9に記載の方法。
[C11]
顔検出アルゴリズムまたはオブジェクトトラッキングアルゴリズムを使用してシーン内の関心領域を決定することをさらに備える、C9に記載の方法。
[C12]
前記プレビューモードにおいて前記提案された複数の関心領域をユーザにグラフィカルに表示することをさらに備える、C10に記載の方法。
[C13]
複数の関心領域の選択を示す入力を受信することが、タッチスクリーン上でタッチイベントを登録することをさらに備える、C9に記載の方法。
[C14]
前記イメージングデバイスが、モバイルデバイスのカメラアプリケーションの構成要素である、C10に記載の方法。
[C15]
シーン内の複数の関心領域を提案し、前記複数の関心領域から多焦点イメージを生成するための装置であって、
シーン内の候補関心領域を決定するための手段と、
シーン内の可能な関心領域から関心領域の提案をディスプレイスクリーン上に示すための手段と、
複数の関心領域の選択を示す入力を受信するための手段と、
前記選択された複数の関心領域の各々に関連するオートフォーカスパラメータを決定するための手段と、
前記関心領域に関連する前記オートフォーカスパラメータを使用して、各関心領域のイメージをキャプチャするための手段と、
各関心領域を含む前記イメージからのイメージデータを含む多焦点イメージを生成するための手段とを備える、装置。
[C16]
センサーを備えるイメージングデバイスをさらに備え、ここにおいて、前記装置が、前記イメージングデバイスと前記関心領域に関連する前記オートフォーカスパラメータとを使用して各関心領域のイメージをキャプチャするための手段をさらに備える、C15に記載の装置。
[C17]
プレビューモードにおいて前記イメージングデバイスを動作させるための手段をさらに備える、C16に記載の装置。
[C18]
顔検出アルゴリズムまたはオブジェクトトラッキングアルゴリズムを使用してシーン内の前記関心領域を決定するための手段をさらに備える、C15に記載の装置。
[C19]
前記プレビューモードにおいて前記提案された複数の関心領域をユーザにグラフィカルに表示するための手段をさらに備える、C17に記載の装置。
[C20]
タッチスクリーンをさらに備え、ここにおいて、前記装置が、前記タッチスクリーン上でタッチイベントを登録することによって、複数の関心領域の選択を示す入力を受信するための手段をさらに備える、C15に記載の装置。
[C21]
シーン内の候補関心領域を決定することに関する入力を受信するための手段をさらに備える、C15に記載の装置。
[C22]
実行されたとき、
シーン内の候補関心領域を決定することと、
シーン内の可能な関心領域から関心領域の提案をディスプレイスクリーン上に示すことと、
複数の関心領域の選択を示す入力を受信することと、
前記選択された複数の関心領域の各々に関連するオートフォーカスパラメータを決定することと、
前記関心領域に関連する前記オートフォーカスパラメータを使用して、各関心領域のイメージをキャプチャすることと、
各関心領域を含む前記イメージからのイメージデータを含む多焦点イメージを生成することとを備える方法を少なくとも1つの物理的コンピュータプロセッサに実行させる命令を記憶する非一時的コンピュータ可読媒体。
[C23]
前記方法が、プレビューモードにおいてイメージングデバイスを動作させることをさらに備える、C22に記載の非一時的コンピュータ可読媒体。
[C24]
前記方法が、顔検出アルゴリズムまたはオブジェクトトラッキングアルゴリズムを使用してシーン内の前記関心領域を決定することをさらに備える、C22に記載の非一時的コンピュータ可読媒体。
[C25]
前記方法が、前記プレビューモードにおいて前記提案された関心領域をユーザにグラフィカルに表示することをさらに備える、C23に記載の非一時的コンピュータ可読媒体。
[C26]
前記方法が、シーン内の候補関心領域を決定することに関する入力を受信することをさらに備える、C22に記載の非一時的コンピュータ可読媒体。
[C27]
タッチスクリーン上でタッチイベントを登録することによって、複数の関心領域の選択を示す入力を受信することをさらに備える、C22に記載の非一時的コンピュータ可読媒体。

Claims (27)

  1. シーン内の複数の関心領域を提案し、前記複数の関心領域から多焦点イメージを生成するためのシステムであって、
    シーン内の候補関心領域を決定することと、
    前記シーン内の可能な関心領域から関心領域の提案をディスプレイスクリーン上に示すことと、
    複数の関心領域の選択を示す入力を受信することと、
    前記選択された複数の関心領域の各々に関連するオートフォーカスパラメータを決定することと、
    前記関心領域に関連する前記オートフォーカスパラメータを使用して、各関心領域のイメージをキャプチャすることと、
    各関心領域を含む前記イメージからのイメージデータを含む多焦点イメージを生成することと
    を行うように構成された制御モジュール
    を備える、システム。
  2. センサーを備えるイメージングデバイスをさらに備え、ここにおいて、前記制御モジュールが、前記イメージングデバイスと前記関心領域に関連する前記オートフォーカスパラメータとを使用して各関心領域のイメージをキャプチャするように構成された、請求項1に記載のシステム。
  3. 前記制御モジュールが、プレビューモードにおいて前記イメージングデバイスを動作させるようにさらに構成された、請求項2に記載のシステム。
  4. 前記制御モジュールが、前記プレビューモードにおいて前記提案された関心領域をユーザにグラフィカルに表示するようにさらに構成された、請求項3に記載のシステム。
  5. 前記制御モジュールが、顔検出アルゴリズムまたはオブジェクトトラッキングアルゴリズムを使用してシーン内の前記関心領域を決定するようにさらに構成された、請求項1に記載のシステム。
  6. 前記イメージングデバイスが、タッチスクリーンをさらに備え、前記制御モジュールが、前記タッチスクリーン上でタッチイベントを登録することによって、複数の関心領域の選択を示す入力を受信するようにさらに構成された、請求項2に記載のシステム。
  7. 前記制御モジュールが、シーン内の候補関心領域を決定することに関する入力を受信するようにさらに構成された、請求項1に記載のシステム。
  8. モバイルデバイスをさらに備え、ここにおいて、前記制御モジュールが、前記モバイルデバイスのカメラアプリケーションの構成要素である、請求項1に記載のシステム。
  9. シーン内の複数の関心領域を提案し、前記複数の関心領域から多焦点イメージを生成するための方法であって、
    シーン内の候補関心領域を決定することと、
    シーン内の可能な関心領域から関心領域の提案をディスプレイスクリーン上に示すことと、
    複数の関心領域の選択を示す入力を受信することと、
    前記選択された複数の関心領域の各々に関連するオートフォーカスパラメータを決定することと、
    前記関心領域に関連する前記オートフォーカスパラメータを使用して、各関心領域のイメージをキャプチャすることと、
    各関心領域を含む前記イメージからのイメージデータを含む多焦点イメージを生成することと
    を備える、方法。
  10. プレビューモードにおいてイメージングデバイスを動作させることをさらに備える、請求項9に記載の方法。
  11. 顔検出アルゴリズムまたはオブジェクトトラッキングアルゴリズムを使用してシーン内の関心領域を決定することをさらに備える、請求項9に記載の方法。
  12. 前記プレビューモードにおいて前記提案された複数の関心領域をユーザにグラフィカルに表示することをさらに備える、請求項10に記載の方法。
  13. 複数の関心領域の選択を示す入力を受信することが、タッチスクリーン上でタッチイベントを登録することをさらに備える、請求項9に記載の方法。
  14. 前記イメージングデバイスが、モバイルデバイスのカメラアプリケーションの構成要素である、請求項10に記載の方法。
  15. シーン内の複数の関心領域を提案し、前記複数の関心領域から多焦点イメージを生成するための装置であって、
    シーン内の候補関心領域を決定するための手段と、
    シーン内の可能な関心領域から関心領域の提案をディスプレイスクリーン上に示すための手段と、
    複数の関心領域の選択を示す入力を受信するための手段と、
    前記選択された複数の関心領域の各々に関連するオートフォーカスパラメータを決定するための手段と、
    前記関心領域に関連する前記オートフォーカスパラメータを使用して、各関心領域のイメージをキャプチャするための手段と、
    各関心領域を含む前記イメージからのイメージデータを含む多焦点イメージを生成するための手段と
    を備える、装置。
  16. センサーを備えるイメージングデバイスをさらに備え、ここにおいて、前記装置が、前記イメージングデバイスと前記関心領域に関連する前記オートフォーカスパラメータとを使用して各関心領域のイメージをキャプチャするための手段をさらに備える、請求項15に記載の装置。
  17. プレビューモードにおいて前記イメージングデバイスを動作させるための手段をさらに備える、請求項16に記載の装置。
  18. 顔検出アルゴリズムまたはオブジェクトトラッキングアルゴリズムを使用してシーン内の前記関心領域を決定するための手段をさらに備える、請求項15に記載の装置。
  19. 前記プレビューモードにおいて前記提案された複数の関心領域をユーザにグラフィカルに表示するための手段をさらに備える、請求項17に記載の装置。
  20. タッチスクリーンをさらに備え、ここにおいて、前記装置が、前記タッチスクリーン上でタッチイベントを登録することによって、複数の関心領域の選択を示す入力を受信するための手段をさらに備える、請求項15に記載の装置。
  21. シーン内の候補関心領域を決定することに関する入力を受信するための手段をさらに備える、請求項15に記載の装置。
  22. 実行されたとき、
    シーン内の候補関心領域を決定することと、
    シーン内の可能な関心領域から関心領域の提案をディスプレイスクリーン上に示すことと、
    複数の関心領域の選択を示す入力を受信することと、
    前記選択された複数の関心領域の各々に関連するオートフォーカスパラメータを決定することと、
    前記関心領域に関連する前記オートフォーカスパラメータを使用して、各関心領域のイメージをキャプチャすることと、
    各関心領域を含む前記イメージからのイメージデータを含む多焦点イメージを生成することと
    を備える方法を少なくとも1つの物理的コンピュータプロセッサに実行させる命令を記憶する非一時的コンピュータ可読媒体。
  23. 前記方法が、プレビューモードにおいてイメージングデバイスを動作させることをさらに備える、請求項22に記載の非一時的コンピュータ可読媒体。
  24. 前記方法が、顔検出アルゴリズムまたはオブジェクトトラッキングアルゴリズムを使用してシーン内の前記関心領域を決定することをさらに備える、請求項22に記載の非一時的コンピュータ可読媒体。
  25. 前記方法が、前記プレビューモードにおいて前記提案された関心領域をユーザにグラフィカルに表示することをさらに備える、請求項23に記載の非一時的コンピュータ可読媒体。
  26. 前記方法が、シーン内の候補関心領域を決定することに関する入力を受信することをさらに備える、請求項22に記載の非一時的コンピュータ可読媒体。
  27. タッチスクリーン上でタッチイベントを登録することによって、複数の関心領域の選択を示す入力を受信することをさらに備える、請求項22に記載の非一時的コンピュータ可読媒体。
JP2016560451A 2014-04-03 2015-03-25 多焦点イメージングのためのシステムおよび方法 Active JP6594897B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/244,595 2014-04-03
US14/244,595 US9538065B2 (en) 2014-04-03 2014-04-03 System and method for multi-focus imaging
PCT/US2015/022418 WO2015153218A1 (en) 2014-04-03 2015-03-25 System and method for multi-focus imaging

Publications (3)

Publication Number Publication Date
JP2017518658A true JP2017518658A (ja) 2017-07-06
JP2017518658A5 JP2017518658A5 (ja) 2018-04-12
JP6594897B2 JP6594897B2 (ja) 2019-10-23

Family

ID=52875272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016560451A Active JP6594897B2 (ja) 2014-04-03 2015-03-25 多焦点イメージングのためのシステムおよび方法

Country Status (8)

Country Link
US (1) US9538065B2 (ja)
EP (1) EP3127320B1 (ja)
JP (1) JP6594897B2 (ja)
KR (1) KR102326718B1 (ja)
CN (2) CN110572574A (ja)
CA (1) CA2941143C (ja)
ES (1) ES2768712T3 (ja)
WO (1) WO2015153218A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10558848B2 (en) 2017-10-05 2020-02-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
US20170054897A1 (en) * 2015-08-21 2017-02-23 Samsung Electronics Co., Ltd. Method of automatically focusing on region of interest by an electronic device
TWI706181B (zh) * 2015-09-11 2020-10-01 新加坡商海特根微光學公司 具有自動對焦控制的成像裝置
US10033917B1 (en) 2015-11-13 2018-07-24 Apple Inc. Dynamic optical shift/tilt lens
CN105528786B (zh) 2015-12-04 2019-10-01 小米科技有限责任公司 图像处理方法及装置
US10630903B2 (en) * 2018-01-12 2020-04-21 Qualcomm Incorporated Systems and methods for image exposure
US10948983B2 (en) * 2018-03-21 2021-03-16 Samsung Electronics Co., Ltd. System and method for utilizing gaze tracking and focal point tracking
WO2020042126A1 (zh) * 2018-08-30 2020-03-05 华为技术有限公司 一种对焦装置、方法及相关设备
US10848832B2 (en) * 2018-09-11 2020-11-24 Opentv, Inc. Selection interface with synchronized suggestion elements
KR102592595B1 (ko) * 2018-12-07 2023-10-23 한국전자통신연구원 영상 내 문자 자동번역 시스템 및 방법
CN109561255B (zh) * 2018-12-20 2020-11-13 惠州Tcl移动通信有限公司 终端拍照方法、装置及存储介质
US10887514B2 (en) * 2018-12-21 2021-01-05 Fuji Xerox Co., Ltd. System and method of providing gaze and awareness for ultra wide and 360 cameras
CN109495689B (zh) * 2018-12-29 2021-04-13 北京旷视科技有限公司 一种拍摄方法、装置、电子设备及存储介质
CN109948606B (zh) * 2019-02-20 2023-09-19 深圳威尔视觉传媒有限公司 基于图像识别自动获取焦点的方法和相关装置
CN109995999A (zh) * 2019-03-14 2019-07-09 Oppo广东移动通信有限公司 场景识别方法、装置、电子设备及存储介质
US10984513B1 (en) 2019-09-30 2021-04-20 Google Llc Automatic generation of all-in-focus images with a mobile camera
CN111246106B (zh) * 2020-01-22 2021-08-03 维沃移动通信有限公司 图像处理方法、电子设备及计算机可读存储介质
CN111263072A (zh) * 2020-02-26 2020-06-09 Oppo广东移动通信有限公司 一种拍摄控制方法、装置及计算机可读存储介质
CN113866974A (zh) * 2020-06-29 2021-12-31 深圳辉煌耀强科技有限公司 应用于宫颈细胞图像的聚焦方法、装置、设备及存储介质
US11272097B2 (en) * 2020-07-30 2022-03-08 Steven Brian Demers Aesthetic learning methods and apparatus for automating image capture device controls
CN112839166B (zh) * 2020-12-02 2023-08-22 维沃移动通信(杭州)有限公司 拍摄方法、装置及电子设备
CN114788254B (zh) * 2020-12-16 2024-04-30 深圳市大疆创新科技有限公司 辅助对焦方法、装置及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012217101A (ja) * 2011-04-01 2012-11-08 Canon Inc 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
JP2014207502A (ja) * 2013-04-10 2014-10-30 シャープ株式会社 撮像装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6975352B2 (en) 2000-12-18 2005-12-13 Xerox Corporation Apparatus and method for capturing a composite digital image with regions of varied focus and magnification
US20040130649A1 (en) 2003-01-03 2004-07-08 Chulhee Lee Cameras
US7711259B2 (en) 2006-07-14 2010-05-04 Aptina Imaging Corporation Method and apparatus for increasing depth of field for an imager
JP4218720B2 (ja) * 2006-09-22 2009-02-04 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
CN101272511B (zh) * 2007-03-19 2010-05-26 华为技术有限公司 图像深度信息和图像像素信息的获取方法及装置
KR100811796B1 (ko) * 2007-03-30 2008-03-10 삼성전자주식회사 휴대 단말기 및 그의 초점 정보를 이용한 영상 표시 방법
KR101431535B1 (ko) * 2007-08-30 2014-08-19 삼성전자주식회사 얼굴인식 기능을 이용한 영상 촬영 장치 및 방법
JP5114175B2 (ja) * 2007-12-11 2013-01-09 株式会社リコー 光走査装置及びカラー画像形成装置
US8154647B2 (en) 2008-03-05 2012-04-10 Applied Minds, Llc Automated extended depth of field imaging apparatus and method
JP4513905B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 信号処理装置、信号処理方法、プログラム及び記録媒体
US8913176B2 (en) 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
US8659697B2 (en) 2010-11-11 2014-02-25 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
US20120120277A1 (en) * 2010-11-16 2012-05-17 Apple Inc. Multi-point Touch Focus
JP5197785B2 (ja) * 2011-03-30 2013-05-15 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
US9501834B2 (en) * 2011-08-18 2016-11-22 Qualcomm Technologies, Inc. Image capture for later refocusing or focus-manipulation
KR101797040B1 (ko) * 2011-11-28 2017-11-13 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
KR101487516B1 (ko) * 2012-09-28 2015-01-30 주식회사 팬택 연속 자동 초점을 이용한 멀티 초점 이미지 캡처 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012217101A (ja) * 2011-04-01 2012-11-08 Canon Inc 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
JP2014207502A (ja) * 2013-04-10 2014-10-30 シャープ株式会社 撮像装置

Also Published As

Publication number Publication date
CN106134176B (zh) 2019-10-01
CA2941143C (en) 2023-04-11
BR112016023059A8 (pt) 2021-07-13
US9538065B2 (en) 2017-01-03
JP6594897B2 (ja) 2019-10-23
CN106134176A (zh) 2016-11-16
CN110572574A (zh) 2019-12-13
BR112016023059A2 (pt) 2017-08-15
US20150288870A1 (en) 2015-10-08
WO2015153218A1 (en) 2015-10-08
EP3127320A1 (en) 2017-02-08
KR20160140684A (ko) 2016-12-07
KR102326718B1 (ko) 2021-11-15
CA2941143A1 (en) 2015-10-08
EP3127320B1 (en) 2019-10-23
ES2768712T3 (es) 2020-06-23

Similar Documents

Publication Publication Date Title
JP6594897B2 (ja) 多焦点イメージングのためのシステムおよび方法
US20210287343A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
USRE46976E1 (en) Image processing device, image processing method, and image processing program
US10353574B2 (en) Photographic apparatus, control method thereof, and non-transitory computer-readable recording medium
RU2612892C2 (ru) Способ автоматической фокусировки и устройство автоматической фокусировки
JP6244655B2 (ja) 画像処理装置および画像処理方法
US20190068889A1 (en) Electronic device for storing depth information in connection with image depending on properties of depth information obtained using image and control method thereof
KR101918760B1 (ko) 촬상 장치 및 제어 방법
EP2927787B1 (en) Method and device for displaying picture
JP2017518658A5 (ja)
CN108848367B (zh) 一种图像处理的方法、装置及移动终端
JP6587081B2 (ja) 画像又はビデオをユーザが取り込むのを支援する方法及びシステム
JP2014023083A (ja) 表示装置、撮像装置及び画像編集プログラム
CN107172347B (zh) 一种拍照方法及终端
US20120194709A1 (en) Image pickup apparatus
EP3259658B1 (en) Method and photographing apparatus for controlling function based on gesture of user
JP2011146821A (ja) 触覚情報提示装置、触覚情報提示方法、及びプログラム
KR20150085289A (ko) 촬영 조건을 설정하는 방법 및 이를 수행하는 전자 장치
US20160205386A1 (en) Digital photographing apparatus and control method thereof
JP2014007662A5 (ja)
JP6495451B2 (ja) 方向認識オートフォーカス
US9912858B2 (en) Image capturing apparatus and control method thereof
JP6679430B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
WO2019071492A1 (zh) 一种用于对焦的计算机可读存储介质及智能终端
BR112016023059B1 (pt) Sistema e método para imagens multifocais

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161214

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190925

R150 Certificate of patent or registration of utility model

Ref document number: 6594897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250