JP6682550B2 - 連続オートフォーカスのためのシステムおよび方法 - Google Patents

連続オートフォーカスのためのシステムおよび方法 Download PDF

Info

Publication number
JP6682550B2
JP6682550B2 JP2017547437A JP2017547437A JP6682550B2 JP 6682550 B2 JP6682550 B2 JP 6682550B2 JP 2017547437 A JP2017547437 A JP 2017547437A JP 2017547437 A JP2017547437 A JP 2017547437A JP 6682550 B2 JP6682550 B2 JP 6682550B2
Authority
JP
Japan
Prior art keywords
image
size
region
area
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017547437A
Other languages
English (en)
Other versions
JP2018513992A (ja
JP2018513992A5 (ja
Inventor
デン、ファン
マ、レイ
チャン、リョン・チュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018513992A publication Critical patent/JP2018513992A/ja
Publication of JP2018513992A5 publication Critical patent/JP2018513992A5/ja
Application granted granted Critical
Publication of JP6682550B2 publication Critical patent/JP6682550B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

[0001]この出願は一般にイメージングシステム(imaging systems)に関し、特に連続自動フォーカスに関する物体を追跡することに関する。
[0002]オートフォーカスシステムは物体のフォーカス(focus)を合わせ続けるためにイメージセンサとレンズ素子との間の距離を自動的に調整する。これらのシステムの多くはフォーカスしている画像内の高周波成分に基づいて最良のフォーカスを決定する。たとえば、高周波成分を最大にするレンズ位置は最良のコントラスト比を有する画像を表し、したがってベストフォーカスを表すことができる。しかしながら、既存のオートフォーカスシステムは物体がカメラに対して移動するとフォーカスを失う可能性がある。それゆえ、移動する物体に対してフォーカスを連続的かつ自動的に維持するシステムおよび方法の必要がある。
[0003]本開示のいくつかの実例(sample)の態様の概要が以下に続く。便宜的に、本開示の1つまたは複数の態様はここでは単に「いくつかの態様」と呼ばれることができる。
[0004]ここに開示されている方法、および装置またはデバイスは各々、いくつかの態様を有し、それらのうちのいずれも、その望ましい属性を単独で担いはしない。例えば、後続するクレームによって表される本開示の範囲を限定することなしに、そのより顕著な特徴が簡潔に論述される。本論述を考慮した後、特に「発明を実施するための形態」と題するセクションを読んだ後、当業者は、連続オートフォーカスに関して物体を追跡可能にすることを含むを含む利点を記載された特徴がどのように提供するかを理解するだろう。
[0005]1つの態様はカメラをフォーカスする方法である。種々の実施形態において、方法はシーン(scene)の第1および第2のイメージを連続して撮像することを含むことができる。この方法は、第1の画像内の第1の物体の第1のサイズを決定することをさらに含むことができる。この方法は第2の画像内の第1の物体の第2のサイズを決定することをさらに含むことができる。この方法は、第1のサイズと第2のサイズとの間の差分に基づいてカメラをフォーカスすることをさらに含むことができる。
[0006]いくつかの態様に関して、方法は第1の境界領域(bounding region)が第1の画像内に第1の物体を含むと決定することをさらに含むことができる。いくつかのインプリメンテーションに関して、方法は第2の境界領域が第2の画像内に第1の物体を含むと決定することをさらに含むことができる。いくつかのインプリメンテーションに関して、方法は第1の境界領域と第2の境界領域との間の差分に基づいてカメラをフォーカスすることをさらに含むことができる。
[0007]いくつかのインプリメンテーションにおいて、方法は第1の境界領域のエリアと第2の境界領域のエリアとの間の差分に基づいてカメラをフォーカスすることをさらに含むことができる。
[0008]いくつかのインプリメンテーションに関して、方法は第2の境界領域のエリアと第1の境界領域のエリアとの間の比を決定することをさらに含むことができる。いくつかのインプリメンテーションに関して、方法は比がサイズ減少しきい値未満あるいはサイズ増加しきい値を超えることに基づいてカメラをフォーカスすることをさらに含むことができる。
[0009]いくつかのインプリメンテーションにおいて、方法は差分が領域差分しきい値を超える場合にカメラをフォーカスすることをさらに含むことができる。いくつかのインプリメンテーションにおいて、方法は差分が領域差分しきい値を超えない場合にカメラのフォーカスを維持することをさらに含むことができる。
[0010]いくつかのインプリメンテーションに関して、方法は第1および第2の画像を複数の対応する領域に分割する(segment)ことをさらに含むことができる。いくつかのインプリメンテーションにおいて、方法は第1の画像内の第1の領域が第1の物体を含むと決定することをさら含み、第2の画像内の対応する第2の領域。いくつかのインプリメンテーションに関して、方法は第1の領域と第2の領域内の画像コンテンツ間の第1の差分を決定することをさらに含むことができる。いくつかのインプリメンテーションに関して、方法は画像コンテンツ内の第1の差分に基づいてカメラをフォーカスすることをさらに含むことができる。
[0011]いくつかのインプリメンテーションに関して、方法はカメラをフォーカスするとき、複数の領域のうち第1の物体を含まないと決定された領域を考慮しない(exclude from consideration)ことをさらに含むことができる。
[0012]いくつかのインプリメンテーションに関して、方法は第2の画像内の第3の領域が第1の物体を含むと決定することをさらに含むことができる。いくつかのインプリメンテーションに関して、方法は第3の時間に物体の第3の画像を撮像することをさらに含むことができ、第3の時間は第2の時間の後である。いくつかのインプリメンテーションにおいて、方法は第3の画像内の第4の領域が第3の領域に対応すると決定することをさらに含むことができる。いくつかのインプリメンテーションに関して、方法は第3の領域と第4の領域内の画像コンテンツ間の第2の差分を決定することをさらに含むことができる。いくつかのインプリメンテーションに関して、方法は画像コンテンツ内の第2の差分に応答してカメラをフォーカスすることをさらに含むことができる。
[0013]別の態様は撮像装置である。撮像装置はシーンの第1および第2の画像をシーケンシャルに撮像するように構成されたカメラを含むことができる。撮像装置はカメラと通信しているプロセッサを含むことができる。プロセッサは第1の画像内の第1の物体の第1のサイズを決定するように構成されることができる。プロセッサは第2の画像内の第1の物体の第2のサイズを決定するようにさらに構成されることができる。撮像装置は第1のサイズおよび第2のサイズの間の差分に基づいてカメラをフォーカスするように構成されたカメラコントローラを含むことができる。
[0014]いくつかの態様に関して、プロセッサは第1の境界領域が第1の画像内に第1の物体を含むと決定するようにさらに構成される。いくつかのインプリメンテーションに関して、プロセッサは第2の境界領域が第2の画像内に第1の物体を含むと決定するようにさらに構成される。いくつかのインプリメンテーションに関して、プロセッサは第1の境界領域と第2の境界領域との間の差分に基づいてカメラをフォーカスするようにさらに構成される。
[0015]いくつかのインプリメンテーションに関して、カメラコントローラは、第1の境界領域のエリアと第2の境界領域のエリアとの間の差分に基づいてカメラをフォーカスするようにさらに構成される。
[0016]いくつかのインプリメンテーションに関して、プロセッサは、第2の境界領域のエリアと第1の境界領域のエリアとの間の比を決定するようにさらに構成される。いくつかのインプリメンテーションに関して、カメラコントローラは比がサイズ減少しきい値未満かまたはサイズ増加しきい値を超えることに基づいてカメラをフォーカスするようにさらに構成される。
[0017]いくつかのインプリメンテーションに関して、カメラコントローラは差分が領域差分しきい値を超える場合にカメラをフォーカスするように構成される。いくつかのインプリメンテーションに関して、カメラコントローラは差分が領域差分しきい値を超えない場合にカメラのフォーカスを維持するように構成される。
[0018]いくつかのインプリメンテーションに関して、プロセッサは第1および第2の画像を複数の対応する領域に分割するようにさらに構成される。いくつかのインプリメンテーションに関して、プロセッサは第1の物体を含む第1の画像内の第1の領域と、第2の画像内の対応する第2の領域を決定するようにさらに構成される。いくつかのインプリメンテーションに関して、プロセッサは第1の領域と第2の領域における画像コンテンツ間の第1の差分を決定するようにさらに構成される。いくつかのインプリメンテーションに関して、カメラコントローラは画像コンテンツ内の第1の差分に基づいてカメラをフォーカスするようにさらに構成される。
[0019]いくつかのインプリメンテーションに関して、プロセッサは、カメラをフォーカスするとき、複数の領域のうち第1の物体を含まないと決定された領域を考慮しないようにさらに構成される。
[0020]いくつかのインプリメンテーションに関して、プロセッサは第2の画像内の第3の領域が第1の物体を含むと決定するようにさらに構成される。いくつかのインプリメンテーションに関して、プロセッサは第3の時間に物体の第3の画像を撮像するようにさらに構成され、第3の時間は第2の時間の後である。いくつかのインプリメンテーションに関して、プロセッサは第3の領域に対応する第3の画像内の第4の領域を決定するようにさらに構成され、プロセッサは第3の領域および第4の領域内の画像コンテンツ間の第2の差分を決定するようにさらに構成され、および前記カメラコントローラは画像コンテンツ内の第2の差分に応答してカメラをフォーカスするようにさらに構成される。
[0021]別の態様は撮像装置である。装置はシーンの第および第2の画像を連続的に撮像する手段を含むことができる。装置は第1の画像内の第1の物体の第1のサイズを決定する手段を含むことができる。装置は第2の画像内の第1の物体の第2のサイズを決定する手段を含むことができる。装置は第1のサイズおよび第2のサイズ間の差分に基づいて撮像手段をフォーカスする手段を含むことができる。
[0022]いくつかのインプリメンテーションに関して、撮像手段はカメラを含むことができる。いくつかの態様に関して第1のサイズ決定手段はプロセッサを含むことができる。いくつかの態様に関して第2のサイズ決定手段はプロセッサを含むことができる。いくつかの態様に関して、フォーカス手段はカメラコントローラを含むことができる。
[0023]別の態様は、カメラをフォーカスするための命令を記憶する非一時的コンピュータ可読媒体であり、命令は、実行されると方法を実行する。方法はシーンの第1および第2の画像を連続的に撮像することを含むことができる。方法は第1の画像内の第1の物体の第1のサイズを決定することを含むことができる。方法は、第2の画像内の第1の物体の第2のサイズを決定することを含むことができる。方法は第1のサイズと第2のサイズとの間の差分に基づいてカメラをフォーカスすることを含むことができる。
[0024]シーンの画像を記録することができるイメージングシステム(an imaging system)を含む装置(例えば、モバイル通信デバイス)の例を説明する。 [0025]連続オートフォーカスの物体を追跡するイメージングシステムの一実施形態の一例のブロック図表示。 [0026]連続オートフォーカスの方法の一例を説明するフローチャート。 [0027]3つの異なる時間:物体にフォーカスした後、物体が移動する前、および物体が新しい位置に移動した後、のモニタ領域内の物体を含むシーンの表示。 [0028]モニタ領域内の変化がモニタ領域内のスイッチ並びにフォーカスイベントをトリガする、第1の画像内の第1のモニタ領域内の第1の位置から第2の画像内の第2のモニタ領域内の第2の位置へ移動する物体の表示。 [0029]サイズ比の変化が境界ボックス比減少しきい値未満であるとき、あるいはサイズ比の変化が境界ボックス比増加しきい値より大きいときフォーカスイベントがトリガされる、物体の第1のサイズに比較して異なるサイズ比における境界ボックス内の物体の表示。 [0030]ここに記載される実施形態に従う連続オートフォーカスに関する処理の方法を説明するフローチャート。
詳細な説明
[0031]以下の詳細な記述は本発明のある特定の実施形態に向けられている。しかしながら、本発明は多数の異なる方法で具現化されることができる。ここでの態様は、多種多様な形式に組み込まれ、およびここで開示されるべき任意の特定の構造、機能、またはその両方が単に代表的なものであり得ることはあきらかであるはずである。ここでの教示に基づいて、当業者は、ここに開示された態様が任意の他の態様と独立してインプリメントされることができ、これらの態様の2以上が種々の方法で結合されることができることが理解されるはずである。たとえば、ここに説明される任意の数の態様を使用して、装置がインプリメントされることができ、方法が実施されることができる。さらに、他の構造および機能、または、ここに説明される態様のうちの1つ以上以外の、または、それらに追加された構造および機能を使用して、そのような装置がインプリメントされることができ、そのような方法が実施されることができる。
[0032]さらに、ここに記載されるシステムおよび方法はカメラを設ける(host)多種多様の異なるコンピューティングデバイス上にインプリメントされることができる。これらはモバイルフォン、タブレット、専用カメラ、ウェアラブルコンピュータ、パーソナルコンピュータ、フォトブースまたはキオスク、パーソナルデジタルアシスタンツ、ウルトラモバイルパーソナルコンピュータ、およびモバイルインターネットデバイスを含む。それらは汎用または特殊用途のコンピューティングシステム環境または構成を使用することができる。この発明とともに使用するのに適し得るコンピューティングシステム、環境、および/または構成は、限定されるものではないが、パーソナルコンピュータ、サーバーコンピュータ、ハンドヘルドまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースシステム、プログラマブルコンシューマーエレクトロニクス、ネットワークPCs、ミニコンピュータ、メインフレームコンピュータ、上述したシステムまたはデバイスのいずれかを含む分散コンピューティング環境および同様のものを含む。
[0033]オートフォーカスシステムはレンズエレメントとイメージセンサとの間の異なる距離におけるフォーカスパラメータを測定し、フォーカスパラメータを最適化する距離を選択する。たとえば、ピントが合った画像は典型的にピントが合っていない画像よりも高い周波数コンテンツを有するので、フォーカスパラメータは視野の一部内の高周波数コンテンツの測定値であり得る。既存のシステムは視野の一部に基づいてフォーカスパラメータを決定することにより全視野のフォーカスパラメータを測定する計算負荷を低減する。この部分は視野の中央領域、ユーザにより選択された領域、または物体を含む領域であり得る。物体は自動的に(例えば、自動顔認識を用いて)検出されることができまたはユーザにより選択されることができる。中央視野、ユーザにより選択された領域、自動的に検出された物体を含む領域、またはユーザにより選択された物体を含む領域であろうとなかろうと、視野のこの部分に関するフォーカス測定値はレンズエレメントとイメージセンサとの間の異なる差分で計算され、フォーカスパラメータを最適化する距離が選択される。コントローラは画像をフォーカスするために最適なフォーカスパラメータを有する距離にレンズを移動する。しかしながら、既存のオートフォーカスシステムは物体が移動するとフォーカスを失う可能性がある。
[0034]物体は、オートフォーカスシステムによりモニタされる視野の一部内を移動するかあるいはオートフォーカスシステムによりモニタされる視野の一部に移動することができる。側面移動に加えて、物体はカメラに近づくにつれより大きく見えるかあるいはカメラから遠ざかるにつれより小さく見えることができる。これらのイベントの各々は物体がフォーカスを失わさせる可能性がある。それゆえ、ここに開示される連続オートフォーカスシステムは物体が移動するとフォーカスイベントをトリガすることができる。
[0035]フォーカスされる物体はタッチスクリーンを用いて選択されることができるか、または画像処理およびパターン認識技術を用いて自動的に決定されることができる。物体は境界ボックスまたは凸閉包(convex hull)のようなエンクロージャ内に囲まれる(enclose)ことができる。境界ボックス、典型的には、物体を含む小型の方形形状はフォーカスパラメータを測定するために使用されることができる。境界ボックスは最小の境界ボックスであり得る。いくつかの態様において、境界ボックスの側面は画像の縦横(rows and columns)と整列(aligned with)されている。
[0036]連続オートフォーカスシステムは視野を非重畳モニタ領域に分割することができる。たとえば、いくつかのインプリメンテーションは4つの行および4つの列(4×4)から成るモニタ領域を持つことができる。いくつかのインプリメンテーションにおいて、行列の数は、2×2、3×3、4×4、8×8、16×16ように等価であり得、またはその他のインプリメンテーションでは、モニタ領域は非対称であり例えば、2×4または4×2のように配列されることができる。連続オートフォーカスシステムは全視野をモニタする代わりにフォーカスパラメータを決定するためのこれらの領域のサブセットをモニタすることができる。たとえば、いくつかのインプリメンテーションは1、2、3、または4つの領域を測定することができる。たとえば、12の領域を有するインプリメンテーションにおいて、1つの領域のみがモニタされる場合、全視野のわずか1/12がモニタされる。
[0037]開示された連続オートフォーカスシステムは最初に物体を含む可能性のある全領域のサブセットを識別することができる。いくつかのインプリメンテーションに関して、「物体を含む」は物体がたった1つの領域に含まれることを可能にするように定義されることができる。これらのインプリメンテーションは、たとえば、物体のセントロイド(centroid)、境界領域の中心、その他のいかなる領域よりも大きな、物体のエリアの部分、あるいは他のいかなる領域よりも大きな、境界領域のエリアの部分の1つを含むものとして物体を含むことを定義することができる。いくつかのインプリメンテーションに関して、「物体を含む」は物体が2以上の領域に含まれることを可能にするように定義されることができる。これらのインプリメンテーションは、たとえば、物体の一部または境界領域の一部の1つを含むとして物体を含むことを定義することができる。
[0038]物体を含む可能性のある全領域のサブセットを識別した後で、開示されたシステムはサブセットのフォーカスパラメータを用いて物体をフォーカスする。サブセット内ではない他の領域はカメラをフォーカスするとき考慮から排除されることができる。一度フォーカスすると、連続オートフォーカスシステムはフォーカスされたフレームに関するサブセット内の領域を後続の画像内の対応する領域(複数の場合もある)と比較する。差があるとき、たとえば、差がしきい値を超えるとき、連続オートフォーカスシステムはフォーカスイベントをトリガすることができる。物体がモニタされる領域の現在のサブセット内に無い異なる領域に移動する場合には、連続オートフォーカスシステムは領域のサブセット内の新しい領域を含むことができる。さらに、他の領域は、モニタされている領域のサブセットから除去されることができる。フォーカスイベントはまた物体が異なる領域に移動するとトリガされることができる。
[0039]いくつかの態様において、単一の領域がモニタされることができる。これらの態様において、物体が2以上の領域に及ぶ場合、物体に関するモニタ領域は、物体のセントロイドを有する領域、境界ボックスの中心を有する領域、または物体の最大のパーセンテージを有する領域、または物体の境界ボックス/エンクロージャの最大のパーセンテージを有する領域のような基準に基づいて割り当てられることができる。
[0040]連続オートフォーカスシステムは従前のフォーカスイベントからの物体のサイズを追跡することができる。サイズは、たとえば、物体がカメラに近づくまたは遠ざかる場合に変化することができる。物体のサイズは各画像内で直接、または言い換えれば、物体自身の境界アウトライン(boundary outline)に基づいて測定されることができる。代替的に、物体に関する境界ボックス/エンクロージャのサイズは物体の相対サイズを推定するために使用されることができる。境界ボックスのエリア内の変化は従前のフォーカスイベントからの物体サイズ内の変化の推定として使用されることができる。いくつかのインプリメンテーションに関して、連続オートフォーカスシステムは最後のフォーカスイベントからの比またはパーセントのサイズ変化を使用する。
[0041]したがって、いくつかのインプリメンテーションは物体の画像のサイズに変化があるとき、モニタされている領域(複数の場合もある)、すなわち物体が位置している領域(複数の場合もある)に変化があるとき、またはモニタされる領域(複数の場合もある)の画像コンテンツ内に変化があるとき移動物体上のフォーカスを改良するためにフォーカスイベントをトリガする。フォーカスはまた既存システムよりも効率的に、およびより大きな計算効率で達成することができる。
[0042]図1はシーンの画像を記録することができる撮像システムを含む装置(例えば、モバイル通信デバイス)の一例を例示する。装置100はディスプレイ120を含む。装置100はまた図示されない装置の背面にカメラを含むことができる。ディスプレイ120はカメラの視野130内で撮像された画像を表示することができる。装置100内の処理ロジックは視野130を、領域境界140を有する複数の領域に分割することができる。図1は視野130内に物体150、すなわち人を示す。物体150は領域145内にもある。装置100内の処理ロジックは物体150を検出し物体150を包含する境界領域を決定する。いくつかの態様において、決定された領域は多角形または方形であり得る。図示するように、装置100内の処理ロジックは物体150を包含する境界領域(境界ボックス)160を決定した。この例において、境界ボックス160は視野130を構成する画像エレメントの行および列に整列(aligned with)される。いくつかの態様において、境界領域は物体150を包含するのに十分な最適の大きさ(only large enough)であり得、したがって最小の境界ボックスであり得る。
[0043]図2は図1に示される装置100の一実施形態の内部ブロック図である。装置100はカメラ110、ディスプレイ120、ユーザ入力装置240、電子プロセッサ250および電子メモリ260を含む。プロセッサ250はディスプレイ120、カメラ110、ユーザ入力デバイス240、およびメモリ260に動作可能に接続される。カメラ110はレンズ210、カメラコントローラ220、およびイメージングセンサ230を含む。カメラコントローラ220およびイメージングセンサはプロセッサ250と通信している。
[0044]イメージングセンサ(イメージセンサ、センサ)230はセンサ230の分解能により制限された空間分解能で画像を撮像する。センサ116は、各画像フレームに関する露光期間に各ピクセルにおける入射光の強度を決定するコンプリメンタリメタルオキサイドセミコンダクタ(CMOS)技術、または電荷結合素子(CCD)のような半導体技術を使用することができる画素(ピクセル)の行および列を構成することができる。いくつかの実施形態において、入射光はカラー画像を取り込むために1つまたは複数のスペクトル領域にフィルタされることができる。たとえば、センサ116上のバイエルフィルタモザイク(Bayer filter mosaic)は赤、緑、青フィルタを用いて光をフィルタすることができる。フルカラーの3つのバンド画像(band images)を撮像する。
[0045]カメラコントローラ230はフォーカスするためのレンズ210(または少なくとも1つのレンズ素子)の移動、および/または露光(および/または露光期間)を制御するためにどのくらい開口部を開くか、および/または制御センサ230特性(例えば、利得)を動作可能に制御することができる。
[0046]メモリ260はプロセッサ250が機能を実行するように構成するプロセッサ命令を記憶することができる。例えば、命令はカメラ110を用いて1つまたは複数の画像を撮像し、撮像された画像をディスプレイ120上に表示するようにプロセッサを構成することができる。命令はまたここで述べた撮像処理方法を含む、種々の画像処理タスクを実行するようにプロセッサ250を構成することができる。
[0047]いくつかの実施形態に関して、プロセッサ160は以下の図3に描画されたフローチャート内のブロックに関連した機能性を実行(または処理)することができる。たとえば、プロセッサ250は物体を選択する310機能性、物体をフォーカスする320機能性、物体330を有する領域をモニタする330機能性、領域(複数の場合もある)内の画像が変化したかどうかを決定する機能性340、物体の位置を追跡する350機能性、物体領域(複数の場合もある)が変化したかどうかを決定する360機能性、領域(複数の場合もある)を変化させる機能性、オブジェクトサイズを追跡する380機能性、および/またはオブジェクトサイズが変化したかどうかを決定する390機能性を実行(または処理)するように構成されることができる。いくつかの態様において、プロセッサは図7に関して以下に述べた1つまたは複数の機能性を実行するようにメモリ260内に記憶された命令により構成されることができる。
[0048]ディスプレイ120はプロセッサ160からディスプレイ120に通信される画像を表示するように構成される。いくつかのインプリメンテーションに関して、ディスプレイ120はユーザフィードバック、例えば、選択されたフレームセグメントを示すフォーカスのためのタッチ(touch-to-focus)のための注釈を表示する。いくつかのインプリメンテーションに関して、ディスプレイ120はユーザ入力を促すメニューを表示する。
[0049]ユーザ入力デバイス240はユーザ入力を受け取るように構成される。いくつかの実施形態において、ユーザ入力デバイス240はディスプレイ120に含まれるタッチスクリーンである。いくつかのインプリメンテーションにおいて、タッチスクリーン240はユーザからのマルチタッチ入力を受け取る。いくつかのインプリメンテーションにおいて、メモリ260内の命令は、画像内の領域を選択するユーザ入力デバイス240からの入力を受け取るようにプロセッサを構成することができる。選択された領域はユーザカメラをフォーカスしたい物体を含むことができる。いくつかのインプリメンテーションにおいて、複数の領域はディスプレイ120上に表示された画像上に重ね合わせられることができる。ユーザ入力デバイス240は重ね合わされた領域の1つを選択する入力を受信することができる。次に、選択された領域はカメラ110のフォーカスを決定するためにプロセッサ250により使用されることができる。
[0050]図3は連続オートフォーカスに関する例示方法300のフローチャートである。ブロック310において、方法300は物体を選択する。方法300は自動的にまたは手動で物体を選択することができる。いくつかの態様において、プロセッサ250は画像内の複数の明暗度(intensity values)に基づいて物体検出または物体認識システムを用いて自動的に物体を選択することができる。いくつかの態様に関して、プロセッサ250は物体を識別するために顔認識技術を用いることができる。物体を自動的に識別するために取られる手法はアプリケーションまたはコンテキストに依存することができ、それはユーザ入力デバイス240を介してユーザ選択可能であり得る。
[0051]いくつかの態様において、物体の選択はユーザ入力デバイス240から受信された入力に基づくことができる。たとえば、上述したように、ユーザはユーザ入力デバイス240を用いて物体または画像の領域を選択することができる。いくつかの態様において、入力は物体を実質的に包含する境界ボックスのコーナー(corners)を指定することができる。ユーザが画像の領域を選択擦ることを可能にする態様において、プロセッサ250は次にブロック310において物体を選択するために選択された領域内で物体検出を行うことができる。
[0052]ブロック315において、方法300は物体に関するモニタ領域を決定する。いくつかの態様において、イメージングセンサの視野は複数の領域に分割されることができる。これらの領域の1つまたは複数は選択された物体に関するモニタ領域(複数の場合もある)として選択されることができる。上述したように、モニタされた領域(複数の場合もある)は選択された物体のすべてまたは実質的な部分を含むことができる。いくつかの態様において、方法300は例えば、1つまたは複数の選択された領域内の選択された物体の周囲の境界領域を発生することにより、物体を包含することができる。いくつかの態様において、境界領域は最小境界ボックスであり得、および/または多角形または方形のような形状であり得る。いくつかの態様において、境界領域は画像の行および列に整列されることができる。
[0053]ブロック320において、方法300はカメラを物体にフォーカスする。いくつかの態様において、カメラはブロック315において決定されたモニタ領域(複数の場合もある)に基づいて物体にフォーカスされる。例えば、モニタ領域の画像コンテンツはカメラをフォーカスするために評価されることができる。一実施形態において、ブロック320において、方法300は異なる焦点面距離(focal plane distances)を通り、異なる焦点面距離の各々においてモニタされた領域のフォーカスパラメータを測定し、カメラをフォーカスするフォーカス面であるようにフォーカスパラメータを最適化するフォーカスプレーン距離を選択する。例えば、フォーカスパラメータは特定の焦点距離における高周波コンテンツを測定することができる。いくつかの態様において、カメラは、ブロック315および/または370(以下に述べられる)において決定された現在モニタされている領域の部分ではない1つまたは複数の領域の考慮なしにブロック320においてフォーカスされることができる。画像のいくつかの領域はカメラの最良のフォーカス位置を決定することに関連した計算上のオーバヘッドを低減するために考慮から排除されることができる。処理される必要がある画像データの量を低減することにより、オートフォーカスはより迅速かつ効率的に実行されることができる。
[0054]ブロック330において、方法300は物体を含む領域(複数の場合もある)の画像コンテンツをモニタする。上述したように、方法300は撮像された画像を非オーバラップ領域に分割することができる。これらの領域の1つまたは複数はブロック310において選択された物体のロケーション(location)に基づいてモニタリングするために選択されることができる。他の領域はモニタリングから排除されることができる。
[0055]判断ブロック340において、領域内の画像が変化した場合、カメラはブロック320において物体に再フォーカスされる。いくつかの態様において、ブロック340において領域が変化したかどうかはしきい値に対する変化した画像コンテンツの量の比較に基づくことができる。たとえば、変化したピクセルの数がしきい値を超える場合、領域の画像コンテンツは判断ブロック340のいくつかの態様において変化されたと考察される。いくつかの態様は、現在の画像と、従前のフォーカスが適用された画像との間の差分画像を決定することができる。ブロック320によるリフォーカス(refocus)を保証するために画像が十分変化したかどうかを決定するために、差分画像の絶対値は加算されることができ、加算値は領域差分しきい値と比較されることができる。いくつかの態様において、絶対値関数は差分値を二乗するような他の関数に置き換えることができる。いくつかの実施形態において、方法300は露光指数またはフォーカス値のような、1つまたは複数のセンサ230情報統計学(information statistics)における差分を決定する。いくつかの実施形態において、大域的運動(すなわち、ジッタからの)がリフォーカス(refocus)をトリガするので、画像を登録する必要はない。モニタされた領域(複数の場合もある)が実質的に(あるいはしきい値を超えて変化しなかったと判断ブロック340が決定した場合、方法300はブロック330に戻り、それはさらなる連続に撮像された画像を介して領域(複数の場合もある)をモニタし続ける。
[0056]ブロック350は上述した複数の領域内の選択された物体のロケーションを追跡する。選択された物体のロケーションを追跡することは対応する一連の画像フレーム内の物体の現在のロケーションを示す一連の出力を生成することを含むことができる。この一連の出力は次に以下に詳細に述べるように判断ブロック360により評価されることができる。
[0057]ブロック350はインプリメンテーションに依存して種々の方法を用いて複数の領域内の物体のロケーションを追跡することができる。例えば、いくつかの態様において、物体のロケーションは物体の計算されたセントロイドに基づくことができる。これらのインプリメンテーションでは、いずれの領域が物体のセントロイドを保持してもモニタされる領域である。他のすべての領域はこのインプリメンテーションではモニタされなくてよい。
[0058]他の態様は複数の領域を追跡することができる。例えば、いくつかの態様において、物体の少なくとも一部または物体の境界を示す領域を含むすべての領域はモニタされることができる。物体の一部(または物体の境界を示す領域)を含まない領域はこれらのインプリメンテーションではモニタされなくてよい。
[0059]他のインプリメンテーションにおいて、物体に関する一連の境界領域は対応する一連の画像フレームに関して決定されることができる。境界領域の中心点はどの領域(複数の場合もある)に、物体が位置されるかを決定するために使用されることができる。たとえば、中心が新しい領域に入る場合、物体を含む領域(複数の場合もある)は中心が位置する領域を含むように調整されることができる。他の領域は、たとえばこれらの領域がもはや選択された物体のいずれの部分をも含まない場合、物体を含む領域(複数の場合もある)のセットから除去されることができる。
[0060]また選択された物体のサイズは物体を含むと決定された領域に影響を及ぼす可能性がある。例えば、選択された物体がカメラ110方向に移動する場合、それはカメラ110の視野内でより大きくなることができ視野130のより多くの領域(複数の場合もある)を包含することができる。この場合、物体を含む領域(複数の場合もある)は新しい領域を含むように調整されることができる。代替的に、選択された物体がカメラ110からさらに遠くに移動する場合、それは従前の画像フレームよりも少ない領域に含まれることができる。したがって、いくつかのインプリメンテーションでは、物体を含むと決定された領域(複数の場合もある)は、選択された物体のいずれの部分ももはや含まない領域を除去するために調整されることができる。他のインプリメンテーションにおいて、物体がさらに遠くへ移動するにつれ、物体の境界を示す領域のそのセントロイドおよび/または中心は領域を変化させることができる。
[0061]判断ブロック360は、モニタリングブロック330により生成された出力に基づいて、物体のロケーションが異なる領域に変化したかどうかを決定する。ブロック330により生成された現在の物体領域が変化を表す場合、モニタされている領域はブロック370においてアップデートされることができる。いくつかの態様において、ブロック370は、物体を含むと決定された領域ブロック350と一致するようにモニタされた領域のセットをアップデートする。したがって、ブロック370において、1つまたは複数の領域は、例えば、選択された物体のいずれの部分ももはや含まない場合、または物体のセントロイドが新しい領域に移動した場合、あるいは境界領域の中心が新しい領域に移動した場合、モニタされる領域(複数の場合もある)のセットから除去されることができる。上述したように、インプリメンテーションに基づいて、物体の少なくとも一部を含む領域に基づいて、または物体を実質的に包含する境界領域の中心に基づいて、または物体のセントロイドのロケーションに基づいて、ブロック370においてモニタされた領域のセットに領域を加えることができる。
[0062]物体が現在モニタされている領域内に存在し続けると決定すると判断ブロック360が決定する場合、方法300はブロック350に戻り、さらなる連続した撮像された画像を介して物体のロケーションを追跡し続ける。
[0063]ブロック380において、方法300は物体サイズを追跡する。物体のサイズはインプリメンテーションに応じて種々の方法を用いて決定されることができる。いくつかの実施形態において、方法300は物体を取り囲む(enclose)最小境界ボックスのような、物体を取り囲む境界領域のエリアを追跡する。その結果、サイズは境界領域のエリアに基づく。
いくつかの態様において、サイズは物体自身の実際のサイズ、例えば、物体内に含まれるピクセルまたは画像素子の数に基づいて決定される。
[0064]判断ブロック390において、方法300は従前のフォーカスイベントと現在の画像フレームとの間で物体サイズが変化したかどうかを決定する。いくつかの実施形態に関して、サイズ増加しきい値を超える値だけ従前にフォーカスされた画像フレーム内の従前のサイズ測定値に対して物体のサイズが増加した場合、方法300はブロック320に移動することによりフォーカスイベントをトリガする。サイズ増加しきい値は1.01, 1.05, 1.1, 1.15, 1.2, 1.25, 1.3, 1.35, 1.4 またはそれらの間の任意のしきい値であり得る。たとえば、1.2のしきい値は従前のフォーカスイベントから20%のサイズ増加に相当することができる。いくつかの実施形態に関して、物体のサイズがサイズ減少しきい値を超えて減少される場合、方法300はブロック320に移動することによりフォーカスイベントをトリガする。例えば、いくつかのインプリメンテーションにおいて、サイズしきい値は0.85であり得、最後のフォーカスイベントからサイズのエリアにおいて15%の減少に対応する。他のインプリメンテーションは0.99、0.95、0.9、0.8、0.75またはこれらの値の間の任意のサイズ減少しきい値を利用することができる。物体のサイズが実質的に(あるいは上述したサイズしきい値を超えて)変化しなかったと判断ブロック390が決定した場合、方法300はブロック380に戻り、さらなる連続して撮像された画像における物体のサイズを従前のフォーカスイベントにおける物体のサイズと比較することにより物体のサイズを追跡し続ける。
[0065]図3はブロック330、350、および380の並列動作を例示する。他のインプリメンテーションにおいて、これらの動作は起こった順番に行われても良いし、あるいは異なる順序で行われてもよい。1つのフォーカストリガはフォーカス動作を開始するのに十分なので、フォーカス動作の期間に物体サイズを追跡し、物体ロケーションを追跡し、および領域(複数の場合もある)をモニタする必要はないかもしれない。
[0066]いくつかのインプリメンテーションにおいて、方法300がもはや選択された物体を識別できない(例えば、物体が視野外に移動する、あるいは物体があまりにも小さくなりすぎて追跡できない)場合、プロセス300はブロック310に戻り新しい物体が選択されることができる。
[0067]図4は3つの異なる時間:物体150をフォーカスした後、物体450aが移動する前、および物体450bが移動した後にモニタ領域145内の物体150/450a/450bを含むシーンの表示である。物体150は物体をフォーカスした後位置151で開始する。物体450aとして表される同じ物体は移動する前の位置151のままである。物体450bとして表される同じ物体は位置152に移動する。物体450aが位置151に留まっている間領域145内の画像は変化しなかったので、物体はフォーカスに止まり、プロセッサ250はフォーカスイベントをトリガしなかった。しかしながら、物体が位置151から位置152に移動すると領域145内の画像は変化した。この変化は画像コンテンツの差分が画像差分しきい値を超えたのでフォーカスイベントをトリガした。
[0068]図5は、モニタ領域内の変換がモニタ領域内のスイッチ並びにフォーカスイベントをトリガする、第1の画像内の第1のモニタ領域内の第1の位置から第2の画像内の第2のモニタ領域内の第2の位置へ移動する物体の表示である。図5はシーン内の物体150の2つの画像を示す。フォーカス後、中心点170を有する境界ボックス160内の物体150はモニタ領域145内にある。次の画像において、物体150は矢印180に沿ってモニタ領域545に移動する。この第2の画像はシーン内の同じ人物に対応する物体154である。この第2の画像は中心点174を有する境界ボックス164内の物体154を示す。境界ボックス174の中心点は領域545内にあるので、連続オートフォーカスシステムは領域145から領域545へモニタ領域を切り替えフォーカスイベントをトリガする。
[0069]図6は選択された物体150のサイズの変化はフォーカスイベントをトリガすることができる。図6において、物体a−gは多種多様のサイズで描かれた同じ物体として示される。物体150a−gの各々は対応する境界ボックス660a−gにより囲まれている。物体150dは開始サイズ(または位置)を表す。この例において、カメラは最初に物体150dにフォーカスされることができる。物体150d上のイニシャルフォーカスはハッシュマーク(hash mark)620により表される。物体150dの右にある物体、すなわち150e−gは物体150よりも相対的に大きく、物体150dの左側にある物体、すなわち150a−cは物体150dよりも相対的に小さい。
[0070]いくつかのインプリメンテーションにおいて、物体150dのサイズはサイズが変化するので(例えば、右側の位置により表される、すなわち150e−g)、いくつかのインプリメンテーションは物体150dと、たとえば物体150eとの間のサイズ比を決定することができる。いくつかの態様において、サイズ比は被写体(subjects)150dおよび150e自体のエリアに基づく。他の態様において、サイズ比は境界ボックス660dおよび660eのエリアの比に基づく。いくつかの態様において、サイズまたは比の変化がしきい値よりも大きいとき、図4およびブロック380および390に関して上述したように、フォーカスイベントがトリガされる。
[0071]図6において、物体150eは物体150dよりも大きいけれども、サイズは例示されたインプリメンテーションでは、サイズしきい値を超えるほど実質的に十分でない。したがって、物体150dと150eの間のサイズの変化がフォーカスイベントをトリガしない。しかしながら、物体が物体150fで表されるようにサイズにおいてさらに増加すると、物体150dと150fとの間のサイズの差分はサイズ増加しきい値を超え、フォーカスイベントがトリガされる。これはハッシュマーク630で表される。物体が150fから150gにサイズにおいてさらに増加すると、フォーカスイベントはトリガされない。これは、物体150fと150gとの間のサイズ比が例示されたインプリメンテ―ションで使用されたサイズ比未満であることによるかもしれない。サイズ比は最後のフォーカスイベントが実行されたときの物体のサイズに基づくことに留意する必要がある。したがって、ハッシュマーク620により表されるように物体150dはフォーカスイベントが適用された最後の物体であったので、物体150eのサイズおよび物体150fのサイズは両方とも物体150dのサイズと比較される。対称的に、ハッシュマーク640により表されるように、物体150fはフォーカスが適用された最期の物体であったので、物体150gのサイズは物体150fと比較される。
[0072]物体のサイズが減少すると類似のプロセスが使用される。たとえば、物体150cにより表されるサイズに対して物体150dのサイズが変化した場合、サイズ比は物体150dのサイズと物体150cのサイズとの間で決定されることができる。この差はサイズ減少しきい値に比較されることができ、差がしいきい値を超えた場合、フォーカスイベントはトリガされることができる。この例において、物体150dと150cとの間のハッシュマークの欠如に基づいて、150dから150cへの変化に基づくイベントはトリガされない。同様に、物体150dと150bとの間のサイズの差分は依然として例示実施例のサイズしきい値を超えないので、150cから150bへのさらなるサイズの減少は依然としてフォーカスイベントを生じない。しかしながら、物体150aで表されるように物体のサイズがさらに減少されると、ハッシュマーク610により表されるように物体150aと150dとの間の差分がサイズしきい値を超え、フォーカスイベントがトリガされる。サイズの増加とサイズの減少は共にサイズ差分としきい値との間の比較を生じるけれども、各ケースに関して異なるしきい値を用いてもよい。たとえば、いくつかのインプリメンテーションは、フォーカスイベントをトリガするために10%のサイズ増加または1.1の比を用いてもよいし、フォーカスイベントをトリガするために8%のサイズ減少または0.92の比を用いてもよい。他のインプリメンテーションはサイズの増加及び減少に関して類似のしきい値を使用することができる。たとえば、いくつかのインプリメンテーションはフォーカスイベントをトリガするために9%の増加または減少を使用することができる。
[0073]図7はここに記載された実施形態に従う連続オートフォーカスの方法700を例示するフローチャートである。いくつかの態様において、図2のメモリ260に記憶された命令は方法700の機能を実行するようにプロセッサ250を構成する。いくつかの態様において、方法700と図3の方法300は同じ方法の統合または一部である。例えば、方法300の「物体サイズ追跡」ブロック380およびブロック390は以下に記載される方法700の少なくともブロック720−740に対応することができる。
[0074]ブロック710において、方法700はシーンの第1および第2の画像を連続的に撮像する。いくつかのインプリメンテーションにおいて、ブロック710の機能性の少なくともいくつかは図2に例示されるカメラ110により実行されることができる。例えば、幾つかの態様において、メモリ260に記憶されたプロセッサ命令は第1および第2の画像を撮像するようにカメラ110を制御するようにプロセッサ250を構成することができる。
[0075]ブロック720において、方法700は第1の画像内の第1の物体の第1のサイズを決定する。いくつかの態様において、ブロック720の機能性は図2に例示されるプロセッサ250により実行されることができる。上述したように、いくつかの態様において、第1のサイズは、第1の画像内の第1の物体の境界を示す領域のエリアに基づくか、あるいは第1の画像内の第1の物体自身のエリアにもとづく。たとえば、エリアは第1の画像内の第1の物体を表すピクセルまたは画像素子の数に基づくことができる。
[0076]ブロック730において方法700は第2の画像内の第1の物体の第2のサイズを決定する。いくつかの態様において、ブロック730の機能性は図2に例示されるプロセッサ250により実行されることができる。上述したように、いくつかの態様において、第2のサイズは、第2の画像内の第1の物体の境界を示す領域のエリアに基づくかまたは第2の画像内の第1の物体自身のエリアに基づく。
[0077]ブロック740において、方法700は第1のサイズと第2のサイズとの間の差分に基づいてカメラをフォーカスする。例えば、ブロック740は図3および/または図6のブロック380および390に関して上述したようにカメラをフォーカスすることができる。
[0078]いくつかの態様において、第1の画像と第2の画像との間の比は1つまたは複数のしきい値と比較される。たとえば、いくつかのインプリメンテーションにおいて、第1のしきい値は1未満であり得、カメラをリフォーカスすべき程度まで第1の画像に比べて第2の画像内の物体のサイズが低減されたかどうかを制御することができる。このインプリメンテーションにおいて、比は、第1の画像内の物体のサイズに比較した第2の画像内の第1の物体のサイズを表すことができる。この比が第1のしきい値より小さければ、フォーカスイベントがトリガされることができる。同様に、この比は1より大きい第2のしきい値に比較されることができる。比が第2のしきい値を超える場合、いくつかのインプリメンテーションは、カメラがリフォーカスされるべき程度にまで第2の画像内の物体のサイズが第1の画像内の物体よりも大きいと決定することができる。いくつかのインプリメンテーションにおいて、1つのしきい値は2つの計算された比と比較されることができる。例えば、第1の比は第1のサイズ/第2のサイズを表すことができ、一方第2の比は第2のサイズ/第1のサイズを表すことができる。
[0079]当業者は、単一の計算された比により表される第1のサイズと第2のサイズとの間の関係を逆にすることができる、すなわち、他のインプリメンテーションの逆の比が第2画像内の物体のサイズに比較された第1画像内の第1の物体のサイズを表すことができることを理解するであろう。これらのインプリメンテーションにおいて、当業者は2つのしきい値は上述したフォーカスイベントを達成するために識別されることができることを理解するであろう。
[0080]いくつかのインプリメンテーションにおいて、ブロック720の機能性は図2に例示されるカメラコントローラ220により実行されることができる。いくつかのインプリメンテーションにおいて、ブロック720はカメラコントローラ220と組み合わされたプロセッサ250により実行されることができる。例えば、プロセッサ250は第1のサイズと第2のサイズとの間の差分を決定することができ、その差分が1つまたは複数のしきい値とどのように比較されるかに依存してカメラコントローラ110にカメラをフォーカスするように命令することができる。
[0081]方法700のいくつかの態様はブロック330/340および/または350/360/370に関して上述した1つまたは複数の機能を含むことができる。
[0082] 本明細書において、例えば、「第1の」、「第2の」等のような指定を用いた、要素に対するいずれの参照も、一般に、これら要素の数も順序も限定しないことが理解されるべきである。むしろ、これらの指定は、2つ以上の要素または要素の事例の間で区別する便利な方法としてここで使用されうる。したがって、第1の要素および第2の要素への参照は、そこで2つの要素のみしか適用できないことも、何らかの方法で第1の要素が第2の要素に先行しなければならないことも、意味していない。また、特に明記されていない限り、要素のセットは、1つまたは複数の要素を備えうる。さらに、明細書または特許請求の範囲の中で使用される「A、B、またはCのうちの少なくとも1つ」という形態の用語は、「AまたはBまたはC、あるいは、これら要素の任意の組み合わせ」を意味している。
[0083]本明細書で使用される場合、「決定すること」という用語は、多種多様なアクションを包含する。例えば、「決定すること」は、計算すること、コンピュータで計算すること、処理すること、抽出すること、調査すること、検索すること(例えば、テーブル、データベースまたは別のデータ構造で検索すること)、確認すること、などを含み得る。同様に、「決定すること」は、受信すること(例えば、情報を受信すること)アクセスすること(例えば、メモリ内のデータにアクセスすることを)を含み得る。また、「決定すること」は、解決すること、選択すること、選ぶこと、確立することなどを含みうる。
[0084]本明細書で使用される場合、項目のリスト「のうちの少なくとも1つ」を指すフレーズは、単一のメンバを含む、それらの項目の任意の組み合わせを指す。例として、「a、b、またはcのうちの少なくとも1つ」は、a、b、c、a−b、a−c、b−c、およびa−b−cをカバーするように意図される。
[0085]上記で説明された方法の様々な動作は、様々なハードウェアおよび/またはソフトウェアの(1つ以上の)コンポーネント、回路、および/または(1つ以上の)モジュール等の、それらの動作を行うことができるあらゆる適した手段によって行われうる。概して、図面中に例示された任意の動作は、動作を遂行することが可能である対応する機能的な手段によって遂行されうる。
[0086]本開示に関連して説明された、さまざまな例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス(PLD)、ディスクリートゲートまたはトランジスタロジック、ディスクリートハードウェアコンポーネント、あるいはここで説明された機能を実行するように設計されたこれらの任意の組み合わせを用いてインプリメントまたは実行され得る。汎用プロセッサは、マイクロプロセッサでありうるが、代替では、プロセッサは、任意の市販のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシンでありうる。プロセッサはまた、コンピューティングデバイスの組み合わせ、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと連携した1つまたは複数のマイクロプロセッサ、あるいはその他任意のこのような構成としてインプリメントされ得る。
[0087]1つ以上の態様では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらのあらゆる組み合わせで実行されうる。ソフトウェア内においてインプリメントされる場合、機能は、コンピュータ可読媒体上における1つまたは複数の命令またはコードとして記憶または送信されうる。コンピュータ可読媒体は、1つの場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体とコンピュータ記憶媒体の両方を含む。記憶媒体は、コンピュータによってアクセスされることができる任意の利用可能な媒体であり得る。限定ではなく例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光ディスク記憶装置、磁気ディスク記憶装置または他の磁気記憶デバイス、あるいは命令もしくはデータ構造の形で所望のプログラムコードを搬送または記憶するために使用されることができ、コンピュータによってアクセスされることができる任意の他の媒体を備えることができる。また、任意の接続は、厳密にはコンピュータ可読媒体と称される。例えば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波のようなワイヤレス技術を使用して、ウェブサイト、サーバ、またはその他の遠隔ソースから送信される場合には、この同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波のようなワイヤレス技術は、送信媒体の定義に含まれる。ディスク(disk)およびディスク(disc)は、本明細書で使用される場合、コンパクトディスク(CD)(disc)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(DVD)(disc)、フロッピー(登録商標)ディスク(disk)、およびBlu−ray(登録商標)(ディスク(disc)を含み、ここで、ディスク(disk)は通常、磁気的にデータを再生するが、その一方でディスク(disc)は、レーザーを用いて光学的にデータを再生する。このことから、いくつかの態様では、コンピュータ可読媒体は、非一時的なコンピュータ可読媒体(例えば、有形媒体)を備えうる。加えて、いくつかの態様では、コンピュータ可読媒体は、一時的コンピュータ可読媒体(例えば、信号)を備えうる。上記の組み合わせはまた、コンピュータ可読媒体の範囲内に含まれるべきである。
[0088]ここに開示された方法は、説明された方法を達成するための1つまたは複数のステップまたは動作(action)を備える。方法のステップおよび/またはアクションは、特許請求の範囲から逸脱することなしに互いに置き換えられうる。言い換えると、ステップまたはアクションの特定の順序が指定されない限り、特定のステップおよび/またはアクションの順序および/または使用は、請求項の範囲から逸脱することなく変更され得る。
[0089]さらに、ここで説明された方法および技法を実行するためのモジュールおよび/または他の適切な手段は、適宜、ユーザ端末および/または基地局によって、ダウンロードされ得ること、および/または、別の方法で取得され得ることが理解されるべきである。例えば、そのようなデバイスは、本明細書に説明された方法を遂行するための手段の転送を容易にするために、サーバに結合されることができる。代替として、本明細書に説明された様々な方法は、記憶手段をデバイスに結合または提供する際にユーザ端末および/または基地局が様々な方法を取得することができるように、記憶手段(例えば、RAM、ROM、コンパクトディスク(CD)またはフロッピーディスクのような物理的記憶媒体、等)を介して提供されることができる。その上、本明細書に説明された方法および技法をデバイスに提供するための任意の他の適した技法が利用されることができる。
[0090]特許請求の範囲は、上記に例示されたとおりの構成およびコンポーネントに限定されないことが理解されるべきである。様々な修正、変更、および変形が、上記に説明された方法および装置の配置、動作および詳細において、特許請求の範囲から逸脱することなく行われうる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]カメラをフォーカスする方法において、
シーンの第1および第2の画像を連続的に撮像することと、
前記第1の画像内の第1の物体の第1のサイズを決定することと、
前記第2の画像内の前記第1の物体の第2のサイズを決定することと、
前記第1のサイズと前記第2のサイズとの間の差分に基づいてカメラをフォーカスすることと、
を備えた方法。
[C2]
第1の境界領域が前記第1の画像内に前記第1の物体を含むことを決定することと、
第2の境界領域が前記第2の画像内に前記第1の物体を含むことを決定することと、
前記第1の境界領域と前記第2の境界領域との間の差分に基づいて前記カメラをフォーカスすることと、
をさらに備えたC1の方法。
[C3]
前記第1の境界領域のエリアと前記第2の境界領域のエリアとの間の差分に基づいて前記カメラをフォーカスすることをさらに備えたC2の方法。
[C4]
前記第2の境界領域のエリアと前記第1の境界領域のエリアとの間の比を決定することと、
前記比がサイズ減少しきい値未満またはサイズ増加しきい値を超えることに応答して前記カメラをフォーカスすることと、
をさらに備えた、C2の方法。
[C5]
前記差分が領域差分しきい値を超える場合前記カメラをフォーカスすることと、
前記差分が前記領域差分しきい値を超えない場合前記カメラの前記フォーカスを維持することと、
をさらに備えたC2の方法。
[C6]
前記第1および第2の画像を複数の対応する領域に分割することと、
前記第1の画像内の第1の領域が前記第1の物体を含み、前記第2の画像内の対応する第2の領域を決定することと、
前記第1の領域および前記第2の領域内の画像コンテンツ間の第1の差分を決定することと、および
画像コンテンツ内の前記第1の画像に基づいて前記カメラをフォーカスすることと、
をさらに備えたC1の方法。
[C7]
前記カメラをフォーカスするとき、前記複数の領域のうち前記第1の物体を含まないと決定された領域を考慮から排除することをさらに備えた、C6の方法。
[C8]
前記第2の画像内の第3の領域が前記第1の物体を含むと決定することと、
第3の時間に前記物体の第3の画像を撮像することと、ここにおいて前記第3の時間は前記第2の時間の後である、
前記第3の領域に対応する、前記第3の画像内の第4の領域を決定することと、
前記第3の領域および前記第4の領域内の画像コンテンツ間の第2の差分を決定することと、および
画像コンテンツ内の前記第2の差分に応答して前記カメラをフォーカスすることと、
をさらに備えた、C6の方法。
[C9]
シーンの第1および第2の画像を連続的に撮像するように構成されたカメラと、
前記第1の画像内の第1の物体の第1のサイズを決定するように構成された、カメラと通信しているプロセッサと、ここにおいて前記プロセッサは前記第2の画像内の前記第1の物体の第2のサイズを決定するようにさらに構成される、および
前記第1のサイズと前記第2のサイズとの間の差分に基づいて関カメラをフォーカスするように構成されたカメラコントローラと、
を備えたイメージング装置。
[C10]
前記プロセッサは前記画像内の前記第1の物体を含む第1の境界領域を決定し、および前記第2の画像内の前記第1の物体を含む第2の境界領域を決定するようにさらに構成され、
前記カメラコントローラは前記第1の境界領域と前記第2の境界領域との間の差分に基づいて前記カメラをフォーカスするようにさらに構成される、C9のイメージング装置。
[C11]
前記カメラコントローラは、前記第1の境界領域のエリアと前記第2の境界領域のエリアとの間の差分に基づいて前記カメラをフォーカスするようにさらに構成される、C10のイメージング装置。
[C12]
前記プロセッサは、前記第2の境界領域のエリアと前記第1の境界領域のエリアとの間の比を決定するようにさらに構成され、前記カメラコントローラは前記比がサイズ減少しきい値未満であるかまたはサイズ増加しきい値を超えることに基づいて前記カメラをフォーカスするようにさらに構成される、C11のイメージング装置。
[C13]
前記カメラコントローラは、前記差分が領域差分しきい値を超える場合に前記カメラをフォーカスするように、および前記差分が前記領域しきい値を超えない場合に前記カメラの前記フォーカスを維持するようにさらに構成されるC12のイメージング装置。
[C14]
前記プロセッサは、
前記第1および第2の画像を複数の対応する領域に分割し、
前記第1の物体を含む前記第1の画像内の第1の領域と、前記第2の画像内の対応する第2の領域を決定し、
前記第1の領域と前記第2の領域における画像コンテンツの間の第1の差分を決定するようにさらに構成され、
前記カメラコントローラは画像コンテンツ内の前記第1の差分に基づいて前記カメラをフォーカスするようにさらに構成される、C9のイメージング装置。
[C15]
前記プロセッサは前記カメラをフォーカスするとき複数の領域のうち前記第1の物体を含まないと決定された領域を考慮から排除するようにさらに構成されるC14の装置。
[C16]
前記第2の画像内の第3の領域が前記第1の物体を含むと決定し、
第3の時間に前記物体の第3の画像を撮像し、ここにおいて前記第3の時間は前記第2の時間の後である、
前記第3の領域に対応する前記第3の画像内の第4の領域を決定し、および
前記第3の領域および前記第4の領域内の画像コンテンツ間の第2の差分を決定するようにさらに構成され、
前記カメラコントローラは画像コンテンツ内の前記第2の差分に応答して前記カメラをフォーカスするようにさらに構成される、C14の装置。
[C17]
シーンの第1および第2の画像を連続的に撮像する手段と、
前記第1の画像内の第1の物体の第1のサイズを決定する手段と、
前記第2の画像内の前記第1の物体の第2のサイズを決定する手段と、
前記第1のサイズと前記第2のサイズとの間の差分に基づいて前記撮像手段をフォーカスする手段と、
を備えたイメージング装置。
[C18]
前記撮像手段はカメラを備え、前記第1のサイズ決定手段はプロセッサを備え、前記第2のサイズ決定手段は前記プロセッサを備え、前記フォーカス手段はカメラコントローラを備える、C17の装置。
[C19]
実行されるとプロセッサにカメラをフォーカスする方法を実行させる命令を記憶する非一時的コンピュータ可読媒体において、前記方法は、
シーンの第1および第2の画像を連続的に撮像することと、
前記第1の画像内の第1の物体の第1のサイズを決定することと、
前記第2の画像内の前記第1の物体の第2のサイズを決定することと、
前記第1のサイズと前記第2のサイズとの間の差分に基づいて前記カメラをフォーカスすること、
を備える非一時的コンピュータ可読媒体。

Claims (9)

  1. カメラをフォーカスする方法において、
    シーンの画像を撮像することと、
    画像内の物体を選択することと、
    前記撮像された画像を複数の非オーバラップ領域に分割することと、
    前記選択された物体の一部を含む全ての前記非オーバラップ領域のサブセットによって構成される、前記物体をモニタするための前記撮像された画像内のモニタ領域を決定することと、
    前記選択された物体を含むシーンの第1の画像および第2の画像を、前記領域にフォーカスされた前記カメラで連続的に撮像することと、
    前記第1および第2の画像を複数の対応する非オーバラップ領域に分割することと、
    前記選択された物体の一部を含む全ての前記非オーバラップ領域のサブセットによって構成される、前記第1の画像内の第1の領域を決定することと、
    前記第1の領域に対応する、前記第2の画像内の第2の領域を決定することと、
    前記第1の画像および前記第2の画像において、前記物体のロケーションおよび前記物体のサイズを決定することと、ここにおいて、前記物体の前記サイズを決定することは、
    前記第1の画像内の前記物体を取り囲む第1の最小境界領域のエリアを決定することと、
    前記第2の画像内の前記物体を取り囲む第2の最小境界領域のエリアを決定することと
    を備え、
    以下の条件の各々に関して前記第1および第2の画像をモニタすることと、
    しきい値を超える、前記第1および前記第2の領域間の画像コンテンツの変化、
    前記物体の前記ロケーションが、前記1つまたは複数の非オーバラップ領域から別の非オーバラップ領域へ移動する、ここにおいて、前記物体の前記ロケーションは、前記物体のセントロイドまたは前記物体を取り囲む前記境界領域の中心によって決定される、
    前記第1の画像内の前記物体の前記サイズと前記第2の画像内の前記物体の前記サイズとの間の差分が、サイズ増加しきい値を超えるまたはサイズ減少しきい値未満である、ここにおいて、前記差分が、前記サイズ増加しきい値を超えるか、または前記サイズ減少しきい値未満であるかを決定することは、
    前記第2の境界領域の前記エリアと前記第1の境界領域の前記エリアとの比を決定することと、
    前記第2の画像内の前記物体の前記サイズに比較した前記第1の画像内の前記物体の前記サイズにおける前記差分が、サイズ増加しきい値差分を超えるか、またはサイズ減少しきい値差分未満であるかを決定するために、前記比を用いることと
    を備え、
    ここにおいて、前記選択された物体の前記ロケーションが移動したとき、前記選択された物体の一部を含む全ての前記非オーバラップ領域を含むように前記第2の領域を調整し、
    前記条件の1つまたは複数が生じると、前記第2の領域に前記カメラをフォーカスすることと、
    前記選択された物体を含まないと決定された、前記複数の非オーバラップ領域のうちの領域を、前記カメラをフォーカスするとき考慮から排除することと
    を備えた、方法。
  2. 前記第1の境界領域のエリアのサイズと前記第2の境界領域のエリアのサイズとの間の差分に基づいて前記カメラをフォーカスすることと、
    前記第1の境界領域および前記第2の境界領域の前記エリアを決定することと、
    前記第1の境界領域の前記エリアの前記サイズと前記第2の境界領域の前記エリアの前記サイズとの間の前記差分に基づいて、前記第1の画像内の前記物体の前記サイズが前記第2の画像内の前記物体の前記サイズと異なるかどうかを決定することと、
    をさらに備えた請求項1の方法。
  3. 前記第2の画像内の第3の領域が前記第1の物体を含むと決定することと、
    第3の時刻に前記物体の第3の画像を撮像することと、前記第3の時刻は前記第2の時刻の後である、
    前記第3の領域に対応する前記第3の画像内の第4の領域を決定することと、
    前記第3の領域および前記第4の領域において画像コンテンツ間の第2の差分を決定することと、
    前記第2の差分を用いて、前記物体を描画する領域の前記第1および第2の画像内の画像コンテンツの変化がしきい値を超えるかどうかを決定することと
    をさらに備えた、請求項の方法。
  4. シーンの複数の画像を撮像するように構成されたカメラと、
    前記カメラをフォーカスするように構成されたカメラコントローラと、
    シーンの画像を撮像することと、
    画像内の物体を選択することと、
    前記撮像された画像を複数の非オーバラップ領域に分割することと、
    前記選択された物体の一部を含む全ての前記非オーバラップ領域のサブセットによって構成される、前記撮像された画像内のモニタ領域を決定することと、
    前記選択された物体を含むシーンの第1の画像および第2の画像を、前記領域にフォーカスされた前記カメラで連続的に撮像することと、
    前記第1および第2の画像を複数の対応する非オーバラップ領域に分割することと、
    前記選択された物体の一部を含む全ての前記非オーバラップ領域のサブセットによって構成される、前記第1の画像内の第1の領域を決定することと、
    前記第1の領域に対応する、前記第2の画像内の第2の領域を決定することと、
    前記第1の画像および前記第2の画像において、前記物体のロケーションおよび前記物体のサイズを決定することと、ここにおいて、前記物体の前記サイズを決定することは、
    前記第1の画像内の前記物体を取り囲む第1の最小境界領域のエリアを決定することと、
    前記第2の画像内の前記物体を取り囲む第2の最小境界領域のエリアを決定することと
    を備え、
    以下の条件の各々に関して前記第1および第2の画像をモニタすることと、
    しきい値を超える、前記第1および前記第2の領域間の画像コンテンツの変化、
    前記物体の前記ロケーションが、前記1つまたは複数の非オーバラップ領域から別の非オーバラップ領域へ移動する、ここにおいて、前記物体の前記ロケーションは、前記物体のセントロイドまたは前記物体を取り囲む前記境界領域の中心によって決定される、
    前記第1の画像内の前記物体の前記サイズと前記第2の画像内の前記物体の前記サイズとの間の前記差分が、サイズ増加しきい値を超えるまたはサイズ減少しきい値未満である、ここにおいて、前記差分が、前記サイズ増加しきい値または前記サイズ減少しきい値を超えるかどうかを決定することは、
    前記第2の境界領域の前記エリアと前記第1の境界領域の前記エリアとの比を決定することと、
    前記第2の画像内の前記物体の前記サイズに比較した前記第1の画像内の前記物体の前記サイズにおける前記差分が、サイズ増加しきい値差分を超えるか、またはサイズ減少しきい値差分未満であるかを決定するために、前記比を用いることと
    を備え、
    ここにおいて、前記物体の前記ロケーションが移動したとき、前記第2の領域は、前記選択された物体の一部を含む全ての前記非オーバラップ領域を含むように調整され、
    前記条件の1つまたは複数が生じると、前記第2の領域に前記カメラをフォーカスすることと、
    前記選択された物体を含まないと決定された、前記複数の非オーバラップ領域のうちの領域を、前記カメラをフォーカスするとき考慮から排除することと
    を行うように構成された、前記カメラと通信しているプロセッサと
    を備える、撮像装置。
  5. 前記カメラコントローラは、前記第1の境界領域の前記エリアと前記第2の境界領域の前記エリアを決定し、前記第1の境界領域の前記エリアのサイズと前記第2の境界領域の前記エリアのサイズと間の差分に基づいて、前記第2の画像内の前記物体の前記サイズに比較した前記第1の画像内の前記物体の前記サイズにおける差分が、サイズ増加しきい値またはサイズ減少しきい値を超えることを決定するようにさらに構成される、請求項の撮像装置。
  6. 前記プロセッサはさらに、
    前記第2の画像内の第3の領域が前記第1の物体を含むと決定し、
    第3の時刻に前記物体の第3の画像を撮像し、前記第3の時刻は前記第2の時刻の後である、
    前記第3の領域に対応する前記第3の画像内の第4の領域を決定し、
    前記第3の領域と前記第4の領域内の画像コンテンツ間の第2の差分を決定し、
    前記物体を描画する領域の前記第1および第2の画像内の画像コンテンツの変化が前記しきい値を超えるかどうか決定するために前記第2の差分を用いる、
    ようにさらに構成される、請求項の装置。
  7. シーンの画像を撮像する手段と、
    前記撮像された画像を複数の非オーバラップ領域に分割する手段と、
    画像内の物体を選択する手段と、
    前記選択された物体の一部を含む全ての前記非オーバラップ領域のサブセットによって構成される、前記撮像された画像内のモニタ領域を決定する手段と、
    前記選択された物体を含むシーンの前記領域にフォーカスされた、第1の画像および第2の画像を連続的に撮像する手段と、
    前記第1および第2の画像を複数の対応する非オーバラップ領域に分割する手段と、
    前記選択された物体の一部を含む全ての前記非オーバラップ領域のサブセットによって構成される、前記第1の画像内の第1の領域を決定する手段と、
    前記第1の領域に対応する、前記第2の画像内の第2の領域を決定する手段と、
    前記第1の画像および前記第2の画像において、前記物体のロケーションおよび前記物体のサイズを決定する手段と、ここにおいて、前記物体の前記サイズを決定することは、
    前記第1の画像内の前記物体を取り囲む第1の最小境界領域のエリアを決定することと、
    前記第2の画像内の前記物体を取り囲む第2の最小境界領域のエリアを決定することと
    を備え、
    以下の条件の各々に関して前記第1および第2の画像をモニタする手段と、
    しきい値を超える、前記第1および前記第2の非オーバラップ領域間の画像コンテンツの変化、
    前記物体の前記ロケーションが、前記1つまたは複数の非オーバラップ領域の1つから別の非オーバラップ領域へ移動する、ここにおいて、前記物体の前記ロケーションは、前記物体のセントロイドまたは前記物体を取り囲む前記境界領域の中心によって決定される、
    前記第1の画像内の前記物体の前記サイズと前記第2の画像内の前記物体の前記サイズとの間の差分が、サイズ増加しきい値を超えるまたはサイズ減少しきい値未満である、ここにおいて、前記差分が、前記サイズ増加しきい値または前記サイズ減少しきい値を超えるかどうかを決定することは、
    前記第2の境界領域の前記エリアと前記第1の境界領域の前記エリアとの比を決定することと、
    前記第2の画像内の前記物体の前記サイズに比較した前記第1の画像内の前記物体の前記サイズにおける前記差分が、サイズ増加しきい値差分を超えるか、またはサイズ減少しきい値差分未満であるかを決定するために、前記比を用いることと
    を備え、
    ここにおいて、前記物体の前記ロケーションが移動したとき、前記第2の領域は、前記選択された物体の一部を含む全ての前記非オーバラップ領域を含むように調整され、
    前記条件の1つまたは複数が生じると、前記第2の領域に前記撮像する手段をフォーカスする手段と、
    前記選択された物体を含まないと決定された、前記複数の非オーバラップ領域のうちの領域を、前記カメラをフォーカスするとき考慮から排除する手段と
    を備える撮像装置。
  8. 前記撮像する手段はカメラを備え、前記サイズを決定する手段はプロセッサを備え、前記フォーカスする手段はカメラコントローラを備える、請求項の装置。
  9. 実行されるとプロセッサに請求項1ないしのいずれか一項に記載の方法を実行させる命令を記憶する非一時的なコンピュータ可読媒体。
JP2017547437A 2015-03-10 2016-02-23 連続オートフォーカスのためのシステムおよび方法 Active JP6682550B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/643,876 2015-03-10
US14/643,876 US9686463B2 (en) 2015-03-10 2015-03-10 Systems and methods for continuous auto focus (CAF)
PCT/US2016/019142 WO2016144532A1 (en) 2015-03-10 2016-02-23 Systems and methods for continuous auto focus (caf)

Publications (3)

Publication Number Publication Date
JP2018513992A JP2018513992A (ja) 2018-05-31
JP2018513992A5 JP2018513992A5 (ja) 2019-03-07
JP6682550B2 true JP6682550B2 (ja) 2020-04-15

Family

ID=55527641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017547437A Active JP6682550B2 (ja) 2015-03-10 2016-02-23 連続オートフォーカスのためのシステムおよび方法

Country Status (6)

Country Link
US (1) US9686463B2 (ja)
EP (1) EP3269133A1 (ja)
JP (1) JP6682550B2 (ja)
KR (1) KR102580474B1 (ja)
CN (1) CN107258077B (ja)
WO (1) WO2016144532A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012072606A1 (en) * 2010-11-29 2012-06-07 DigitalOptics Corporation Europe Limited Portrait image synthesis from multiple images captured on a handheld device
JP6655869B2 (ja) * 2014-10-09 2020-03-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US11523090B2 (en) 2015-03-23 2022-12-06 The Chamberlain Group Llc Motion data extraction and vectorization
JP6757268B2 (ja) * 2017-01-30 2020-09-16 キヤノン株式会社 撮像装置及びその制御方法
US10645335B2 (en) * 2017-03-22 2020-05-05 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus for generating a single file of two shooting periods
CN107302658B (zh) 2017-06-16 2019-08-02 Oppo广东移动通信有限公司 实现人脸清晰的对焦方法、装置和计算机设备
US10417882B2 (en) * 2017-10-24 2019-09-17 The Chamberlain Group, Inc. Direction sensitive motion detector camera
US10609274B2 (en) 2018-03-30 2020-03-31 Qualcomm Incorporated Systems and methods for autofocus and depth map generation
US10582111B2 (en) 2018-03-30 2020-03-03 Qualcomm Incorporated Systems and methods for autofocus and depth map generation
EP3627511A1 (en) 2018-09-21 2020-03-25 Samsung Electronics Co., Ltd. Method and system for automatically adding effect while recording
US11763209B1 (en) * 2019-03-06 2023-09-19 American Airlines, Inc. Virtual measurement system for baggage management
US11508079B2 (en) * 2019-06-28 2022-11-22 Intel Corporation Parallelism in disparity map generation
JP7327075B2 (ja) * 2019-10-17 2023-08-16 株式会社デンソーウェーブ 撮像装置
CN114567725B (zh) * 2019-10-17 2024-03-05 电装波动株式会社 具备事件相机的摄像装置
KR102374840B1 (ko) * 2020-10-20 2022-03-15 두산중공업 주식회사 딥러닝 학습용 결함 이미지 생성 방법 및 이를 위한 시스템
KR20220101998A (ko) * 2021-01-12 2022-07-19 삼성전자주식회사 자동 초점 조절이 가능한 전자 장치 및 그 동작 방법
CN112995522A (zh) * 2021-04-27 2021-06-18 浙江华创视讯科技有限公司 人脸聚焦方法及装置、电子设备、存储介质

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3733392B2 (ja) * 1996-03-05 2006-01-11 イーストマン コダック カンパニー 画像の構図変化検出方法
JP3732665B2 (ja) 1998-12-22 2006-01-05 株式会社リコー 自動焦点制御装置及びその合焦動作決定方法
US7695166B2 (en) * 2001-11-23 2010-04-13 Derose Anthony Shaped LED light bulb
KR100426174B1 (ko) * 2001-10-29 2004-04-06 삼성전자주식회사 영상압축 알고리즘을 이용한 카메라 제어방법
JP2003215440A (ja) * 2002-01-24 2003-07-30 Casio Comput Co Ltd オートフォーカス方法、及びオートフォーカス装置
JP4429328B2 (ja) * 2007-02-09 2010-03-10 キヤノン株式会社 自動合焦装置とその制御方法並びに撮像装置
US20090009651A1 (en) 2007-07-04 2009-01-08 Sanyo Electric Co., Ltd. Imaging Apparatus And Automatic Focus Control Method
JP5368723B2 (ja) * 2008-04-09 2013-12-18 キヤノン株式会社 撮像装置及びその制御方法
JP2010008620A (ja) * 2008-06-26 2010-01-14 Hitachi Ltd 撮像装置
KR100965320B1 (ko) 2008-10-08 2010-06-22 삼성전기주식회사 연속 오토포커스 자동 제어장치 및 자동 제어방법
US7995909B2 (en) 2008-12-12 2011-08-09 Samsung Electro-Mechanics Co., Ltd. Auto-focusing method
JP5407373B2 (ja) * 2009-02-02 2014-02-05 カシオ計算機株式会社 撮影装置、及びプログラム
US8036522B2 (en) 2009-06-04 2011-10-11 Texas Instruments Incorporated Method and system for auto-focusing
JP5213813B2 (ja) * 2009-08-18 2013-06-19 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP2011234173A (ja) * 2010-04-28 2011-11-17 Panasonic Corp 撮像装置
GB2482290A (en) 2010-07-26 2012-02-01 St Microelectronics Res & Dev Autofocus method using tilted focal plane
US8970770B2 (en) * 2010-09-28 2015-03-03 Fotonation Limited Continuous autofocus based on face detection and tracking
WO2012077435A1 (ja) * 2010-12-09 2012-06-14 富士フイルム株式会社 撮像装置及び主要被写体認識方法
WO2012093663A1 (ja) * 2011-01-06 2012-07-12 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
US9116553B2 (en) 2011-02-28 2015-08-25 AI Cure Technologies, Inc. Method and apparatus for confirmation of object positioning
JP5699806B2 (ja) * 2011-05-27 2015-04-15 株式会社ニコン 撮像装置
US9813607B2 (en) * 2011-12-16 2017-11-07 Nokia Technologies Oy Method and apparatus for image capture targeting
KR20140007529A (ko) * 2012-07-09 2014-01-20 삼성전자주식회사 카메라의 이미지 촬영장치 및 방법
US20140253785A1 (en) 2013-03-07 2014-09-11 Mediatek Inc. Auto Focus Based on Analysis of State or State Change of Image Content
US9477138B2 (en) 2013-06-10 2016-10-25 Apple Inc. Autofocus

Also Published As

Publication number Publication date
KR20170126900A (ko) 2017-11-20
EP3269133A1 (en) 2018-01-17
CN107258077B (zh) 2020-08-11
JP2018513992A (ja) 2018-05-31
US9686463B2 (en) 2017-06-20
KR102580474B1 (ko) 2023-09-19
WO2016144532A1 (en) 2016-09-15
US20160269615A1 (en) 2016-09-15
CN107258077A (zh) 2017-10-17

Similar Documents

Publication Publication Date Title
JP6682550B2 (ja) 連続オートフォーカスのためのシステムおよび方法
CN109671106B (zh) 一种图像处理方法、装置与设备
US9154697B2 (en) Camera selection based on occlusion of field of view
US20210075954A1 (en) All-in-focus implementation
WO2019071613A1 (zh) 一种图像处理方法及装置
KR20140102443A (ko) 카메라를 이용한 물체 추적 방법 및 이를 위한 카메라 시스템
KR20110053348A (ko) 에지 검출을 이용하여 깊이 데이터를 생성하기 위한 시스템 및 방법
US9854174B2 (en) Shot image processing method and apparatus
US20160323505A1 (en) Photographing processing method, device and computer storage medium
CN104902182B (zh) 一种实现连续自动对焦的方法和装置
JP2009192737A (ja) 画像表示装置、画像表示方法、プログラム及び記録媒体
JP5725194B2 (ja) 夜景画像ボケ検出システム
CN102036005A (zh) 处理捕获图像的成像器
KR20100134085A (ko) 디지털 이미지에서 객체 검출 속도 향상을 위한 시스템 및 방법
US8699750B2 (en) Image processing apparatus
JP6270578B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
US20150015771A1 (en) Image-capturing devices and methods
CN114286011B (zh) 对焦方法和装置
KR101812585B1 (ko) Ui 제공 방법 및 이를 적용한 영상 촬영 장치
JP2011193496A (ja) 撮像装置、撮像方法及び撮像プログラム
US10943103B2 (en) Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium
KR101567668B1 (ko) 다중 초점 방식으로 영상을 생성하는 스마트폰 카메라 장치 및 방법
WO2016142757A1 (en) Method for independently determining exposure and focus settings of a digital camera
WO2011024356A1 (ja) 半導体集積回路および静止画像表示方法
CN116076083A (zh) 成像装置,信息处理装置,信息处理方法和程序

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200325

R150 Certificate of patent or registration of utility model

Ref document number: 6682550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250