JP2018538712A - 自動ズームを実施するためのシステムおよび方法 - Google Patents

自動ズームを実施するためのシステムおよび方法 Download PDF

Info

Publication number
JP2018538712A
JP2018538712A JP2018515891A JP2018515891A JP2018538712A JP 2018538712 A JP2018538712 A JP 2018538712A JP 2018515891 A JP2018515891 A JP 2018515891A JP 2018515891 A JP2018515891 A JP 2018515891A JP 2018538712 A JP2018538712 A JP 2018538712A
Authority
JP
Japan
Prior art keywords
zoom
region
electronic device
global motion
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018515891A
Other languages
English (en)
Other versions
JP6469932B2 (ja
Inventor
ガオ、ジンルン
ガオ、ダシャン
ジョン、シン
チ、インヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018538712A publication Critical patent/JP2018538712A/ja
Application granted granted Critical
Publication of JP6469932B2 publication Critical patent/JP6469932B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

電子デバイスが記載される。電子デバイスはプロセッサを含む。プロセッサは、複数の画像を取得するように構成される。プロセッサは、複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得するようにも構成される。プロセッサは、複数の画像のうちの少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得するようにさらに構成される。プロセッサは、グローバル動き情報およびオブジェクト追跡情報に基づいて自動ズームを実施するようにさらに構成される。自動ズームを実施することは、追跡されるオブジェクトを含むズーム領域を生じさせる。プロセッサは、ズーム領域内の追跡されるオブジェクトのロケーションに基づいて、ズーム領域向けの動き応答速度を決定するように構成される。

Description

関連出願
[0001]本出願は、「SYSTEMS AND METHODS FOR PERFORMING AUTOMATIC ZOOM」と題する、2015年9月28日に出願された米国仮特許出願第62/233,594号に関連し、その優先権を主張する。
[0002]本開示は一般に、電子デバイスに関する。より詳細には、本開示は、自動ズームを実施するためのシステムおよび方法に関する。
[0003]いくつかの電子デバイス(たとえば、カメラ、ビデオカムコーダ、デジタルカメラ、セルラーフォン、スマートフォン、コンピュータ、テレビジョン、自動車、パーソナルカメラ、ウェアラブルカメラ、仮想現実デバイス(たとえば、ヘッドセット)、拡張現実デバイス(たとえば、ヘッドセット)、複合現実デバイス(たとえば、ヘッドセット)、アクションカメラ、監視カメラ、搭載カメラ、接続カメラ、ロボット、ドローン、スマートアプリケーション、ヘルスケア機器、セットトップボックスなど)は、画像をキャプチャし、および/または利用する。たとえば、スマートフォンは、静止画像および/またはビデオ画像をキャプチャし、および/または処理することができる。画像は、処理され、表示され、記憶され、および/または送信され得る。画像は、たとえば、風景および/またはオブジェクトを含むシーンを描写し得る。
[0004]いくつかの場合には、自動機能性を提供することが困難な場合がある。たとえば、自動画像キャプチャおよび/または調節を提供することが困難な場合がある。この議論から分かるように、画像キャプチャを向上するシステムおよび方法が有益であり得る。
[0005]電子デバイスが記載される。電子デバイスはプロセッサを含む。プロセッサは、複数の画像を取得するように構成される。プロセッサは、複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得するようにも構成される。プロセッサは、複数の画像のうちの少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得するようにさらに構成される。プロセッサは、グローバル動き情報およびオブジェクト追跡情報に基づいて自動ズームを実施するようにさらに構成される。自動ズームを実施することは、追跡されるオブジェクトを含むズーム領域を生じさせる。プロセッサは、ズーム領域内の追跡されるオブジェクトのロケーションに基づいて、ズーム領域向けの動き応答速度を決定するように構成される。プロセッサは、ズーム領域中の少なくとも2つのゾーンに基づいて、ズーム領域向けの動き応答速度を決定するように構成され得る。
[0006]プロセッサは、カメラ入力の全視野に基づいてオブジェクト追跡を実施するように構成され得る。プロセッサは、グローバル動き情報および追跡されるオブジェクトとズーム領域のアンカーポイントとの間の距離に基づいてズーム領域動きを決定するように構成され得る。プロセッサは、ズーム領域が境界線バッファゾーンに入り、追跡されるオブジェクトが画像境界に向かって移動している場合には、グローバル動きを補償するように構成され得る。
[0007]プロセッサは、追跡領域とズーム領域とのサイズ比が最小ズーム閾未満である場合にはズームを増大するように構成され得る。プロセッサは、サイズ比が最大ズーム閾よりも大きい場合にはズームを低下するように構成され得る。最小ズーム閾と最大ズーム閾との間には、一定の範囲があってよい。
[0008]プロセッサは、履歴テーブルに基づいて自動ズームを実施するように構成され得る。プロセッサは、オブジェクトの動きに基づいて、ズームレベルをフレームごとに調節するように構成され得る。
[0009]方法についても記載される。方法は、複数の画像を取得することを含む。方法は、複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得することも含む。方法は、複数の画像のうちの少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得することをさらに含む。方法は、グローバル動き情報およびオブジェクト追跡情報に基づいて自動ズームを実施することをさらに含む。自動ズームを実施することは、追跡されるオブジェクトを含むズーム領域を生じさせる。自動ズームを実施することは、ズーム領域内の追跡されるオブジェクトのロケーションに基づいて、ズーム領域向けの動き応答速度を決定することを含む。
[0010]コンピュータプログラム製品についても記載される。コンピュータプログラム製品は、命令をもつ非一時的有形コンピュータ可読媒体を含む。命令は、電子デバイスに、複数の画像を取得させるためのコードを含む。命令は、電子デバイスに、複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得させるためのコードも含む。命令は、電子デバイスに、複数の画像のうちの少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得させるためのコードをさらに含む。命令は、電子デバイスに、グローバル動き情報およびオブジェクト追跡情報に基づいて自動ズームを実施させるためのコードをさらに含む。自動ズームを実施することは、追跡されるオブジェクトを含むズーム領域を生じさせる。電子デバイスに、自動ズームを実施させるためのコードは、電子デバイスに、ズーム領域内の追跡されるオブジェクトのロケーションに基づいて、ズーム領域向けの動き応答速度を決定させるためのコードを備える。
[0011]装置についても記載される。装置は、複数の画像を取得するための手段を含む。装置は、複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得するための手段も含む。装置は、複数の画像のうちの少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得するための手段をさらに含む。装置は、グローバル動き情報およびオブジェクト追跡情報に基づいて自動ズームを実施するための手段をさらに含む。自動ズームを実施することは、追跡されるオブジェクトを含むズーム領域を生じさせる。自動ズームを実施するための手段は、ズーム領域内の追跡されるオブジェクトのロケーションに基づいて、ズーム領域向けの動き応答速度を決定するための手段を含む。
[0012]自動ズームを実施ためのシステムおよび方法が実装され得る電子デバイスの一例を示すブロック図。 [0013]自動ズームを実施するための方法の一構成を示す流れ図。 [0014]自動ズームパイプラインの一例を示すブロック図。 [0015]ズーム領域を決定する例を示す図。 [0016]2つのゾーンを用いる2状態手法の例を示す図。 [0017]遷移ゾーンの例を示す図。 [0018]フレーム境界線バッファリングゾーンの例を示す図。 [0019]ズームレベルを制御するための手法の例を示す図。 [0020]自動ズームを実施するための方法の一構成を示す流れ図。 [0021]本明細書に開示されるシステムおよび方法の様々な構成を実装するように構成された電子デバイス内に含まれ得るいくつかの構成要素を示す図。
[0022]本明細書で開示するシステムおよび方法は、自動ズームを実施することに関する。ズーミング効果は、様々なアプリケーションにおける特徴である。たとえば、ズーミングは、ユーザが、拡張されたシーンをディスプレイ上で閲覧すること、および/または拡張されたシーンをビデオクリップに記録することのいずれかができるように、画像中の関心領域を拡張し得る。ズーミングのためのいくつかの手法は「ピンチおよびズーム」手法を含むが、これは、ユーザに、視野の中心に位置する拡張された領域が見えるようにすることができるだけである。関心領域が中心に位置しない場合、ズーミングレベルは影響され(たとえば、制限され)得る。その上、「ピンチおよびズーム」手法は、かなりのユーザ入力を求める場合があり、ならびに/または関心オブジェクトが動いている、および/もしくは視野の中心に位置しないとき、良好な性能をもたらさない場合がある。
[0023]ズームするためのいくつかの手法は、次のように与えられる。ピンチおよびズームは、スマートフォンカメラアプリケーションにおいて実装され得る、ズームするための手法であり得る。この手法では、ズーミング効果は、フレームの中心エリアを拡張することができる。したがって、関心オブジェクトが中心に位置しないとき、ズーミング効果は、最良ズーミングレベルに達することができず、および/またはシーン中の関心オブジェクトを排除する場合がある。その上、写真および/またはビデオキャプチャに対してズームインおよびアウトするために、かなりのユーザ入力が求められ得る。カメラビューの視野は、ズーミング領域と同じであり得る。したがって、ユーザが、関心オブジェクトを見つけるためにズームインおよびアウトすることによって、移動する関心オブジェクトをキャプチャするのは困難な場合がある。
[0024]ピクチャインピクチャ(PiP)は、ズームするための別の手法である。いくつかのデバイスはPiPカメラ特徴を含むことができ、ここで、サブピクチャ(たとえば、より大きいピクチャ中の小さい矩形またはウィンドウ)は、選択されたエリアのズームイン効果を示す。この手法では、ズームされるエリアは、フレームの中心に限定されなくてよく、ほぼ全体の視野を含み得るエリアにズームインすることができる。PiP手法では、ズームされたオブジェクトは通常、PiPの中心に現れ得る。カメラ移動および/または追跡によるシェイクおよびジッタは、拡張される場合があり、劣化した視覚効果を引き起こす場合がある。
[0025]スマートフォン上でチームスポーツビデオ(たとえば、サッカーゲーム)をブロードキャストするための自動ビデオズーミングは、別の手法である。この手法では、ズーミングは、検出されたオブジェクト(たとえば、追跡されるサッカーボール)に基づき得る。ズーミング比は、オブジェクト移動に基づき得る。ただし、この手法では、オブジェクトは、ズームされたビューから容易に漏れ得る。
[0026]別の手法は、ワイヤレスセンサーを使って追跡し、ズームすることを伴う。この手法では、サイズ情報ではなくロケーションのみが獲得され得る。その上、ズームは、(カメラ制限により)中心に基づくだけであり得る。この手法は、電動のプロ用カメラを、ワイヤレスセンサーに基づいてパンおよびズームするように制御することができる。
[0027]上述の説明から分かるように、関心オブジェクトのサイズに従って適切なズーミングレベルを提供する、ならびに/またはオブジェクトが動いている、および/もしくは視野の中心に位置しないときでも、より少ない(たとえば、最小限の)ユーザ入力を使用する、ズーミングのための手法を提供することが有益であり得る。これらの利益をもたらす手法は、向上したユーザエクスペリエンスを提供することができる。
[0028]本明細書で開示するシステムおよび方法は、追跡に基づく自動ズームに関し得る。たとえば、追跡に基づく自動ズームは、低減されたユーザ入力(たとえば、ワンタッチ)で、追跡されるオブジェクトのロケーションおよび/またはサイズに従って、安定したズームされたビューを提供する自動機構を提供し得る。本明細書で開示するシステムおよび方法は、良好なユーザエクスペリエンスを達成することができ、高品質画像および/またはビデオクリップをとることが可能であり得る。さらに、本明細書で開示するシステムおよび方法に従って提供され得る、安定したズームされたビューは、シェイクとジッタとを削減することによって有益になり得る。これは、人間の眼がシェイクおよびジッタに敏感であり得るので、有利であり得る。
[0029]いくつかの構成では、ズーミング効果は、追跡されるオブジェクトの移動、ロケーション、および/またはサイズに基づいて自動的に変えられ得る。ズーム領域を決定する際に、全体の視野が考慮され得る。たとえば、本明細書で開示するシステムおよび方法は、ズーム領域を決定する際に、画像センサーの全体の視野を使用し得る。言い換えると、ズーム領域制御は、画像センサー視野全体に基づいてよく、ズーム領域自体におけるビューに制限されなくてよい。いくつかの構成では、追跡器は、関心オブジェクトを選択するためのワンタッチ入力を取得することができ、次いで、プレビューおよび/またはビデオキャプチャ中に関心オブジェクトを自動的に追うことができる。追跡器は、依然として元のカメラ視野において稼働することができる。たとえば、追跡器は、クロップされたズーム領域だけでなく、元の視野において稼働し続けることができる。したがって、ズーム領域がデバイス上で閲覧および/またはキャプチャされ得る間、関心オブジェクトは、広角視野(たとえば、カメラセンサーの視野と同じである)内で移動することができ、これにより、拡張され、より焦点の合った視野を提供することができる。
[0030]次に、図を参照しながら様々な構成について説明し、ここで、同様の参照番号は機能的に同様の要素を示し得る。本明細書で概して説明し、図に示すシステムおよび方法は、多種多様な異なる構成で構成および設計され得る。したがって、図に表されるいくつかの構成についての以下のより詳細な説明は、請求される範囲を限定するものではなく、システムおよび方法を代表するものにすぎない。
[0031]図1は、自動ズームを実施ためのシステムおよび方法が実装され得る電子デバイス102の一例を示すブロック図である。たとえば、電子デバイス102は、1つまたは複数の画像および/またはビデオ中で自動的にズームインおよび/またはズームアウトするように構成され得る。電子デバイス102の例は、カメラ、ビデオカムコーダ、デジタルカメラ、セルラー電話、スマートフォン、コンピュータ(たとえば、デスクトップコンピュータ、ラップトップコンピュータなど)、タブレットデバイス、メディアプレーヤ、テレビ、車両、自動車、パーソナルカメラ、ウェアラブルカメラ、仮想現実デバイス(たとえば、ヘッドセット)、拡張現実デバイス(たとえば、ヘッドセット)、複合現実デバイス(たとえば、ヘッドセット)、アクションカメラ、監視カメラ、搭載カメラ、接続カメラ、ロボット、航空機、ドローン、無人航空機(UAV)、スマートアプリケーション、ヘルスケア機器、ゲーム機、携帯情報端末(PDA)、セットトップボックス、器具などを含む。電子デバイス102は、1つまたは複数の構成要素または要素を含み得る。構成要素または要素のうちの1つまたは複数は、ハードウェア(たとえば、回路機構)またはハードウェアとソフトウェアの組合せ(たとえば、命令をもつプロセッサ)で実装され得る。
[0032]いくつかの構成では、電子デバイス102は、プロセッサ112、メモリ122、ディスプレイ124、1つもしくは複数の画像センサー104、1つもしくは複数の光学システム106、および/または通信インターフェース108を含み得る。プロセッサ112は、メモリ122、ディスプレイ124、画像センサー104、光学システム106、および/または通信インターフェース108に結合され(たとえば、それらと電気通信し)得る。プロセッサ112は、汎用シングルチップマイクロプロセッサまたはマルチチップマイクロプロセッサ(たとえば、ARM)、専用マイクロプロセッサ(たとえば、デジタル信号プロセッサ(DSP))、マイクロコントローラ、プログラマブルゲートアレイなどであり得る。プロセッサ112は、中央処理ユニット(CPU)と呼ばれ得る。単一のプロセッサ112が電子デバイス102内に示されているが、代替の構成では、プロセッサの組合せ(たとえば、ISPとアプリケーションプロセッサ、ARMとDSP、など)が使われてもよい。プロセッサ112は、本明細書で開示する1つまたは複数の方法を実装するように構成され得る。
[0033]いくつかの構成では、電子デバイス102は、図2〜図10のうちの1つまたは複数に関連して説明する機能、手順、方法、ステップなどのうちの1つまたは複数を実施することができる。追加または代替として、電子デバイス102は、図2〜図10のうちの1つまたは複数に関連して説明する構造のうちの1つまたは複数を含み得る。
[0034]通信インターフェース108は、電子デバイス102が1つまたは複数の他の電子デバイスと通信することを可能にし得る。たとえば、通信インターフェース108は、ワイヤードおよび/またはワイヤレス通信のためのインターフェースを提供し得る。いくつかの構成では、通信インターフェース108は、無線周波数(RF)信号を送信および/または受信するために、1つまたは複数のアンテナ110に結合され得る。追加または代替として、通信インターフェース108は、1つまたは複数の種類の有線(たとえば、ユニバーサルシリアルバス(USB)、イーサネット(登録商標)など)通信を可能にし得る。
[0035]いくつかの構成では、複数の通信インターフェース108が実装および/または使用され得る。たとえば、1つの通信インターフェース108は、セルラー(たとえば、3G、ロングタームエボリューション(LTE(登録商標))、CDMAなど)通信インターフェース108であってよく、別の通信インターフェース108は、イーサネットインターフェースであってよく、別の通信インターフェース108は、ユニバーサルシリアルバス(USB)インターフェースであってよく、さらに別の通信インターフェース108は、ワイヤレスローカルエリアネットワーク(WLAN)インターフェース(たとえば、米国電気電子技術者協会(IEEE)802.11インターフェース)であってよい。いくつかの構成では、通信インターフェース108は、別のデバイス(たとえば、車両、スマートフォン、カメラ、ディスプレイ、リモートサーバなど)に情報(たとえば、画像情報、サラウンドビュー情報など)を送り、および/またはそこから情報を受信することができる。
[0036]電子デバイス102は、1つまたは複数の画像(たとえば、デジタル画像、画像フレーム、フレーム、ビデオなど)を取得し得る。たとえば、電子デバイス102は、画像センサー104と、光学システム106の視野内に位置するシーンおよび/またはオブジェクトの画像を画像センサー104上に集束させる光学システム106(たとえば、レンズ)とを含み得る。カメラ(たとえば、可視スペクトルカメラまたはその他)は、少なくとも1つの画像センサーと、少なくとも1つの光学システムとを含み得る。したがって、電子デバイス102は、1つもしくは複数のカメラであってよく、および/またはいくつかの実装形態では、1つもしくは複数のカメラを含み得る。いくつかの構成では、画像センサー104は、1つまたは複数の画像(たとえば、画像フレーム、ビデオ、静止画像、バーストモード画像など)をキャプチャすることができる。光学システム106は、プロセッサ112に結合され、および/またはそれによって制御され得る。追加または代替として、電子デバイス102は、1つまたは複数の画像を、別のデバイス(たとえば、電子デバイス102に結合された1つまたは複数の外部カメラ、ネットワークサーバ、トラフィックカメラ、ドロップカメラ、車両カメラ、ウェブカメラなど)に対して要求し、および/またはそこから受信し得る。いくつかの構成では、電子デバイス102は、通信インターフェース108を介して1つまたは複数の画像を要求および/または受信し得る。たとえば、電子デバイス102は、カメラ(たとえば、画像センサー104、および/または光学システム106)を含んでも、または含まなくてもよく、1つまたは複数のリモートデバイスから画像を受信し得る。画像(たとえば、画像フレーム)のうちの1つまたは複数は、1つもしくは複数のシーンおよび/または1つもしくは複数のオブジェクトを含み得る。
[0037]いくつかの構成では、電子デバイス102は画像データバッファ(図示せず)を含み得る。画像データバッファは、画像センサー104および/または外部カメラからの画像データをバッファリング(たとえば、記憶)することができる。バッファリングされた画像データは、プロセッサ112に提供されてよい。
[0038]いくつかの構成では、電子デバイス102は、カメラソフトウェアアプリケーションおよび/または1つもしくは複数のディスプレイ124を含み得る。カメラアプリケーションが稼働しているとき、光学システム106の視野内に位置するオブジェクトの画像が、画像センサー104によってキャプチャされ得る。画像センサー104によってキャプチャされている画像は、ディスプレイ124上に提示されてよい。たとえば、1つまたは複数の画像が、ユーザによる閲覧のために、ディスプレイ124に送られ得る。いくつかの構成では、これらの画像は、前にキャプチャされたシーンの画像データを含み得るメモリ122から再生され得る。電子デバイス102によって取得された1つまたは複数の画像は、1つもしくは複数のビデオフレームおよび/または1つもしくは複数の静止画像であり得る。いくつかの構成では、ディスプレイ124は、画像センサー104の全視野および/またはズーム領域を提示することができる。
[0039]プロセッサ112は、画像取得器114を含み、および/または実装することができる。1つまたは複数の画像フレームが、画像取得器114に提供されてよい。たとえば、画像取得器114は、1つまたは複数の画像センサー104から、画像フレームを取得し得る。たとえば、画像取得器114は、1つもしくは複数の画像センサー104から、および/または1つもしくは複数の外部カメラから、画像データを受信し得る。上述したように、画像は、電子デバイス102中に含まれる画像センサー104からキャプチャされてよく、または1つもしくは複数のリモートカメラからキャプチャされてよい。
[0040]いくつかの構成では、画像取得器114は、1つまたは複数の画像(たとえば、画像フレームなど)を要求および/または受信し得る。たとえば、画像取得器114は、通信インターフェース108を介して、1つまたは複数の画像を、リモートデバイス(たとえば、外部カメラ、リモートサーバ、リモート電子デバイスなど)に対して要求し、および/またはそこから受信し得る。カメラから取得された画像は、自動ズームを実施するように、プロセッサ112によって処理され得る。
[0041]プロセッサ112は、オブジェクト追跡器116を含み、および/または実装することができる。画像フレームのうちの1つまたは複数が、オブジェクト追跡器116に提供されてよい。オブジェクト追跡器116は、1つまたは複数の画像フレーム中で1つまたは複数のオブジェクトを追跡することができる。たとえば、オブジェクト追跡器116は、1つまたは複数のオブジェクトを追跡したことに基づいて、オブジェクト追跡情報を取得することができる。オブジェクト追跡情報は、追跡されるオブジェクト(たとえば、追跡領域、境界領域、境界ボックス、関心領域(ROI)など)に対応するロケーション情報および/またはサイズ情報を含み得る。いくつかの構成では、オブジェクト追跡器116は、タッチツートラック(touch-to-track)技法を実装することができる。たとえば、ユーザインターフェース126が、関心オブジェクトを指示する入力(たとえば、タッチ入力、マウスクリック、ジェスチャーなど)を受信し得る。指示は、オブジェクト追跡器116に提供され得る。オブジェクト追跡器116は、関心オブジェクトを含む追跡領域(たとえば、境界領域、境界ボックス、ROIなど)のロケーションおよび/またはサイズを決定することができる。したがって、オブジェクト追跡器116は、いくつかの構成では、比較的少ないユーザ入力(たとえば、ワンタッチ)に基づいて、追跡領域のロケーションとサイズとを提供し得る。追跡情報に基づいて、ズームコントローラ120(たとえば、自動ズーム)は、ズーム領域のズーミングレベルおよび/またはロケーションを決定することができる。オブジェクト追跡器116のいくつかの例は、光学フローを実装し得る。
[0042]いくつかの構成では、オブジェクト追跡器116は、(画像フレームのうちの)現在フレームの追跡領域に基づいてオブジェクト追跡を実施し得る。たとえば、オブジェクト追跡器116は、フレームごとに画像内容(たとえば、オブジェクト)を追跡することを試みてよい。オブジェクト追跡は、後続フレーム中の画像内容の推定ロケーションを提供し得る。いくつかの構成では、オブジェクト追跡器116は、動きに基づくオブジェクト追跡を実施し得る。たとえば、オブジェクト追跡器116は、フレームの間のオブジェクトの動き(たとえば、オブジェクトに対応する動きベクトル)を決定することができる。いくつかの構成では、オブジェクト追跡器116は、追跡のためにフレーム減算手法を使用しなくてよい。たとえば、フレーム減算は通常、正しく機能するために、同じ視点から2つのフレームがとられることを必要とし得る。本明細書で開示するシステムおよび方法のいくつかの構成は、同じ観点から2つのフレームがとられることを想定しなくてよい。たとえば、いくつかの構成では、カメラが動いている場合があると想定され得る。
[0043]オブジェクト追跡器116は、オブジェクト追跡に基づいて、(画像フレームのうちの)後続フレームの追跡領域(たとえば、境界領域、境界ボックス、ROIなど)を決定することができる。たとえば、オブジェクト追跡器116は、追跡される画像内容に対応する、後続フレームの追跡領域を(たとえば、追跡されるオブジェクトに対応する動きベクトルに従って)生成し得る。いくつかの構成では、オブジェクト追跡器116は、現在フレーム追跡領域から抽出された1つまたは複数の特徴(たとえば、特徴ベクトル)を、対応する後続フレーム追跡領域を決定するのに使用することができる。たとえば、オブジェクト追跡器116は、追跡領域(たとえば、検出された追跡領域、ユーザ入力に対応する追跡領域など)に基づいて、1つまたは複数の特徴を抽出してよい。
[0044]プロセッサ112は、グローバル動き推定器118を含み、および/または実装することができる。たとえば、グローバル動き推定手法が、カメラの動きを推定するのに使用される。グローバル動き推定器118は、フレームの間のグローバル動きを推定する(たとえば、グローバル動き推定を実施する)ことができる。グローバル動きは、フレームの間での内容(たとえば、全内容、または一般に内容)の動きであり得る。グローバル動き情報は、グローバル動きのインジケータおよび/または推定値であってよい。いくつかの構成では、グローバル動き情報を決定することは、フレームの間の1つまたは複数の動きベクトルを(たとえば、光学フローを用いて)計算することを含み得る。たとえば、グローバル動きベクトルは、フレームの大部分にまたがり得る。いくつかの構成では、グローバル動きベクトルは、フレームの特定の割合をカバーし得る。たとえば、グローバル動きベクトルは、画像の90%にまたがり、および/または考慮し得る(また、たとえば、境界線を無視し得る)。いくつかの構成では、グローバル動きベクトルは、画像を覆うグリッドパターンにおいて決定され得る。グローバル動きは、いくつかの手法では、入力画像のみに基づいて(たとえば、加速度計および/またはジャイロのような動きセンサーからの動き情報など、他の入力動き情報なしで)決定され得る。
[0045]いくつかの構成では、グローバル動き推定器118は、追加または代替として、(たとえば、画像データに加えて)他の動きセンサーデータに基づいてグローバル動きを推定し得る。たとえば、電子デバイス102は、1つまたは複数の加速度計、ジャイロ、および/または他の動きセンサーを含み得る。動きセンサーによって検知された動きデータは、グローバル動き推定器118に与えられてよい。グローバル動き推定器118は、いくつかの構成では、動きデータに基づいてグローバル動き情報(たとえば、グローバル動き推定値)を決定し得る。いくつかの構成では、グローバル動き情報は、機械制御に依存せずに決定され得る。たとえば、グローバル動き情報は、機械制御信号(たとえば、カメラを動かす(たとえば、パンおよびチルト)ための機械アクチュエータを制御する信号)に基づかなくてよい。たとえば、動き制御信号が既知である場合、グローバル動きを推定することは決定論的でなくてよい。
[0046]プロセッサ112は、ズームコントローラ120を含み、および/または実装することができる。ズームコントローラ120は、自動ズームを実施することができる。たとえば、ズームコントローラ120は、ズーム領域のロケーション、動き、動き応答速度、サイズ、および/またはズームレベルを制御することができる。ズーム領域とは、画像センサー104および/またはリモートカメラの全視野内の領域であり得る。たとえば、ズーム領域は、全視野の下位領域であってよい(また、たとえば、全視野に相対してよい)。ズーム領域内の画像内容は、画像内容を拡張するために拡大され(たとえば、デジタルにスケーリングされ、および/または強調され、など)得る。いくつかの構成では、自動ズームを実施することは、グローバル動き情報および/またはオブジェクト追跡情報に基づき得る。ズームコントローラ120は、図2〜図9のうちの1つまたは複数に関連して記載される1つまたは複数の関数、手順、および/または手法に従って自動ズームを実施することができる。
[0047]いくつかの構成では、電子デバイス102は、実世界での、追跡情報、オブジェクト移動、および/またはカメラ移動を決定することが可能であり得る。そのような情報は、ズームロケーション算出および/またはシーン安定性を向上するのに使われ得る。
[0048]本明細書で開示するシステムおよび方法は、向上したズーミング戦略の1つまたは複数の側面を使用し得る。たとえば、ズーミング戦略は、関心オブジェクトを追うことが可能な場合があり、および/または全体的シーン移動を安定させることを目指すことができる。たとえば、ズームされる領域は、前景(追跡されるオブジェクト)および/またはグローバル動き(たとえば、カメラの動き)に基づいて決定され得る。追跡領域(たとえば、境界領域、境界ボックスなど)のサイズが変わると、ビューは、関心オブジェクトが妥当な比でズーム領域中に現れるように、平滑に更新され得る。追跡されるオブジェクトがフレーム中で欠落し、または追跡器が追跡できなくなった場合、ズーミング戦略は、元の視野(たとえば、全視野)に平滑にフォールバックすればよく、ここで、品質は、自動ズームが提供されないときよりも悪くならない。
[0049]本明細書で開示するシステムおよび方法は、以下の特徴のうちの1つまたは複数を実装することができる。たとえば、電子デバイス102は、追跡に基づく自動ズームを実施し得る。いくつかの構成では、ズームコントローラ120は、追跡(たとえば、関心領域(ROI))駆動ズーミング効果をもつ自動ズームを実施することができる。たとえば、ズーミング効果は、追跡されるオブジェクト(たとえば、追跡領域)の移動、ロケーション、および/またはサイズに基づいて自動的に変えられ得る。いくつかの構成では、オブジェクト追跡は、カメラの全体の視野に作用し(たとえば、それをカバーし)得る。たとえば、オブジェクト追跡は、(たとえば、ズーム領域が全視野を含まないときであっても)カメラ入力の全視野に基づき得る。追加または代替として、ズームコントローラ120は、オブジェクトの動きに基づいて、フレームごとにズームレベルを調節することができる。
[0050]いくつかの構成では、最小ユーザ入力が使用され得る。たとえば、オブジェクト追跡(たとえば、オブジェクト追跡器116によるオブジェクト追跡)は、単一のオブジェクト指示(たとえば、単一のピクセルの1つの指示)に基づき得る。たとえば、オブジェクト追跡器116は、受信された入力によって示されたロケーション(たとえば、ピクセル)を使用することができる。いくつかの例では、オブジェクト追跡器116は、関心オブジェクトを選択するのに、ワンタッチ入力を使用することができる。他の手法では、オブジェクト追跡器116は、たとえば、マウスクリック入力、タッチパッドタップ入力、視線追跡ロケーション、またはジェスチャー入力から指示されたロケーション(たとえば、ピクセル)を使うことができる。オブジェクト追跡器116は次いで、プレビューおよび/またはビデオキャプチャ中に関心オブジェクトを自動追跡することができる。
[0051]いくつかの構成では、全視野処理および/または表示が実装され得る。たとえば、(たとえば、オブジェクト追跡器116による)オブジェクト追跡は、元のカメラ視野(たとえば、視野を狭めることなく、カメラ(たとえば、画像センサー104および光学システム)によってキャプチャされた画像全体)において稼働し得る。したがって、(拡張され、より焦点の合った視野を有する)ズーム領域がデバイス上で提示および/またはキャプチャされ得る間、関心オブジェクトは、広角視野(カメラセンサーのものと同じであってよい)中で移動し得る。たとえば、ズーム領域は、全視野のサブセットを含み得る。ズーム領域が全視野のサブセットであるときでも、追跡は、全視野に基づいて実施され得る(たとえば、全視野を検討し、処理し、および/または考慮に入れることができる)。ズーム領域動きおよび/またはズーム領域動き応答速度は、全視野に関連し得ることに留意されたい。いくつかの手法では、ズーム領域および全視野は、同じ画像センサー(たとえば、カメラ)から提供され得る。
[0052]いくつかの構成では、本明細書で開示するシステムおよび方法(たとえば、ズームコントローラ120)は、向上した安定化を実装することができる。グローバル動き推定を利用することによって、たとえば、1つまたは複数の安定化手法が、動き(たとえば、ユーザ)によって引き起こされるジッタを削減するために適用され得る。したがって、より安定した結果が生成され得る。
[0053]いくつかの構成では、本明細書で開示するシステムおよび方法(たとえば、ズームコントローラ120)は、平滑なズーミング比遷移を提供することができる。ズーミング比は、オブジェクトのサイズに関連してよく、および/またはスケーリング履歴に基づいて安定されてよく、これにより、平滑なズーミング比遷移と、良好な視覚効果とが生じ得る。いくつかの構成では、ズーム(たとえば、ズーム率、倍率など)は、追跡領域サイズおよびズーム領域サイズに基づき得る。たとえば、ズームレベルは、追跡領域とズーム領域とのサイズ比に基づき得る。たとえば、ズームコントローラ120は、サイズ比が最小ズーム閾未満である場合にはズームを増大してよい。追加または代替として、ズームコントローラ120は、サイズ比が最大ズーム閾よりも大きい場合にはズームを低下してよい。最大ズーム閾および最小ズーム閾は同じであってもよく、異なってもよい。たとえば、最小ズーム閾と最大ズーム閾との間には、一定の範囲があってよい。ズームを制御する、より具体的な例が、図8に関連して示される。
[0054]いくつかの構成では、ズームコントローラ120は、グローバル動き情報に基づいてズーム領域動きを決定することができる。たとえば、フレームの間でのズーム領域の動きまたは(たとえば、現在フレーム中での)ズーム領域のロケーションは、(たとえば、前フレームと現在フレームとの間の)グローバル動きに基づいて決定され得る。いくつかの手法では、ズーム領域動き(たとえば、現在フレームにおけるズーム領域ロケーション)は、現在フレームグローバル動き(たとえば、前フレームから現在フレームへのグローバル動き)に基づき得る。いくつかの手法では、1つまたは複数の前フレームのグローバル動き(たとえば、前フレームと前フレームの前のフレームとの間のグローバル動き、より以前のフレームの間のグローバル動きなど)が、ズーム領域動きを決定するのに使用されてよい。いくつかの手法では、ズームコントローラ120は、グローバル動きと、現在フレームズーム領域アンカーポイントと前フレームズーム領域アンカーポイントとの間の差の和に基づいて、ズーム領域動きを決定することができる。追加または代替として、ズームコントローラ120は、グローバル動き、現在フレームズーム領域アンカーポイントと前フレームズーム領域アンカーポイントとの間の差、前フレームグローバル動き、および前フレームズーム領域アンカーポイントと早期フレームズーム領域アンカーポイントとの間の差に基づいてズーム領域動きを決定することができる。グローバル動き情報に基づいてズーム領域動きを決定する、より多くの具体例が、図4に関連して与えられる。ズームコントローラ120は、ズーム領域動き速度および/またはズーム領域加速度に従ってズーム領域動きを決定する(たとえば、算出する、計算する、など)のに、グローバル動き情報(たとえば、グローバル動き)を使用することができる。いくつかの構成では、ズーム領域動きは、機械的パン、チルト、および/またはズーム(たとえば、パン、チルト、および/またはズームのためのモータ、アクチュエータなど)を駆動しなくてよい。
[0055]追加または代替として、ズームコントローラ120は、追跡されるオブジェクト(たとえば、追跡領域、追跡領域アンカーポイントなど)とズーム領域のアンカーポイントとの間の距離に基づいてズーム領域動きを決定することができる。たとえば、ズームコントローラ120は、現在フレームの追跡されるオブジェクト(たとえば、現在フレーム追跡領域アンカーポイント)と、ズーム領域の現在フレームアンカーポイントとの間の距離に基づいて、ズーム領域動きを決定することができる。追跡されるオブジェクトとズーム領域アンカーポイントとの間の距離は、ズームコントローラ120によって決定され得る。いくつかの構成では、ズームコントローラ120は、追加または代替として、前フレームの追跡されるオブジェクト(たとえば、前フレーム追跡領域アンカーポイント)と、ズーム領域の前フレームアンカーポイントとの間の距離に基づいてズーム領域動きを決定することができる。グローバル動き情報に基づいてズーム領域動きを決定する、より多くの具体例が、図4に関連して与えられる。ズームコントローラ120は、追跡領域(たとえば、追跡領域アンカーポイント)とズーム領域アンカーポイントとの間の距離ならびに/または距離の(および/もしくはズーム領域の)変化レートに従ってズーム領域動きを決定する(たとえば、算出する、計算する、など)のに、追跡情報(たとえば、追跡領域アンカーポイント)を使用することができる。
[0056]いくつかの構成では、ズームコントローラ120は、ズーム領域が境界線バッファゾーンに入り、追跡されるオブジェクトが画像境界に向かって移動している場合に、グローバル動きを補償することができる。たとえば、ズームコントローラ120は、前フレームズーム領域アンカーポイントおよびグローバル動きに基づいて、現在フレームズーム領域アンカーポイントを決定することができる。この場合にグローバル動きを補償する、より詳細な例が、図7に関連して与えられる。
[0057]いくつかの構成では、ズームコントローラ120は、ズーム領域内の追跡されるオブジェクトのロケーションに基づいてズーム領域動き応答速度を決定することができる。たとえば、ズームコントローラ120は、(たとえば、視野内の)ズーム領域の水平および/または垂直並進を制御することができる。いくつかの手法では、領域動き応答速度は、ズーム領域内の追跡されるオブジェクト(たとえば、追跡領域)のロケーションに基づいて変化し得る。たとえば、ズームコントローラ120は、追跡されるオブジェクト(たとえば、追跡領域)とズーム領域の境界線との間の近接度に依存して、ズーム領域動き応答速度(たとえば、並進応答速度)を調節することができる。いくつかの構成では、ズーム領域動き応答速度は、ズーム領域の中心の近くではより遅くてよく、ズーム領域の端の近くではより速くてよい。このようにして、ズーム領域は、追跡されるオブジェクト(たとえば、追跡領域)の動きを、ズーム領域の中心の近くではゆっくりと追うことができる。これは、オブジェクトがズーム領域の中心の近くにある間、平滑な遅い動きを可能にし得る。ズーム領域は、追跡されるオブジェクト(たとえば、追跡領域)の動きを、オブジェクトがズーム領域の端に近づくと、素早く追うことができる。この手法は、オブジェクトが追跡領域の境界線に近づくと、ズーム領域が、追跡されるオブジェクトを素早く追うことができることを保証するのを助け得る。
[0058]いくつかの構成では、ズーム領域動き応答速度を決定することは、ズーム領域内の2つ以上のゾーンに基づき得る。各ゾーンは、関連付けられたズーム領域動き応答速度を有し得る。一例では、ズーム領域540は2つのゾーンを含み得る。第1のゾーンは低速応答ゾーンであってよく、第2のゾーンは高速応答ゾーンであってよい。低速応答ゾーンは、ズーム領域の中心に位置し得る。高速応答ゾーンは、ズーム領域の端の近くに位置し得る。たとえば、高速応答ゾーンは、低速応答ゾーンを取り巻き、または取り囲み得る。いくつかの実装形態では、低速応答ゾーンは、ズーム領域の中心にある方形ゾーンであってよく、高速応答ゾーンは、低速応答ゾーンとズーム領域の境界線との間にあってよい。追跡されるオブジェクト(たとえば、追跡領域)が低速応答ゾーン内にある間、ズーム領域は、比較的遅いズーム領域動き応答速度を有し得る。追跡されるオブジェクト(たとえば、追跡領域)が(たとえば、部分的または完全に)高速応答ゾーンに入ると、ズーム領域は、比較的速いズーム領域動き応答速度を有し得る。2つのゾーンの例が、図6に関して説明される。異なる数のゾーンが使用され得ることに留意されたい。たとえば、2つ以上のゾーンは各々、対応するズーム領域動き応答速度(たとえば、1つまたは複数の重み)を有し得る。2つ以上のゾーンは、中心ゾーンを超える各追加ゾーンが(たとえば、円形または方形の「金的」パターンの)最後のゾーンを取り囲み、または取り巻くように並べられ得る。
[0059]いくつかの構成では、ズーム領域動き応答速度は、複数の重みで制御され得る。たとえば、1つまたは複数の重みが、応答ゾーンの各々に対応してよく(たとえば、低速応答ゾーン向けに重みの第1のセット、および高速応答ゾーン向けに重みの第2のセット)、ならびに/または特定のズーム領域応答速度を指示することができる。たとえば、ズームコントローラ120は、追跡されるオブジェクト(たとえば、追跡領域)が現在位置するゾーンに対応する1つまたは複数の重みを選択すればよい。選択された重みは、対応するズーム領域応答速度を実装し得る。重みの例は、図4に関連して記載される。
[0060]いくつかの構成では、ズーム領域動き応答速度は、ズーム領域に相対した、追跡されるオブジェクト(たとえば、追跡領域)のロケーションの連続関数に基づいて決定され得る。たとえば、連続関数は、追跡されるオブジェクトのロケーションをズーム領域動き応答速度にマップし得る。たとえば、ズーム動き応答速度は、追跡されるオブジェクトがズーム領域の中心に位置するときは0であってよく、追跡されるオブジェクトがズーム領域の中心から離れて移動するのに従って、漸次増大し得る。たとえば、連続関数は、追跡されるオブジェクト(たとえば、追跡領域)のロケーションを、ズーム領域動き応答速度を制御する1つまたは複数の重みにマップし得る。
[0061]いくつかの構成では、遷移ゾーンが使用され得る。遷移ゾーンとは、異なるズーム領域動き応答ゾーンの間のゾーンであり得る。遷移ゾーンは、異なるズーム領域応答速度の間のジッタリングおよび/または素早い切替えを防止するのに役立ち得る。たとえば、ズームコントローラ120は、追跡されるオブジェクト(たとえば、追跡領域)が遷移ゾーンを超えるまで、ズーム領域動き応答速度を変えることができない。遷移ゾーンの例が、図6に関して説明される。
[0062]プロセッサ112は、ズーム情報(たとえば、ズームされた領域情報、クロップされたズーム領域など)を提供することができる。たとえば、プロセッサ112は、ズーム領域を、表示のためにディスプレイ124に提供し得る。追加または代替として、プロセッサ112は、ズーム領域を(たとえば、通信インターフェース108を介して)別のデバイスに送ってよい。いくつかの構成では、ズーム領域(たとえば、クロップされたズーム領域)が提示され得る。ズーム領域は、いくつかの手法では、ディスプレイ124のビューの一部分のみを占め得る(たとえば、ピクチャインピクチャ(PiP)、ピクチャアンドピクチャなど)。たとえば、ズーム領域は、全視野の上に提示され得る。他の手法では、ズーム領域は、ビュー全体を占め得る。たとえば、ズーム領域がズームインされると、全視野が示されない場合がある。オブジェクト追跡は、全視野が提示されるかどうかにかかわらず、全視野に対して作用し得ることに留意されたい。
[0063]本明細書で開示するシステムおよび方法のいくつかの構成は、デジタルズーム手法(たとえば、純粋にデジタルなズーム手法)であり得る。たとえば、自動ズームを実施することは、いくつかの手法では、光学ズーム(たとえば、焦点距離)を変えることを含まない場合がある。したがって、全視野サイズおよび/または光学システム焦点距離は静的であってよい(ただし、視点、カメラの動き、および/またはシーンはフレームごとに変わってよい)。たとえば、自動ズームを実施することは、いくつかの手法では、別個に、および/または光学ズームから独立して遂行され得る(たとえば、焦点距離を使用しなくてよい)。自動ズームを実施することは、いくつかの構成では、光学ズームとともに実施され得ることに留意されたい。
[0064]メモリ122は、命令および/またはデータを記憶し得る。プロセッサ112は、メモリ122にアクセスし(たとえば、そこから読み取り、および/またはそこに書き込み)得る。メモリ122によって記憶され得る命令および/またはデータの例は、画像データ(たとえば、ズーム領域データ)、画像取得器114命令、ズームコントローラ120命令、オブジェクト追跡器116命令、および/またはグローバル動き推定器118命令などを含み得る。
[0065]メモリ122は、画像と、プロセッサ112による動作を実施するための命令コードとを記憶することができる。メモリ122は、電子情報を記憶することが可能な任意の電子構成要素であってよい。メモリ122は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、磁気ディスク記憶媒体、光記憶媒体、RAMのフラッシュメモリデバイス、プロセッサに含まれるオンボードメモリ、EPROMメモリ、EEPROM(登録商標)メモリ、レジスタなど、およびそれらの組合せを含んで具現化され得る。
[0066]データおよび命令は、メモリ122に記憶され得る。命令は、本明細書で説明する方法のうちの1つまたは複数を実装するためにプロセッサ112によって実行可能であり得る。命令を実行することは、メモリ122に記憶されたデータの使用を伴い得る。プロセッサ112が命令を実行すると、命令の様々な部分がプロセッサ112上にロードされてよく、様々ないくつかのデータがプロセッサ112上にロードされてよい。
[0067]いくつかの構成では、電子デバイス102は、ディスプレイ124上にユーザインターフェース126を提示し得る。たとえば、ユーザインターフェース126は、ユーザが電子デバイス102と対話することを可能にし得る。いくつかの構成では、ユーザインターフェース126は、ユーザが、(追跡および/もしくはズーム用の)オブジェクトを選択し、ならびに/またはズーム挙動についての選好を指示することを可能にし得る。たとえば、ユーザインターフェース126は、タッチ、マウスクリック、ジェスチャーならびに/または追跡および/もしくはズーム用のオブジェクトを識別する何らかの他の指示を受信し得る。
[0068]ディスプレイ124は、電子デバイス102の中に統合されてよく、および/または電子デバイス102に結合されてよい。たとえば、電子デバイス102は、統合型ディスプレイをもつスマートフォンであってよい。別の例では、電子デバイス102は、1つもしくは複数のリモートディスプレイ124に、および/または1つもしくは複数のディスプレイ124を含む1つもしくは複数のリモートデバイスに結合され得る。
[0069]電子デバイス102(たとえば、プロセッサ112)は、任意選択で、1つまたは複数の種類のデバイスの一部に結合され(たとえば、デバイスに統合され)、デバイスを含み、デバイスを実装し得る。たとえば、電子デバイス102は、カメラを装備するドローンにおいて実装され得る。別の例では、電子デバイス102(たとえば、プロセッサ112)は、アクションカメラにおいて実装され得る。
[0070]電子デバイスの要素または構成要素のうちの1つまたは複数は組み合わされ、および/または分割され得ることに留意されたい。たとえば、画像取得器114、ズームコントローラ120、オブジェクト追跡器116および/またはグローバル動き推定器118が組み合わされてよい。追加または代替として、画像取得器114、ズームコントローラ120、オブジェクト追跡器116および/またはグローバル動き推定器118のうちの1つまたは複数は、それらの動作のサブセットを実施する要素または構成要素に分割されてよい。
[0071]図2は、自動ズームを実施するための方法200の一構成を示す流れ図である。方法200は、本明細書に記載される電子デバイスのうちの1つまたは複数(たとえば、図1に関連して記載された電子デバイス102)によって実施され得る。電子デバイス102は、202において、複数の画像(たとえば、静止画像、ビデオフレームなど)を取得し得る。これは、図1に関して説明されたように遂行され得る。たとえば、電子デバイス102は、1つもしくは複数の統合型画像センサー(たとえば、カメラ)で複数の画像をキャプチャすることができ、および/またはリモートデバイスから複数の画像を受信することができる。
[0072]電子デバイス102は、204において、グローバル動き情報を取得し得る。これは、図1に関して説明されたように遂行され得る。たとえば、電子デバイス102は、(たとえば、光学フローをもつ)後続画像の間の移動に基づいて、および/または1つもしくは複数の動きセンサー動き情報に基づいて、グローバル動き推定値を決定することができる。グローバル動き情報は、カメラおよび/または画像内容が画像の間で移動したかどうか、および/またはどのように移動したかを示し得る。
[0073]電子デバイス102は、206において、オブジェクト追跡情報を取得し得る。これは、図1に関して説明されたように遂行され得る。たとえば、電子デバイス102は、画像の間でオブジェクトを追跡することができる。オブジェクト追跡情報は、オブジェクトが画像の間で移動したかどうか、および/またはどのように移動したかを示し得る。たとえば、オブジェクト追跡情報は、現在フレームにおける関心領域、オブジェクトの動きを示す動きベクトルなどを含み得る。
[0074]電子デバイス102は、208において、グローバル動き情報およびオブジェクト追跡情報に基づいて自動ズームを実施し得る。これは、図1に関して説明されたように遂行され得る。たとえば、電子デバイス102は、図1および図3〜図9のうちの1つまたは複数に関連して説明する手順のうちの1つまたは複数を実施し得る。たとえば、電子デバイス102は、ズーム率を調節してよい(または、しなくてよい)。追加または代替として、電子デバイス102は、ズーム領域動き応答速度および追跡されるオブジェクト(たとえば、追跡領域)のロケーションに基づいて、ズーム領域ロケーションを調節してよい(または、しなくてよい)。いくつかの構成では、電子デバイス102は、ズーム領域動き応答速度を決定することができる。たとえば、電子デバイス102は、追跡されるオブジェクトがズーム領域の中心の近くにあるときは比較的遅いズーム領域動き応答速度を決定してよく、追跡されるオブジェクトがズーム領域の境界線または端の近くにあるときは比較的速いズーム領域動き応答速度を決定してよい。208において自動ズームを実施すると、ズーム領域を生じ、および/または更新し得る。
[0075]いくつかの構成では、電子デバイス102は、ズーム領域を提示し得る。たとえば、電子デバイス102は、ディスプレイ(たとえば、統合型またはリモートディスプレイ)にズーム領域を提示し得る。
[0076]図3は、自動ズームパイプラインの一例を示すブロック図である。具体的には、図3は、グローバル動き推定器318と、オブジェクト追跡器316と、ズームコントローラ320とを示す。グローバル動き推定器318、オブジェクト追跡器316、および/またはズームコントローラ320は、図1および図2のうちの1つまたは複数に関連して記載された対応する要素の例であり得る。
[0077]入力画像330(たとえば、入力フレーム)は、グローバル動き推定器318に、オブジェクト追跡器316に、および/またはズームコントローラ320に与えられてよい。グローバル動き推定器318は、カメラの動きおよび/または画像内容を推定することができる。たとえば、グローバル動き推定器318は、画像間(たとえば、フレーム間)カメラ動きを計算することができる。得られたグローバル動き情報は、実世界でのカメラ移動を反映することができ、これは、上述したように、ズームロケーション算出および/またはシーン安定性を向上するのに使用され得る。
[0078]オブジェクト追跡器316(たとえば、タッチツートラックオブジェクト追跡器316)は、入力画像330(たとえば、フレーム)におけるオブジェクトの動きと、入力画像330(たとえば、フレーム)におけるオブジェクトサイズとを計算することができる。いくつかの構成では、オブジェクト追跡器316は、タッチツートラック技法を実装することができる。たとえば、最小限のユーザ入力(たとえば、ワンタッチ)で、オブジェクト追跡器116は、関心オブジェクトを含む追跡領域(たとえば、境界領域、境界ボックスなど)のロケーションおよび/またはサイズを決定することができる。追跡情報に基づいて、ズームコントローラ320(たとえば、自動ズーム)は、ズーム領域のズーミングレベルおよび/またはロケーションを決定することができる。
[0079]ズームコントローラ320は、クロップされたビデオに対する平滑性制約の下でズーム領域(たとえば、クロップされたフレーム)のロケーションおよび/またはサイズを計算するのに、グローバル動き情報(たとえば、カメラの動きの情報)とオブジェクト追跡情報(たとえば、ターゲットオブジェクト動き情報)とを活用し得る。ズームコントローラ320は、上述した、向上したズーミング戦略の側面のうちの1つまたは複数を実装し得る。たとえば、ズームコントローラ320は、関心オブジェクトを追い、および/または全体的シーン移動を安定させるために、ズーム領域を制御すればよい。追加または代替として、ズームコントローラ320は、(関心オブジェクトを、ズーム領域に対して妥当なサイズ比に保つように)追跡領域のサイズが変わったとき、視野を平滑に更新することができる。追加または代替として、追跡されるオブジェクトが画像(たとえば、フレーム)中で欠落しているとき、および/または追跡が失われたとき、ズームコントローラ320は、元の視野に平滑に戻ることができる。ズームコントローラ320は、クロップされた画像332(たとえば、クロップされたフレーム)を生じ得る。たとえば、ズームコントローラ320は、ズーム領域に従って入力画像330をクロップならびに/またはスケーリングする(および/もしくは別の要素を、クロップおよび/もしくはスケーリングするように制御する)ことができる。たとえば、ズームコントローラ320は、ズーム領域の外にあるどの画像内容もクロップおよび/または破棄してよい。いくつかの構成では、ズームコントローラ320は、クロップされた画像332を特定のサイズ(たとえば、ディスプレイのサイズ、ディスプレイ上のウィンドウのサイズなど)にスケーリングすることができる。
[0080]図4は、ズーム領域を決定する例を示す図である。具体的には、図4は、前フレーム434(たとえば、Frame0)と現在フレーム436(たとえば、Frame1)とを示す。図4に示されるように、グローバル動き438(たとえば、前フレーム434と現在フレーム436との間のグローバル動きgn)がフレームの間で起こり得る。たとえば、グローバル動き438は、(たとえば、スマートフォンを携えているユーザの手の移動からの)カメラの移動に起因し得る。図4はまた、前フレームズーム領域440と現在フレームズーム領域442(たとえば、更新されたズーム領域)とを示す。前フレームズーム領域440は、前フレーム追跡領域444(たとえば、ROI、境界ボックスなど)を含み得る。現在フレームズーム領域442は、現在フレーム追跡領域446を含み得る。
[0081]図4において、xiは、ズーム領域のズーム領域アンカーポイント(たとえば、中心)ロケーションであり、tiは、追跡(たとえば、追跡領域)の追跡領域アンカーポイント(たとえば、中心)ロケーションであり、未知のパラメータがxn(たとえば、現在の画像またはフレーム向けのズーム領域アンカーポイント)であり、ここで、iはフレームインデックスであり、nは現在フレーム番号である。ズーム領域中のどのポイント(たとえば、アンカーポイント)も、距離を測定するための参照として使用されてよいことに留意されたい。中心ポイントまたはロケーションは、アンカーポイントの一例であり得る。追加または代替として、tiは、いくつかの構成では、追跡領域の中心以外の、追跡領域中のポイントであり得る。ズーム領域中の追跡されるオブジェクトをキャプチャするために、追跡中心およびズームされた領域のアンカーポイントの距離と、その変化レートとを記述するv(x)が公式化され得る。いくつかの構成では、v(x)は、式(1)で与えられるように表され得る。
[0082]ズームされた領域を安定させるために、ズーム領域の動き速度と加速度とを記述するh(x)を公式化することが有益であり得る。いくつかの構成では、h(x)は、式(2)で与えられるように表され得る。グローバル動きgnは、1つまたは複数の次元(たとえば、水平および垂直動き)によって表され得ることに留意されたい。
[0083]ズーム領域は、関数fを最小化するアンカーポイントxnを有し得る。いくつかの構成では、fは、式(3)で与えられるように表され得る。
[0084]4つの係数a0、a1、b0、およびb1は、ズームされた領域がどのように振る舞うかを制御し得る。たとえば、係数は、オブジェクトの動きへの高速応答(たとえば、応答速度)を、ズーム領域をより静的に保つための高慣性状態と交換するように選択され得る。いくつかの構成では、a0+a1+b0+b1=1である。より大きいa値は、ズーム領域動き応答速度を増大することができ(および、たとえばジッタを増大することができ)、より大きいb値は、ズーム領域動き応答速度を低下する(たとえば、平滑性を増大する)ことができる。いくつかの手法では、電子デバイス102は、オブジェクトがズーム領域(たとえば、クロップされたボックス)中のどこにあるかに依存して、応答速度を決定することができる(たとえば、係数を選択することができる)。ズーム領域動き応答速度は、追跡される領域に相対した、ズーム領域の並進(たとえば、垂直および/または水平移動、x−y移動など)を指し得る。たとえば、高いズーム領域動き応答速度が、追跡される領域を密接に追うことになり、低いズーム領域動き応答速度は、追跡される領域に遅れることになる(ただし、たとえば、平滑な動きを呈することになる)。オブジェクトがズーム領域内のどこにあるかによっては、異なる挙動が有益であり得る。
[0085]図5は、2つのゾーンを用いる2状態手法の例を示す。具体的には、図5は、フレーム536と、ズーム領域540と、追跡領域546とを示す。この2状態手法では、ズーム領域動き応答速度は、ズーム領域540(たとえば、クロップされた領域)中のオブジェクト(たとえば、追跡領域546)のロケーションに基づいて異なり得る。たとえば、係数aiおよびbiは、ズーム領域540の状態に基づいて(たとえば、ズーム領域540に相対した、追跡領域546のロケーションに基づいて)決定され得る。追跡されるオブジェクトがズーム領域540の低速応答ゾーン548(たとえば、中心エリアを含み得る高慣性ゾーン)内にある(たとえば、その中で移動する)とき、あの、その全体的シーンがより安定するように(たとえば、ズーム領域540が追跡領域546の動きにゆっくり応答するように)、さらなる重みが重みbiに与えられる。
[0086]追跡されるオブジェクト(たとえば、追跡領域546)がズーム領域540の高速応答ゾーン中にある(たとえば、低速応答ゾーン548の外に、部分的または完全に移動する)とき、ズーム領域540が、関心オブジェクト(たとえば、追跡領域546)を素早く追い、オブジェクトを低速応答ゾーン548(たとえば、中心ゾーン)に返すことができるように、さらなる重みが重みaiに与えられる。2状態手法は、オブジェクトが低速応答ゾーン548内で移動する(たとえば、小さい、繰り返す動きを有する)とき、ズーム領域540(たとえば、クロップされたフレーム)がジッタリングしないことを確実にし得る。
[0087]図6は、遷移ゾーンA〜C652a〜cの例を示す図である。追跡が、異なる応答ゾーン(たとえば、領域)の中に入り、外に出るときにジッタリングをさらに回避するために、複数のゾーンが使用され得る。図6に示されるように、ズーム領域A640aは、3つのゾーン、すなわち、低速応答ゾーンA648a(または内部ゾーン)と、低速応答ゾーンA648aの周りの遷移ゾーンA652a(または中間ゾーン)と、高速応答ゾーンA650a(または外部領域)とを含む。ズーム領域B640bに示されるように、前の状態が、高速応答ゾーンB650bに対応する高速応答状態、(たとえば、追跡されるオブジェクトが、たとえば、高速応答ゾーンB650b中にあったフォロー状態)であるとき、追跡されるオブジェクト(たとえば、追跡領域B646b)は、低速応答状態に変わるために、低速応答ゾーンB648b(または、たとえば内部領域もしくは高慣性ゾーン)に到達しなければならない場合がある。たとえば、追跡領域B646bは、低速応答状態に変わるために、遷移ゾーンB652bを超えなければならない場合がある。ズーム領域C640cに示されるように、追跡されるオブジェクト(たとえば、追跡領域C646c)は、追従するために遷移ゾーンCの外に出なければ(たとえば、高速応答ゾーンC650cに入らなければ)ならない場合がある。たとえば、ズーム領域動き速度(たとえば、状態)は、追跡領域646が遷移ゾーンを出る(または、たとえば超える)まで変わらない場合がある。これは、ジッタ(たとえば、状態の間の素早い切替え)を回避するのを助け得る。
[0088]図7は、フレーム境界線バッファリングゾーン754の例を示す図である。フレーム境界線バッファリングゾーン754は、グローバル動きを補償するためのいくつかの手法において使用され得る。図7において、最も外側のボックスは、フレーム736(たとえば、全視野のフレーム)を表す。フレーム境界線バッファリングゾーン754は、フレーム736内の外周に示される。フレーム境界線バッファリングゾーン754は、安定化を強化するのに使用され得る。ズーム領域740(たとえば、クロップされた領域)がフレームバッファリングゾーン754に入ったとき、グローバル動きは、オブジェクトが境界(たとえば、フレーム端)に向かって移動する場合に補償されるだけでよい。このようにして、ジッタが削減され得る。たとえば、ズームコントローラ120は、ズーム領域動きを決定するためにグローバル動きを補償することができる。いくつかの構成では、ズームコントローラ120は、式(4)に従ってグローバル動き補償を実施し得る。
たとえば、式(4)は、式(2)の一部分(たとえば、前半)のみが適用されるときの解を示す。たとえば、ズーム領域がフレーム境界線バッファリングゾーン754に入り、オブジェクトが境界に向かって移動している(たとえば、追跡領域が、フレーム境界に向かう軌道を有する)場合、式(1)および(2)の代わりに、式(4)が適用され得る。
[0089]図8は、ズームレベル(たとえば、ズーム率、スケーリング、倍率など)を制御するための手法の例を示す。ターゲットズームレベルは、追跡領域846(たとえば、ROI、追跡ボックス、境界領域、境界ボックスなど)とズーム領域840(たとえば、クロッピング領域)との間のサイズ比に基づいて決定され得る。図8において、最も小さい矩形は追跡領域846(たとえば、ROI、追跡ボックスなど)を表し、外側の(たとえば、最も大きい)矩形はズーム領域840(たとえば、クロッピングボックス)を表す。いくつかの構成では、追跡領域846とズーム領域840との間のサイズ比は、幅と高さとの比の最大であり得る。他のサイズ比が使用されてもよい。サイズ比がズームイン領域858(たとえば、最小ズーム閾)よりも小さい場合、ズームレベルは増大し得る。そうではなく、サイズ比がズームなし領域860(たとえば、最大ズーム閾)よりも大きいか、または、たとえばズームアウト領域856内にある場合、ズームレベルは低下し得る。最小ズーム閾と最大ズーム閾との間には、一定の範囲があってよい。この手法は、安定性を強化することができ、および/またはジッタを回避することができる。
[0090]いくつかの構成では、ズームレベルZは、ある範囲(たとえば、[1,max_level])によって境界され得る。ズーミングレベルZは、基準のセットに基づいて決定され得る。たとえば、現在フレームが、オブジェクトを追跡し、領域サイズを提供するとき、現在フレームに先立って、一定の数(たとえば、一定の時間期間)のズーミングレベルを記録するために、ズーミングレベル履歴テーブルHがセットアップされ得る。前のN個のフレームのズームレベルが小さくなっておらず、Zが前のズームレベルZt-1よりも大きい場合、現在のズームレベルはZt=min(Zt-1+1,max_level)であってよく、逆もまた同様である。履歴テーブルは、ズームレベルが劇的に変わって(そうすることによって、不快な視覚効果を生じて)いないことを保証し得る。
[0091]現在フレームがオブジェクトを追跡できなくなると、現在の比は、いくつかのフレーム(たとえば、5つのフレーム)について保持されてよく、および/または次いで、全体の視野が示されるまで、平滑にズームアウトしてよい。追加または代替として、追跡できなくなると、シーンは、ズームアウト手順に沿って、ズームされた領域のアンカーポイントを固定することによって安定し得る。
[0092]図9は、自動ズームを実施するための方法900の一構成を示す流れ図である。方法900は、たとえば、図1に関して説明した電子デバイス102によって実施され得る。
[0093]電子デバイス102は、902において、1つまたは複数の次の画像を取得し得る。たとえば、電子デバイス102は、すでに取得された前の画像に後続する画像を取得し得る。これは、図1〜図2のうちの1つまたは複数に関して説明したように遂行され得る。
[0094]電子デバイス102は、904において、グローバル動き情報を取得し得る。これは、図1〜図2のうちの1つまたは複数に関して説明したように遂行され得る。
[0095]電子デバイスは、906において、オブジェクト追跡情報を取得し得る。これは、図1〜図2のうちの1つまたは複数に関して説明したように遂行され得る。
[0096]電子デバイス102は、908において、ズーム領域内の追跡されるオブジェクトのロケーションに基づいてズーム領域動き応答速度を決定することができる。これは、図1〜図6のうちの1つまたは複数に関して説明したように遂行され得る。
[0097]電子デバイス102は、910において、ズーム領域がフレーム境界線バッファゾーンに入ったかどうかと、追跡されるオブジェクトが画像境界に向かって移動しているかどうかとを決定することができる。これは、図1〜図2および図7のうちの1つまたは複数に関して説明したように遂行され得る。
[0098]ズーム領域がフレーム境界線バッファゾーンに入り、追跡されるオブジェクトが画像境界(たとえば、フレーム境界、視野境界など)に向かって移動している場合、電子デバイス102は、912において、グローバル動きを補償すればよい。これは、図1〜図2および図7のうちの1つまたは複数に関して説明したように遂行され得る。たとえば、電子デバイス102は、(たとえば、式(1)および/または式(2)の代わりに)式(4)を適用すればよい。
[0099]ズーム領域がフレーム境界線バッファゾーンに入っていないか、または追跡されるオブジェクトが画像境界に向かって移動していない場合、電子デバイス102は、914において、グローバル動き情報および追跡されるオブジェクトとズーム領域アンカーポイントとの間の距離に基づいてズーム領域動きを決定することができる。これは、図1〜図2および図7のうちの1つまたは複数に関して説明したように遂行され得る。たとえば、電子デバイス102は、式(1)、式(2)、および/または式(3)を適用すればよい。
[00100]電子デバイス102は、916において、追跡領域とズーム領域とのサイズ比が最小ズーム閾未満であるかどうか決定することができる。これは、図1〜図2および図8のうちの1つまたは複数に関して説明したように遂行され得る。サイズ比が最小ズーム閾未満である場合、電子デバイス102は、918において、ズームを増大して(例として、たとえば、ズーム率を増大し、倍率を増大し、ズーム領域における画像内容をスケールアップするなどして)よい。これは、図1〜図2および図8のうちの1つまたは複数に関して説明したように遂行され得る。
[00101]サイズ比が最小ズーム閾未満でない場合、電子デバイスは、920において、追跡領域とズーム領域とのサイズ比が最大ズーム閾よりも大きいかどうか決定すればよい。これは、図1〜図2および図8のうちの1つまたは複数に関して説明したように遂行され得る。サイズ比が最大ズーム閾よりも大きい場合、電子デバイスは、922において、ズームを低下して(例として、たとえば、ズーム率を低下し、倍率を低下し、ズーム領域における画像内容をスケールダウンするなどして)よい。方法900は、1つまたは複数の後のフレームに対して繰り返し得る。
[00102]方法900の動作(たとえば、ステップ)のうちの1つまたは複数は、いくつかの構成では任意選択であって(たとえば、実装されなくて)よいことに留意されたい。追加または代替として、方法900の動作(たとえば、ステップ)のうちの1つまたは複数は、異なる順序で並べ替えられてよい。ズーム領域は、912においてグローバル動きを補償し、914においてズーム領域動きを決定し、918においてズームを増大し、および/または922においてズームを低下することによって更新され得ることにも留意されたい。他の場合には、更新されたズーム領域は、前フレームズーム領域と同じであり得る(たとえば、同じ場所に位置し、および/または同じズームを有し得る)。たとえば、更新されたズーム領域は、ズーム領域に変更が行われないとき、ズーム領域動きが0であるとき、および/または決定910、916、920が否定であるときなどに、同じであり得る。
[00103]図10は、本明細書に開示されるシステムおよび方法の様々な構成を実装するように構成された電子デバイス1002内に含まれ得るいくつかの構成要素を示す。電子デバイス1002の例は、カメラ、ビデオカムコーダ、デジタルカメラ、セルラー電話、スマートフォン、コンピュータ(たとえば、デスクトップコンピュータ、ラップトップコンピュータなど)、タブレットデバイス、メディアプレーヤ、テレビ、車両、自動車、パーソナルカメラ、ウェアラブルカメラ、仮想現実デバイス(たとえば、ヘッドセット)、拡張現実デバイス(たとえば、ヘッドセット)、複合現実デバイス(たとえば、ヘッドセット)、アクションカメラ、監視カメラ、搭載カメラ、接続カメラ、ロボット、航空機、ドローン、無人航空機(UAV)、スマートアプリケーション、ヘルスケア機器、ゲーム機、携帯情報端末(PDA)、セットトップボックスなどを含み得る。電子デバイス1002は、図1に関して説明した電子デバイス102に従って実装され得る。
[00104]電子デバイス1002は、プロセッサ1001を含む。プロセッサ1001は、汎用シングルチップマイクロプロセッサまたはマルチチップマイクロプロセッサ(たとえば、ARM)、専用マイクロプロセッサ(たとえば、デジタル信号プロセッサ(DSP))、マイクロコントローラ、プログラマブルゲートアレイなどであり得る。プロセッサ1001は、中央処理ユニット(CPU)と呼ばれ得る。単一のプロセッサ1001が電子デバイス1002に示されているが、代替の構成では、プロセッサの組合せ(たとえば、ARMとDSP)が実装され得る。
[00105]電子デバイス1002は、メモリ1080も含む。メモリ1080は、電子情報を記憶し得る任意の電子構成要素であり得る。メモリ1080は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、磁気ディスク記憶媒体、光記憶媒体、RAM中のフラッシュメモリデバイス、プロセッサ内に含まれるオンボードメモリ、EPROMメモリ、EEPROMメモリ、レジスタなど、およびそれらの組合せとして実施され得る。
[00106]データ1084aおよび命令1082aが、メモリ1080内に記憶され得る。命令1082aは、本明細書に記載する方法、手順、ステップ、および/または機能のうちの1つまたは複数を実装するように、プロセッサ1001によって実行され得る。命令1082aを実行することは、メモリ1080に記憶されたデータ1084aの使用を伴い得る。プロセッサ1001が命令1082を実行すると、命令1082bの様々な部分がプロセッサ1001上にロードされてよく、および/または様々なデータ1084bがプロセッサ1001上にロードされてよい。
[00107]電子デバイス1002はまた、電子デバイス1002への信号の送信、およびそこからの信号の受信を可能にするために、送信機1090および受信機1092を含み得る。送信機1090および受信機1092は、まとめてトランシーバ1094と呼ばれ得る。1つまたは複数のアンテナ1088a〜bが、トランシーバ1094に電気的に結合されてよい。電子デバイス1002はまた、複数の送信機、複数の受信機、複数のトランシーバ、および/または追加のアンテナ(図示せず)を含み得る。
[00108]電子デバイス1002はデジタル信号プロセッサ(DSP)1096を含み得る。電子デバイス1002は通信インターフェース1098も含み得る。通信インターフェース1098は、1つまたは複数の種類の入力および/または出力を許可し、および/または可能にすることができる。たとえば、通信インターフェース1098は、他のデバイスを電子デバイス1002にリンクするための1つまたは複数のポートおよび/または通信デバイスを含み得る。いくつかの構成では、通信インターフェース1098は、送信機1090、受信機1092、またはその両方(たとえば、トランシーバ1094)を含み得る。追加または代替として、通信インターフェース1098は、1つまたは複数の他のインターフェース(たとえば、タッチスクリーン、キーパッド、キーボード、マイクロフォン、カメラなど)を含み得る。たとえば、通信インターフェース1098は、ユーザが電子デバイス1002と対話することを可能にし得る。
[00109]電子デバイス1002の様々な構成要素は、電力バス、制御信号バス、ステータス信号バス、データバスなどを含み得る、1つまたは複数のバスによって一緒に結合され得る。明快のために、様々なバスがバスシステム1086として図10に示される。
[00110]「決定すること」という用語は、様々な行為を包含し、したがって、「決定すること」は、計算すること、算出すること、処理すること、導出すること、調査すること、ルックアップすること(たとえば、テーブル、データベース、または別のデータ構造内でルックアップすること)、確認することなどを含み得る。また、「決定すること」は、受信すること(たとえば、情報を受信すること)、アクセスすること(たとえば、メモリ中のデータにアクセスすること)などを含むことができる。また、「決定すること」は、解決すること、選択すること、選定すること、確立することなどを含むことができる。
[00111]「に基づいて」という句は、別段に明示されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という句は、「のみに基づいて」と「に少なくとも基づいて」の両方を表す。
[00112]「プロセッサ」という用語は、汎用プロセッサ、中央処理ユニット(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、コントローラ、マイクロコントローラ、状態機械などを包含するものと広く解釈されたい。いくつかの状況下では、「プロセッサ」は、特定用途向け集積回路(ASIC)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)などを指す場合がある。「プロセッサ」という用語は、処理デバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つもしくは複数のマイクロプロセッサ、または任意の他のそのような構成を指し得る。
[00113]「メモリ」という用語は、電子情報を記憶することが可能な任意の電子構成要素を包含するように広く解釈されるべきである。メモリという用語は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、プログラマブル読取り専用メモリ(PROM)、消去可能プログラマブル読取り専用メモリ(EPROM)、電気的消去可能PROM(EEPROM)、フラッシュメモリ、磁気または光学データストレージ、レジスタなどのような、様々なタイプのプロセッサ可読媒体を指し得る。プロセッサがメモリから情報を読み取り、および/または情報をメモリに書き込むことができる場合、メモリはプロセッサと電子通信していると言われる。プロセッサに一体化されたメモリは、プロセッサと電子通信している。
[00114]「命令」および「コード」という用語は、任意のタイプのコンピュータ可読ステートメントを含むように広く解釈されるべきである。たとえば、「命令」および「コード」という用語は、1つまたは複数のプログラム、ルーチン、サブルーチン、関数、手順などを指す場合がある。「命令」および「コード」は、単一のコンピュータ可読ステートメントまたは多くのコンピュータ可読ステートメントを備えることができる。
[00115]本明細書で説明された機能は、ハードウェアによって実行されるソフトウェアまたはファームウェアで実装され得る。機能は、コンピュータ可読媒体上に1つまたは複数の命令として記憶され得る。「コンピュータ可読媒体」または「コンピュータプログラム製品」という用語は、コンピュータまたはプロセッサによってアクセスされ得る任意の有形記憶媒体を指す。例として、限定はしないが、コンピュータ可読媒体は、RAM、ROM、EEPROM、CD−ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気記憶デバイス、または命令もしくはデータ構造の形で所望のプログラムコードを担持または記憶するために使用されることが可能であり、コンピュータによってアクセスされることが可能である任意の他の媒体を含み得る。本明細書で使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、およびBlu−ray(登録商標)ディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。コンピュータ可読媒体は、有形であり、非一時的であり得ることに留意されたい。「コンピュータプログラム製品」という用語は、コンピューティングデバイスもしくはプロセッサによって実行、処理または計算され得る、コードまたは命令(たとえば、「プログラム」)と組み合わされた、コンピューティングデバイスまたはプロセッサを指す。本明細書で使用される場合、「コード」という用語は、コンピューティングデバイスまたはプロセッサによって実行可能であるソフトウェア、命令、コードまたはデータを指し得る。
[00116]ソフトウェアまたは命令はまた、送信媒体を介して送信され得る。たとえば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、伝送媒体の定義に含まれる。
[00117]本明細書で開示した方法は、説明した方法を達成するための1つまたは複数のステップまたはアクションを備える。本方法のステップおよび/またはアクションは、特許請求の範囲から逸脱することなく、互いに交換され得る。言い換えれば、説明した方法の適切な動作のためにステップまたはアクションの特定の順序が必要とされない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲を逸脱することなく修正され得る。
[00118]さらに、本明細書に記載の方法および技法を実施するためのモジュールおよび/または他の適切な手段は、デバイスによってダウンロードされ、および/または他の方法で取得され得ることを諒解されたい。たとえば、デバイスは、本明細書で説明した方法を実施するための手段の転送を可能にするために、サーバに結合され得る。代替的に、本明細書で説明した様々な方法は、デバイスが、記憶手段をそのデバイスに結合するかまたは与えると様々な方法を取得し得るように、記憶手段(たとえば、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、コンパクトディスク(CD)またはフロッピーディスクなどの物理記憶媒体など)によって与えられ得る。
[00119]特許請求の範囲は、上記で示した厳密な構成および構成要素に限定されないことを理解されたい。特許請求の範囲から逸脱することなく、本明細書で説明されたシステム、方法、および装置の構成、動作および詳細において、様々な修正、変更および変形が行われ得る。
[00119]特許請求の範囲は、上記で示した厳密な構成および構成要素に限定されないことを理解されたい。特許請求の範囲から逸脱することなく、本明細書で説明されたシステム、方法、および装置の構成、動作および詳細において、様々な修正、変更および変形が行われ得る。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
プロセッサを備える電子デバイスであって、前記プロセッサは、
複数の画像を取得することと、
前記複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得することと、
前記複数の画像のうちの前記少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得することと、
前記グローバル動き情報および前記オブジェクト追跡情報に基づいて自動ズームを実施することと、ここにおいて、自動ズームを実施することは、前記追跡されるオブジェクトを含むズーム領域を生じ、前記プロセッサは、前記ズーム領域内の前記追跡されるオブジェクトのロケーションに基づいて、前記ズーム領域向けの動き応答速度を決定するように構成される、を行うように構成される、電子デバイス。
[C2]
前記プロセッサは、カメラ入力の全視野に基づいてオブジェクト追跡を実施するように構成される、C1に記載の電子デバイス。
[C3]
前記プロセッサは、前記グローバル動き情報および追跡されるオブジェクトと前記ズーム領域のアンカーポイントとの間の距離に基づいてズーム領域動きを決定するように構成される、C1に記載の電子デバイス。
[C4]
前記プロセッサは、前記ズーム領域が境界線バッファゾーンに入り、追跡されるオブジェクトが画像境界に向かって移動している場合には、グローバル動きを補償するように構成される、C1に記載の電子デバイス。
[C5]
前記プロセッサは、前記ズーム領域中の少なくとも2つのゾーンに基づいて、前記ズーム領域向けの前記動き応答速度を決定するように構成される、C1に記載の電子デバイス。
[C6]
前記プロセッサは、追跡領域と前記ズーム領域とのサイズ比が最小ズーム閾未満である場合にはズームを増大するように構成される、C1に記載の電子デバイス。
[C7]
前記プロセッサは、前記サイズ比が最大ズーム閾よりも大きい場合にはズームを低下するように構成される、C6に記載の電子デバイス。
[C8]
前記最小ズーム閾と前記最大ズーム閾との間には一定の範囲がある、C7に記載の電子デバイス。
[C9]
前記プロセッサは、履歴テーブルに基づいて前記自動ズームを実施するように構成される、C1に記載の電子デバイス。
[C10]
前記プロセッサは、オブジェクトの動きに基づいて、ズームレベルをフレームごとに調節するように構成される、C1に記載の電子デバイス。
[C11]
複数の画像を取得することと、
前記複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得することと、
前記複数の画像のうちの前記少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得することと、
前記グローバル動き情報および前記オブジェクト追跡情報に基づいて自動ズームを実施することと、ここにおいて、自動ズームを実施することは、前記追跡されるオブジェクトを含むズーム領域を生じ、自動ズームを実施することは、前記ズーム領域内の追跡されるオブジェクトのロケーションに基づいて、前記ズーム領域向けの動き応答速度を決定することを備える、を備える方法。
[C12]
カメラ入力の全視野に基づいてオブジェクト追跡を実施することをさらに備える、C11に記載の方法。
[C13]
前記グローバル動き情報および追跡されるオブジェクトと前記ズーム領域のアンカーポイントとの間の距離に基づいてズーム領域動きを決定することをさらに備える、C11に記載の方法。
[C14]
前記ズーム領域が境界線バッファゾーンに入り、追跡されるオブジェクトが画像境界に向かって移動している場合には、グローバル動きを補償することをさらに備える、C11に記載の方法。
[C15]
前記ズーム領域向けの前記動き応答速度を決定することは、前記ズーム領域中の少なくとも2つのゾーンに基づく、C11に記載の方法。
[C16]
追跡領域と前記ズーム領域とのサイズ比が最小ズーム閾未満である場合にはズームを増大することをさらに備える、C11に記載の方法。
[C17]
前記サイズ比が最大ズーム閾よりも大きい場合にはズームを低下することをさらに備える、C16に記載の方法。
[C18]
前記最小ズーム閾と前記最大ズーム閾との間には一定の範囲がある、C17に記載の方法。
[C19]
前記自動ズームを実施することは履歴テーブルに基づく、C11に記載の方法。
[C20]
オブジェクトの動きに基づいて、ズームレベルをフレームごとに調節することをさらに備える、C11に記載の方法。
[C21]
命令を有する非一時的有形コンピュータ可読媒体を備えるコンピュータプログラム製品であって、前記命令は、
電子デバイスに、複数の画像を取得させるためのコードと、
前記電子デバイスに、前記複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得させるためのコードと、
前記電子デバイスに、前記複数の画像のうちの前記少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得させるためのコードと、
前記電子デバイスに、前記グローバル動き情報および前記オブジェクト追跡情報に基づいて自動ズームを実施させるためのコードと、ここにおいて、自動ズームを実施することは、前記追跡されるオブジェクトを含むズーム領域を生じ、前記電子デバイスに、自動ズームを実施させるための前記コードは、前記電子デバイスに、前記ズーム領域内の前記追跡されるオブジェクトのロケーションに基づいて、前記ズーム領域向けの動き応答速度を決定させるためのコードを備える、を備える、コンピュータプログラム製品。
[C22]
前記電子デバイスに、カメラ入力の全視野に基づいてオブジェクト追跡を実施させるためのコードをさらに備える、C21に記載のコンピュータプログラム製品。
[C23]
前記電子デバイスに、前記グローバル動き情報および追跡されるオブジェクトと前記ズーム領域のアンカーポイントとの間の距離に基づいてズーム領域動きを決定させるためのコードをさらに備える、C21に記載のコンピュータプログラム製品。
[C24]
前記電子デバイスに、前記ズーム領域向けの前記動き応答速度を決定させるための前記コードは、前記ズーム領域中の少なくとも2つのゾーンに基づく、C21に記載のコンピュータプログラム製品。
[C25]
前記電子デバイスに、追跡領域と前記ズーム領域とのサイズ比が最小ズーム閾未満である場合にはズームを増大させるためのコードをさらに備える、C21に記載のコンピュータプログラム製品。
[C26]
複数の画像を取得するための手段と、
前記複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得するための手段と、
前記複数の画像のうちの前記少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得するための手段と、
前記グローバル動き情報および前記オブジェクト追跡情報に基づいて自動ズームを実施するための手段と、ここにおいて、自動ズームを実施することは、前記追跡されるオブジェクトを含むズーム領域を生じ、自動ズームを実施するための前記手段は、前記ズーム領域内の前記追跡されるオブジェクトのロケーションに基づいて、前記ズーム領域向けの動き応答速度を決定するための手段を備える、を備える装置。
[C27]
カメラ入力の全視野に基づいてオブジェクト追跡を実施するための手段をさらに備える、C26に記載の装置。
[C28]
前記グローバル動き情報および追跡されるオブジェクトと前記ズーム領域のアンカーポイントとの間の距離に基づいてズーム領域動きを決定するための手段をさらに備える、C26に記載の装置。
[C29]
前記ズーム領域向けの前記動き応答速度を決定するための前記手段は、前記ズーム領域中の少なくとも2つのゾーンに基づく、C26に記載の装置。
[C30]
追跡領域と前記ズーム領域とのサイズ比が最小ズーム閾未満である場合にはズームを増大するための手段をさらに備える、C26に記載の装置。

Claims (30)

  1. プロセッサを備える電子デバイスであって、前記プロセッサは、
    複数の画像を取得することと、
    前記複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得することと、
    前記複数の画像のうちの前記少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得することと、
    前記グローバル動き情報および前記オブジェクト追跡情報に基づいて自動ズームを実施することと、ここにおいて、自動ズームを実施することは、前記追跡されるオブジェクトを含むズーム領域を生じ、前記プロセッサは、前記ズーム領域内の前記追跡されるオブジェクトのロケーションに基づいて、前記ズーム領域向けの動き応答速度を決定するように構成される、を行うように構成される、電子デバイス。
  2. 前記プロセッサは、カメラ入力の全視野に基づいてオブジェクト追跡を実施するように構成される、請求項1に記載の電子デバイス。
  3. 前記プロセッサは、前記グローバル動き情報および追跡されるオブジェクトと前記ズーム領域のアンカーポイントとの間の距離に基づいてズーム領域動きを決定するように構成される、請求項1に記載の電子デバイス。
  4. 前記プロセッサは、前記ズーム領域が境界線バッファゾーンに入り、追跡されるオブジェクトが画像境界に向かって移動している場合には、グローバル動きを補償するように構成される、請求項1に記載の電子デバイス。
  5. 前記プロセッサは、前記ズーム領域中の少なくとも2つのゾーンに基づいて、前記ズーム領域向けの前記動き応答速度を決定するように構成される、請求項1に記載の電子デバイス。
  6. 前記プロセッサは、追跡領域と前記ズーム領域とのサイズ比が最小ズーム閾未満である場合にはズームを増大するように構成される、請求項1に記載の電子デバイス。
  7. 前記プロセッサは、前記サイズ比が最大ズーム閾よりも大きい場合にはズームを低下するように構成される、請求項6に記載の電子デバイス。
  8. 前記最小ズーム閾と前記最大ズーム閾との間には一定の範囲がある、請求項7に記載の電子デバイス。
  9. 前記プロセッサは、履歴テーブルに基づいて前記自動ズームを実施するように構成される、請求項1に記載の電子デバイス。
  10. 前記プロセッサは、オブジェクトの動きに基づいて、ズームレベルをフレームごとに調節するように構成される、請求項1に記載の電子デバイス。
  11. 複数の画像を取得することと、
    前記複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得することと、
    前記複数の画像のうちの前記少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得することと、
    前記グローバル動き情報および前記オブジェクト追跡情報に基づいて自動ズームを実施することと、ここにおいて、自動ズームを実施することは、前記追跡されるオブジェクトを含むズーム領域を生じ、自動ズームを実施することは、前記ズーム領域内の追跡されるオブジェクトのロケーションに基づいて、前記ズーム領域向けの動き応答速度を決定することを備える、を備える方法。
  12. カメラ入力の全視野に基づいてオブジェクト追跡を実施することをさらに備える、請求項11に記載の方法。
  13. 前記グローバル動き情報および追跡されるオブジェクトと前記ズーム領域のアンカーポイントとの間の距離に基づいてズーム領域動きを決定することをさらに備える、請求項11に記載の方法。
  14. 前記ズーム領域が境界線バッファゾーンに入り、追跡されるオブジェクトが画像境界に向かって移動している場合には、グローバル動きを補償することをさらに備える、請求項11に記載の方法。
  15. 前記ズーム領域向けの前記動き応答速度を決定することは、前記ズーム領域中の少なくとも2つのゾーンに基づく、請求項11に記載の方法。
  16. 追跡領域と前記ズーム領域とのサイズ比が最小ズーム閾未満である場合にはズームを増大することをさらに備える、請求項11に記載の方法。
  17. 前記サイズ比が最大ズーム閾よりも大きい場合にはズームを低下することをさらに備える、請求項16に記載の方法。
  18. 前記最小ズーム閾と前記最大ズーム閾との間には一定の範囲がある、請求項17に記載の方法。
  19. 前記自動ズームを実施することは履歴テーブルに基づく、請求項11に記載の方法。
  20. オブジェクトの動きに基づいて、ズームレベルをフレームごとに調節することをさらに備える、請求項11に記載の方法。
  21. 命令を有する非一時的有形コンピュータ可読媒体を備えるコンピュータプログラム製品であって、前記命令は、
    電子デバイスに、複数の画像を取得させるためのコードと、
    前記電子デバイスに、前記複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得させるためのコードと、
    前記電子デバイスに、前記複数の画像のうちの前記少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得させるためのコードと、
    前記電子デバイスに、前記グローバル動き情報および前記オブジェクト追跡情報に基づいて自動ズームを実施させるためのコードと、ここにおいて、自動ズームを実施することは、前記追跡されるオブジェクトを含むズーム領域を生じ、前記電子デバイスに、自動ズームを実施させるための前記コードは、前記電子デバイスに、前記ズーム領域内の前記追跡されるオブジェクトのロケーションに基づいて、前記ズーム領域向けの動き応答速度を決定させるためのコードを備える、を備える、コンピュータプログラム製品。
  22. 前記電子デバイスに、カメラ入力の全視野に基づいてオブジェクト追跡を実施させるためのコードをさらに備える、請求項21に記載のコンピュータプログラム製品。
  23. 前記電子デバイスに、前記グローバル動き情報および追跡されるオブジェクトと前記ズーム領域のアンカーポイントとの間の距離に基づいてズーム領域動きを決定させるためのコードをさらに備える、請求項21に記載のコンピュータプログラム製品。
  24. 前記電子デバイスに、前記ズーム領域向けの前記動き応答速度を決定させるための前記コードは、前記ズーム領域中の少なくとも2つのゾーンに基づく、請求項21に記載のコンピュータプログラム製品。
  25. 前記電子デバイスに、追跡領域と前記ズーム領域とのサイズ比が最小ズーム閾未満である場合にはズームを増大させるためのコードをさらに備える、請求項21に記載のコンピュータプログラム製品。
  26. 複数の画像を取得するための手段と、
    前記複数の画像のうちの少なくとも2つの間のグローバル動きを示すグローバル動き情報を取得するための手段と、
    前記複数の画像のうちの前記少なくとも2つの間の、追跡されるオブジェクトの動きを示すオブジェクト追跡情報を取得するための手段と、
    前記グローバル動き情報および前記オブジェクト追跡情報に基づいて自動ズームを実施するための手段と、ここにおいて、自動ズームを実施することは、前記追跡されるオブジェクトを含むズーム領域を生じ、自動ズームを実施するための前記手段は、前記ズーム領域内の前記追跡されるオブジェクトのロケーションに基づいて、前記ズーム領域向けの動き応答速度を決定するための手段を備える、を備える装置。
  27. カメラ入力の全視野に基づいてオブジェクト追跡を実施するための手段をさらに備える、請求項26に記載の装置。
  28. 前記グローバル動き情報および追跡されるオブジェクトと前記ズーム領域のアンカーポイントとの間の距離に基づいてズーム領域動きを決定するための手段をさらに備える、請求項26に記載の装置。
  29. 前記ズーム領域向けの前記動き応答速度を決定するための前記手段は、前記ズーム領域中の少なくとも2つのゾーンに基づく、請求項26に記載の装置。
  30. 追跡領域と前記ズーム領域とのサイズ比が最小ズーム閾未満である場合にはズームを増大するための手段をさらに備える、請求項26に記載の装置。
JP2018515891A 2015-09-28 2016-08-05 自動ズームを実施するためのシステムおよび方法 Active JP6469932B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562233594P 2015-09-28 2015-09-28
US62/233,594 2015-09-28
US14/991,698 2016-01-08
US14/991,698 US9781350B2 (en) 2015-09-28 2016-01-08 Systems and methods for performing automatic zoom
PCT/US2016/045838 WO2017058362A1 (en) 2015-09-28 2016-08-05 Systems and methods for performing automatic zoom

Publications (2)

Publication Number Publication Date
JP2018538712A true JP2018538712A (ja) 2018-12-27
JP6469932B2 JP6469932B2 (ja) 2019-02-13

Family

ID=58406213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018515891A Active JP6469932B2 (ja) 2015-09-28 2016-08-05 自動ズームを実施するためのシステムおよび方法

Country Status (8)

Country Link
US (1) US9781350B2 (ja)
EP (1) EP3357229B1 (ja)
JP (1) JP6469932B2 (ja)
KR (1) KR101901104B1 (ja)
CN (1) CN108141529B (ja)
BR (1) BR112018006262A2 (ja)
CA (1) CA3000355A1 (ja)
WO (1) WO2017058362A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220084780A (ko) * 2020-12-14 2022-06-21 주식회사 유라코퍼레이션 후측방 접근차량 경고 시스템 및 방법

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106575027B (zh) * 2014-07-31 2020-03-06 麦克赛尔株式会社 摄像装置及其被摄体跟踪方法
CN107409175B (zh) * 2015-03-26 2020-04-21 富士胶片株式会社 跟踪控制装置、跟踪控制方法、自动跟踪摄影系统及有形介质
JP6432449B2 (ja) * 2015-06-02 2018-12-05 コニカミノルタ株式会社 情報処理装置、情報処理プログラム、及び情報処理方法
JP6590628B2 (ja) * 2015-10-09 2019-10-16 キヤノン株式会社 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
KR101713492B1 (ko) * 2016-06-27 2017-03-07 가천대학교 산학협력단 영상 복호화 방법, 영상 부호화 방법, 영상 복호화 장치, 및 영상 부호화 장치
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
WO2018195979A1 (zh) * 2017-04-28 2018-11-01 深圳市大疆创新科技有限公司 一种跟踪控制方法、装置及飞行器
CN110692235B (zh) * 2017-05-17 2021-06-22 株式会社克利普顿 图像处理装置、图像处理程序及图像处理方法
DE102017208592A1 (de) * 2017-05-22 2018-11-22 Continental Automotive Gmbh Rückfahrkamerasystem und dessen Komponenten
US11093752B2 (en) * 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
CN109151295B (zh) * 2017-06-16 2020-04-03 杭州海康威视数字技术股份有限公司 一种目标对象抓拍方法、装置及视频监控设备
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
US11587419B2 (en) 2017-08-04 2023-02-21 Toyota Research Institute, Inc. Methods and systems providing an intelligent camera system
CA3062036C (en) 2017-08-31 2021-05-11 Macdonald, Dettwiler And Associates Inc. Robotic livery printing system
US11010646B2 (en) 2018-04-10 2021-05-18 Facebook Technologies, Llc Object tracking assisted with hand or eye tracking
US10547790B2 (en) 2018-06-14 2020-01-28 Google Llc Camera area locking
US11514585B2 (en) 2018-09-17 2022-11-29 Nokia Solutions And Networks Oy Object tracking
WO2020107372A1 (zh) * 2018-11-30 2020-06-04 深圳市大疆创新科技有限公司 拍摄设备的控制方法、装置、设备及存储介质
CN110225251B (zh) * 2019-05-31 2020-10-16 维沃移动通信(杭州)有限公司 一种视频录制方法及终端
FR3096854B1 (fr) 2019-06-03 2021-11-12 Genetec Inc Système de commande du zoom d'un ensemble de cameras et procedé de commande d’un ensemble de caméras
CN112422805B (zh) * 2019-08-22 2022-02-18 华为技术有限公司 一种拍摄方法及电子设备
KR102558959B1 (ko) * 2019-10-14 2023-07-24 주식회사 케이티 영상으로부터 객체를 추출하는 장치, 방법 및 컴퓨터 프로그램
CN111050066A (zh) * 2019-11-01 2020-04-21 深圳市道通智能航空技术有限公司 变焦方法、装置、飞行器、飞行系统及存储介质
CN111083360B (zh) * 2019-12-09 2021-06-04 北京航空航天大学杭州创新研究院 一种基于像素坐标的摄像监视设备匹配控制方法
CN111212222A (zh) * 2020-01-09 2020-05-29 Oppo广东移动通信有限公司 图像处理方法、装置、电子装置及存储介质
KR20210101087A (ko) 2020-02-07 2021-08-18 삼성전자주식회사 전자 장치 및 그 전자 장치에서 영상을 표시하는 방법
CN112312005A (zh) * 2020-02-12 2021-02-02 北京字节跳动网络技术有限公司 图像获取方法及装置
US11265474B2 (en) 2020-03-16 2022-03-01 Qualcomm Incorporated Zoom setting adjustment for digital cameras
US11265469B1 (en) 2020-04-10 2022-03-01 Amazon Technologies, Inc. System to mitigate image jitter by an actuator driven camera
CN113592874B (zh) * 2020-04-30 2024-06-14 杭州海康威视数字技术股份有限公司 图像显示方法、装置和计算机设备
US11809998B2 (en) 2020-05-20 2023-11-07 Qualcomm Incorporated Maintaining fixed sizes for target objects in frames
CN113766272B (zh) * 2020-06-04 2023-02-10 腾讯科技(深圳)有限公司 一种沉浸媒体的数据处理方法
KR20220006753A (ko) * 2020-07-09 2022-01-18 삼성전자주식회사 영상을 제공하는 방법 및 이를 지원하는 전자 장치
KR20220023632A (ko) * 2020-08-21 2022-03-02 삼성전자주식회사 흔들림을 보정하는 방법 및 그 전자 장치
KR20220028951A (ko) 2020-08-31 2022-03-08 삼성전자주식회사 전자 장치 및 그 제어 방법
CN116528046A (zh) * 2020-11-09 2023-08-01 华为技术有限公司 目标用户追焦拍摄方法、电子设备及存储介质
JP2022131497A (ja) * 2021-02-26 2022-09-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
KR20220156280A (ko) * 2021-05-18 2022-11-25 삼성전자주식회사 오브젝트 추적 방법 및 이를 위한 전자 장치
KR102592088B1 (ko) * 2021-11-19 2023-10-20 주식회사 핀텔 스트리밍모듈을 이용한 고해상도 영상분석방법, 장치 및 이에 대한 컴퓨터 프로그램
CN114222065B (zh) * 2021-12-20 2024-03-08 北京奕斯伟计算技术股份有限公司 图像处理方法、装置、电子设备、存储介质及程序产品
TWI783899B (zh) * 2022-04-20 2022-11-11 圓展科技股份有限公司 自動追蹤拍攝系統及方法
WO2024076362A1 (en) * 2022-10-04 2024-04-11 Google Llc Stabilized object tracking at high magnification ratios
NL2034447B1 (en) * 2023-03-28 2024-10-08 Studio Automated Sport & Media Holding B V Method for autonomous production of an edited video stream

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147727A (ja) * 2007-12-14 2009-07-02 Sanyo Electric Co Ltd 撮像装置及び画像再生装置
JP2012222776A (ja) * 2011-04-14 2012-11-12 Isuzu Motors Ltd 画像処理装置、画像処理方法、及び運転支援システム
JP2013005101A (ja) * 2011-06-14 2013-01-07 Olympus Corp 情報処理装置、サーバシステム、画像処理システム及びプログラム
JP2013239869A (ja) * 2012-05-15 2013-11-28 Sony Corp 画像処理装置及び方法、並びに記録媒体

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0147572B1 (ko) 1992-10-09 1998-09-15 김광호 자동 줌잉을 위한 피사체 추적방법 및 그 장치
US5835641A (en) 1992-10-14 1998-11-10 Mitsubishi Denki Kabushiki Kaisha Image pick-up apparatus for detecting and enlarging registered objects
US5579054A (en) * 1995-04-21 1996-11-26 Eastman Kodak Company System and method for creating high-quality stills from interlaced video
JP3603737B2 (ja) * 2000-03-30 2004-12-22 日本電気株式会社 移動体追尾方法及びその装置
US7742073B1 (en) * 2000-11-01 2010-06-22 Koninklijke Philips Electronics N.V. Method and apparatus for tracking an object of interest using a camera associated with a hand-held processing device
KR100792283B1 (ko) 2001-08-07 2008-01-07 삼성전자주식회사 이동물체 자동 추적장치 및 방법
US20060000911A1 (en) * 2002-05-07 2006-01-05 Amit Stekel Automatic certification, identification and tracking of remote objects in relative motion
JP4140591B2 (ja) * 2004-09-13 2008-08-27 ソニー株式会社 撮像システム及び撮像方法
JP4241742B2 (ja) 2006-01-31 2009-03-18 パナソニック株式会社 自動追尾装置及び自動追尾方法
WO2007110097A1 (en) * 2006-03-29 2007-10-04 Tessera Technologies Hungary Kft. Image capturing device with improved image quality
JP4859625B2 (ja) * 2006-10-27 2012-01-25 Hoya株式会社 手ぶれ補正装置を備えたカメラ
JP4697810B2 (ja) 2007-03-05 2011-06-08 パナソニック株式会社 自動追尾装置及び自動追尾方法
US8125512B2 (en) 2007-11-16 2012-02-28 Samsung Electronics Co., Ltd. System and method for moving object selection in a handheld image capture device
JP5040760B2 (ja) * 2008-03-24 2012-10-03 ソニー株式会社 画像処理装置、撮像装置、表示制御方法およびプログラム
JP5322287B2 (ja) * 2009-05-28 2013-10-23 パナソニック株式会社 回転台付カメラ装置
JP5404238B2 (ja) 2009-08-06 2014-01-29 キヤノン株式会社 撮像装置
CN102014248B (zh) * 2009-09-04 2012-07-04 华晶科技股份有限公司 自动聚焦方法及模块和应用该方法的影像撷取装置
US9137444B2 (en) * 2011-09-26 2015-09-15 Sony Corporation Image photography apparatus for clipping an image region
JP6429454B2 (ja) * 2013-11-28 2018-11-28 キヤノン株式会社 撮像装置、撮像装置の制御方法および撮像装置の制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147727A (ja) * 2007-12-14 2009-07-02 Sanyo Electric Co Ltd 撮像装置及び画像再生装置
JP2012222776A (ja) * 2011-04-14 2012-11-12 Isuzu Motors Ltd 画像処理装置、画像処理方法、及び運転支援システム
JP2013005101A (ja) * 2011-06-14 2013-01-07 Olympus Corp 情報処理装置、サーバシステム、画像処理システム及びプログラム
JP2013239869A (ja) * 2012-05-15 2013-11-28 Sony Corp 画像処理装置及び方法、並びに記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220084780A (ko) * 2020-12-14 2022-06-21 주식회사 유라코퍼레이션 후측방 접근차량 경고 시스템 및 방법
KR102474726B1 (ko) 2020-12-14 2022-12-06 주식회사 유라코퍼레이션 후측방 접근차량 경고 시스템 및 방법
KR20220167257A (ko) * 2020-12-14 2022-12-20 주식회사 유라코퍼레이션 후측방 접근차량 경고 시스템 및 방법
KR102517862B1 (ko) 2020-12-14 2023-04-04 주식회사 유라코퍼레이션 후측방 접근차량 경고 시스템 및 방법

Also Published As

Publication number Publication date
CN108141529B (zh) 2019-03-01
KR20180051643A (ko) 2018-05-16
CN108141529A (zh) 2018-06-08
EP3357229B1 (en) 2021-09-22
BR112018006262A2 (pt) 2018-10-09
KR101901104B1 (ko) 2018-09-20
WO2017058362A1 (en) 2017-04-06
JP6469932B2 (ja) 2019-02-13
EP3357229A1 (en) 2018-08-08
CA3000355A1 (en) 2017-04-06
US20170094184A1 (en) 2017-03-30
US9781350B2 (en) 2017-10-03

Similar Documents

Publication Publication Date Title
JP6469932B2 (ja) 自動ズームを実施するためのシステムおよび方法
CN106796657B (zh) 用于多目标对象跟踪的自动目标选择
US9479709B2 (en) Method and apparatus for long term image exposure with image stabilization on a mobile device
CN110322542B (zh) 重建真实世界3d场景的视图
JP5284048B2 (ja) 画像処理装置、撮像装置及び画像処理方法
EP3562143B1 (en) Image processing device, image processing method, and program
WO2019071613A1 (zh) 一种图像处理方法及装置
US20210390721A1 (en) Display control apparatus, display control method, and storage medium
CN107710736B (zh) 辅助用户捕获图像或视频的方法和系统
EP3975549A1 (en) Balancing exposure and gain at an electronic device based on device motion and scene distance
JP2020514891A (ja) ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分
WO2019104569A1 (zh) 一种对焦方法、设备及可读存储介质
US11449968B2 (en) System and method for synthetic depth-of-field effect rendering for videos
US20200124940A1 (en) Electronic device to autofocus on objects of interest within field-of-view of electronic device
US11361448B2 (en) Image processing apparatus, method of controlling image processing apparatus, and storage medium
CN115589532A (zh) 防抖处理方法、装置、电子设备和可读存储介质
TW202247102A (zh) 電子裝置以及其影像擷取器的控制方法
CN117479011A (zh) 一种无人机自动聚焦的方法、装置以及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190116

R150 Certificate of patent or registration of utility model

Ref document number: 6469932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250