JP2018530177A - 画像又はビデオをユーザが取り込むのを支援する方法及びシステム - Google Patents

画像又はビデオをユーザが取り込むのを支援する方法及びシステム Download PDF

Info

Publication number
JP2018530177A
JP2018530177A JP2018500332A JP2018500332A JP2018530177A JP 2018530177 A JP2018530177 A JP 2018530177A JP 2018500332 A JP2018500332 A JP 2018500332A JP 2018500332 A JP2018500332 A JP 2018500332A JP 2018530177 A JP2018530177 A JP 2018530177A
Authority
JP
Japan
Prior art keywords
user
image
electronic device
video
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018500332A
Other languages
English (en)
Other versions
JP6587081B2 (ja
Inventor
サイエド イナヤスラ ナゼルラ マルギマニ
サイエド イナヤスラ ナゼルラ マルギマニ
マドヴェシュ スリバヴィ
マドヴェシュ スリバヴィ
プラモド チンタラポーディ
プラモド チンタラポーディ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2018530177A publication Critical patent/JP2018530177A/ja
Application granted granted Critical
Publication of JP6587081B2 publication Critical patent/JP6587081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】 最適品質を備えた画像又はビデオの取り込みにおいてユーザを支援する方法及びシステムを提供する。
【解決手段】 本明細書において、画像又はビデオをユーザが取り込むのを支援するための方法及びシステムの様々な態様が開示される。1つの実施形態によれば、電子デバイスにおける1又は2以上の回路が、ユーザから第1の複数の入力値を受け取るよう構成される。第1の複数の入力値は、第1の位置にて電子デバイスの1又は2以上の視野(FOV)における第1のオブジェクトを包含する第1の複数の境界ポイントを含む。その後、画像又はビデオを取り込むために使用される第2の位置及び目標FOVは、第1の複数の境界ポイントに基づいて決定される。画像又はビデオは、少なくとも第1のオブジェクトを含む。更に、インジケータの表示は、目標FOVにおける画像又はビデオを取り込むための第2の位置にユーザを案内するよう制御される。
【選択図】 図9

Description

本開示の様々な実施形態は、画像の取り込みに関する。より具体的には、本開示の様々な実施形態は、ユーザが画像又はビデオを取り込むためのデバイスベースの支援に関する。
画像処理技術の進歩及びカメラ対応電子デバイスの急増に伴って、アマチュア写真家とプロ写真家の両方を含む写真愛好家の数が大幅に増えてきた。プロ写真家は、シーンの画像又はビデオを撮影するスポットを選ぶときに十分に注意を払う場合がある。プロ写真家は、ユーザの電子デバイスで利用でき且つユーザが適切なショットを取り込むのを可能にする様々な調節及び設定の知識を有することができる。更に、プロ写真家は、取り込まれた画像又はビデオの品質を向上するためにこれらに対して実行できる様々な後処理動作を認知している。しかしながら、アマチュア写真家は、写真撮影に伴う精緻さに関してプロ写真家ほどには認知しておらずまた精通していない可能性がある。従って、最適品質を備えた画像又はビデオの取り込みにおいて、このような初心者又はアマチュアユーザを支援する必要性がある。
従来的手法及び因習的手法の更に別の限界及び欠点は、本出願の残りの部分で図面を参照して示すような本発明の開示の一部の態様との説明するシステムの比較を通して当業者には明らかになるであろう。
画像又はビデオをユーザが取り込むのを支援する方法及びシステムは、請求項において完全に記載されるように図の少なくとも1つに関して図示及び/又は説明される。
本発明の開示のこれら及び他の特徴及び利点は、全体を通して類似の参照番号が類似の部分を指す添付図面と共に本発明の開示の以下の詳細説明の精査から理解することができる。
本開示の実施形態による、画像又はビデオをユーザが取り込むのを支援する例示的な環境を示す図である。 本開示の実施形態による、例示的な電子デバイスを示すブロック図である。 本開示の実施形態による、関心シーンの1又は2以上のオブジェクトを包含する複数の境界ポイントの選択のための例示的なシナリオを示す図である。 本開示の実施形態による、関心シーンにおける少なくとも1つの動的オブジェクトと1又は2以上の静的オブジェクトについての複数の境界ポイントの選択のための例示的なシナリオを示す図である。 本開示の実施形態による、電子デバイスを使用してユーザが画像又はビデオを取り込むのを支援するための第1の例示的なシナリオを示す図である。 本開示の実施形態による、電子デバイスを使用してユーザが画像又はビデオを取り込むのを支援するための第2の例示的なシナリオを示す図である。 本開示の実施形態による、関心シーンのパノラマ画像を取り込むためのユーザのガイダンスの例示的なシナリオを示す図である。 本開示の実施形態による、関心シーンの閾値画像を取り込むユーザのガイダンスの例示的なシナリオを示す図である。 本開示の実施形態による、画像又はビデオをユーザが取り込むのを支援する方法を示すフローチャートである。
以下に記載される実施構成は、画像又はビデオをユーザが取り込むのを支援するための開示される方法及びシステムにおいて見出すことができる。本開示の例示的な態様は、電子デバイスにおいて実施可能な方法を含むことができる。本方法は、第1の位置にあるユーザからの第1の複数の入力値の受け取りを含むことができる。受け取った第1の複数の入力値は、第1の位置にある電子デバイスの1又は2以上の視野(FOV)における第1のオブジェクトを包含する第1の複数の境界ポイントを含むことができる。その後、受け取った第1の複数の境界ポイントに基づいて、画像又はビデオを取り込むための第2の位置及び目標FOVを決定することができる。画像又はビデオは、少なくとも第1のオブジェクトを含むことができる。更に、インジケータの表示を制御して、目標FOVにおける第1のオブジェクトの画像又はビデオを取り込むための第2の位置にユーザを案内することができる。
1つの実施形態によれば、第1のオブジェクトの少なくとも一部分は、第1の位置の電子デバイスの1又は2以上のFOVを超えて延びる場合がある。ユーザ定義の閾値に基づいて第2の位置及び目標FOVを決定し、目標FOVにおける第1のオブジェクトの一部分を取り込むことができる。
1つの実施形態によれば、電子デバイスの1又は2以上のセンサからセンサデータを受け取って、第1のオブジェクトを包含することができる第1の複数の境界ポイントを決定することができる。1又は2以上のパラメータの決定に基づいて、第2の位置及び目標FOVを決定することができる。1又は2以上のパラメータの実施例は、限定ではないが、光の方向、1又は2以上の光源、光の強度、1又は2以上のFOVにおいて第1のオブジェクトを見たときの電子デバイスの移動角度、第1の位置の電子デバイスからの第1のオブジェクトの距離、及び/又は画像品質閾値を含むことができる。
第1の位置にあるユーザから第2の複数の入力値を受け取ることができる。受け取った第2の複数の入力値は、第2のオブジェクトを包含することができる第2の複数の境界ポイントを含むことができる。1つの実施形態によれば、第1のオブジェクト及び第2のオブジェクトを取り込むために、パノラマ画像モードを推奨することができる。1つの実施形態によれば、第1のオブジェクト及び第2のオブジェクトを含む画像又はビデオを取り込むための第2の位置及び目標FOVを決定することができる。第2の位置及び目標FOVの決定は、第1のオブジェクトについての受け取った第1の複数の境界ポイント及び第2のオブジェクトについての受け取った第2の複数の境界ポイントに基づくことができる。
1つの実施形態によれば、目標FOVにおける第1のオブジェクト及び/又は第2のオブジェクトの一部分を取り込むための閾値を示すことができる。1つの実施形態によれば、第1及び/又は第2のオブジェクトは、移動状態であってもよい。第1のオブジェクト及び/又は第2のオブジェクトが移動状態にあるときに、第1のオブジェクト及び第2のオブジェクトを含むビデオを取り込むことができる。
目標FOVにおいて決定された第2の位置にある第1のオブジェクトの画像又はビデオを取り込むための1又は2以上の設定パラメータを使用する推奨を決定することができる。1又は2以上の設定パラメータの実施例は、限定ではないが、アパーチャ設定、国際標準化機構(ISO)感度、自動露出、オートフォーカス、自動ホワイトバランス、及び/又は自動照明を含むことができる。
図1は、本開示の実施形態による、画像又はビデオをユーザが取り込むのを支援するための例示的な環境を示す。図1を参照すると、例示的な環境100が示されている。例示的な環境100は、関心シーン102、ユーザ104、及び電子デバイス106を含むことができる。例示的な環境100は更に、異なる時点でのユーザ104の位置に関連付けられる第1の位置108a及び第2の位置108bなどの位置を含むことができる。例示的な環境100は更に、第1の位置108a及び第2の位置108bそれぞれにある電子デバイス106の第1FOV 110b及び第2FOV 110bなどの視野(FOV)を含むことができる。例示的な環境100は更に、第1の複数の境界ポイント114及び第2の複数の境界ポイント118それぞれが包含することができる第1のオブジェクト112及び第2のオブジェクト116を含むことができる。加えて、例示的な環境100は、第1UI 120a及び第2UI 120bなどの電子デバイス100の例示的なユーザインタフェース(UI)を示す。第1UI 120aは、第1UI 120aにおいて参照画像122を表示することができる。第2UI 120bは、ナビゲーション指示などのインジケータを表示してユーザ104にガイダンスを提供する、第1の部分124a及び第2の部分124bを含むことができる。
関心シーン102は、ユーザ104が電子デバイス106を使用して画像又はビデオとして取り込むのに興味を有する可能性がある地理的エリア又は風景を含むことができる。取り込まれる画像又はビデオは、地理的エリア又は風景内に位置することができる1又は2以上のオブジェクトの描写を含むことができる。1又は2以上のオブジェクトの実施例は、限定ではないが、建物、建築的人工物、道路、水域、車両、人の対象体、及び/又は人以外の対象体を含むことができる。
ユーザ104は、地理的エリア又は風景における1又は2以上のオブジェクトの画像又はビデオを取り込むことができる人の対象体に相当することができる。1つの実施形態によれば、ユーザ104は、ユーザ104が地理的エリアの近く又はその中に位置する間に、電子デバイス106を使用して画像又はビデオを取り込むことができる。1つの実施形態によれば、ユーザ104が画像又はビデオを取り込む間、ユーザ104は、複数の入力値を第1UI 120aを介して電子デバイス106に提供することができる。複数の入力値に基づいて、電子デバイス106は、第2UI 120bを介してユーザ104に対して推奨を表示し、ユーザ104が画像又はビデオを取り込むのを支援することができる。
本開示の範囲が人の対象体としてのユーザ104に限定されない点は、当業者であれば理解されるであろう。1つの実施形態によれば、ユーザ104は、限定ではないが、画像取り込みロボット、画像取り込みドローン、スパイダーカメラ、及び/又は監視カメラなどの自動画像取り込みデバイスに相当することができる。このような事例では、電子デバイス106の機能は、自動画像取り込みデバイスによって実施することができる。代替として、自動画像取り込みデバイスは、画像又はビデオを自動画像取り込みデバイスが取り込むのを支援するよう構成することができる別の電子デバイス又はサーバに通信可能に結合することができる。
電子デバイス106は、画像又はビデオをユーザ104が取り込むのを支援するよう構成することができる好適な論理、回路、インタフェース、及び/又はコードを含むことができる。1つの実施形態によれば、電子デバイス106は、該電子デバイス106の第1UI 120aを介してユーザ104から複数の入力値を受け取るよう構成することができる。更に複数の入力値に基づいて、電子デバイス106は、画像又はビデオをユーザ104が取り込むのを支援するために、第2UI 120bを介してユーザ104に推奨を表示することができる。1つの実施形態によれば、ユーザ104は、電子デバイス106を使用して、電子デバイス106によって提供される推奨に基づいて画像又はビデオを取り込むことができる。電子デバイス106の実施例は、限定ではないが、スマートフォン、カメラ、タブレットコンピュータ、ラップトップ、ウェアラブル電子デバイス、スマート眼鏡、デジタルカムコーダ、及び/又は他のカメラ対応デバイスを含むことができる。
動作中、ユーザ104は、電子デバイス106を使用して、第1の位置108aなどの初期位置から第1のオブジェクト112の画像又はビデオの取り込みを要求することができる。第1の位置108aは、第1のオブジェクト112が位置付けられる場所と同じ地理的エリア内のユーザ104の位置に相当することができる。第1のオブジェクト112は、第1の位置108aにある電子デバイス106の第1FOV 110aなどの1又は2以上のFOV内で見ることができる。1つの実施形態によれば、第1のオブジェクト112の少なくとも一部分は、第1の位置108aにある電子デバイス106の第1FOV 110aを超えて延びる場合がある。電子デバイス106は、第1の位置108aにあるユーザ104から第1の複数の入力値を受け取るよう構成することができる。受け取った第1の複数の入力値は、境界ポイント114などの第1の複数の境界ポイントを含むことができる。第1の複数の境界ポイント114は、第1のオブジェクト112を包含することができる。1つの実施形態によれば、電子デバイス106は、該電子デバイス106における1又は2以上のセンサによって生成されたセンサデータに基づいて、第1の複数の境界ポイント114を決定するよう構成することができる。
1つの実施形態によれば、電子デバイス106は、1又は2以上のパラメータの決定に基づいて、第2の位置108bなどの目標位置と、第2FOV 110bなどの目標FOVとを決定するよう構成することができる。1又は2以上のパラメータの実施例は、限定ではないが、光の方向、1又は2以上の光源、光の強度、第1FOV 110aにおいて第1のオブジェクト112を見たときの電子デバイス106の移動角度、第1の位置108aの電子デバイス106からの第1のオブジェクト112の距離、及び/又は予め設定された画像品質閾値を含むことができる。第2FOV 110b内で第2の位置108bから取り込まれた少なくとも第1のオブジェクト112の画像又はビデオは、電子デバイス106によって取り込むことができる最終画像又はビデオに相当することができる。第2の位置108b及び第2FOV 110bの決定は、受け取った第1の複数の境界ポイント114に基づくことができる。1つの実施形態によれば、第2の位置108b及び第2FOV 110bは、第2FOV 110bにおける第1のオブジェクト112の一部分を取り込むためのユーザ定義の閾値に基づいて決定することができる。電子デバイス106は更に、インジケータの表示を制御するよう構成することができる。このインジケータは、最適な方式で第2FOV 110bの第1のオブジェクト112の最終画像又はビデオを取り込むため、第2の位置108bにユーザ104を案内することができる。
1つの実施形態によれば、電子デバイス106は、第1の位置108aにおいて第1UI 120aを介してユーザ104から第2の複数の入力値を受け取るよう構成することができる。第2の複数の入力値は、第2のオブジェクト116を包含することができる境界ポイント118などの第2の複数の境界ポイントを含むことができる。1つの実施形態によれば、第1のオブジェクト112及び第2のオブジェクト116の両方を含む画像又はビデオを取り込むため、第2の位置108b及び第2FOV 110bを決定することができる。この決定は、第1のオブジェクト112についての受け取った第1の複数の境界ポイント114及び第2のオブジェクト116についての受け取った第2の複数の境界ポイント118に基づくことができる。
例えば、ユーザ104は、電子デバイス106を使用して、第1の位置108aなどのユーザ104の初期位置において関心シーン102の参照画像122を取り込むことができる。電子デバイス106は、取り込まれた参照画像122を第1UI 120aを介してユーザ104に表示することができる。更に、電子デバイス106は、ユーザ104に対して、第1UI 120aを介して参照画像122における複数の境界ポイントを選択する入力を提供するよう指示することができる。ユーザ104は、第1UI 120aを介して第1のオブジェクト112を包含することができる第1の複数の境界ポイント114を選択する第1の複数の入力値を提供することができる。加えて、ユーザ104は、第1UI 120aを介して第2のオブジェクト116を包含することができる第2の複数の境界ポイント118を選択する別の入力(第2の複数の入力値など)を提供することができる。その後、電子デバイス106は、複数の境界ポイント114及び118に基づいて、第1のオブジェクト112及び第2のオブジェクト116を包含する最終画像又はビデオを取り込むための目標位置(第2の位置108bなど)を決定することができる。電子デバイス106は、第2UI 120bをユーザ104に表示して、ユーザ104が第1の位置108aから第2の位置108bを発見するのを支援することができる。第2UI 120bは、第1の位置108aから第2の位置108bに到達するための1又は2以上の経路の推奨を表示することができる。この推奨の実施例は、限定ではないが、第2の位置108bに到達するための視覚指示、テキスト指示、及び/又は音声指示を含むことができる。例えば、第2UI 120bは、第1の位置108aから第2の位置108bに到達するための視覚ナビゲーションマップを表示する第1の部分124aを含むことができる。更に、第2UI 120bは、「2フィート後方に歩く」、「5フィート左方向に歩く」、「3フィート後方に歩く」、及び「1フィート左方向に歩く」などの対応するテキストナビゲーション指示を表示する第2の部分124bを含むことができる。第1UI 120a及び第2UI 120bは例証の目的で提供され、本開示の範囲を限定するものと解釈すべきではないことを、当業者であれば理解するであろう。
1つの実施形態によれば、電子デバイス106は、第1UI 120aを介してユーザ104に閾値を示すよう構成することができる。この閾値は、第2FOV 110bにおける第1のオブジェクト112及び/又は第2のオブジェクト116の一部分を含むことができる画像又はビデオの取り込みを可能にすることができる。1つの実施形態によれば、第1のオブジェクト112及び/又は第2のオブジェクト116は、移動状態とすることができる。第1のオブジェクト112及び/又は第2のオブジェクト116が移動状態にあるときに、電子デバイス106は、第1のオブジェクト112及び第2のオブジェクト116を含むビデオの取り込みを推奨することができる。代替として(又は上記に加えて)、電子デバイス106は、電子デバイス106のパノラマ画像モードでの第1のオブジェクト112及び第2のオブジェクト116の取り込みを推奨することができる。
1つの実施形態によれば、電子デバイス106は、1又は2以上の設定パラメータの使用についての推奨を決定するよう構成することができる。決定した設定パラメータを使用して、第2FOV108bにおける決定された第2の位置108bで第1のオブジェクト112の画像又はビデオを取り込むことができる。電子デバイス106は、電子デバイス106の第2UI 120bを介して決定した推奨をユーザ104に提供することができる。1又は2以上の設定パラメータの実施例は、限定ではないが、アパーチャ設定、国際標準化機構(ISO)感度、自動露出、オートフォーカス、自動ホワイトバランス、及び/又は自動照明を含むことができる。
図2は、本開示の実施形態による、例示的な電子デバイスを示すブロック図である。図2は、図1からの要素に関して説明される。図2を参照すると、電子デバイス106が示されている。電子デバイス106は、プロセッサ202などの1又は2以上のプロセッサ、送受信機204などの1又は2以上の送受信機、メモリ206などの1又は2以上のメモリ、カメラプラグイン208、1又は2以上のセンサ216、及びディスプレイデバイス218を含むことができる。カメラプラグイン208は、画像処理エンジン210、推奨エンジン212、及びUIマネージャ214を含むことができる。1つの実施形態によれば、電子デバイス106は、送受信機204を介して通信ネットワーク(図2には図示せず)を通じて1又は2以上の他の電子デバイス又はサーバに通信可能に結合することができる。代替として、電子デバイス106は、送受信機204を含まなくてもよい。このような事例では、電子デバイス106は、1又は2以上の他の電子デバイス又はサーバとの通信が可能ではない。
プロセッサ202は、送受信機204、メモリ206、カメラプラグイン208、1又は2以上のセンサ216、及びディスプレイデバイス218に通信可能に結合することができる。送受信機204は、通信ネットワーク(図示せず)を介して別の電子デバイス又はサーバ(図示せず)と通信するよう構成することができる。
プロセッサ202は、メモリ206内に格納された命令セットを実行するよう構成することができる、好適な論理、回路、インタフェース、及び/又はコードを含むことができる。プロセッサ202は、当技術で公知の幾つかのプロセッサ技術に基づいて実施することができる。プロセッサ202の実施例は、X86ベースプロセッサ、縮小命令セットコンピューティング(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピューティング(CISC)プロセッサ、及び/又は他のプロセッサとすることができる。
送受信機204は、通信ネットワーク(図示せず)を介して別の電子デバイス又はサーバ(図示せず)と通信するよう構成することができる、好適な論理、回路、インタフェース、及び/又はコードを含むことができる。送受信機204は、有線又は無線通信をサポートする公知の技術を実装することができる。送受信機204は、限定ではないが、アンテナ、無線周波数(RF)送受信機、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタル信号プロセッサ、コーダ−デコーダ(CODEC)チップセット、加入者識別モジュール(SIM)カード、及び/又はローカルバッファを含むことができる。
送受信機204は、インターネット、イントラネットなどのネットワーク、及び/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)などの無線ネットワーク及び/又は都市エリアネットワーク(MAN)などの無線ネットワークと無線通信を介して通信することができる。無線通信は、グローバルシステムフォーモバイルコミュニケーションズ(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、ワイヤレスフィデリティ(Wi−Fi)(IEEE802.11a、IEEE802.11b、IEEE802.11g、及び/又はIEEE802.11nなど)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メール用プロトコル、インスタントメッセージング、及び/又はショートメッセージサービス(SMS)などの複数の通信規格、プロトコル及び技術の何れかを使用することができる。
メモリ206は、プロセッサ202によって実行可能な少なくとも1つのコードセクションを備えたマシンコード及び/又はコンピュータプログラムを格納するよう構成することができる、好適な論理、回路、及び/又はインタフェースを含むことができる。メモリ206は更に、電子デバイス106によって取り込むことができる1又は2以上の画像又はビデオを格納するよう構成することができる。1つの実施形態によれば、メモリ206は、離散的メモリパーティションを含むことができる。このような事例では、カメラプラグイン208などの様々なカメラプラグインは、電子デバイス106にインストールされた他のアプリケーション又はプログラムがない限り、対応するメモリパーティションへの直接排他的アクセスを有することができる。メモリ206の実施構成の実施例は、限定ではないが、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、ハードディスクドライブ(HDD)、及び/又はセキュアデジタル(SD)カードを含むことができる。
カメラプラグイン208は、電子デバイス106の使用によって、1又は2以上の画像又はビデオをユーザ104が取り込むのを支援するよう構成することができる、好適な論理、回路、インタフェース、及び/又はコードを含むことができる。1つの実施形態によれば、カメラプラグイン208は、プロセッサ202の一部とすることができる。代替として、カメラプラグイン208は、電子デバイス106内の別のプロセッサ又は回路として実施することができる。1つの実施形態によれば、カメラプラグイン208及びプロセッサ202は、カメラプラグイン208及びプロセッサ202の機能を実行する一体型プロセッサ又はプロセッサのクラスタとして実施することができる。1つの実施形態によれば、カメラプラグイン208は、プロセッサ202によって実行されたときにカメラプラグイン208の機能を実行することができるメモリ206に格納されたコンピュータプログラムコードとして実施することができる。
画像処理エンジン210は、関心シーン102の地理的エリア内の電子デバイス106の目標FOVを決定するよう構成することができる、好適な論理、回路、インタフェース、及び/又はコードを含むことができる。更に、画像処理エンジン210は、地理的エリア内の目標位置を決定するよう構成することができ、これにより電子デバイス106の決定されたFOVにおける最終画像又はビデオの取り込みを可能にすることができる。1つの実施形態によれば、画像処理エンジン210は、1又は2以上のセンサ216からセンサデータを受け取ることができる。センサデータに基づいて、画像処理エンジン210は、1又は2以上のパラメータを決定することができる。画像処理エンジン210は、決定された1又は2以上のパラメータに基づいて目標FOV及び位置を決定するよう構成することができる。
推奨エンジン212は、目標FOV及び/又は目標位置に基づいて、最終画像又はビデオを取り込むための1又は2以上の推奨を生成するよう構成することができる、好適な論理、回路、インタフェース、及び/又はコードを含むことができる。推奨エンジン212は、1又は2以上のセンサ216から、ユーザ104の現在の位置(電子デバイス106の位置と同じとすることができる)を含むことができるセンサデータを受け取ることができる。その後、推奨エンジン212は、ユーザ104の現在の位置に基づいて、画像処理エンジン210によって決定された目標位置をユーザ104が発見するのを助ける1又は2以上の推奨を生成することができる。1つの実施形態によれば、推奨エンジン212は、目標FOVにおける目標位置にてオブジェクトの画像又はビデオを取り込むための1又は2以上の設定パラメータの推奨を生成することができる。本開示の範囲が別々のエンティティとしての画像処理エンジン210及び推奨エンジン212の実施構成に限定されないことを、当業者であれば理解するであろう。1つの実施形態によれば、本開示の範囲から逸脱することなく、画像処理エンジン210及び推奨エンジン212を単一のエンティティとして一体化することができる。
UIマネージャ214は、電子デバイス106のディスプレイデバイス218に提示されるUIを管理するよう構成することができる、好適な論理、回路、インタフェース、及び/又はコードを含むことができる。UIマネージャ214は更に、電子デバイス106の入力デバイス(図2には図示せず)を介して電子デバイス106の第1UI 120aを通じて受け取られたユーザ入力を受け取り処理するよう構成することができる。1つの実施形態によれば、入力デバイスは。電子デバイス106に通信可能に結合することができる(電子デバイス106内に含めることができる)。入力デバイスの実施例は、限定ではないが、キーパッド、マウス、ジョイスティック、トラックパッド、音声対応入力デバイス、タッチ対応入力デバイス、及び/又はジェスチャ対応入力デバイスを含むことができる。
1つの実施形態によれば、UIマネージャ214は、電子デバイス106のUIを介して、ユーザ104に対してカメラインタフェースを提示するよう構成することができる(以下、用語「UI」及び「カメラインタフェース」は同義に使用される)。カメラインタフェースは、最終画像又はビデオの取り込みのため推奨エンジン212によって生成される1又は2以上の推奨を表示するよう構成することができる。更に、カメラインタフェースは、1又は2以上の推奨に基づいて最終画像又はビデオをユーザ104が取り込むことができるように構成することができる。
1又は2以上のセンサ216は、関心シーン102の1又は2以上の画像又はビデオを取り込むよう構成することができる、好適な論理、回路、インタフェース、及び/又はコードを含むことができる。1つの実施形態によれば、1又は2以上のセンサ216は、関心シーン102の地理的エリアにおいて1又は2以上のオブジェクトに対する電子デバイス106の移動の位置、向き、及び/又は度を決定するよう構成することができる。更に、1又は2以上のセンサ216は、電子デバイス106の移動の決定された位置、決定された向き、及び/又は決定された度のうちの1又はそれ以上に基づいて、センサデータを決定するよう構成することができる。1又は2以上のセンサ216は、画像取り込みセンサ及び/又は光センサを含むことができる。画像取り込みセンサ及び/又は光センサの実施例は、限定ではないが、電荷結合デバイス(CCD)センサ、相補型金属酸化膜半導体(CMOS)センサ、及び/又はN型金属酸化膜半導体(NMOS)センサを含むことができる。加えて、1又は2以上のセンサ216は、限定ではないが、位置センサ(地理的測位センサ(GPS)など)、方位センサ(ジャイロスコープ及び/又は磁気探知器など)、及び/又は速度/モーションセンサ(加速度計など)を含むこともできる。
ディスプレイデバイス218は、第1UI 120a及び第2UI 120bをレンダリングするよう構成することができる、好適な論理、回路、インタフェース、及び/又はコードを含むことができる。1つの実施形態によれば、ディスプレイデバイス218は、電子デバイス106の一部として実施することができる。代替として、ディスプレイデバイス218は、電子デバイス106に通信可能に結合することができる。ディスプレイデバイス218は、限定ではないが、ブラウン管(CRT)ベースのディスプレイ、液晶ディスプレイ(LCD)、発光ダイオード(LED)ベースのディスプレイ、有機LEDディスプレイ技術、及び網膜ディスプレイ技術などの幾つかの公知の技術によって実現することができる。加えて、1つの実施形態によれば、ディスプレイデバイス218は、ユーザ104からの入力を受け取ることができる。このような事例では、ディスプレイデバイス218は、ユーザ104が入力を提供できるようにするタッチスクリーンとすることができる。1つの実施形態によれば、タッチスクリーンは、抵抗性タッチスクリーン、容量性タッチスクリーン、又は熱タッチスクリーンのうちの少なくとも1つに相当することができる。1つの実施形態によれば、ディスプレイデバイス218は、仮想キーパッド、スタイラス、ジェスチャベースの入力、及び/又はタッチベースの入力を介して入力を受けることができる。このような事例では、入力デバイスは、ディスプレイデバイス218内に一体化することができる。加えて、電子デバイス106は、タッチスクリーンベースのディスプレイデバイス218とは別個の二次入力デバイスを含むことができる。
動作中、ユーザ104は、電子デバイス106を使用して、第1の位置108aなどの初期位置から第1のオブジェクト112の画像又はビデオを取り込むことを要求することができる。第1のオブジェクト112は、第1の位置108aにある電子デバイス106の第1FOV 110aなどの1又は2以上のFOV内で見ることができる。1つの実施形態によれば、第1のオブジェクト112の少なくとも一部分は、第1の位置108aにある電子デバイス106の第1FOV 110aを超えて延びる場合がある。UIマネージャ214は、電子デバイス106のUI(例えば、UI 120a)を介して、ユーザ104に取り込まれた参照画像又はビデオを表示するよう構成することができる。更に、UIマネージャ214は、ユーザ104に対して、取り込まれた参照画像又はビデオに基づいて複数の入力値を提供するよう指示することができる。
1つの実施形態によれば、画像処理エンジン210は、電子デバイス106の第1UI 120aを介してユーザ104から第1の複数の入力値を受け取るよう構成することができる。第1の複数の入力値は、1又は2以上の参照画像又はビデオ内に第1の複数の境界ポイント114を含むことができる。第1の複数の境界ポイント114は、第1の位置108aにある電子デバイス106の1又は2以上の基準FOV(図1の第1FOV 110aによって図示される)において第1のオブジェクト112を包含することができる。1つの実施形態によれば、画像処理エンジン210は、第2の位置(図1の第2の位置108bによって図示される)及び目標FOV(図1の第2FOV 110bによって図示される)を決定するよう構成することができる。第2の位置108b及び第2FOV 110bは、受け取った第1の複数の境界ポイント114に基づいて、少なくとも第1のオブジェクト112を含む1又は2以上の最終画像又はビデオを取り込むために決定することができる。
1つの実施形態によれば、1又は2以上のセンサ216は、1又は2以上の参照画像又はビデオが取り込まれたときにセンサデータを生成することができる。画像処理エンジン210は、1又は2以上のセンサ216からセンサデータを受け取ることができる。センサデータは、限定ではないが、画像取り込みセンサデータ、位置センサデータ、方位センサデータ、及び/又は速度/モーションセンサデータを含むことができる。その後、画像処理エンジン210は、センサデータに基づいて1又は2以上のパラメータを決定することができる。1又は2以上のパラメータの実施例は、限定ではないが、光の方向、1又は2以上の光源、光の強度、第1FOV 110aにおいて第1のオブジェクト112を見たときの電子デバイス106の移動角度、第1の位置108aの電子デバイス106からの第1のオブジェクト112の距離、及び/又は画像品質閾値を含むことができる。1つの実施形態によれば、第2の位置108b及び第2FOV 110bの決定は、決定された1又は2以上のパラメータに基づくことができる。
1つの実施形態によれば、画像処理エンジン210は、1又は2以上のパラメータ及び/又はセンサデータに基づいて、第1のオブジェクト112を包含する第1の複数の境界ポイント114を決定するよう構成することができる。このような事例では、画像処理エンジン210は、ユーザ104から第1の複数の入力値の受け取りを必要としない場合がある。代替として、UIマネージャ214は、画像処理エンジン210によって決定された第1の複数の境界ポイント114が重ねられた1又は2以上の参照画像又はビデオを提示することができる。第1の複数の境界ポイント114が重ねられた1又は2以上の参照画像又はビデオは、電子デバイス106の第1UI 120aを介してユーザ104に提示することができる。ユーザ104は、第1UI 120aを介して第1の複数の境界ポイント114を確認又は調整することができる。
画像処理エンジン210は、1又は2以上のパラメータ及び/又はセンサデータに基づいて、第1のオブジェクト112が第1FOV 110a内に完全に又は部分的に位置するかどうかを決定するよう構成することができる。第1のオブジェクト112が第1FOV 110a内に完全には位置しない場合、UIマネージャ214は、ユーザ104に対して、第1のオブジェクト112の一部分の取り込みに関連付けられる閾値を提供するよう指示することができる。画像処理エンジン210は、ユーザ定義閾値に基づいて、第2の位置108b及び第2FOV 110bを決定することができる。例えば、ユーザ104は、第1UI 120aを介して、「120パーセント」などの閾値を提供する。閾値に基づいて、画像処理エンジン210は、背景シーンに対する取り込まれた画像又はビデオのパーセンテージを決定することができる。従って、閾値「120パーセント」に基づいて、第2FOV 110bは、背景シーンの「20パーセント」以上を含む。
1つの実施形態によれば、画像処理エンジン210は、第1の位置108aにあるユーザ104からの第2の複数の入力値を第1UI 120aを介して受け取るよう構成することができる。受け取った第2の複数の入力値は、第2のオブジェクト116を包含することができる第2の複数の境界ポイント118を含むことができる。1つの実施形態によれば、画像処理エンジン210は、第1のオブジェクト112及び第2のオブジェクト116の両方を含むことができる最終画像又はビデオを取り込むための第2の位置108b及び第2FOV 110bを決定するよう構成することができる。最終画像又はビデオの決定は、第1のオブジェクト112についての受け取った第1の複数の境界ポイント114及び第2のオブジェクト116についての受け取った第2の複数の境界ポイント118に基づくことができる。
1つの実施形態によれば、画像処理エンジン210は、第2FOV 110bに第1のオブジェクト112及び/又は第2のオブジェクト116の一部分を含む画像又はビデオを取り込むための閾値を決定するよう構成することができる。画像処理エンジン210は、1又は2以上のパラメータ及び/又はセンサデータに基づいて閾値を決定することができる。UIマネージャ214は、第1UI 120aを介してこの閾値をユーザ104に提示することができる。例えば、第1のオブジェクト112及び第2のオブジェクト116に対して決定された閾値は、それぞれ「100パーセント」及び「120パーセント」である。これは、第2FOV 110bに取り込まれた最終画像又はビデオが、背景シーンに対して第1のオブジェクト112の「100パーセント」及び第2のオブジェクト116の「120パーセント」を包含できることを示すことができる。
1つの実施形態によれば、第1のオブジェクト112、及び/又は第2のオブジェクト116は、移動状態とすることができる。画像処理エンジン210は、センサデータ及び/又は1又は2以上のパラメータに基づいて、第1のオブジェクト112及び/又は第2のオブジェクト116が移動状態であるかどうかを決定するよう構成することができる。次に、画像処理エンジン210及び/又は推奨エンジン212は、第1のオブジェクト112及び/又は第2のオブジェクト116を取り込むのに好適な1又は2以上の画像取り込みモードの推奨を生成することができる。UIマネージャ214は、この推奨された画像取り込みモードを電子デバイス106の第2UI 120bを介してユーザ104に提示することができる。1又は2以上の画像取り込みモードの実施例は、限定ではないが、フル解像度画像モード、閾値解像度画像モード、パノラマ画像モード、及び/又はビデオモードを含むことができる。1つの実施形態によれば、第1のオブジェクト112及び/又は第2のオブジェクト116が移動状態であるときは、ユーザ104に推奨される画像取り込みモードは、ビデオモードに相当することができる。
1つの実施形態によれば、推奨エンジン212は、関心シーン102の地理的エリアにおいて第1のオブジェクト112などの1又は2以上のオブジェクトの画像又はビデオをユーザ104が取り込むのを支援するための1又は2以上の推奨を生成するよう構成することができる。1つの実施形態によれば、推奨エンジン212は、1又は2以上のセンサ216からリアルタイムでセンサデータを受け取ることができる。その後、推奨エンジン212は、センサデータに基づいて、地理的エリア内のユーザ104の第1の位置108aなどの現在の位置(電子デバイス106の現在の位置など)と第2の位置108bとの間の1又は2以上の経路を決定することができる。例えば、推奨エンジン212は、画像処理エンジン210から第2の位置108bの位置座標を受け取ることができる。更に、推奨エンジン212は、位置センサなどの1又は2以上のセンサ216からユーザ104の現在の位置(電子デバイス106の現在の位置など)の位置座標を受け取ることができる。その後、推奨エンジン212は、2つの位置のそれぞれの位置座標に基づいて、現在の位置と第2の位置108bとの間の1又は2以上の経路を決定することができる。1つの実施形態によれば、推奨エンジン212は、決定された1又は2以上の経路に基づいて、ユーザ104を第2の位置108bに案内するためのインジケータ(以下、「ガイダンスインジケータ」と同義に呼ばれる)の表示を制御するよう構成することができる。ガイダンスインジケータは、第2FOV 110bにおける1又は2以上のオブジェクト(第1のオブジェクト112など)の画像又はビデオの取り込みを可能にすることができる。UIマネージャ214は、推奨エンジン212によって制御されるガイダンスインジケータを第2UI 120bを介してユーザ104に提示することができる。例えば、ユーザ104の現在の位置と第2の位置108bとの間の経路は、ユーザ104に「3フィート右に」及び「6フィート後方に」移動するよう要求することができる。ガイダンスインジケータは、これに従ってユーザ104に移動するよう指示することができる。1又は2以上のセンサ216は、ユーザ104が第2の位置108bに向かって移動するときに、ユーザ104(及び電子デバイス106)の位置をリアルタイムでモニタすることができる。推奨エンジン212は、ユーザ104が第2の位置108bに向かって移動したときに、ユーザ104のモニタされる位置に基づいて第2の位置108bまでの更新された経路を決定することができる。ガイダンスインジケータは、これに従って更新することができる。例えば、ユーザ104がユーザ104の前回の位置から「3フィート右に」及び「5フィート後方に」移動した場合、ガイダンスインジケータは、第2の位置108bに到達するためにユーザ104に「1フィート後方に」更に移動するよう指示することができる。
1つの実施形態によれば、推奨エンジン212は、画像処理エンジン210から地理的エリアにおける1又は2以上の他の第2の位置の位置座標を受け取るよう構成することができる。1又は2以上の他の第2の位置は、第2の位置108bに加えて、第1のオブジェクト112などの1又は2以上のオブジェクトの画像又はビデオを取り込むための他の最適位置に相当することができる。1つの実施形態によれば、推奨エンジン212は、ユーザ104の現在の位置と1又は2以上の他の第2の位置の各々との間の1又は2以上の経路を決定するよう構成することができる。UIマネージャ214は、1又は2以上の他の第2の位置及び/又は現在の位置と1又は2以上の他の第2の位置の各々との間の決定された1又は2以上の経路の推奨を第2UI 120bを介してユーザ104に提示することができる。UIマネージャ214は、ユーザ104に対して、1又は2以上の他の第2の位置の1つ及び/又は第2の位置108bから選択させるよう指示することができる。推奨エンジン212は、ユーザ104によって選択された位置及びユーザ104の現在の位置に基づいて、リアルタイムでガイダンスインジケータを更新することができる。例えば、第1のオブジェクト112(第2の位置108bなど)の画像又はビデオを取り込むための最良位置は、ユーザ104にとって到達できない可能性がある。このようなシナリオでは、ユーザ104は、第1のオブジェクト112の画像又はビデオを取り込むために推奨される他の第2の位置のうちの1つを選ぶことができる。ガイダンスインジケータは、ユーザ104によって選択された他の第2の位置にユーザ104が到達するのを支援することができる。
1つの実施形態によれば、推奨エンジン212は、第2FOV 110bにおいて決定された第2の位置108bにある1又は2以上のオブジェクト(第1のオブジェクト112など)の画像又はビデオを取り込むための1又は2以上の設定パラメータを決定するよう構成することができる。推奨エンジン212は、画像処理エンジン210によって決定された1又は2以上のパラメータ及び/又はセンサデータに基づいて、1又は2以上の設定パラメータを決定することができる。1又は2以上の設定パラメータを使用して、1又は2以上のセンサ216からの画像取り込みセンサの1又は2以上の機能及び/又は動作態様を構成することができる。UIマネージャ214は、電子デバイス106の第2UI 120bを介して、推奨として決定された1又は2以上の設定パラメータをユーザ104に提供することができる。ユーザ104は、推奨された1又は2以上の設定パラメータに基づく入力を第2UI 120bを介して提供することができる。画像取り込みセンサなどの1又は2以上のセンサ216は、それぞれの設定パラメータに対して受け取ったユーザ入力に基づいて、その設定パラメータの値を調整することができる。1又は2以上の設定パラメータの実施例は、限定ではないが、アパーチャ設定、ISO感度、自動露出、オートフォーカス、自動ホワイトバランス、及び/又は自動照明を含むことができる。本開示の範囲が推奨エンジン212による1又は2以上の設定パラメータの決定に限定されないことを、当業者であれば理解するであろう。1つの実施形態によれば、画像処理エンジン210は、本開示の範囲から逸脱することなく1又は2以上の設定パラメータを決定するよう構成することができる。
本開示の様々な実施形態は、多数の利点を包含することができる。上述のように、電子デバイス106は、第1のオブジェクト112の画像又はビデオを取り込むのに好適とすることができる第2の位置108b及び第2FOV 110bを決定することができる。第2の位置108bにて取り込まれる第1のオブジェクト112の画像又はビデオは、第1の位置108aにて取り込まれる第1のオブジェクト112の画像又はビデオよりも優れた品質を有することができる。これは、1又は2以上のパラメータに基づいて画像又はビデオの取り込みのために第1の位置108aと比較して第2の位置108bがより好適であることに起因することができる。
更に、上述のように、電子デバイス106は、ユーザ104の現在の位置から第2の位置108bを発見するためのガイダンスをユーザ104に提供することができる。ユーザ104は、リアルタイムの指示の使用によって、第2の位置108bに到達することができる。更に、ユーザ104が第2の位置108bを発見できない場合、電子デバイス106は、第1のオブジェクト112の画像又はビデオを取り込むための第2の位置についての代替の推奨をユーザ104に提供することができる。加えて、電子デバイス106は、電子デバイス106の画像取り込みセンサの適正な構成のための1又は2以上の設定パラメータの推奨をユーザ104に提供することができる。
図3は、本開示の実施形態による、関心シーンの1又は2以上のオブジェクトを包含する複数の境界ポイントの選択のための例示的なシナリオを示す。図3は、図2からの要素と関連して記載されている。図3を参照すると、シナリオ図300が示されている。シナリオ図300は、ユーザ104、電子デバイス106、関心シーン302、上部境界ポイント304a、左境界ポイント304b、右境界ポイント304c、下部境界ポイント304d、上部参照画像306a、左参照画像306b、右参照画像306c、下部参照画像306d、目標参照画像308、境界ポイントの第1のセット310、及び境界ポイントの第2のセット312を含む。
動作中、電子デバイス106のUIマネージャ214は、ユーザ104に対して、関心シーン302における1又は2以上の関心オブジェクトを包含する1又は2以上の参照画像を第1UI 120aを介して取り込むように指示することができる。ユーザ104は、電子デバイス106を使用して、関心シーン302における1又は2以上の関心オブジェクトの上部分を含むことができる上部参照画像306aを取り込むことができる。同様に、ユーザ104は、電子デバイス106を使用して、1又は2以上の関心オブジェクトの左部分及び右部分を含むことができる左参照画像306b及び右参照画像306cそれぞれを取り込むことができる。更に、ユーザ104は、電子デバイス106を使用して、1又は2以上の関心オブジェクトの下部部分を含むことができる下部参照画像306dを取り込むことができる。上部参照画像306aが取り込まれると、電子デバイス106の画像処理エンジン210は、電子デバイス106の1又は2以上のセンサ216から受け取ったセンサデータに基づいて、上部境界ポイント304aを決定することができる。更に、参照画像306b、306c、及び306dそれぞれが取り込まれると、画像処理エンジン210は、1又は2以上のセンサ216から受け取ったセンサデータに基づいて、境界ポイント304b、304c、及び304dを決定することができる。
例えば、306aから306dなどの参照画像の各々が電子デバイス106によって取り込まれると、位置センサは、電子デバイス106のX、Y、及びZ軸座標を決定することができる。更に、306aから306dなどの参照画像の各々が電子デバイス106によって取り込まれると、方位センサは、電子デバイス106の向きの角度を決定することができる。画像処理エンジン210は、1又は2以上の三角法推定を適用して、電子デバイス106からの1又は2以上の関心オブジェクトの距離を決定することができる。更に、画像処理エンジン210は、1又は2以上の三角法推定に基づいて、関心シーン302内の1又は2以上の関心オブジェクトの寸法を決定することができる。
本開示の範囲が、304a、304b、304c、及び304dなどの4つの境界ポイントを決定するための306a〜306dなどの参照画像の取り込みに限定されないことは、当業者であれば理解するであろう。1つの実施形態によれば、ユーザ104は、電子デバイス106を使用して、関心シーン302における1又は2以上の関心オブジェクトの垂直範囲及び水平範囲をスキャンすることができる。例えば、ユーザ104は、電子デバイス106を上部から下部へ又はその逆に移動させて、1又は2以上の関心オブジェクトの垂直範囲の連続画像又はビデオを取り込むことができる。同様に、ユーザ104は、電子デバイス106を左から右に又はその逆に移動させて、1又は2以上の関心オブジェクトの水平範囲の連続画像又はビデオを取り込むことができる。画像処理エンジン210は、1又は2以上の関心オブジェクトの垂直範囲の連続画像又はビデオに基づいて、上部及び下部境界ポイント304a及び304dをそれぞれ決定することができる。更に、画像処理エンジン210は、1又は2以上の関心オブジェクトの水平範囲の連続画像又はビデオに基づいて、左及び右境界ポイント304b及び304cをそれぞれ決定することができる。別の実施形態によれば、ユーザ104は、電子デバイス106を使用して、1又は2以上の関心オブジェクトの1又は2以上の対角範囲の連続画像又はビデオを取り込むことができる。画像処理エンジン210は、1又は2以上の対角範囲のかかる連続画像又はビデオに基づいて、304aから304dなどの4つの境界ポイントを決定することができる。
1つの実施形態によれば、画像処理エンジン210は、4つの境界ポイント304aから304dを決定するために取り込むことができる画像の組み合わせ合わせて、目標参照画像308を生成することができる。目標参照画像308を生成するために組み合わされた画像の実施例は、限定ではないが、参照画像306a〜306d;及び/又は1又は2以上の関心オブジェクトの縦方向範囲、横方向範囲、及び/又は1又は2以上の対角範囲のスキャンを含む画像を含むことができる。画像処理エンジン210は、4つの境界ポイント304a〜304d及び/又はセンサデータに基づいて、1又は2以上の関心オブジェクトを包含することができる境界ポイントの第1のセット310を決定することができる。更に、UIマネージャ214は、電子デバイス106の第1UI 120aを介して、目標参照画像308に重なった境界ポイントの第1のセット310をユーザ104に提示することができる。1つの実施形態によれば、ユーザ104は、境界ポイントの第1のセット310を境界ポイントの第2のセット312に修正するための入力を提供することができる。例えば、ユーザ104は、電子デバイス106のタッチスクリーン上でピンチ、ズーム、又はパンを行って、境界ポイントの第1のセット310を境界ポイントの第2のセット312に修正することができる。1つの実施形態によれば、画像処理エンジン210は、境界ポイントの第2のセット312内の1又は2以上のオブジェクトを包含する最終画像又はビデオを取り込むのに好適とすることができる目標位置及び目標FOVを決定することができる。
図4は、本開示の実施形態による、関心シーンにおける少なくとも1つの動的オブジェクト及び1又は2以上の静的オブジェクトについての複数の境界ポイントの選択の例示的なシナリオを示す。図4は、図2からの要素に関連して記載されている。図4を参照すると、シナリオ図400が示されている。シナリオ図400は、ユーザ104、電子デバイス106、関心シーン402、第1のオブジェクト404a、第2のオブジェクト404b、第3のオブジェクト404c、第1の複数の境界ポイント406a、第2の複数の境界ポイント406b、第3の複数の境界ポイント406c、方向ベクトル408、第1画像410、及び第2画像412を含む。
動作中、ユーザ104は、電子デバイス106を使用して、関心シーン402における1又は2以上の関心オブジェクトの1又は2以上の参照画像又はビデオを取り込むことができる。例えば、ユーザ104は、第1のオブジェクト404a、第2のオブジェクト404b、及び第3のオブジェクト404cを包含することができる1又は2以上の参照画像又はビデオを取り込むことができる。UIマネージャ214は、ユーザ104に対して、1又は2以上の参照画像又はビデオにおいて取り込まれた1又は2以上の関心オブジェクトの各々を包含する複数の境界ポイントを示す入力を第1UI 120aを介して提供するよう指示することができる。ユーザ104は、取り込まれた1又は2以上の参照画像又はビデオに基づいて、複数の境界ポイントを示す入力を提供することができる。例えば、ユーザ104は、第1のオブジェクト404aを包含する複数の境界ポイントとして第1の複数の境界ポイント406aを選択することができる。更に、ユーザ104は、第2のオブジェクト404b及び第3のオブジェクト404cそれぞれについての第2の複数の境界ポイント406b及び第3の複数の境界ポイント406cを選択することができる。別の実施形態によれば、画像処理エンジン210は、センサデータ及び/又は1又は2以上のパラメータに基づいて、1又は2以上の関心オブジェクトを包含する複数の境界ポイントを決定することができる。このような事例では、複数の境界ポイントの選択は、ユーザ入力なしに実行することができる。代替として、ユーザ104は、画像処理エンジン210によって決定された複数の境界ポイントを確認又は修正するための入力を提供することができる。
1つの実施形態によれば、1又は2以上の関心オブジェクトの少なくとも1つは移動状態とすることができ、他の関心オブジェクトは、静止状態とすることができる。例えば、第2のオブジェクト404bは、移動状態とすることができる人間の対象体に相当することができる。第2のオブジェクト406bは、関心シーン402にわたって右から左などの方向408で移動することができる。更に、第1のオブジェクト404a及び第3のオブジェクト404cは、静止した建物又は人工物に相当することができる。1つの実施形態によれば、画像処理エンジン210は、複数の境界ポイント、センサデータ、及び/又は1又は2以上のパラメータに基づいて、1又は2以上の関心オブジェクトを包含する画像又はビデオを取り込むのに好適とすることができる目標位置及び目標FOVを決定することができる。推奨エンジン212は、第2UI 120bを介してユーザ104に表示されるガイダンスインジケータを生成して、決定された位置にユーザ104が到達するのを支援することができる。
例えば、ガイダンスインジケータは、第1のオブジェクト404a、第2のオブジェクト404b、及び第3のオブジェクト404cを包含することができる第1画像410を取り込むよう特定の位置に移動するための推奨をユーザ104に提供することができる。ユーザ104が当該位置に移動できないシナリオにおいては、ガイダンスインジケータは、第1画像410を取り込むための別の好適な位置を推奨することができる。更に、1又は2以上のセンサ216は、1又は2以上の関心オブジェクトの位置の変化をモニタして、リアルタイムでセンサデータを更新することができる。代替として、又は上記に加えて、ユーザ104は、関心シーン402内で移動状態とすることができる主オブジェクト(例えば第2のオブジェクト404b)としてオブジェクトを識別するための入力を提供することができる。1つの実施形態によれば、関心オブジェクト(第2のオブジェクト404bなどの主オブジェクトなど)が移動したときに、UIマネージャ214は、第2UI 120bを介してユーザ104に通知することができる。1つの実施形態によれば、画像処理エンジン210は、1又は2以上の関心オブジェクトの後続の画像又はビデオを取り込むのに好適とすることができる目標位置及び関連のFOVを決定することができる。
例えば、ユーザ104は、ガイダンスインジケータの支援により、第1時間インスタンスにおいて特定の位置に到達して、第1画像410を取り込むことができる。第1画像410は、第2のオブジェクト404bなどの少なくとも1つの動的オブジェクトを含むことができる。1又は2以上のセンサ216は、第2のオブジェクト404bの移動を検知することができる。その後、ガイダンスインジケータは、第2のオブジェクト404bの最終画像を取り込むのに好適とすることができる目標位置をユーザ104が発見するのを支援することができる。ユーザ104は、ガイダンスインジケータの支援によって目標位置に到達して、電子デバイス106を使用して第2画像412などの最終画像を取り込むことができる。明らかなことであるが、第2のオブジェクト404bは、第1画像410の取り込みと第2画像412の取り込みの間の時間間隔に、関心シーン402において左に向かって(408で示される方向に)移動することができる。
1つの実施形態によれば、推奨エンジン212は、第2UI 120bを介して、1又は2以上の画像取り込みモードの推奨をユーザ104に提供することができる。1つの実施形態によれば、関心オブジェクトのうちの1つが移動状態とすることができ、他の関心オブジェクト(静的オブジェクト)が単一の画像で完全には取り込めない可能性があるときには、推奨エンジン212は、ビデオモード又はパノラマ画像モードを推奨することができる。ユーザ104は、推奨に基づいて、第1のオブジェクト404a及び第3のオブジェクト404cなどの1又は2以上の静的オブジェクトと第2のオブジェクト404bなどの少なくとも1つの動的オブジェクトとを包含するビデオを取り込むことができる。例えば、第1画像410及び第2画像412は、取り込まれたビデオの後続のフレームに相当することができる。
1つの実施形態によれば、推奨エンジン212はまた、他の関心オブジェクトの各々の少なくとも予め設定された部分と共に動的オブジェクトの取り込みを可能にすることができる閾値画像モードを推奨することができる。このようなシナリオでは、画像処理エンジン210は、閾値画像モードで画像を取り込むのに好適とすることができる位置及びFOVを決定することができる。ガイダンスインジケータは、ユーザ104がこのような位置を発見するのを支援することができる。
図5は、本開示の1つの実施形態による、電子デバイスを使用して画像又はビデオをユーザが取り込むのを支援するための第1の例示的なシナリオを示す。図5は、図2からの要素に関連して記載されている。図5を参照すると、シナリオ図500が示されている。シナリオ図500は、ユーザ104、電子デバイス106、関心シーン502、現在の位置504a、目標位置504b、電子デバイス106の1又は2以上のFOV(現在FOV506aによって図示される)、電子デバイス106の目標FOV(目標FOV506bによって図示される)、第1のオブジェクト508、第1のオブジェクト508を包含する第1の複数の境界ポイント512、及び光源512(太陽など)を含む。
動作中、ユーザ104が現在の位置504aに位置するときに、ユーザ104は、第1のオブジェクト508の1又は2以上の参照画像又はビデオを取り込むことができる。電子デバイス106のUIマネージャ214は、ユーザ104に対して、取り込まれた1又は2以上の参照画像又はビデオに基づいて、第1の複数の入力値を第1UI 120aを介して提供するよう指示することができる。ユーザ104は、第1の複数の入力値を電子デバイス106の第1UI 120aを介して提供することができる。1つの実施形態によれば、ユーザ104によって提供された第1の複数の入力値は、現在のFOV506a内の第1のオブジェクト508を包含する第1の複数の境界ポイント510の指示を含むことができる。
1つの実施形態によれば、電子デバイス106の1又は2以上のセンサ216は、センサデータ及び1又は2以上のパラメータを決定するよう構成することができる。例えば、1又は2以上のセンサ216からの光センサは、光源512から発した光の方向及び強度を決定することができる。更に、光センサは、関心シーン502が光源512に加えて他の光源を含むかどうかを決定することができる。同様の方式で、光センサは、全てのこのような光源から発した光の方向及び強度を決定することができる。加えて、光センサはまた、関心シーン502が1又は2以上の影の領域を含むかどうかを決定することができる。従って、画像処理エンジン210は、光センサなどの1又は2以上のセンサ216によって決定されたセンサデータ及び1又は2以上のパラメータに基づいて、電子デバイス106についての目標位置504b及び目標FOV506bを決定することができる。推奨エンジン212は、第2UI 120b上に表示されたガイダンスインジケータを制御して、目標FOV506bにおける第1のオブジェクト508の最終画像又はビデオを取り込むための目標位置504bをユーザ104が発見するのを支援することができる。
例えば、光源512が明るく、光源512によって発せられた光の方向が、現在のFOV506a内に存在することがある。このような事例では、画像処理エンジン210は、光源512から受ける光の強度が低い位置として目標位置504bを決定することができる。更に、画像処理エンジン210は、光源512によって発せられた光の方向から離れたエリアを包含することができるFOVとして目標FOV506bを決定することができる。別のシナリオでは、光源512があまり明るくなく、関心シーン502が薄暗い光のシーンであることがある。このような事例では、画像処理エンジン210は、良好な照明条件を備えた位置として第2の位置504bを決定することができる。更に、画像処理エンジン210は、第2の位置504bにおいて第1のオブジェクト508の画像又はビデオを効果的に取り込むためにフラッシュの使用の推奨を生成することができる。高強度の光源及びFOV内の影の領域の存在が、取り込まれた画像又はビデオにおける高ダイナミックレンジ及びコントラストに起因してFOVにて取り込まれた画像又はビデオの品質を低下させる可能性があることを、当業者であれば理解するであろう。他方、FOV内の微光条件はまた、取り込まれた画像又はビデオにおける低ダイナミックレンジ及びコントラストに起因してFOVにて取り込まれた画像又はビデオの品質を低下させる可能性がある。従って、第2の位置504bにて第1のオブジェクト508の最終画像又はビデオを取り込むために画像処理エンジン210によって生成される推奨は、不適正な照明条件下でユーザ104が最適ショットを取り込むのを支援することができる。
図6は、本開示の1つの実施形態による、電子デバイスを使用して画像又はビデオをユーザが取り込むのを支援する第2の例示的なシナリオを示す。図6は、図2からの要素に関連して記載されている。図6を参照すると、シナリオ図600が示されている。シナリオ図600は、ユーザ104、電子デバイス106、関心シーン602、現在の位置604a、目標位置604b、電子デバイス106の現在のFOV606a及び目標FOV606bなどの電子デバイス106の1又は2以上のFOV、参照画像608、第1閾値画像610、及び第2閾値画像612を含む。
動作中、ユーザ104は、電子デバイス106を使用して現在の位置604aにて参照画像608を取り込むことができる。1つの実施形態によれば、参照画像608は、現在の位置604aにて電子デバイス106の現在のFOV606a内で取り込むことができる。UIマネージャ214は、ユーザ104に対して、参照画像608に基づいて画像又はビデオの取り込みに関連する閾値を第1UI 120aを介して提供するよう指示することができる。1つの実施形態によれば、閾値は、取り込まれる画像又はビデオにおける背景に対する参照画像608の背景の比率に相当することができる。次に、ユーザ104は、閾値を示す入力を第1UI 120aを介して提供することができる。
1つの実施形態によれば、画像処理エンジン210は、1又は2以上のセンサ216からセンサデータを受け取ることができる。更に、画像処理エンジン210は、センサデータに基づいて、1又は2以上のパラメータを決定することができる。1又は2以上のパラメータの実施例は、限定ではないが、光の方向、1又は2以上の光源、光の強度、オブジェクトを現在のFOV606aで見たときの電子デバイス106の移動の角度、現在の位置604aでの電子デバイス106からのオブジェクトの距離、及び/又は画像品質閾値を含むことができる。画像処理エンジン210は、1又は2以上のパラメータ及びユーザ104によって提供される閾値に基づいて、目標位置604b及び目標FOV606bを決定することができる。1つの実施形態によれば、推奨エンジン212は、第2UI 120b上に表示されたガイダンスインジケータを制御して、ユーザ104が目標位置604bを発見して目標FOV606bの閾値画像又はビデオを取り込むのを支援することができる。
例えば、参照画像608は、「100パーセント」などの閾値に相当することができる。他方、第1閾値画像610及び第2閾値画像612は、「120パーセント」及び「150パーセント」などの閾値にそれぞれ対応することができる。従って、第1閾値画像610は、参照画像608に対して「20パーセント」追加の背景を含むことができる。同様に、第2閾値画像612は、参照画像608に対して「50パーセント」追加の背景を含むことができる。ユーザ104が「120パーセント」などの閾値を提供するシナリオでは、ガイダンスインジケータは、電子デバイス106の関連する目標FOV606bにおける第1閾値画像610を取り込むのに好適な目標位置604bにユーザ104を案内することができる。同様に、ユーザ104が「150パーセント」などの閾値を提供する場合、電子デバイス106の関連する目標FOV606bにおける第2閾値画像612を取り込むのに好適とすることができる目標位置604bにユーザ104を案内することができる。
図7は、本開示の1つの実施形態による、関心シーンのパノラマ画像をユーザが取り込むためのガイダンスの例示的なシナリオを示す。図7は、図2からの要素に関連して記載されている。図7を参照すると、シナリオ図700が示されている。シナリオ図700は、ユーザ104、電子デバイス106、関心シーン702、第1のオブジェクト704a、第2のオブジェクト704b、第3のオブジェクト704c、第1の複数の境界ポイント706a、第2の複数の境界ポイント706b、第3の複数の境界ポイント706c、パノラマ画像708、及びスキャン方向710を含む。
動作中、ユーザ104は、電子デバイス106を使用して、関心シーン702における1又は2以上の関心オブジェクトの1又は2以上の参照画像又はビデオを取り込むことができる。UIマネージャ214は、ユーザ104に対して、1又は2以上の参照画像又はビデオにて取り込まれた1又は2以上の関心オブジェクトの各々を包含する複数の境界ポイントを示す入力を第1UI 120aを介して提供するよう指示することができる。ユーザ104は、取り込まれた1又は2以上の参照画像又はビデオに基づいて、かかる複数の境界ポイントを示す入力を提供することができる。例えば、ユーザ104は、第1のオブジェクト704aを包含する複数の境界ポイントとして第1の複数の境界ポイント706aを選択することができる。更に、ユーザ104は、第2のオブジェクト704b及び第3のオブジェクト704cそれぞれについて第2の複数の境界ポイント706b及び第3の複数の境界ポイント706cを選択することができる。別の実施形態によれば、画像処理エンジン210は、センサデータ及び/又は1又は2以上のパラメータに基づいて、1又は2以上の関心オブジェクトを包含する複数の境界ポイントを決定することができる。このような事例では、複数の境界ポイントの選択は、どのようなユーザ入力もなしに実行することができる。代替として、ユーザ104は、画像処理エンジン210によって決定された複数の境界ポイントを確認又は修正するための入力を提供することができる。
1つの実施形態によれば、画像処理エンジン210は、センサデータ、1又は2以上のパラメータ、及び/又は706a、706b、及び706cなどの各関心オブジェクトの複数の境界ポイントに基づいて、1又は2以上の位置及び関連する目標FOVを決定することができる。1又は2以上の位置は、関連する目標FOV内にオブジェクト704a、704b、及び704cを包含する画像又はビデオを取り込むのに好適とすることができる。更に、画像処理エンジン210は、1又は2以上の関心オブジェクトの各々が1又は2以上の位置にて取り込まれた単一の画像に包含され得るかどうかを決定することができる。単一の画像が全ての関心オブジェクトを全体として含まない可能性があるときには、画像処理エンジン210又は推奨エンジン212は、パノラマ画像モードで画像を取り込む推奨を生成することができる。UIマネージャ214は、このような推奨を第2UI 120bを介してユーザ104に示すことができる。その後、ユーザ104は、推奨に基づいて、電子デバイス106を使用してパノラマ画像708を取り込むことができる。1つの実施形態によれば、ユーザ104は、左から右に(スキャン方向710によって示されるように)又はその逆で関心シーン702の水平範囲を取り込むことによりパノラマ画像708を取り込むことができる。パノラマ画像708にて関心シーン702から取り込まれた水平範囲は、704a〜704cなどの各関心オブジェクトを含むことができる。
図8は、本開示の1つの実施形態による、関心シーンの閾値画像をユーザが取り込むためのガイダンスの例示的なシナリオを示す。図8は、図2からの要素に関連して記載されている。図8を参照すると、シナリオ図800が示されている。シナリオ図800は、ユーザ104、電子デバイス106、関心シーン802、第1のオブジェクト804a、第2のオブジェクト804b、第3のオブジェクト804c、第1の複数の境界ポイント806a、第2の複数の境界ポイント806b、第3の複数の境界ポイント806c、及び閾値画像708を含む。
動作中、ユーザ104は、電子デバイス106を使用して、関心シーン802における1又は2以上の関心オブジェクトの1又は2以上の参照画像又はビデオを取り込むことができる。UIマネージャ214は、ユーザ104に対して、1又は2以上の参照画像又はビデオにて取り込まれた1又は2以上の関心オブジェクトの各々を包含する複数の境界ポイントを示す入力を第1UI 120aを介して提供するよう指示することができる。ユーザ104は、取り込まれた1又は2以上の参照画像又はビデオに基づいて、かかる複数の境界ポイントを示す入力を提供することができる。例えば、ユーザ104は、第1のオブジェクト804aを包含する複数の境界ポイントとして第1の複数の境界ポイント806aを選択することができる。更に、ユーザ104は、第2のオブジェクト804b及び第3のオブジェクト804cそれぞれについて第2の複数の境界ポイント806b及び第3の複数の境界ポイント806cを選択することができる。別の実施形態によれば、画像処理エンジン210は、センサデータ及び/又は1又は2以上のパラメータに基づいて、1又は2以上の関心オブジェクトを包含する複数の境界ポイントを決定することができる。このような事例では、複数の境界ポイントの選択は、どのようなユーザ入力もなしに実行することができる。代替として、ユーザ104は、画像処理エンジン210によって決定された複数の境界ポイントを確認又は修正するための入力を提供することができる。
1つの実施形態によれば、画像処理エンジン210は、センサデータ、1又は2以上のパラメータ、及び/又は806a、806b、及び806cなどの各関心オブジェクトの複数の境界ポイントに基づいて、1又は2以上の位置及び関連する目標FOVを決定することができる。1又は2以上の位置は、関連する目標FOV内のオブジェクト804a、804b、及び804cを包含する画像又はビデオを取り込むのに好適とすることができる。更に、画像処理エンジン210は、1又は2以上の関心オブジェクトの各々が1又は2以上の位置において取り込まれた単一の画像に完全に包含され得るかどうかを決定することができる。単一の画像が関心オブジェクト全てを全体として埋め込むことができないときには、画像処理エンジン210又は推奨エンジン212は、閾値画像モードで画像を取り込むための推奨を生成することができる。UIマネージャ214は、この推奨を第2UI 120bを介してユーザ104に示すことができる。その後、ユーザ104は、推奨に基づいて、電子デバイス106を使用して閾値画像808を取り込むことができる。
1つの実施形態によれば、閾値画像808は、関心シーン802における1又は2以上の関心オブジェクトから、第1のオブジェクトセットの完全な部分及び第2のオブジェクトセットの予め設定された部分を含むことができる。例えば、閾値画像808における第1のオブジェクトセットは、第2のオブジェクト804b及び第3のオブジェクト804cを含むことができる。更に、第2のオブジェクトセットは、第1のオブジェクト804aを含むことができる。従って、この事例では、閾値画像808は、オブジェクト804b及び804cの完全な部分、及びオブジェクト804aなどの予め設定された部分を含むことができる。1つの実施形態によれば、ユーザ104は、閾値画像808内に含まれことが必要とされる各オブジェクトの最小部分に相当することができる閾値を示す入力を提供することができる。例えば、ユーザ104は、「80パーセント」などの閾値を提供することができる。この事例では、閾値画像808は、各関心オブジェクトの少なくとも「80パーセント」部分を含むことができる。別の実施形態によれば、画像処理エンジン210は、センサデータ及び/又は1又は2以上のパラメータに基づいて、閾値を決定することができる。1つの実施形態では、UIマネージャ214は、第1UI 120aを介してユーザ104に閾値を提示することができる。ユーザ104は、ユーザ104のプリファレンスに基づいて閾値を確認又は修正することができる。
6つの例示的なシナリオ、300、400、500、600、700、及び800が例証の目的で提供されること、及び本開示の範囲を限定するものと解釈すべきでないことを、当業者であれば理解するであろう。本開示は、本開示の範囲から逸脱することなく1又は2以上の変形形態を有する様々な他のシナリオで実施することができる。
図9は、本開示の実施形態による、画像又はビデオをユーザが取り込むのを支援する方法を示すフローチャートである。図9を参照すると、フローチャート900が示されている。フローチャート900は、図1及び2に関連して記載されている。本方法は、ステップ902から始まり、ステップ904に進む。
ステップ904において、第1の複数の入力値をユーザ104から受け取ることができる。1つの実施形態によれば、電子デバイス106の画像処理エンジン210は、電子デバイス106の第1UI 120aを介して第1の複数の入力値を受け取るよう構成することができる。1つの実施形態によれば、第1の複数の入力値は、第1の複数の境界ポイント114(図1)を含むことができる。第1の複数の境界ポイント114は、第1の位置(図1の108aによって図示される)にて電子デバイス106の1又は2以上のFOV(第1FOV 110aによって図示される)において第1のオブジェクト112(図1)を包含することができる。
1つの実施形態によれば、画像処理エンジン210は、電子デバイス106の1又は2以上のセンサ216によって生成されたセンサデータに基づいて、第1の複数の境界ポイント114を決定することができる。このようなシナリオでは、第1の複数の入力値は、ユーザ104から要求されない場合があり、従って、ステップ904はスキップすることができる。代替として、UIマネージャ214は、第1の複数の境界ポイント114を第1UI 120aを介してユーザ104に表示することができる。ユーザ104は、第1の複数の境界ポイント114を確認又は修正することができる。
ステップ906において、センサデータに基づいて、1又は2以上のパラメータを決定することができる。1つの実施形態によれば、画像処理エンジン210は、1又は2以上のセンサ216からセンサデータを受け取るよう構成することができる。センサデータは、限定ではないが、画像取り込みセンサデータ、位置センサデータ、方位センサデータ、及び/又は速度/モーションセンサデータを含むことができる。画像処理エンジン210は、センサデータに基づいて、1又は2以上のパラメータを決定するよう構成することができる。1又は2以上のパラメータの実施例は、限定ではないが、光の方向、1又は2以上の光源、光の強度、第1のオブジェクト112を第1FOV 110aにおいて見たときの電子デバイス106の移動角度、第1の位置108aの電子デバイス106からの第1のオブジェクト112の距離、及び/又は画像品質閾値を含むことができる。
ステップ908において、電子デバイス106の第2の位置(図1の第2の位置108bによって図示される)及び目標FOV(図1の第2FOV 110bによって図示される)を決定することができる。1つの実施形態によれば、画像処理エンジン210は、1又は2以上のパラメータ、センサデータ及び/又は第1の複数の境界ポイント114に基づいて、電子デバイス106の第2の位置108b及び第2FOV 110bを決定するよう構成することができる。1つの実施形態によれば、第2の位置108bは、第2FOV 110b内の少なくとも第1のオブジェクト112を包含する画像又はビデオを取り込むための好適な位置とすることができる。画像処理エンジン210は、本開示の範囲から逸脱することなく第1のオブジェクト112の画像又はビデオに対する複数の第2の位置及び関連する目標FOVを決定できることを、当業者であれば理解することができる。
ステップ910において、ユーザ104を第2の位置108bに案内するためのインジケータの表示を制御することができる。1つの実施形態によれば、電子デバイス106の推奨エンジン212は、1又は2以上のセンサ216からのセンサデータをリアルタイムで受け取るよう構成することができる。センサデータは、電子デバイス106の現在の位置(ユーザ104の現在の位置と同じ)を示すことができる。推奨エンジン212は、ユーザ104の現在の位置から第2の位置108bに到達するための1又は2以上の経路の推奨を生成することができる。UIマネージャ214は、生成された推奨に基づいて、推奨エンジン212によって制御されるガイダンスインジケータを第2UI 120bを介してユーザ104に提示することができる。推奨エンジン212は、ユーザ104のリアルタイム移動に基づいて、ガイダンスインジケータを介して提示される推奨を更新することができる。従って、ガイダンスインジケータは、第2FOV 110bにおいて第1のオブジェクト112の最終画像又はビデオを取り込むために、ユーザ104が第2の位置108bに到達するのを支援することができる。ユーザ104が第2の位置108bに到達できない可能性があるときには、ガイダンスインジケータが別の第2の位置への1又は2以上の経路の推奨を提供できることは、当業者であれば理解するであろう。
ステップ912において、1又は2以上の設定パラメータをユーザ104に推奨することができる。1つの実施形態によれば、推奨エンジン212は、センサデータに基づいて、1又は2以上の設定パラメータを推奨するよう構成することができる。1又は2以上の設定パラメータを使用して、1又は2以上のセンサ216から画像取り込みセンサの1又は2以上の機能及び/又は動作態様を構成することができる。UIマネージャ214は、電子デバイス106の第2UI 120bを介して推奨として決定された1又は2以上の設定パラメータをユーザ104に提供することができる。ユーザ104は、推奨された1又は2以上の設定パラメータに基づく入力を第2UI 120bを介して提供することができる。画像取り込みセンサなどの1又は2以上のセンサ216は、それぞれの設定パラメータに対して受け取ったユーザ入力に基づいて、設定パラメータの値を調整することができる。1又は2以上の設定パラメータの実施例は、限定ではないが、アパーチャ設定、ISO感度、自動露出、オートフォーカス、自動ホワイトバランス、及び/又は自動照明を含むことができる。本開示の範囲を推奨エンジン212による1又は2以上の設定パラメータの決定に限定すべきでないことは、当業者であれば理解するであろう。1つの実施形態によれば、画像処理エンジン210は、本開示の範囲から逸脱することなく1又は2以上の設定パラメータを決定するよう構成することができる。制御は終了ステップ914に進む。
本開示の1つの実施形態によれば、画像又はビデオをユーザが取り込むのを支援するためのシステムが開示される。本システムは、第1の位置にてユーザから第1の複数の入力値を受け取るよう構成することができる電子デバイス106を含むことができる。受け取った第1の複数の入力値は、第1の位置にある電子デバイス106の1又は2以上のFOVにおける第1のオブジェクトを包含する第1の複数の境界ポイントを含むことができる。電子デバイス106は更に、受け取った第1の複数の境界ポイントに基づいて、画像又はビデオを取り込むための第2の位置及び目標FOVを決定するよう構成することができる。画像又はビデオは、少なくとも第1のオブジェクトを含むことができる。更に、電子デバイス106は、インジケータの表示を制御して、ユーザを目標FOVにおける第1のオブジェクトの画像又はビデオを取り込むための第2の位置に案内することができる。
本開示の様々な実施形態は、画像又はビデオをユーザが取り込むのを支援するため機械及び/又はコンピュータによって実行可能な少なくとも1つのコードセクションを有するマシンコード及び/又はコンピュータプログラムを格納した非一時的コンピュータ可読媒体及び/又は記憶媒体を提供することができる。電子デバイス106における少なくとも1つのコードセクションは、第1の位置にあるユーザから第1の複数の入力値の受信を含むステップを機械及び/又はコンピュータに実行させることができる。受け取った第1の複数の入力値は、第1の位置にある電子デバイス106の1又は2以上のFOVにおける第1のオブジェクトを包含する第1の複数の境界ポイントを含むことができる。その後、受け取った第1の複数の境界ポイントに基づいて、画像又はビデオを取り込むための第2の位置及び目標FOVを決定することができる。画像又はビデオは、少なくとも第1のオブジェクトを含むことができる。更に、インジケータの表示を制御して、目標FOVにおける第1のオブジェクトの画像又はビデオを取り込むための第2の位置にユーザを案内することができる。
本開示は、ハードウェア、又はハードウェアとソフトウェアのストレージ媒体で実現することができる。本開示は、集中方式で、又は少なくとも1つのコンピュータシステムで、或いは分散方式で実現することができ、この場合、異なる要素を幾つかの相互接続されたコンピュータシステムにわたって分散させることができる。本明細書で記載される方法を実行するよう適応されたコンピュータシステム又は他の装置も好適とすることができる。ハードウェアとソフトウェアのストレージ媒体は、ロードされ実行されたときに、本明細書で説明する方法を実行するようコンピュータシステムを制御することができるコンピュータプログラムを備えた汎用コンピュータシステムとすることができる。本開示は、他の機能も実行する集積回路の一部分を含むハードウェアで実現することができる。
本開示は、本明細書で記載される方法の実施構成を可能にする特徴の全てを含み、またコンピュータシステムにロードされたときにこれらの方法を実行することができるコンピュータプログラム製品に組み込むこともできる。本関連におけるコンピュータプログラムは、直接的に、或いはa)別の言語、コード又は表記法への変換、b)異なるマテリアル形態での展開の何れか又は両方の後で、情報処理機能を備えたシステムに特定の機能を実行させるよう意図された命令セットの何れかの言語、コード又は表記法での何らかの表現を意味する。
本開示は、特定の実施形態に関して説明してきたが、本開示の範囲から逸脱することなく様々な変更を行い得ること及び均等物に置き換え得ることは、当業者には理解されるであろう。加えて、本開示の範囲から逸脱することなく、本開示の教示に特定の状況又は内容を適応させるために多くの修正を行い得る。従って、本開示は、開示される特定の実施形態に限定されるものではなく、本開示は添付の請求項の範囲内にある全ての実施形態を含むことを意図している。
900 フローチャート
902 開始
904 電子デバイスの1又は2以上のFOVにおいて第1の位置にて取り込まれた第1のオブジェクトを包含する第1の複数の境界ポイントを含む第1の複数の入力をユーザから受け取る
906 センサデータに基づいて1又は2以上のパラメータを決定する
908 第1のオブジェクトの画像又はビデオを取り込むための第2の位置及び目標FOVを決定する
910 インジケータの表示を制御して画像又はビデオを取り込むための第2の位置にユーザを案内する
912 センサデータに基づいて1又は2以上の設定パラメータをユーザに推奨する
914 終了

Claims (24)

  1. 画像又はビデオをユーザが取り込むのを支援するためのシステムであって、
    電子デバイスにおいて1又は2以上の回路を備え、
    前記1又は2以上の回路が、
    第1の位置において前記ユーザから第1の複数の入力値を受信し、前記受け取った第1の複数の入力値が、前記第1の位置において前記電子デバイスの1又は2以上の視野(FOV)において第1のオブジェクトを包含する第1の複数の境界ポイントを含み、
    前記受け取った第1の複数の境界ポイントに基づいて、少なくとも前記第1のオブジェクトを含む前記画像又は前記ビデオを取り込むための第2の位置及び目標FOVを決定し、
    インジケータの表示を制御して、前記目標FOVにおける前記第1のオブジェクトの画像又はビデオを取り込むため前記第2の位置に前記ユーザを案内する、
    よう構成されている、
    ことを特徴とするシステム。
  2. 前記第1のオブジェクトの少なくとも一部分は、前記第1の位置において前記電子デバイスの1又は2以上のFOVを超えて延びる、
    ことを特徴とする請求項1に記載のシステム。
  3. 前記1又は2以上の回路は更に、前記第1のオブジェクトを包含する前記第1の複数の境界ポイントの前記決定のため前記電子デバイスの1又は2以上のセンサからセンサデータを受け取るように構成される、
    ことを特徴とする請求項1に記載のシステム。
  4. 前記1又は2以上の回路は、1又は2以上のパラメータの決定に基づいて前記第2の位置及び前記第目標FOVを決定するよう構成され、前記1又は2以上のパラメータは、光の方向、1又は2以上の光源、光の強度、前記第1のオブジェクトを前記1又は2以上のFOVにおいて見たときの前記電子デバイスの移動角度、前記第1の位置での前記電子デバイスからの前記第1のオブジェクトの距離、及び/又は画像品質閾値のうちの1又はそれ以上を含む、
    ことを特徴とする請求項1に記載のシステム。
  5. 前記1又は2以上の回路は更に、前記目標FOVにおいて前記第1のオブジェクトの一部分を取り込むユーザ定義の閾値に基づいて、前記第2の位置及び前記目標FOVを決定するよう構成される、
    ことを特徴とする請求項1に記載のシステム。
  6. 前記1又は2以上の回路は更に、前記第1の位置にて前記ユーザから第2の複数の入力値を受け取るよう構成され、前記受け取った第2の複数の入力値は、第2のオブジェクトを包含する第2の複数の境界ポイントを含む、
    ことを特徴とする請求項1に記載のシステム。
  7. 前記1又は2以上の回路は更に、前記受け取った第1の複数の境界ポイントに基づく前記第1のオブジェクト及び前記受け取った第2の複数の境界ポイントに基づく前記第2のオブジェクトを含む前記画像又は前記ビデオを取り込むための前記第2の位置及び前記目標FOVを決定するよう構成される、
    ことを特徴とする請求項6に記載のシステム。
  8. 前記1又は2以上の回路は更に、前記目標FOVにおいて前記第1のオブジェクト及び前記第2のオブジェクトのうちの1つ又は両方の一部分を取り込む閾値を示すよう構成される、
    ことを特徴とする請求項6に記載のシステム。
  9. 前記第1のオブジェクト及び/又は前記第2のオブジェクトが移動状態にある、
    ことを特徴とする請求項6に記載のシステム。
  10. 前記第1のオブジェクト及び/又は前記第2のオブジェクトが移動状態にあるときに、前記1又は2以上の回路は更に、前記第1のオブジェクト及び前記第2のオブジェクトを含む前記ビデオを取り込むよう構成される、
    ことを特徴とする請求項9に記載のシステム。
  11. 前記1又は2以上の回路は更に、前記目標FOVにおいて前記決定された第2の位置での前記第1のオブジェクトの前記画像又は前記ビデオを取り込むため1又は2以上の設定パラメータを使用する推奨を提供するよう構成され、前記1又は2以上の設定パラメータは、アパーチャ設定、国際標準化機構(ISO)感度、自動露出、オートフォーカス、自動ホワイトバランス、及び/又は自動照明の1又はそれ以上を含む、
    ことを特徴とする請求項1に記載のシステム。
  12. 画像又はビデオをユーザが取り込むのを支援する方法であって、前記方法は、
    電子デバイスにおいて、
    第1の位置にて前記ユーザから第1の複数の入力値を受け取るステップであって、前記受け取った第1の複数の入力値は、前記第1の位置にて前記電子デバイスの1又は2以上の視野(FOV)において第1のオブジェクトを包含する第1の複数の境界ポイントを含むステップと、
    前記受け取った第1の複数の境界ポイントに基づいて、少なくとも前記第1のオブジェクトを含む前記画像又は前記ビデオを取り込むための第2の位置及び目標FOVを決定するステップと、
    インジケータの表示を制御して、前記目標FOVにおける前記第1のオブジェクトの前記画像又は前記ビデオを取り込むため前記第2の位置に前記ユーザを案内するステップと、
    を含む方法。
  13. 前記第1のオブジェクトの少なくとも一部分は、前記第1の位置において前記電子デバイスの前記1又は2以上のFOVを超えて延びる、
    ことを特徴とする請求項12に記載の方法。
  14. 前記第1のオブジェクトを包含する前記第1の複数の境界ポイントの決定のために前記電子デバイスの1又は2以上のセンサからセンサデータを受け取るステップを更に含む、
    ことを特徴とする請求項12に記載の方法。
  15. 1又は2以上のパラメータの決定に基づいて前記第2の位置及び前記目標FOVを決定するステップを更に含み、前記1又は2以上のパラメータは、光の方向、1又は2以上の光源、光の強度、前記第1のオブジェクトを前記1又は2以上のFOVにおいて見たときの前記電子デバイスの移動角度、前記第1の位置の前記電子デバイスからの前記第1のオブジェクトの距離、及び/又は画像品質閾値の1又はそれ以上を含む、
    ことを特徴とする請求項12に記載の方法。
  16. 前記目標FOVにおいて前記第1のオブジェクトの一部分を取り込むユーザ定義閾値に基づいて、前記第2の位置及び前記目標FOVを決定するステップを更に含む、
    ことを特徴とする請求項12に記載の方法。
  17. 前記第1の位置において前記ユーザからの第2の複数の入力値を受け取るステップを更に含み、前記受け取った第2の複数の入力値は、第2のオブジェクトを包含する第2の複数の境界ポイントを含む、
    ことを特徴とする請求項12に記載の方法。
  18. 前記第1のオブジェクト及び前記第2のオブジェクトを取り込むためパノラマ画像モードを推奨するステップを更に含む、
    ことを特徴とする請求項17に記載の方法。
  19. 前記受け取った第1の複数の境界ポイントに基づく前記第1のオブジェクト及び前記受け取った第2の複数の境界ポイントに基づく前記第2のオブジェクトを含む前記画像又は前記ビデオを取り込むための前記第2の位置及び前記目標FOVを決定するステップを更に含む、
    ことを特徴とする請求項17に記載の方法。
  20. 前記目標FOVにおける前記第1のオブジェクト及び前記第2のオブジェクトのうちの1つ又は両方の一部分を取り込む閾値を示すステップを更に含む、
    ことを特徴とする請求項17に記載の方法。
  21. 前記第1のオブジェクト及び/又は前記第2のオブジェクトが移動状態にある、
    ことを特徴とする請求項17に記載の方法。
  22. 前記第1のオブジェクト及び/又は前記第2のオブジェクトが移動状態にあるときに、前記第1のオブジェクト及び前記第2のオブジェクトを含む前記ビデオを取り込むステップを更に含む、
    ことを特徴とする請求項21に記載の方法。
  23. 前記目標FOVにおいて前記決定された第2の位置で前記第1のオブジェクトの前記画像又は前記ビデオを取り込むための1又は2以上の設定パラメータを使用する推奨を提供するステップを更に含み、前記1又は2以上の設定パラメータは、アパーチャ設定、国際標準化機構(ISO)感度、自動露出、オートフォーカス、自動ホワイトバランス、及び/又は自動照明の1又はそれ以上を含む、
    ことを特徴とする請求項12に記載の方法。
  24. 電子デバイスにステップを実行させるためのコンピュータ実行可能命令のセットを格納させた非一時的コンピュータ可読記憶媒体であって、前記ステップは、
    第1の位置にてユーザから第1の複数の入力値を受け取るステップであって、前記受け取った第1の複数の入力値は、前記第1の位置にて前記電子デバイスの1又は2以上の視野(FOV)において第1のオブジェクトを包含する第1の複数の境界ポイントを含むステップと、
    前記受け取った第1の複数の境界ポイントに基づいて、少なくとも前記第1のオブジェクトを含む画像又は前記ビデオを取り込むための第2の位置及び目標FOVを決定するステップと、
    インジケータの表示を制御して、前記目標FOVにおける前記第1のオブジェクトの前記画像又は前記ビデオを取り込むため前記第2の位置に前記ユーザを案内するステップと、
    を含む、非一時的コンピュータ可読記憶媒体。
JP2018500332A 2015-07-31 2016-07-26 画像又はビデオをユーザが取り込むのを支援する方法及びシステム Active JP6587081B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/814,875 US9826145B2 (en) 2015-07-31 2015-07-31 Method and system to assist a user to capture an image or video
US14/814,875 2015-07-31
PCT/US2016/044079 WO2017023620A1 (en) 2015-07-31 2016-07-26 Method and system to assist a user to capture an image or video

Publications (2)

Publication Number Publication Date
JP2018530177A true JP2018530177A (ja) 2018-10-11
JP6587081B2 JP6587081B2 (ja) 2019-10-09

Family

ID=57883367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018500332A Active JP6587081B2 (ja) 2015-07-31 2016-07-26 画像又はビデオをユーザが取り込むのを支援する方法及びシステム

Country Status (6)

Country Link
US (1) US9826145B2 (ja)
EP (1) EP3304884A4 (ja)
JP (1) JP6587081B2 (ja)
KR (1) KR101989757B1 (ja)
CN (1) CN107710736B (ja)
WO (1) WO2017023620A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10462364B2 (en) * 2016-10-25 2019-10-29 Hewlett-Packard Development Company, L.P. Electronic devices having multiple position cameras
US10382673B2 (en) * 2017-01-11 2019-08-13 Hover Inc. Automated guide for image capturing for 3D model creation
EP3496387A1 (en) * 2017-12-05 2019-06-12 Koninklijke Philips N.V. Apparatus and method of image capture
US10574881B2 (en) * 2018-02-15 2020-02-25 Adobe Inc. Smart guide to capture digital images that align with a target image model
EP3700189B1 (en) * 2019-02-21 2023-02-01 Vestel Elektronik Sanayi ve Ticaret A.S. Mobile phone vertical capture mode
US10984546B2 (en) * 2019-02-28 2021-04-20 Apple Inc. Enabling automatic measurements
US11670144B2 (en) 2020-09-14 2023-06-06 Apple Inc. User interfaces for indicating distance

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004040724A (ja) * 2002-07-08 2004-02-05 Casio Comput Co Ltd カメラ装置及び被写体の撮影方法
JP2007259035A (ja) * 2006-03-23 2007-10-04 Fujifilm Corp 撮像装置および撮像条件案内方法
US20100020221A1 (en) * 2008-07-24 2010-01-28 David John Tupman Camera Interface in a Portable Handheld Electronic Device
JP2011223599A (ja) * 2011-05-31 2011-11-04 Casio Comput Co Ltd 撮影装置及びプログラム
US20120120277A1 (en) * 2010-11-16 2012-05-17 Apple Inc. Multi-point Touch Focus
JP2013042250A (ja) * 2011-08-12 2013-02-28 Sony Corp 撮像装置および撮像方法
JP2013165366A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013214853A (ja) * 2012-04-02 2013-10-17 Jvc Kenwood Corp 再生装置、記録再生装置、及び再生方法
US20130293579A1 (en) * 2012-05-07 2013-11-07 Samsung Electronics Co., Ltd. Electronic system with augmented reality mechanism and method of operation thereof
US20140354768A1 (en) * 2013-05-30 2014-12-04 Microsoft Corporation Socialized Mobile Photography

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO918697A0 (en) 1997-09-15 1997-10-09 Canon Information Systems Research Australia Pty Ltd Enhanced information gathering apparatus and method
JP2010268031A (ja) * 2009-05-12 2010-11-25 Olympus Corp デジタルカメラ
US9495962B2 (en) * 2011-09-19 2016-11-15 Personetics Technologies Ltd. System and method for evaluating intent of a human partner to a dialogue between human user and computerized system
EP2789159A4 (en) 2011-12-07 2015-06-17 Intel Corp GUIDED IMAGE CAPTURE
JP2013214858A (ja) * 2012-04-02 2013-10-17 Sony Corp 撮像装置、撮像装置の制御方法およびコンピュータプログラム
US9131143B2 (en) * 2012-07-20 2015-09-08 Blackberry Limited Dynamic region of interest adaptation and image capture device providing same
JP2015056825A (ja) * 2013-09-13 2015-03-23 Necカシオモバイルコミュニケーションズ株式会社 撮像装置、その制御方法及びプログラム
US20150098000A1 (en) * 2013-10-03 2015-04-09 Futurewei Technologies, Inc. System and Method for Dynamic Image Composition Guidance in Digital Camera

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004040724A (ja) * 2002-07-08 2004-02-05 Casio Comput Co Ltd カメラ装置及び被写体の撮影方法
JP2007259035A (ja) * 2006-03-23 2007-10-04 Fujifilm Corp 撮像装置および撮像条件案内方法
US20100020221A1 (en) * 2008-07-24 2010-01-28 David John Tupman Camera Interface in a Portable Handheld Electronic Device
US20120120277A1 (en) * 2010-11-16 2012-05-17 Apple Inc. Multi-point Touch Focus
JP2011223599A (ja) * 2011-05-31 2011-11-04 Casio Comput Co Ltd 撮影装置及びプログラム
JP2013042250A (ja) * 2011-08-12 2013-02-28 Sony Corp 撮像装置および撮像方法
JP2013165366A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013214853A (ja) * 2012-04-02 2013-10-17 Jvc Kenwood Corp 再生装置、記録再生装置、及び再生方法
US20130293579A1 (en) * 2012-05-07 2013-11-07 Samsung Electronics Co., Ltd. Electronic system with augmented reality mechanism and method of operation thereof
US20140354768A1 (en) * 2013-05-30 2014-12-04 Microsoft Corporation Socialized Mobile Photography

Also Published As

Publication number Publication date
WO2017023620A1 (en) 2017-02-09
US20170034431A1 (en) 2017-02-02
US9826145B2 (en) 2017-11-21
EP3304884A4 (en) 2018-12-26
CN107710736A (zh) 2018-02-16
JP6587081B2 (ja) 2019-10-09
KR20180016534A (ko) 2018-02-14
KR101989757B1 (ko) 2019-06-14
CN107710736B (zh) 2020-10-20
EP3304884A1 (en) 2018-04-11

Similar Documents

Publication Publication Date Title
JP6587081B2 (ja) 画像又はビデオをユーザが取り込むのを支援する方法及びシステム
US10484598B2 (en) System and method for controlling capture of images
JP6040564B2 (ja) 画像処理装置、投影制御方法及びプログラム
US10529050B2 (en) Method and apparatus for processing wide angle image
US9858470B2 (en) Method for performing a face tracking function and an electric device having the same
US9742995B2 (en) Receiver-controlled panoramic view video share
EP3352453B1 (en) Photographing method for intelligent flight device and intelligent flight device
EP3038345A1 (en) Auto-focusing method and auto-focusing device
JP2017518658A (ja) 多焦点イメージングのためのシステムおよび方法
JP6374536B2 (ja) 追尾システム、端末装置、カメラ装置、追尾撮影方法及びプログラム
JP2020514891A (ja) ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分
WO2018014517A1 (zh) 一种信息处理方法、装置及存储介质
CN114125411B (zh) 投影设备校正方法、装置、存储介质以及投影设备
US9800773B2 (en) Digital camera apparatus with dynamically customized focus reticle and automatic focus reticle positioning
JP6280005B2 (ja) 情報処理装置、画像投影装置および情報処理方法
JP6465566B2 (ja) 撮像装置及び撮像方法
WO2018079043A1 (ja) 情報処理装置、撮像装置、情報処理システム、情報処理方法、およびプログラム
CN111263115B (zh) 用于呈现图像的方法、装置、电子设备和计算机可读介质
US11350043B2 (en) Image processing method and terminal
KR102669853B1 (ko) 다중-카메라 시스템들에 대한 카메라 스위칭오버 제어 기술들
US20230081349A1 (en) Object Depth Estimation and Camera Focusing Techniques for Multiple-Camera Systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190827

R151 Written notification of patent or utility model registration

Ref document number: 6587081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151