JP2023003033A - 電子機器および電子機器の制御方法 - Google Patents

電子機器および電子機器の制御方法 Download PDF

Info

Publication number
JP2023003033A
JP2023003033A JP2021103950A JP2021103950A JP2023003033A JP 2023003033 A JP2023003033 A JP 2023003033A JP 2021103950 A JP2021103950 A JP 2021103950A JP 2021103950 A JP2021103950 A JP 2021103950A JP 2023003033 A JP2023003033 A JP 2023003033A
Authority
JP
Japan
Prior art keywords
imaging
imaging device
electronic device
support
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021103950A
Other languages
English (en)
Other versions
JP2023003033A5 (ja
Inventor
拓光 土谷
Hiromitsu Tsuchiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021103950A priority Critical patent/JP2023003033A/ja
Priority to US17/838,340 priority patent/US20220413295A1/en
Publication of JP2023003033A publication Critical patent/JP2023003033A/ja
Publication of JP2023003033A5 publication Critical patent/JP2023003033A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】好適な画角の決定を容易にし、3次元空間内での撮影を支援する。【解決手段】撮像装置での撮影を支援するための電子機器は、前記撮像装置の現在の撮影範囲に対応する仮想空間における第1オブジェクトと、前記撮像装置が所定の位置および所定の向きを有する場合の撮影範囲に対応する仮想空間における第2オブジェクトとを生成する生成手段と、前記第1オブジェクトおよび前記第2オブジェクトを表示する表示制御手段とを有する。【選択図】図4

Description

本発明は、電子機器および電子機器の制御方法に関する。
従来、カメラまたはスマートフォンに搭載されたカメラには、撮影を支援する機能が実装されてきた。撮影を支援する機能は、例えば、ライブビュー(LV)画面にグリッド線や水平線を表示する機能、LV画面に表示されている被写体に対してピントが合っている箇所をユーザに示すピーキング機能、パノラマ撮影におけるカメラの移動先の指示機能などである。さらに近年は、ヘッドマウントディスプレイ(HMD)、カメラ搭載のスマートフォン、タブレット端末などのデバイスで、AR(Augmented Realty)およびMR(Mixed Reality)などの技術が利用されている。
例えば画角決定を支援する技術として、特許文献1は、定点撮影を支援する装置を開示する。具体的には、特許文献1に係る装置は、過去に写真を撮影した際のカメラの位置および撮影範囲をARオブジェクトとして生成し、現実物体のカメラのLV画面に、生成したARオブジェクトを重畳表示する。これにより、ユーザは、現実物体のカメラをLV画面に表示されているARオブジェクトのカメラに重ね合わせるように移動させ、さらに撮影範囲も合わせることで、過去に撮影した写真と同じ画角で撮影することができる。
特許文献2は、パノラマ撮影を支援する装置を開示する。具体的には、特許文献2に係る装置は、パノラマ撮影に最適な装置の移動速度をガイドする2次元のオブジェクトをLV画面に表示する。
特開2020-167499号公報 特開2011-193286号公報
しかしながら、現実物体のカメラのLV画面に、ARオブジェクトのカメラが表示されていても、現実物体のカメラをARオブジェクトのカメラに正確に合わせ込むことは困難な場合がある。また、ARオブジェクトのカメラの形状と、撮影用のカメラの形状とが異なる場合、カメラの位置および向きを正しく合わせることは難しい。
さらに、移動速度をガイドする2次元のオブジェクトがLV画面に表示された場合、撮像面に平行な2次元の面上でのカメラの移動は支援することができるが、3次元空間内での撮影の支援は困難である。
そこで、本発明は、好適な画角の決定を容易にし、3次元空間内での撮影を支援する電子機器を提供することを目的とする。
上記目的を達成するために、本発明の電子機器は、
撮像装置での撮影を支援するための電子機器であって、
前記撮像装置の現在の撮影範囲に対応する仮想空間における第1オブジェクトと、前記撮像装置が所定の位置および所定の向きを有する場合の撮影範囲に対応する仮想空間にお
ける第2オブジェクトとを生成する生成手段と、
前記第1オブジェクトおよび前記第2オブジェクトを表示する表示制御手段と、
を有することを特徴とする。
本発明によれば、好適な画角の決定を容易にし、3次元空間内での撮影を支援することができる。
撮像装置の外観図を例示する図である。 HMDの外観図を例示する図である。 第1実施形態の撮像装置のハードウェア構成例を示す図である。 第1実施形態の撮影支援処理を例示するフローチャートである。 軌跡情報を説明する図である。 軌跡情報を説明する図である。 第1実施形態での撮像オブジェクトと支援オブジェクトの生成例である。 LV画面での撮像オブジェクトと支援オブジェクトの表示例である。 第2実施形態の撮影支援処理を例示するフローチャートである。 第2実施形態での撮像オブジェクトと支援オブジェクトの生成例である。 第3実施形態の撮像装置とHMDのハードウェア構成例を示す図である。 第3実施形態の撮影支援処理を例示するフローチャートである。
図1および図2を参照して、本発明に係る電子機器としての撮像装置およびHMDの構成を説明する。図1および図2で説明する構成は、以下の各実施形態で共通する。
図1は、撮像装置の外観図を例示する図である。撮像装置1は、電子機器に組み込まれていてもよく、電子機器とは別体として構成されてもよい。図1(A)および図1(B)は、それぞれ撮像装置1の表面および裏面を示す。撮像装置1は、カメラ、スマートフォン、タブレット端末など撮像素子を有する装置である。撮像装置1は、撮像部11、表示部12、操作部13を有する。
撮像部11は、撮像装置1の表面および裏面の少なくとも一方に1つ以上搭載される。表示部12は、タッチパネルを装備したディスプレイであり、各種映像を表示する。表示部12に装備されたタッチパネルは、ユーザの指またはスタイラスペンなどによる操作を受け付ける。操作部13は、ボタン、ダイヤルなどのユーザの操作を入力する部材である。操作部13は、撮像装置1に1つ以上搭載されてもよいし、表示部12に装備されたタッチパネルにより実現されてもよい。表示部12は、「表示制御手段」の一例である。
図2は、HMD2の外観図を例示する図である。図2に例示するHMD2は、光学シースルー型HMDである。HMD2は、頭部装着型の表示装置であって、ARグラスとも称される。HMD2は、フレームと、2つの表示部21aおよび表示部21bとを有する。フレームは、リム25と、リム25の両サイドに接合されているテンプル26aおよびテンプル26bを有する。表示部21aおよび表示部21bは、リム25の一方の面に接合されている。
表示部21aの表示素子(不図示)からの光は、画像投影部22aおよび導光部23aによってHMD2を装着した装着者の右眼に導かれる。同様に、表示部21bの表示素子(不図示)からの光は、画像投影部22bおよび導光部23bによってHMD2を装着した装着者の左眼に導かれる。
装着者は、表示部21aおよび表示部21bに表示される映像と、HMD2の前方からの入射光とを同時に知覚することができる。また、HMD2は2つの撮像部24aおよび撮像部24bを有してもよい。撮像部24aおよび撮像部24bはHMDの前方を含む周囲を撮影する。なお、HMD2は、透明なディスプレイを使用した光学シースルー型HMDとして説明するが、不透明なディスプレイを使用したビデオシースルー型のHMDとしてもよい。
以下の各実施形態に係る撮像装置1またはHMD2は、搭載された撮像部などにより周囲の空間を認識することで、周囲の空間に適合した様々な仮想オブジェクトを、3次元の情報としてユーザに提示することができる。仮想空間または仮想オブジェクトを利用した情報提示は、これまでユーザに知覚させることが難しかった奥行方向の情報を提示することが可能である。現実空間にマッピングさせた仮想オブジェクトは、様々な撮影支援手段に利用することができる。
第1実施形態および第2実施形態は、撮像装置1またはHMD2のどちらか一方を用いて撮影する際に、撮像装置1またはHMD2での撮影を支援するための実施形態である。第3実施形態は、撮像装置1とHMD2とが連携することで、撮像装置1での撮影を支援するための実施形態である。
<第1実施形態>
第1実施形態は、撮像装置1あるいはHMD2のどちらか一方を用いて、最適な画角での撮影を実現するために、撮像装置1またはHMD2の移動を、移動先を提示することにより支援するための実施形態である。なお、以下の説明では、撮像装置1での撮影を支援する場合について説明する。
図3は、第1実施形態に係る撮像装置1のハードウェア構成例を示す図である。撮像装置1は、演算部101、画像処理部102、一次記憶部104、二次記憶部105、表示部106、撮像部107、操作部108、3次元空間認識部109を有する。撮像装置1が有する各構成は、相互にバスで接続される。
演算部101は、例えばCPU(Central Processing Unit)であり、撮像装置1の全体の制御を司る。画像処理部102は、3次元空間認識部109が認識した仮想空間において撮像画角を示すオブジェクト(以下、撮像オブジェクト)、およびユーザによる撮像装置1での撮影を支援する支援オブジェクトを生成する。
撮像オブジェクトは、撮像装置の現在の撮影範囲に対応する仮想空間におけるARオブジェクトである。支援オブジェクトは、撮像装置1が所定の位置および所定の向きを有する場合の撮影範囲に対応する仮想空間におけるARオブジェクトである。支援オブジェクトは、撮像装置1を理想的なカメラワークで移動させるために、撮像オブジェクトの理想的な移動先を提示するARオブジェクトである。撮像オブジェクトは、「第1オブジェクト」に相当する。支援オブジェクトは、「第2オブジェクト」に相当する。
画像処理部102は、ユーザが撮像オブジェクトを支援オブジェクトに合わせ込むことで、撮像装置1の移動が制御されるように支援オブジェクトを生成する。ユーザは、撮像オブジェクトを支援オブジェクトに重ねるように撮像装置1を動かすことによって、一定速度で撮影したり、規則的な軌跡で撮影したりすることができる。画像処理部102は、「生成手段」の一例である。
一次記憶部104は、例えば、DRAM(Dynamic Random Access
Memory)であり、画像データを一時的に格納する。二次記憶部105は、例えば
フラッシュメモリであり、撮影した画像などを記録する。
表示部106は、撮影画像およびその他の視覚的オブジェクトを表示するディスプレイである。表示部106は、現実空間を撮像した画像に撮像オブジェクトおよび支援オブジェクトを重畳させて表示する。撮像部107は、光を電気信号に変換する。操作部108は、ユーザからの操作を受け付ける。表示部106、撮像部107および操作部108は、それぞれ図1(B)に示す表示部12、撮像部11および操作部13に相当する。
3次元空間認識部109は、現実空間における物体の配置および物体までの距離を検知し、仮想空間の情報を取得する。3次元空間認識部109は、例えば、複数台のカメラを用いて現実の3次元空間を認識することができる。3次元空間認識部109は、「取得手段」の一例である。なお、3次元空間認識部109の処理は、撮像部107により実行されてもよい。
図4は、第1実施形態に係る撮影支援処理400を例示するフローチャートである。撮影支援処理400は、撮像オブジェクトおよび支援オブジェクトを生成してLV画面に表示することにより、ユーザの撮影を支援する処理である。撮像オブジェクトおよび支援オブジェクトは、現実空間を撮像した画像に重畳されて表示される。第1実施形態では、支援オブジェクトは、移動速度または軌跡など撮像装置1の今後の動きを示す軌跡情報に基づいて生成される。
撮影支援処理400は、例えば、ユーザが撮像装置1の操作部108を操作し、撮像装置1が撮影モードに入ることにより開始される。撮像装置1の演算部101は、撮影支援処理400の各ステップの処理を各構成部に行わせるためのプログラムを実行する。
S401において、画像処理部102は、支援オブジェクトの生成に使用される軌跡情報を取得する。軌跡情報は、撮像画像の今後の撮影範囲の動き(カメラワーク)を示す情報である。軌跡情報は、支援オブジェクトの仮想空間における位置、向き(支援オブジェクトの位置からの方向成分)、移動速度および軌跡を決定するための情報を含む。
支援オブジェクトは、撮像装置が所定の位置および所定の向きを有する場合の撮影範囲に対応する、仮想空間におけるARオブジェクトである。画像処理部102は、取得した軌跡情報に基づいて、所定の位置および所定の向きを決定することができる。画像処理部102は、予め二次記憶部105に記憶されている軌跡情報を取得してもよく、操作部108を介してユーザにより入力された軌跡情報を取得してもよい。
ここで、図5(A)から図5(C)、図6(A)、図6(B)を参照して、軌跡情報について説明する。軌跡情報は、撮像装置1の動きを示す情報であって、例えば、撮像装置1を一定速度で直進させる動き、撮像装置1またはユーザを中心に水平方向に回転させる動きを示す情報である。また、軌跡情報は、撮像部107に入射する光軸(撮像装置1の撮像軸)を中心に一定速度で回転させる動き、被写体を中心として前記撮像装置を回転させる動きを示す情報であってもよい。
図5(A)は、人物(撮影するユーザ)が一定速度で前方へ直進する例を示す。ユーザが撮像オブジェクト510を支援オブジェクト511に合わせ込むと、表示部106は、支援オブジェクト511の先に支援オブジェクト512を表示する。さらに、ユーザが撮像オブジェクト510を支援オブジェクト512に合わせ込むと、表示部106は、支援オブジェクト512の先に支援オブジェクト513を表示する。
図5(B)は、人物が一定速度で横方向に進む例を示す。ユーザが撮像オブジェクト520を支援オブジェクト521に合わせ込むと、表示部106は、支援オブジェクト521の横方向に支援オブジェクト522を表示する。
図5(C)は、撮像装置1を中心に、一定速度で撮像装置1を水平方向に回転させる例を示す。ユーザが撮像オブジェクト530を支援オブジェクト531に合わせ込むと、表示部106は、撮像装置1が回転する方向に支援オブジェクト532を表示する。さらに、ユーザが撮像オブジェクト530を支援オブジェクト532に合わせ込むと、表示部106は、撮像装置1が回転する方向に支援オブジェクト533を表示する。
図6(A)は、撮像装置1の撮影軸を中心に、一定速度で撮像装置1を回転させる例を示す。ユーザが撮像オブジェクト610を支援オブジェクト611に合わせ込むと、表示部106は、撮像装置1が撮影軸を中心に回転する方向に支援オブジェクト612を表示する。さらに、ユーザが撮像オブジェクト610を支援オブジェクト612に合わせ込むと、表示部106は、撮像装置1が撮影軸を中心に回転する方向に支援オブジェクト613を表示する。
図6(B)は、被写体を中心に、一定速度で撮像装置1を回転させる例を示す。ユーザが撮像オブジェクト620を支援オブジェクト621に合わせ込むと、表示部106は、撮像装置1が被写体を中心に回転する方向に支援オブジェクト622を表示する。
支援オブジェクトは、軌跡情報に基づく撮像装置1の動きに合わせて、1つずつ表示されてもよい。また、支援オブジェクトは、軌跡情報に基づく将来の複数の時点における撮像装置1の位置および向きを、所定の位置および所定の向きとして、複数表示されてもよい。また、過去に表示された支援オブジェクトは、撮像オブジェクトとの位置または向きの差分が閾値以上となった場合に非表示とされてもよく、表示されたままとしてもよい。
軌跡情報は、撮像装置1の速度または軌跡に限らず、被写体を撮影範囲の中心または端といった所定位置に配置するような動き、被写体の正面を撮影範囲に収める動き、を示す情報であってもよい。
図4のS402において、3次元空間認識部109は、現実空間における物体の配置および撮像装置1から物体までの距離を仮想空間情報として取得し、一次記憶部104に保持する。
S403において、画像処理部102は、3次元空間認識部109が認識した仮想空間において、撮像部107が撮影している撮影範囲を示す撮像オブジェクトを生成する。画像処理部102は、一次記憶部104に保持されている仮想空間情報に対して、生成した撮像オブジェクトの情報を追加する。撮像オブジェクトは、撮像装置1の撮影範囲に連動した位置および向きを示すARオブジェクトである。
画像処理部102は、例えばテンプレートマッチングを用いて、一次記憶部104に保持されている仮想空間情報において、撮像装置1が撮影している撮像画像と一致する部分を探索する。画像処理部102は、探索した撮像画像の仮想空間における位置および向きに基づいて、撮像オブジェクトを生成することができる。
撮像オブジェクトの形状は、枠、直方体、カーソル、撮影範囲の4つ角を示す点など、位置および向きを一意に決定できる形状とすることができる。撮像オブジェクトの奥行方向の位置は、例えば、ピントが最も合っている焦点距離の位置とすることができる。
撮像オブジェクトの奥行方向の位置は、撮像装置1から所定の距離の位置とし、撮像オブジェクトの大きさが可変となるように設定されてもよい。例えば、撮像オブジェクトの形状を枠とする場合、撮像装置1から枠までの距離は所定の距離の1メートルに固定し、枠の大きさは可変とすることができる。なお、撮像装置1から枠までの距離は、例えば撮像装置1から枠の中心までの距離とすることができる。
また、撮像オブジェクトの奥行方向の位置は、撮像オブジェクトの大きさを所定の大きさとし、撮像装置1から撮像オブジェクトまでの距離が可変となるように設定されてもよい。例えば、撮像オブジェクトの形状を枠とする場合、枠の大きさは、所定の大きさとして現実空間での対角線の長さを30センチに固定し、撮像装置1から枠までの距離は可変とすることができる。
撮像装置1の正面に障害物が存在するような狭い空間の場合、画像処理部102は、障害物よりも撮像装置1の近い位置に表示されるように、撮像オブジェクトを生成してもよい。画像処理部102は、周囲の空間に応じて撮像オブジェクトの表示位置を変更することができる。
上記の例では、撮像オブジェクトの位置および向きは、撮像部107が撮影している撮影範囲に基づいて取得される。撮像オブジェクトの位置および向きは、現実空間における撮像装置1の位置および向きから取得することも可能である。
S404において、画像処理部102は、撮影を支援するためのARオブジェクトである支援オブジェクトを生成する。画像処理部102は、S401で取得した軌跡情報に基づいて支援オブジェクトを生成する。
軌跡情報は、撮像画像の撮影範囲の動き(カメラワーク)を示す情報である。例えば、軌跡情報が撮像装置1を一定速度で直進させる動きを示す情報である場合、画像処理部102は、現在の撮像オブジェクトを、当該撮像オブジェクトの向きに直進させた位置に表示されるように、支援オブジェクトを生成する。具体的には、画像処理部102は、撮像装置1の向きを所定の向きとし、撮像装置1を一定速度で1秒間所定の向きに直進させた位置を所定の位置として、支援オブジェクトを生成すればよい。
画像処理部102は、軌跡情報によって示された動きに合わせて、現在の撮像オブジェクトを移動させた位置に、支援オブジェクトを生成することができる。画像処理部102は、撮像装置1の所定の位置と支援オブジェクトの位置との相対関係が、撮像装置1の現在の位置と撮像オブジェクトの位置との相対関係と等しくなるように、支援オブジェクトを生成してもよい。画像処理部102は、一次記憶部104に保持されている仮想空間情報に対し、生成した支援オブジェクトの情報を追加する。
図7は、撮像オブジェクトおよび支援オブジェクトの生成例である。図7は、仮想空間700の情報に、撮像オブジェクト702の情報および支援オブジェクト703の情報が追加された様子を模式的に示す。
図4のS405において、表示部106は、現実空間を撮像した画像に、一次記憶部104に保持されている撮像オブジェクトおよび支援オブジェクトを重畳させLV画面に表示する。重畳の処理は、画像処理部102により行われてもよい。
重畳の処理では、表示部106は、まず、撮像部107により現実空間を撮像した画像が仮想空間700のどの部分に対応するかを取得する。次に、表示部106は、仮想空間700に存在する撮像オブジェクト702および支援オブジェクト703を、現実空間を
撮像した画像の対応する位置に重畳させる。
S406において、演算部101は、ユーザから操作部108に対して撮影モードの終了が指示されたか否かを判定する。撮影モードの終了が指示された場合(S406:YES)、撮影支援処理400は終了する。撮影モードの終了が指示されていない場合(S406:NO)、処理はS402に戻り、S402からS406までの処理を繰り返す。
S402からS406までの処理は、撮像部107が撮影している動画像の各フレームに対して実行される処理である。なお、S402からS406までの処理は、支援オブジェクトがユーザの撮影を支援できるように表示されればよく、複数フレーム(例えば、5フレーム)ごとに実行されてもよい。
図8は、LV画面での撮像オブジェクトおよび支援オブジェクトの表示例である。図8は、LV画面800(表示部106)に、現実空間を撮像した画像に対して撮像オブジェクトおよび支援オブジェクトを重畳表示した例を示す。
図8(A)は、LV画面800に、枠の形状である撮像オブジェクト801と、枠の形状である支援オブジェクト802とが、同じ奥行、同じ向きで存在している例を示す。ユーザは、撮像装置1に連動して動く撮像オブジェクト801を、支援オブジェクト802に合わせ込むように、撮像装置1を移動させることで、適切な撮影画角またはカメラワークを実現することができる。
図8(B)は、LV画面800に、枠の形状である撮像オブジェクト803と、枠の形状である支援オブジェクト804とが、異なる奥行、異なる向きで存在している例を示す。ユーザは、撮像装置1に連動して動く撮像オブジェクト803を、支援オブジェクト804に合わせ込むように、撮像装置1を移動させることで、適切な撮影画角またはカメラワークを実現することができる。
図8(C)は、LV画面800に、直方体の形状である撮像オブジェクト805と、直方体の形状である支援オブジェクト806とが、異なる奥行、異なる向きで存在している例を示す。ユーザは、撮像装置1に連動して動く撮像オブジェクト805を、支援オブジェクト806に合わせ込むように、撮像装置1を移動させることで、適切な撮影画角またはカメラワークを実現することができる。
なお、上述の例では、撮像装置1によってユーザの撮影を支援する場合について説明したが、本実施形態は、図3に示す撮像装置1の構成と同様の構成を有するHMD2により実現されてもよい。
また、支援オブジェクトは、撮像モードで撮影している間、常に表示されるようにしてもよく、所定の条件を満たす場合に表示されるようにしてもよい。所定の条件は、例えば、撮像オブジェクトと支援オブジェクトとの位置の差と向きの差のいずれかが、閾値以上であることである。また、所定の条件は、撮像装置1の移動速度が一定でない場合、または撮像装置1が移動する軌跡が規則的でない場合としてもよい。
表示部106は、所定の条件を満たす場合に支援オブジェクトを一時的に表示することで、撮像装置1が軌跡情報に従って移動していないことをユーザに通知することができる。表示部106は、所定の条件が満たされ、撮像装置1が軌跡情報に従って移動している場合には、支援オブジェクトの表示を停止してもよい。
また、撮像オブジェクトおよび支援オブジェクトは、撮像装置1の画像処理部102に
よって生成されるが、クラウド上の外部装置に生成処理を依頼してもよい。この場合、撮像装置1は、クラウドとの通信が可能な通信部を備え、撮像オブジェクトおよび支援オブジェクトを生成するために使用される情報をクラウドに送信する。クラウドに送信される情報は、例えば、撮像装置1による撮像画像、撮像装置1の動きを示す軌跡情報、仮想空間情報を含む。
撮像装置1は、クラウド上で生成された撮像オブジェクトおよび支援オブジェクトを受信(取得)し、現実空間を撮像した画像に重畳させてLV画面に表示することができる。外部装置に撮像オブジェクトおよび支援オブジェクトといったARコンテンツを生成させることにより、撮像装置1は、高性能かつ大型のSoCを搭載しなくてもよく小型化が可能となる。
上記の撮像装置1またはHMD2によれば、ユーザは、LV画面に表示される撮像オブジェクトを支援オブジェクトに合わせ込むように、撮像装置1またはHMD2を動かすことで、好適な画角の決定または好適なカメラワークを容易に実現することができる。
<第2実施形態>
第1実施形態では、画像処理部102は、撮像オブジェクトの動きとは独立して、軌跡情報および現在の撮影範囲に基づいて支援オブジェクトを生成する。これに対し、第2実施形態では、支援オブジェクトは、撮像オブジェクトの動きをリアルタイムに反映して生成される。したがって、撮像装置1は、ユーザの動きを考慮した最適な支援オブジェクトを生成することが可能となる。
第2実施形態に係る撮像装置1のハードウェア構成は、図3に示す第1実施形態に係る撮像装置1のハードウェア構成と同様であるため、説明は省略する。なお、第1実施形態と同様に、第2実施形態は、図3に示す撮像装置1の構成と同様の構成を有するHMD2により実現されてもよい。
図9は、第2実施形態に係る撮影支援処理900を例示するフローチャートである。撮影支援処理900は、撮像オブジェクトの動きに基づいて支援オブジェクトを生成する処理である。
撮影支援処理900の各ステップの処理のうち、図4に示す第1実施形態の撮影支援処理400と同じ処理については、同じ符号を付して詳細な説明は省略する。第1実施形態の撮影支援処理400とは異なるS901、S902、S903の処理について説明する。
撮影支援処理900は、例えば、ユーザが撮像装置1の操作部108を操作し、撮像装置1が撮影モードに入ることにより開始される。撮像装置1の演算部101は、撮影支援処理400の各ステップの処理を各構成部に行わせるためのプログラムを実行する。
第1実施形態と同様に、S402において、3次元空間認識部109は仮想空間情報を取得する。S403において、画像処理部102は、仮想空間で撮像部107が撮影している撮影範囲を示す撮像オブジェクトを生成する。
S901において、の1ループ目であるか否かを判定する。第2実施形態では、画像処理部102は、複数の撮像オブジェクトの動きに基づいて支援オブジェクトを生成する。1ループ目では撮像オブジェクトが1つしか生成されていないため、画像処理部102は、さらに撮像オブジェクトを生成する。
1ループ目である場合(S901:YES)、処理はS402に戻る。S402およびS403の処理が繰り返され、画像処理部102は、時間差のある複数の撮像オブジェクトを生成することができる。2ループ目以降である場合(S901:NO)、処理はS902に進む。
S902において、画像処理部102は、現フレームおよび前フレームに対して生成した2つの撮像オブジェクトから、撮影を支援するためのARオブジェクトである支援オブジェクトを生成する。生成された支援オブジェクトの情報は、一次記憶部104に保持されている仮想空間情報に追加される。
図10は、撮像オブジェクトおよび支援オブジェクトの生成例である。図10は、仮想空間1000の情報に、前フレームの撮像オブジェクト1001、現フレームの撮像オブジェクト1002および支援オブジェクト1003の情報が追加された様子を模式的に示す。なお、前フレームは、現フレームの直前のフレームに限られず、複数フレーム前のフレームであってもよい。
支援オブジェクトは、具体的には以下の方法により生成することができる。画像処理部102は、仮想空間1000において、前フレームの撮像オブジェクト1001が、現フレームの撮像オブジェクト1002に移動した際の位置、向き、移動速度等の変化量を取得する。変化量は、撮像オブジェクト1001から撮像オブジェクト1002までの移動量、回転量、加速度等である。
画像処理部102は、取得した変化量に基づいて、次フレームの撮像オブジェクトの位置および向きを、支援オブジェクト1003の位置および向きとして推測する。画像処理部102は、推測した支援オブジェクト1003の情報を仮想空間1000の情報に追加する。
画像処理部102は、過去の撮像オブジェクト1001の位置および向きと、現在の撮像オブジェクト1002の位置および向きとの変化に基づいて、撮像装置1の所定の位置および所定の向きを決定し、支援オブジェクトを生成することができる。
S903において、表示部106は、現実空間を撮像した画像に、現フレームの撮像オブジェクトおよび推測した支援オブジェクトを重畳させLV画面に表示する。重畳の処理は、画像処理部102により行われてもよい。S406の処理は、図4に示す第1実施形態での処理と同様である。
画像処理部102は、撮像装置1が過去の位置および向きを有する場合の撮影範囲に対応する仮想空間における撮像オブジェクトを生成することができる。表示部106は、過去の撮像オブジェクトを、支援オブジェクトおよび現在の撮像オブジェクトとともにLV画面に表示してもよい。過去の撮像オブジェクトは、「第3オブジェクト」に相当する。
なお、上述の例では、撮像装置1によりユーザの撮影を支援する場合について説明したが、本実施形態は、図3に示す撮像装置1の構成と同様の構成を有するHMD2により実現されてもよい。
また、支援オブジェクトは、撮像モードで撮影している間、常に表示された状態でリアルタイムに移動するように表示されてもよく、所定の条件を満たす場合に表示されるようにしてもよい。所定の条件は、例えば、撮像装置1の移動速度が一定でないこと、または撮像装置1が移動する軌跡が規則的でないことである。表示部106は、所定の条件を満たす場合に支援オブジェクトを一時的に表示することで、撮像装置1が一定の速度で移動
していないことなどをユーザに通知することができる。
また、撮像オブジェクトおよび支援オブジェクトは、撮像装置1の画像処理部102によって生成されるが、クラウド上で生成されるようにしてもよい。撮像装置1は、クラウド上で生成された撮像オブジェクトおよび支援オブジェクトを受信(取得)し、LV画面に重畳させて表示することができる。
また、支援オブジェクトは、撮像オブジェクトの変化量に基づいて生成される例について説明したが、前フレームおよび現フレームを撮影したときの撮像装置1の位置、向き、移動速度等の変化量に基づいて生成されてもよい。画像処理部102は、過去の撮像装置1の位置および向きと、現在の撮像装置1の位置および向きとの変化に基づいて、撮像装置1の所定の位置および所定の向きを決定し、支援オブジェクトを生成することができる。
上記の撮像装置1またはHMD2は、ユーザの動きを考慮して好適な画角を決定するための支援オブジェクトを生成することができる。ユーザは、撮像オブジェクトを支援オブジェクトに合わせ込むように撮像装置1またはHMD2を動かすことで、自身の動きに合わせて一定の速度で移動したり、一定の角速度で回転移動したりすることが可能となる。
<第3実施形態>
第1実施形態および第2実施形態は、撮像装置1またはHMD2のいずれか一方を使用してユーザの撮影を支援する実施形態である。これに対して、第3実施形態は、撮像装置1およびHMD2を連携させて使用する実施形態である。第3実施形態では、撮像機能に特化している撮像装置1、および広範囲にわたってARオブジェクトを表示可能なHMD2は、それぞれの長所を生かすことが可能となる。
図11は、第3実施形態に係る撮像装置11およびHMD2のハードウェア構成例を示す図である。第3実施形態に係る撮像装置11は、第1実施形態に係る撮像装置1と同様に、演算部101、画像処理部102、一次記憶部104、二次記憶部105、撮像部107、操作部108を有する。撮像装置11は、さらに通信部1103を有する。撮像装置11が有する各構成は、相互にバスで接続される。撮像装置1と同じ構成については、同じ符号を付して説明は省略する。
第3実施形態に係るHMD2は、第1実施形態に係る撮像装置1と同様に、演算部201、画像処理部202、一次記憶部204、二次記憶部205、表示部206、操作部208、3次元空間認識部209を有する。HMD2は、さらに通信部203を有する。HMD2が有する各構成は、相互にバスで接続される。撮像装置1と同じ名称の構成については、対応する構成と同様に機能するため、詳細な説明は省略する。表示部206は、HMD2の表示部21aおよび表示部21bに相当する。表示部206は、「表示制御手段」の一例である。
撮像装置11とHMD2とは、通信部1103および通信部203を介して相互に通信する。撮像装置11は、撮像部107で撮像した撮影画像を、通信部1103および通信部203を介してHMD2に送信する。
図12は、第3実施形態に係る撮影支援処理を例示するフローチャートである。第3実施形態に係る撮影支援処理は、撮像装置11とHMD2とを連携させて使用する処理である。第3実施形態に係る撮影支援処理は、撮像装置11による撮影処理1200aおよびHMD2による撮影支援処理1200bを含む。
撮像装置11の撮影処理1200aは、ユーザが操作部108を操作し撮影モードに設定されることにより開始される。HMD2の撮影支援処理1200bは、ユーザが操作部208を操作し撮影モードに設定されることにより開始される。なお、撮影支援処理1200bは、撮像装置11が撮影モードに設定されたとき、または撮像装置11から撮影画像を受信したときに開始されてもよい。
撮像装置11の演算部101およびHMD2の演算部201は、それぞれ撮影処理1200aおよび撮影支援処理1200bの各ステップの処理を、各構成部に行わせるためのプログラムを実行する。
S1201bにおいて、HMD2の3次元空間認識部209は、現実空間における物体の配置や物体までの距離を、仮想空間情報として取得し、一次記憶部204に保持する。3次元空間認識部209は、「取得手段」の一例である。なお、仮想空間情報は、S1202bで撮像装置1から撮影画像を受信した後に取得されてもよい。
S1202aにおいて、撮像装置1の通信部103は、撮像部107で撮像した撮影画像を、通信部203を介してHMD2に送信する。S1202bにおいて、HMD2の通信部203は、撮像装置1の通信部103から撮影画像を受信したか否かを判定する。
撮影画像を受信した場合(S1202b:YES)、処理はS1203bに進む。撮影画像を受信していない場合(S1202b:NO)、S1203bの処理は撮影画像を受信するまで繰り返される。
S1203bにおいて、画像処理部202は、撮像装置1から受信した撮影画像を用いて、撮像部107が撮影している撮影範囲を示す撮像オブジェクトを仮想空間で生成する。画像処理部202は、一次記憶部204に保持されている仮想空間情報に対し、生成した撮像オブジェクトの情報を追加する。画像処理部202は、「生成手段」の一例である。
S1204bにおいて、画像処理部202は、第1実施形態に係る撮影支援処理400のS403または第2実施形態に係る撮影支援処理900のS902と同様の方法で、支援オブジェクトを生成する。画像処理部202は、一次記憶部104に保持されている仮想空間情報に対して、生成した支援オブジェクトの情報を追加する。
S1205bにおいて、HMD2の表示部206は、現実空間を撮像した画像に撮像オブジェクトおよび支援オブジェクトを重畳させて表示する。
S1206bにおいて、演算部201は、ユーザから操作部208に対して撮影モードの終了が指示されたか否かを判定する。撮影モードの終了が指示された場合(S1206b:YES)、撮影支援処理1200bは終了する。撮影モードの終了が指示されていない場合(S1206b:NO)、処理はS1201bに戻り、撮影支援処理1200bを繰り返す。
S1206bと同様にS1206aにおいて、演算部101は、ユーザから操作部108に対して撮影モードの終了が指示されたか否かを判定する。撮影モードの終了が指示された場合(S1206a:YES)、撮影処理1200aは終了する。撮影モードの終了が指示されていない場合(S1206a:NO)、処理はS1202aに戻り、撮影処理1200aを繰り返す。
なお、撮影支援処理1200bは、S1206bでの終了判定を行わず、撮影処理12
00aが終了した場合に、撮像装置11からの通知を受信して終了してもよい。また、撮影支援処理1200bは、所定時間、撮影画像を撮像装置11から受信しなかった場合に終了してもよい。
また、撮影支援処理1200bのS1203bでは、画像処理部202は、撮像装置1から撮影画像を受信して、受信した撮影画像から撮像オブジェクトの位置および向きを取得したが、これに限られない。画像処理部202は、HMD2が有する撮像部によって撮影される撮像画像から撮像装置11の位置および向きを取得することで、撮像オブジェクトの位置および向きを取得してもよい。
また、撮像オブジェクトおよび支援オブジェクトは、HMD2の画像処理部202によって生成されるが、クラウド上で生成されるようにしてもよい。この場合、HMD2は、クラウドと通信し、クラウド上で生成された撮像オブジェクトおよび支援オブジェクトを受信して、HMD2の表示部206に重畳させて表示することができる。また、撮像装置11とHMD2とを連携させるか否かは、予め設定されてもよく、ユーザが撮像装置11を撮像モードに切り替えたときに設定できるようにしてもよい。
上記の撮像装置11およびHMD2によれば、ユーザは、撮像機能に特化している撮像装置11、および広範囲にわたってARオブジェクトを表示可能なHMD2のそれぞれの長所を生かした撮影支援が可能となる。
<その他の実施形態>
なお、撮像オブジェクトは、実際に撮影をしている範囲を示すARオブジェクトに限られない。撮像オブジェクトは、撮影範囲と一致させるのではなく、撮影範囲の一部とすることも可能である。この場合、支援オブジェクトは、理想とする移動先の撮影範囲の一部とすればよい。支援オブジェクトの範囲は、ユーザが撮像オブジェクトを支援オブジェクトに合わせ込むことで、理想とするカメラワークが実現されるように決定されればよい。撮像オブジェクトを撮影範囲の一部とすることで、ユーザは、撮影範囲の全体を支援オブジェクトに合わせ込む場合よりも、精度よく撮像オブジェクトを支援オブジェクトに追従させることができる。
また、支援オブジェクトは、1つに限られず複数表示されてもよい。例えば、画像処理部102(画像処理部202)は、撮像オブジェクトと生成した第1の支援オブジェクトとの、位置、向き、移動速度のうちの少なくともいずれかの変化量に基づいて、第2の支援オブジェクトを生成することができる。同様に、画像処理部102(画像処理部202)は、3つ以上の支援オブジェクトを生成することも可能である。複数の支援オブジェクトが表示されることで、ユーザは、撮像装置の移動先を予測しやすくなる。
また、支援オブジェクトを生成するための撮像装置1の所定の位置および所定の向きは、外部から与えられてもよい。例えば、撮像装置1を用いて過去(例えば数日以上前)に撮影した際の撮像装置1の位置および向きが、支援オブジェクトを生成するための所定の位置および向きとして与えられてもよい。これにより、過去の撮影画像の撮影範囲を支援オブジェクトとして重畳表示することができ、ユーザは、過去に撮影した画像と同じ位置および向きの画像を撮影することができる。
上述の各実施形態は、本発明の構成を例示的に説明するものに過ぎない。本発明は上述の具体的な形態に限定されることはなく、その技術的思想の範囲内で種々の組み合わせまたは変形が可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は
記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1:撮像装置、101:演算部(CPU)、102:画像処理部、106:表示部、107:撮像部、109:3次元空間認識手段

Claims (20)

  1. 撮像装置での撮影を支援するための電子機器であって、
    前記撮像装置の現在の撮影範囲に対応する仮想空間における第1オブジェクトと、前記撮像装置が所定の位置および所定の向きを有する場合の撮影範囲に対応する仮想空間における第2オブジェクトとを生成する生成手段と、
    前記第1オブジェクトおよび前記第2オブジェクトを表示する表示制御手段と、
    を有することを特徴とする電子機器。
  2. 前記表示制御手段は、現実空間を撮像した画像に、前記第1オブジェクトおよび前記第2オブジェクトを重畳させて、前記第1オブジェクトおよび前記第2オブジェクトを表示する、
    ことを特徴とする請求項1に記載の電子機器。
  3. 前記生成手段は、前記撮像装置の今後の動きを示す軌跡情報に基づいて、前記所定の位置および前記所定の向きを決定する、
    ことを特徴とする請求項1または2に記載の電子機器。
  4. 前記軌跡情報は、ユーザによって入力される、
    ことを特徴とする請求項3に記載の電子機器。
  5. 前記軌跡情報は、前記撮像装置を一定速度で直進させる動き、前記撮像装置またはユーザを中心に水平方向に回転させる動き、前記撮像装置の撮像軸を中心に前記撮像装置を一定速度で回転させる動き、被写体を中心として前記撮像装置を回転させる動き、の少なくともいずれかを含む、
    ことを特徴とする請求項3または4に記載の電子機器。
  6. 前記生成手段は、前記軌跡情報に基づいて、将来の複数の時点における前記撮像装置の位置および向きを前記所定の位置および前記所定の向きとして、複数の前記第2オブジェクトを生成する、
    ことを特徴とする請求項3から5のいずれか1項に記載の電子機器。
  7. 前記生成手段は、過去の前記撮像装置の位置および向きと、現在の前記撮像装置の位置および向きとの変化に基づいて、前記所定の位置および前記所定の向きを決定して、前記第2オブジェクトを生成する、
    ことを特徴とする請求項1または2に記載の電子機器。
  8. 前記生成手段は、前記撮像装置が前記過去の位置および向きを有する場合の撮影範囲に対応する仮想空間における第3オブジェクトをさらに生成し、
    前記表示制御手段は、前記第3オブジェクトをさらに表示する、
    ことを特徴とする請求項7に記載の電子機器。
  9. 現実空間における物体の配置および前記物体までの距離を認識して仮想空間の情報を取得する取得手段、をさらに有する、
    ことを特徴とする請求項1から8のいずれか1項に記載の電子機器。
  10. 前記生成手段は、前記第1オブジェクトの位置が、前記撮像装置の焦点距離の位置、前記撮像装置から所定の距離の位置、前記第1オブジェクトの大きさが所定の大きさとなる位置のいずれかとなるように、前記第1オブジェクトを生成する、
    ことを特徴とする請求項1から9のいずれか1項に記載の電子機器。
  11. 前記生成手段は、前記所定の位置と前記第2オブジェクトの位置との相対関係が、前記撮像装置の現在の位置と前記第1オブジェクトの位置との相対関係と等しくなるように、前記第2オブジェクトを生成する、
    ことを特徴とする請求項1から10のいずれか1項に記載の電子機器。
  12. 前記表示制御手段は、前記第1オブジェクトと前記第2オブジェクトとの位置の差と向きの差のいずれかが閾値以上の場合に、前記第2オブジェクトを表示する、
    ことを特徴とする請求項1から11のいずれか1項に記載の電子機器。
  13. 前記表示制御手段は、前記電子機器の移動速度が一定でない場合、または前記電子機器が移動する軌跡が規則的でない場合のいずれかの場合に、前記第2オブジェクトを表示する、
    ことを特徴とする請求項1から12のいずれか1項に記載の電子機器。
  14. 前記撮像装置は、前記電子機器に組み込まれている、
    ことを特徴とする請求項1から13のいずれか1項に記載の電子機器。
  15. 前記撮像装置は、前記電子機器とは別体である、
    ことを特徴とする請求項1から13のいずれか1項に記載の電子機器。
  16. 前記電子機器は、頭部装着型の表示装置である、
    ことを特徴とする請求項1から15のいずれか1項に記載の電子機器。
  17. 前記生成手段は、前記第1オブジェクトおよび前記第2オブジェクトの生成処理を外部装置に依頼し、前記外部装置が生成した前記第1オブジェクトおよび前記第2オブジェクトを取得する、
    ことを特徴とする請求項1から16のいずれか1項に記載の電子機器。
  18. 撮像装置での撮影を支援するための電子機器の制御方法であって、
    前記撮像装置の現在の撮影範囲に対応する仮想空間における第1オブジェクトと、前記撮像装置が所定の位置および所定の向きを有する場合の撮影範囲に対応する仮想空間における第2オブジェクトとを生成する生成ステップと、
    前記第1オブジェクトおよび前記第2オブジェクトを表示する表示制御ステップと、
    を有することを特徴とする電子機器の制御方法。
  19. コンピュータを、請求項1から17のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
  20. コンピュータを、請求項1から17のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2021103950A 2021-06-23 2021-06-23 電子機器および電子機器の制御方法 Pending JP2023003033A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021103950A JP2023003033A (ja) 2021-06-23 2021-06-23 電子機器および電子機器の制御方法
US17/838,340 US20220413295A1 (en) 2021-06-23 2022-06-13 Electronic device and method for controlling electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021103950A JP2023003033A (ja) 2021-06-23 2021-06-23 電子機器および電子機器の制御方法

Publications (2)

Publication Number Publication Date
JP2023003033A true JP2023003033A (ja) 2023-01-11
JP2023003033A5 JP2023003033A5 (ja) 2024-06-06

Family

ID=84540906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021103950A Pending JP2023003033A (ja) 2021-06-23 2021-06-23 電子機器および電子機器の制御方法

Country Status (2)

Country Link
US (1) US20220413295A1 (ja)
JP (1) JP2023003033A (ja)

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9344612B2 (en) * 2006-02-15 2016-05-17 Kenneth Ira Ritchey Non-interference field-of-view support apparatus for a panoramic facial sensor
US11275482B2 (en) * 2010-02-28 2022-03-15 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
WO2013047217A1 (ja) * 2011-09-30 2013-04-04 富士フイルム株式会社 撮像装置、撮像方法、プログラム及び記録媒体
WO2018158123A1 (en) * 2017-02-28 2018-09-07 Philips Lighting Holding B.V. A portable device for rendering a virtual object and a method thereof
EP3613208A4 (en) * 2017-06-02 2020-06-24 SZ DJI Technology Co., Ltd. SYSTEMS AND METHODS FOR TRACKING MULTIPLE OBJECTIVES AND AUTOFOCUSING BASED ON DEEP MACHINE LEARNING AND LASER RADAR
PL3422145T3 (pl) * 2017-06-28 2020-06-29 Nokia Technologies Oy Zapewnienie treści rzeczywistości wirtualnej
US10896545B1 (en) * 2017-11-29 2021-01-19 Facebook Technologies, Llc Near eye display interface for artificial reality applications
US11494988B2 (en) * 2018-05-22 2022-11-08 Agilent Technologies, Inc. Method and system for implementing augmented reality (AR)-based assistance within work environment
US20200307616A1 (en) * 2019-03-26 2020-10-01 DENSO TEN AMERICA Limited Methods and systems for driver assistance
US20210116249A1 (en) * 2019-10-16 2021-04-22 The Board Of Trustees Of The California State University Augmented reality marine navigation
US11809998B2 (en) * 2020-05-20 2023-11-07 Qualcomm Incorporated Maintaining fixed sizes for target objects in frames
US11302077B2 (en) * 2020-05-29 2022-04-12 Snap Inc. Augmented reality guidance that generates guidance markers
US11508130B2 (en) * 2020-06-13 2022-11-22 Snap Inc. Augmented reality environment enhancement
US11582409B2 (en) * 2020-06-29 2023-02-14 Snap Inc. Visual-inertial tracking using rolling shutter cameras
CN115735174A (zh) * 2020-06-29 2023-03-03 美国斯耐普公司 使用保持社交距离的增强现实体验

Also Published As

Publication number Publication date
US20220413295A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
JP6678122B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
EP3414742B1 (en) Optimized object scanning using sensor fusion
WO2018068719A1 (zh) 一种图像拼接方法及装置
EP3068124A1 (en) Image processing method, device and terminal
JP2017112602A (ja) パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム
JP2021166075A (ja) 画像の投影方法、装置、デバイス及び記憶媒体
US20100253768A1 (en) Apparatus and method for generating and displaying a stereoscopic image on a mobile computing device
WO2018056155A1 (ja) 情報処理装置、画像生成方法およびヘッドマウントディスプレイ
JP2017108387A (ja) パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム
WO2014055487A1 (en) Video conferencing enhanced with 3-d perspective control
US20180052308A1 (en) Optical lens accessory for wide-angle photography
JP2015119395A (ja) 情報処理装置、情報処理方法およびプログラム
JP2016004163A (ja) 制御装置、制御方法及びプログラム
WO2018121401A1 (zh) 一种全景视频图像的拼接方法及全景相机
JP2016504828A (ja) 単一のカメラを用いて3d画像を取り込む方法およびシステム
WO2017118662A1 (en) Spherical virtual reality camera
JP2005312605A (ja) 注視点位置表示装置
JP2008252493A (ja) ファイル生成方法および装置並びに立体画像の表示制御方法および装置
CN108282650B (zh) 一种裸眼立体显示方法、装置、系统及存储介质
JP2017199958A (ja) 撮像装置、その制御方法、および制御プログラム
JP2017046233A (ja) 表示装置及び情報処理装置及びその制御方法
JP2015059988A (ja) ステレオ撮像装置及びステレオ画像生成方法
JP2020191624A (ja) 電子機器およびその制御方法
CN208724107U (zh) 一种立体场景拍摄装置
US9325975B2 (en) Image display apparatus, parallax adjustment display method thereof, and image capturing apparatus