JP2022122479A - 撮像システム、表示装置、撮像装置、および撮像システムの制御方法 - Google Patents

撮像システム、表示装置、撮像装置、および撮像システムの制御方法 Download PDF

Info

Publication number
JP2022122479A
JP2022122479A JP2021019734A JP2021019734A JP2022122479A JP 2022122479 A JP2022122479 A JP 2022122479A JP 2021019734 A JP2021019734 A JP 2021019734A JP 2021019734 A JP2021019734 A JP 2021019734A JP 2022122479 A JP2022122479 A JP 2022122479A
Authority
JP
Japan
Prior art keywords
display
imaging
content
display device
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021019734A
Other languages
English (en)
Other versions
JP2022122479A5 (ja
Inventor
剛 内藤
Takeshi Naito
慎平 板垣
Shimpei Itagaki
徹 松本
Toru Matsumoto
龍一郎 安田
Ryuichiro Yasuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021019734A priority Critical patent/JP2022122479A/ja
Priority to US17/592,621 priority patent/US20220252884A1/en
Publication of JP2022122479A publication Critical patent/JP2022122479A/ja
Publication of JP2022122479A5 publication Critical patent/JP2022122479A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ARグラスを装着したユーザーが撮像装置の表示画面を観賞した際に、撮像装置による撮像画像に合ったARコンテンツをユーザーに違和感なく提示することができる。【解決手段】撮像装置および頭部装着型の表示装置を含む撮像システムは、前記撮像装置は、撮像手段と、前記撮像手段が撮像した撮像画像を表示する表示制御手段と、を有し、前記表示装置は、コンテンツを表示する表示制御手段を有し、前記撮像装置の前記表示制御手段は、前記表示装置を介して前記撮像装置の表示部が観賞されている場合、前記撮像画像の撮影状態の情報に基づいて、前記コンテンツを前記撮像画像に重畳表示する。【選択図】図3

Description

本発明は、撮像システム、表示装置、撮像装置、および撮像システムの制御方法に関する。
近年、現実空間と仮想空間をリアルタイムで継ぎ目なく融合する拡張現実(Augmented Reality、以下ARと呼ぶ)技術に関する研究開発が盛んになってきている。拡張現実の技術を応用した表示装置は、ARグラスと呼ばれ、実用化されつつある。ARグラスは、現実空間に重畳して、仮想空間上のオブジェクト(以下、ARコンテンツと呼ぶ)を表示することができる。ARグラスは、ARコンテンツを表示することにより、ユーザーに対して、現実空間にあたかもARコンテンツが出現したかのように知覚させることが可能になる。
また、近年は撮像装置の高性能化により、ARコンテンツを撮像装置による画像に重畳させる製品が見られるようになってきている。特許文献1は、撮像装置が、クラウド上から受信したARコンテンツを撮像装置の姿勢を基にして変換し、撮像装置の表示画像上に重畳表示する技術を開示する。
特許第6715441号公報
ARグラスは、実空間の人、動物、物等のオブジェクトおよび背景に合わせて、ARコンテンツを重畳表示する。ARグラスを装着したユーザーが、撮像装置の表示画面を観賞する場合、ユーザーが意図しない表示状態となる場合がある。
ARグラスに表示されるARコンテンツは、実空間に合わせて重畳表示させるために、表示位置等の表示状態が変換される。このように、ARコンテンツは実空間に合わせて変換されるため、ARグラスに表示されているARコンテンツの表示空間は、撮像装置の表示画面の表示空間とは乖離している。
したがって、ユーザーがARグラスを装着して撮像装置の表示画面を観賞した場合、ARグラスに表示されるARコンテンツは、撮像装置の表示画面に合わせた状態では表示されないという課題がある。また、ARグラスを介して撮像装置の表示画面を観賞する場合に、ARコンテンツを撮像装置の表示画面にも表示させると、ARコンテンツは、撮像装置とARグラスとで二重に表示されてしまうという課題も起こりうる。
本発明は上記課題に鑑みてなされたものであり、ARグラスを装着したユーザーが撮像装置の表示画面を観賞した際に、撮像装置による撮像画像に合ったARコンテンツをユーザーに違和感なく提示することを目的とする。
上記目的を達成するために、本発明の撮像システムは、
撮像装置および頭部装着型の表示装置を含む撮像システムであって、
前記撮像装置は、
撮像手段と、
前記撮像手段が撮像した撮像画像を表示する表示制御手段と、を有し、
前記表示装置は、
コンテンツを表示する表示制御手段を有し、
前記撮像装置の前記表示制御手段は、前記表示装置を介して前記撮像装置の表示部が観賞されている場合、前記撮像画像の撮影状態の情報に基づいて、前記コンテンツを前記撮像画像に重畳表示する
ことを特徴とする。
本発明によれば、ARグラスを装着したユーザーが撮像装置の表示画面を観賞した際に、撮像装置による撮像画像に合ったARコンテンツをユーザーに違和感なく提示することが可能となる。
撮像システムの概要図およびブロック図である。 撮像装置および表示装置での表示について説明する図である。 実施形態1に係るARコンテンツの表示について説明する図である。 実施形態1に係る表示処理を例示するフローチャートである。 実施形態1の変形例について説明する図である。 実施形態2に係る表示処理を例示するフローチャートである。 実施形態3に係る表示処理を例示するフローチャートである。
<実施形態1>
以下、図面を参照して本発明の好適な実施形態を説明する。図1から図5は、実施形態1に係る撮像システムについて説明する図である。
(装置構成)
図1(A)は、本発明による撮像システムの概要図である。撮像システムは、撮像装置1および頭部装着型の表示装置(HMD:Head Mounted Display)2を含む。図1(A)では、ユーザーは、表示装置2としてのARグラスを装着し、撮像装置1としてのスマートフォンを構えている。ユーザーは、表示装置2を介して撮像装置1の表示画面を観賞している。図1(B)は、撮像システムに含まれる撮像装置1および表示装置2のブロック図を例示する。
撮像装置1は、撮像画像(ライブビュー画像)の表示が可能な電子機器であり、例えば、スマートフォン、カメラ等である。表示装置2は、ARコンテンツを表示させることができる拡張現実表示装置であり、例えば、ARグラスである。本実施形態でのARグラスは、透明なディスプレイを使用した光学シースルー型のHMDが想定されるが、外界をビデオ映像化し、仮想世界の映像と電子的に合成するビデオシースルー型のHMDであってもよい。なお、以下では、撮像装置1はスマートフォン1、表示装置2はARグラス2として説明する。
図1(B)を参照して、まず、スマートフォン(撮像装置)1の構成について説明する。撮影光学系103は、複数のレンズで構成される。ブレ補正用レンズ103aは、手ぶれが検知された場合に、ブレを打ち消す方向に動いて、光軸104を補正する。
システム制御部105は、少なくとも1つのプロセッサまたは回路からなる制御部であり、スマートフォン1の全体を制御する。システム制御部105は、不揮発性メモリ(不
図示)に格納されたプログラムを実行することで、本実施形態の各処理を実現する。具体的には、システム制御部105は、撮像手段として、撮像素子106等を制御することにより撮影処理を実行する。また、システム制御部105は、表示制御手段として、表示部107への表示を制御する。また、システム制御部105は、検知手段として、ARグラス2を介してスマートフォン1の表示部107が観賞されていることを検知する。
撮像素子106は、光学像を電気信号に変換するCCDやCMOS素子等で構成される。表示部107は、スマートフォン1に設けられた表示部であり、画像および各種情報を表示する。表示部107は、例えば、液晶等のモニタである。
検出部108は、不図示のシャッターレリーズ釦などを含む操作部からの信号、およびユーザーがARグラス2を介してスマートフォン1の表示部107を観賞したことなどを検知する。ブレ検出部109は、スマートフォン1のブレの状態を検出する。ブレ補正部110は、ブレ検出部109によって手ぶれが検出されると、ブレ補正用レンズ103aを動かしてブレを補正する。
通信部114は、有線または無線による通信インタフェースであって、システム制御部105とシステム制御部211との間のデータのやり取りを可能にする。通信部114は、ARグラス2に撮像画像、撮影状態の情報等を送信する。撮影状態は、例えば、スマートフォン1の姿勢情報、焦点距離情報、被写界深度情報である。また、通信部114は、ARグラス2からARコンテンツ、ARグラス2の姿勢情報等を受信する。
スマートフォン1は、撮影光学系103および撮像素子106を含む撮像部(カメラ)を複数備えてもよい。例えば、スマートフォン1は、撮影者側を撮影するための前面カメラおよび、被写体側を撮影するための背面カメラを備える。
次に、図1(B)を参照して、ARグラス(表示装置)2の構成について説明する。システム制御部211は、少なくとも1つのプロセッサまたは回路からなる制御部であり、ARグラス2の全体を制御する。システム制御部211は、不揮発性メモリ(不図示)に記録されたプログラムを実行することで、本実施形態の各処理を実現する。具体的には、システム制御部211は、表示制御手段として、ARコンテンツの生成、変換、表示を制御する。また、システム制御部211は、検知手段として、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されていることを検知する。拡張現実生成部211aは、ARコンテンツを生成する。
表示部212は、ARグラス2のグラス部分に相当する。検出部213は、ARグラス2に設けられた不図示の操作部からの信号、およびユーザーがARグラス2を介してスマートフォン1の表示部107を観賞したことなどを検知する。また、検出部213は、ARグラス2の周辺環境を検出する。例えば、ARグラス2は、小型のカメラなどを用いて、周辺環境の状態を検出し、ARコンテンツを適切な表示状態へ変換するために用いるデータを生成する。表示状態の変換は、例えば、スマートフォン1およびARグラス2のブレの情報に基づく座標変換、ARコンテンツの向きおよび大きさの変換などを含む。
通信部214は、有線または無線による通信インタフェースであって、システム制御部105とシステム制御部211との間のデータのやり取りを可能にする。通信部214は、スマートフォン1から撮像画像、撮影状態の情報等を受信する。撮影状態は、例えば、スマートフォン1の姿勢情報、焦点距離情報、被写界深度情報である。また、通信部214は、スマートフォン1にARコンテンツ、ARグラス2の姿勢情報等を送信する。ブレ検出部215は、ARグラス2のブレ状態を検出する。
図1(A)に示すスマートフォン1およびARグラス2を含む撮像システムは、ユーザーがARグラス2の表示部212を介して、撮像装置であるスマートフォン1の表示部107を観賞した際に、撮像画像およびARコンテンツを違和感なく表示する。
ユーザーがARグラス2を単体で使用する場合、拡張現実生成部211aが生成したARコンテンツは、検出部213が検出した周辺環境に合わせて、表示部212上に表示される。
本実施形態では、ユーザーがスマートフォン1のカメラを構えて、表示部107を観賞する際、拡張現実生成部211aが生成したARコンテンツは、通信部214および通信部114を介して、スマートフォン1に送信される。スマートフォン1に送信されたARコンテンツは、スマートフォン1の撮影状態に合わせて変換され、表示部107に表示される。撮影状態は、例えば、フォーカス(被写界深度)情報、焦点距離情報、スマートフォン1およびARグラス2の姿勢情報などである。スマートフォン1およびARグラス2のブレ状態は、スマートフォン1およびARグラス2の姿勢情報に基づいて取得することができる。
ARグラス2のブレ状態(頭のブレ状態)と、カメラのブレ状態とは異なるため、ARコンテンツは、ARグラス2の姿勢情報に基づいて、ARグラス2の動きによるブレを抑制するために補正される。スマートフォン1では、ARグラス2のブレ状態が補正されたARコンテンツは、スマートフォン1のブレ状態に基づいてさらに補正され、表示部107に表示される。
なお、ARコンテンツの表示状態は、ARグラス2で変換されても、スマートフォン1で変換されてもよい。ARコンテンツがARグラス2で変換される場合、ARグラス2は、スマートフォン1から、撮像画像および撮影状態を受信する。ARグラス2は、受信した撮影状態に基づいて、ARコンテンツの座標、フォーカス状態、手ぶれ状態を撮像画像に合わせて変換し、スマートフォン1で表示するためのARコンテンツを生成する。ARグラス2は、生成したARコンテンツをスマートフォン1に送信する。スマートフォン1は、ARグラス2から受信したARコンテンツを表示部107に表示する。
また、ARコンテンツがスマートフォン1で変換される場合、ARグラス2は、拡張現実生成部211aが生成したARコンテンツおよびARグラス2の姿勢情報を、スマートフォン1に送信する。スマートフォン1は、受信したARグラス2の姿勢情報に基づいて、ARグラス2の動きによるARコンテンツのブレを補正する。スマートフォン1は、さらに、カメラの姿勢情報、焦点距離、被写界深度情報に基づいてARコンテンツを補正し、表示部107に表示する。
ARコンテンツがスマートフォン1の撮影状態に合わせて表示部107に表示されるため、スマートフォン1は、ARコンテンツが撮像画像に適切に重畳された状態で、撮影することが可能になる。また、ARグラス2は、表示部212でのARコンテンツの表示を停止する。ARコンテンツは、スマートフォン1の表示部107およびARグラス2の表示部212に二重に表示されることが回避され、撮像画像に違和感なく重畳表示される。
なお、ARコンテンツは、拡張現実生成部211aによって生成されるものとして説明するが、ARグラス2で生成されなくてもよい。ARコンテンツは、ARグラス2で生成する代わりに、スマートフォンやその他の外部装置(PC、クラウド上のサーバ装置等)で生成されてもよい。外部装置(スマートフォン、PC、クラウド上のサーバ装置等)でARコンテンツを生成することにより、ARグラス2は、高性能で大型のSoC(System-on-a-chip)を搭載しなくてもよく、小型化(ゴーグル型でなくグラス型)が可能となる
(画面表示)
図2を参照して、スマートフォン1およびARグラス2の画面表示について説明する。図2(A)は、実空間の被写体21(テーブルとソファー)が置かれた実空間の風景を示す。
図2(B)は、図2(A)で示した被写体21を、スマートフォン1のカメラを介して観賞した様子を示す。被写体像22は、スマートフォン1の表示部107に表示される被写体の撮像画像である。被写体21に対してユーザーがスマートフォン1のカメラを構えた場合、被写体21は、撮影光学系103を介して撮像素子106にて撮像される。システム制御部105は、撮像素子106から出力された電気信号を現像処理等することにより、被写体像22を表示部107に表示する。
図2(B)は、スマートフォン1のカメラを起動し、レンズを被写体21に向けることにより表示されるライブビュー画像である。表示部107に表示されたライブビュー画像は、スマートフォン1でのカメラの撮影動作により撮影される。
図2(C)は、図2(A)で示した被写体21を、ARグラス2を介して観賞した様子を示す。ARコンテンツ23は、拡張現実生成部211aによって生成されたキャラクターである。ユーザーがARグラス2を介して被写体21を観賞した際、ARコンテンツ23は、システム制御部211により、周囲の環境に合わせて変換され、表示部212に表示される。
周囲の環境に合わせた変換は、例えば、ブレ検出部215が検出したARグラス2のブレ状態などに応じて、ARコンテンツの表示位置および大きさなどの表示状態を変更することである。ARコンテンツは、ARグラス2を装着したユーザーが、ARグラス2を起動して被写体21を観賞することにより、表示部212に表示される。ユーザーが移動をしたり、被写体21を観賞する向きを変えたりした場合、ARコンテンツ23は、ARグラス2の表示部212を介して観賞される周囲の環境に合わせて表示状態が変更され、表示部212に表示される。
図3を参照して、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されている場合の表示について説明する。ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されていることは、スマートフォン1の検出部108またはARグラス2の検出部213により検知される。
スマートフォン1の検出部108は、例えば、スマートフォン1の記憶部(不図示)に記録しておいたARグラス2の画像および特徴のデータに基づいて、スマートフォン1の前面カメラの撮像画像からARグラス2を検出する。検出部108は、前面カメラの撮像画像からARグラス2が検出された場合に、表示部107が観賞されていることを検知することができる。
また、ARグラス2の検出部213は、周囲の環境を検出するカメラを備え、カメラの撮像画像からスマートフォン1を検出する。検出部213は、例えば、ARグラス2の記憶部(不図示)に記録しておいたスマートフォン1の画像および特徴のデータに基づいて、ARグラス2のカメラの撮像画像からスマートフォン1を検出する。検出部213は、ARグラス2のカメラの撮像画像からスマートフォン1を検出した場合に、表示部212を介して表示部107が観賞されていることを検知することができる。
また、ARグラス2の検出部213は、カメラを備える場合に限られず、対象物の撮像画像(距離画像)を取得できる機能を有していればよい。例えば、検出部213は、ライダー(LIDAR:Laser Imaging Detection and Ranging)センサを備え、ライダーセンサによりスマートフォン1を検出してもよい。
なお、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されていることを、ARグラス2の検出部213だけで検知し、その検知結果を通信部214および通信部114を介して、スマートフォン1に送信してもよい。同様に、スマートフォン1の検出部108だけで検知し、その検知結果を通信部114および通信部214を介して、スマートフォン1に送信してもよい。それらの場合、受信した検知結果に基づいて、システム制御部105またはシステム制御部211は、ユーザーがARグラス2の表示部212を介してスマートフォン1の表示部107を観賞しているか否かを判定する。
図3(A)は、ユーザーがARグラス2で被写体21を観賞している際に、スマートフォン1を見ていない状態を示す。図3(B)は、図3(A)の状態から、ユーザーがスマートフォン1をカメラとして構えた状態を示す。図3(B)では、ユーザーは、ARグラス2の表示部212を介して、スマートフォン1の表示部107を観賞し、ARグラス2とスマートフォン1のカメラとを通して被写体21を観賞している。
図3(C)は、図3(B)の状態で、ユーザーがスマートフォン1のカメラを構え、被写体を撮影している際の、表示部107の表示内容を示す。スマートフォン1の表示部107は、被写体像22およびARコンテンツ31のキャラクターを表示する。被写体像22は、図2(B)で示したように、被写体21をスマートフォン1のカメラで撮影した撮像画像であり、スマートフォン1の表示部107に表示されている。ARコンテンツ31は、スマートフォン1の表示部107に表示されたARコンテンツのキャラクターである。
ARコンテンツ31は、図2(C)で示した、拡張現実生成部211aが生成したARコンテンツ23の表示状態を変換して、表示部107に表示したコンテンツである。システム制御部105は、通信部114および通信部214を介してARコンテンツ23の情報を、ARグラス2から受信する。システム制御部105は、スマートフォン1のブレ検出部109などにより得られる撮影状態(カメラと被写体の相対位置、向きなどを含む)に基づいて、ARコンテンツ23を変換し、表示部107に表示する。
このように、ARグラス2から見た被写体21に重畳されたARコンテンツ23は、スマートフォン1のカメラから見た被写体21に重畳されたARコンテンツ31(キャラクター)に変換される。
図3(D)は、図3(C)のスマートフォン1の表示部107に、ARグラス2の表示部212を重ねた図である。図3(C)と同様に、スマートフォン1の表示部107は、スマートフォン1のカメラの撮影状態に合わせて変換されたARコンテンツ31を表示する。
ARコンテンツ32は、ARグラス2単体で周囲の環境を観賞した場合の表示状態で表示されている。また、ARコンテンツ32は、ARグラス2の表示部212で、実際には非表示に設定され、図3(D)では破線で示されている。システム制御部211は、ARコンテンツ32を非表示とすることにより、スマートフォン1の表示部107とARグラス2の表示部212とで二重にキャラクター(ARコンテンツ)が表示されないように制御する。
なお、図3(D)では、ARグラス2の表示部212でキャラクターを非表示としたが、これに限られない。例えば、表示部212に表示されるARコンテンツがスマートフォン1よりも大きい場合、システム制御部211は、スマートフォン1の形状を認識し、表示部212に表示されるARコンテンツのうち、スマートフォン1と重なる領域を非表示としてもよい。
上述のように、スマートフォン1は、ARグラス2から受信したARコンテンツのデータを、撮像画像の被写体に合わせて変換して表示部107に表示し、ARグラス2は、表示部212でのARコンテンツの表示を停止する。これにより、スマートフォン1は、撮像画像に合わせてARコンテンツを表示することができる。また、表示部107と表示部212に二重にARコンテンツが表示されることがないため、ユーザーは、撮像画像に重畳されたARコンテンツを、違和感なく観賞することができる。
(実施形態1の表示処理)
図4を参照して、ARコンテンツの表示処理について説明する。図4は、実施形態1に係るARコンテンツの表示処理を例示するフローチャートである。図4に示す表示処理は、ARグラス2の電源が入ることにより開始される。
ステップS401では、システム制御部211は、ARグラス2の表示部212に、ARコンテンツ(以下、コンテンツとも称する)を表示するか否かを判定する。ARグラス2の表示部212にコンテンツを表示する場合、処理はステップS402へ進む。ARグラス2の表示部212にコンテンツを表示しない場合、処理はステップS406へ進む。
S401の判定方法として、システム制御部211は、例えば、ユーザーからの指示(操作)に応じて、コンテンツを表示するか否かを判定することができる。具体的には、ユーザーの操作などによってARコンテンツを表示するモードに設定されている場合、システム制御部211は、コンテンツを表示すると判定することができる。また、システム制御部211は、周囲の環境に配置されているARコンテンツの情報を検出した場合に、コンテンツを表示すると判定してもよい。
ステップS402では、システム制御部211は、ARグラス2の表示部212にコンテンツを表示する。ステップS403では、システム制御部211は、スマートフォン1にARコンテンツの情報を送信する。スマートフォン1のシステム制御部105は、撮影状態に合わせて、受信したARコンテンツを変換し、表示部107に表示する。システム制御部105は、被写体に対するARコンテンツの大きさ、位置および向きが、ARグラス2で観賞した場合と同じになるように、表示部107に表示させるARコンテンツを変換する。
ステップS404では、システム制御部211は、ユーザーがARグラス2の表示部212を介してスマートフォン1の表示部107を観賞しているか否かを判定する。ユーザーがARグラス2の表示部212を介して観賞している場合、処理はステップS405へ進む。ユーザーがARグラス2の表示部212を介して観賞していない場合、処理はステップS406へ進む。
なお、ステップS404の判定は、スマートフォン1のシステム制御部105によって判定されてもよい。また、ステップS404で、ユーザーがARグラス2の表示部212を介して表示部107を観賞しているか否かは、スマートフォン1またはARグラス2の操作部に対するユーザーの操作に基づいて判定してもよい。ユーザーの操作は、例えば、ARグラス2の表示部212を介して表示部107を観賞するためのモードの設定または
解除の操作である。
また、スマートフォン1の検出部108またはARグラス2の検出部213は、ARグラス2の表示部212を介して表示部107が観賞されているか否かを、自動的に検知してもよい。この場合、システム制御部211は、検知結果に応じて、ユーザーがARグラス2の表示部212を介して表示部107を観賞しているか否かを判定することができる。
ステップS405では、システム制御部211は、ARグラス2の表示部212でのARコンテンツの表示を停止する。システム制御部211は、表示部212に表示されたARコンテンツのうち、スマートフォン1と重なる一部の領域を非表示にするようにしてもよい。
なお、スマートフォン1のシステム制御部105がステップS404の判定をした場合、システム制御部211は、スマートフォン1から、ARグラス2の表示部212を介して観賞されていることの判定結果を受信するようにしてもよい。システム制御部211は、当該判定結果を受信して、表示部212でのARコンテンツの表示を停止することができる。
ステップS406では、システム制御部105は、スマートフォン1に対して、ユーザーから撮影指示の操作があったか否かを判定する。撮影指示の操作があった場合、処理はステップS407へ進む。撮影指示の操作がない場合、処理はステップS401へ戻る。
ステップS407では、システム制御部105は、スマートフォン1のカメラ機能を用いて撮影動作を行う。スマートフォン1の表示部107にARコンテンツが表示されている場合、スマートフォン1は、撮影動作によりARコンテンツが重畳された撮像画像を撮影することができる。
ステップS408では、システム制御部211は、電源釦などの操作部によって、ユーザーがARグラス2の電源が切ったか否かを判定する。ユーザーがARグラス2の電源を切った場合、図4に示す処理は終了する。ユーザーがARグラス2の電源を切っていない場合、処理はステップS401へ戻る。
図4に例示するARコンテンツの表示処理では、ARコンテンツのデータは、ARグラス2からスマートフォン1に送信される。スマートフォン1は、受信したARコンテンツを、スマートフォン1の撮影状態に基づいて変換し、表示部107に表示する。また、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されている間、ARグラス2は、表示部212でのARコンテンツの表示を停止する。
これにより、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されている場合、スマートフォン1は、表示部107に表示された撮像画像(ライブビュー画像)に合わせて、違和感なくARコンテンツを表示することができる。
(変形例)
実施形態1は、撮像装置1がスマートフォンであること想定して説明したが、これに限られない。変形例では、撮像装置1は、カメラであると想定される。撮像装置1がカメラである場合、撮像装置1に設けられた表示部107は、カメラの背面液晶画面、またはカメラのファインダ内に設けられたEVF(電子ビューファインダー)などである。
図5は、実施形態1の変形例について説明する図である。実施形態1の変形例では、撮
像装置1はカメラ51である。図5(B)および図5(C)は、ARグラス2の表示部212を介してカメラ51の表示部107が観賞されている場合の様子を示す。
図5(A)は、図3(A)と同様に、ARグラス2を用いてARコンテンツを観賞している様子を示す。図5(B)は、図5(A)の状態からカメラ51を構えた様子を示す。図5(B)では、ユーザーは、ARグラス2を装着した状態で、カメラ51のEVFをのぞいている。図3(B)の場合と同様に、ユーザーは、ARグラス2の表示部212を介して、カメラ51のEVFをのぞくこととなる。
したがって、ARコンテンツは、撮像装置1の表示部107であるEVFに表示される画像合わせて、表示状態が変換される。図3の場合と同様に、カメラ51は、ARグラス2との通信により、ARコンテンツのデータを受信し、ARコンテンツを撮影状態に合わせて変換してEVFに表示する。また、ARグラス2は、表示部212でARコンテンツの表示を停止する。これにより、撮像装置1は、表示部107上でARコンテンツを適切に表示することができる。
図5(C)は、撮像装置1の表示部107として、カメラ51の背面液晶を用いる場合の様子を示す。図3(B)および図5(B)の場合と同様に、カメラ51は、ARグラス2と通信することにより、撮像画像に合わせて変換したARコンテンツを、表示部107に表示することができる。
実施形態1では、ARグラス2の表示部212を介して撮像装置1の表示部107が観賞されている場合、スマートフォン1は、表示画面(表示部107)に表示される撮像画像に合ったARコンテンツを、ユーザーに違和感なく提示することができる。
<実施形態2>
実施形態1では、撮像画像およびARコンテンツは、スマートフォン1の表示部107に表示され、ARグラス2の表示部212には表示されない。これに対し、実施形態2では、撮像画像およびARコンテンツは、ARグラス2の表示部212に表示され、スマートフォン1の表示部107には表示されない。
即ち、実施形態2は、スマートフォン1の表示部107およびARグラス2の表示部212に表示する表示内容が、実施形態1と異なる。なお、スマートフォン1およびARグラス2の装置構成は、実施形態1と同様である。以下、実施形態1と差異のある処理等について詳細に説明する。
実施形態2では、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されている場合、スマートフォン1は表示部107の表示を停止する。また、ARグラス2は、表示部107での表示内容(撮像画像)をARコンテンツとともに表示部212上に表示する。実施形態2は、図5(B)に示すように、撮像装置1(カメラ51)の表示部107としてEVFを用いた場合に、特に有用である。
(実施形態2の表示処理)
図6を参照して、ARコンテンツの表示処理について説明する。図6は、実施形態2に係るARコンテンツの表示処理を例示するフローチャートである。図6に示す表示処理は、ARグラス2の電源が入ることにより開始される。図4に示す処理と同じ処理については、同じ符号を付して詳細な説明は省略する。
ステップS402で、ARグラスにコンテンツが表示されると、処理はステップS603へ進む。ステップS603では、ステップS404と同様に、システム制御部211は
、ユーザーがARグラス2の表示部212を介してスマートフォン1の表示部107を観賞しているか否かを判定する。ユーザーがARグラス2の表示部212を介して観賞している場合、処理はステップS604へ進む。ユーザーがARグラス2の表示部212を介して観賞していない場合、処理はステップS406へ進む。
ステップS604では、システム制御部211は、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されていることを、スマートフォン1に通知する。システム制御部105は、ARグラス2からの通知を受信すると、表示部107への撮像画像の表示を停止する。なお、スマートフォン1のシステム制御部105がステップS403の判定をした場合、システム制御部105は、ARグラス2と通信することなく、表示部107の表示を停止すればよい。
ステップS605では、システム制御部211は、システム制御部105と通信し、スマートフォン1のカメラで取得された撮像画像および撮影状態等のデータを取得する。システム制御部211は、スマートフォン1から取得したデータに基づいて、ARコンテンツの大きさ、位置および向きを撮像画像に合わせて変換する。
ステップS606では、システム制御部211は、変換したARコンテンツを撮像画像に重畳させた重畳画像を表示部212に表示する。システム制御部211は、撮像画像にARコンテンツを重畳させた十畳画像を、表示部212上で、検出部213によって検出されたスマートフォン1の表示部107に対応する位置に表示する。ステップS406からステップS408までの処理は、図4と同様である。
図6に例示するARコンテンツの表示処理では、実施形態1と異なり、スマートフォン1の撮像画像および撮影状態のデータは、スマートフォン1からARグラス2に送信される。ARグラス2は、受信したデータに基づいてARコンテンツを撮像画像に合わせて変換する。ARグラス2は、変換したARコンテンツを撮像画像に重畳させて、表示部212に表示する。また、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されている間、スマートフォン1は、表示部107での撮像画像の表示を停止する。
これにより、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されている場合、ARグラス2は、スマートフォン1の撮像画像に合わせたARコンテンツを、違和感なくユーザーに提示することができる。
実施形態2では、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されている場合、ARグラス2は、スマートフォン1から受信した撮像画像に合ったARコンテンツをユーザーに提示することができる。
<実施形態3>
実施形態1では、撮像画像およびARコンテンツは、スマートフォン1の表示部107に表示される。また、実施形態2では、撮像画像およびARコンテンツは、ARグラス2の表示部212に表示される。これに対し、実施形態3では、撮像画像はスマートフォン1の表示部107に表示され、ARコンテンツは撮像画像に合わせて変換されてARグラス2の表示部212に表示される。
即ち、実施形態3は、スマートフォン1の表示部107およびARグラス2の表示部212に表示する表示内容が、実施形態1および実施形態2と異なる。なお、スマートフォン1およびARグラス2の装置構成は、実施形態1と同様である。以下、実施形態1と差異のある処理等について詳細に説明する。
実施形態3では、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されている場合、スマートフォン1は、表示部107に撮像画像を表示した状態のまま変更しない。また、ARグラス2は、表示部107に表示された撮像画像に合わせてARコンテンツを変換し、変換したARコンテンツを表示部212に表示する。
(実施形態3の表示処理)
図7を参照して、ARコンテンツの表示処理について説明する。図7は、実施形態3に係るARコンテンツの表示処理を例示するフローチャートである。図7に示す表示処理は、ARグラス2の電源が入ることにより開始される。図4に示す処理と同じ処理については、同じ符号を付して詳細な説明は省略する。
ステップS402で、ARグラスにコンテンツが表示されると、処理はステップS703へ進む。ステップS703では、ステップS404と同様に、システム制御部211は、ユーザーがARグラス2の表示部212を介してスマートフォン1の表示部107を観賞しているか否かを判定する。ユーザーがARグラス2の表示部212を介して観賞している場合、処理はステップS704へ進む。ユーザーがARグラス2の表示部212を介して観賞していない場合、処理はステップS406へ進む。
ステップS704では、ステップS605と同様に、システム制御部211は、システム制御部105と通信を行い、スマートフォン1のカメラで取得された撮像画像および撮影状態等のデータを取得する。システム制御部211は、スマートフォン1から取得したデータに基づいてARコンテンツを撮像画像に合わせて変換する。
ステップS705では、システム制御部211は、表示部212上でのスマートフォン1の表示部107の位置を検出する。システム制御部211は、表示部212上のスマートフォン1の表示部107の位置に合わせて、変換したARコンテンツを表示部212に表示する。即ち、スマートフォン1の表示部107に表示されている撮像画像に重畳するように、表示部212に変換したARコンテンツを表示する。ステップS406からステップS408までの処理は、図4と同様である。
図7に例示するARコンテンツの表示処理では、実施形態1および実施形態2と異なり、スマートフォン1の撮像画像は、スマートフォン1の表示部107に表示され、ARコンテンツは、ARグラス2の表示部212に表示される。ARコンテンツは、スマートフォン1の表示部107に表示された撮像画像に合わせて変換されて、ARグラス2の表示部212に表示される。これにより、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されている場合、スマートフォン1およびARグラス2は、スマートフォン1の撮像画像に合わせたARコンテンツをユーザーに提示することが可能となる。
実施形態3では、ARグラス2の表示部212を介してスマートフォン1の表示部107が観賞されている場合、ARグラス2は、スマートフォン1に表示されている撮像画像に合ったARコンテンツを、ユーザーに違和感なく提示することができる。
<その他の実施形態>
なお、上述の各実施形態による表示方法は、ユーザー操作により切り替えられてもよい。例えば、撮像画像およびARコンテンツがARグラス2に表示されている場合(実施形態2)であっても、ユーザーから操作を受け付けた場合には、撮像画像およびARコンテンツは、スマートフォン1への表示に切り替えられる(実施形態1)。ここでの、ユーザーからの操作は、例えば、撮影操作またはズームの変更など撮影準備の操作である。
また、各実施形態による表示方法は、スマートフォン1とARグラス2との間の距離または位置関係に基づいて変更されてもよい。例えば、撮像装置1がカメラであるとすると、図5(B)に示すようにユーザーがEVF越しに観賞する際、ARグラス2は表示を停止し、ARコンテンツはスマートフォン1に表示される(実施形態1)。一方、図5(C)に示すように、ユーザーが背面液晶越しに観賞するように構え直した場合、スマートフォン1は表示を停止し、撮像画像およびARコンテンツはARグラス2に表示される(実施形態2)。
このように、ユーザー操作、またはユーザーがARグラス2の表示部212を介してスマートフォン1の表示部107を観賞している状況に基づいて、撮像画像およびARコンテンツの表示方法は、各実施形態間で切り替えることが可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1:撮像装置(スマートフォン)、103:撮影光学系、105:システム制御部、
106:撮像素子、107:表示部
2:表示装置(ARグラス)、211:システム制御部、211a:拡張現実生成部、
212:表示部
上記目的を達成するために、本発明の撮像システムは、
撮像装置および頭部装着型の表示装置を含む撮像システムであって、
前記撮像装置は、
撮像手段と、
前記撮像手段が撮像した撮像画像と仮想空間上のオブジェクトとを表示する表示制御
手段と、を有し、
前記表示装置は、
前記オブジェクトを表示する表示制御手段を有し、
前記表示装置を介して前記撮像装置の表示部が観察されている場合、
前記撮像装置の前記表示制御手段および前記表示装置の前記表示制御手段の一方、前記撮像装置の撮影状態の情報に基づいて変換された前記オブジェクトを表し、
前記撮像装置の前記表示制御手段および前記表示装置の前記表示制御手段の他方は、前記オブジェクトを表示しない
ことを特徴とする。
(装置構成)
図1(A)は、本発明による撮像システムの概要図である。撮像システムは、撮像装置1および頭部装着型の表示装置(HMD:Head Mounted Display)2を含む。図1(A)では、ユーザーは、表示装置2としてのARグラスを装着し、撮像装置1としてのスマートフォンを構えている。ユーザーは、表示装置2を介して撮像装置1の表示画面を観賞(観察)している。図1(B)は、撮像システムに含まれる撮像装置1および表示装置2のブロック図を例示する。

Claims (18)

  1. 撮像装置および頭部装着型の表示装置を含む撮像システムであって、
    前記撮像装置は、
    撮像手段と、
    前記撮像手段が撮像した撮像画像を表示する表示制御手段と、を有し、
    前記表示装置は、
    コンテンツを表示する表示制御手段を有し、
    前記撮像装置の前記表示制御手段は、前記表示装置を介して前記撮像装置の表示部が観賞されている場合、前記撮像画像の撮影状態の情報に基づいて、前記コンテンツを前記撮像画像に重畳表示する
    ことを特徴とする撮像システム。
  2. 前記表示装置の前記表示制御手段は、前記表示装置を介して前記撮像装置の表示部が観賞されている場合、前記コンテンツの表示状態を変更する
    ことを特徴とする請求項1に記載の撮像システム。
  3. 前記表示装置は、前記コンテンツを生成する生成手段を有し、
    前記撮像装置の前記表示制御手段は、前記撮影状態の情報に基づいて変換された前記コンテンツを前記撮像画像に重畳表示する
    ことを特徴とする請求項1に記載の撮像システム。
  4. 前記撮影状態の情報は、前記撮像装置の姿勢情報、前記撮像装置の焦点距離情報、および前記撮像装置の被写界深度の情報のうち少なくともいずれかを含む
    ことを特徴とする請求項1から3のいずれか1項に記載の撮像システム。
  5. 前記撮像装置または前記表示装置は、前記表示装置を介して前記撮像装置の表示部が観賞されていることを検知する検知手段をさらに有する
    ことを特徴とする請求項1から4のいずれか1項に記載の撮像システム。
  6. 前記表示装置を介して前記撮像装置の表示部が観賞されている場合、
    前記表示装置の表示制御手段は、前記表示装置の表示部への表示を停止し、
    前記撮像装置の表示制御手段は、前記撮像画像および前記撮影状態の情報に基づいて変換された前記コンテンツを前記撮像装置の表示部に表示する
    ことを特徴とする請求項1から5のいずれか1項に記載の撮像システム。
  7. 前記撮像装置は、前記コンテンツおよび前記表示装置の姿勢情報を前記表示装置から受信する通信手段をさらに有し、
    前記表示装置は、前記コンテンツおよび前記表示装置の姿勢情報を前記撮像装置に送信する通信手段をさらに有し、
    前記撮像装置の表示制御手段は、前記撮影状態および前記表示装置から受信した前記表示装置の姿勢情報に基づいて、前記コンテンツを変換する
    ことを特徴とする請求項6に記載の撮像システム。
  8. 前記表示装置を介して前記撮像装置の表示部が観賞されている場合、
    前記撮像装置の表示制御手段は、前記撮像装置の表示部への表示を停止し、
    前記表示装置の表示制御手段は、前記撮像画像および前記撮影状態の情報に基づいて変換された前記コンテンツを前記表示装置の表示部に表示する
    ことを特徴とする請求項1から5のいずれか1項に記載の撮像システム。
  9. 前記撮像装置は、前記撮像画像および前記撮影状態の情報を前記表示装置に送信する通信手段をさらに有し、
    前記表示装置は、前記撮像画像および前記撮影状態の情報を前記撮像装置から受信する通信手段をさらに有し、
    前記表示装置の表示制御手段は、前記表示装置の姿勢情報および前記撮像装置から受信した前記撮影状態の情報に基づいて、前記コンテンツを変換する
    ことを特徴とする請求項8に記載の撮像システム。
  10. 前記表示装置を介して前記撮像装置の表示部が観賞されている場合、
    前記撮像装置の表示制御手段は、前記撮像画像を前記撮像装置の表示部に表示し、
    前記表示装置の表示制御手段は、前記撮影状態の情報に基づいて変換された前記コンテンツを、前記表示装置の表示部に表示する
    ことを特徴とする請求項1から5のいずれか1項に記載の撮像システム。
  11. 前記撮像装置は、前記撮像画像および前記撮影状態の情報を前記表示装置に送信する通信手段をさらに有し、
    前記表示装置は、前記撮像画像および前記撮影状態の情報を前記撮像装置から受信する通信手段をさらに有し、
    前記表示装置の表示制御手段は、前記表示装置の姿勢情報および前記撮像装置から受信した前記撮影状態の情報に基づいて、前記コンテンツを変換する
    ことを特徴とする請求項10に記載の撮像システム。
  12. 前記コンテンツは、
    前記表示装置の姿勢情報に基づいて、前記表示装置の動きによるぶれが補正され、
    前記撮像装置の姿勢情報、焦点距離情報および被写界深度の情報のうち少なくともいずれかに基づいてさらに補正される
    ことを特徴とする請求項1から11のいずれか1項に記載の撮像システム。
  13. 前記撮像装置の表示制御手段および前記表示装置の表示制御手段は、ユーザー操作または前記表示装置を介して前記撮像装置の表示部が観賞されている状況に基づいて、前記撮像画像および前記コンテンツの表示および非表示を切り替える
    ことを特徴とする請求項1から12のいずれか1項に記載の撮像システム。
  14. 撮像装置と通信する頭部装着型の表示装置であって、
    コンテンツを表示する表示制御手段を有し、
    前記表示制御手段は、前記表示装置を介して前記撮像装置の表示部が観賞されている場合、前記コンテンツの表示状態を変更する
    ことを特徴とする表示装置。
  15. 頭部装着型の表示装置と通信する撮像装置であって、
    撮像手段と、
    前記撮像手段が撮像した撮像画像を表示する表示制御手段と、を有し、
    前記表示制御手段は、前記表示装置を介して前記撮像装置の表示部が観賞されている場合、前記撮像画像の撮影状態の情報に基づいて、コンテンツを前記撮像画像に重畳表示する
    ことを特徴とする撮像装置。
  16. 撮像装置および頭部装着型の表示装置を含む撮像システムの制御方法であって、
    前記撮像装置が撮像した撮像画像を表示する表示するステップと、
    前記表示装置がコンテンツを表示するステップと、
    前記撮像装置が、前記表示装置を介して前記撮像装置の表示部が観賞されている場合、前記撮像画像の撮影状態の情報に基づいて、前記コンテンツを前記撮像画像に重畳表示するステップと、
    を有することを特徴とする撮像システムの制御方法。
  17. コンピュータを、請求項1から13のいずれか1項に記載の撮像システムの各手段として機能させるためのプログラム。
  18. コンピュータを、請求項1から13のいずれか1項に記載の撮像システムの各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2021019734A 2021-02-10 2021-02-10 撮像システム、表示装置、撮像装置、および撮像システムの制御方法 Pending JP2022122479A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021019734A JP2022122479A (ja) 2021-02-10 2021-02-10 撮像システム、表示装置、撮像装置、および撮像システムの制御方法
US17/592,621 US20220252884A1 (en) 2021-02-10 2022-02-04 Imaging system, display device, imaging device, and control method for imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021019734A JP2022122479A (ja) 2021-02-10 2021-02-10 撮像システム、表示装置、撮像装置、および撮像システムの制御方法

Publications (2)

Publication Number Publication Date
JP2022122479A true JP2022122479A (ja) 2022-08-23
JP2022122479A5 JP2022122479A5 (ja) 2024-02-09

Family

ID=82704559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021019734A Pending JP2022122479A (ja) 2021-02-10 2021-02-10 撮像システム、表示装置、撮像装置、および撮像システムの制御方法

Country Status (2)

Country Link
US (1) US20220252884A1 (ja)
JP (1) JP2022122479A (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120120103A1 (en) * 2010-02-28 2012-05-17 Osterhout Group, Inc. Alignment control in an augmented reality headpiece
US8482527B1 (en) * 2012-09-14 2013-07-09 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US9158115B1 (en) * 2013-09-16 2015-10-13 Amazon Technologies, Inc. Touch control for immersion in a tablet goggles accessory
US10147243B2 (en) * 2016-12-05 2018-12-04 Google Llc Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment
US20210011556A1 (en) * 2019-07-09 2021-01-14 Facebook Technologies, Llc Virtual user interface using a peripheral device in artificial reality environments
EP4097566A1 (en) * 2020-08-10 2022-12-07 Google LLC Slippage resistant gaze tracking user interfaces
US11567569B2 (en) * 2021-04-08 2023-01-31 Google Llc Object selection based on eye tracking in wearable device

Also Published As

Publication number Publication date
US20220252884A1 (en) 2022-08-11

Similar Documents

Publication Publication Date Title
KR102502404B1 (ko) 정보 처리 장치 및 방법, 그리고 프로그램
KR102235231B1 (ko) 촬상 제어장치 및 그 제어 방법
JP2019030007A (ja) 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法
KR101690646B1 (ko) 시 스루 디스플레이를 위한 카메라 구동 장치 및 그 방법
JP5695809B1 (ja) 表示装置、表示方法およびプログラム
WO2015194084A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP2017060078A (ja) 画像録画システム、ユーザ装着装置、撮像装置、画像処理装置、画像録画方法、及びプログラム
JP4580678B2 (ja) 注視点位置表示装置
JP2013207344A (ja) 検出装置、撮像装置、及びプログラム
JP2018152787A (ja) 撮像装置、外部装置、撮像システム、撮像方法、操作方法およびプログラム
JP2022122479A (ja) 撮像システム、表示装置、撮像装置、および撮像システムの制御方法
JP2019068261A (ja) 配信システムおよび配信方法、配信装置および配信プログラム、ならびに、受信装置および受信プログラム
KR20230019016A (ko) 액션 카메라로서 사용되는 촬상장치
JP2000132329A (ja) 面認識装置、面認識方法及び仮想画像立体合成装置
CN107426522B (zh) 基于虚拟现实设备的视频方法和系统
JP2020167657A (ja) 画像処理装置、ヘッドマウントディスプレイ、および画像表示方法
WO2024125379A1 (zh) 一种图像处理方法、头戴式显示设备及介质
JP2020095071A (ja) 交換レンズおよび撮像装置
JP2020095070A (ja) 撮像装置
US20230206546A1 (en) Terminal device, method, and computer program
JP2023003033A (ja) 電子機器および電子機器の制御方法
JP2016019092A (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム
JP2022140420A (ja) 撮像装置、表示装置、映像転送システム、制御方法、並びにプログラム
JP2023154539A (ja) 撮像装置、撮像装置の制御方法、表示装置及び撮像システム
JP2022114600A (ja) 撮像システム、表示装置、端末装置および撮像システムの制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240201