JP2022148382A - 表示装置、表示制御システム、情報処理装置および表示装置の制御方法 - Google Patents
表示装置、表示制御システム、情報処理装置および表示装置の制御方法 Download PDFInfo
- Publication number
- JP2022148382A JP2022148382A JP2021050040A JP2021050040A JP2022148382A JP 2022148382 A JP2022148382 A JP 2022148382A JP 2021050040 A JP2021050040 A JP 2021050040A JP 2021050040 A JP2021050040 A JP 2021050040A JP 2022148382 A JP2022148382 A JP 2022148382A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- interest
- image
- display
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 6
- 238000000034 method Methods 0.000 title description 23
- 238000001514 detection method Methods 0.000 claims abstract description 48
- 238000003384 imaging method Methods 0.000 claims description 30
- 230000005540 biological transmission Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 15
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 101100347655 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NAB3 gene Proteins 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 239000012141 concentrate Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000386 athletic effect Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000001028 reflection method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/2092—Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/045—Zooming at least part of an image, i.e. enlarging it or shrinking it
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/04—Display device controller operating with a plurality of display units
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
- G09G2370/022—Centralised management of display operation, e.g. in a server instead of locally
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】様々な視点からの映像をリアルタイムで共有するためのユーザーの負荷を軽減する。【解決手段】表示装置は、撮影手段と、前記撮影手段が撮影した映像から注目被写体を検出する検出手段と、外部機器から前記注目被写体に関連する映像を取得する取得手段と、前記検出手段の検出結果に基づいて、前記外部機器から取得した映像を表示する表示制御手段とを有することを特徴とする。【選択図】図6
Description
本発明は、表示装置、表示制御システム、情報処理装置および表示装置の制御方法に関する。
近年、AR(Augumented Reality)およびMR(Mixed Reality)などの技術が、ユーザーの頭部に装着可能な頭部装着型表示装置、カメラ搭載のスマートフォンおよびタブレット端末などで利用されている。特に、頭部装着型表示装置(HMD:Head Mounted Display)は、ユーザーの眼前にディスプレイを配置することで、利用シーンに応じて有用な情報を提示し、より深い没入感をユーザーに与えることができる。
HMDを装着しているユーザーは、複数の撮像装置で撮影した映像を共有することが可能である。例えば、特許文献1は、特定の撮像装置を指定するための位置情報およびカメラスペック情報などを指定することで、外部の撮像装置の画像を自分の表示装置に表示する技術を開示する。
しかしながら、イベント等の観賞中に映像を共有する撮影装置を指定する操作は煩わしく、ユーザーは、イベント観賞に集中できない場合がある。
本発明は、様々な視点からの映像をリアルタイムで共有するためのユーザーの負荷を軽減する表示装置を提供することを目的とする。
上記目的を達成するために、本発明の表示装置は、
撮影手段と、
前記撮影手段が撮影した映像から注目被写体を検出する検出手段と、
外部機器から前記注目被写体に関連する映像を取得する取得手段と、
前記検出手段の検出結果に基づいて、前記外部機器から取得した映像を表示する表示制御手段と
を有することを特徴とする表示装置。
撮影手段と、
前記撮影手段が撮影した映像から注目被写体を検出する検出手段と、
外部機器から前記注目被写体に関連する映像を取得する取得手段と、
前記検出手段の検出結果に基づいて、前記外部機器から取得した映像を表示する表示制御手段と
を有することを特徴とする表示装置。
本発明によれば、様々な視点からの映像をリアルタイムで共有するためのユーザーの負荷を軽減することができる。
<実施形態1>
本実施形態に係るHMD(頭部装着型表示装置)は、例えば、透明なディスプレイを使用した光学シースルー型のHMDである。光学シースルー型HMDでは、ユーザーは、映像表示と外界からの入射光との両方を視認することができる。即ち、ユーザーは、コンサートまたは運動会などのイベントをシースルーで観賞しながら、HMDがディスプレイに表示する様々な情報を視認することができる。
本実施形態に係るHMD(頭部装着型表示装置)は、例えば、透明なディスプレイを使用した光学シースルー型のHMDである。光学シースルー型HMDでは、ユーザーは、映像表示と外界からの入射光との両方を視認することができる。即ち、ユーザーは、コンサートまたは運動会などのイベントをシースルーで観賞しながら、HMDがディスプレイに表示する様々な情報を視認することができる。
本実施形態でのHMDは、光学シースルー型のHMDが想定されるが、不透明なディスプレイを使用したビデオシースルー型のHMDであってもよい。ビデオシースルー型のHMDは、外界をビデオ映像化し、仮想世界の映像と電子的に合成して表示する。
HMDは、例えば、ユーザーが注目している被写体(以下、注目被写体とも称する)に関する情報をディスプレイに表示することができる。注目被写体に関する情報は、例えば、他のHMDに付属する撮像装置で撮影された映像である。HMDが撮影した映像を通信機能によって相互に送受信することで、HMDを装着したユーザーは、視界の一部をリアルタイムに共有することができる。
なお、HMDは、共有サーバーを介して映像を送受信してもよい。共有サーバーは、複数のHMDと通信可能なコンピュータであり、情報処理装置に相当する。本発明に係る表示制御システムは、共有サーバーおよび複数のHMDを含み、共有サーバーを介して、HMD間の映像の共有を実現する。
HMDは、ユーザーが設定した注目被写体が撮影された映像を他のHMDから取得する。また、HMDは、シースルーでの被写体観賞の妨げにならない表示位置および表示サイズで、取得した映像をディスプレイに表示する。
以下、図面を参照して、本発明の好適な実施形態について説明する。図1を参照して、本実施形態に係る表示装置としてのHMDについて説明する。図1は、HMD1の外観図を例示する。以下、HMD1は、光学シースルー型HMDであるものとして説明するが、不透明なディスプレイを使用したビデオシースルー型HMDであってもよい。ビデオシースルー型HMDでは、前方からの入射光は、映像化されて表示される。
HMD1は、フレームと2つの表示部11aおよび表示部11bとを有する。フレームは、リム15と、リム15の両サイドに接合されているテンプル16aおよびテンプル16bとを有する。表示部11aおよび表示部11bは、リム15の一方の面に接合されている。
画像投影装置12aおよび導光装置13aは、表示部11aの表示素子(不図示)からの光を、HMD1を装着した装着者の右眼に導く。同様に、画像投影装置12bおよび導
光装置13bは、表示部11bの表示素子(不図示)からの光を、HMD1を装着した装着者の左眼に導く。
光装置13bは、表示部11bの表示素子(不図示)からの光を、HMD1を装着した装着者の左眼に導く。
装着者は、表示部11aおよび表示部11bに表示される映像と、HMD1の前方からの入射光とを同時に知覚することができる。また、HMD1は撮像装置14aおよび撮像装置14bを有する。撮像装置14aおよび撮像装置14bは、HMD1の前方を含む周囲を撮影する。
(ハードウェア構成)
図2を参照して、表示制御システムに含まれるHMD1および共有サーバー2のハードウェア構成について説明する。共有サーバー2(情報処理装置)は、複数のHMD1間で映像を共有する場合に、映像の送受信を制御するための外部機器の一例である。HMD1は、外部機器としての他のHMDと、直接映像を送受信することにより、映像を共有してもよい。
図2を参照して、表示制御システムに含まれるHMD1および共有サーバー2のハードウェア構成について説明する。共有サーバー2(情報処理装置)は、複数のHMD1間で映像を共有する場合に、映像の送受信を制御するための外部機器の一例である。HMD1は、外部機器としての他のHMDと、直接映像を送受信することにより、映像を共有してもよい。
HMD1は、演算装置101、撮影装置102、一次記憶装置103、検出装置104、通信装置105、表示部106、操作部107を有する。HMD1が有する構成は、バス108で相互に接続される。
演算装置101は、例えばCPU(Central Processing Unit)であり、HMD1の全体の制御を司る。撮影装置102は、図1に示す撮像装置14a、14bに対応し、HMD1を装着したユーザーの視界領域を撮影する。撮影装置102は、レンズ、CCDまたはCMOSセンサといった撮像素子等を有し、被写体の撮像した映像データを生成する。
一次記憶装置103は、例えばDRAM(Dynamic Random Access Memory)である。一次記憶装置103は、撮影装置102で撮影された映像、および外部の共有サーバー2から取得した映像を一時的に格納する。
検出装置104は、一次記憶装置103に格納された映像を解析して、例えば、注目被写体が映像に含まれるか否かを判定する。注目被写体は、ユーザーが予め設定した被写体である。また、注目被写体は、撮影中にユーザー操作によって変更されてもよい。また、検出装置104は、注目被写体の向きおよびサイズ等の検出も可能である。
通信装置105は、Wi-Fiおよび/またはBLE(Bluetooth(登録商標) Low Energy)等の通信規格により、他の機器との通信が可能である。例えば、通信装置105は、外部の共有サーバー2と、通信装置205を介して通信することができる。通信装置105は、撮影装置102で撮影した映像を共有サーバー2に転送する。
演算装置101は、通信装置105を介し、検出装置104の検出結果に応じて、外部の共有サーバー2から注目被写体に関連する映像を取得する。例えば、演算装置101は、HMD1で撮影された映像から、注目被写体が検出されなかった場合に、共有サーバー2から映像を取得する。また、通信装置105は、正面を向いた注目被写体が検出されなかった場合、または検出された注目被写体のサイズ(面積)が所定の閾値以下であった場合に、共有サーバー2から映像を取得する。
表示部106は、撮影装置102によって撮影された映像および外部の共有サーバー2から取得した映像を表示する。表示部106は、図1の表示部11aおよび表示部11bに相当する。操作部107は、ユーザーからのボタン操作または音声操作等による操作指
示を受け付ける。
示を受け付ける。
共有サーバー2は、演算装置201、一次記憶装置202、二次記憶装置203、検出装置204、通信装置205を有する。共有サーバー2はが有する構成は、バス208で相互に接続される。演算装置201は、例えばCPUであり、共有サーバー2の全体の制御を司る。
一次記憶装置202は、例えばDRAMであり、HMD1から受信した映像、および二次記憶装置203から読み出した映像を一時的に格納する。二次記憶装置203は、例えばフラッシュメモリであり、HMD1から受信した映像などを記録する。
検出装置204は、二次記憶装置203から一次記憶装置202に読み出された映像を解析し、被写体を検出する。検出装置204は、被写体の向きおよびサイズ等の被写体に関する情報を取得する。検出装置204は、検出した被写体のうち、同じ被写体に対して同一のタグを付して二次記憶装置203に記録する。また、検出装置204は、検出した被写体と、当該被写体を含む映像とを対応づけて二次記憶装置203に記録する。
通信装置205は、Wi-Fiおよび/またはBLE等の通信規格により、他の機器との通信が可能である。例えば、通信装置205は、通信装置105を介して、HMD1と通信することができる。通信装置205は、HMD1での注目被写体が検出された映像を、当該HMD1に送信する。
(映像共有処理)
図3を参照して、映像共有処理について説明する。映像共有処理は、HMD1を装着したユーザーがイベント等を観賞しながら、リアルタイムで他のHMD1を装着したユーザーと映像を共有する場合のHMD1の制御フローである。
図3を参照して、映像共有処理について説明する。映像共有処理は、HMD1を装着したユーザーがイベント等を観賞しながら、リアルタイムで他のHMD1を装着したユーザーと映像を共有する場合のHMD1の制御フローである。
S301では、演算装置101は、操作部107に対するユーザー操作に基づいて、他のHMD1と映像共有をするか否かを設定する。なお、ユーザーは、イベント等の観賞前に予め映像の共有設定をしてもよく、観賞途中で共有設定を変更してもよい。
図4を参照して、映像共有の具体的な設定方法について説明する。図4は、映像共有設定画面を例示する図である。映像共有設定画面は、HMD1の表示部106に表示される。ユーザーは、操作部107を介して映像共有設定画面に対する操作をすることができる。
図4の例では、ユーザーは、映像共有設定401をONに設定することで、他のユーザーが装着するHMD1と映像を共有するか否かを設定ことができる。個別に設定する402をOFFにした場合、ユーザーは、映像共有が可能な他のHMD1と一括して映像共有の設定をすることができる。映像共有が可能なHMD1は、ユーザーが装着したHMD1と直接または共有サーバー2を介して通信可能なHMD1である。
個別に設定する402をONにした場合、ユーザーは、共有ユーザーリスト403に表示されたユーザーのHMD1と、個別に映像共有の設定をすることができる。共有ユーザーリスト403は、イベント会場等で、ユーザーが装着したHMD1と映像共有が可能なHMD1を表示する。
S302では、演算装置101は、操作部107に対するユーザー操作に基づいて、注目被写体を設定する。注目被写体は、HMD1を装着するユーザーがイベント等で主に観賞したい被写体である。例えば、注目被写体は、運動会であれば競技中の生徒(ユーザー
の子供)、コンサートであればお気に入りの歌手、カーレースでは応援しているチームの車体等である。なお、注目被写体は、イベントの観賞前に予め設定されてもよく、イベント等の観賞途中で変更されてもよい。
の子供)、コンサートであればお気に入りの歌手、カーレースでは応援しているチームの車体等である。なお、注目被写体は、イベントの観賞前に予め設定されてもよく、イベント等の観賞途中で変更されてもよい。
図5を参照して、注目被写体の設定について説明する。図5は、注目被写体の設定画面を例示する図である。演算装置101は、予め設定された被写体画像を表示部106に表示し、ユーザーが選択した被写体を注目被写体として登録すればよい。注目被写体は人物に限らず、動物または自動車などでもよい。
予め設定された被写体画像、即ち、注目被写体の設定画面に選択候補として表示される被写体画像は、例えば、HMD1の映像から検出される被写体とすることができる。また、演算装置101は、他のHMD1の映像または共有サーバー2に記録された映像から検出された被写体の情報を受信し、受信した被写体画像を選択候補として表示してもよい。
S303では、演算装置101は、ユーザーがイベント観賞を開始すると、撮影装置102による撮影を開始する。演算装置101は、例えば、ユーザーがHMD1の電源を入れたり、撮影開始の操作をしたりすることにより、イベント観賞が開始されたと判定することができる。
演算装置101は、撮影された映像を、通信装置105を介して随時共有サーバー2に転送する。演算装置101は、映像とともに、S302で設定された注目被写体の情報を共有サーバー2に送信してもよい。
共有サーバー2では、検出装置204は、HMD1から転送された映像において被写体を検出する。また、検出装置204は、映像で検出した被写体の向きおよびサイズを認識する。検出装置204は、被写体の画像データ、被写体の向きおよびサイズ等を含む被写体の情報を、二次記憶装置203に保存する。被写体の情報は、被写体を識別するためのタグを付加して二次記憶装置203に記録される。共有サーバー2は、他のHMD1で撮影された映像についても同様に二次記憶装置203に保存する。
複数のHMD1で検出された同じ被写体に対しては、同一のタグが付加される。被写体が同一であるか否かは、例えば、同一人物を対応づけるための技術であるRe-ID(Re-identification)といった公知の技術を用いて判定可能である。
S304では、演算装置101は、S302で設定した注目被写体に関連する映像を共有サーバー2から取得する。注目被写体に関連する映像は、注目被写体が写っている映像または注目被写体の正面が写っている映像である。
共有サーバー2の演算装置201は、一次記憶装置202または二次記憶装置203に保存された映像から、注目被写体が撮影されている映像を取得する。演算装置201は、通信装置205を介して取得した映像をHMD1に送信する。
注目被写体が撮影されている映像が複数存在する場合、演算装置201は、注目被写体の正面(例えば、人物の場合は顔)がより大きく写っている映像を優先して取得する。また、演算装置201は、映像のリアルタイム性を考慮して、直近(例えば1秒以内)に保
存された映像を取得対象としてもよい。
存された映像を取得対象としてもよい。
なお、共有サーバー2は、映像共有の設定がされている他のHMD1で撮影された映像を、注目被写体が撮影されているか否かに関わらず、HMD1に送信してもよい。この場合、映像中に注目被写体が撮影されているか否かは、共有サーバー2から他のHMD1で
撮影された映像を受信したHMD1側で判定されればよい。
撮影された映像を受信したHMD1側で判定されればよい。
S305では、HMD1の演算装置101は、共有サーバー2から取得した映像を、注目被写体の検出結果に基づいて表示部106に表示する。即ち、演算装置101は、注目被写体が検出されたか否か、および検出された注目被写体の状態などに応じて共有サーバー2から取得した映像を表示する。図6を参照して、共有サーバー2から取得した映像の表示制御処理について説明する。図6は、映像表示制御処理を例示するフローチャートである。
S601では、演算装置101は、撮影装置102が撮影した映像を一次記憶装置103から読み出し、検出装置104が映像中で注目被写体を検出したか否かを判定する。撮影装置102が撮影した映像の画角がユーザーの視野角より広い場合、検出装置104は、撮影領域中の視界領域に限定して検出処理を実施してもよい。
検出装置104が撮影した映像中で注目被写体を検出した場合、処理はS602に進む。検出装置104が映像中で注目被写体を検出しなかった場合、処理はS608に進む。なお、演算装置101は、所定時間以上継続して注目被写体が検出されなかった場合に、処理をS608に進めてもよい。
S602では、演算装置101は、検出装置104が注目被写体の被写体正面を検出したか否かを判定する。検出装置104が被写体正面を検出した場合、処理はS603に進む。検出装置104が被写体正面を検出しなかった場合、処理はS605に進む。
S603では、演算装置101は、撮影装置102が撮影した注目被写体が所定のサイズ以上であるか否かを判定する。注目被写体が所定のサイズ以上である場合、HMD1を装着したユーザーは、肉眼(シースルー)で注目被写体を十分認識できる。ユーザーが注目被写体を認識できる状況では、演算装置101は、共有サーバー2から取得した映像等を表示せず、図6に示す処理は終了する。処理は、図3のS306の終了判定に進む。
S603で注目被写体が所定のサイズより小さい場合、処理はS604に進む。なお、注目被写体が所定のサイズより小さい場合、S602で検出装置104が被写体正面を検出しなかった場合と同様に、演算装置101は、S605に進み共有サーバー2から取得した映像を表示部106に表示するようにしてもよい。
S604では、演算装置101は、撮影装置102が撮影した映像から注目被写体が写っている領域を切り出し、切り出した画像を拡大した拡大映像を表示部106に表示する。演算装置101は、例えば、撮影装置102が撮影した映像で検出した注目被写体と重ならない位置に、拡大映像を表示する。
図7は、HMD1が撮影した映像の拡大映像の表示例を示す図である。図7の点線枠は、HMD1の表示部106でフレーム越しにシースルーで見える表示領域700を示す。表示領域700の右上の角に表示される矩形枠は、表示領域700で表示された注目被写体の拡大映像を表示する拡大映像表示領域702を示す。注目被写体は、注目被写体が拡大映像表示領域702に収まる大きさに拡大して表示される。処理は、図3のS306の終了判定に進む。
S605では、撮影装置102が撮影した映像で注目被写体の被写体正面が検出されていないため、演算装置101は、共有サーバー2から取得した映像で注目被写体が写っている映像があるか否か判定する。
注目被写体が写っている映像がある場合、処理はS606に進む。注目被写体が写っている映像がない場合、演算装置101は共有サーバー2から取得した映像を表示せず、図6に示す処理は終了する。処理は、図3のS306の終了判定に進む。
S606では、演算装置101は、共有サーバー2から取得した映像を表示部106に表示する。演算装置101は、例えば、表示部106の周辺領域など、シースルーで見える領域の注目被写体と重ならない位置に、共有サーバー2から取得した映像を表示する。
図8は、共有サーバー2から取得した映像の表示例を示す図である。図7と同様に図8の点線枠は、HMD1の表示部106でフレーム越しにシースルーで見える表示領域800を示す。表示領域800では、注目被写体801は、後ろ向きの状態で撮影されている。表示領域800の右上の角に表示される矩形枠は、共有サーバー2から取得した注目被写体803の写った映像を表示する共有映像表示領域802を示す。
演算装置101は、S604と同様に、共有サーバー2から取得した映像で注目被写体803が写っている領域を拡大して、共有映像表示領域802に表示してもよい。また、演算装置101は、共有映像表示領域802がシースルーで見える領域の注目被写体801と重ならないように、注目被写体801の検出位置に応じて、共有映像表示領域802の表示位置を上下左右に移動させてもよい。さらに、演算装置101は、シースルーの領域で検出された注目被写体801のサイズに応じて、共有映像表示領域802の表示サイズを決定または変更してもよい。
S607では、撮影装置102が撮影した映像で注目被写体が検出されていないため、演算装置101は、共有サーバー2から取得した映像で注目被写体が写っている映像があるか否か判定する。
注目被写体が写っている映像がある場合、処理はS608に進む。注目被写体が写っている映像がない場合、演算装置101は共有サーバー2から取得した映像を表示せず、図6に示す処理は終了する。処理は、図3のS306の終了判定に進む。
S608では、演算装置101は、共有サーバー2から取得した映像を、表示部106の中央に表示する。図9は、シースルーで見える領域で注目被写体が検出されなかった場合の映像表示の例を示す図である。図7と同様に図9の点線枠は、HMD1の表示部106でフレーム越しにシースルーで見える表示領域900を示す。
表示領域900の中央に表示される矩形枠は、共有サーバー2から取得した注目被写体901の写った映像を表示する共有映像表示領域902を示す。演算装置101は、S604と同様に、共有サーバー2から取得した映像で注目被写体901が写っている領域を拡大したり、一部を切り取ったりして、共有映像表示領域902に表示してもよい。
また、共有映像表示領域902の表示位置は、中央に限られず表示領域900の右側または左側に寄せた位置であってもよい。さらに、シースルーで見える表示領域900で注目被写体が検出された場合、演算装置101は、共有映像表示領域902を縮小して、注目被写体と重ならない位置に移動させてもよい。
図3に戻ってS306では、演算装置101は、撮影が終了したか否かを判定する。演算装置101は、例えば、ユーザーから、操作部107を介して撮影を終了する操作または電源を切る操作を受け付けた場合に、撮影が終了したと判定することができる。撮影が終了した場合、図3に示す映像共有処理は終了する。撮影が終了していない場合、処理はS304に戻る。
ユーザーがイベント観賞を終了し、撮影の終了を指示するまで、S304およびS305の処理は繰り返される。これにより、HMD1を装着したユーザーは、注目被写体をシースルーで十分認識できない場合に、他のHMD1で撮影された注目被写体の映像をリアルタイムで共有することができる。
また、撮影指示および共有設定等の入力操作は、イベント観賞の開始前に一度行えばよい。予め映像の共有設定をしておくことで、ユーザーは、イベント観賞中に他のHMD1と映像を共有するための操作から解放され、イベント観賞により集中できるようになる。
なお、図6の映像表示処理は、フレーム毎に実施してもよく、1秒から数秒ほどの間隔をあけて実施してもよい。また、被写体の位置またはサイズ等の被写体に関する情報は、1フレームで評価する場合に限られず、複数枚のフレームから取得した平均値に基づいて評価してもよい。これにより、バスケットボールのようにイベント会場内を目まぐるしく移動する注目被写体であっても、演算装置101は、映像表示の切り替えを滑らかにすることができる。映像表示の切り替えを滑らかにすることで、ユーザーは、イベント観賞に集中できるようになる。
また、共有サーバー2を介して共有される映像は、他のHMD1で撮影された映像であるものとして説明したが、これに限られない。HMD1が共有可能な映像は、イベント会場に備え付けられた固定のカメラで撮影された映像、またはプロのカメラマンが手持ちで撮影した映像であってもよい。
<実施形態2>
実施形態1では、ユーザーは、注目被写体を、イベントの観賞前に予め設定したり、観賞途中で変更したりする。これに対し、実施形態2では、注目被写体は、ユーザーの視線位置に基づいて、自動的に切り替えられる。HMD1および共有サーバー2の構成は、図1および図2を参照して実施形態1で説明した構成と同じであるため、説明は省略する。
実施形態1では、ユーザーは、注目被写体を、イベントの観賞前に予め設定したり、観賞途中で変更したりする。これに対し、実施形態2では、注目被写体は、ユーザーの視線位置に基づいて、自動的に切り替えられる。HMD1および共有サーバー2の構成は、図1および図2を参照して実施形態1で説明した構成と同じであるため、説明は省略する。
ユーザーがイベント観賞中に注目被写体を変更したい場合に、注目被写体の設定をやり直すことは面倒である。実施形態2では、HMD1は、ユーザーの視線を検出して、注目被写体をユーザーの視線が向けられている被写体に切り替える。したがって、ユーザーが注目被写体を切り替えるための操作負荷は軽減される。
視線検出の方法は、例えば、一般的な角膜反射法などである。角膜反射法は、ユーザーの眼球に赤外線を照射し、角膜と瞳孔の反射率の違いに基づいて眼球の状態(視線の方向)を検出する方法である。検出された視線方向と、HMDにより撮影された映像から、ユーザーがどの時刻に視界のどの位置を見ていたかという視線の推移情報が得られる。
図10を参照して、視線の推移情報について説明する。図10は、3人の生徒が徒競走で走っているシーンである。時刻T0、時刻T1、時刻T2におけるユーザーの視線位置は、×印で表される。時刻T0の時点で、ユーザーは、生徒1001に注目している。ユーザーの視線は、時刻T1では生徒1002に、時刻T3では生徒1003に移動している。
例えば、ユーザーの視線が所定期間以上、特定の被写体に留まっていることが検出された場合、HMD1の演算装置101は、注目被写体をユーザーの視線が留まっている被写体に切り替える。演算装置101は、注目被写体を切り替える前に、ユーザーに注目被写体を変更することを通知する。
図11は、注目被写体の変更通知の例を示す図である。演算装置101は、注目被写体を変更したことを通知するメッセージ1101、および変更後の注目被写体を囲む枠1102を表示する。
なお、図11は、注目被写体の変更を通知する例を示すが、通知に限られない。演算装置101は、注目被写体を変更するか否かをユーザーが選択できるように、確認メッセージを表示してもよい。演算装置101は、ユーザーが注目被写体の変更を承諾した場合に、注目被写体を切り替える。演算装置101は、ユーザーが注目被写体の変更を承諾しなかった場合、注目被写体を変更せずに、当該注目被写体について映像の共有処理を継続する。
実施形態2では、HMD1は、ユーザーの視線を検出し、ユーザーの視線位置に基づいて、注目被写体を変更する。これにより、演算装置101は、ユーザーが追加の操作をしなくても注目する被写体を容易に切り替えることができる。
<実施形態3>
実施形態1では、共有サーバー2から取得した映像は、シースルーで見える領域で検出された注目被写体の位置およびサイズに基づいて、表示位置および表示サイズが決定される。
実施形態1では、共有サーバー2から取得した映像は、シースルーで見える領域で検出された注目被写体の位置およびサイズに基づいて、表示位置および表示サイズが決定される。
これに対し、実施形態3は、撮影装置102の撮影範囲内に仮想モニターを表示させ、共有サーバー2から取得した映像を仮想モニターに投影する実施形態である。HMD1は、例えば、イベント会場(実空間)の固定位置に仮想モニターを表示することができる。HMD1および共有サーバー2の構成は、図1および図2を参照して実施形態1で説明した構成と同じであるため、説明は省略する。
注目被写体が目まぐるしく動き回るような状況では、共有サーバー2から取得した映像は、表示位置および表示サイズが頻繁に変更されるため、シースルーでの観賞の邪魔になる可能性がある。実施形態3では、共有サーバー2から取得した映像の出力先を、実空間内の定位置に設置された仮想モニターに固定することで、ユーザーは、共有する映像の映像表示に気をとられることなく、落ち着いてイベントを観賞することができる。
図12は、仮想モニターの表示例を示す図である。図12の例では、演算装置101は、徒競走が行われている校庭の空きスペース(トラックの内側)に大型の仮想モニターが置かれているように表示する。仮想モニターの表示位置は、例えばイベント会場のレイアウト図で、競技毎に空きスペースに設定される。HMD1は、仮想モニターの表示位置がユーザーの視野角に入ったことを検知すると、表示部106に仮想モニターを表示する。
仮想モニターは、設置位置に応じて、ユーザーの正面に向けられてもよく、ユーザーに対して斜め向きに表示されてもよい。ユーザーに対して斜め向きに表示された場合、演算装置101は、ユーザーが装着したHMD1に対するモニターの設置角に応じて、仮想モニターに表示する映像の射影変換を行う。ユーザーは、射影変換により仮想モニターに自然に表示された注目被写体の映像と、シースルーでの映像とを同時に観賞することができる。
<実施形態4>
上述の各実施形態では、HMD1は、リアルタイムで映像を共有する。これに対し、実施形態4は、注目被写体の検出結果およびユーザーの視線の推移情報に基づいて、ユーザーがリアルタイムで見逃した期間(シーン)を推定し、後からHMD1で再生(リプレイ)するための再生映像を生成する方法に関する実施形態である。HMD1は、後から映像
を再生する際、ユーザーが見逃したシーンでは、共有サーバー2から取得した映像を再生する。HMD1および共有サーバー2の構成は、図1および図2を参照して実施形態1で説明した構成と同じであるため、説明は省略する。
上述の各実施形態では、HMD1は、リアルタイムで映像を共有する。これに対し、実施形態4は、注目被写体の検出結果およびユーザーの視線の推移情報に基づいて、ユーザーがリアルタイムで見逃した期間(シーン)を推定し、後からHMD1で再生(リプレイ)するための再生映像を生成する方法に関する実施形態である。HMD1は、後から映像
を再生する際、ユーザーが見逃したシーンでは、共有サーバー2から取得した映像を再生する。HMD1および共有サーバー2の構成は、図1および図2を参照して実施形態1で説明した構成と同じであるため、説明は省略する。
図13は、見逃した期間の推定について説明する図である。演算装置101は、見逃した期間を推定するために、イベント観賞中の各時刻において注目被写体に関する情報を記録する。注目被写体は、実施形態1で説明したように、予めユーザーが設定してもよく、実施形態2で説明したように、ユーザーの視線情報に基づいて設定されてもよい。
各シーンで記録される情報は、A:時刻、B:注目被写体の検出結果、C:注目被写体の顔検出結果、D:注目被写体のサイズ判定結果である。B:注目被写体の検出結果は、シースルーで見える領域で注目被写体が検出されたか否かである。C:注目被写体の顔検出結果は、注目被写体の顔(正面)が検出されたか否かである。D:注目被写体のサイズ判定結果は、注目被写体の顔が所定のサイズ以上であるか否かである。
図13の例では、時刻T5から時刻T7の期間で、注目被写体が検出されなかったため、B:注目被写体の検出結果、C:注目被写体の顔検出結果、D:注目被写体のサイズ判定結果はNGとなっている。
時刻T8では、注目被写体は検出されたが、注目被写体の顔(注目被写体の正面)が検出されていないため、C:注目被写体の顔検出結果、D:注目被写体のサイズ判定結果はNGとなる。時刻T9では、注目被写体の顔は検出されているが、注目被写体の顔が所定のサイズ未満であるため、D:注目被写体のサイズ判定結果はNGとなる。
演算装置101は、B:注目被写体の検出結果、C:注目被写体の顔検出結果、D:注目被写体のサイズ判定結果のいずれかがNGである場合、共有サーバー2から取得した映像を再生する。図13の例では、演算装置101は、時刻T0から時刻T4までの期間および時刻T10では、ユーザーが装着するHMD1で撮影した映像を再生する。また、演算装置101は、時刻T5から時刻T9までの期間では、共有サーバー2から取得した映像を再生する。
これにより、演算装置101は、注目被写体の検出結果に基づいて、HMD1で撮影した映像と共有サーバー2から取得した映像とを繋ぎ合わせたダイジェスト動画(再生映像)を生成することができる。したがって、HMD1を装着したユーザーは、リアルタイムで注目被写体を見逃した場合でも、見逃した期間に撮影された被写体の映像を含むダイジェスト動画を鑑賞することができる。
上述の各実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の組み合わせまたは変形が可能である。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1:HMD、101:演算装置、102:撮影装置、104:検出装置、105:通信装置、106:表示部
Claims (17)
- 撮影手段と、
前記撮影手段が撮影した映像から注目被写体を検出する検出手段と、
外部機器から前記注目被写体に関連する映像を取得する取得手段と、
前記検出手段の検出結果に基づいて、前記外部機器から取得した映像を表示する表示制御手段と
を有することを特徴とする表示装置。 - 前記表示制御手段は、前記注目被写体が撮影された映像のうち、前記注目被写体の正面がより大きく撮影された映像を優先して表示する
ことを特徴とする請求項1に記載の表示装置。 - 前記表示制御手段は、前記撮影手段が撮影した映像に前記注目被写体が撮影されていない場合、前記取得手段が取得した映像を表示する
ことを特徴とする請求項1または2に記載の表示装置。 - 前記表示制御手段は、前記撮影手段が撮影した映像に前記注目被写体もしくは前記注目被写体の正面が撮影されていない場合に、前記取得手段が取得した映像を表示する
ことを特徴とする請求項1から3のいずれか1項に記載の表示装置。 - 前記表示制御手段は、前記撮影手段が撮影した映像での前記注目被写体が所定のサイズより小さくなった場合、前記取得手段が取得した映像を表示するか、または前記撮影手段が撮影した映像から前記注目被写体が写っている領域を切り出した映像を拡大して表示する
ことを特徴とする請求項1から4のいずれか1項に記載の表示装置。 - 前記表示制御手段は、前記撮影手段が撮影した映像での前記注目被写体のサイズに基づいて、前記取得手段が取得した映像の表示サイズを決定する。
ことを特徴とする請求項1から5のいずれか1項に記載の表示装置。 - 前記表示制御手段は、前記撮影手段が撮影した映像での前記注目被写体の位置に基づいて、前記取得手段が取得した映像の表示位置を決定する。
ことを特徴とする請求項1から6のいずれか1項に記載の表示装置。 - 前記注目被写体は、ユーザーにより予め設定される
ことを特徴とする請求項1から7のいずれか1項に記載の表示装置。 - 前記検出手段は、ユーザーの視線位置に基づいて、前記注目被写体を変更する
ことを特徴とする請求項1から8のいずれか1項に記載の表示装置。 - 前記表示制御手段は、前記撮影手段の撮影範囲内に仮想モニターを表示し、前記仮想モニターに、前記取得手段が取得した映像を表示する
ことを特徴とする請求項1から9のいずれか1項に記載の表示装置。 - ユーザーが前記注目被写体を見逃した期間を推定する推定手段をさらに有し、
前記表示制御手段は、前記撮影手段が撮影した映像と、前記外部機器から取得した映像のうち前記見逃した期間に撮影された映像とを用いて、前記見逃した期間を含む期間の前記注目被写体の再生映像を生成する
ことを特徴とする請求項1から10のいずれか1項に記載の表示装置。 - 前記撮影手段が撮影した映像を外部機器に送信する送信手段を、さらに有する
ことを特徴とする請求項1から11のいずれか1項に記載の表示装置。 - 情報処理装置と、請求項1から12のいずれか1項に記載の表示装置とを含む表示制御システムであって、
前記情報処理装置は、
複数の前記表示装置から前記撮影手段が撮影した映像を受信する受信手段と、
前記受信手段が受信した映像から被写体を検出し、前記被写体の向きおよびサイズを含む前記被写体の情報を取得する取得手段と、
前記表示装置における前記注目被写体が検出された映像のうち、前記被写体の情報に基づいて選択した映像を前記表示装置に送信する送信手段と、を有する
ことを特徴とする表示制御システム。 - 複数の表示装置から前記表示装置の撮影手段が撮影した映像を受信する受信手段と、
前記受信手段が受信した映像から被写体を検出し、前記被写体の向きおよびサイズを含む前記被写体の情報を取得する取得手段と、
前記表示装置における注目被写体が検出された映像のうち、前記被写体の情報に基づいて選択した映像を前記表示装置に送信する送信手段と
を有することを特徴とする情報処理装置。 - コンピュータが、
映像を撮影する撮影ステップと、
前記撮影ステップで撮影した映像から注目被写体を検出する検出ステップと、
外部機器から前記注目被写体に関連する映像を取得する取得ステップと、
前記検出ステップでの検出結果に基づいて、前記外部機器から取得した映像を表示する表示制御ステップと
を有することを特徴とする表示装置の制御方法。 - コンピュータを、請求項1から12のいずれか1項に記載の表示装置の各手段として機能させるためのプログラム。
- コンピュータを、請求項1から12のいずれか1項に記載の表示装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021050040A JP2022148382A (ja) | 2021-03-24 | 2021-03-24 | 表示装置、表示制御システム、情報処理装置および表示装置の制御方法 |
US17/700,580 US20220309992A1 (en) | 2021-03-24 | 2022-03-22 | Head-mounted display, display control system, information processor, and method for controlling head-mounted display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021050040A JP2022148382A (ja) | 2021-03-24 | 2021-03-24 | 表示装置、表示制御システム、情報処理装置および表示装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022148382A true JP2022148382A (ja) | 2022-10-06 |
Family
ID=83364975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021050040A Pending JP2022148382A (ja) | 2021-03-24 | 2021-03-24 | 表示装置、表示制御システム、情報処理装置および表示装置の制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220309992A1 (ja) |
JP (1) | JP2022148382A (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040207743A1 (en) * | 2003-04-15 | 2004-10-21 | Nikon Corporation | Digital camera system |
JP5057918B2 (ja) * | 2007-09-28 | 2012-10-24 | 株式会社東芝 | 電子機器およびシーン種類表示方法 |
US11593951B2 (en) * | 2020-02-25 | 2023-02-28 | Qualcomm Incorporated | Multi-device object tracking and localization |
JP2021152578A (ja) * | 2020-03-24 | 2021-09-30 | オリンパス株式会社 | 撮像装置および追尾方法 |
-
2021
- 2021-03-24 JP JP2021050040A patent/JP2022148382A/ja active Pending
-
2022
- 2022-03-22 US US17/700,580 patent/US20220309992A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220309992A1 (en) | 2022-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11860511B2 (en) | Image pickup device and method of tracking subject thereof | |
JP2003242527A (ja) | 情報処理装置および方法 | |
JP7433860B2 (ja) | 電子機器及び電子機器の制御方法 | |
JP5885395B2 (ja) | 撮影機器及び画像データの記録方法 | |
JP5695809B1 (ja) | 表示装置、表示方法およびプログラム | |
JP2011166641A (ja) | 撮像装置 | |
US11388331B2 (en) | Image capture apparatus and control method thereof | |
JP2012108379A (ja) | 情報表示システム、装置、方法及びプログラム | |
JP2012108793A (ja) | 情報表示システム、装置、方法及びプログラム | |
US9143763B2 (en) | Imaging apparatus, imaging method, and computer-readable recording medium | |
JP2021150760A (ja) | 撮像装置およびその制御方法 | |
JP2022148382A (ja) | 表示装置、表示制御システム、情報処理装置および表示装置の制御方法 | |
KR101805065B1 (ko) | 시선 추적을 이용하여 컨텐츠를 선택적으로 제어하기 위한 장치 및 방법 | |
JP2015162822A (ja) | 電子機器、撮像装置及び通信装置 | |
JP4973427B2 (ja) | プロジェクタ付きカメラ | |
CN107426522B (zh) | 基于虚拟现实设备的视频方法和系统 | |
US10027922B2 (en) | Imaging apparatus for displaying a specific scene while continuously photographing, image playback method, and non-transitory computer-readable storage medium | |
US11962893B2 (en) | Image system and method for controlling imaging system | |
JP5750792B1 (ja) | 撮像装置、撮像方法およびプログラム | |
JP2023055074A (ja) | 撮像装置及びその制御方法並びにプログラム | |
JP2023067530A (ja) | 撮像装置及びその制御方法並びにプログラム | |
JP2021068296A (ja) | 情報処理装置、ヘッドマウントディスプレイ、およびユーザ操作処理方法 | |
JP2023178092A (ja) | 情報処理装置、撮像装置、情報処理方法および撮像装置の制御方法 | |
JP2024017297A (ja) | 撮像装置、ウェアラブルデバイス、制御方法、プログラムおよびシステム | |
JP2022140420A (ja) | 撮像装置、表示装置、映像転送システム、制御方法、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240319 |