JPWO2020095784A1 - 表示制御装置、プレゼンテーションシステム、表示制御方法、及びプログラム - Google Patents
表示制御装置、プレゼンテーションシステム、表示制御方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2020095784A1 JPWO2020095784A1 JP2020555999A JP2020555999A JPWO2020095784A1 JP WO2020095784 A1 JPWO2020095784 A1 JP WO2020095784A1 JP 2020555999 A JP2020555999 A JP 2020555999A JP 2020555999 A JP2020555999 A JP 2020555999A JP WO2020095784 A1 JPWO2020095784 A1 JP WO2020095784A1
- Authority
- JP
- Japan
- Prior art keywords
- display
- display control
- operation input
- input information
- comment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
- G09B5/10—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations all student stations being capable of presenting the same information simultaneously
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Educational Technology (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
しかしながら、この場合、視聴者は視線を手元の端末に移す必要があるため、視聴者の前方の遠くに配置された、視聴者全体のために設けられている表示装置に表示されている内容を同時に見ることができない。すなわち、プレゼンテーションの進行に沿って表示されている内容と、視聴者が参照したい内容とを両方確認するためには、視聴者は視線を大きく変更する動作を繰り返さなければならない。これは、それぞれの資料の表示位置の位置関係が、表示装置の位置及び視聴者の位置にしたがって固定的であることに起因している。
発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示するよう制御する第1の表示制御手段と、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示するよう制御する第2の表示制御手段と、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報を取得する操作入力情報取得手段と
を有し、
前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更する。
発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示し、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示し、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更する。
発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示するよう制御する第1の表示制御ステップと、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示するよう制御する第2の表示制御ステップと、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報を取得する操作入力情報取得ステップと
をコンピュータに実行させ、
前記第2の表示制御ステップでは、前記第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更する。
実施の形態の詳細な説明に先立って、実施の形態の概要を説明する。
図1は、実施の形態の概要にかかる表示制御装置1の構成の一例を示すブロック図である。図1に示すように、表示制御装置1は、第1の表示制御部2と、第2の表示制御部3と、操作入力情報取得部4とを有する。
そして、第2の表示制御部3は、この取得された操作入力情報に基づいて、第2の資料の表示態様を変更する。
例えば、第2の表示制御部3は、この操作入力情報に基づいて、第2の資料の表示対象のページを変更してもよい。また、第2の表示制御部3は、この操作入力情報に基づいて、第2の資料の表示サイズを変更してもよい。また、第2の表示制御部3は、この操作入力情報に基づいて、第2の資料の表示位置を変更してもよい。
<実施の形態1>
図2は、実施の形態にかかるプレゼンテーションシステム10の構成の一例を示す模式図である。
プレゼンテーションシステム10は、表示制御装置100と、ヘッドマウントディスプレイ200_1、200_2、・・・、200_Nと、端末装置300と、表示装置400とを含む。ここで、Nは1以上の整数である。以下の説明では、ヘッドマウントディスプレイ200_1、200_2、・・・、200_Nについて、特に区別すること無く言及する場合、ヘッドマウントディスプレイ200と称すこととする。
図2において、視聴者510は、表示装置400に表示された資料を見ながらプレゼンテーションを聴講する視聴者である。また、視聴者520_1、520_2、・・・、520_Nは、ヘッドマウントディスプレイ200を装着し、ヘッドマウントディスプレイ200により映し出された仮想現実空間において、プレゼンテーションを聴講する視聴者である。以下の説明では、視聴者520_1、520_2、・・・、520_Nについて、特に区別すること無く言及する場合、視聴者520と称すこととする。
表示制御装置100は、ヘッドマウントディスプレイ200における表示を制御する制御装置であり、図1の表示制御装置1に相当する。表示制御装置100は、有線又は無線により、通信可能にヘッドマウントディスプレイ200及び端末装置300と接続している。なお、表示制御装置100の詳細については、後述する。
表示制御装置100により映像が生成され、ヘッドマウントディスプレイ200のディスプレイには、表示制御装置100から出力された映像が表示される。
端末装置300は、プレゼンテーション資料の任意のページの画像を表示装置400に出力する。そして、端末装置300は、マウスなどの入力インタフェースを備えており、発表者500又はその補助者などの操作入力に従い、プレゼンテーションの進行に応じた適切なページの画像を表示装置400に出力する。
図3は、実施の形態1にかかる表示制御装置100の機能構成の一例を示すブロック図である。
表示制御装置100は、空間表示制御部101と、資料記憶部102と、表示状態記憶部103と、操作入力情報取得部104と、表示内容取得部105と、発表者用資料表示制御部106と、参照資料表示制御部107と、映像出力部108とを有する。
また、表示状態記憶部103は、表示状態データを記憶する。表示状態データの詳細については後述する。
本実施の形態では、参照資料の初期表示位置(上述した第2の位置)は、発表者用資料表示制御部106により仮想現実空間に表示されたプレゼンテーション資料に近接した所定の位置である。ただし、本実施の形態において、参照資料の表示位置は、視聴者520の操作により変更することができる。
また、例えば、視線追跡センサ、操作スティック、マウスなどのポインティングデバイスにより検出されたポイント位置に対応するメニューが示す操作内容、若しくはキーボードにより指定されたメニューが示す操作内容が操作入力情報として取得されてもよい。
なお、これらは操作入力の例に過ぎない。すなわち、操作入力情報取得部104は、任意の方法により視聴者520が入力した所定の操作を示す情報を取得すればよい。
また、操作入力情報により変更される表示態様は、上述した表示態様の変更に限定されない。例えば、参照資料表示制御部107は、操作入力情報に従い、参照資料の表示を複製してもよい。
表示状態データは、各ヘッドマウントディスプレイ200に現在表示している参照資料についての表示状態を表すデータである。表示状態データは、例えば、図4に示すように、状態IDと、資料IDと、ユーザIDと、座標と、倍率と、ページ番号とを含む。
資料IDは、表示されている参照資料を識別する識別子であり、資料IDにより、現在表示中の参照資料が特定される。
ユーザIDは、いずれのヘッドマウントディスプレイ200(視聴者520)に対して表示しているかを識別する識別子である。
表示状態データを構成する座標データは、参照資料の表示位置を示す座標データであり、参照資料の左上端部の仮想現実空間上の座標を示す第1の座標と、参照資料の右下端部の仮想現実空間上の座標を示す第2の座標とからなる。これらの座標は、3次元空間である仮想現実空間の(x座標,y座標,z座標)により構成されている。
倍率は、参照資料の現在の表示倍率を示す。
ページ番号は、参照資料のどのページが表示されているかを示す。
例えば、参照資料のページを1ページ進めることを指示する操作入力情報を操作入力情報取得部104が取得した場合、参照資料表示制御部107は、表示状態データが示す現在のページ番号に基づいて、新たに表示すべきページを特定する。そして、表示態様の変更が行なわれる際、参照資料表示制御部107は、表示状態データのページ番号を更新する。
図5において、表示210は、発表者用資料表示制御部106の制御により表示されるプレゼンテーション資料である。すなわち、表示210は表示内容が表示装置400の表示内容と同期している。つまり、表示210は、プレゼンテーションの進行に応じて、視聴者520の意思とは無関係にページが変更する。
例えば、視聴者520がメニュー212Aをポインティングデバイスにより指定した後に表示されるサブメニュー(不図示)をポインティングデバイスにより指定することで、仮想現実空間に表示する参照資料を選択することができる。
また、例えば、視聴者520がメニュー212Dをポインティングデバイスにより指定することで、表示211の仮想現実空間における表示位置が変更される。例えば、参照資料表示制御部107は、表示位置を所定の位置に変更してもよいし、ポインティングデバイスにより指定された位置に変更してもよい。
また、例えば、視聴者520がメニュー212E又はメニュー212Fをポインティングデバイスにより指定することにより、表示211の大きさが変更される。変更後の大きさは、所定の大きさであってもよいし、操作入力により指定されてもよい。
図5に示した例では、表示211が参照資料の1ページ分の画像を表示していた。これに対し、図6に示した例では、表示211が参照資料の複数ページ分の画像を表示している。このように、参照資料表示制御部107は、参照資料の複数のページを同時に表示してもよい。
図7は、表示制御装置100のハードウェア構成の一例を示すブロック図である。図7に示すように、表示制御装置100は、例えば、ネットワークインタフェース150と、メモリ151と、プロセッサ152とを有するサーバとして構成されている。
図8は、参照資料表示制御部107の動作の一例を示すフローチャートである。図8では、視聴者520のうちいずれか(ここでは、ユーザXと称すこととする)が装着しているヘッドマウントディスプレイ200についての参照資料の表示制御を示している。なお、ユーザX以外の視聴者520が装着しているヘッドマウントディスプレイ200についても、同様に参照資料の表示制御が行なわれる。以下、図8に沿って、参照資料表示制御部107の動作の一例について説明する。
取得された操作入力情報が表示対象とする参照資料を選択する操作入力情報である場合(ステップS101でYes)、ステップS102において、参照資料表示制御部107は指定された資料を参照資料として表示する。なお、参照資料は、複数表示されてもよい。
取得された操作入力情報が表示対象とする参照資料を選択する操作入力情報ではない場合(ステップS101でNo)、処理はステップS103へ移行する。
取得された操作入力情報が表示する対象のページを変更することを指示する操作入力情報である場合(ステップS103でYes)、ステップS104において、参照資料表示制御部107は、参照資料について、操作に応じたページを表示する。
取得された操作入力情報が表示する対象のページを変更することを指示する操作入力情報ではない場合(ステップS103でNo)、処理はステップS105へ移行する。
取得された操作入力情報が参照資料の表示位置を変更することを指示する操作入力情報である場合(ステップS105でYes)、ステップS106において、参照資料表示制御部107は、操作に応じた位置に参照資料を表示する。
取得された操作入力情報が参照資料の表示位置を変更することを指示する操作入力情報ではない場合(ステップS105でNo)、処理はステップS107へ移行する。
取得された操作入力情報が参照資料の表示サイズを変更することを指示する操作入力情報である場合(ステップS107でYes)、ステップS108において、参照資料表示制御部107は、参照資料について、操作に応じた倍率で参照資料を表示する。
取得された操作入力情報が参照資料の表示サイズを変更することを指示する操作入力情報ではない場合(ステップS107でNo)、処理はステップS100へ戻る。
次に、実施の形態2について説明する。
実施の形態2は、資料に記載された内容を解説する解説情報をさらに仮想現実空間に表示する点で実施の形態1と異なっている。
図9は、実施の形態2にかかる表示制御装置120の機能構成の一例を示すブロック図である。表示制御装置120は、参照資料表示制御部107が参照資料解説表示制御部121に置き換わった点で、上述した表示制御装置100と異なっている。このため、映像出力部108は、空間表示制御部101、発表者用資料表示制御部106、及び、参照資料解説表示制御部121による制御にしたがった映像を、ヘッドマウントディスプレイ200に出力する。
図10において、状態IDがS0001である表示状態データ及び状態IDがS0002である表示状態データが、参照資料の表示状態を示す表示状態データの具体例である。そして、状態IDがS0008である表示状態データが、解説情報(資料ID:D0001−a007)の表示状態を示す表示状態データの具体例である。資料IDがD0001−a007である解説情報は、例えば資料IDがD0001である参照資料についての解説情報である。
図11において、表示210は、発表者用資料表示制御部106の制御により表示されるプレゼンテーション資料である。また、図11において、表示211は、参照資料解説表示制御部121の制御により表示される参照資料である。さらに、表示220は、参照資料解説表示制御部121の制御により表示される解説情報である。より具体的には、表示220は、操作入力により指定された解説対象221についての解説情報である。
表示220の表示位置は、例えば、参照資料についての表示状態データで示される表示位置に基づいて、参照資料解説表示制御部121によって計算される。例えば、参照資料解説表示制御部121は、他の表示(例えば、表示210)と重複しない位置を解説対象に近接する位置を解説情報の表示位置として算出する。また、参照資料解説表示制御部121は、解説対象に近接する位置を解説情報の表示位置として算出してもよい。
例えば、視聴者520がメニュー212Gをポインティングデバイスにより指定した後に、解説対象が表示されている位置、すなわち、解説をして欲しい記載が存在する位置をポインティングデバイスにより指定することで、解説対象が指定される。
また、例えば視聴者520が表示220上などでスワイプする動作を、ポインティングデバイスなどを介して行なうことより、解説レベルを指定(変更)する操作入力が行なわれる。これにより、操作入力情報取得部104によって、解説レベルを指定(変更)する操作入力情報が取得される。
また、解説レベルを指定する操作入力は、レベルの指定を行なうためのメニューをポインティングデバイスにより指定することで行なわれてもよい。
このように、操作入力の具体的な方法としては任意の構成が可能であり、いずれかの操作入力方法に限定されない。
図12は、参照資料解説表示制御部121の動作の一例を示すフローチャートである。図12では、図8と同様、ユーザXが装着しているヘッドマウントディスプレイ200についての表示制御を示している。ユーザX以外の視聴者520が装着しているヘッドマウントディスプレイ200についても、同様に表示制御が行なわれる。
取得された操作入力情報が参照資料の内容における解説対象を指定する操作入力情報である場合(ステップS109でYes)、ステップS110において、参照資料解説表示制御部121は、指定された解説対象に対応する解説情報を表示する。
取得された操作入力情報が参照資料の内容における解説対象を指定する操作入力情報ではない場合(ステップS109でNo)、処理はステップS111へ移行する。
取得された操作入力情報が解説レベルを指定する操作入力情報である場合(ステップS111でYes)、ステップS112において、参照資料解説表示制御部121は、指定されたレベルの解説情報に表示を切替える。
取得された操作入力情報が解説レベルを指定する操作入力情報ではない場合(ステップS111でNo)、処理はステップS100へ戻る。
また、上述した実施の形態では、解説情報は予め資料記憶部102に記憶されているが、解説情報は、インターネット等のネットワークを介して外部のサーバ(検索サーバ)から取得されてもよい。すなわち、参照資料解説表示制御部121は、解説対象の用語を外部のサーバへ送信し、このサーバが提供する検索エンジンによる検索結果を解説情報として取得してもよい。
仮に、参照資料及び解説情報をモバイル端末のディスプレイにより現実空間に表示した場合、当該モバイル端末のディスプレイのサイズ内で、複数のウィンドウを表示しなければならない。このため、一方のウィンドウに他方のウィンドウを重複して表示する、若しくは、ウィンドウ同士が干渉しないように表示サイズを小さくして表示する、といった対応が必要となる。その結果、見づらい表示となってしまう。これに対し、本実施の形態では、仮想現実空間においてプレゼンテーション資料、参照資料、及び解説情報が表示される。このため、現実空間に表示する場合に比べて、広い範囲を表示のために使うことが可能となり、見やすい表示となる。
次に、実施の形態3について説明する。実施の形態3は、資料に対するコメントを管理することができる点で、上述した実施の形態と異なっている。
図13は、実施の形態3にかかる表示制御装置130の機能構成の一例を示すブロック図である。
表示制御装置130は、コメント制御部131及びコメント記憶部132が追加された点で、上述した表示制御装置120と異なっている。なお、本実施の形態における映像出力部108は、空間表示制御部101、発表者用資料表示制御部106、参照資料解説表示制御部121、及び、コメント制御部131による制御にしたがった映像を、ヘッドマウントディスプレイ200に出力する。
以下の説明では、表示制御装置120と重複する構成及び動作については説明を省略し、表示制御装置100と異なる点について説明する。
資料IDは、コメント対象の資料を識別する識別子である。
ユーザIDは、いずれの視聴者520が入力したコメントであるかを識別する識別子である。
グループIDは、ユーザIDが属するグループ、すなわち、コメントを入力した視聴者520が属するグループを識別する識別子である。
ページ番号は、資料のどのページに対するコメントであるかを示す。
コメントデータを構成する座標データは、資料のページにおけるコメント対象の位置を示す座標データであり、コメント対象の左上端部の位置を示す第1の座標と当該コメント対象の右下端部の位置を示す第2の座標とからなる。なお、コメントデータのおける第1の座標及び第2の座標は、当該ページの左上端部の位置を(0,0,0)とし、当該ページの右下端部の位置を(1,1,1)とした場合の相対的な位置を示す座標である。したがって、コメントデータのおける第1の座標及び第2の座標の各軸の値は、0以上1以下の値で表される。
コメント内容は、入力されたコメントの内容を示す。
図15において、表示210は、発表者用資料表示制御部106の制御により表示されるプレゼンテーション資料である。また、図15において、表示211は、参照資料解説表示制御部121の制御により表示される参照資料である。さらに、表示230は、コメント制御部131の制御により表示されるコメントである。なお、表示230の表示位置は、例えば、コメントの対象となっている資料についての表示状態データで示される表示位置に基づいて、コメント制御部131によって計算される。例えば、コメント制御部131は、コメント対象に近接する位置をコメントの表示位置として算出する。また、コメント制御部131は、他の表示(例えば、表示210)と重複しない位置をコメントの表示位置として算出してもよい。コメント制御部131は、コメント対象とコメントとの対応関係が明確になるよう、これらを線で結ぶなどして、コメントを表示してもよい。
例えば、視聴者520がメニュー212Hをポインティングデバイスにより指定した後に表示されるサブメニュー(不図示)をポインティングデバイスにより指定することで、コメント対象の位置の指定及びコメントの入力ができる。コメント対象の位置の指定は、例えば、ポインティングデバイスを用いて行なわれる。また、コメントの入力は、キーボードを用いて行なわれる。なお、入力されるコメントは、自由な文字列ではなく、予め定められたコメントの選択肢から選ばれたものであってもよい。この場合、所定の選択肢をポインティングデバイスを用いて選択することでコメント内容が入力される。
図16は、参照資料解説表示制御部121及びコメント制御部131の動作の一例を示すフローチャートである。図16では、図8と同様、ユーザXが装着しているヘッドマウントディスプレイ200についての表示制御を示している。ユーザX以外の視聴者520が装着しているヘッドマウントディスプレイ200についても、同様に表示制御が行なわれる。
取得された操作入力情報がコメントの入力についての操作入力情報である場合(ステップS113でYes)、ステップS114において、コメント制御部131は、取得された操作入力情報に基づいて、コメント記憶部132に記憶するコメントデータを生成する。また、コメント制御部131は、入力されたコメント内容を仮想現実空間に表示するよう制御する。このとき、コメント制御部131は、入力されたコメント内容の閲覧が許可された視聴者520が装着するヘッドマウントディスプレイ200に対し、当該コメントの表示を行なう。
取得された操作入力情報がコメントの入力についての操作入力情報ではない場合(ステップS113でNo)、処理はステップS100へ戻る。
(付記1)
発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示するよう制御する第1の表示制御手段と、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示するよう制御する第2の表示制御手段と、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報を取得する操作入力情報取得手段と
を有し、
前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更する
表示制御装置。
(付記2)
前記操作入力情報取得手段は、さらに、前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の内容における解説対象を指定する操作入力情報である第2の操作入力情報を取得し、
前記第2の表示制御手段は、前記第2の操作入力情報に基づいて、前記解説対象について解説する情報である解説情報を、前記仮想現実空間内にさらに表示する
付記1に記載の表示制御装置。
(付記3)
前記操作入力情報取得手段は、さらに、前記仮想現実空間を体験する視聴者により入力された、解説レベルを指定する操作入力情報である第3の操作入力情報を取得し、
前記第2の表示制御手段は、前記第3の操作入力情報に応じたレベルの解説情報の表示に切替える
付記2に記載の表示制御装置。
(付記4)
前記操作入力情報取得手段は、さらに、前記仮想現実空間を体験する視聴者により入力された、前記第1の資料又は前記第2の資料に対するコメントについての操作入力情報である第4の操作入力情報を取得し、
前記第4の操作入力情報は、資料中におけるコメント対象の位置と、コメント内容とを含み、
前記表示制御装置は、さらに、前記コメント対象の位置と、前記コメント内容とを関連づけて管理するコメント制御手段を有する
付記1乃至3のいずれか1項に記載の表示制御装置。
(付記5)
前記コメント制御手段は、前記第1の資料又は前記第2の資料の前記仮想現実空間内での表示の際に、前記第1の資料又は前記第2の資料における前記コメント対象の位置に関連づけて前記コメント内容を前記仮想現実空間内で表示するよう制御する
付記4に記載の表示制御装置。
(付記6)
前記第4の操作入力情報は、さらに、コメントの入力を行なった視聴者を識別する識別情報を含み、
前記コメント制御手段は、前記識別情報と、前記コメント対象の位置と、前記コメント内容とを関連づけて管理し、前記第1の資料又は前記第2の資料の前記仮想現実空間内での表示の際に前記コメント内容を表示するか否かを当該コメント内容に関連づけられている前記識別情報に基づいて制御する
付記5に記載の表示制御装置。
(付記7)
前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示対象のページを変更する
付記1乃至6のいずれか1項に記載の表示制御装置。
(付記8)
前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示サイズ及び前記第2の資料の表示位置のうち少なくともいずれか一方を変更する
付記1乃至6のいずれか1項に記載の表示制御装置。
(付記9)
前記第2の資料は前記プレゼンテーション資料である
付記1乃至8のいずれか1項に記載の表示制御装置。
(付記10)
前記第2の資料は前記プレゼンテーション資料とは異なる資料である
付記1乃至8のいずれか1項に記載の表示制御装置。
(付記11)
表示制御装置と、
前記表示制御装置の制御に従って仮想現実空間を提示するディスプレイと、
を備え、
前記表示制御装置は、
発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示するよう制御する第1の表示制御手段と、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示するよう制御する第2の表示制御手段と、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報を取得する操作入力情報取得手段と、
前記第1の表示制御手段及び前記第2の表示制御手段による制御にしたがった映像を出力する映像出力手段と
を有し、
前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更し、
前記ディスプレイは、前記表示制御装置の前記映像出力手段が出力した前記映像を前記視聴者に対し表示する
プレゼンテーションシステム。
(付記12)
前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示対象のページを変更する
付記11に記載のプレゼンテーションシステム。
(付記13)
発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示し、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示し、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更する
表示制御方法。
(付記14)
発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示するよう制御する第1の表示制御ステップと、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示するよう制御する第2の表示制御ステップと、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報を取得する操作入力情報取得ステップと
をコンピュータに実行させ、
前記第2の表示制御ステップでは、前記第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更する
プログラムが格納された非一時的なコンピュータ可読媒体。
2 第1の表示制御部
3 第2の表示制御部
4 操作入力情報取得部
10 プレゼンテーションシステム
100 表示制御装置
101 空間表示制御部
102 資料記憶部
103 表示状態記憶部
104 操作入力情報取得部
105 表示内容取得部
106 発表者用資料表示制御部
107 参照資料表示制御部
108 映像出力部
120 表示制御装置
121 参照資料解説表示制御部
130 表示制御装置
131 コメント制御部
132 コメント記憶部
150 ネットワークインタフェース
151 メモリ
152 プロセッサ
200 ヘッドマウントディスプレイ
300 端末装置
400 表示装置
500 発表者
510 視聴者
520 視聴者
Claims (14)
- 発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示するよう制御する第1の表示制御手段と、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示するよう制御する第2の表示制御手段と、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報を取得する操作入力情報取得手段と
を有し、
前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更する
表示制御装置。 - 前記操作入力情報取得手段は、さらに、前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の内容における解説対象を指定する操作入力情報である第2の操作入力情報を取得し、
前記第2の表示制御手段は、前記第2の操作入力情報に基づいて、前記解説対象について解説する情報である解説情報を、前記仮想現実空間内にさらに表示する
請求項1に記載の表示制御装置。 - 前記操作入力情報取得手段は、さらに、前記仮想現実空間を体験する視聴者により入力された、解説レベルを指定する操作入力情報である第3の操作入力情報を取得し、
前記第2の表示制御手段は、前記第3の操作入力情報に応じたレベルの解説情報の表示に切替える
請求項2に記載の表示制御装置。 - 前記操作入力情報取得手段は、さらに、前記仮想現実空間を体験する視聴者により入力された、前記第1の資料又は前記第2の資料に対するコメントについての操作入力情報である第4の操作入力情報を取得し、
前記第4の操作入力情報は、資料中におけるコメント対象の位置と、コメント内容とを含み、
前記表示制御装置は、さらに、前記コメント対象の位置と、前記コメント内容とを関連づけて管理するコメント制御手段を有する
請求項1乃至3のいずれか1項に記載の表示制御装置。 - 前記コメント制御手段は、前記第1の資料又は前記第2の資料の前記仮想現実空間内での表示の際に、前記第1の資料又は前記第2の資料における前記コメント対象の位置に関連づけて前記コメント内容を前記仮想現実空間内で表示するよう制御する
請求項4に記載の表示制御装置。 - 前記第4の操作入力情報は、さらに、コメントの入力を行なった視聴者を識別する識別情報を含み、
前記コメント制御手段は、前記識別情報と、前記コメント対象の位置と、前記コメント内容とを関連づけて管理し、前記第1の資料又は前記第2の資料の前記仮想現実空間内での表示の際に前記コメント内容を表示するか否かを当該コメント内容に関連づけられている前記識別情報に基づいて制御する
請求項5に記載の表示制御装置。 - 前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示対象のページを変更する
請求項1乃至6のいずれか1項に記載の表示制御装置。 - 前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示サイズ及び前記第2の資料の表示位置のうち少なくともいずれか一方を変更する
請求項1乃至6のいずれか1項に記載の表示制御装置。 - 前記第2の資料は前記プレゼンテーション資料である
請求項1乃至8のいずれか1項に記載の表示制御装置。 - 前記第2の資料は前記プレゼンテーション資料とは異なる資料である
請求項1乃至8のいずれか1項に記載の表示制御装置。 - 表示制御装置と、
前記表示制御装置の制御に従って仮想現実空間を提示するディスプレイと、
を備え、
前記表示制御装置は、
発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示するよう制御する第1の表示制御手段と、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示するよう制御する第2の表示制御手段と、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報を取得する操作入力情報取得手段と、
前記第1の表示制御手段及び前記第2の表示制御手段による制御にしたがった映像を出力する映像出力手段と
を有し、
前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更し、
前記ディスプレイは、前記表示制御装置の前記映像出力手段が出力した前記映像を前記視聴者に対し表示する
プレゼンテーションシステム。 - 前記第2の表示制御手段は、前記第1の操作入力情報に基づいて、前記第2の資料の表示対象のページを変更する
請求項11に記載のプレゼンテーションシステム。 - 発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示し、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示し、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更する
表示制御方法。 - 発表者が発表の際に用いるプレゼンテーション資料である第1の資料のうち現実空間に表示中のページを、仮想現実空間内の第1の位置に表示するよう制御する第1の表示制御ステップと、
第2の資料を前記仮想現実空間内の前記第1の位置とは異なる第2の位置に表示するよう制御する第2の表示制御ステップと、
前記仮想現実空間を体験する視聴者により入力された、前記第2の資料の表示についての操作入力情報である第1の操作入力情報を取得する操作入力情報取得ステップと
をコンピュータに実行させ、
前記第2の表示制御ステップでは、前記第1の操作入力情報に基づいて、前記第2の資料の表示態様を変更する
プログラムが格納された非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018208811 | 2018-11-06 | ||
JP2018208811 | 2018-11-06 | ||
PCT/JP2019/042535 WO2020095784A1 (ja) | 2018-11-06 | 2019-10-30 | 表示制御装置、表示制御方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020095784A1 true JPWO2020095784A1 (ja) | 2021-10-07 |
JP7226836B2 JP7226836B2 (ja) | 2023-02-21 |
Family
ID=70611873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020555999A Active JP7226836B2 (ja) | 2018-11-06 | 2019-10-30 | 表示制御装置、プレゼンテーションシステム、表示制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11906741B2 (ja) |
JP (1) | JP7226836B2 (ja) |
WO (1) | WO2020095784A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023167212A1 (ja) * | 2022-03-01 | 2023-09-07 | 株式会社KPMG Ignition Tokyo | コンピュータプログラム、情報処理方法及び情報処理装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009169714A (ja) * | 2008-01-17 | 2009-07-30 | Brother Ind Ltd | 電子マニュアル表示装置および電子マニュアル表示プログラム |
JP2010073219A (ja) * | 2009-12-25 | 2010-04-02 | Seiko Epson Corp | 表示制御システム、機器管理装置、表示機器、機器管理プログラムおよび表示制御プログラム、並びに表示制御方法 |
JP2011018312A (ja) * | 2009-02-20 | 2011-01-27 | Fuji Xerox Co Ltd | 聴講者がプレゼンテ−ションコンテンツにアクセスできるシステム及び方法 |
JP2011118531A (ja) * | 2009-12-01 | 2011-06-16 | Brother Industries Ltd | ヘッドマウントディスプレイ |
JP2011198007A (ja) * | 2010-03-19 | 2011-10-06 | Konica Minolta Business Technologies Inc | プレゼンテーションシステム、管理装置およびプログラム |
JP2017102516A (ja) * | 2015-11-30 | 2017-06-08 | セイコーエプソン株式会社 | 表示装置、通信システム、表示装置の制御方法、及び、プログラム |
JP2017188126A (ja) * | 2017-05-11 | 2017-10-12 | 株式会社リコー | 情報処理システム、情報登録方法、会議装置及びプログラム |
JP2018067160A (ja) * | 2016-10-20 | 2018-04-26 | セイコーエプソン株式会社 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US9812096B2 (en) * | 2008-01-23 | 2017-11-07 | Spy Eye, Llc | Eye mounted displays and systems using eye mounted displays |
US8786675B2 (en) * | 2008-01-23 | 2014-07-22 | Michael F. Deering | Systems using eye mounted displays |
US9217867B2 (en) * | 2011-03-24 | 2015-12-22 | Seiko Epson Corporation | Head-mounted display device and control method for the head-mounted display device |
TWI533198B (zh) * | 2011-07-22 | 2016-05-11 | 社交通訊公司 | 於虛擬區域及實體空間之間通訊的技術 |
JP5949319B2 (ja) * | 2012-08-21 | 2016-07-06 | 富士通株式会社 | 視線検出装置及び視線検出方法 |
US9123142B2 (en) * | 2012-10-02 | 2015-09-01 | At&T Intellectual Property I, L.P. | Adjusting content display orientation on a screen based on user orientation |
KR102098277B1 (ko) * | 2013-06-11 | 2020-04-07 | 삼성전자주식회사 | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |
US9498704B1 (en) * | 2013-09-23 | 2016-11-22 | Cignition, Inc. | Method and system for learning and cognitive training in a virtual environment |
KR102229890B1 (ko) * | 2014-05-30 | 2021-03-19 | 삼성전자주식회사 | 데이터 처리 방법 및 그 전자 장치 |
JP6339887B2 (ja) | 2014-07-24 | 2018-06-06 | シャープ株式会社 | 画像表示装置 |
US9804669B2 (en) * | 2014-11-07 | 2017-10-31 | Eye Labs, Inc. | High resolution perception of content in a wide field of view of a head-mounted display |
JP6459421B2 (ja) * | 2014-11-17 | 2019-01-30 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
KR101655818B1 (ko) * | 2014-12-11 | 2016-09-08 | 현대자동차주식회사 | 웨어러블 글래스, 그 제어 방법 및 차량 제어 시스템 |
JP6387825B2 (ja) * | 2014-12-26 | 2018-09-12 | セイコーエプソン株式会社 | 表示システム、及び、情報表示方法 |
JP6380091B2 (ja) * | 2014-12-26 | 2018-08-29 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
US9721566B2 (en) * | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10281976B2 (en) * | 2015-07-07 | 2019-05-07 | Seiko Epson Corporation | Display device, control method for display device, and computer program |
US9990044B2 (en) * | 2015-10-30 | 2018-06-05 | Intel Corporation | Gaze tracking system |
US11226712B2 (en) * | 2016-03-24 | 2022-01-18 | Sony Corporation | Information processing device and information processing method |
US20170289533A1 (en) | 2016-03-30 | 2017-10-05 | Seiko Epson Corporation | Head mounted display, control method thereof, and computer program |
US10275023B2 (en) * | 2016-05-05 | 2019-04-30 | Google Llc | Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality |
US20180096507A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US20180095636A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US20180095635A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US20180096505A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US10057269B1 (en) * | 2017-04-21 | 2018-08-21 | InfoSci, LLC | Systems and methods for device verification and authentication |
US10769438B2 (en) * | 2017-05-23 | 2020-09-08 | Samsung Electronics Company, Ltd. | Augmented reality |
CN111684497A (zh) * | 2018-02-06 | 2020-09-18 | 索尼公司 | 图像处理设备、图像处理方法和图像提供系统 |
JP7042644B2 (ja) * | 2018-02-15 | 2022-03-28 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、画像生成方法およびコンピュータプログラム |
CN112313690A (zh) * | 2018-06-18 | 2021-02-02 | 连普乐士株式会社 | 基于用户反应提供内容的方法、系统及非暂时性计算机可读记录介质 |
WO2020041145A1 (en) * | 2018-08-20 | 2020-02-27 | Hutchinson Shawn | Scheduling, booking, and pricing engines |
US10996915B2 (en) * | 2018-10-31 | 2021-05-04 | Doubleme, Inc. | Surrogate visitor mixed-reality live environment sharing system with remote visitors |
AT522012A1 (de) * | 2018-12-19 | 2020-07-15 | Viewpointsystem Gmbh | Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer |
US10921878B2 (en) * | 2018-12-27 | 2021-02-16 | Facebook, Inc. | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
US11024074B2 (en) * | 2018-12-27 | 2021-06-01 | Facebook Technologies, Llc | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
US20200210137A1 (en) * | 2018-12-27 | 2020-07-02 | Facebook Technologies, Llc | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
JP6720385B1 (ja) * | 2019-02-07 | 2020-07-08 | 株式会社メルカリ | プログラム、情報処理方法、及び情報処理端末 |
US11743064B2 (en) * | 2019-11-04 | 2023-08-29 | Meta Platforms Technologies, Llc | Private collaboration spaces for computing systems |
US20220254125A1 (en) * | 2021-08-13 | 2022-08-11 | Facebook Technologies, Llc | Device Views and Controls |
-
2019
- 2019-10-30 US US17/289,286 patent/US11906741B2/en active Active
- 2019-10-30 WO PCT/JP2019/042535 patent/WO2020095784A1/ja active Application Filing
- 2019-10-30 JP JP2020555999A patent/JP7226836B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009169714A (ja) * | 2008-01-17 | 2009-07-30 | Brother Ind Ltd | 電子マニュアル表示装置および電子マニュアル表示プログラム |
JP2011018312A (ja) * | 2009-02-20 | 2011-01-27 | Fuji Xerox Co Ltd | 聴講者がプレゼンテ−ションコンテンツにアクセスできるシステム及び方法 |
JP2011118531A (ja) * | 2009-12-01 | 2011-06-16 | Brother Industries Ltd | ヘッドマウントディスプレイ |
JP2010073219A (ja) * | 2009-12-25 | 2010-04-02 | Seiko Epson Corp | 表示制御システム、機器管理装置、表示機器、機器管理プログラムおよび表示制御プログラム、並びに表示制御方法 |
JP2011198007A (ja) * | 2010-03-19 | 2011-10-06 | Konica Minolta Business Technologies Inc | プレゼンテーションシステム、管理装置およびプログラム |
JP2017102516A (ja) * | 2015-11-30 | 2017-06-08 | セイコーエプソン株式会社 | 表示装置、通信システム、表示装置の制御方法、及び、プログラム |
JP2018067160A (ja) * | 2016-10-20 | 2018-04-26 | セイコーエプソン株式会社 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
JP2017188126A (ja) * | 2017-05-11 | 2017-10-12 | 株式会社リコー | 情報処理システム、情報登録方法、会議装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210389588A1 (en) | 2021-12-16 |
US11906741B2 (en) | 2024-02-20 |
JP7226836B2 (ja) | 2023-02-21 |
WO2020095784A1 (ja) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220084279A1 (en) | Methods for manipulating objects in an environment | |
US20220283632A1 (en) | Iinformation processing apparatus, image generation method, and computer program | |
CN117032519A (zh) | 用于与三维环境进行交互的设备、方法和图形用户界面 | |
TWI610097B (zh) | 電子系統、可攜式顯示裝置及導引裝置 | |
CN116438505A (zh) | 用于操纵环境中的对象的方法 | |
KR20170126295A (ko) | 헤드 마운티드 디스플레이 장치 및 그것의 제어방법 | |
JP5622510B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
US20190179406A1 (en) | Display device and image display method | |
US20090219303A1 (en) | Method and system for controlling a display | |
KR20180059765A (ko) | 정보 처리 장치, 정보 처리 방법 및 프로그램 | |
JP2018097427A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
EP2717140A1 (en) | Equipment control device, operation reception method, and program | |
JP2014203175A (ja) | 情報処理装置、情報処理方法及びプログラム。 | |
US20160026244A1 (en) | Gui device | |
KR20160118568A (ko) | Hmd가 구비된 단말의 정보 제공 서비스 방법 및 장치 | |
JP7226836B2 (ja) | 表示制御装置、プレゼンテーションシステム、表示制御方法、及びプログラム | |
US11386612B2 (en) | Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation | |
JP2021099816A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
KR101709529B1 (ko) | 휴대 단말을 이용한 영상 화면 제어 방법 및 장치 | |
JP2024512040A (ja) | マップのためのデバイス、方法、及びグラフィカルユーザインタフェース | |
JP2018097847A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
Gacem et al. | Finding objects faster in dense environments using a projection augmented robotic arm | |
JP6193180B2 (ja) | プレゼンテーション用端末及びプレゼンテーション方法 | |
JP2014222446A (ja) | 映像出力装置、映像出力方法、及びプログラム | |
JP2015069445A (ja) | 映像出力装置、映像出力方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210422 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220812 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221130 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221207 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7226836 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |