JP2023079161A - 表示制御装置、表示制御方法、及びプログラム - Google Patents
表示制御装置、表示制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2023079161A JP2023079161A JP2022140011A JP2022140011A JP2023079161A JP 2023079161 A JP2023079161 A JP 2023079161A JP 2022140011 A JP2022140011 A JP 2022140011A JP 2022140011 A JP2022140011 A JP 2022140011A JP 2023079161 A JP2023079161 A JP 2023079161A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- user
- display control
- control device
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000009467 reduction Effects 0.000 claims description 7
- 230000001629 suppression Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 35
- 210000003811 finger Anatomy 0.000 description 26
- 238000005516 engineering process Methods 0.000 description 19
- 230000009471 action Effects 0.000 description 15
- 210000003128 head Anatomy 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000007423 decrease Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 210000004247 hand Anatomy 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000011435 rock Substances 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 230000015541 sensory perception of touch Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 206010052428 Wound Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】高品質な視聴体験を提供することが可能な表示制御装置、表示制御方法、及びプログラムを提供すること。【解決手段】上記目的を達成するため、本技術の一形態に係る表示制御装置は、制御部を具備する。前記制御部は、ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御する。これにより、高品質な視聴体験を提供することが可能となる。また操作対象である仮想物体に近づいて操作を行う際に、操作部位の透明度が制御されることで操作対象が詳細に確認できるようになり、操作時間や操作ミスを減らすことができる。また操作部位と操作対象との距離に基づいて、表示形式の制御が行われることで、操作対象との距離感を正確に把握することができる。【選択図】図1
Description
本技術は、VR(Virtual Reality)やAR(Augmented Reality)等の表示制御に適用可能な表示制御装置、表示制御方法、及びプログラムに関する。
特許文献1に記載の表示システムは、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との関係に基づいて仮想対象オブジェクトを特定し、仮想対象オブジェクトの画像を変化させる(特許文献1の段落[0045]~[0061]図5、6等)。
このように、仮想空間における表示制御に関して、高品質な視聴体験を提供することが可能な技術が求められている。
以上のような事情に鑑み、本技術の目的は、高品質な視聴体験を提供することが可能な表示制御装置、表示制御方法、及びプログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る表示制御装置は、制御部を具備する。
前記制御部は、ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御する。
前記制御部は、ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御する。
この表示制御装置では、ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式が制御される。これにより、高品質な視聴体験を提供することが可能となる。
前記表示形式は、前記操作部位の透明度、輝度、拡大、縮小、強調表示、又は仮想オブジェクトの重畳の少なくとも1つを含んでもよい。
前記制御部は、前記操作部位と前記仮想物体との距離に基づいて、前記操作部位の少なくとも一部の透明度を高くしてもよい。
前記制御部は、前記仮想物体に接触している状態における前記操作部位の速度に基づいて、前記操作部位の少なくとも一部の透明度を高くしてもよい。
前記制御部は、前記操作部位の大きさに基づいて、前記操作部位の少なくとも一部の透明度を高くしてもよい。
前記操作部位は、前記ユーザの特徴を示す特徴情報を含んでもよい。この場合、前記制御部は、前記特徴情報以外の前記操作部位の少なくとも一部の透明度を高くしてもよい。
前記制御部は、前記操作部位と前記仮想物体との距離に基づいて、前記操作部位の少なくとも一部の透明度を高くし、前記操作部位の透明度の高い部位の輪郭を強調表示してもよい。
前記制御部は、前記操作部位と前記仮想物体との接触位置を強調表示し、前記接触位置以外の前記操作部位の少なくとも一部の透明度を高くしてもよい。
前記表示制御装置であって、さらに、前記操作部位によって実行される所定の操作に基づいて、前記表示形式の制御を抑制する抑制部を具備してもよい。
前記表示制御装置であって、さらに、前記ユーザの視点、前記操作部位の位置、及び前記仮想物体の位置に基づいて、前記ユーザが前記仮想物体を視認可能か否かを判定する第1の判定部を具備してもよい。
前記第1の判定部は、前記操作部位が前記仮想物体に接触し、前記操作部位が前記ユーザの視点と前記仮想物体との間に位置する場合、前記仮想物体を視認不可と判定してもよい。
前記表示制御装置であって、さらに、前記ユーザの視点、前記操作部位の位置、前記操作部位により操作される対象仮想物体の位置、及び前記対象仮想物体以外の他の仮想物体の位置に基づいて、前記他の仮想物体の少なくとも一部の表示形式を制御する表示制御部を具備してもよい。
前記表示形式は、前記他の仮想物体の透明度を含んでもよい。
前記表示制御装置であって、さらに、前記ユーザの視点、前記操作部位の位置、前記対象仮想物体の位置、及び前記他の仮想物体の位置に基づいて、前記ユーザが前記操作部位と前記対象仮想物体との接触位置を視認可能か否かを判定する第2の判定部を具備してもよい。
本技術の一形態に係る表示制御方法は、コンピュータシステムが実行する表示制御方法であって、ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御することを含む。
本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御するステップ。
ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御するステップ。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
図1は、本技術に係る表示制御装置10の概要を模式的に示す図である。
表示制御装置10は、仮想空間5におけるユーザ1の操作部位2の表示形式を制御する。本実施形態では、表示制御装置10には、VRヘッドセット等のHMD(Head Mounted Display)30、コントローラ31、及びセンサ部(図示せず)が用いられる。もちろん光学シースルー型ARやビデオシースルー型AR等が用いられてもよい。
例えば、HMD30は、ユーザ1に仮想物体3(仮想空間5)及び操作部位2を視聴させ、またユーザ1の姿勢や眼の位置、視線等を検出できる各種センサを有する。また例えば、コントローラ31は、操作部位2の操作に用いられ、ユーザ1の操作による加速度及び角速度等を検出する慣性計測装置(IMU)等を有する。
ユーザ1は、操作部位2を介して、仮想空間5に配置される仮想物体3を操作することが可能である。操作部位2とは、ユーザ1により操作され、仮想物体3に対して所定の動作を実行可能なものを指す。
例えば、図1のようなVRにおけるハンドトラッキング機能で得られる仮想空間5上の手、ユーザ1により把持されるコントローラ31や、ARにおける仮想空間上のユーザ1自身の手が操作部位2として挙げられる。
これ以外にも、仮想空間5上の手(操作部位)が鉛筆やスコップ等の所定の動作に適した形状で表示(重畳)されてもよいし、コントローラ31や別のオブジェクトが表示されてもよい。また例えば、ユーザ1の足の動きがトラッキングされることで仮想物体3を蹴る等の動作が可能な場合、足が操作部位に含まれてもよい。
なお、ユーザ1が鉛筆等の仮想物体を把持し別の仮想物体に書き込む場合、仮想物体である鉛筆も操作部位に含まれてもよい。すなわち、ユーザ1が仮想物体を介して間接的に仮想物体を操作する場合もユーザ1が直接操作する仮想物体が操作部位に含まれてもよい。
本実施形態では、表示制御装置10は、ユーザ1の視点、操作部位2の位置、及び仮想物体3の位置に基づいて、操作部位2の少なくとも一部の表示形式を制御する。表示形式は、透明度、輝度、拡大、縮小、強調表示、又は仮想オブジェクトの重畳の少なくとも1つを含む。
例えば、図1では、ユーザ1の視点と、操作部位2(右手)と、操作部位2により操作される仮想物体6(以下、対象仮想物体と記載)との位置関係から、ユーザ1から見て対象仮想物体6の一部が視認できない状態である。この場合、表示制御装置10は、操作部位2の透明度を高くする。表示形式の制御例は、図3から図10にて後述する。
図2は、図1に示す表示制御装置10の構成例を示すブロック図である。図2Aは、表示制御装置10のハードウェア構成例を示すブロック図である。図2Bは、表示制御装置10の機能的な構成例を示すブロック図である。
図2Aに示すように、表示制御装置10は、CPU11、メモリ12、及び入出力I/F13を有する。
入出力I/F13は、センサ部40から取得されるユーザ1に関する種々の情報、及びコントローラ31に関する操作情報を受信し、HMD30やコントローラ31に映像、音、及び触覚を出力する。
HMD30は、ユーザが仮想現実を体験するための種々の機能が搭載されてもよい。例えば、HMD30は、液晶、EL(Electro-Luminescence)等を用いた任意のディスプレイ(映像表示部50)、ユーザの左右の耳を覆うように配置されるヘッドフォン(音提示部51)、ユーザ1の前方側の実空間を撮像することが可能なステレオカメラ等が搭載されてもよい。
コントローラ31は、ユーザ1の手の動き(移動や回転)、ボタンの操作等の操作情報を入出力I/F13へ出力する。またコントローラ31は、アクチュエータ等を有し、ユーザ1に触覚を提示する触覚提示部52として機能する。
センサ部40は、ユーザの手や指の位置、ユーザの視線、傾き等を認識する。本実施形態では図2Bに示すように、センサ部40は、RGBカメラやDepthカメラ等を含むカメラ41、ジャイロセンサ42、加速度センサ43、及び方位センサ44を有する。なお、センサ部40は、HMD30やコントローラ31に搭載されてもよいし、ユーザ1の体や、壁及びポール等の周辺環境に各種センサが取り付けられ、センサ部40として機能してもよい。また各種センサは、単数でもよいし複数でもよい。
また図2Bに示すように、表示制御装置10は、情報取得部14、操作部位姿勢判定部15、頭部位置姿勢判定部16、仮想物体制御部17、表示変更判定部18、表示変更部19、及び出力制御部20を有する。
情報取得部14は、センサ部40から取得されるユーザに関する種々の情報、及びコントローラ31に関する操作情報を取得する。
操作部位姿勢判定部15は、操作部位の姿勢を判定する。例えば、Depthセンサ等により取得されたセンサ情報からユーザの各指のボーンの位置が取得され、手や指の位置姿勢情報が判定される。なお、操作部位の姿勢を判定する方法は限定されず、コントローラ31に搭載された接触センサから判定されてもよい。
頭部位置姿勢判定部16は、ユーザの頭部の位置を判定する。例えば、カメラ41を用いたヴィジュアルSLAM(Simultaneous Localization and Mapping)等により取得されたセンサ情報からユーザの頭部の位置が取得され、頭部の位置姿勢情報が判定される。
仮想物体制御部17は、仮想物体の制御を行う。例えば、仮想物体制御部17は、仮想物体の位置や姿勢を制御する。これ以外にも、操作部位によって仮想物体が移動、配置、及び除去等の操作が行われた場合の制御、仮想物体の拡大及び縮小、木から花が散る等の動き情報を含む仮想物体の制御、光源に対する影の描写等の種々の制御が行われてもよい。
表示変更判定部18は、ユーザの頭部、操作部位、及び仮想物体の位置姿勢情報から操作部位や仮想物体の表示を変更するか否かを判定する。本実施形態では、表示変更判定部18は、ユーザの視点、操作部位の位置、及び仮想物体の位置に基づいて、ユーザが仮想物体を視認可能か否かを判定する。
また表示変更判定部18は、ユーザの視点、操作部位の位置、対象仮想物体の位置、及び対象仮想物体以外の他の仮想物体の位置に基づいて、ユーザが操作部位と対象仮想物体との接触位置を視認可能か否かを判定する。
なお、視認可能とは、ユーザにとって仮想物体や接触位置が見やすい状態である。もちろん、仮想物体や接触位置が完全に見えている場合は視認可能と扱われる。逆に、操作部位や他の仮想物体によって、仮想物体や接触位置が完全に隠れている場合は視認不可となる。仮想物体や接触位置の一部が隠れている場合に、視認可能か否かは任意に設定されてもよい。例えば、ユーザから見て仮想物体や接触位置の50%が隠れている場合、視認不可と判定されてもよい。
本実施形態では、表示変更判定部18は、操作部位や他の仮想物体がユーザの視点と仮想物体との間に位置する場合、すなわちユーザの視線上に操作部位や他の仮想物体が位置する場合、視認不可と判定する。また本実施形態では、表示変更判定部18は、ユーザの視線上で操作部位と仮想物体とが接触している場合、視認不可と判定する。例えば、ユーザが仮想物体の表面を見ている場合に、操作部位が仮想物体の裏面と接触した場合は、視認可能と判定される。
表示変更部19は、ユーザの視点、操作部位の位置、及び仮想物体の位置に基づいて、操作部位の少なくとも一部の表示形式を制御する。本実施形態では、表示変更判定部18による判定結果に基づいて、操作部位の少なくとも一部の表示形式を制御する。
また表示変更部19は、操作部位によって実行される所定の操作に基づいて、表示形式の制御を抑制する。例えば、操作部位を素早く移動させる動作をn回行った場合、表示形式の制御が抑制される。また例えば、中指と小指とを同時に立てる等の所定のハンドサインを行った場合に、表示形式の制御が抑制されてもよい。
また表示変更部19は、ユーザの視点、操作部位の位置、対象仮想物体の位置、及び対象仮想物体以外の他の仮想物体の位置に基づいて、他の仮想物体の少なくとも一部の表示形式を制御する。本実施形態では、表示変更判定部18による判定結果に基づいて、他の仮想物体の少なくとも一部の表示形式を制御する。
出力制御部20は、仮想空間、仮想物体やコントローラから生じる、映像、音、及び触覚等の出力を制御する。例えば、操作部位が仮想物体に接触した際の衝撃を表現する触覚信号が触覚提示部52に出力される。また例えば、ユーザから遠い仮想物体同士が衝突した際の音信号がユーザとの距離に基づいて、音提示部51に出力される。また上記の例の映像信号が映像表示部50に出力される。
なお、本実施形態において、表示変更判定部18は、ユーザの視点、操作部位の位置、及び仮想物体の位置に基づいて、ユーザが仮想物体を視認可能か否かを判定する第1の判定部、及びユーザの視点、操作部位の位置、対象仮想物体の位置、及び他の仮想物体の位置に基づいて、ユーザが操作部位と対象仮想物体との接触位置を視認可能か否かを判定する第2の判定部として機能する。
なお、本実施形態において、表示変更部19は、ユーザの視点、ユーザの操作部位の位置、及び仮想物体の位置に基づいて、操作部位の少なくとも一部の表示形式を制御する制御部、操作部位によって実行される所定の操作に基づいて、表示形式の制御を抑制する抑制部、及びユーザの視点、操作部位の位置、操作部位により操作される対象仮想物体の位置、及び対象仮想物体以外の他の仮想物体の位置に基づいて、他の仮想物体の少なくとも一部の表示形式を制御する表示制御部として機能する。
なお、本実施形態において、表示変更部19は、ユーザの視点、ユーザの操作部位の位置、及び仮想物体の位置に基づいて、操作部位の少なくとも一部の表示形式を制御する制御部、操作部位によって実行される所定の操作に基づいて、表示形式の制御を抑制する抑制部、及びユーザの視点、操作部位の位置、操作部位により操作される対象仮想物体の位置、及び対象仮想物体以外の他の仮想物体の位置に基づいて、他の仮想物体の少なくとも一部の表示形式を制御する表示制御部として機能する。
図3は、表示形式の制御例を示す模式図である。なお、図3から図10では、対象仮想物体以外の他の仮想物体が図示されていない場合、対象仮想物体を仮想物体と記載する。
表示形式が制御されるフローとしては、情報取得部14により、ユーザの視点、操作部位(コントローラ)の位置、及び仮想物体の位置が取得される。表示変更判定部18により、取得された視点、操作部位、及び仮想物体の位置関係に基づいて、表示形式を変更するか否かが判定される。判定結果がYESの場合、表示変更部19により、操作部位や他の仮想物体の表示形式が変更される。
図3Aに示すように、表示変更部19は、操作部位60と仮想物体61との距離に基づいて、操作部位60の透明度を高くする。図3Aでは、操作部位60と仮想物体61との距離が近づくにつれ、操作部位60の透明度が高くなる。
図3Bに示すように、表示変更部19は、操作部位62がユーザ1の目線63上に位置する場合に、操作部位62の透明度を高くする。また図3Bでも、操作部位62と仮想物体64との距離に基づいて、操作部位62の透明度が制御されてもよい。この場合、操作部位62と仮想物体64との距離に応じた透明度の制御と、操作部位62がユーザ1の視点と仮想物体64との間に位置する場合の透明度の制御との重み付けは任意に設定されてもよい。
例えば、操作部位62と仮想物体64とが近づくにつれ、操作部位62の透明度が50%に近づくという設定と、操作部位62がユーザ1の視点と仮想物体64との間に位置する場合に操作部位62の透明度を90%にするという設定とが設定されてもよい。
なお、ユーザの目線を取得する方法は限定されない。例えば、アイトラッキングにより取得されてもよいし、頭部から垂直方向にレイを伸ばすことで取得されてもよい。
図3Cでは、表示変更部19は、操作部位の大きさ(太さ)に基づいて、操作部位の透明度を高くする。図3Cに示すように、操作部位65が大きいほど、透明度が高くなる。すなわち、操作部位65により仮想物体66がどれだけ隠れているか(視認しやすさ)の程度に基づいて、表示形式の制御が行われるともいえる。
図4は、表示形式の制御例を示す模式図である。
図4Aでは、操作部位70は、ユーザの特徴を示す特徴情報を含む。例えば、特徴情報は、指輪等のアクセサリー、ネイル、タトゥー、包帯等の医療品、及び傷等のユーザに付随する情報や、仮想空間上で手等の操作部位に重畳される仮想オブジェクト(レイヤー)を含む。
図4Aに示すように、表示変更部19は、特徴情報である指輪71以外の操作部位70の透明度を高くする。これにより、ユーザ(操作者)のシンボルとなるアイテムを残すことが可能となり、ユーザの手を操作している感覚が損なわれることを防ぐ。
図4Bでは、操作部位72は、鉛筆を模した形状をしており、表示形式の制御として輝度が制御される。例えば表示変更部19は、操作部位72と仮想物体73との距離に基づいて、操作部位72の輝度を制御する。図4Bに示すように、操作部位72は、仮想物体73に近づくにつれ、輝度が高くなる。
なお、表示形式の制御は任意に設定されてもよい。例えば、操作部位と仮想物体とが接触している状態における操作部位の速度に基づいて、操作部位の表示形式が制御されてもよい。例えば、操作部位が速く動く場合、ユーザが動作(仮想物体の接触位置)を細かく確認していない状況が想定されるため透明度が低くなってもよい。また例えば、操作部位がゆっくりと動く場合、ユーザが動作を細かく確認したい状況が想定されるため透明度が高くなってもよい。
図5は、表示形式の制御例を示す模式図である。図5では、操作部位の一部の表示形式が制御される。例えば、操作部位である手全体でなく、仮想物体を操作しようとする指(例えば人差し指)のみの表示形式が制御される。この場合、センサ部40により人差し指を出しているジェスチャが認識されてもよい。また例えば、人差し指が他の指と比べて、仮想物体に対して最も近い場合に人差し指が操作部位(表示形式の制御対象)として選択されてもよい。
図5Aに示すように、表示変更部19は、操作部位80と仮想物体81との距離に基づいて、操作部位80の少なくとも一部の透明度を高くする。図5Aでは、ユーザの視点から見て、仮想物体と重なっている人差し指82の透明度が高くなる。
図5Bでは、表示変更部19は、操作部位83と仮想物体84との距離に基づいて、操作部位83の少なくとも一部の透明度を高くし、操作部位83の透明度の高い部位の輪郭を強調表示する。例えば図5Bに示すように、表示変更部19は、操作部位83と仮想物体84との距離が近づくにつれ、人差し指の透明度を高くする。また表示変更部19は、透明度の高い人差し指の輪郭85を強調表示する。
なお輪郭の強調表示の制御方法は限定されない。例えば、輪郭が点滅してもよいし、色彩が変化してもよい。また操作部位の透明度に応じて輪郭の透明度が制御されてもよい。例えば、操作部位の透明度が高くなるにつれ、輪郭の透明度が低く制御されてもよい。
図5Cでは、表示変更部19は、操作部位86と仮想物体87との接触位置88を強調表示し、強調表示された接触位置88以外の操作部位86の少なくとも一部の透明度を高くする。例えば図5Cに示すように、操作部位86が仮想物体87に接触した場合、その接触位置を強調表示する。なお、接触位置の強調表示は限定されず、点滅、色彩、模様等の任意の強調表示が設定されてもよい。
また操作部位と仮想物体との距離以外にも、操作部位の大きさ(太さ)、速度等に基づいて、表示形式が制御されてもよい。また操作部位や接触位置の大きさに基づいて強調表示の度合いが変化してもよい。これにより、接触した面が理解でき、操作しやすくなる。
図6は、表示形式の制御例を示す模式図である。
図6では、表示変更部19は、操作部位90と仮想物体91との距離に基づいて、操作部位90の少なくとも一部の輝度を制御する。例えば図6Aでは、操作部位90と仮想物体91との距離が近づくにつれ、輝度の高い領域92が大きくなる。
図6Bでは、操作部位である手93と仮想物体94との距離が所定の距離以内に近づいた場合に、その所定の距離以内に位置する人差し指95及び中指96の輝度が高くなる。また図6Bでは、操作部位93と仮想物体94との距離が近づくにつれ、輝度が高くなる。例えば図6Bに示すように、仮想物体94に対して手93が近づく場合、手93の各部位と仮想物体94との距離に基づいて、輝度の高さ、輝度の高い領域が制御される。
なお、輝度以外にも、色彩の変化や模様の重畳等の制御が行われてもよい。また輝度の高い領域の輪郭が強調表示されてもよい。これにより、操作部位が仮想物体にどれだけ近づいているか、直観的に理解できるようになる。
図7は、表示形式の制御例を示す模式図である。
図7では、表示変更部19は、操作部位と仮想物体との距離に基づいて、操作部位の少なくとも一部の拡縮率を制御する。
図7Aでは、表示変更部19は、操作部位である手100と仮想部位101との距離が近づくにつれ、指102の拡大率が大きくなる。また図7Bでは、表示変更部19は、操作部位である手103と仮想部位104との距離が近づくにつれ、指105の縮小率が大きくなる。
これにより、拡大率が大きい場合、操作部位が大きいことで作業効率が向上する。また縮小率が大きい場合、細かい作業を行うことが可能となる。
なお、表示形式が制御されている場合、「表示変更中」等の表示形式が制御されている旨をユーザに提示するメッセージ等が表示されてもよい。
図8は、他の仮想物体の表示形式の制御例を示す模式図である。
図8Aに示すように、表示変更判定部18は、ユーザの視点からでは他の仮想物体110により、操作部位111と対象仮想物体112との接触位置が視認不可と判定する。この場合、表示変更部19は、他の仮想物体110の少なくとも一部の表示形式を制御する。本実施形態では、表示変更部19は、他の仮想物体110の透明度を制御する。
例えば図8Bでは、ユーザの視線上に位置する他の仮想物体110の一部113の透明度が高くなる。なお図8におけるユーザの視線は、接触位置114とユーザの視点とを結ぶ直線である。
また図8Cに示すように、他の仮想物体110の透明度が高くなった箇所113の輪郭が強調表示されてもよい。なお他の仮想物体110の全体の透明度が一律に高くなってもよいし、ユーザの視線との距離に基づいて透明度が制御されてもよい。
これ以外にも、操作部位111の速度に基づいて、他の仮想物体110の表示形式が制御されてもよい。例えば、操作部位が速く動く場合、ユーザが対象仮想物体の接触位置を細かく確認していない状況が想定されるため透明度が低くなってもよい。また例えば、操作部位がゆっくりと動く場合、ユーザが動作を細かく確認したい状況が想定されるため透明度が高くなってもよい。
なお、対象仮想物体がL字や円筒形等の形状によっては、1つの対象仮想物体であっても接触位置が視認不可となる可能性がある。この場合、対象仮想物体の一部の透明度が高くなってもよい。すなわち、対象仮想物体の一部を他の仮想物体として扱ってもよい。
例えば、図8Dに示すように、仮想物体制御部17により、対象仮想物体115が細分化されてもよい。細分化された対象仮想物体115の内、ユーザの視点と接触位置116とを結ぶユーザの視線117から所定の距離以内に位置するブロック118の透明度が高くなってもよい。
これ以外にも、複数のブロックの透明度が制御されてもよいし、ユーザ側の円筒半分の透明度が制御されてもよい。なお仮想物体は予め細分化されて仮想空間に配置されてもよいし、表示変更判定部18により図8Dのような状況と判定された際に細分化されてもよい。
図9及び図10は、操作部位の表示形式の他の制御例を示す模式図である。
図9では、表示変更部19は、対象仮想物体に付与された情報に基づいて、操作部位の表示を制御する。例えば、対象仮想物体にメタ情報として変化する3Dモデルが登録され、操作部位がその3Dモデルに変化されてもよい。
例えば図9Aでは、ユーザは操作部位120を用いて、土という属性情報が付与された対象仮想物体121を掘る動作を行う例が図示される。図9Aに示すように、表示変更部19は、操作部位120と対象仮想物体121との距離に基づいて、操作部位120を徐々にスコップ122に変化させるように制御する。
また図9Bに示すように、対象仮想物体123に操作を実行する操作部位124の大きさ(太さ)に応じて、表示される3Dモデルの大きさが制御されてもよい。例えば、対象仮想物体123に対して4本の指で操作を実行する場合、指1本を変化させた際のスコップ122よりも大きなスコップ125に変化させるように制御されてもよい。
図10では、表示変更部19は、操作部位の形状に基づいて、操作部位の表示を制御する。例えば、図10に示すように、操作部位である手130が人差し指及び親指でつまむような形状になっている場合に、表示変更部19は、対象仮想物体131と接触した際に手130をロボットアーム132に変化させる。
これ以外にも、対象仮想物体に接触した際に、手が人差し指及び親指でつまむような形状では無い場合は手がスコップに変化し、つまむような形状になった場合にロボットアームに変化してもよい。
また操作部位の速度に基づいて、特定の3Dモデルに変化させるか否かが制御されてもよい。例えば、操作部位である手がゆっくり動いている場合に、手の3Dモデルが変化してもよい。また例えば、操作部位である手が速く動いている場合に、手の3Dモデルの変化が抑制されてもよい。
また対象仮想物体に付与された情報に応じた、所定の動作を実行するための操作部位の形状及びその所定の動作に適した3Dモデルが登録されてもよい。例えば、対象仮想物体である岩に操作部位である手が閉じられた状態で近づくと、岩を破砕するためのハンマーを模した3Dモデルに変化するように制御されてもよい。なお、操作部位が他の3Dモデルに変化している間、操作部位が半透明で表示されてもよい。
すなわち、操作部位のオブジェクト(3Dモデル)を変化させることも表示形式の制御に含まれる。これにより、仮想物体の操作を容易にし、操作ミスを減らす等のユーザビリティの向上が可能となる。
以上、本実施形態に係る表示制御装置10では、ユーザ1の視点、操作部位2の位置、及び仮想物体3の位置に基づいて、操作部位2の少なくとも一部の表示形式が制御される。これにより、高品質な視聴体験を提供することが可能となる。
従来、ARやVRでは操作対象に手を近づけた時に、どのくらい近づいたかのフィードバックが必要となる。また操作対象に手を接触させて細かく操作する場合では、操作対象がコントローラや仮想オブジェクトによって見えない部分が発生する問題があった。
そこで本技術では、ユーザの視点、操作部位の位置、及び仮想物体の位置に基づいて、操作部位や仮想物体の表示形式が制御される。特に操作対象である仮想物体に近づいて操作を行う際に、操作部位の透明度が制御されることで操作対象が詳細に確認できるようになる。これにより、操作時間や操作ミスを減らすことができる。また操作部位と操作対象との距離に基づいて、表示形式の制御が行われることで、操作対象との距離感を正確に把握することができる。
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
上記の実施形態では、表示制御装置10は、HMD30、センサ部40、及びコントローラ31と接続されることで機能した。これに限定されず、HMD30、コントローラ31、及びセンサ部40が独立した構成でもよい。
図11は、表示制御装置の他のハードウェア構成例を示すブロック図である。
図11に示すように、表示側装置140とセンサ側装置150とが通信部141(151)により、センサ情報の送受信をしてもいい。例えば通信部141(151)は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器であってもよい。また通信部141(151)は、有線及び無線のどちらを利用して通信するものであってもよい。
上記の実施形態では、VRヘッドセット等のHMD30が用いられ、仮想空間5内に仮想物体3や操作部位2が表示された。これに限定されず、ビデオシースルー(Video See Through)型により、仮想物体が表示されてもよい。
ビデオシースルーにおいて、仮想物体が表示されている箇所にユーザ1の手やコントローラ等の実物体が存在する場合、必ず仮想物体が実物体の前に表示されてしまい、実物体が見えなくなってしまう。
このような、ビデオシースルーにおける仮想物体と実物体との表示関係を制御する例を図12~図19を用いて説明する。
図12は、表示制御装置160の機能的な構成例を示すブロック図である。
図12に示すように、表示制御装置160は、情報取得部14、操作部位姿勢判定部15、頭部位置姿勢判定部16、仮想物体制御部17、表示変更判定部18、表示変更部19、及び出力制御部20に加え、登録オブジェクト位置情報取得部161と登録オブジェクト切り替え判定部とを有する。
登録オブジェクト位置情報取得部161は、情報取得部14により取得された登録オブジェクトの位置情報を取得する。登録オブジェクトとは、ユーザ1の周囲に存在する実物体のうち登録された物体を指す。例えば、ユーザの手やコントローラ、ディスプレイ、PC(Personal Computer)、キーボード、マウス、コップ、ペン、壁、床、天井、又はライト等を含む。
なお、登録オブジェクトは任意に設定される。例えば、事前に設定されてもよいし、アプリケーション起動中にユーザがノック、タッチ、又はポインティング等の特定の動作により設定されてもよい。また例えば、ユーザが実物体を見ながら首を振る等の特定の動作の組み合わせにより設定されてもよいし、ユーザから1m以内の全ての実物体が登録オブジェクトに設定されてもよい。また例えば、消費のバーコードやQRコード(登録商標)等を事前に読み取り、3Dモデルがロードされてもよい。また上記の方法が登録オブジェクトを解除する方法として用いられてもよい。
登録オブジェクト切り替え判定部162は、ユーザの目(頭部)の位置情報、登録オブジェクトの位置情報、及び仮想オブジェクトの位置情報に基づいて、ユーザの目と仮想オブジェクトの間に登録オブジェクトがあるか否かを判定する。
表示変更部19は、登録オブジェクト切り替え判定部162の判定結果により、登録オブジェクトに仮想オブジェクトの重畳を行う。なお、ここで重畳される仮想オブジェクトは、ユーザの手を模した手の仮想オブジェクトやペン等のユーザが手で持っている物体の仮想オブジェクト等が重畳される。なお、重畳される仮想オブジェクトは大人や子供等のユーザの身長や手(登録オブジェクト)のサイズに応じてサイズが制御されてもよい。
すなわち、操作部位、又は操作部位に付随する実物体に応じた仮想オブジェクトが重畳される。これ以外にも登録オブジェクトがVRコントローラ、6dof(degrees of freedom)認識マウス、6dof認識ペン、6dof認識リングの場合、これらのデバイスに応じた仮想オブジェクトが重畳される。
なお、本実施形態において、登録オブジェクト切り替え判定部162は、ユーザの視点と仮想物体の位置とに基づく所定の領域に登録オブジェクトが含まれるか否かを判定する第3の判定部に相当する。
図13は、登録オブジェクトの表示形式の制御例を示すフローチャートである。図14は、コライダー及び仮想オブジェクトの重畳を模式的に示す図である。
図13に示すように、頭部位置姿勢判定部16によりユーザの目の位置情報が取得され、登録オブジェクト位置情報取得部161により登録オブジェクトの位置情報が取得され、仮想物体制御部17により仮想物体の位置情報が取得される(ステップ101)。
登録オブジェクト切り替え判定部162により、ユーザの目と仮想物体との間に登録オブジェクトが存在するか否かが判定される(ステップ102)。本実施形態では、ユーザと仮想オブジェクトとの間にコライダーが設置され、そのコライダーと登録オブジェクトとが衝突(侵入)したか否かによりステップ102の判定が行われる。以下、コライダーが設置される対象となる仮想オブジェクトを、対象仮想オブジェクトと記載する。
図14Aに示すように、HMDを装着するユーザ1を基準に対象仮想オブジェクト170を覆うようにコライダー171が設置される。例えば、ユーザ1の視点や顔の向き、目線等の位置情報と対象仮想オブジェクト170との位置情報に基づいて、コライダー171が設置される。
コライダーの形状は限定されず、図14Aに示す円柱形状でもよいし、円錐形状、直方体、楕円形等の任意の形状に設定されてもよい。またコライダーのサイズも限定されない。典型的には、対象仮想オブジェクト170の全体を十分に含むことのできるサイズに設定される。しかし、対象仮想オブジェクト170の一部を含むようにサイズが設定されてもよい。例えば、対象仮想オブジェクト170で特に重要な部位が存在する場合、その部位のみを含むようなコライダーが設定されてもよい。
またコライダーの設置される数も限定されない。例えば、対象仮想オブジェクトが2つ以上ある場合、コライダーも対象仮想オブジェクトの数と同数設置されてもよい。また例えば、1つの対象仮想オブジェクトに対して複数のコライダーが設置されてもよい。
設置されたコライダー171に登録オブジェクト172(手)が衝突(含まれた)場合、ユーザの目と仮想物体との間に登録オブジェクトが存在すると判定される(ステップ102のYES)。
表示変更部19により、登録オブジェクトの表示形式が変更される(ステップ103)。図14Bに示すように、登録オブジェクト172である手に仮想オブジェクトが重畳される。図14Bでは、対象仮想オブジェクト170と登録オブジェクト172とが重なっている一部の登録オブジェクト172に対して、仮想オブジェクト173が重畳される。これに限定されず、ステップ102のYESの処理が行われた場合、登録オブジェクト172の全体を仮想オブジェクトが重畳してもよい。
なお、コライダー以外の方法でステップ102の判定が行われてもよい。例えば、図14に示すように、HMD上に表示されるレンダリングされた映像174から、登録オブジェクト172と対象仮想オブジェクト170とが重なった場合に、ユーザの目と仮想物体との間に登録オブジェクトが存在すると判定されてもよい。また例えば、対象仮想オブジェクトなしのレンダリング画像と、対象仮想オブジェクトありのレンダリング画像とが比較され、登録オブジェクトの領域の差分に基づいて判定されてもよい。
図15は、登録オブジェクトに重畳される仮想オブジェクトの具体例を示す図である。
図13で記載したように、本実施形態では、表示変更部19によりコライダー171に登録オブジェクト172が侵入することで登録オブジェクト172に仮想オブジェクト173が重畳される。この場合、典型的には、登録オブジェクトがコライダー内にいる際に重畳される仮想オブジェクトは1種類のみである。例えば、手が登録オブジェクトの場合、手を模した仮想オブジェクトが重畳され続ける。
図15では、1つの対象仮想オブジェクト180に対して、登録オブジェクト181の位置に応じて重畳される仮想オブジェクト182が変更される。図15に示すように、対象仮想オブジェクト180の右側(180a)に登録オブジェクト181が存在する場合、手の仮想オブジェクト182が重畳される。また対象仮想オブジェクト180の左側(180b)に登録オブジェクト181が存在する場合、鉛筆の仮想オブジェクト183が重畳される。
このような処理を行う場合、対象仮想オブジェクト180と登録オブジェクト181との相対的な位置情報から重畳される仮想オブジェクトが変更されてもよいし、左右に分割された対象仮想オブジェクト180に対してコライダーが2つ設定されることで、そのコライダーとの衝突判定により仮想オブジェクトが変更されてもよい。
図16は、対象仮想オブジェクトの表示形式の制御例を示す図である。上記では、登録オブジェクトをユーザに視認できるように仮想オブジェクトが重畳された。これに限定されず、対象仮想オブジェクトの透明度が制御されることで登録オブジェクトが視認できるようになってもよい。
例えば、図16Aに示すように、表示変更部19により対象仮想オブジェクト190と登録オブジェクト191(現実のユーザの手)とが重なっている部分の対象仮想オブジェクト190の透明度が低くされる。これにより、現実のユーザの手が見えるようになる。
また例えば、図16Bに示すように、登録オブジェクト191が手を振る等のジェスチャを行うことで、重なっている部分の対象仮想オブジェクト190の透明度を下げる。このようにユーザが現実の手を見たい場合、特定の動作を行うことで対象仮想オブジェクト190の透明度が低くなるように制御されてもよい。
また特定の動作は登録オブジェクトによる動作に限定されず、ユーザが現実の手に重畳された仮想オブジェクトを所定の時間見続ける、首を横に振る等の登録オブジェクト以外の動作により対象仮想オブジェクトの一部又は全体の透明度が低くなってもよい。またそれと同時に、手に重畳している仮想オブジェクト192が消去されてもよい。
図17は、登録オブジェクトに重畳される仮想オブジェクトの制御の一例を示す図である。図17では、登録オブジェクト200の向きや傾き等に基づいて、仮想オブジェクトが重畳される。
例えば図17Aに示すように、登録オブジェクト200が手の場合、手の平が対象仮想オブジェクト201の方を向いている場合、仮想オブジェクト202が重畳される。また例えば、手の平がユーザ1の方を向いている場合、手の仮想オブジェクト203が重畳される。
すなわち、本実施形態では、登録オブジェクト200である手の向きに応じて、ユーザ1が対象仮想オブジェクト201に対して操作を行いたいか否かが判定される。手の平が対象仮想オブジェクト201を向いているなら、操作を行いたいと判定され、操作に適した仮想オブジェクトが重畳される。手の平が対象仮想オブジェクト201を向いていないなら、操作しないと判定され、操作に関係ない仮想オブジェクトが重畳される。
なお、「操作に適した仮想オブジェクト」とは、対象仮想オブジェクトを含む仮想物体に対して、ユーザが行う操作に応じた仮想オブジェクトである。例えば、仮想物体のノートに対して文字を書きたい、というユーザが行いたい操作に対してペンや鉛筆等の筆記用具の仮想オブジェクトが重畳される。このユーザが行う操作は、仮想物体に対してメタデータが付与されることで設定されてもよいし、ユーザが筆記モード、保持モード等の操作を行うためのモード選択を行うことで予め設定されてもよい。
例えば、図17Bに示すように、登録オブジェクト200が手の場合、指により対象仮想オブジェクト201がポインティング(指差し)されているとする。この場合、登録オブジェクト200にペンの仮想オブジェクト204が重畳される。また例えば、登録オブジェクト200がポインターの場合、ポインターにより対象仮想オブジェクト201に光線が当てられることで仮想オブジェクトが重畳される。
また登録オブジェクト200が対象仮想オブジェクト201の方向を向いていない場合、操作に関係ない仮想オブジェクト205が重畳される。
図18は、特定のジェスチャに応じた仮想オブジェクトの重畳を示す図である。
図18Aは、操作オブジェクトが手210の場合、手210のジェスチャ(形状)に応じて仮想オブジェクト211が重畳されるか否かが判定される。図18Aに示すように、手210を開いている場合、仮想オブジェクトが重畳されず、対象仮想オブジェクト212により手210が隠れている。ここで、手210が人差し指のみを伸ばすジェスチャを行った場合、手を模した仮想オブジェクト211が重畳される。なお特定のジェスチャにより仮想オブジェクトが非表示となってもよいし、表示と非表示との切り替えが行われてもよい。
また図18Bに示すように、操作オブジェクトが手210の場合、手210が特定の物体を把持した際に、その把持した物体を模した仮想オブジェクトが重畳される。例えば、手210が鉛筆213を把持した場合、鉛筆の仮想オブジェクト214が重畳される。また例えば、特定の物体を把持することで、手を模した仮想オブジェクトが重畳されてもよい。すなわち、特定の物体を把持することが仮想オブジェクトを重畳する条件として設定されてもよい。
なお、把持される物体は、登録オブジェクトに設定されていてもよいし、設定されていなくてもよい。例えば、登録オブジェクトに設定されていない場合、カメラ等のセンサにより物体が認識され、その物体を模した仮想オブジェクトが重畳されてもよい。
上記以外のジェスチャ以外にも種々のジェスチャにより仮想オブジェクトが制御されてもよい。例えば、操作オブジェクトを所定の時間を静止した場合、仮想オブジェクトの重畳が非表示に制御されてもよい。これはユーザが対象仮想オブジェクトを詳しく見たい状況と考えられるためである。
なお、操作オブジェクトの静止は、手全体が静止している(座標が変わらない)状態を指す。すなわち、指が動いている等の操作オブジェクトの一部が動いている場合、仮想オブジェクトが重畳されてもよい。
また例えば、操作オブジェクトを所定の速さで動かした場合、仮想オブジェクトの重畳が非表示に制御されてもよい。これは操作オブジェクトを早く動かした際に、仮想オブジェクトが重畳されると仮想オブジェクトの表示と非表示とが連続して提示されてしまうためである。また仮想オブジェクトの非表示以外にも、仮想オブジェクトの透明度が下げられてもよい。
なお、操作オブジェクトによるジェスチャ以外にも様々なユーザの行動に応じて仮想オブジェクトが重畳されてもよい。例えば、ユーザが仮想オブジェクトを所定の時間見続けた場合、操作オブジェクトに重畳された仮想オブジェクトが消去され、対象仮想オブジェクトの操作オブジェクトと重なっている部分の透明度が低くなってもよい(図16A参照)。
このように、仮想オブジェクトが重畳、又は非表示等の制御は、コライダーとの衝突に限定されず、上記に示すように操作オブジェクトのジェスチャやユーザの行動に応じて制御されてもよい。すなわち、コライダーとの衝突に加え、種々の条件により表示形式の制御が行われてもよい。
図19は、コライダーの領域外の登録オブジェクトに対して仮想オブジェクトが重畳される際の具体例を示す模式図である。
上記の例では、登録オブジェクトがコライダーに衝突、すなわち、コライダーの領域内に存在することにより仮想オブジェクトが重畳された。これに限定されず、対象仮想オブジェクトが複数あり、その対象仮想オブジェクトの距離が短い場合、登録オブジェクトがコライダーの領域外にあっても仮想オブジェクトの重畳が継続されてもよい。
図19に示すように、対象仮想オブジェクト220A、及び対象仮想オブジェクト220Bに対して、ユーザ1を基準としたコライダー221A、及びコライダー221Bが設定される。図19では、登録オブジェクト222(手)がコライダー221A及びBの領域外に存在する。
典型的には、登録オブジェクト212がコライダー221と衝突していないため、仮想オブジェクトの重畳は行われない。しかし、対象仮想オブジェクト220A、及び対象仮想オブジェクト220Bの距離が短い等の特定の条件を満たしている場合、仮想オブジェクト223の重畳が継続される。
これは、複数の対象仮想オブジェクトが存在する場合、その対象仮想オブジェクトの間に手が存在すると、一瞬重畳された仮想オブジェクトが消えてしまうことで、仮想オブジェクトの切り替わり処理が増えてしまうためである。
なお、コライダー221Aの領域内に登録オブジェクト222が存在する場合、仮想オブジェクトとして手が重畳されるとする。またコライダー221Bの領域内に登録オブジェクト222が存在する場合、仮想オブジェクトとして鉛筆が重畳されるとする。このようにコライダーごとに重畳される仮想オブジェクトが異なる場合、登録オブジェクトがコライダー221Aから出た場合、手の仮想オブジェクトの重畳が継続され、登録オブジェクトがコライダー221Bから出た場合、鉛筆の仮想オブジェクトの重畳が継続されてもよい。
上記の実施形態では、登録オブジェクトがコライダーに衝突することで仮想オブジェクトが重畳された。これに限定されず、仮想オブジェクトが重畳するモードと仮想オブジェクトを重畳しないモードとに切り替える機能が用いられてもよい。すなわち、仮想オブジェクトを重畳しないモードでは、コライダーが設定されない、又は登録オブジェクトがコライダーに衝突しても仮想オブジェクトが重畳されない状態となる。
上記の実施形態では、登録オブジェクトに重畳される仮想オブジェクトは、表示又は非表示の切り替えにより制御された。これに限定されず、登録オブジェクトと対象仮想オブジェクトとが重なっている部分から徐々に仮想オブジェクトが重畳されてもよい。すなわち、瞬時に仮想オブジェクトが重畳されず、所定の時間で不透明度が100%になるように制御されてもよい。
上記の実施形態では、ユーザにより登録された登録オブジェクトに仮想オブジェクトが重畳された。これに限定されず、他人の手やコントローラ等が該ユーザを基準に設置されたコライダーと衝突した場合にその他人の手やコントローラ等に仮想オブジェクトが重畳されてもよい。これ以外にも他のユーザにより設定された登録オブジェクトに仮想オブジェクトが重畳されてもよい。
上記の実施形態では、仮想オブジェクトの表示または非表示のみが行われた。これに限定されず、仮想オブジェクトが重畳された際に音や触覚が提示されてもよい。ビジュアル、音、触覚等の全てが提示されてもよいし、いずれかだけが提示されてもよい。また例えば、対象仮想オブジェクトやユーザ、環境の色等に応じて重畳される仮想オブジェクトの色彩情報が制御されてもよい。すなわち、周囲の環境の色と重畳される仮想オブジェクトの色が似ている場合、ユーザにとって仮想オブジェクトが重畳されているか理解しづらくなるため、色、彩度、明度等の色彩情報が制御されてもよい。
上記の実施形態では、手が登録オブジェクトの場合、手により把持された物体に応じて仮想オブジェクトが重畳された。これに限定されず、はさみやカッター等の危険性の高い物体を把持している場合や、周囲に危険性の高い物体がある場合、周りで火事が発生した等の危険な状況の場合に、手に重畳される仮想オブジェクトを非表示にし、対象仮想オブジェクトの透明度が下げられてもよい。
上記の制御により、登録オブジェクトが対象仮想オブジェクトに被る時に登録オブジェクト上に仮想オブジェクトが重畳されることで位置関係が分かりやすくなる。また登録オブジェクトである手やコントローラの実際の情報を保ったまま、必要な時に位置関係を分かりやすくすることで操作が容易になる。またユーザの動きに応じて重畳される仮想オブジェクトが制御されることで、必要な時に必要な仮想オブジェクトの表示形式の制御が可能となる。
上記の実施形態では、1つの対象仮想物体に対して1つの操作部位の表示形式が制御された。これに限定されず、対象仮想物体が複数でもよいし、操作部位が複数でもよい。例えば、操作部位である手の各指で複数の仮想物体と接触してもよい。この場合、各指に対して各々異なる表示形式の制御が行われてもよい。同様に対象仮想物体以外の他の仮想物体が複数あってもよい。
上記の実施形態では、特徴情報以外の操作部位の少なくとも一部の表示形式が制御された。これに限定されず、特徴情報の表示形式を制御するか否かはユーザにより任意に設定されてもよい。
上記の実施形態では、操作部位の透明度が高い箇所の輪郭が強調表示された。これに限定されず、操作部位と仮想物体との距離に基づいて、操作部位が強調表示されてもよい。例えば、操作部位が点滅してもよいし、所定の色で発光してもよいし、操作部位に所定のアニメーションが重畳されてもよい。
上記の実施形態では、操作部位が仮想物体と接触している際に表示形式の制御が行われた。これに限定されず、操作部位が仮想物体と接触せずに遠隔操作を行っている場合でも上記の表示形式の制御が行われてもよい。例えば、ユーザの操作範囲外に位置する仮想物体に操作部位(手など)を向けることで、仮想物体の移動、引き寄せる、突き放す等の操作が可能とする。この場合、遠隔操作される仮想物体とユーザの視点とを結ぶ視線上に操作部位が位置する場合に表示形式の制御が行われてもよい。
なお、上記のハードウェア構成を有する表示制御装置10による表示制御は、メモリやROM等に記録されたソフトウェアと、表示制御装置10のハードウェア資源との協働により実現されてもよい。具体的には、ROM等に記憶された、ソフトウェアを構成するプログラムをRAMにロードして実行することにより、本技術に係る表示制御方法が実現される。
プログラムは、例えば記録媒体を介して表示制御装置10にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが表示制御装置10にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る表示制御装置、表示制御方法、及びプログラムが実行され、本技術に係る表示制御装置が構築されてもよい。
すなわち本技術に係る表示制御装置、表示制御方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
コンピュータシステムによる本技術に係る表示制御装置、表示制御方法、及びプログラムの実行は、例えば、表示形式の制御、表示変更の判定、及び仮想物体の制御等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。
すなわち本技術に係る表示制御装置、表示制御方法、及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
各図面を参照して説明した仮想物体制御部、表示変更判定部、表示変更部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。
以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。
なお、本技術は以下のような構成も採ることができる。
(1)
ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御する制御部
を具備する表示制御装置。
(2)(1)に記載の表示制御装置であって、
前記表示形式は、前記操作部位の透明度、輝度、拡大、縮小、強調表示、又は仮想オブジェクトの重畳の少なくとも1つを含む
表示制御装置。
(3)(2)に記載の表示制御装置であって、
前記制御部は、前記操作部位と前記仮想物体との距離に基づいて、前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。
(4)(2)に記載の表示制御装置であって、
前記制御部は、前記仮想物体に接触している状態における前記操作部位の速度に基づいて、前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。
(5)(2)に記載の表示制御装置であって、
前記制御部は、前記操作部位の大きさに基づいて、前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。
(6)(2)に記載の表示制御装置であって、
前記操作部位は、前記ユーザの特徴を示す特徴情報を含み、
前記制御部は、前記特徴情報以外の前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。
(7)(2)に記載の表示制御装置であって、
前記制御部は、前記操作部位と前記仮想物体との距離に基づいて、前記操作部位の少なくとも一部の透明度を高くし、前記操作部位の透明度の高い部位の輪郭を強調表示する
表示制御装置。
(8)(2)に記載の表示制御装置であって、
前記制御部は、前記操作部位と前記仮想物体との接触位置を強調表示し、前記接触位置以外の前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。
(9)(1)に記載の表示制御装置であって、さらに、
前記操作部位によって実行される所定の操作に基づいて、前記表示形式の制御を抑制する抑制部を具備する
表示制御装置。
(10)(1)に記載の表示制御装置であって、さらに、
前記ユーザの視点、前記操作部位の位置、及び前記仮想物体の位置に基づいて、前記ユーザが前記仮想物体を視認可能か否かを判定する第1の判定部を具備する
表示制御装置。
(11)(10)に記載の表示制御装置であって、
前記第1の判定部は、前記操作部位が前記仮想物体に接触し、前記操作部位が前記ユーザの視点と前記仮想物体との間に位置する場合、前記仮想物体を視認不可と判定する
表示制御装置。
(12)(1)に記載の表示制御装置であって、さらに、
前記ユーザの視点、前記操作部位の位置、前記操作部位により操作される対象仮想物体の位置、及び前記対象仮想物体以外の他の仮想物体の位置に基づいて、前記他の仮想物体の少なくとも一部の表示形式を制御する表示制御部を具備する
表示制御装置。
(13)(12)に記載の表示制御装置であって、
前記表示形式は、前記他の仮想物体の透明度を含む
表示制御装置。
(14)(12)に記載の表示制御装置であって、さらに、
前記ユーザの視点、前記操作部位の位置、前記対象仮想物体の位置、及び前記他の仮想物体の位置に基づいて、前記ユーザが前記操作部位と前記対象仮想物体との接触位置を視認可能か否かを判定する第2の判定部を具備する
表示制御装置。
(15)
ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御する
ことをコンピュータシステムが実行する表示制御方法。
(16)
ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御するステップ
をコンピュータシステムが実行するプログラム。
(17)(2)に記載の表示制御装置であって、さらに、
前記操作部位を含む物体を登録オブジェクトとして設定する設定部を具備し、
前記制御部は、前記ユーザの視点、前記登録オブジェクトの位置、及び前記仮想物体の位置に基づいて、前記登録オブジェクトの少なくとも一部の前記表示形式を制御する
表示制御装置。
(18)(17)に記載の表示制御装置であって、さらに、
前記ユーザの視点と前記仮想物体の位置とに基づく所定の領域に前記登録オブジェクトが含まれるか否かを判定する第3の判定部を具備する
表示制御装置。
(19)(18)に記載の表示制御装置であって、
前記制御部は、前記所定の領域に前記登録オブジェクトが含まれる場合、前記登録オブジェクトの少なくとも一部に対して前記仮想オブジェクトを重畳する
表示制御装置。
(20)(19)に記載の表示制御装置であって、
前記制御部は、前記仮想物体に対する前記登録オブジェクトの姿勢に基づいて、前記登録オブジェクトの少なくとも一部に対して前記仮想オブジェクトを重畳する
表示制御装置。
(21)(19)に記載の表示制御装置であって、
前記表示形式は、前記仮想オブジェクトの色に関する色彩情報を含み、
前記制御部は、前記仮想物体、又は前記ユーザの周辺環境に基づいて、前記色彩情報を制御する
表示制御装置。
(22)(9)に記載の表示制御装置であって、
前記抑制部は、前記ユーザの周辺環境、又は前記操作部位に追従する物体の危険度が高い場合、前記表示形式の制御を抑制する
表示制御装置。
(1)
ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御する制御部
を具備する表示制御装置。
(2)(1)に記載の表示制御装置であって、
前記表示形式は、前記操作部位の透明度、輝度、拡大、縮小、強調表示、又は仮想オブジェクトの重畳の少なくとも1つを含む
表示制御装置。
(3)(2)に記載の表示制御装置であって、
前記制御部は、前記操作部位と前記仮想物体との距離に基づいて、前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。
(4)(2)に記載の表示制御装置であって、
前記制御部は、前記仮想物体に接触している状態における前記操作部位の速度に基づいて、前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。
(5)(2)に記載の表示制御装置であって、
前記制御部は、前記操作部位の大きさに基づいて、前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。
(6)(2)に記載の表示制御装置であって、
前記操作部位は、前記ユーザの特徴を示す特徴情報を含み、
前記制御部は、前記特徴情報以外の前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。
(7)(2)に記載の表示制御装置であって、
前記制御部は、前記操作部位と前記仮想物体との距離に基づいて、前記操作部位の少なくとも一部の透明度を高くし、前記操作部位の透明度の高い部位の輪郭を強調表示する
表示制御装置。
(8)(2)に記載の表示制御装置であって、
前記制御部は、前記操作部位と前記仮想物体との接触位置を強調表示し、前記接触位置以外の前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。
(9)(1)に記載の表示制御装置であって、さらに、
前記操作部位によって実行される所定の操作に基づいて、前記表示形式の制御を抑制する抑制部を具備する
表示制御装置。
(10)(1)に記載の表示制御装置であって、さらに、
前記ユーザの視点、前記操作部位の位置、及び前記仮想物体の位置に基づいて、前記ユーザが前記仮想物体を視認可能か否かを判定する第1の判定部を具備する
表示制御装置。
(11)(10)に記載の表示制御装置であって、
前記第1の判定部は、前記操作部位が前記仮想物体に接触し、前記操作部位が前記ユーザの視点と前記仮想物体との間に位置する場合、前記仮想物体を視認不可と判定する
表示制御装置。
(12)(1)に記載の表示制御装置であって、さらに、
前記ユーザの視点、前記操作部位の位置、前記操作部位により操作される対象仮想物体の位置、及び前記対象仮想物体以外の他の仮想物体の位置に基づいて、前記他の仮想物体の少なくとも一部の表示形式を制御する表示制御部を具備する
表示制御装置。
(13)(12)に記載の表示制御装置であって、
前記表示形式は、前記他の仮想物体の透明度を含む
表示制御装置。
(14)(12)に記載の表示制御装置であって、さらに、
前記ユーザの視点、前記操作部位の位置、前記対象仮想物体の位置、及び前記他の仮想物体の位置に基づいて、前記ユーザが前記操作部位と前記対象仮想物体との接触位置を視認可能か否かを判定する第2の判定部を具備する
表示制御装置。
(15)
ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御する
ことをコンピュータシステムが実行する表示制御方法。
(16)
ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御するステップ
をコンピュータシステムが実行するプログラム。
(17)(2)に記載の表示制御装置であって、さらに、
前記操作部位を含む物体を登録オブジェクトとして設定する設定部を具備し、
前記制御部は、前記ユーザの視点、前記登録オブジェクトの位置、及び前記仮想物体の位置に基づいて、前記登録オブジェクトの少なくとも一部の前記表示形式を制御する
表示制御装置。
(18)(17)に記載の表示制御装置であって、さらに、
前記ユーザの視点と前記仮想物体の位置とに基づく所定の領域に前記登録オブジェクトが含まれるか否かを判定する第3の判定部を具備する
表示制御装置。
(19)(18)に記載の表示制御装置であって、
前記制御部は、前記所定の領域に前記登録オブジェクトが含まれる場合、前記登録オブジェクトの少なくとも一部に対して前記仮想オブジェクトを重畳する
表示制御装置。
(20)(19)に記載の表示制御装置であって、
前記制御部は、前記仮想物体に対する前記登録オブジェクトの姿勢に基づいて、前記登録オブジェクトの少なくとも一部に対して前記仮想オブジェクトを重畳する
表示制御装置。
(21)(19)に記載の表示制御装置であって、
前記表示形式は、前記仮想オブジェクトの色に関する色彩情報を含み、
前記制御部は、前記仮想物体、又は前記ユーザの周辺環境に基づいて、前記色彩情報を制御する
表示制御装置。
(22)(9)に記載の表示制御装置であって、
前記抑制部は、前記ユーザの周辺環境、又は前記操作部位に追従する物体の危険度が高い場合、前記表示形式の制御を抑制する
表示制御装置。
1…ユーザ
2…操作部位
3…仮想物体
6…対象仮想物体
10…表示制御装置
18…表示変更判定部
19…表示変更部
31…コントローラ
40…センサ部
162…登録オブジェクト切り替え判定部
2…操作部位
3…仮想物体
6…対象仮想物体
10…表示制御装置
18…表示変更判定部
19…表示変更部
31…コントローラ
40…センサ部
162…登録オブジェクト切り替え判定部
Claims (14)
- ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御する制御部
を具備する表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記表示形式は、前記操作部位の透明度、輝度、拡大、縮小、強調表示、又は仮想オブジェクトの重畳の少なくとも1つを含む
表示制御装置。 - 請求項2に記載の表示制御装置であって、
前記制御部は、前記操作部位と前記仮想物体との距離に基づいて、前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。 - 請求項2に記載の表示制御装置であって、
前記制御部は、前記仮想物体に接触している状態における前記操作部位の速度に基づいて、前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。 - 請求項2に記載の表示制御装置であって、
前記制御部は、前記操作部位の大きさに基づいて、前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。 - 請求項2に記載の表示制御装置であって、
前記操作部位は、前記ユーザの特徴を示す特徴情報を含み、
前記制御部は、前記特徴情報以外の前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。 - 請求項2に記載の表示制御装置であって、
前記制御部は、前記操作部位と前記仮想物体との距離に基づいて、前記操作部位の少なくとも一部の透明度を高くし、前記操作部位の透明度の高い部位の輪郭を強調表示する
表示制御装置。 - 請求項2に記載の表示制御装置であって、
前記制御部は、前記操作部位と前記仮想物体との接触位置を強調表示し、前記接触位置以外の前記操作部位の少なくとも一部の透明度を高くする
表示制御装置。 - 請求項1に記載の表示制御装置であって、さらに、
前記操作部位によって実行される所定の操作に基づいて、前記表示形式の制御を抑制する抑制部を具備する
表示制御装置。 - 請求項1に記載の表示制御装置であって、さらに、
前記ユーザの視点、前記操作部位の位置、及び前記仮想物体の位置に基づいて、前記ユーザが前記仮想物体を視認可能か否かを判定する第1の判定部を具備する
表示制御装置。 - 請求項10に記載の表示制御装置であって、
前記第1の判定部は、前記操作部位が前記仮想物体に接触し、前記操作部位が前記ユーザの視点と前記仮想物体との間に位置する場合、前記仮想物体を視認不可と判定する
表示制御装置。 - 請求項1に記載の表示制御装置であって、さらに、
前記ユーザの視点、前記操作部位の位置、前記操作部位により操作される対象仮想物体の位置、及び前記対象仮想物体以外の他の仮想物体の位置に基づいて、前記他の仮想物体の少なくとも一部の表示形式を制御する表示制御部を具備する
表示制御装置。 - ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御する
ことをコンピュータシステムが実行する表示制御方法。 - ユーザの視点、前記ユーザの操作部位の位置、及び仮想物体の位置に基づいて、前記操作部位の少なくとも一部の表示形式を制御するステップ
をコンピュータシステムが実行するプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021191695 | 2021-11-26 | ||
JP2021191695 | 2021-11-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023079161A true JP2023079161A (ja) | 2023-06-07 |
Family
ID=86539348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022140011A Pending JP2023079161A (ja) | 2021-11-26 | 2022-09-02 | 表示制御装置、表示制御方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023079161A (ja) |
WO (1) | WO2023095519A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4522129B2 (ja) * | 2004-03-31 | 2010-08-11 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
JP6857980B2 (ja) * | 2016-08-02 | 2021-04-14 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP2018063567A (ja) * | 2016-10-13 | 2018-04-19 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP7143847B2 (ja) * | 2017-06-12 | 2022-09-29 | ソニーグループ株式会社 | 情報処理システム、情報処理方法、およびプログラム |
-
2022
- 2022-09-02 JP JP2022140011A patent/JP2023079161A/ja active Pending
- 2022-10-26 WO PCT/JP2022/039828 patent/WO2023095519A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023095519A1 (ja) | 2023-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10339723B2 (en) | Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment | |
US20220121344A1 (en) | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments | |
US10545584B2 (en) | Virtual/augmented reality input device | |
US11455072B2 (en) | Method and apparatus for addressing obstruction in an interface | |
KR20220030294A (ko) | 인공 현실 환경들에서 주변 디바이스를 사용하는 가상 사용자 인터페이스 | |
JP7213899B2 (ja) | 視線に基づく拡張現実環境のためのインターフェース | |
JP2022535316A (ja) | スライドメニューを有する人工現実システム | |
US11625103B2 (en) | Integration of artificial reality interaction modes | |
JP2023515525A (ja) | ウェアラブルシステムのための手のジェスチャ入力 | |
US11294475B1 (en) | Artificial reality multi-modal input switching model | |
US11232643B1 (en) | Collapsing of 3D objects to 2D images in an artificial reality environment | |
US20150206351A1 (en) | Method and apparatus for multiple mode interface | |
US11055926B2 (en) | Method and apparatus for multiple mode interface | |
KR20190059726A (ko) | 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법 | |
WO2023095519A1 (ja) | 表示制御装置、表示制御方法、及びプログラム | |
WO2024075565A1 (ja) | 表示制御装置および表示制御方法 | |
CN116724284A (zh) | 用于处理多个设备的用户输入的方法和设备 | |
JP2024048680A (ja) | 制御装置、制御方法、プログラム | |
JP2024018909A (ja) | スマートウォッチを用いたxr操作機能 | |
CN117716327A (zh) | 用于管理用户界面与物理对象的交互的方法和设备 | |
WO2023283154A1 (en) | Artificial reality teleportation via hand gestures | |
CN117616365A (zh) | 用于动态选择对象的操作模态的方法和设备 |