JP7589696B2 - 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム - Google Patents
情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム Download PDFInfo
- Publication number
- JP7589696B2 JP7589696B2 JP2021570663A JP2021570663A JP7589696B2 JP 7589696 B2 JP7589696 B2 JP 7589696B2 JP 2021570663 A JP2021570663 A JP 2021570663A JP 2021570663 A JP2021570663 A JP 2021570663A JP 7589696 B2 JP7589696 B2 JP 7589696B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- hand
- unit
- information processing
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/20—Editing of three-dimensional [3D] images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Architecture (AREA)
- Geometry (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Description
ユーザの身体上の第1の部位の位置姿勢又は形状を取得する取得部と、
前記第1の部位の位置姿勢又は形状に基づいて、表示装置において実空間に表示する仮想オブジェクトを制御する制御部と、
を具備する情報処理装置である。
ユーザの身体上の第1の部位の位置姿勢又は形状を取得する取得ステップと、
前記第1の部位の位置姿勢又は形状に基づいて、表示装置において実空間に表示する仮想オブジェクトを制御する制御ステップと、
を有する情報処理方法である。
ユーザの身体上の第1の部位の位置姿勢又は形状を取得する取得部、
前記第1の部位の位置姿勢又は形状に基づいて、表示装置において実空間に表示する仮想オブジェクトを制御する制御部、
としてコンピュータが機能するようにコンピュータ可読形式で記述されたコンピュータプログラムである。
実空間に仮想オブジェクトを表示する表示装置と、
ユーザの身体上の第1の部位の位置姿勢又は形状を取得する取得部と、
前記第1の部位の位置姿勢又は形状に基づいて仮想オブジェクトの表示を制御する制御部と、
を具備する拡張現実感システムである。
図1には、本開示を適用したARシステム100の機能的構成例を示している。図示のARシステム100は、ARグラスを装着したユーザの手の位置検出とユーザの手指の形状を検出する第1のセンサ部110と、ARグラスに搭載される第2のセンサ部120と、ARグラスにARアプリなどの仮想オブジェクトを表示する表示部131と、ARシステム100全体の動作を統括的にコントロールする制御部140を備えている。第1のセンサ部110は、ジャイロセンサ111と、加速度センサ112と、方位センサ113を備えている。第2のセンサ部120は、ARグラスに搭載されるが、外向きカメラ121と、内向きカメラ122と、マイク123と、ジャイロセンサ124と、加速度センサ125と、方位センサ126を含んでいる。
従来、ユーザが邪魔になったARアプリを視界から見えなくするにはARアプリを閉じるしかなく、ARアプリを閉じると、そのARアプリの実行状態を破棄して初期状態に戻ってしまう。これに対し、本実施形態では、ユーザは、身体上の部位を手指で指定して、特定の手指のジェスチャ動作により、ARアプリを最小化したUIをその指定した部位に格納することができる。格納された後のARアプリの仮想オブジェクトはユーザの視界から消えるが、最小化したUIはARアプリの実行状態を保持し続ける。その後、ユーザは、UIが格納されている身体上の部位に対してUIを復元するための特定の手指のジェスチャ動作を行うことにより、最小化したUIから元のARアプリを格納する前の実行状態で復元して、そのARアプリの仮想オブジェクトをユーザの視界の元の場所に出現させることができる。
本実施形態に係るARシステム100では、ARアプリを閉じることなく実行状態を保持したまま、UI設置可能領域の場所と紐付けして格納することができる。格納されたARアプリの仮想オブジェクトは、ユーザの視界から消えるが、ユーザが復元動作を行うことでARアプリの仮想オブジェクトが、格納される直前の実行状態のままでユーザの視界に出現する。具体的には、アプリケーション実行部601は、手指位置姿勢検出部604の検出結果に基づいて、ユーザが現在手に持っているARアプリ、あるいはユーザが手や指で指定したARアプリを特定する。そして、アプリケーション実行部601は、UI設置可能領域検出部606が検出したUI設置可能領域内で、ARアプリの格納又はARアプリの復元を指示する手指のジェスチャをユーザが行ったことを、手指位置姿勢検出部604及び手指ジェスチャ検出部605の検出結果に基づいて認識すると、手指のジェスチャで指定した身体上の部位にARアプリのUIを格納したり、UIを格納した身体上の部位からARアプリを復元したりする。
アプリケーション実行部601は、OSが提供する実行環境下で、ARアプリを含むアプリケーションプログラムを実行するとともに、ARアプリ(仮想オブジェクト)の表示動作も制御する。仮想オブジェクトは、実空間上の任意に場所に配置される。図11や図14には、説明の便宜上、ユーザの手が届く範囲、すなわちユーザの手のひらにARアプリが載っている例を示したが、ユーザの手が届かない遠方に仮想オブジェクトが配置されることも想定される。
上記D項では、ARアプリ本体の仮想オブジェクトと分離してARアプリの操作UIを配置する実施例に関して説明し、さらに操作UIのサイズや形状を最適化する点についても説明した。
前記第1の部位の位置姿勢又は形状に基づいて、表示装置において実空間に表示する仮想オブジェクトを制御する制御部と、
を具備する情報処理装置。
上記(1)に記載の情報処理装置。
前記取得部は、ユーザの手又は指に取り付けられた位置姿勢センサからのセンサ情報に基づいてユーザの手又は指の位置姿勢又は指の形状を取得する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
上記(1)乃至(3)のいずれかに記載の情報処理装置。
上記(1)乃至(4)のいずれかに記載の情報処理装置。
上記(5)に記載の情報処理装置。
上記(4)乃至(6)のいずれかに記載の情報処理装置。
上記(7)に記載の情報処理装置。
上記(7)又は(8)のいずれかに記載の情報処理装置。
上記(7)乃至(9)のいずれかに記載の情報処理装置。
上記(7)乃至(10)のいずれかに記載の情報処理装置。
上記(7)乃至(11)のいずれかに記載の情報処理装置。
上記(1)乃至(12)のいずれかに記載の情報処理装置。
上記(13)に記載の情報処理装置。
上記(14)に記載の情報処理装置。
上記(15)に記載の情報処理装置。
前記第1の部位の位置姿勢又は形状に基づいて、表示装置において実空間に表示する仮想オブジェクトを制御する制御ステップと、
を有する情報処理方法。
前記第1の部位の位置姿勢又は形状に基づいて、表示装置において実空間に表示する仮想オブジェクトを制御する制御部、
としてコンピュータが機能するようにコンピュータ可読形式で記述されたコンピュータプログラム。
ユーザの身体上の第1の部位の位置姿勢又は形状を取得する取得部と、
前記第1の部位の位置姿勢又は形状に基づいて仮想オブジェクトの表示を制御する制御部と、
を具備する拡張現実感システム。
111…ジャイロセンサ、112…加速度センサ、113…方位センサ
120…第2のセンサ部、121…外向きカメラ
122…内向きカメラ、123…マイク、124…ジャイロセンサ
125…加速度センサ、126…方位センサ
131…表示部、132…スピーカー、133…振動提示部
134…通信部、140…制御部、150…記憶部
300…ARシステム、301…ARグラス、302…コントローラ
400…ARシステム、401…ARグラス、402…コントローラ
403…情報端末
500…コントローラ、501、502、503…IMU
511、512、513…バンド
601…アプリケーション実行部、602…頭部位置姿勢検出部
603…出力制御部、604…手指位置姿勢検出部
605…手指ジェスチャ検出部、606…UI設定可能領域検出部
Claims (18)
- ユーザの手及び指のうち少なくとも一方からなる第1の部位の位置姿勢又は形状を取得する取得部と、
前記第1の部位の位置姿勢又は形状に基づいて、前記第1の部位がユーザの手及び指以外の身体上の第2の部位に所定の操作を行ったことを認識し、前記所定の操作に応じて表示装置において実空間に表示する仮想オブジェクトを制御する制御部と、
を具備する情報処理装置。 - 前記取得部は、前記第1の部位に取り付けたセンサに基づいて前記第1の部位の位置姿勢を取得する、
請求項1に記載の情報処理装置。 - 前記取得部は、前記第1の部位に取り付けられた位置姿勢センサからのセンサ情報に基づいて前記第1の部位の位置姿勢又は指の形状を取得する、
請求項1に記載の情報処理装置。 - 前記制御部は、前記取得部が取得した前記第1の部位の位置姿勢又は形状に基づいて、前記第1の部位が前記第2の部位に対して第1の操作を行ったことを認識すると、前記仮想オブジェクトの実行状態を前記第2の部位に紐付けして格納して、前記表示装置による前記仮想オブジェクトの表示を停止させる、
請求項1に記載の情報処理装置。 - 前記制御部は、前記取得部が取得した前記第1の部位の位置姿勢又は形状に基づいて、前記第1の部位が前記第2の部位に対して第2の操作を行ったことを認識すると、前記第2の部位に紐付けして格納した実行状態に基づいて前記仮想オブジェクトの表示を復元する、
請求項4に記載の情報処理装置。 - ユーザの身体上で前記第2の部位を設置することが可能な領域を検出する検出部をさらに備える、
請求項1に記載の情報処理装置。 - 前記検出部は、ユーザの身体上で位置姿勢を取得可能な第3の部位から所定のオフセットを加えた場所を前記第2の部位として検出する、
請求項6に記載の情報処理装置。 - 前記検出部は、前記第1の部位の位置姿勢に基づいて位置を推定可能な身体上の領域を前記第2の部位として検出する、
請求項6に記載の情報処理装置。 - 前記検出部は、位置姿勢を取得可能な前記第1の部位と第3の部位の位置姿勢情報に基づいて逆キネマティクス演算により位置を推定可能な前記第2の部位を検出する、
請求項6に記載の情報処理装置。 - 前記検出部は、前記第1の部位による操作性に基づいて、前記第2の部位のサイズ又は形状を検出する、
請求項6に記載の情報処理装置。 - 前記検出部は、前記第1の部位で触れるキャリブレーションによって場所を特定可能な前記第2の部位を検出する、
請求項6に記載の情報処理装置。 - 前記制御部は、ユーザから遠方に配置された仮想オブジェクトに対してユーザが操作を行うための操作部をユーザの手元に配置するように制御する、
請求項1に記載の情報処理装置。 - 前記制御部は、前記操作部をユーザの身体上の第4の部位に配置するように制御する、
請求項12に記載の情報処理装置。 - 前記制御部は、前記第4の部位に配置する前記操作部の向きを補正する、
請求項13に記載の情報処理装置。 - 前記制御部は、ユーザの身体の向き、仮想オブジェクトが配置されている方向、又はユーザの視線方向のいずれかを基準にして前記操作部の向きを補正する、
請求項14に記載の情報処理装置。 - ユーザの手及び指のうち少なくとも一方からなる第1の部位の位置姿勢又は形状を取得する取得ステップと、
前記第1の部位の位置姿勢又は形状に基づいて、前記第1の部位がユーザの手及び指以外の身体上の第2の部位に所定の操作を行ったことを認識し、前記所定の操作に応じて表示装置において実空間に表示する仮想オブジェクトを制御する制御ステップと、
を有する情報処理方法。 - ユーザの手及び指のうち少なくとも一方からなる第1の部位の位置姿勢又は形状を取得する取得部、
前記第1の部位の位置姿勢又は形状に基づいて、前記第1の部位がユーザの手及び指以外の身体上の第2の部位に所定の操作を行ったことを認識し、前記所定の操作に応じて表示装置において実空間に表示する仮想オブジェクトを制御する制御部、
としてコンピュータが機能するようにコンピュータ可読形式で記述されたコンピュータプログラム。 - 実空間に仮想オブジェクトを表示する表示装置と、
ユーザの手及び指のうち少なくとも一方からなる第1の部位の位置姿勢又は形状を取得する取得部と、
前記第1の部位の位置姿勢又は形状に基づいて、前記第1の部位がユーザの手及び指以外の身体上の第2の部位に所定の操作を行ったことを認識し、前記所定の操作に応じて仮想オブジェクトの表示を制御する制御部と、
を具備する拡張現実感システム。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020006411 | 2020-01-17 | ||
| JP2020006411 | 2020-01-17 | ||
| PCT/JP2020/043516 WO2021145067A1 (ja) | 2020-01-17 | 2020-11-20 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2021145067A1 JPWO2021145067A1 (ja) | 2021-07-22 |
| JP7589696B2 true JP7589696B2 (ja) | 2024-11-26 |
Family
ID=76864583
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021570663A Active JP7589696B2 (ja) | 2020-01-17 | 2020-11-20 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US12380655B2 (ja) |
| JP (1) | JP7589696B2 (ja) |
| WO (1) | WO2021145067A1 (ja) |
Families Citing this family (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12033296B2 (en) | 2018-05-07 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
| JP7166813B2 (ja) * | 2018-07-06 | 2022-11-08 | 株式会社コロプラ | 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ |
| US10890983B2 (en) | 2019-06-07 | 2021-01-12 | Facebook Technologies, Llc | Artificial reality system having a sliding menu |
| US20230230333A1 (en) * | 2020-08-25 | 2023-07-20 | Maxell, Ltd. | 3d virtual-reality display device, head-mounted display, and 3d virtual-reality display method |
| CN117256024A (zh) * | 2021-04-12 | 2023-12-19 | 斯纳普公司 | 使用力反馈为视力障碍者提供ar |
| JP7658148B2 (ja) * | 2021-04-15 | 2025-04-08 | セイコーエプソン株式会社 | ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム |
| US20230171484A1 (en) * | 2021-11-29 | 2023-06-01 | Apple Inc. | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user |
| JP2023168840A (ja) * | 2022-05-16 | 2023-11-29 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法、プログラム |
| JP2023178548A (ja) * | 2022-06-06 | 2023-12-18 | 富士電機株式会社 | 作業支援装置、作業支援方法および作業支援プログラム |
| US12387449B1 (en) | 2023-02-08 | 2025-08-12 | Meta Platforms Technologies, Llc | Facilitating system user interface (UI) interactions in an artificial reality (XR) environment |
| US12400414B2 (en) | 2023-02-08 | 2025-08-26 | Meta Platforms Technologies, Llc | Facilitating system user interface (UI) interactions in an artificial reality (XR) environment |
| US20240281070A1 (en) * | 2023-02-16 | 2024-08-22 | Meta Platforms Technologies, Llc | Simultaneous Controller and Touch Interactions |
| WO2024203015A1 (ja) * | 2023-03-28 | 2024-10-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| US20260064186A1 (en) * | 2024-09-03 | 2026-03-05 | Snap Inc. | Dynamically orientated labels for xr user interfaces |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009104249A (ja) | 2007-10-19 | 2009-05-14 | Canon Inc | 画像処理装置、画像処理方法 |
| JP2016162321A (ja) | 2015-03-04 | 2016-09-05 | 株式会社メガチップス | 画像認識装置 |
| JP2017530452A (ja) | 2014-08-22 | 2017-10-12 | 株式会社ソニー・インタラクティブエンタテインメント | 手袋インタフェースオブジェクト |
| WO2018008226A1 (ja) | 2016-07-05 | 2018-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| WO2018146922A1 (ja) | 2017-02-13 | 2018-08-16 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6040715B2 (ja) | 2012-11-06 | 2016-12-07 | ソニー株式会社 | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
| US20180095635A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
| GB201709199D0 (en) * | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
| US10386938B2 (en) * | 2017-09-18 | 2019-08-20 | Google Llc | Tracking of location and orientation of a virtual controller in a virtual reality system |
| US11340707B2 (en) * | 2020-05-29 | 2022-05-24 | Microsoft Technology Licensing, Llc | Hand gesture-based emojis |
-
2020
- 2020-11-20 JP JP2021570663A patent/JP7589696B2/ja active Active
- 2020-11-20 US US17/758,521 patent/US12380655B2/en active Active
- 2020-11-20 WO PCT/JP2020/043516 patent/WO2021145067A1/ja not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009104249A (ja) | 2007-10-19 | 2009-05-14 | Canon Inc | 画像処理装置、画像処理方法 |
| JP2017530452A (ja) | 2014-08-22 | 2017-10-12 | 株式会社ソニー・インタラクティブエンタテインメント | 手袋インタフェースオブジェクト |
| JP2016162321A (ja) | 2015-03-04 | 2016-09-05 | 株式会社メガチップス | 画像認識装置 |
| WO2018008226A1 (ja) | 2016-07-05 | 2018-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| WO2018146922A1 (ja) | 2017-02-13 | 2018-08-16 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20230031913A1 (en) | 2023-02-02 |
| US12380655B2 (en) | 2025-08-05 |
| JPWO2021145067A1 (ja) | 2021-07-22 |
| WO2021145067A1 (ja) | 2021-07-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7589696B2 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム | |
| US12164739B2 (en) | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments | |
| US10776991B2 (en) | Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods | |
| CN108475120B (zh) | 用混合现实系统的远程设备进行对象运动跟踪的方法及混合现实系统 | |
| JP7798024B2 (ja) | 情報処理装置及び情報処理方法、並びに拡張現実感システム | |
| TW202105129A (zh) | 具有用於閘控使用者介面元件的個人助理元件之人工實境系統 | |
| CN107896508A (zh) | 可以作为多个目标/端点(设备)和的整合点的以人为中心的“设备的超ui”体系结构的方法和设备,以及面向“模块化”通用控制器平台以及输入设备虚拟化的具有动态上下文意识的手势输入的相关方法/系统 | |
| CN112154047A (zh) | 远程操作系统、信息处理方法以及程序 | |
| WO2021192589A1 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム | |
| JP2018072604A (ja) | Vr酔いを抑制するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置 | |
| US12197652B2 (en) | Control device and control method with set priorities for input operations in competitive relationship | |
| JP6779840B2 (ja) | 仮想空間における入力を支援するための方法および装置ならびに当該方法をコンピュータに実行させるプログラム | |
| JP6444345B2 (ja) | 仮想空間における入力を支援するための方法および装置ならびに当該方法をコンピュータに実行させるプログラム | |
| US20250165078A1 (en) | Information processing apparatus and information processing method | |
| WO2021145068A1 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム | |
| JP6776155B2 (ja) | 仮想現実を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 | |
| EP4610784A1 (en) | Information processing device and information processing method | |
| EP4610785A1 (en) | Input device, control apparatus, control method, information processing apparatus, and information processing method | |
| CN111766959B (zh) | 虚拟现实交互方法和虚拟现实交互装置 | |
| JP2019015972A (ja) | Vr酔いを抑制するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置 | |
| KR20250090310A (ko) | 정보 처리 장치 및 정보 처리 방법 | |
| JP2018014110A (ja) | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 | |
| JP6189496B1 (ja) | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 | |
| JP2024154673A (ja) | 処理装置、制御方法、プログラム | |
| WO2024090298A1 (ja) | 情報処理装置、情報処理方法、及び、入力デバイス |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230927 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240625 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240627 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240910 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240911 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241015 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241028 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7589696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |