JP2022526512A - インタラクティブオブジェクト駆動方法、装置、機器、及び記憶媒体 - Google Patents
インタラクティブオブジェクト駆動方法、装置、機器、及び記憶媒体 Download PDFInfo
- Publication number
- JP2022526512A JP2022526512A JP2021556969A JP2021556969A JP2022526512A JP 2022526512 A JP2022526512 A JP 2022526512A JP 2021556969 A JP2021556969 A JP 2021556969A JP 2021556969 A JP2021556969 A JP 2021556969A JP 2022526512 A JP2022526512 A JP 2022526512A
- Authority
- JP
- Japan
- Prior art keywords
- interactive object
- image
- virtual space
- target
- interactive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Abstract
Description
n2=hs/hv (2)
ただし、hsは、表示機器のスクリーンの高さを示し、hvは、仮想撮像機器の高さを示し、hv=tan((FOV2/2)*con*dz*2)である。ただし、FOV2は、仮想撮像機器の鉛直方向における視野角を示し、conは、角度からラジアンへ変換の定数であり、dzは、インタラクティブオブジェクトと仮想撮像機器との間の軸方向距離を示す。
n=n1/n2 (3)
fz=c*n1/n2 (4)
fx=rx*n1/n2
fy=ry*n1/n2 (5)
fz=c*n1/n2
Claims (25)
- インタラクティブオブジェクトおよび前記インタラクティブオブジェクトの所在する仮想空間を表示するための表示機器の周辺の第1画像を取得するステップと、
目標オブジェクトの前記第1画像における第1位置を取得するステップと、
前記インタラクティブオブジェクトの前記仮想空間における位置を参照点として、前記第1画像と前記仮想空間との間のマッピング関係を確定するステップと、
前記第1位置及び前記マッピング関係に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにするステップと、を含む
ことを特徴とするインタラクティブオブジェクト駆動方法。 - 前記第1位置及び前記マッピング関係に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにするステップは、
前記マッピング関係に基づいて、前記第1位置を前記仮想空間にマッピングして目標オブジェクトの前記仮想空間における対応する第2位置を取得することと、
前記第2位置に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにすることと、を含む
ことを特徴とする請求項1に記載のインタラクティブオブジェクト駆動方法。 - 前記第2位置に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにすることは、
前記第2位置に基づいて、仮想空間にマッピングされた目標オブジェクトと前記インタラクティブオブジェクトとの間の第1相対角度を確定することと、
前記インタラクティブオブジェクトの1つ又は複数の身体部位が動作を実行する重みを確定することと、
前記第1相対角度及び前記重みに応じて、前記インタラクティブオブジェクトの各身体部位を駆動して対応する偏向角度を回動するようにすることにより、前記インタラクティブオブジェクトが前記仮想空間にマッピングされた目標オブジェクトを向くようにすることと、を含む
ことを特徴とする請求項2に記載のインタラクティブオブジェクト駆動方法。 - 前記仮想空間の画像データと前記インタラクティブオブジェクトの画像データは、仮想撮像機器によって取得される
ことを特徴とする請求項1から3の何れか一項に記載のインタラクティブオブジェクト駆動方法。 - 前記第2位置に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにすることは、
前記仮想撮像機器の前記仮想空間における位置を前記第2位置に移動させることと、
前記インタラクティブオブジェクトの視線を設置して前記仮想撮像機器を狙うようにすることと、を含む
ことを特徴とする請求項4に記載のインタラクティブオブジェクト駆動方法。 - 前記第2位置に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにすることは、
前記インタラクティブオブジェクトを駆動して視線を前記第2位置に移動させる動作を実行するようにすることを含む
ことを特徴とする請求項2から4の何れか一項に記載のインタラクティブオブジェクト駆動方法。 - 前記第1位置及び前記マッピング関係に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにするステップは、
前記マッピング関係に基づいて、前記第1画像を前記仮想空間にマッピングして第2画像を取得することと、
前記第1画像を複数の第1サブ領域に分割し、前記第2画像を前記複数の第1サブ領域にそれぞれ対応する複数の第2サブ領域に分割することと、
前記第1画像の前記複数の第1サブ領域のうち、前記目標オブジェクトの所在する目標第1サブ領域を確定し、前記目標第1サブ領域に基づいて前記第2画像の前記複数の第2サブ領域のうちの目標第2サブ領域を確定することと、
前記目標第2サブ領域に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにすることと、を含む
ことを特徴とする請求項1に記載のインタラクティブオブジェクト駆動方法。 - 前記目標第2サブ領域に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにすることは、
前記インタラクティブオブジェクトと前記目標第2サブ領域との間の第2相対角度を確定することと、
前記インタラクティブオブジェクトを駆動して前記第2相対角度を回動するようにすることにより、前記インタラクティブオブジェクトが前記目標第2サブ領域を向うようにすることと、を含む
ことを特徴とする請求項7に記載のインタラクティブオブジェクト駆動方法。 - 前記インタラクティブオブジェクトの前記仮想空間における位置を参照点として、前記第1画像と前記仮想空間との間のマッピング関係を確定するステップは、
前記第1画像の単位画素距離と仮想空間の単位距離との間の比例関係を確定することと、
前記第1画像の画素平面の前記仮想空間における対応するマッピング平面を確定することと、
前記インタラクティブオブジェクトと前記マッピング平面との間の軸方向距離を確定することと、を含み、
前記マッピング平面は、前記第1画像の画素平面を前記仮想空間にマッピングして得られたものである
ことを特徴とする請求項1から8の何れか一項に記載のインタラクティブオブジェクト駆動方法。 - 前記第1画像の単位画素距離と仮想空間の単位距離との間の比例関係を確定することは、
前記第1画像の単位画素距離と実空間の単位距離との間の第1比例関係を確定することと、
実空間の単位距離と仮想空間の単位距離との間の第2比例関係を確定することと、
前記第1比例関係及び前記第2比例関係に基づいて、前記第1画像の単位画素距離と仮想空間の単位距離との間の比例関係を確定することと、を含む
ことを特徴とする請求項9に記載のインタラクティブオブジェクト駆動方法。 - 前記目標オブジェクトの前記第1画像における第1位置は、目標オブジェクトの顔部の位置及び/又は目標オブジェクトの身体の位置を含む
ことを特徴とする請求項1から10の何れか一項に記載のインタラクティブオブジェクト駆動方法。 - インタラクティブオブジェクトおよび前記インタラクティブオブジェクトの所在する仮想空間を表示するための表示機器の周辺の第1画像を取得するための第1取得ユニットと、
目標オブジェクトの前記第1画像における第1位置を取得するための第2取得ユニットと、
前記インタラクティブオブジェクトの前記仮想空間における位置を参照点として、前記第1画像と前記仮想空間との間のマッピング関係を確定するための確定ユニットと、
前記第1位置及び前記マッピング関係に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにするための駆動ユニットと、を備える
ことを特徴とするインタラクティブオブジェクト駆動装置。 - 前記駆動ユニットは、
前記マッピング関係に基づいて、前記第1位置を前記仮想空間にマッピングして目標オブジェクトの前記仮想空間における対応する第2位置を取得し、
前記第2位置に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにする
ことを特徴とする請求項12に記載のインタラクティブオブジェクト駆動装置。 - 前記駆動ユニットは、前記第2位置に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにするときに、
前記第2位置に基づいて、仮想空間にマッピングされた目標オブジェクトと前記インタラクティブオブジェクトとの間の第1相対角度を確定し、
前記インタラクティブオブジェクトの1つ又は複数の身体部位が動作を実行する重みを確定し、
前記第1相対角度及び前記重みに応じて、前記インタラクティブオブジェクトの各身体部位を駆動して対応する偏向角度を回動するようにすることにより、前記インタラクティブオブジェクトが前記仮想空間にマッピングされた目標オブジェクトを向くようにする
ことを特徴とする請求項13に記載のインタラクティブオブジェクト駆動装置。 - 前記仮想空間の画像データと前記インタラクティブオブジェクトの画像データは、仮想撮像機器によって取得される
ことを特徴とする請求項12から14の何れか一項に記載のインタラクティブオブジェクト駆動装置。 - 前記駆動ユニットは、前記第2位置に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにするときに、
前記仮想撮像機器の前記仮想空間における位置を前記第2位置に移動させ、
前記インタラクティブオブジェクトの視線を設置して前記仮想撮像機器を狙うようにする
ことを特徴とする請求項15に記載のインタラクティブオブジェクト駆動装置。 - 前記駆動ユニットは、前記第2位置に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにするときに、
前記インタラクティブオブジェクトを駆動して視線を前記第2位置に移動させる動作を実行するようにする
ことを特徴とする請求項13から15の何れか一項インタラクティブオブジェクト駆動装置。 - 前記駆動ユニットは、
前記マッピング関係に基づいて、前記第1画像を前記仮想空間にマッピングして第2画像を取得し、
前記第1画像を複数の第1サブ領域に分割し、前記第2画像を前記複数の第1サブ領域にそれぞれ対応する複数の第2サブ領域に分割し、
前記第1画像の前記複数の第1サブ領域のうち、前記目標オブジェクトの所在する目標第1サブ領域を確定し、前記目標第1サブ領域に基づいて前記第2画像の前記複数の第2サブ領域のうちの目標第2サブ領域を確定し、
前記目標第2サブ領域に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにする
ことを特徴とする請求項12に記載のインタラクティブオブジェクト駆動装置。 - 前記駆動ユニットは、前記目標第2サブ領域に基づいて、前記インタラクティブオブジェクトを駆動して動作を実行するようにするときに、
前記インタラクティブオブジェクトと前記目標第2サブ領域との間の第2相対角度を確定し、
前記インタラクティブオブジェクトを駆動して前記第2相対角度を回動するようにすることにより、前記インタラクティブオブジェクトが前記目標第2サブ領域を向うようにする
ことを特徴とする請求項18に記載のインタラクティブオブジェクト駆動装置。 - 前記確定ユニットは、
前記第1画像の単位画素距離と仮想空間の単位距離との間の比例関係を確定し、
前記第1画像の画素平面の前記仮想空間における対応するマッピング平面を確定し、
前記インタラクティブオブジェクトと前記マッピング平面との間の軸方向距離を確定し、
前記マッピング平面は、前記第1画像の画素平面を前記仮想空間にマッピングして得られたものである
ことを特徴とする請求項12から19の何れか一項に記載のインタラクティブオブジェクト駆動装置。 - 前記確定ユニットは、前記第1画像の単位画素距離と仮想空間の単位距離との間の比例関係を確定するときに、
前記第1画像の単位画素距離と実空間の単位距離との間の第1比例関係を確定し、
実空間の単位距離と仮想空間の単位距離との間の第2比例関係を確定し、
前記第1比例関係及び前記第2比例関係に基づいて、前記第1画像の単位画素距離と仮想空間の単位距離との間の比例関係を確定する
ことを特徴とする請求項20に記載のインタラクティブオブジェクト駆動装置。 - 前記目標オブジェクトの前記第1画像における第1位置は、目標オブジェクトの顔部の位置及び/又は目標オブジェクトの身体の位置を含む
ことを特徴とする請求項12から21の何れか一項に記載のインタラクティブオブジェクト駆動装置。 - 表示機器であって、
前記表示機器には、透明ディスプレイスクリーンが配置され、前記透明ディスプレイスクリーンは、インタラクティブオブジェクトを表示し、前記表示機器は、前記透明ディスプレイスクリーンに表示されたインタラクティブオブジェクトを駆動して動作を実行するようにするようにして、請求項1から11の何れか一項に記載の方法を実行する
ことを特徴とする表示機器。 - 電子機器であって、
前記電子機器は、記憶媒体と、プロセッサとを備え、前記記憶媒体は、プロセッサで運転され得るコンピュータ指令を記憶し、前記プロセッサは、前記コンピュータ指令を実行したときに請求項1から11の何れか一項に記載の方法を実施する
ことを特徴とする電子機器。 - コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、
前記プログラムがプロセッサによって実行されたときに、請求項1から11の何れか一項に記載の方法は、実施される
ことを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911193989.1A CN110968194A (zh) | 2019-11-28 | 2019-11-28 | 交互对象的驱动方法、装置、设备以及存储介质 |
CN201911193989.1 | 2019-11-28 | ||
PCT/CN2020/104593 WO2021103613A1 (zh) | 2019-11-28 | 2020-07-24 | 交互对象的驱动方法、装置、设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022526512A true JP2022526512A (ja) | 2022-05-25 |
Family
ID=70032085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021556969A Pending JP2022526512A (ja) | 2019-11-28 | 2020-07-24 | インタラクティブオブジェクト駆動方法、装置、機器、及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220215607A1 (ja) |
JP (1) | JP2022526512A (ja) |
KR (1) | KR20210131414A (ja) |
CN (1) | CN110968194A (ja) |
TW (1) | TWI758869B (ja) |
WO (1) | WO2021103613A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110968194A (zh) * | 2019-11-28 | 2020-04-07 | 北京市商汤科技开发有限公司 | 交互对象的驱动方法、装置、设备以及存储介质 |
CN111488090A (zh) * | 2020-04-13 | 2020-08-04 | 北京市商汤科技开发有限公司 | 交互方法、装置、交互系统、电子设备及存储介质 |
CN111639613B (zh) * | 2020-06-04 | 2024-04-16 | 上海商汤智能科技有限公司 | 一种增强现实ar特效生成方法、装置及电子设备 |
CN114385000A (zh) * | 2021-11-30 | 2022-04-22 | 达闼机器人有限公司 | 智能设备控制方法、装置、服务器和存储介质 |
CN114385002B (zh) * | 2021-12-07 | 2023-05-12 | 达闼机器人股份有限公司 | 智能设备控制方法、装置、服务器和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244322A (ja) * | 2009-04-07 | 2010-10-28 | Bitto Design Kk | コミュニケーションキャラクター装置、及びそのプログラム |
US20120092475A1 (en) * | 2009-06-23 | 2012-04-19 | Tencent Technology (Shenzhen) Company Limited | Method, Apparatus And System For Implementing Interaction Between A Video And A Virtual Network Scene |
JP2018116684A (ja) * | 2017-10-23 | 2018-07-26 | 株式会社コロプラ | 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
WO2019130992A1 (ja) * | 2017-12-26 | 2019-07-04 | 株式会社Nttドコモ | 情報処理装置 |
JP2019139425A (ja) * | 2018-02-08 | 2019-08-22 | 株式会社バンダイナムコスタジオ | シミュレーションシステム及びプログラム |
JP2019197499A (ja) * | 2018-05-11 | 2019-11-14 | 株式会社スクウェア・エニックス | プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102004840B (zh) * | 2009-08-28 | 2013-09-11 | 深圳泰山在线科技有限公司 | 一种基于计算机实现虚拟拳击的方法和系统 |
TWI423114B (zh) * | 2011-02-25 | 2014-01-11 | Liao Li Shih | 互動式裝置及其運作方法 |
TWM440803U (en) * | 2011-11-11 | 2012-11-11 | Yu-Chieh Lin | Somatosensory deivice and application system thereof |
JP2014149712A (ja) * | 2013-02-01 | 2014-08-21 | Sony Corp | 情報処理装置、端末装置、情報処理方法及びプログラム |
US9070217B2 (en) * | 2013-03-15 | 2015-06-30 | Daqri, Llc | Contextual local image recognition dataset |
EP3062219A1 (en) * | 2015-02-25 | 2016-08-31 | BAE Systems PLC | A mixed reality system and method for displaying data therein |
CN105183154B (zh) * | 2015-08-28 | 2017-10-24 | 上海永为科技有限公司 | 一种虚拟对象和实景影像的互动展示方法 |
WO2017100821A1 (en) * | 2015-12-17 | 2017-06-22 | Lyrebird Interactive Holdings Pty Ltd | Apparatus and method for an interactive entertainment media device |
US10282912B1 (en) * | 2017-05-26 | 2019-05-07 | Meta View, Inc. | Systems and methods to provide an interactive space over an expanded field-of-view with focal distance tuning |
CN107277599A (zh) * | 2017-05-31 | 2017-10-20 | 珠海金山网络游戏科技有限公司 | 一种虚拟现实的直播方法、装置和系统 |
US20190196690A1 (en) * | 2017-06-23 | 2019-06-27 | Zyetric Virtual Reality Limited | First-person role playing interactive augmented reality |
CN107341829A (zh) * | 2017-06-27 | 2017-11-10 | 歌尔科技有限公司 | 虚拟现实交互部件的定位方法和装置 |
CN108227931A (zh) * | 2018-01-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 用于控制虚拟人物的方法、设备、系统、程序和存储介质 |
CN108805989B (zh) * | 2018-06-28 | 2022-11-11 | 百度在线网络技术(北京)有限公司 | 场景穿越的方法、装置、存储介质和终端设备 |
CN109658573A (zh) * | 2018-12-24 | 2019-04-19 | 上海爱观视觉科技有限公司 | 一种智能门锁系统 |
CN110968194A (zh) * | 2019-11-28 | 2020-04-07 | 北京市商汤科技开发有限公司 | 交互对象的驱动方法、装置、设备以及存储介质 |
-
2019
- 2019-11-28 CN CN201911193989.1A patent/CN110968194A/zh active Pending
-
2020
- 2020-07-24 WO PCT/CN2020/104593 patent/WO2021103613A1/zh active Application Filing
- 2020-07-24 JP JP2021556969A patent/JP2022526512A/ja active Pending
- 2020-07-24 KR KR1020217031143A patent/KR20210131414A/ko not_active Application Discontinuation
- 2020-09-18 TW TW109132226A patent/TWI758869B/zh active
-
2022
- 2022-03-24 US US17/703,499 patent/US20220215607A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244322A (ja) * | 2009-04-07 | 2010-10-28 | Bitto Design Kk | コミュニケーションキャラクター装置、及びそのプログラム |
US20120092475A1 (en) * | 2009-06-23 | 2012-04-19 | Tencent Technology (Shenzhen) Company Limited | Method, Apparatus And System For Implementing Interaction Between A Video And A Virtual Network Scene |
JP2018116684A (ja) * | 2017-10-23 | 2018-07-26 | 株式会社コロプラ | 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
WO2019130992A1 (ja) * | 2017-12-26 | 2019-07-04 | 株式会社Nttドコモ | 情報処理装置 |
JP2019139425A (ja) * | 2018-02-08 | 2019-08-22 | 株式会社バンダイナムコスタジオ | シミュレーションシステム及びプログラム |
JP2019197499A (ja) * | 2018-05-11 | 2019-11-14 | 株式会社スクウェア・エニックス | プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220215607A1 (en) | 2022-07-07 |
CN110968194A (zh) | 2020-04-07 |
KR20210131414A (ko) | 2021-11-02 |
TWI758869B (zh) | 2022-03-21 |
WO2021103613A1 (zh) | 2021-06-03 |
TW202121155A (zh) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022526512A (ja) | インタラクティブオブジェクト駆動方法、装置、機器、及び記憶媒体 | |
US11003307B1 (en) | Artificial reality systems with drawer simulation gesture for gating user interface elements | |
US9952820B2 (en) | Augmented reality representations across multiple devices | |
WO2017199206A1 (en) | System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface | |
CN112148118A (zh) | 生成物理环境中的人的姿势信息 | |
US11086475B1 (en) | Artificial reality systems with hand gesture-contained content window | |
US20200387286A1 (en) | Arm gaze-driven user interface element gating for artificial reality systems | |
JP2022535315A (ja) | 自己触覚型仮想キーボードを有する人工現実システム | |
EP3740849B1 (en) | Hybrid placement of objects in an augmented reality environment | |
JP7238143B2 (ja) | 仮想対象の移動制御方法及びその装置、端末並びにコンピュータプログラム | |
US10921879B2 (en) | Artificial reality systems with personal assistant element for gating user interface elements | |
JP2022519975A (ja) | 複数の関与モードを有する人工現実システム | |
US11043192B2 (en) | Corner-identifiying gesture-driven user interface element gating for artificial reality systems | |
US11430192B2 (en) | Placement and manipulation of objects in augmented reality environment | |
US10852839B1 (en) | Artificial reality systems with detachable personal assistant for gating user interface elements | |
CN106980378B (zh) | 虚拟显示方法和系统 | |
CN108553895A (zh) | 用户界面元素与三维空间模型关联的方法和装置 | |
EP4172862A1 (en) | Object recognition neural network for amodal center prediction | |
EP3680753B1 (en) | An apparatus and associated methods for presentation of a virtual reality space | |
JP2017086542A (ja) | 画像変更システム、方法、及びプログラム | |
CN109716395A (zh) | 在虚拟现实中保持对象稳定性 | |
JP7414139B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20190188910A1 (en) | Systems and methods for teleporting a virtual position of a user in a virtual environment to a teleportable point of a virtual object | |
Tecchia et al. | Addressing the problem of Interaction in fully Immersive Virtual Environments: from raw sensor data to effective devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210922 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230602 |