JP2018081694A - 拡張又は仮想現実環境におけるオブジェクトの選択 - Google Patents
拡張又は仮想現実環境におけるオブジェクトの選択 Download PDFInfo
- Publication number
- JP2018081694A JP2018081694A JP2017219754A JP2017219754A JP2018081694A JP 2018081694 A JP2018081694 A JP 2018081694A JP 2017219754 A JP2017219754 A JP 2017219754A JP 2017219754 A JP2017219754 A JP 2017219754A JP 2018081694 A JP2018081694 A JP 2018081694A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- user
- environment
- objects
- remaining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0693—Calibration of display systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
・ユーザによって実行されるジェスチャを検知することと、
・依然としてオブジェクトの選択を実行されるジェスチャパスの残りのジェスチャを表示することと、
を含む。
・遂行される残りのジェスチャの第1のジェスチャに対応しないユーザの検出されたジェスチャに対するオブジェクトを検出することと、
・検出されたオブジェクトを破棄することと、
を含む。
・遂行される残りのジェスチャの第1のジェスチャに対応しないユーザの検出されたジェスチャに対して、オブジェクトを検出することと、
・検出されたオブジェクトの残りのジェスチャを変更することであって、環境の各オブジェクトの残りのジェスチャは、環境の任意の他のオブジェクトの残りのジェスチャとは異なる、変更することと、
を含む。
・遂行される残りのジェスチャの第1のジェスチャに対応しないユーザの検出されたジェスチャに対してオブジェクトを検出することと、
・検出されたオブジェクトの残りのジェスチャを変更することであって、環境の各オブジェクトの残りのジェスチャは、環境の任意の他のオブジェクトの残りのジェスチャとは異なる、変更することと、
を行うように構成される。
・デプスを検知すること、
・カラーステレオキャプチャ、
・イメージ特徴抽出、例えば、ユーザ2の場所(location)及び/又は方向(orientation)に特有の特徴を抽出するなどの、データベース特徴抽出により達成される可能性がある。既知のオブジェクトの事前学習データベースが、ユーザ環境のレイアウトの推定を助けるために、空間的/サイズの特徴、色特徴、デプス特徴などを通して説明されるオブジェクトにおいて使用することができる。例えば、椅子、ソファ、テーブルのデータベースがこの目的に使用することができる。
Claims (15)
- 複数の実際のオブジェクト及び/又は仮想のオブジェクト(8、10、12、14、16、18、20)を含む環境においてオブジェクトを選択する方法であって、前記環境は、ディスプレイデバイス(4)を介してユーザ(2)に表示され、
前記方法は、前記複数のオブジェクト(8、10、12、14、16、18、20)の各オブジェクトに対するジェスチャパスの割り当て(36)を含み、前記ジェスチャパスは、前記オブジェクトを選択するために前記ユーザ(2)によって実行される一連のジェスチャを含む、方法。 - 前記オブジェクト上又は前記オブジェクトの近くにスーパーインポーズされるタグとして各オブジェクトの前記ジェスチャパスが表示されること(36)を含む、請求項1に記載の方法。
- 前記ジェスチャパスの各ジェスチャは、前記ジェスチャの向きに従った向きの矢印の形式で表示される、請求項1又は2に記載の方法。
- 前記ユーザ(2)によって実行されるジェスチャを検出すること(38)と、
依然として前記オブジェクトを選択するために実行される前記ジェスチャパスの残っているジェスチャを表示することと、
を含む、請求項1乃至3のいずれか1項記載の方法。 - 遂行される残りのジェスチャの第1のジェスチャに対応しないユーザ(2)の検出されたジェスチャに対するオブジェクトを検出することと、
前記検出されたオブジェクトを破棄することと、
を含む、請求項1乃至4のいずれか1項記載の方法。 - 遂行される残りのジェスチャの第1のジェスチャに対応しない前記ユーザの検出されたジェスチャに対するオブジェクトを検出することと、
前記検出されたオブジェクトの前記残りのジェスチャを変更することであって、前記環境の各オブジェクトの前記残りのジェスチャは、前記環境の任意の他のオブジェクトの前記残りのジェスチャとは異なる、変更することと、
を含む、請求項1乃至4のいずれか1項記載の方法。 - 前記オブジェクトに割り当てられた前記ジェスチャパスが、完全に遂行されたとき、前記オブジェクトが選択される(42)、請求項1乃至6のいずれか1項記載の方法。
- 前記ジェスチャが手のジェスチャである、請求項1乃至7のいずれか1項記載の方法。
- 前記ジェスチャパスの前記割り当ては、前記ユーザの快適さを考慮する、請求項1乃至8のいずれか1項記載の方法。
- 複数の実際のオブジェクト及び/又は仮想のオブジェクト(8、10、12、14、16、18、20)を含む環境においてオブジェクトを選択する選択デバイス(50)であって、前記環境は、ディスプレイデバイス(4)を介してユーザ(2)に表示され、前記選択デバイス(50)は、前記複数のオブジェクト(8、10、12、14、16、18、20)の各オブジェクトに対するジェスチャパスの割り当て(36)を含み、前記ジェスチャパスは、前記オブジェクトを選択するために前記ユーザ(2)によって実行される一連のジェスチャを含む、選択デバイス。
- アサインメントモジュール(54)が、
遂行される残りのジェスチャの第1のジェスチャに対応しない前記ユーザの検出されたジェスチャに対するオブジェクトを検出することと、
前記検出されたオブジェクトの前記残りのジェスチャを変更することであって、前記環境の各オブジェクトの前記残りのジェスチャは、前記環境の任意の他のオブジェクトの前記残りのジェスチャとは異なる、変更することと、
を実行するように構成される、請求項10に記載の選択デバイス。 - 前記環境を分析し、前記環境の前記複数のオブジェクトを検出するように構成される環境分析モジュール(52)を含む、請求項10又は11に記載の選択デバイス。
- 前記環境分析モジュール(52)は、前記ユーザの視点から部分的に又は全体的に隠蔽されるオブジェクトを検出するように構成される、請求項12に記載の選択デバイス。
- 前記ユーザ(2)によって遂行されるジェスチャを分析するように構成されるジェスチャ分析モジュール(56)を含む、請求項10乃至13のいずれか1項記載の選択デバイス。
- コンピュータに請求項1乃至9のいずれか1項記載の前記方法を実行するようにするコンピュータ実行可能命令を含む、コンピュータ読取可能プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16306497.5A EP3324270A1 (en) | 2016-11-16 | 2016-11-16 | Selection of an object in an augmented reality environment |
EP16306497.5 | 2016-11-16 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018081694A true JP2018081694A (ja) | 2018-05-24 |
JP2018081694A5 JP2018081694A5 (ja) | 2020-12-24 |
JP7093174B2 JP7093174B2 (ja) | 2022-06-29 |
Family
ID=57442612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017219754A Active JP7093174B2 (ja) | 2016-11-16 | 2017-11-15 | 拡張又は仮想現実環境におけるオブジェクトの選択 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10747307B2 (ja) |
EP (2) | EP3324270A1 (ja) |
JP (1) | JP7093174B2 (ja) |
KR (1) | KR102508924B1 (ja) |
CN (1) | CN108073280B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019244437A1 (ja) * | 2018-06-18 | 2019-12-26 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2023153220A1 (ja) * | 2022-02-09 | 2023-08-17 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
JP7446943B2 (ja) | 2020-08-18 | 2024-03-11 | 株式会社日立製作所 | 情報表現作成支援装置、情報表現作成支援方法およびコンピュータプログラム |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018005091A (ja) * | 2016-07-06 | 2018-01-11 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
CN110554770A (zh) * | 2018-06-01 | 2019-12-10 | 苹果公司 | 静态遮挡物 |
US11500452B2 (en) | 2018-06-05 | 2022-11-15 | Apple Inc. | Displaying physical input devices as virtual objects |
JP7306386B2 (ja) * | 2018-06-06 | 2023-07-11 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN109246286B (zh) * | 2018-07-13 | 2021-02-02 | 深圳超多维科技有限公司 | 智能终端应用操作的控制方法、系统、设备及存储介质 |
US10942577B2 (en) | 2018-09-26 | 2021-03-09 | Rockwell Automation Technologies, Inc. | Augmented reality interaction techniques |
US10809910B2 (en) * | 2018-09-28 | 2020-10-20 | Apple Inc. | Remote touch detection enabled by peripheral device |
KR102629330B1 (ko) | 2018-11-28 | 2024-01-26 | 삼성전자주식회사 | 디스플레이 장치 및 이의 제어 방법 |
KR20200080047A (ko) | 2018-12-26 | 2020-07-06 | 삼성전자주식회사 | 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기 |
CN111124136A (zh) * | 2019-12-31 | 2020-05-08 | 维沃移动通信有限公司 | 虚拟画面同步方法及穿戴式设备 |
CN111665936A (zh) * | 2020-05-19 | 2020-09-15 | 维沃移动通信有限公司 | 音乐收藏方法、装置、电子设备及介质 |
CN112843706B (zh) * | 2021-03-16 | 2024-05-28 | 网易(杭州)网络有限公司 | Vr游戏中虚拟物体的处理方法、装置以及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011513847A (ja) * | 2008-02-27 | 2011-04-28 | ジェスチャー テック,インコーポレイテッド | 認識されたジェスチャーを用いた高機能化入力 |
JP2014186361A (ja) * | 2013-03-21 | 2014-10-02 | Sony Corp | 情報処理装置、操作制御方法及びプログラム |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7093202B2 (en) * | 2002-03-22 | 2006-08-15 | Xerox Corporation | Method and system for interpreting imprecise object selection paths |
US7886236B2 (en) * | 2003-03-28 | 2011-02-08 | Microsoft Corporation | Dynamic feedback for gestures |
JP4883774B2 (ja) | 2006-08-07 | 2012-02-22 | キヤノン株式会社 | 情報処理装置及びその制御方法、プログラム |
US8130211B2 (en) * | 2007-09-24 | 2012-03-06 | Microsoft Corporation | One-touch rotation of virtual objects in virtual workspace |
US9767681B2 (en) * | 2007-12-12 | 2017-09-19 | Apple Inc. | Handheld electronic devices with remote control functionality and gesture recognition |
CN101349944A (zh) * | 2008-09-03 | 2009-01-21 | 宏碁股份有限公司 | 手势引导系统及以触控手势控制计算机系统的方法 |
US9256282B2 (en) | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
US8009022B2 (en) * | 2009-05-29 | 2011-08-30 | Microsoft Corporation | Systems and methods for immersive interaction with virtual objects |
US8682489B2 (en) * | 2009-11-13 | 2014-03-25 | Intuitive Sugical Operations, Inc. | Method and system for hand control of a teleoperated minimally invasive slave surgical instrument |
US8812990B2 (en) * | 2009-12-11 | 2014-08-19 | Nokia Corporation | Method and apparatus for presenting a first person world view of content |
EP2575007A1 (en) * | 2011-09-27 | 2013-04-03 | Elo Touch Solutions, Inc. | Scaling of gesture based input |
CN102508651B (zh) * | 2011-09-29 | 2015-04-15 | 深圳超多维光电子有限公司 | 用户界面的实现方法及系统、电子设备 |
US9182815B2 (en) * | 2011-12-07 | 2015-11-10 | Microsoft Technology Licensing, Llc | Making static printed content dynamic with virtual data |
JP2013123970A (ja) * | 2011-12-14 | 2013-06-24 | Toshiba Corp | 表示装置 |
US8812994B2 (en) * | 2011-12-29 | 2014-08-19 | Apple Inc. | Device, method, and graphical user interface for configuring restricted interaction with a user interface |
US9448635B2 (en) * | 2012-04-16 | 2016-09-20 | Qualcomm Incorporated | Rapid gesture re-engagement |
US8880336B2 (en) * | 2012-06-05 | 2014-11-04 | Apple Inc. | 3D navigation |
US20130328925A1 (en) | 2012-06-12 | 2013-12-12 | Stephen G. Latta | Object focus in a mixed reality environment |
WO2014009561A2 (en) * | 2012-07-13 | 2014-01-16 | Softkinetic Software | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
CN103809735B (zh) * | 2012-11-12 | 2017-06-30 | 腾讯科技(深圳)有限公司 | 一种手势识别的方法及装置 |
KR20140089049A (ko) * | 2013-01-02 | 2014-07-14 | 삼성전자주식회사 | 3d 초음파 영상 분석 지원 장치 및 방법 |
US20150029092A1 (en) * | 2013-07-23 | 2015-01-29 | Leap Motion, Inc. | Systems and methods of interpreting complex gestures |
US10914951B2 (en) | 2013-08-19 | 2021-02-09 | Qualcomm Incorporated | Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking |
JP6144596B2 (ja) * | 2013-09-30 | 2017-06-07 | Dmg森精機株式会社 | 表示装置 |
JP6201770B2 (ja) * | 2014-01-15 | 2017-09-27 | 富士通株式会社 | ジェスチャui装置、ジェスチャui方法及びプログラム |
US20150248166A1 (en) * | 2014-01-26 | 2015-09-03 | Shangkar Meitei Mayanglambam | System for spontaneous recognition of continuous gesture input |
TWI511029B (zh) * | 2014-01-28 | 2015-12-01 | Acer Inc | 觸控顯示裝置及其操作方法 |
US9836760B2 (en) * | 2014-01-31 | 2017-12-05 | Apple Inc. | Representative user journeys for content sessions |
EP2916099B1 (en) * | 2014-03-07 | 2020-09-30 | Hexagon Technology Center GmbH | Articulated arm coordinate measuring machine |
EP3007029B1 (en) * | 2014-10-07 | 2017-12-27 | LG Electronics Inc. | Mobile terminal and wearable device |
US20160148558A1 (en) * | 2014-11-26 | 2016-05-26 | Fos Labs, Inc. | Personal display systems |
KR102388130B1 (ko) * | 2015-01-12 | 2022-04-19 | 삼성메디슨 주식회사 | 의료 영상 표시 방법 및 장치 |
US10222976B2 (en) * | 2015-06-23 | 2019-03-05 | Sap Se | Path gestures |
-
2016
- 2016-11-16 EP EP16306497.5A patent/EP3324270A1/en not_active Withdrawn
-
2017
- 2017-11-01 KR KR1020170144693A patent/KR102508924B1/ko active IP Right Grant
- 2017-11-01 US US15/800,221 patent/US10747307B2/en active Active
- 2017-11-13 EP EP17201304.7A patent/EP3324271B1/en active Active
- 2017-11-15 CN CN201711133573.1A patent/CN108073280B/zh active Active
- 2017-11-15 JP JP2017219754A patent/JP7093174B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011513847A (ja) * | 2008-02-27 | 2011-04-28 | ジェスチャー テック,インコーポレイテッド | 認識されたジェスチャーを用いた高機能化入力 |
JP2014186361A (ja) * | 2013-03-21 | 2014-10-02 | Sony Corp | 情報処理装置、操作制御方法及びプログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019244437A1 (ja) * | 2018-06-18 | 2019-12-26 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7446943B2 (ja) | 2020-08-18 | 2024-03-11 | 株式会社日立製作所 | 情報表現作成支援装置、情報表現作成支援方法およびコンピュータプログラム |
WO2023153220A1 (ja) * | 2022-02-09 | 2023-08-17 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3324270A1 (en) | 2018-05-23 |
EP3324271B1 (en) | 2022-07-27 |
KR102508924B1 (ko) | 2023-03-13 |
JP7093174B2 (ja) | 2022-06-29 |
EP3324271A1 (en) | 2018-05-23 |
US20180136721A1 (en) | 2018-05-17 |
KR20180055697A (ko) | 2018-05-25 |
CN108073280B (zh) | 2022-08-19 |
US10747307B2 (en) | 2020-08-18 |
CN108073280A (zh) | 2018-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7093174B2 (ja) | 拡張又は仮想現実環境におけるオブジェクトの選択 | |
US11741917B2 (en) | Eclipse cursor for mixed reality displays | |
US10222981B2 (en) | Holographic keyboard display | |
US9910509B2 (en) | Method to control perspective for a camera-controlled computer | |
US10234935B2 (en) | Mediation of interaction methodologies in immersive environments | |
US20200192625A1 (en) | Systems and Methods for Providing Audio to a User Based on Gaze Input | |
US9740452B2 (en) | Systems and methods for providing audio to a user based on gaze input | |
AU2024202163A1 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
KR20200035103A (ko) | 시선-기반 사용자 상호작용 | |
TW202046085A (zh) | 基於捏合和拉放手勢偵測人工實境系統中的輸入 | |
CN117980962A (zh) | 用于内容应用的设备、方法和图形用户界面 | |
KR20160106653A (ko) | 조정된 스피치 및 제스처 입력 | |
CN103752010B (zh) | 用于控制设备的增强现实覆盖 | |
CN109144598A (zh) | 基于手势的电子面罩人机交互方法与系统 | |
EP2887183B1 (en) | Augmented reality display of scene behind surface | |
KR102679286B1 (ko) | 비접촉식 화면 제어 시스템 | |
KR20230146285A (ko) | 비접촉식 화면 제어 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181220 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181227 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20191111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211004 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220617 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7093174 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |