KR20200066419A - 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템 - Google Patents
아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템 Download PDFInfo
- Publication number
- KR20200066419A KR20200066419A KR1020180152043A KR20180152043A KR20200066419A KR 20200066419 A KR20200066419 A KR 20200066419A KR 1020180152043 A KR1020180152043 A KR 1020180152043A KR 20180152043 A KR20180152043 A KR 20180152043A KR 20200066419 A KR20200066419 A KR 20200066419A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- hmd
- image
- application
- eye
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스 기술에 관한 것으로, 가상현실용 사용자 인터페이스를 처리하는 방법은, 아이트래킹(Eye-Tracking) 센서를 이용하여 사용자가 현재 관심을 갖는 위치에 존재하는 오브젝트를 감지하고, 아이트래킹 센서로부터 감지된 오브젝트에 관한 정보를 HMD(Head Mounted Display)로 전달하고, 전달된 시선 데이터를 애플리케이션으로 전달하고, 애플리케이션으로부터 VR 이미지를 생성하고, HMD를 통해 전달받은 사용자 시선 데이터와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지 판단하고, 판단 결과를 바탕으로 해당 오브젝트가 수행할 수 있는 메뉴들을 리스트업하여 정리 후 원본 이미지와 합성하여 HMD로 전달하며, HMD에 보여주는 리스트 중 사용자 자신이 원하는 것을 컨트롤러를 통해 선택받으면, 애플리케이션이 컨트롤러를 통해 받아들인 사용자 입력 정보를 반영하여 새로운 3D 이미지를 출력한다.
Description
본 발명은 가상현실(Virtual Reality: VR) 기술에 관한 것으로, 다양한 가상현실 메커니즘에서 사용될 사용자 인터페이스(User Interface: UI)에 아이트래킹(Eye-Tracking) 기술을 적용하여 사용자의 편의성을 증대시킨 가상현실용 사용자 인터페이스에 대한 방법 및 시스템에 관한 것이다.
가상 현실(Virtual Reality), 증강 현실(Augmented Reality), 혼합 현실(Mixed Reality) 등을 포함하여, 기존의 가상현실(Virtual Reality: VR) 분야의 사용자 인터페이스는 VR 환경 내에서 사용자의 행동에 대한 편의성을 거의 고려하지 않았다. 제안된 대부분의 가상현실(VR)용 사용자인터페이스(UI)는 VR 헤드 마운티드 디스플레이(Head Mounted Display: HMD)를 착용한 상태에서 양손에 VR 컨트롤러를 드는 방식의 사용자 인터페이스를 제공하고 있다. 한 손의 컨트롤러로 오브젝트를 지정하고 메뉴를 연 다음, 다른 손의 컨트롤러로 메뉴를 선택하는 방식이었다.
이는 기존에 사용했던 마우스를 사용하는 방식 그대로 가상환경(Virtual Reality: VR)으로 가져온 것으로 직관적으로 사용자가 인식하여 사용할 수는 있지만, 기존 방식으로는 두 개의 전용 컨트롤러가 필수적이며 사용자가 다른 입력도구나 기구 등을 사용하기 어려운 상황이다.
특히, 가상현실(Virtual Reality) 내에서 사용되는 사용자 인터페이스(User Interface: UI)에 있어서, 최근 상호작용(Interaction)이 가능한 VR 기기 및 콘텐츠가 보급되기 시작함에 따라 해당 콘텐츠를 사용자가 보다 편리하게 즐기기 위한 사용자 중심의 사용자 인터페이스 개발이 요구되고 있다.
"실감형 가상현실 상호작용 기술동향", 김용완, 조동식, 김영희, 김혜미, 김기홍, 한국전자통신연구원, 2012년
본 발명이 해결하고자 하는 기술적 과제는, 특정 오브젝트를 지정함에 있어서 아이트래킹 기법을 활용하여 사용자가 별도의 조작을 거치지 않고 화면 내에 오브젝트가 있다면 사용자가 바라보는 오브젝트에서 지원가능한 기능들을 팝업메뉴를 띄워 가상환경(Virtual Reality: VR)안에서 오브젝트를 지정하는 방법을 간략화하고 빠르게 제어할 수 있는 방법을 제공하는데 목적이 있다.
본 발명의 실시예들에서는 아이트래킹 기술을 이용하여 사용자가 별도의 조작을 거치지 않아도 VR 화면 내에서 사용자가 오브젝트를 바라보는 것만으로도 지원가능한 기능들을 팝업 메뉴로 띄워 줌으로써 사용자가 VR 환경에서 손쉽게 사용할 수 있는 방법 및 시스템을 제공하고자 한다.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 가상현실용 사용자 인터페이스를 처리하는 방법은, (a) 아이트래킹(Eye-Tracking) 센서를 이용하여 사용자가 현재 관심을 갖는 위치에 존재하는 오브젝트를 감지하는 단계; (b) 상기 아이트래킹 센서로부터 감지된 오브젝트에 관한 정보를 HMD(Head Mounted Display)로 전달하고, 전달된 시선 데이터를 애플리케이션으로 전달하는 단계; (c) 애플리케이션으로부터 VR 이미지를 생성하고, HMD를 통해 전달받은 사용자 시선 데이터와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지 판단하는 단계; (d) 판단 결과를 바탕으로 해당 오브젝트가 수행할 수 있는 메뉴들을 리스트업하여 정리 후 원본 이미지와 합성하여 HMD로 전달하는 단계; 및 (e) HMD에 보여주는 리스트 중 사용자 자신이 원하는 것을 컨트롤러를 통해 선택받으면, 애플리케이션이 컨트롤러를 통해 받아들인 사용자 입력 정보를 반영하여 새로운 3D 이미지를 출력하는 단계;를 포함한다.
일 실시예에 따른 가상현실용 사용자 인터페이스를 처리하는 방법에서, 상기 (c) 단계는, HMD로부터 전달받은 시선 데이터를 애플리케이션으로 전달하고, 전달받은 사용자 시선 데이터와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지를 판단할 수 있다.
일 실시예에 따른 가상현실용 사용자 인터페이스를 처리하는 방법에서, 상기 (d) 단계는, 애플리케이션이 사용자가 바라본 오브젝트의 특성을 파악하여 해당 오브젝트가 수행할 수 있는 메뉴 리스트를 정리하여 정리된 메뉴 리스트를 VR 이미지와 합성하여 HMD로 전달하고, 상기 (e) 단계는, HMD가 전달받은 합성 이미지를 출력할 수 있다.
일 실시예에 따른 가상현실용 사용자 인터페이스를 처리하는 방법에서, 상기 (e) 단계는, 사용자가 HMD를 통해 해당 리스트를 보고 자신이 원하는 항목을 컨트롤러로 선택하고, 애플리케이션이 컨트롤러를 통해 받아들인 사용자 입력 데이터를 반영하여 새로운 3D 이미지를 출력할 수 있다.
본 발명의 실시예들은, 아이트래킹 기법을 통해 사용자가 직접 컨트롤러를 조작하는 부분을 줄임으로써 VR 콘텐츠를 조작하는데 사용되는 시간을 극적으로 낮출 수 있을 뿐만 아니라, 전용 컨트롤로 외에 사용자가 가지고 있는 다양한 컨트롤러(키보드, 마우스, 휠 등)를 복합적으로 사용할 수 있다.
또한, 두 개의 전용 컨트롤러를 모두 사용할 필요가 없으므로 사용자는 기존에 사용하던 다른 입력 도구들(예를 들어, 마우스, 휠 등의 장치)를 사용할 수 있는 장점이 있으며, 이는 다양한 입력 도구를 이용하여 쉽게 사용할 수 있다.
나아가, 기존 방식의 경우 양손의 컨트롤러를 사용하여 하나의 작업을 진행하였지만 제안 방식의 경우 하나의 컨트롤러만으로 충분히 콘텐츠를 제어할 수 있어 조작 시간을 줄일 수 있으며, 빠르게 작업을 할 수 있는 장점이 있다.
도 1은 본 발명의 실시 예에 따른 아이트래킹 센서를 이용한 VR 사용자 인터페이스 환경 구성을 도시한다.
도 2는 본 발명이 실시 예에 따른 아이트래킹 센서와 애플리케이션(Application)를 연계하여 사용자 인터페이스를 제어하기 위한 방법을 나타낸 순서도이다.
도 2는 본 발명이 실시 예에 따른 아이트래킹 센서와 애플리케이션(Application)를 연계하여 사용자 인터페이스를 제어하기 위한 방법을 나타낸 순서도이다.
이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따라 아이트래킹(Eye-Tracking) 센서를 이용한 사용자 친화적 가상현실용 사용자 인터페이스에 대한 처리 방법 및 시스템에 대해서 상세하게 설명한다.
도 1은 본 발명의 실시예에 따른 아이트래킹 센서를 이용하여 사용자가 오브젝트를 파악하고 해당 오브젝트에 적용 가능한 팝업 메뉴를 띄워 주기 위한 블록 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 아이트래킹 센서를 이용한 가상현실(VR) 사용자 인터페이스 환경은 VR 콘텐츠를 사용하기 위한 HMD(Head Mount Display)장치(102), HMD에 내장되어 사용자의 시선 정보를 파악하여 HMD(102)에 전달하는 Eye-tracking 센서(101), VR 이미지를 생성하고 HMD(102)를 통해 전달받은 사용자 시선 정보와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지 판단하는 전용 애플리케이션 서버(Application server)(104), 사용자의 데이터를 받아 애플리케이션으로 전달하는 커트롤러(103)를 포함하여 이루어진다.
전술한 구성에서, 아이트래킹 센서(101)로부터 전달받은 정보를 HMD(102)로 전달하고 전달받은 정보를 애플리케이션 서버(104)로 전달한 후 애플리케이션 서버는 사용자 시선 정보와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지 판단한다. 이를 기반으로 해당 오브젝트가 수행할 수 있는 메뉴들을 리스트업(list-up)하여 정리 후 원본 이미지와 합성하여 HMD(102)로 전달하여 사용자가 내부 디스플레이를 통해 볼 수 있다.
도 2는 본 발명의 실시예에 따른 VR 환경안에서 아이트래킹 센서를 이용한 사용자 인터페이스 수행 절차는 나타낸 순서도이다.
도 2에 도시한 바와 같이, 애플리케이션(203)이 구동되면 VR init(205)에서 데이터를 초기화 하고 이미지를 생성하여 HMD(201)로 전달하는 단계, 전달된 데이터를 HMD(201)내에서 사용자가 시청하면서 사용자가 관심을 가지고 보는 영역을 내장된 아이트래팅 센서(202)가 파악하여 사용자 시선 정보를 생성하는 과정을 거친다.
생성된 사용자 시선 정보를 HMD(201)로 전달하고, HMD(201)는 해당 정보를 애플리케이션(203)으로 전달한다.
애플리케이션(203)은 HMD(201)을 통해 전달받은 사용자 시선 정보와 현재 자신이 생성하는 이미지를 비교하여 사용자가 어느 부분 또는 어느 오브젝트를 주시하는 지 판단한다.
또한 애플리케이션(203)은 해당 오브젝트의 특성을 파악하여 해당 오브젝트가 수행할 수 있는 메뉴들을 정리한다.
정리된 메뉴 리스트를 VR 이미지와 합성하여 HMD(201)로 전달하고, HMD(201)는 전달받은 이미지를 출력한다.
최종적으로 사용자는 해당 리스트 중 자신이 원하는 것을 VR 컨트롤로(204)로 선택하고, 애플리케이션(203)은 VR 컨트롤러(204)를 통해 받아들인 입력 데이터를 반영하여 새로운 3D 이미지를 HMD로 출력하는 방법을 설명한다.
한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
101: 아이트래킹 센서
102: HMD
104: 애플리케이션 서버
102: HMD
104: 애플리케이션 서버
Claims (4)
- (a) 아이트래킹(Eye-Tracking) 센서를 이용하여 사용자가 현재 관심을 갖는 위치에 존재하는 오브젝트를 감지하는 단계;
(b) 상기 아이트래킹 센서로부터 감지된 오브젝트에 관한 정보를 HMD(Head Mounted Display)로 전달하고, 전달된 시선 데이터를 애플리케이션으로 전달하는 단계;
(c) 애플리케이션으로부터 VR 이미지를 생성하고, HMD를 통해 전달받은 사용자 시선 데이터와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지 판단하는 단계:
(d) 판단 결과를 바탕으로 해당 오브젝트가 수행할 수 있는 메뉴들을 리스트업하여 정리 후 원본 이미지와 합성하여 HMD로 전달하는 단계; 및
(e) HMD에 보여주는 리스트 중 사용자 자신이 원하는 것을 컨트롤러를 통해 선택받으면, 애플리케이션이 컨트롤러를 통해 받아들인 사용자 입력 정보를 반영하여 새로운 3D 이미지를 출력하는 단계;를 포함하는, 가상현실용 사용자 인터페이스를 처리하는 방법. - 제 1 항에 있어서,
상기 (c) 단계는,
HMD로부터 전달받은 시선 데이터를 애플리케이션으로 전달하고, 전달받은 사용자 시선 데이터와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지를 판단하는, 가상현실용 사용자 인터페이스를 처리하는 방법. - 제 1 항에 있어서,
상기 (d) 단계는, 애플리케이션이 사용자가 바라본 오브젝트의 특성을 파악하여 해당 오브젝트가 수행할 수 있는 메뉴 리스트를 정리하여 정리된 메뉴 리스트를 VR 이미지와 합성하여 HMD로 전달하고,
상기 (e) 단계는, HMD가 전달받은 합성 이미지를 출력하는, 가상현실용 사용자 인터페이스를 처리하는 방법. - 제 1 항에 있어서,
상기 (e) 단계는,
사용자가 HMD를 통해 해당 리스트를 보고 자신이 원하는 항목을 컨트롤러로 선택하고, 애플리케이션이 컨트롤러를 통해 받아들인 사용자 입력 데이터를 반영하여 새로운 3D 이미지를 출력하는, 가상현실용 사용자 인터페이스를 처리하는 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180152043A KR20200066419A (ko) | 2018-11-30 | 2018-11-30 | 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180152043A KR20200066419A (ko) | 2018-11-30 | 2018-11-30 | 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200066419A true KR20200066419A (ko) | 2020-06-10 |
Family
ID=71087240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180152043A KR20200066419A (ko) | 2018-11-30 | 2018-11-30 | 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200066419A (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022108076A1 (ko) * | 2020-11-17 | 2022-05-27 | 삼성전자 주식회사 | 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치 |
WO2022131615A1 (ko) * | 2020-12-16 | 2022-06-23 | 삼성전자 주식회사 | 저지연으로 복수의 어플리케이션 데이터 전송 방법 및 장치 |
US11847258B2 (en) | 2020-11-17 | 2023-12-19 | Samsung Electronics Co., Ltd. | Method for wireless connection in augmented reality environment and electronic device therefor |
US11895286B2 (en) | 2020-12-16 | 2024-02-06 | Samsung Electronics Co., Ltd. | Device and method for transmitting data of multiple applications with low latency |
-
2018
- 2018-11-30 KR KR1020180152043A patent/KR20200066419A/ko unknown
Non-Patent Citations (1)
Title |
---|
"실감형 가상현실 상호작용 기술동향", 김용완, 조동식, 김영희, 김혜미, 김기홍, 한국전자통신연구원, 2012년 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022108076A1 (ko) * | 2020-11-17 | 2022-05-27 | 삼성전자 주식회사 | 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치 |
US11847258B2 (en) | 2020-11-17 | 2023-12-19 | Samsung Electronics Co., Ltd. | Method for wireless connection in augmented reality environment and electronic device therefor |
WO2022131615A1 (ko) * | 2020-12-16 | 2022-06-23 | 삼성전자 주식회사 | 저지연으로 복수의 어플리케이션 데이터 전송 방법 및 장치 |
US11895286B2 (en) | 2020-12-16 | 2024-02-06 | Samsung Electronics Co., Ltd. | Device and method for transmitting data of multiple applications with low latency |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11734336B2 (en) | Method and apparatus for image processing and associated user interaction | |
KR20200066419A (ko) | 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템 | |
US11119581B2 (en) | Displacement oriented interaction in computer-mediated reality | |
US20220253199A1 (en) | Near interaction mode for far virtual object | |
US10353462B2 (en) | Eye tracker based contextual action | |
US12056271B2 (en) | Gaze timer based augmentation of functionality of a user input device | |
US9329678B2 (en) | Augmented reality overlay for control devices | |
EP2959361B1 (en) | Context-aware augmented reality object commands | |
US9087056B2 (en) | System and method for providing augmented content | |
KR20190133080A (ko) | 증강 현실 시스템용 터치프리 인터페이스 | |
CN111064999B (zh) | 用于处理虚拟现实输入的方法和系统 | |
US11367416B1 (en) | Presenting computer-generated content associated with reading content based on user interactions | |
KR20130061527A (ko) | 정전 용량식 터치 스크린의 터치 감도 제어방법 및 이를 이용한 디스플레이 장치 | |
US12008216B1 (en) | Displaying a volumetric representation within a tab | |
US20240353919A1 (en) | Gaze timer based augmentation of functionality of a user input device | |
US12008160B2 (en) | Eye tracking based selection of a user interface (UI) element based on targeting criteria | |
US11983810B1 (en) | Projection based hair rendering | |
KR20110094692A (ko) | 사용자 인터페이스 제공 장치 및 방법 | |
CN115357118A (zh) | 用于显示三维头像的方法、装置、可穿戴设备及电子设备 | |
EP2886173B1 (en) | Augmented reality overlay for control devices |