KR20200066419A - 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템 - Google Patents

아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템 Download PDF

Info

Publication number
KR20200066419A
KR20200066419A KR1020180152043A KR20180152043A KR20200066419A KR 20200066419 A KR20200066419 A KR 20200066419A KR 1020180152043 A KR1020180152043 A KR 1020180152043A KR 20180152043 A KR20180152043 A KR 20180152043A KR 20200066419 A KR20200066419 A KR 20200066419A
Authority
KR
South Korea
Prior art keywords
user
hmd
image
application
eye
Prior art date
Application number
KR1020180152043A
Other languages
English (en)
Inventor
주해종
박필원
송호빈
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020180152043A priority Critical patent/KR20200066419A/ko
Publication of KR20200066419A publication Critical patent/KR20200066419A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스 기술에 관한 것으로, 가상현실용 사용자 인터페이스를 처리하는 방법은, 아이트래킹(Eye-Tracking) 센서를 이용하여 사용자가 현재 관심을 갖는 위치에 존재하는 오브젝트를 감지하고, 아이트래킹 센서로부터 감지된 오브젝트에 관한 정보를 HMD(Head Mounted Display)로 전달하고, 전달된 시선 데이터를 애플리케이션으로 전달하고, 애플리케이션으로부터 VR 이미지를 생성하고, HMD를 통해 전달받은 사용자 시선 데이터와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지 판단하고, 판단 결과를 바탕으로 해당 오브젝트가 수행할 수 있는 메뉴들을 리스트업하여 정리 후 원본 이미지와 합성하여 HMD로 전달하며, HMD에 보여주는 리스트 중 사용자 자신이 원하는 것을 컨트롤러를 통해 선택받으면, 애플리케이션이 컨트롤러를 통해 받아들인 사용자 입력 정보를 반영하여 새로운 3D 이미지를 출력한다.

Description

아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템{Method and system of user interface for virtual reality using eye-tracking sensor}
본 발명은 가상현실(Virtual Reality: VR) 기술에 관한 것으로, 다양한 가상현실 메커니즘에서 사용될 사용자 인터페이스(User Interface: UI)에 아이트래킹(Eye-Tracking) 기술을 적용하여 사용자의 편의성을 증대시킨 가상현실용 사용자 인터페이스에 대한 방법 및 시스템에 관한 것이다.
가상 현실(Virtual Reality), 증강 현실(Augmented Reality), 혼합 현실(Mixed Reality) 등을 포함하여, 기존의 가상현실(Virtual Reality: VR) 분야의 사용자 인터페이스는 VR 환경 내에서 사용자의 행동에 대한 편의성을 거의 고려하지 않았다. 제안된 대부분의 가상현실(VR)용 사용자인터페이스(UI)는 VR 헤드 마운티드 디스플레이(Head Mounted Display: HMD)를 착용한 상태에서 양손에 VR 컨트롤러를 드는 방식의 사용자 인터페이스를 제공하고 있다. 한 손의 컨트롤러로 오브젝트를 지정하고 메뉴를 연 다음, 다른 손의 컨트롤러로 메뉴를 선택하는 방식이었다.
이는 기존에 사용했던 마우스를 사용하는 방식 그대로 가상환경(Virtual Reality: VR)으로 가져온 것으로 직관적으로 사용자가 인식하여 사용할 수는 있지만, 기존 방식으로는 두 개의 전용 컨트롤러가 필수적이며 사용자가 다른 입력도구나 기구 등을 사용하기 어려운 상황이다.
특히, 가상현실(Virtual Reality) 내에서 사용되는 사용자 인터페이스(User Interface: UI)에 있어서, 최근 상호작용(Interaction)이 가능한 VR 기기 및 콘텐츠가 보급되기 시작함에 따라 해당 콘텐츠를 사용자가 보다 편리하게 즐기기 위한 사용자 중심의 사용자 인터페이스 개발이 요구되고 있다.
"실감형 가상현실 상호작용 기술동향", 김용완, 조동식, 김영희, 김혜미, 김기홍, 한국전자통신연구원, 2012년
본 발명이 해결하고자 하는 기술적 과제는, 특정 오브젝트를 지정함에 있어서 아이트래킹 기법을 활용하여 사용자가 별도의 조작을 거치지 않고 화면 내에 오브젝트가 있다면 사용자가 바라보는 오브젝트에서 지원가능한 기능들을 팝업메뉴를 띄워 가상환경(Virtual Reality: VR)안에서 오브젝트를 지정하는 방법을 간략화하고 빠르게 제어할 수 있는 방법을 제공하는데 목적이 있다.
본 발명의 실시예들에서는 아이트래킹 기술을 이용하여 사용자가 별도의 조작을 거치지 않아도 VR 화면 내에서 사용자가 오브젝트를 바라보는 것만으로도 지원가능한 기능들을 팝업 메뉴로 띄워 줌으로써 사용자가 VR 환경에서 손쉽게 사용할 수 있는 방법 및 시스템을 제공하고자 한다.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 가상현실용 사용자 인터페이스를 처리하는 방법은, (a) 아이트래킹(Eye-Tracking) 센서를 이용하여 사용자가 현재 관심을 갖는 위치에 존재하는 오브젝트를 감지하는 단계; (b) 상기 아이트래킹 센서로부터 감지된 오브젝트에 관한 정보를 HMD(Head Mounted Display)로 전달하고, 전달된 시선 데이터를 애플리케이션으로 전달하는 단계; (c) 애플리케이션으로부터 VR 이미지를 생성하고, HMD를 통해 전달받은 사용자 시선 데이터와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지 판단하는 단계; (d) 판단 결과를 바탕으로 해당 오브젝트가 수행할 수 있는 메뉴들을 리스트업하여 정리 후 원본 이미지와 합성하여 HMD로 전달하는 단계; 및 (e) HMD에 보여주는 리스트 중 사용자 자신이 원하는 것을 컨트롤러를 통해 선택받으면, 애플리케이션이 컨트롤러를 통해 받아들인 사용자 입력 정보를 반영하여 새로운 3D 이미지를 출력하는 단계;를 포함한다.
일 실시예에 따른 가상현실용 사용자 인터페이스를 처리하는 방법에서, 상기 (c) 단계는, HMD로부터 전달받은 시선 데이터를 애플리케이션으로 전달하고, 전달받은 사용자 시선 데이터와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지를 판단할 수 있다.
일 실시예에 따른 가상현실용 사용자 인터페이스를 처리하는 방법에서, 상기 (d) 단계는, 애플리케이션이 사용자가 바라본 오브젝트의 특성을 파악하여 해당 오브젝트가 수행할 수 있는 메뉴 리스트를 정리하여 정리된 메뉴 리스트를 VR 이미지와 합성하여 HMD로 전달하고, 상기 (e) 단계는, HMD가 전달받은 합성 이미지를 출력할 수 있다.
일 실시예에 따른 가상현실용 사용자 인터페이스를 처리하는 방법에서, 상기 (e) 단계는, 사용자가 HMD를 통해 해당 리스트를 보고 자신이 원하는 항목을 컨트롤러로 선택하고, 애플리케이션이 컨트롤러를 통해 받아들인 사용자 입력 데이터를 반영하여 새로운 3D 이미지를 출력할 수 있다.
본 발명의 실시예들은, 아이트래킹 기법을 통해 사용자가 직접 컨트롤러를 조작하는 부분을 줄임으로써 VR 콘텐츠를 조작하는데 사용되는 시간을 극적으로 낮출 수 있을 뿐만 아니라, 전용 컨트롤로 외에 사용자가 가지고 있는 다양한 컨트롤러(키보드, 마우스, 휠 등)를 복합적으로 사용할 수 있다.
또한, 두 개의 전용 컨트롤러를 모두 사용할 필요가 없으므로 사용자는 기존에 사용하던 다른 입력 도구들(예를 들어, 마우스, 휠 등의 장치)를 사용할 수 있는 장점이 있으며, 이는 다양한 입력 도구를 이용하여 쉽게 사용할 수 있다.
나아가, 기존 방식의 경우 양손의 컨트롤러를 사용하여 하나의 작업을 진행하였지만 제안 방식의 경우 하나의 컨트롤러만으로 충분히 콘텐츠를 제어할 수 있어 조작 시간을 줄일 수 있으며, 빠르게 작업을 할 수 있는 장점이 있다.
도 1은 본 발명의 실시 예에 따른 아이트래킹 센서를 이용한 VR 사용자 인터페이스 환경 구성을 도시한다.
도 2는 본 발명이 실시 예에 따른 아이트래킹 센서와 애플리케이션(Application)를 연계하여 사용자 인터페이스를 제어하기 위한 방법을 나타낸 순서도이다.
이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따라 아이트래킹(Eye-Tracking) 센서를 이용한 사용자 친화적 가상현실용 사용자 인터페이스에 대한 처리 방법 및 시스템에 대해서 상세하게 설명한다.
도 1은 본 발명의 실시예에 따른 아이트래킹 센서를 이용하여 사용자가 오브젝트를 파악하고 해당 오브젝트에 적용 가능한 팝업 메뉴를 띄워 주기 위한 블록 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 아이트래킹 센서를 이용한 가상현실(VR) 사용자 인터페이스 환경은 VR 콘텐츠를 사용하기 위한 HMD(Head Mount Display)장치(102), HMD에 내장되어 사용자의 시선 정보를 파악하여 HMD(102)에 전달하는 Eye-tracking 센서(101), VR 이미지를 생성하고 HMD(102)를 통해 전달받은 사용자 시선 정보와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지 판단하는 전용 애플리케이션 서버(Application server)(104), 사용자의 데이터를 받아 애플리케이션으로 전달하는 커트롤러(103)를 포함하여 이루어진다.
전술한 구성에서, 아이트래킹 센서(101)로부터 전달받은 정보를 HMD(102)로 전달하고 전달받은 정보를 애플리케이션 서버(104)로 전달한 후 애플리케이션 서버는 사용자 시선 정보와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지 판단한다. 이를 기반으로 해당 오브젝트가 수행할 수 있는 메뉴들을 리스트업(list-up)하여 정리 후 원본 이미지와 합성하여 HMD(102)로 전달하여 사용자가 내부 디스플레이를 통해 볼 수 있다.
도 2는 본 발명의 실시예에 따른 VR 환경안에서 아이트래킹 센서를 이용한 사용자 인터페이스 수행 절차는 나타낸 순서도이다.
도 2에 도시한 바와 같이, 애플리케이션(203)이 구동되면 VR init(205)에서 데이터를 초기화 하고 이미지를 생성하여 HMD(201)로 전달하는 단계, 전달된 데이터를 HMD(201)내에서 사용자가 시청하면서 사용자가 관심을 가지고 보는 영역을 내장된 아이트래팅 센서(202)가 파악하여 사용자 시선 정보를 생성하는 과정을 거친다.
생성된 사용자 시선 정보를 HMD(201)로 전달하고, HMD(201)는 해당 정보를 애플리케이션(203)으로 전달한다.
애플리케이션(203)은 HMD(201)을 통해 전달받은 사용자 시선 정보와 현재 자신이 생성하는 이미지를 비교하여 사용자가 어느 부분 또는 어느 오브젝트를 주시하는 지 판단한다.
또한 애플리케이션(203)은 해당 오브젝트의 특성을 파악하여 해당 오브젝트가 수행할 수 있는 메뉴들을 정리한다.
정리된 메뉴 리스트를 VR 이미지와 합성하여 HMD(201)로 전달하고, HMD(201)는 전달받은 이미지를 출력한다.
최종적으로 사용자는 해당 리스트 중 자신이 원하는 것을 VR 컨트롤로(204)로 선택하고, 애플리케이션(203)은 VR 컨트롤러(204)를 통해 받아들인 입력 데이터를 반영하여 새로운 3D 이미지를 HMD로 출력하는 방법을 설명한다.
한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
101: 아이트래킹 센서
102: HMD
104: 애플리케이션 서버

Claims (4)

  1. (a) 아이트래킹(Eye-Tracking) 센서를 이용하여 사용자가 현재 관심을 갖는 위치에 존재하는 오브젝트를 감지하는 단계;
    (b) 상기 아이트래킹 센서로부터 감지된 오브젝트에 관한 정보를 HMD(Head Mounted Display)로 전달하고, 전달된 시선 데이터를 애플리케이션으로 전달하는 단계;
    (c) 애플리케이션으로부터 VR 이미지를 생성하고, HMD를 통해 전달받은 사용자 시선 데이터와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지 판단하는 단계:
    (d) 판단 결과를 바탕으로 해당 오브젝트가 수행할 수 있는 메뉴들을 리스트업하여 정리 후 원본 이미지와 합성하여 HMD로 전달하는 단계; 및
    (e) HMD에 보여주는 리스트 중 사용자 자신이 원하는 것을 컨트롤러를 통해 선택받으면, 애플리케이션이 컨트롤러를 통해 받아들인 사용자 입력 정보를 반영하여 새로운 3D 이미지를 출력하는 단계;를 포함하는, 가상현실용 사용자 인터페이스를 처리하는 방법.
  2. 제 1 항에 있어서,
    상기 (c) 단계는,
    HMD로부터 전달받은 시선 데이터를 애플리케이션으로 전달하고, 전달받은 사용자 시선 데이터와 현재 자신이 보여주는 이미지를 비교하여 사용자가 어느 오브젝트를 바라보는지를 판단하는, 가상현실용 사용자 인터페이스를 처리하는 방법.
  3. 제 1 항에 있어서,
    상기 (d) 단계는, 애플리케이션이 사용자가 바라본 오브젝트의 특성을 파악하여 해당 오브젝트가 수행할 수 있는 메뉴 리스트를 정리하여 정리된 메뉴 리스트를 VR 이미지와 합성하여 HMD로 전달하고,
    상기 (e) 단계는, HMD가 전달받은 합성 이미지를 출력하는, 가상현실용 사용자 인터페이스를 처리하는 방법.
  4. 제 1 항에 있어서,
    상기 (e) 단계는,
    사용자가 HMD를 통해 해당 리스트를 보고 자신이 원하는 항목을 컨트롤러로 선택하고, 애플리케이션이 컨트롤러를 통해 받아들인 사용자 입력 데이터를 반영하여 새로운 3D 이미지를 출력하는, 가상현실용 사용자 인터페이스를 처리하는 방법.
KR1020180152043A 2018-11-30 2018-11-30 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템 KR20200066419A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180152043A KR20200066419A (ko) 2018-11-30 2018-11-30 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180152043A KR20200066419A (ko) 2018-11-30 2018-11-30 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR20200066419A true KR20200066419A (ko) 2020-06-10

Family

ID=71087240

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180152043A KR20200066419A (ko) 2018-11-30 2018-11-30 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR20200066419A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022108076A1 (ko) * 2020-11-17 2022-05-27 삼성전자 주식회사 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치
WO2022131615A1 (ko) * 2020-12-16 2022-06-23 삼성전자 주식회사 저지연으로 복수의 어플리케이션 데이터 전송 방법 및 장치
US11847258B2 (en) 2020-11-17 2023-12-19 Samsung Electronics Co., Ltd. Method for wireless connection in augmented reality environment and electronic device therefor
US11895286B2 (en) 2020-12-16 2024-02-06 Samsung Electronics Co., Ltd. Device and method for transmitting data of multiple applications with low latency

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"실감형 가상현실 상호작용 기술동향", 김용완, 조동식, 김영희, 김혜미, 김기홍, 한국전자통신연구원, 2012년

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022108076A1 (ko) * 2020-11-17 2022-05-27 삼성전자 주식회사 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치
US11847258B2 (en) 2020-11-17 2023-12-19 Samsung Electronics Co., Ltd. Method for wireless connection in augmented reality environment and electronic device therefor
WO2022131615A1 (ko) * 2020-12-16 2022-06-23 삼성전자 주식회사 저지연으로 복수의 어플리케이션 데이터 전송 방법 및 장치
US11895286B2 (en) 2020-12-16 2024-02-06 Samsung Electronics Co., Ltd. Device and method for transmitting data of multiple applications with low latency

Similar Documents

Publication Publication Date Title
US11734336B2 (en) Method and apparatus for image processing and associated user interaction
KR20200066419A (ko) 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템
US11119581B2 (en) Displacement oriented interaction in computer-mediated reality
US20220253199A1 (en) Near interaction mode for far virtual object
US10353462B2 (en) Eye tracker based contextual action
US12056271B2 (en) Gaze timer based augmentation of functionality of a user input device
US9329678B2 (en) Augmented reality overlay for control devices
EP2959361B1 (en) Context-aware augmented reality object commands
US9087056B2 (en) System and method for providing augmented content
KR20190133080A (ko) 증강 현실 시스템용 터치프리 인터페이스
CN111064999B (zh) 用于处理虚拟现实输入的方法和系统
US11367416B1 (en) Presenting computer-generated content associated with reading content based on user interactions
KR20130061527A (ko) 정전 용량식 터치 스크린의 터치 감도 제어방법 및 이를 이용한 디스플레이 장치
US12008216B1 (en) Displaying a volumetric representation within a tab
US20240353919A1 (en) Gaze timer based augmentation of functionality of a user input device
US12008160B2 (en) Eye tracking based selection of a user interface (UI) element based on targeting criteria
US11983810B1 (en) Projection based hair rendering
KR20110094692A (ko) 사용자 인터페이스 제공 장치 및 방법
CN115357118A (zh) 用于显示三维头像的方法、装置、可穿戴设备及电子设备
EP2886173B1 (en) Augmented reality overlay for control devices