KR20210005041A - 손 위치에 기초한 모달 제어 개시 기법 - Google Patents

손 위치에 기초한 모달 제어 개시 기법 Download PDF

Info

Publication number
KR20210005041A
KR20210005041A KR1020207031557A KR20207031557A KR20210005041A KR 20210005041 A KR20210005041 A KR 20210005041A KR 1020207031557 A KR1020207031557 A KR 1020207031557A KR 20207031557 A KR20207031557 A KR 20207031557A KR 20210005041 A KR20210005041 A KR 20210005041A
Authority
KR
South Korea
Prior art keywords
hand
computer device
view
field
outside
Prior art date
Application number
KR1020207031557A
Other languages
English (en)
Inventor
펠릭스 제라드 토르킬 이포르 앤드류
마이클 에드워드 하니쉬
리앙 첸
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20210005041A publication Critical patent/KR20210005041A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

컴퓨터 디바이스를 사용하여 시야 외부에 있는 손의 예측된 위치에 기초하여 컴퓨터 디바이스의 애플리케이션 및 시스템 모달 제어를 개시하는 방법 및 디바이스가 개시된다. 이 방법은 사용자의 손의 위치를 추적하는 손 위치 추적 시스템으로부터 손 움직임 정보를 수신하는 단계를 포함한다. 이 방법은 또한 손 움직임 정보에 기초하여 손이 컴퓨터 디바이스의 시야 외부에 있다고 판정하는 단계를 포함한다. 이 방법은 시야 외부에 있는 동안의 손의 위치를 예측하는 단계를 더 포함한다. 이 방법은 또한 손의 예측된 위치에 기초하여 디스플레이 상의 이차 UX와 상호작용하는 단계를 포함한다.

Description

손 위치에 기초한 모달 제어 개시 기법
본 발명은 가상 현실(VR) 디바이스의 모달 제어(modal control)에 관한 것이고, 보다 구체적으로는 손 위치에 기초한 VR 디바이스의 모달 제어에 관한 것이다.
최근 몇 년 동안 성장한 컴퓨터 디바이스의 한 영역은 VR 디바이스인데, 이는 컴퓨터 디바이스로부터 수신된 렌더링 명령어에 기초하여 컴퓨터 디바이스로부터 디스플레이 디바이스로 그래픽을 렌더링하기 위해 그래픽 처리 장치(GPU)를 사용한다. VR 디바이스에서, 디스플레이 디바이스 상에 생성된 장면은 사용자 입력에 기초하여 수정될 수 있는데, 입력은 머리의 검출된 이동(예컨대, 머리 장착형 디스플레이(head mounted display: HMD)와 같은 VR 디바이스의 검출된 이동) 또는 VR 디바이스의 시야 내에 있는 손을 포함할 수 있다.
VR 디바이스의 애플리케이션에서 공통적인 문제는 디스플레이 디바이스 상에서의 다수의 사용자 경험(user experience: UX)의 사용이다. 많은 VR 디바이스의 경우, 디스플레이된 뷰는 데스크톱 디바이스에 의해 사용되는 것과 유사한 테이블형(윈도우형) 경험에 기초한다. 테이블형 경험은 디스플레이된 뷰 내의 다수의 윈도우와, 윈도우 및 애플리케이션 기능을 수행하기 위한 커서 포지셔닝을 포함할 수 있다. VR 디바이스에서, 테이블형 경험은 사용자가 풍부한 VR 경험에 완전하게 참여하는 것을 방해할 수 있다. 예를 들어, 디스플레이된 뷰 내에서의 다수의 윈도우의 동시 사용은, 다수의 윈도우에 의해 야기된 디스플레이된 뷰의 혼잡으로 인해, 사용자에 의한 주요 UX와의 상호작용을 손상시킬 수 있다. 다른 예로서, 디스플레이된 뷰로부터/뷰로의 윈도우의 제거 및 추가는, VR 디바이스의 시야 내에서 커서 위치를 이동시킬 때 사용자의 머리에 의한 위치 변화로 인해, 사용자와 다른 윈도우의 상호작용을 방해할 수 있다.
따라서, 당업계에는 VR 디바이스에 의해 사용되는 다수의 UX의 사용에 대한 개선의 필요성이 존재한다.
다음은 이러한 본 개시의 하나 이상의 구현들의 기본적인 이해를 제공하기 위해 이러한 구현들의 단순화된 개요를 제공한다. 이 개요는 고려되는 모든 구현에 대한 포괄적인 개요가 아니며, 모든 구현의 주요 또는 핵심 요소를 식별하고자 하는 것도, 임의의 또는 모든 구현의 범위를 서술하고자 하는 것도 아니다. 이 개요의 유일한 목적은, 나중에 제시되는 상세한 설명에 대한 서두로서 본 개시의 하나 이상의 구현의 일부 개념을 단순화된 형태로 제시하는 것이다.
본 개시는 디바이스의 시야 외부의 손의 예측된 위치에 기초하여 디바이스의 애플리케이션 및 시스템 모달 제어를 개시하기 위한 방법 및 디바이스에 관한 것이다.
하나의 예시적 구현예는 컴퓨터 디바이스에 관한 것이다. 컴퓨터 디바이스는 데이터 및 명령어를 저장하는 메모리와, 메모리와 통신하고 데이터 및 명령어를 실행하도록 구성된 프로세서와, 일차(primary) 사용자 경험(user experience: UX)을 렌더링하는 디스플레이와, 메모리 및 프로세서와 통신하는 운영 체제를 포함한다. 운영 체제 및 프로세서는, 사용자의 손의 위치를 추적하는 손 위치 추적 시스템으로부터 손 움직임 정보를 수신하고, 손 움직임 정보에 기초하여 손이 디스플레이의 시야 외부에 있다고 판정하고, 시야 외부에 있는 동안의 손의 위치를 머신 학습을 사용하여 예측하고, 손의 예측된 위치에 기초하여 디스플레이 상의 이차(secondary) UX와 상호작용하도록 동작가능하다.
다른 예시적 구현예는 컴퓨터 디바이스의 모달 제어를 위한 방법에 관한 것이다. 이 방법은 사용자의 손의 위치를 추적하는 손 위치 추적 시스템으로부터 손 움직임 정보를 수신하는 단계와, 손 움직임 정보에 기초하여 손이 컴퓨터 디바이스의 시야 외부에 있다고 판정하는 단계와, 시야 외부에 있는 동안의 손의 위치를 머신 학습을 사용하여 예측하는 단계와, 손의 예측된 위치에 기초하로 컴퓨터 디바이스의 디스플레이 상에 이차 UX를 렌더링하는 단계를 포함할 수 있다.
다른 예시적 구현은 컴퓨터 디바이스에 의해 실행가능한 명령어를 저장하는 컴퓨터 판독가능 매체에 관한 것이다. 컴퓨터 판독가능 매체는, 컴퓨터 디바이스로 하여금 사용자의 손의 위치를 추적하는 손 위치 추적 시스템으로부터 손 움직임 정보를 수신하게 하는 적어도 하나의 명령어와, 컴퓨터 디바이스로 하여금 손 움직임 정보에 기초하여 손이 컴퓨터 디바이스의 시야 외부에 있다고 판정하게 하는 적어도 하나의 명령어와, 컴퓨터 디바이스로 하여금 시야 외부에 있는 동안의 손의 위치를 머신 학습을 사용하여 예측하게 하는 적어도 하나의 명령어와, 컴퓨터 디바이스로 하여금 손의 예측된 위치에 기초하여 컴퓨터 디바이스의 디스플레이 상에 이차 UX를 렌더링하게 하는 적어도 하나의 명령어를 포함할 수 있다.
본 개시의 구현과 관련된 추가적인 이점 및 신규한 특징은 다음의 설명에서 일부 제시될 것이고, 일부는 다음의 설명을 검토하거나 그 실시를 통해 학습할 때 당업자에게 더 명백해질 것이다.
도 1은 본 개시의 구현예에 따른 예시적 컴퓨터 디바이스의 개략적 블록도이다.
도 2는 본 개시의 구현예에 따른, 컴퓨터 디바이스의 시야의 예이다.
도 3은 본 개시의 구현예에 따른, 컴퓨터 디바이스에서의 모달 제어를 위한 예시적 방법 흐름이다.
도 4는 본 개시의 구현예에 따른 예시적 디바이스의 개략적 블록도이다.
본 개시는 컴퓨터 디바이스의 시야 외부의 손의 예측된 위치에 기초하여 컴퓨터 디바이스의 애플리케이션 및 시스템 모달 제어를 개시하는 디바이스 및 방법에 관한 것이다. 본 명세서에서 사용될 때, 컴퓨터 디바이스는, (예컨대, 적어도 하나의 가상 환경 입력으로부터의) 가상 현실(virtual reality: VR) 이미지, (예컨대, 적어도 두 개의 가상 환경 입력으로부터의) 혼합 현실(mixed reality: MR) 이미지, 및/또는 (예컨대, 적어도 하나의 가상 환경 입력 및 하나의 실제 환경 입력으로부터) 증강 현실(augmented reality: AR) 이미지를 생성 및/또는 디스플레이하는 디바이스를 포함할 수 있다.
모달 제어는 일차 사용자 경험(UX)이 이차 UX에 종속되는 기술이다. 모달 제어의 예에서, 일차 UX가 예를 들어 비활성화되거나 백그라운드로 설정되는 동안 사용자는 이차 UX와 상호작용할 수 있다. 일차 UX의 예는, VR 이미지, MR 이미지, AR 이미지, 데스크톱 뷰 또는 제 1 애플리케이션을 포함하는 일차 윈도우/이미지를 포함할 수 있다. 이차 UX의 예는, 제 2 애플리케이션, 제 1 애플리케이션과 연관된 애플리케이션 또는 시스템 설정을 보기 위한 유틸리티 윈도우 이미지, 메뉴 또는 사용가능한 커맨드 옵션과 같은 이차 윈도우/이미지를 포함할 수 있다. 예시적 환경에서, 사용자에 의한 일차 UX 및 이차 UX와의 상호작용은, 머리 장착 디스플레이(HMD)의 검출된 이동에 대한 움직임 센서 또는 손 제어기와 같은 입력 디바이스를 통한 사용자와 커서의 상호작용에 기초하여 제어될 수 있다.
VR 환경에서의 애플리케이션은, 사용자로 하여금 환경 속에 들어가 있는 것처럼 느끼게 할 수 있으므로 텔레비전 또는 컴퓨터 모니터의 일반적인 경험에 비해 매우 풍부한 상호작용 경험을 제공할 수 있다. 그러나, 테이블형 환경을 사용하면 VR 환경이 손상될 수 있다. 테이블형 환경은 디스플레이된 뷰 내의 다수의 윈도우와, 윈도우 및 애플리케이션 기능을 수행하기 위한 커서 포지셔닝을 포함할 수 있다. 예를 들어, 테이블형 경험은 HMD의 사용자가 액세스할 수 있는 디스플레이된 뷰를 감소시킬 수 있으며, 이차 UX에 액세스하기 위해 사용자가 일차 UX에서 포커스를 해제해야 하거나 VR 환경에서 커서를 이동시키기 위해 사용자의 머리가 이동되어야 할 수 있다.
본 개시는 모달 제어의 사용을 통해 사용자 경험을 개선하는 튜브형 환경을 VR 환경 내에 제공한다. 본 개시는 디스플레이의 미리 정의된 3차원(3D) 위치에 이차 UX를 배치할 수 있다. 이차 UX는 컴퓨터 디바이스의 시야 외부에 있는 위치에 사용자의 하나 이상의 손을 배치하는 것에 기초하여 사용자에 의해 액세스될 수 있다. 예를 들어, 이차 UX는 사용자가 하나 이상의 손을 시야 외부로 이동시켰다고 컴퓨터 디바이스가 판정할 때 액세스될 수 있다. 즉, 하나 이상의 손은 더이상 컴퓨터 디바이스에 의해 추적될 수 없다. 대신, 컴퓨터 디바이스는 컴퓨터 디바이스의 시야 외부에 있을 때의 하나 이상의 손의 위치를 인공 지능 및/또는 머신 학습을 사용하여 예측한다. 하나 이상의 손의 위치에 기초하여, 컴퓨터 디바이스는 사용자가 엄지 패드와 같은 손 제어기 또는 음성 제어기를 사용하여 이차 UX와 상호작용할 수 있도록 이차 UX를 활성화할 수 있다. 대안적으로, 사용자는 손(들)을 컴퓨터 디바이스의 시야로 복귀시킴으로써 이차 UX와 상호작용할 수 있다.
본 개시에서, 컴퓨터 디바이스는 사용자가 어디를 보고 있는지 및 사용자의 하나 이상의 손이 시야 내에 위치하는지 여부를 모니터링한다. 하나 이상의 손이 컴퓨터 디바이스의 시야 외부로 이동할 때, 컴퓨터 디바이스는 원격 측정에 기초하여 하나 이상의 손이 시야 외부의 어디에 위치할 것인지를 예측할 수 있다.
하나 이상의 손이 주어진 시간 동안 시야 외부에 남아있는 경우, 모달 제어기는 하나 이상의 손의 예측된 위치를 통지받을 수 있고, 하나 이상의 손의 예측된 위치와 연관된 이차 UX가 디스플레이될 수 있다. 그런 다음, 외부 제어기로부터의 입력이 수신되어 이차 UX와 상호작용하는 데 사용될 수 있다. 이차 UX와의 상호작용은 사용자가 외부 제어기를 통해 이차 UX를 해제하거나, 최소화하거나 또는 닫을 때까지 계속될 수 있으며, 일부 구현예에서는 하나 이상의 손이 컴퓨터 디바이스의 시야로 복귀할 때까지 계속될 수 있다.
본 개시에서, 컴퓨터 디바이스의 시야 외부에 한 손이 있어야 하는지 또는 양손이 있어야 하는지는 모달 제어를 사용하는 애플리케이션에 기초할 수 있다. 예를 들어, 모달 제어를 사용하는 일부 애플리케이션은 한 손(예컨대, 오른손)의 사용에만 의존할 수 있는 반면, 다른 애플리케이션은 VR 디바이스의 이하에 설명되는 기능을 수행하기 위해 양손을 필요로 할 수 있다. 따라서, 본 개시의 나머지 부분은 한 손 또는 양손의 특정 사용을 설명하는 특정 구현예가 존재하지 않는 한 하나 이상의 손을 손(들)이라고 지칭한다.
이제 도 1 및 도 2를 참조하면, 손(들)(204)의 예측된 위치(220)에 기초하여 모달 제어를 개시하는 예시적 시스템(100)은, 네트워크(17)를 통해 및/또는 유선 또는 무선 접속을 통해 디스플레이 디바이스(106)와 통신하는 컴퓨터 디바이스(102)를 포함할 수 있다. 컴퓨터 디바이스(102)는 모달 제어를 수행하기 위해 애플리케이션(10)을 실행할 수 있다. 애플리케이션(10)은, 예를 들어, 게임, 오피스 생산성 애플리케이션 또는 임의의 다른 유형의 애플리케이션을 수행하도록 실행가능한 컴퓨터 판독가능 코드 또는 명령어 일 수 있다. 실행될 때, 컴퓨터 디바이스(102)는, 디스플레이 디바이스(106) 상에 애플리케이션(10)의 하나 이상의 장면을 정의하는 하나 이상의 이미지(예컨대, 디스플레이 프레임(25))를 디스플레이하기 위해 이미지 데이터를 생성하고 통신할 수 있다. 디스플레이 디바이스(106)의 예는 HMD 디바이스를 포함할 수 있고, 시스템(100)의 사용자(202)에 의한 시청을 위해 이미지를 출력할 수 있는 하나 이상의 디스플레이 패널(32)(예컨대, 발광 다이오드(LED), 유기 LED(OLED) 또는 액정 디스플레이(LCD))을 가질 수 있다.
컴퓨터 디바이스(102)는 네트워크(17)를 통해 및/또는 유선 또는 무선 접속을 통해 위치 추적 시스템(104)과 통신하여 애플리케이션(10)에 적용할 손 움직임 정보(14)를 획득할 수 있다. 손 움직임 정보는 시야(210) 내에서의 손(들)(204)의 위치 또는 이동 또는 시야(210)로부터의 손(들)의 부재에 대응할 수 있다. 위치 추적 시스템은 시야(210)를 생성하여 사용자(202)의 손(들)(204)을 추적하도록 구성된다. 위치 추적 시스템(104)은 하나 이상의 센서(예컨대, 카메라), 방출기(예컨대, IR LED), 관성 디바이스(가속도계 및/또는 자이로스코프), 및/또는 컴퓨터 디바이스(102)의 시야(210) 내에서 시스템(100)의 사용자(202)의 손(204)의 위치, 방향, 이동, 이동의 방향 및/또는 이동의 속도를 검출할 수 있는 임의의 다른 위치 감지 시스템을 포함할 수 있지만 이에 제한되지는 않는다. 컴퓨터 디바이스(102)의 시야(210)의 예는 도 2에 도시되어 있다. 예에서, 시야(210)는 위치 추적 시스템(104)의 센서(예컨대, 카메라)의 감지 영역일 수 있다. MR 시스템 및 VR 시스템에서, 시야(210)는 디스플레이 디바이스(106)(예컨대, HMD 디바이스)의 디스플레이된 영역에 대응할 수 있다. 예를 들어, MR 시스템에서 시야(210)는 디스플레이 디바이스(106)를 사용하는 동안의 사용자(202)의 실생활 뷰에 대응할 수 있다. 다른 예로서, VR 시스템에서, 시야(210)는 디스플레이 디바이스(106)를 사용하는 동안의 사용자(202)의 가상 현실 뷰에 대응할 수 있다.
일부 구현예에서, 위치 추적 시스템(104)은 하나 이상의 깊이 카메라 및 하나 이상의 관성 측정 유닛(IMU), 추적 소프트웨어, 동시 위치파악 및 매핑 알고리즘, 및 하나 이상의 프로세서를 포함할 수 있지만 이에 제한되지는 않는다. 다른 구현예에서, 위치 추적 시스템(104)은, 환경 내에 위치한 하나 이상의 방출기(예컨대, IR LED)를 검출하기 위한 하나 이상의 센서(예컨대, 카메라)와, 하나 이상의 프로세서를 포함할 수 있지만 이에 제한되지 않는다. 위치 추적 시스템(104)은 사용자(202)의 양손(204)을 개별적으로 추적하도록 구성될 수 있다. 예를 들어, 위치 추적 시스템(104)은 첫 번째 손(예컨대, 오른손)의 이동을 판정하고 첫 번째 손이 컴퓨터 디바이스(102)의 시야(210) 외부에 있는지 또는 내부에 있는지를 판정할 수 있고/있거나, 두 번째 손(예컨대, 왼손)의 이동을 판정하고 두 번째 손이 시야(210) 외부에 있는지 또는 내부에 있는지를 판정할 수 있다.
일부 구현예에서, 위치 추적 시스템(104)은 디스플레이 디바이스(106)(예컨대, HMD) 상에 위치할 수 있고, 카메라, IMU, 추적 디바이스, 또는 사용자의 머리 이동을 추적하기 위한 임의의 다른 디바이스를 포함할 수 있다. 예에서, 위치 추적 시스템(104)은 사용자의 머리 이동(예컨대, 손(들)(204)이 시야(210) 외부에 있게 하는 사용자의 머리에 의한 이동))과 손 움직임 정보(14)를 생성할 때의 사용자의 손 이동(예컨대, 시야(210)를 벗어나는 손(들)(204)의 이동)을 구별하도록 구성될 수 있다.
컴퓨터 디바이스(102)는 또한 네트워크(17)를 통해 및/또는 유선 또는 무선 접속을 통해 손 예측 시스템(110)과 통신하여 애플리케이션(10)에 적용할 손 예측 정보(112)를 획득할 수 있다. 손 예측 시스템(110)은 도 2에 도시된 바와 같이 손(들)(204)이 컴퓨터 디바이스(102)의 시야(210) 외부에 있을 때 사용자(202)의 손(들)(204)의 위치를 예측하도록 구성된다. 예를 들어, 사용자(202)의 손(들)(204)이 시야(210)로부터 제거되면, 위치 추적 시스템(104)은 더이상 손(들)(204)의 위치를 판정할 수 없다. 따라서, 손 예측 시스템(110)은 컴퓨터 디바이스(102)의 시야(210) 외부에 있을 때의 손(들)(204)의 위치(예측된 위치(220)))를 예측한다. 손(들)(204)의 위치의 예측은 손 움직임 정보(14)에 기초할 수 있다. 예를 들어, 손(들)(204)의 위치의 예측은 시야(210) 내부에서 시야(210) 외부로 이동할 때 손(들)(204)의 위치, 방향, 이동, 이동 방향 및/또는 이동 속도에 기초할 수 있다. 일부 예에서, 손(들)(204)의 위치의 예측은 머리 이동과 관련된 정보를 제외시킬 수 있다.
일부 구현예에서, 손 예측 시스템(110)은, 시야(210) 외부에 있을 때의 손(들)(204)의 위치를 예측하고 손 예측 정보(112)를 생성하도록 구성된 머신 학습 시스템 일 수 있다. 손 예측 시스템(110)은 지도 학습(supervised learning), 비지도 학습, 또는 둘 모두의 조합을 사용하는 머신 학습 모델에 기초하여 훈련될 수 있다. 지도 학습을 사용하여 머신 학습 모델을 훈련할 때, 모델에는 라벨링된 입력 및 원하는 출력이 제공되어, 모델은 입력을 출력에 매핑하는 일반 규칙을 학습하도록 훈련된다. 비지도 학습을 사용하여 머신 학습 모델을 훈련할 때, 머신 학습 모델이 입력의 구조를 결정하도록 머신 학습 모델에는 어떠한 라벨도 제공되지 않을 수 있는데, 모델은 입력에서 숨겨진 패턴을 발견하고/하거나 특정 특징을 예측하는 것에 관해 더 많은 것을 학습할 수 있다(예컨대, 모델이 이미 지도 학습을 거친 경우).
또한, 컴퓨터 디바이스(102)는 네트워크(17)를 통해 및/또는 유선 또는 무선 접속을 통해 하나 이상 외부 제어기(108)와 통신하여, 애플리케이션(10)에 적용할 상호작용 정보(12)를 획득할 수 있다. 외부 제어기(108)는 게임 패드, 조이스틱, 키보드, 마우스, 음성 제어기, 또는 애플리케이션(10)과 연관된 게임, 가상 환경 또는 증강 환경과 같은 가상 환경에 대한 상호작용 정보(12)를 제공할 수 있는 임의의 다른 입력 디바이스를 포함할 수 있지만 이에 제한되지는 않는다.
컴퓨터 디바이스(102)는 하나 이상의 프로세서(36) 및/또는 메모리(38)에 의해 실행되는 운영 체제(115)를 포함할 수 있다. 컴퓨터 디바이스(102)의 메모리(38)는 운영 체제(115)를 정의하고/하거나 그와 연관되는 데이터 및/또는 컴퓨터 실행가능 명령어를 저장하도록 구성될 수 있고, 프로세서(36)는 운영 체제(115)를 인스턴스화하기 위해 그러한 데이터 및/또는 명령어를 실행할 수 있다. 메모리(38)의 예는 RAM(random access memory), ROM(read only memory), 테이프, 자기 디스크, 광 디스크, 휘발성 메모리, 비휘발성 메모리, 또는 컴퓨터에 의해 사용가능한 임의의 유형의 메모리, 및/또는 이들의 조합을 포함할 수 있지만 이에 제한되지는 않는다. 프로세서(36)의 예는, 제어기, 마이크로 제어기, ASIC(application specific integrated circuit), FPGA(field programmable gate array), SoC(system on chip), 또는 다른 프로그래밍가능 로직 또는 상태 머신를 포함하여, 본 명세서에 설명된 바와 같이 특별히 프로그래밍된 임의의 프로세서를 포함할 수 있지만 이에 제한되지는 않는다.
컴퓨터 디바이스(102)는 네트워크(17)에 접속될 수 있는 임의의 모바일 또는 고정 컴퓨터 디바이스를 포함할 수 있다. 컴퓨터 디바이스(102)는, 예를 들어, 데스크톱, 랩톱 또는 태블릿 컴퓨터, 셀룰러 전화, 게임 디바이스, MR 디바이스, VR 디바이스, 음악 디바이스, 텔레비전, 내비게이션 시스템, 카메라, PDA(Personal Digital Assistant) 또는 핸드헬드 디바이스, 또는 하나 이상의 다른 디바이스 및/또는 통신 네트워크와의 유선 및/또는 무선 접속 능력을 갖는 임의의 다른 컴퓨터 디바이스와 같은 컴퓨터 디바이스일 수 있다.
운영 체제(115)는, 하나 이상의 이미지 프레임을 렌더링하고 디스플레이 디바이스(106) 상에서의 제시를 위해 렌더링된 이미지 프레임을 전송할 시기를 결정하도록 동작할 수 있는 그래픽 처리 장치(GPU)(24)를 포함할 수 있다. 구체적으로, GPU(24)는 하나 이상의 애플리케이션(10)으로부터 데이터 및/또는 명령어를 수신할 수 잇고, 수신된 데이터 및/또는 명령어에 기초하여 하나 이상의 디스플레이 프레임(예컨대, 디스플레이 프레임(25))을 생성할 수 있다. GPU(24)는 디스플레이 제어기(26)와 통신하여, 디스플레이 디바이스(106) 상에서의 제시를 위해 렌더링된 이미지 프레임(예컨대, 디스플레이 프레임(25))을 전송할 수 있다.
또한, 운영 체제(115)는 또한, 프로세서(36) 및/또는 메모리(38)와 통신 가능하게 결합되어 디스플레이 포트(30)를 통해 디스플레이 디바이스(106)와 통신할 수 있는 디스플레이 인터페이스(28)를 포함할 수 있다. 구현예에서, 디스플레이 제어기(26)는, 디스플레이 인터페이스(28)에, 디스플레이 디바이스(106) 상에서의 디스플레이를 위해 렌더링된 이미지(예컨대, 디스플레이 프레임(25))를 전달할 것을 지시할 수 있다. 디스플레이 포트(30)는 렌더링된 이미지를 디스플레이 포트(34)로 전송할 수 있다. 디스플레이 포트(30)는 HDMI(high definition multimedia interface) 포트, DSI(display serial interface) 포트, MIPI(mobile industry processor interface) DSI 포트, USB(universal serial bus) 포트, Firewire 포트, 또는, 예를 들어, 컴퓨터 디바이스(102)와 디스플레이 디바이스(106) 사이의 네트워크(17)를 통해 통신을 허용할 수 있는 다른 내장형 또는 외부 유선 또는 무선 디스플레이 포트를 포함하지만 이에 제한되지 않는 다양한 유형의 포트를 포함할 수 있다.
컴퓨터 디바이스(102)는 또한, 디스플레이 디바이스(106) 상에 하나 이상의 이미지(예컨대, 디스플레이 프레임(25))를 제시하기 위해 프로세서(36)에 의해 실행될 수 있는 하나 이상의 애플리케이션(10)을 포함할 수 있다. 프로세서(36)에 의해 실행되는 하나 이상의 애플리케이션(10)은 또한 운영 체제(115) 및/또는 GPU(24)와 협력하여 동작하여, 예를 들어 모달 제어기(20)를 실행하고 디스플레이 디바이스(106) 상의 제시를 위한 이미지 프레임(들)을 생성할 수 있다.
하나 이상의 애플리케이션(10)은 손 움직임 정보(14) 및 손 예측 정보(112)에 기초하여 디스플레이 패널(32) 상에 하나 이상의 디스플레이 프레임(25)을 렌더링하도록 동작할 수 있는 모달 제어기(20)를 포함할 수 있다. 구현예에서, 모달 제어기(20)는 일차 사용자 경험(UX)(120) 및/또는 이차 UX(122)를 디스플레이할 시기를 판정할 수 있다. 구현예에서, 일차 UX(120)는 사용자(202)의 손(들)(204)이 컴퓨터 디바이스(102)의 시야(210) 내에 있을 때 디스플레이될 수 있고, 이차 UX(122)는 손(들)(204)이 컴퓨터(102)의 시야(210) 외부에 있을 때 디스플레이될 수 있다. 일부 양상에서, 이차 UX(122)는 단독으로, 또는 일차 UX(120)와 동시에, 또는 다른 UX와 함께 디스플레이될 수 있다.
구현예에서, 모달 제어기(20)는 손 움직임 정보(14)에 기초하여 사용자(202)의 손(들)(204)이 컴퓨터 디바이스(102)의 시야(210) 내부에 있는지 또는 외부에 있는지를 판정한다. 손(들)(204)이 내부에 있는지 여부를 판정하는 것은 손(들)(204)이 컴퓨터 디바이스(102)의 시야(210) 내에 있음을 감지하는 위치 추적 시스템(104)의 센서(예컨대, 카메라)에 기초할 수 있다. 즉, 손(들)(204)이 위치 추적 시스템(104)의 센서의 추적 영역 내에 있을 때(즉, 손(들)(204)이 위치 추적 시스템(104)에 의해 추적가능할 때) 손(들)(204)은 컴퓨터 디바이스(102)의 시야 내에 또는 내부에 있다. 반대로, 손(들)(204)이 위치 추적 시스템(104)의 센서의 추적 영역 내에 있지 않을 때(즉, 손(들)(204))이 위치 추적 시스템(104)에 의해 추적가능하지 않을 때) 손(들)(204)은 컴퓨터 디바이스(102)의 시야 외부에 있다. 또한, 모달 제어기(20)는 손(들)(204)이 미리 결정된 시간(예컨대, 1초)보다 더 오랫동안 시야(210) 외부에 남아있을 때 손(들)(204)이 시야(210) 내부에 있는지 또는 외부에 있는지를 판정할 수 있다. 구현예에서, 미리 결정된 시간은 사용자(202)의 습관, 이동 및 동작을 고려할 수 있는 머신 학습에 기초하여 결정될 수 있다.
구현예에서, 모달 제어기(20)는 또한, 손(들)(204)이 손 이동을 통해 시야(210) 밖으로 이동되었다고 판정할 수 있다.
사용자(202)의 손(들)(204)이 컴퓨터 디바이스(102)의 시야(210) 외부에 있다고 판정될 때, 모달 제어기(20)는 손 예측 정보(112)에 기초하여 손(들)(204)의 예측된 위치(220)를 결정할 수 있다. 예측된 위치(220)는 디스플레이 디바이스(106)에 대한 이차 UX를 렌더링하기 위해 모달 제어기(20)에 의해 사용될 수 있다. 일부 구현예에서, 이차 UX(122)는 손(들)(204)의 예측된 위치와 연관된다. 예를 들어, 예측된 위치가 제 1 예측된 위치(예컨대, 사용자(202)의 손(들)(204)이 시야(210) 외부에 있고 어깨 높이에 있음)인 경우에 이차 UX(122)는 제 1 유틸리티 UX(예컨대, 애플리케이션 설정)일 수 있고, 예측된 위치가 제 2 예측된 위치(예컨대, 사용자(202)의 손(들)(204)이 시야(210) 외부에 있고 허리 높이에 있음)인 경우에 이차 UX(122)는 제 2 유틸리티 UX(예컨대, 시스템 설정)일 수 있다.
모달 제어기(20)는 또한 외부 제어기(들)(108) 또는 손(들)(204)로부터 입력을 수신하여 이차 UX(122)와 상호작용하도록 동작할 수 있다. 입력은 외부 제어기(들)(108) 또는 손(들)(204)의 실세계 이동일 수 있다. 예를 들어, 모달 제어기(20)는 조이스틱의 이동 및/또는 버튼의 클릭에 대응하는 가상 움직임 정보(12)를 외부 제어기(들)(108)(예컨대, 손 제어기)로부터 수신할 수 있다. 다른 예에서, 손(들)(204)은 이차 UX(122)가 디스플레이되고 있는 동안 시야(210)로 복귀할 수 있고, 손 움직임 정보(14)는 시야(210) 내에서의 손(들)(204)의 위치 또는 이동에 대응할 수 있다. 이차 UX(122)와의 상호작용은, 이차 윈도우 크기 조정(예컨대, 윈도우 해제, 최소화 또는 최대화), 객체 선택(예컨대, 버튼 또는 텍스트 선택), 메뉴 스크롤, 또는 이차 UX(122)와 임의의 다른 유형의 상호작용을 수행하는 것을 포함할 수 있다.
일부 구현예에서, 위치 추적 시스템(104)은 사용자(202)의 양손(204)을 개별적으로 추적하여, 첫 번째 손(예컨대, 오른손)에 의한 이동은 이차 UX(122)가 디스플레이 디바이스(106) 상에 렌더링 될 때 이차 UX(122)와 상호작용하도록 모달 제어기(20)에 의해 사용될 수 있게 하고(예컨대, 제 2 애플리케이션, 설정), 두 번째 손(예컨대, 왼손)에 의한 이동은 일차 UX(120)와 상호작용하기 위해 모달 제어기(20)에 의해 사용될 수 있게 한다(예컨대, 운영 체제 UX, 제 1 애플리케이션, 애플리케이션 시작, 애플리케이션들 간의 전환, 알림과의 상호작용). 모달 제어기(20)는 입력(예컨대, 가상 움직임 정보(12) 또는 손 움직임 정보(14))을 디스플레이 프레임(25)의 이차 UX(122) 상의 상호작용(예컨대, 커서 이동 또는 버튼 클릭)에 대응하는 가상 좌표로 변환할 수 있다.
서로 분리되어 있는 것으로 도시되었지만, 당업자는 컴퓨터 디바이스(102), 위치 추적 시스템(104), 디스플레이 디바이스(106), 외부 제어기(108), 및/또는 손 예측 시스템(110) 중 하나 이상이 서로 멀리 떨어져 있을 수도 있고, 서로에 위치할 수도 있고, 부분적으로 서로 멀리 떨어져 있을 수도 있고, 부분적으로 서로에 위치할 수도 있음을 인식할 것이다.
이제 도 3을 참조하면, 컴퓨터 디바이스(102)의 모달 제어를 위한 예시적 방법(300)이 설명된다. 블록 302에서, 방법(300)은 사용자의 손(들)의 위치를 추적하는 손 위치 추적 시스템으로부터 손 움직임 정보를 수신하는 단계를 포함할 수 있다. 예를 들어, 도 1 및 도 2에 도시된 바와 같이, 컴퓨터 디바이스(102)는 위치 추적 시스템(104)으로부터 손 움직임 정보(14)를 수신할 수 있다. 일 예에서, 손 움직임 정보(14)는, 컴퓨터 디바이스(102)의 시야(210) 내에 손(들)(204)이 있거나 시야(210)에 손(들)이 없는 동안의 사용자(202)의 손(들)(204)의 위치 정보에 대응할 수 있다.
블록 304에서, 방법(300)은 손 움직임 정보에 기초하여 손(들)이 컴퓨터 디바이스의 시야 외부에 있다고 판정하는 단계를 포함할 수 있다. 예를 들어, 도 1 및 도 2에 도시된 바와 같이, 컴퓨터 디바이스(102)는 위치 추적 시스템(104)의 센서가 손(들)(204)을 검출하지 않을 때 손(들)(204)이 시야(210) 외부에 있다고 판정할 수 있다.
블록 306에서, 방법(300)은 시야 외부에 있는 동안 손(들)의 위치를 예측하는 단계를 포함할 수 있다. 예를 들어, 도 1 및 도 2에 도시된 바와 같이, 컴퓨터 디바이스(102)는 손 예측 시스템(110)으로부터 손 예측 정보(112)를 수신할 수 있다. 손 예측 정보(112)는 손(들)(204)의 예측된 위치(220)를 결정하는 머신 학습에 기초할 수 있다.
일부 예에서, 손 예측 정보(112)는 또한 사용자(202)에 의해 수행된 저장된 이력적 동작에 기초할 수 있다. 예를 들어, 컴퓨터 디바이스(102)는 사용자(202)에 의해 수행된 임의의 동작을 메모리(38)에 저장할 수 있다. 저장된 동작은, 사용자(202)에 의해 수행된 경향 및 움직임으로부터 학습하고 손 예측 정보(112)를 더 잘 예측하기 위해 컴퓨터 디바이스에 의해 사용될 수 있다. 일부 예에서, 이력적 정보는 손 예측 시스템(110)과 공유될 수 있다.
블록 308에서, 방법은 손(들)의 예측된 위치에 기초하여 디스플레이 상에 이차 UX를 렌더링하는 단계를 포함할 수 있다. 예를 들어, 도 1 및 도 2에 도시된 바와 같이, 모달 제어기(20)는 손 예측 정보(112)에 기초하여 컴퓨터 디바이스(102)의 시야(210) 외부에 있는 동안의 손(들)(204)의 위치를 결정할 수 있다. 예측된 위치(220)에 기초하여, 모달 제어기(20)는 디스플레이 패널(32)로 하여금 이차 UX(122)를 디스플레이하게 할 것을 디스플레이 인터페이스(28)에 지시할 수 있다.
블록 310에서, 방법은 선택적으로, 손 움직임 정보에 기초하여 손(들)이 디스플레이의 시야 내부로 복귀했다고 판정하는 단계를 포함할 수 있다. 예를 들어, 도 1 및 도 2에 도시된 바와 같이, 모달 제어기(20)는 손(들)(204)이 시야(210)로 복귀한 후에 손 움직임 정보(14)를 수신할 수 있다. 일부 구현예에서, 모달 제어기(20)가 손(들)(204)이 시야(210) 내부로 복귀했다고 판정할 경우, 컴퓨터 디바이스(102)는 이차 UX(122)를 해제하거나, 최소화하거나 또는 닫을 수 있다. 대안적으로, 모달 제어기(20)는 아래의 블록 312에서 논의되는 바와 같이 이차 UX(122)와 상호작용하기 위한 커맨드를 수신할 수 있다.
블록 312에서, 방법은 선택적으로, 이차 UX와 상호작용하기 위한 커맨드를 수신하는 단계를 포함할 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 모달 제어기(20)는 외부 제어기(108) 또는 위치 추적 시스템(104) 중 하나 이상으로부터 커맨드를 수신할 수 있다. 예에서, 커맨드는 이차 UX(122)와의 상호작용을 나타내는 손 제어기 또는 음성 제어기로부터의 커맨드에 대응할 수 있다. 대안적으로, 커맨드는 손(들)(204)이 시야(210) 내부로 복귀한 후에 위치 추적 시스템(104)에 의해 검출된 손 움직임에 대응할 수 있다.
블록 314에서, 방법은 선택적으로, 커맨드에 기초하여 이차 UX와 상호작용하는 단계를 포함할 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 모달 제어기(20)는 외부 제어기(108) 또는 위치 추적 시스템(104)으로부터 수신된 커맨드에 기초하여 이차 UX(122)와 상호작용할 수 있다. 이전에 논의된 바와 같이, 이차 UX(122)와의 상호작용은 예를 들어 버튼을 클릭하거나, 이미지 또는 텍스트를 강조 표시하거나, 이차 UX(122)와의 임의의 다른 상호작용을 포함할 수 있다. 또한, 상호작용은 사용자(202)의 손(들)(204)의 예측된 위치에 기초하여 결정될 수 있다. 예를 들어, 손(들)(204)이 제 1 위치에 있다고 예측될 경우에 이차 UX(122)는 예를 들어 제 1 애플리케이션 또는 제 2 애플리케이션과 연관된 애플리케이션 설정 윈도우일 수 있고, 손(들)(204)이 제 2 위치에 있다고 예측될 경우에 이차 UX(122)는 예를 들어 시스템 설정 윈도우 또는 제 3 애플리케이션일 수 있다. 따라서, 이차 UX(122)와의 상호작용은 디스플레이되는 이차 UX(122)의 유형에 기초하여 상이할 수 있다.
이제 도 4을 참조하면, 도 1에 비해 추가 구성요소 세부사항을 포함하는, 구현예에 따른 컴퓨터 디바이스(102)의 예가 도시되어 있다.
컴퓨터 디바이스(102)는 본 명세서에 설명된 하드웨어, 소프트웨어 및 서비스를 사용하여 하나 이상의 당사자와의 통신을 수립하고 유지하기 위해 제공되는 통신 구성요소(40)를 포함할 수 있다. 통신 구성요소(40)는 컴퓨터 디바이스(102) 상의 컴포넌트들 사이에서뿐만 아니라, 통신 네트워크에 걸쳐 위치한 디바이스들 및/또는 컴퓨터 디바이스(102)에 직렬로 또는 로컬로 접속된 디바이스들과 같은 외부 디바이스들과 컴퓨터 디바이스(102) 사이에서 통신을 전달할 수 있다. 예를 들어, 통신 구성요소(40)는 하나 이상의 버스를 포함할 수 있고, 외부 디바이스와 인터페이스하도록 동작할 수 있는, 송신기 및 수신기와 각각 연관된 송신 체인 구성요소 및 수신 체인 구성요소를 더 포함할 수 있다.
또한, 컴퓨터 디바이스(102)는, 본 명세서에 설명된 구현과 관련하여 사용되는 정보, 데이터베이스 및 프로그램의 대량 저장을 제공하는, 하드웨어 및/또는 소프트웨어의 임의의 적절한 조합일 수 있는 데이터 스토어(42)를 포함할 수 있다. 예를 들어, 데이터 스토어(42)는 애플리케이션(10)(도 1), GPU 24(도 1), 디스플레이 제어기(26)(도 1) 및/또는 디스플레이 인터페이스(28)(도 1)를 위한 데이터 저장소일 수 있다. .
컴퓨터 디바이스(102)는 또한, 컴퓨터 디바이스(102)의 사용자로부터 입력을 수신하도록 동작할 수 있고 사용자에게 제시하기 위한 출력을 생성하도록 또한 동작할 수 있는 사용자 인터페이스 구성요소(44)를 포함할 수 있다. 사용자 인터페이스 구성요소(44)는 키보드, 숫자 패드, 마우스, 터치 감지 디스플레이, 내비게이션 키, 기능 키, 마이크로폰, 음성 인식 구성요소, 사용자로부터 입력을 수신할 수 있는 임의의 다른 메커니즘, 또는 이들의 조합를 포함하지만 이에 제한되지 않는 하나 이상의 입력 디바이스를 포함할 수 있다. 또한, 사용자 인터페이스 구성요소(44)는 디스플레이, 스피커, 햅틱 피드백 메커니즘, 프린터, 사용자에게 출력을 제시할 수 있는 임의의 다른 메커니즘, 또는 이들의 임의의 조합을 포함하지만 이에 제한되지 않는 하나 이상의 출력 디바이스를 포함할 수 있다.
구현예에서, 사용자 인터페이스 구성요소(44)는 애플리케이션(10), GPU(24), 디스플레이 제어기(26) 및/또는 디스플레이 인터페이스(28)의 동작에 대응하는 메시지를 송신 및/또는 수신할 수 있다. 또한, 프로세서(36)는 애플리케이션(10), GPU(24), 디스플레이 제어기(26), 및/또는 디스플레이 인터페이스(28)를 실행할 수 있고, 메모리(38) 또는 데이터 스토어(42)는 이들을 저장할 수 있다.
본 출원에서 사용될 때, "구성요소", "시스템" 등의 용어는, 하드웨어, 펌웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행 중인 소프트웨어와 같은(그러나 이에 제한되지는 않음) 컴퓨터 관련 엔티티를 포함하도록 의도된다. 예를 들어, 구성요소는 프로세서 상에서 작동 중인 프로세스, 프로세서, 객체, 실행 파일, 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만 이에 제한되지는 않는다. 예를 들어, 컴퓨터 디바이스에서 작동 중인 애플리케이션과 컴퓨터 디바이스는 모두 구성요소가 될 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행 스레드 내에 존재할 수 있으며, 하나의 구성요소는 하나의 컴퓨터에서 국소화되고/되거나 두 대 이상의 컴퓨터 사이에서 분산될 수 있다. 또한, 이들 구성요소는 다양한 데이터 구조가 저장되어 있는 다양한 컴퓨터 판독가능 매체로부터 실행될 수 있다. 구성요소들은, 예컨대, 하나의 구성요소로부터의 데이터와 같은 하나 이상의 데이터 패킷을 갖는 신호에 따라 로컬 시스템 및/또는 분산 시스템의 다른 구성요소와 상호작용하게 하고/하거나 그 신호에 의해 인터넷과 같은 네트워크를 가로질러 다른 시스템과 상호작용하게 하는 로컬 및/또는 원격 프로세스에 의해 통신할 수 있다.
또한, "또는"이라는 용어는 배타적 "또는"이 아니라 포괄적 "또는"을 의미하도록 의도된다. 즉, 달리 명시되지 않거나 문맥으로부터 명확하지 않은 한, "X는 A 또는 B를 사용한다"라는 문구는 자연적인 포괄 순열들 중 임의의 것을 의미한다. 즉, "X는 A 또는 B를 사용한다"라는 문구는 다음과 같은 경우에 충족된다: X는 A를 사용하거나, X는 B를 사용하거나, X는 A와 B를 모두 사용한다. 또한, 본 출원 및 첨부된 청구 범위에서 사용된 관사 "a" 및 "an"은, 달리 명시되지 않거나 문맥으로부터 단수 형태를 지시하는 것이 명확하지 않은 한, 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.
다수의 디바이스, 구성요소, 모듈 등을 포함할 수 있는 시스템의 관점에서 다양한 구현 또는 특징이 제시되었을 수 있다. 다양한 시스템은 추가 디바이스, 구성요소, 모듈 등을 포함할 수 있고/있거나, 도면과 관련하여 논의된 디바이스, 구성요소, 모듈 등의 전부를 포함하는 것은 아닐 수 있음이 이해 및 인식되어야 한다. 이러한 접근 방식들의 조합도 사용될 수 있다.
본 명세서에 개시된 실시예들과 관련하여 설명된 방법들의 다양한 예시적 로직, 로직 블록 및 동작은, 범용 프로세서, DSP(digital signal processor), ASIC(application specific integrated circuit), FPGA(field programmable gate array) 또는 다른 프로그래밍가능 로직 디바이스, 개별 게이트 또는 트랜지스터 로직, 개별 하드웨어 구성요소, 또는 본 명세서에 설명된 기능을 수행하도록 설계된 이들의 임의의 조합 중 특별히 프로그래밍된 것을 사용하여 구현되거나 수행될 수 있다. 범용 프로세서는 마이크로프로세서일 수 있지만, 대안적으로 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로 제어기 또는 상태 머신일 수 있다. 프로세서는 또한 컴퓨터 디바이스들의 조합, 예컨대, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서, DSP 코어와 협력하는 하나 이상의 마이크로프로세서, 또는 임의의 다른 그러한 구성으로서 구현될 수 있다. 추가적으로, 적어도 하나의 프로세서는 위에서 설명된 단계들 및/또는 동작들 중 하나 이상을 수행하도록 동작할 수 있는 하나 이상의 구성요소를 포함할 수 있다.
또한, 본 명세서에 개시된 구현과 관련하여 설명된 방법 또는 알고리즘의 단계들 및/또는 동작들은, 하드웨어, 프로세서에 의해 실행되는 소프트웨어 모듈, 또는 이 둘의 조합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 이동식 디스크, CD-ROM, 또는 당업계에 알려진 임의의 다른 형태의 저장 매체에 존재할 수 있다. 예시적 저장 매체는 프로세서에 결합될 수 있어서, 프로세서는 저장 매체로부터 정보를 판독하고 저장 매체에 정보를 기록할 수 있다. 대안적으로, 저장 매체는 프로세서에 통합될 수 있다. 또한, 일부 구현예에서, 프로세서 및 저장 매체는 ASIC에 존재할 수 있다. 추가적으로, ASIC는 사용자 단말기에 존재할 수 있다. 대안적으로, 프로세서 및 저장 매체는 사용자 단말에서 개별 구성요소로서 존재할 수 있다. 추가적으로, 일부 구현예에서, 방법 또는 알고리즘의 단계들 및/또는 동작들은, 컴퓨터 프로그램 제품으로 통합될 수 있는 머신 판독가능 매체 및/또는 컴퓨터 판독가능 매체 상에 코드들 및/또는 명령어들 중 하나 또는 임의의 조합 또는 세트로서 존재할 수 있다.
하나 이상의 구현예에서, 설명된 기능은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수 있다. 소프트웨어로 구현되는 경우, 기능은 컴퓨터 판독가능 매체 상에 하나 이상의 명령어 또는 코드로 저장되거나 전송될 수 있다. 컴퓨터 판독가능 매체는, 한 장소에서 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체 및 컴퓨터 저장 매체를 모두 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 사용 가능한 매체일 수 있다. 제한이 아닌 예로서, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 기타 광 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 저장 디바이스, 또는 명령어 또는 데이터 구조의 형태로 원하는 프로그램 코드를 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 본 명세서에 사용된 디스크(disk) 및 디스크(disc)는 CD(compact disc), 레이저 디스크, 광 디스크, DVD(digital versatile disc), 플로피 디스크 및 Blu-ray 디스크를 포함하는데, 디스크(disk)는 일반적으로 데이터를 자기적으로 재생하는 반면, 디스크(disc)는 일반적으로 레이저를 사용하여 데이터를 광학적으로 재생한다. 위의 것들의 조합도 컴퓨터 판독가능 매체의 범위 내에 포함되어야 한다.
본 개시의 구현들은 그 예와 관련하여 설명되었지만, 당업자는 전술한 구현의 변형 및 수정이 본 개시의 범위를 벗어나지 않고 이루어질 수 있음을 이해할 것이다. 본 명세서의 고려로부터 또는 본 명세서에 개시된 예에 따른 실시로부터 당업자에게는 다른 구현이 명백할 것이다.

Claims (15)

  1. 컴퓨터 디바이스로서,
    데이터 및 명령어를 저장하는 메모리와,
    상기 메모리와 통신하는 프로세서와,
    일차(primary) 사용자 경험(user experience: UX)을 렌더링하는 디스플레이와,
    상기 메모리 및 상기 프로세서와 통신하는 운영 체제를 포함하되,
    상기 운영 체제 및 상기 프로세서는,
    사용자의 손의 위치를 추적하는 손 위치 추적 시스템으로부터 손 움직임 정보를 수신하고,
    상기 손 움직임 정보에 기초하여 상기 손이 상기 디스플레이의 시야 외부에 있다고 판정하고,
    상기 시야 외부에 있는 동안의 상기 손의 위치를 예측하고,
    상기 손의 예측된 위치에 기초하여 상기 디스플레이 상의 이차(secondary) UX와 상호작용하도록 동작가능한,
    컴퓨터 디바이스.
  2. 제 1 항에 있어서,
    상기 시야 외부에 있는 동안의 상기 손의 위치는 머신 학습에 기초하여 예측되는,
    컴퓨터 디바이스.
  3. 제 1 항에 있어서,
    상기 운영 체제 및 상기 프로세서는 또한,
    상기 손이 상기 시야 외부에 있는 동안 상기 이차 UX와 상호작용하기 위한 커맨드를 수신하고,
    상기 커맨드에 기초하여 상기 이차 UX와 상호작용하도록 동작가능한,
    컴퓨터 디바이스.
  4. 제 3 항에 있어서,
    상기 커맨드는 손 제어기로부터의 신호 또는 음성 커맨드 중 하나 이상인,
    컴퓨터 디바이스.
  5. 제 3 항에 있어서,
    상기 운영 체제 및 상기 프로세서는 또한,
    상기 손의 제 1 예측된 위치 및 제 1 커맨드에 기초한 제 1 명령어에 따라 상기 이차 UX와 상호작용하고,
    상기 손의 제 2 예측된 위치 및 제 2 커맨드에 기초한 제 2 명령어에 따라 상기 이차 UX와 상호작용하도록 동작가능하고,
    상기 제 1 명령어는 상기 제 2 명령어와 상이하고, 상기 제 1 예측된 위치는 상기 제 2 예측된 위치와 상이한,
    컴퓨터 디바이스.
  6. 제 3 항에 있어서,
    상기 운영 체제 및 상기 프로세서는 또한, 상기 손 움직임 정보에 기초하여 상기 손이 상기 디스플레이의 시야 내부로 복귀했다고 판정하도록 동작 가능하고,
    상기 커맨드는 상기 손이 상기 시야 내부에 있는 동안 수신된 상기 손 움직임 정보에 기초하는,
    컴퓨터 디바이스.
  7. 제 1 항에 있어서,
    상기 시야 외부에 있는 동안의 상기 손의 위치는 또한 상기 사용자에 의한 저장된 이력적 동작에 기초하여 예측되는,
    컴퓨터 디바이스.
  8. 제 1 항에 있어서,
    상기 이차 UX는 상기 손이 상기 디스플레이의 시야 외부에 있는 것으로 판정될 때 상기 디스플레이 상에 렌더링되는,
    컴퓨터 디바이스.
  9. 컴퓨터 디바이스의 모달 제어(modal control)를 위한 방법으로서,
    사용자의 손의 위치를 추적하는 손 위치 추적 시스템으로부터 손 움직임 정보를 수신하는 단계와,
    상기 손 움직임 정보에 기초하여 상기 손이 디스플레이의 시야 외부에 있다고 판정하는 단계와,
    상기 시야 외부에 있는 동안의 상기 손의 위치를 예측하는 단계와,
    상기 손의 예측된 위치에 기초하여 상기 컴퓨터 디바이스의 디스플레이 상에 이차 UX를 렌더링하는 단계를 포함하는
    방법.
  10. 제 9 항에 있어서,
    상기 시야 외부에 있는 동안의 상기 손의 위치는 머신 학습에 기초하여 예측되는,
    방법.
  11. 제 9 항에 있어서,
    상기 이차 UX와 상호작용하기 위한 커맨드를 수신하는 단계와,
    상기 커맨드에 기초하여 상기 이차 UX와 상호작용하는 단계를 더 포함하는
    방법.
  12. 제 11 항에 있어서,
    상기 커맨드는 손 제어기로부터의 신호 또는 음성 커맨드 중 하나 이상인,
    방법.
  13. 컴퓨터 디바이스에 의해 실행가능한 명령어를 저장하는 컴퓨터 판독가능 매체로서,
    상기 컴퓨터 디바이스로 하여금 사용자의 손의 위치를 추적하는 손 위치 추적 시스템으로부터 손 움직임 정보를 수신하게 하는 적어도 하나의 명령어와,
    상기 컴퓨터 디바이스로 하여금 상기 손 움직임 정보에 기초하여 상기 손이 디스플레이의 시야 외부에 있다고 판정하게 하는 적어도 하나의 명령어와,
    상기 컴퓨터 디바이스로 하여금 상기 시야 외부에 있는 동안의 상기 손의 위치를 예측하게 하는 적어도 하나의 명령어와,
    상기 컴퓨터 디바이스로 하여금 상기 손의 예측된 위치에 기초하여 상기 컴퓨터 디바이스의 디스플레이 상에 이차 UX를 렌더링하게 하는 적어도 하나의 명령어를 포함하는,
    컴퓨터 판독가능 매체.
  14. 제 13 항에 있어서,
    상기 시야 외부에 있는 동안의 상기 손의 위치는 머신 학습에 기초하여 예측되는,
    컴퓨터 판독가능 매체.
  15. 제 13 항에 있어서,
    상기 컴퓨터 디바이스로 하여금 상기 손이 상기 시야 외부에 있는 동안 상기 이차 UX와 상호작용하기 위한 커맨드를 수신하게 하는 적어도 하나의 명령어와,
    상기 컴퓨터 디바이스로 하여금 상기 커맨드에 기초하여 상기 이차 UX와 상호작용하게 하는 적어도 하나의 명령어를 더 포함하는
    컴퓨터 판독가능 매체.
KR1020207031557A 2018-05-03 2019-04-22 손 위치에 기초한 모달 제어 개시 기법 KR20210005041A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862666494P 2018-05-03 2018-05-03
US62/666,494 2018-05-03
US16/119,098 2018-08-31
US16/119,098 US10860088B2 (en) 2018-05-03 2018-08-31 Method and system for initiating application and system modal control based on hand locations
PCT/US2019/028599 WO2019212793A1 (en) 2018-05-03 2019-04-22 Initiating modal control based on hand locations

Publications (1)

Publication Number Publication Date
KR20210005041A true KR20210005041A (ko) 2021-01-13

Family

ID=68385186

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207031557A KR20210005041A (ko) 2018-05-03 2019-04-22 손 위치에 기초한 모달 제어 개시 기법

Country Status (5)

Country Link
US (1) US10860088B2 (ko)
EP (1) EP3788460A1 (ko)
JP (1) JP7252252B2 (ko)
KR (1) KR20210005041A (ko)
WO (1) WO2019212793A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024043438A1 (ko) * 2022-08-24 2024-02-29 삼성전자주식회사 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172651A1 (ja) * 2021-02-12 2022-08-18 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
GB2614330A (en) * 2021-12-31 2023-07-05 Sony Interactive Entertainment Europe Ltd Peripheral tracking system and method

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002342067A1 (en) * 2001-10-12 2003-04-22 Hrl Laboratories, Llc Vision-based pointer tracking method and apparatus
US8488888B2 (en) * 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
JP5865615B2 (ja) 2011-06-30 2016-02-17 株式会社東芝 電子機器および制御方法
US8217856B1 (en) * 2011-07-27 2012-07-10 Google Inc. Head-mounted display that displays a visual representation of physical interaction with an input interface located outside of the field of view
JP2013178645A (ja) 2012-02-28 2013-09-09 Onkyo Corp 電子機器の入力装置
US9213436B2 (en) 2012-06-20 2015-12-15 Amazon Technologies, Inc. Fingertip location for gesture input
CN103677259B (zh) 2012-09-18 2018-05-29 三星电子株式会社 用于引导控制器的方法、多媒体装置及其目标跟踪装置
US9202313B2 (en) 2013-01-21 2015-12-01 Microsoft Technology Licensing, Llc Virtual interaction with image projection
US20140253702A1 (en) * 2013-03-10 2014-09-11 OrCam Technologies, Ltd. Apparatus and method for executing system commands based on captured image data
JP2017083916A (ja) 2014-03-12 2017-05-18 コニカミノルタ株式会社 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
GB201504362D0 (en) 2015-03-16 2015-04-29 Elliptic Laboratories As Touchless user interfaces for electronic devices
JP6186420B2 (ja) 2015-12-08 2017-08-23 京楽産業.株式会社 遊技機
JP6848881B2 (ja) * 2015-12-16 2021-03-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017191496A (ja) 2016-04-14 2017-10-19 株式会社東海理化電機製作所 ジェスチャ判定装置
JP2018022426A (ja) 2016-08-05 2018-02-08 セイコーエプソン株式会社 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
US10410360B2 (en) * 2017-12-15 2019-09-10 United States Of America As Represented By Secretary Of The Navy Method for displaying off-screen target indicators in motion video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024043438A1 (ko) * 2022-08-24 2024-02-29 삼성전자주식회사 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
EP3788460A1 (en) 2021-03-10
JP7252252B2 (ja) 2023-04-04
US10860088B2 (en) 2020-12-08
US20190339767A1 (en) 2019-11-07
WO2019212793A1 (en) 2019-11-07
JP2021521512A (ja) 2021-08-26

Similar Documents

Publication Publication Date Title
CN110832450B (zh) 用于基于用户特性在虚拟或半虚拟空间中提供对象的方法和系统
US11093045B2 (en) Systems and methods to augment user interaction with the environment outside of a vehicle
US11609675B2 (en) Placement of objects in an augmented reality environment
US9430041B2 (en) Method of controlling at least one function of device by using eye action and device for performing the method
US11054894B2 (en) Integrated mixed-input system
US11023035B1 (en) Virtual pinboard interaction using a peripheral device in artificial reality environments
WO2014028504A1 (en) Augmented reality overlay for control devices
JP7252252B2 (ja) 手の位置に基づいたモーダル制御の開始
US10331340B2 (en) Device and method for receiving character input through the same
US20230040610A1 (en) Object placement for electronic devices
US20230102820A1 (en) Parallel renderers for electronic devices
WO2022179344A1 (en) Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment
WO2022169668A1 (en) Integrating artificial reality and other computing devices
US11023036B1 (en) Virtual drawing surface interaction using a peripheral device in artificial reality environments
EP3850468B1 (en) Snapping range for augmented reality objects
US20160224134A1 (en) Display apparatus and control method thereof
US10809794B2 (en) 3D navigation mode
US20200184735A1 (en) Motion transforming user interface for group interaction with three dimensional models
CN107924276B (zh) 电子设备及其文本输入方法
US20240037865A1 (en) Xr multi-window control
JP7246390B2 (ja) ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作
US20240036698A1 (en) Xr manipulation feature with smart watch
US20230333645A1 (en) Method and device for processing user input for multiple devices
US20240019928A1 (en) Gaze and Head Pose Interaction
KR101630404B1 (ko) 만화 데이터 표시 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal