KR20240063979A - 포커스 전환을 강화하기 위한 어텐션 추적 - Google Patents

포커스 전환을 강화하기 위한 어텐션 추적 Download PDF

Info

Publication number
KR20240063979A
KR20240063979A KR1020247012936A KR20247012936A KR20240063979A KR 20240063979 A KR20240063979 A KR 20240063979A KR 1020247012936 A KR1020247012936 A KR 1020247012936A KR 20247012936 A KR20247012936 A KR 20247012936A KR 20240063979 A KR20240063979 A KR 20240063979A
Authority
KR
South Korea
Prior art keywords
user
content
focus
event
virtual screen
Prior art date
Application number
KR1020247012936A
Other languages
English (en)
Inventor
알렉스 올왈
루오페이 두
Original Assignee
구글 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 엘엘씨 filed Critical 구글 엘엘씨
Priority claimed from PCT/US2022/076779 external-priority patent/WO2023049746A1/en
Publication of KR20240063979A publication Critical patent/KR20240063979A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

시스템 및 방법은 가상 스크린에 제시된 컨텐츠에 대한 사용자의 어텐션을 추적하고, 컨텐츠의 제1 영역과 연관된 디포커스 이벤트를 검출하고, 컨텐츠의 제2 영역과 연관된 다음 포커스 이벤트를 결정하는 것과 관련된다. 결정은 디포커스 이벤트 및 추적된 사용자의 어텐션에 적어도 부분적으로 기초할 수 있다. 시스템 및 방법은 결정된 다음 포커스 이벤트에 기초하여 컨텐츠의 제2 영역을 컨텐츠의 나머지 영역과 구별하기 위한 마커를 생성하고, 그리고 가상 스크린과 연관된 리포커스 이벤트를 검출하는 것에 응답하여, 컨텐츠의 제2 영역과 연관된 마커의 실행을 트리거하는 것을 포함한다.

Description

포커스 전환을 강화하기 위한 어텐션 추적
본 출원은 "ATTENTION TRACKING TO AUGMENT FOCUS TRANSITIONS"라는 제목으로, 2022년 9월 20일에 출원된 미국 정규 특허 출원 번호 17/933,631의 연속이고 이에 대한 우선권을 주장하며, 이는 "ATTENTION TRACKING TO AUGMENT FOCUS TRANSITIONS"라는 제목으로, 2021년 9월 21일에 출원된 미국 임시 특허 출원 번호 63/261,449에 대한 우선권을 주장하며, 이들 출원의 개시 내용은 그 전체가 본 명세서에 참고로 포함된다.
본 출원은 또한 2021년 9월 21일에 출원된 미국 임시 특허 출원 번호 63/261,449에 대한 우선권을 주장하며, 이 출원의 개시 내용은 그 전체가 본 명세서에 참조로 포함된다.
본 설명은 일반적으로 컨텐츠에 대한 사용자 어텐션(attention)을 프로세싱하는 데 사용되는 방법, 디바이스 및 알고리즘에 관한 것이다.
디스플레이 디바이스는 디스플레이 디바이스의 시야(field of view)에 제시된 가상 컨텐츠와의 사용자 상호작용을 가능하게 할 수 있다. 디스플레이 디바이스의 사용자는 상호작용 및/또는 다른 컨텐츠로 인해 방해를 받을 수 있다. 이러한 중단이 발생한 후, 사용자가 가상 컨텐츠와 연관된 태스크를 재개하는 것이 어려울 수 있다. 기존 디스플레이 디바이스는 중단이 발생한 후 가상 컨텐츠에 다시 참여하려고 할 때 발생하는 인지 손실(cognitive loss)을 고려하지 않는다. 따라서, 예를 들어 그러한 중단에 기초하여 사용자에게 응답하도록 디스플레이 디바이스를 트리거하기 위해 디스플레이 디바이스에서 시청된(viewed) 가상 컨텐츠와 연관된 태스크들을 추적하기 위한 메커니즘을 제공하는 것이 유익할 수 있다.
웨어러블 디스플레이 디바이스는 물리적 세계(physical world)와 증강 컨텐츠를 모두 볼 수 있는 증강 현실 디바이스로 구성될 수 있다. 이러한 디바이스를 착용한 사용자의 시야는 물리적 세계에서 발생하는 이벤트로 인해 인터럽트(interrupt)될 수 있다. 인터럽션은 하나 또는 여러 감각의 외부 자극(예: 청각, 시각, 촉각, 후각, 미각, 전정 또는 고유 감각 자극)으로 인해 발생할 수 있다. 예를 들어, 웨어러블 디스플레이 디바이스의 사용자를 부르는 음성, 주변에 나타나는 사람, 사용자를 터치하는 사람, 감지된 냄새나 미각, 균형 이동(예: 이동 중), 장애물에 걸려 넘어지는 경우 등이 있다. 인터럽션은 사용자가 포커스 이동을 유발하는 무언가를 기억하거나 생각하는 등 내부 어텐션 이동으로 인해 발생할 수도 있다. 또한 전원 및 열로 인해 간헐적으로 디스플레이 절전 모드 또는 끄기 모드가 발생할 수 있는, 스크린 타임아웃과 같은 기술적 제약도 있다. 이러한 인터럽트는 사용자가 이전 활동을 재개하거나 복귀하려고 시도할 때 사용자에게 인지적 문제를 야기할 수 있다. 예를 들어, 인터럽션 또는 중단이 발생한 후 사용자는 웨어러블 디스플레이 디바이스의 가상 스크린에서 컨텐츠에 대한 참여를 재개하는 데 어려움을 겪을 수 있다. 여기에 설명된 시스템 및 방법은 예를 들어, 사용자의 포커스를 평가하고, 자극 유형을 평가하고, 특정 포커스 전환 마커(예: 시각적 컨텐츠, 시각화, 청각적 컨텐츠)를 생성하여 이전에 액세스된 컨텐츠에 사용자를 다시 참여시키도록 구성될 수 있다.
하나 이상의 컴퓨터로 구성된 시스템은 소프트웨어, 펌웨어, 하드웨어 또는 이들의 조합이 시스템에 설치되어 동작 시 시스템이 액션을 수행하게 하거나 수행하게 함으로써 특정 동작 또는 액션을 수행하도록 구성될 수 있다. 하나 이상의 컴퓨터 프로그램은 데이터 프로세싱 장치에 의해 실행될 때 장치로 하여금 동작들을 수행하게 하는 명령어들을 포함함으로써 특정 동작 또는 액션을 수행하도록 구성될 수 있다.
하나의 일반적인 측면에서, 가상 스크린에 제시된 컨텐츠에 대한 사용자의 어텐션(attention)을 추적하는 단계, 컨텐츠의 제1 영역과 연관된 디포커스 이벤트를 검출하는 단계, 컨텐츠의 제2 영역과 연관된 다음 포커스 이벤트를 결정하는 단계를 포함하는 방법이 제안되며, 결정은 디포커스 이벤트 및 추적된 사용자의 어텐션에 적어도 부분적으로 기초한다. 방법은 결정된 다음 포커스 이벤트에 기초하여, 컨텐츠의 나머지 영역과 컨텐츠의 제2 영역을 구별하기 위한 마커(marker)를 생성하는 단계; 및 가상 스크린과 연관된 리포커스 이벤트를 검출한 것에 응답하여, 컨텐츠의 제2 영역과 연관된 마커의 실행을 트리거하는 단계를 더 포함한다. 컨트롤(control)이 있는 마커를 실행하는 것은 가상 스크린에서 적어도 하나의 액션을 트리거하기 위해 사용자가 액션할 수 있는 가상 스크린 상에 가상 컨트롤 요소가 포함된 마킹을 디스플레이하는 것과 관련될 수 있다. 예를 들어, 사용자는 마커의 컨트롤을 통해 제시된 컨텐츠와 상호작용할 수 있다.
예시적인 실시예에서, 컨텐츠의 제1 영역과 연관된 디포커스 이벤트를 검출하는 것은 이전에 컨텐츠의 제1 영역에 포커싱하던 사용자가 더 이상 제1 영역에 포커싱하지 않는 것을 전자적으로 검출하는 것일 수 있다(예를 들어, 사용자 눈 또는 사용자 눈의 시선 궤적(gaze trajectory) 및 그에 따른 사용자의 시청(viewing) 포커스에 의해 결정됨). 예를 들어, 사용자가 제1 영역에서 시선을 돌리는 것으로 판단하여 디포커스 이벤트가 검출될 수 있다.
컨텐츠의 제2 영역과 연관된 다음 포커스 이벤트를 결정하는 것은 디포커스 이벤트 이후 사용자가 보고 있을 가능성이 있는 컨텐츠의 제2 영역을 결정하는 것일 수 있으며, 여기서 제2 영역 및/또는 제2 영역에 포커스를 두는 사용자에 대한 가능성, 특히 가능성 점수는 검출된 디포커스 이벤트에 대한 정보(예: 디포커스 이벤트가 발생한 시간, 디포커스 이벤트가 발생한 당시 사용자 주변이 소리 등) 및 추적된 사용자의 어텐션에 대한 정보(예: 디포커스 이벤트가 발생하기 전 일정 시간 동안 사용자가 제시된 컨텐츠의 제1 영역 또는 다른 영역에 집중하는 기간 등)가 입력 파라미터로서 공급되는 예측 모델을 사용하여 결정되며, 검출된 디포커스 이벤트 및 그 상황, 그리고 제시된 컨텐츠에 대한 이전에 추적된 사용자 어텐션이 주어지면, 사용자가 디포커스 이벤트 이후 임계 시간 내에 포커싱할 가상 스크린에 제시된 컨텐츠의 제2 영역에 대한 인디케이터(indicator)를 출력한다.
리포커스 이벤트를 검출하는 것은 사용자가 가상 스크린에 제시된 컨텐츠에 다시 포커싱하는 것을 결정하는 것일 수 있다. 사용자는 동일한 컨텐츠와 연관된 디포커스 이벤트 후에 컨텐츠에 다시 포커싱한다. 예를 들어, 리포커스 이벤트는 디포커스 이벤트 이전에 사용자가 참여했던 컨텐츠 및/또는 이전에 보았던 컨텐츠에 포커싱된 검출된 시선을 포함할 수 있다. 따라서, 리포커스 이벤트는 디포커스 이벤트 후 임계값보다 작은 시간 후에 발생한다.
제2 영역을 구별하기 위한 마커는 실행 시 시각적으로 제시되는 포커스 전환 마커와 관련될 수 있다. 따라서 대응하는 마커는 다음 포커스 이벤트를 결정한 후에 생성될 수 있다. 그러나 실행 및 예를 들어 가상 스크린에서의 마커의 활성화 및/또는 표시는 - 예를 들어, 제2 영역과 컨텐츠의 나머지 부분 사이의 차이를 시각화하고/하거나 제2 영역을 시각적, 청각적 및/또는 촉각적으로 하이라이팅하기 위해 - 리포커스 이벤트를 검출한 후, 즉 사용자가 가상 스크린에 제시된 컨텐츠에 다시 포커싱하는 것을 검출한 후에 트리거될 수 있다.
구현예는 다음 특징 중 하나를 단독으로 또는 조합하여 포함할 수 있다.
설명된 기술의 구현예는 하드웨어, 방법 또는 프로세스, 또는 컴퓨터 액세스가능 매체 상의 컴퓨터 소프트웨어를 포함할 수 있다. 하나 이상의 구현예의 세부사항은 첨부 도면 및 아래 설명에 설명되어 있다. 다른 특징은 설명, 도면, 청구범위를 통해 명백해질 것이다.
도 1은 본 개시 전체에 걸쳐 설명된 구현예에 따라, 사용자 어텐션을 추적하고 사용자가 웨어러블 컴퓨팅 디바이스에 의해 제공되는 컨텐츠로 복귀하는 것을 돕기 위해 포커스 전환 마커를 생성하는 웨어러블 컴퓨팅 디바이스의 예이다.
도 2는 본 개시 전체에 걸쳐 설명된 구현예에 따라, 사용자 어텐션을 모델링 및 추적하고 사용자 어텐션에 기초하여 컨텐츠를 생성하기 위한 시스템을 도시한다.
도 3a 내지 도 3d는 본 개시 전체에 걸쳐 설명된 구현예에 따라, 웨어러블 컴퓨팅 디바이스의 디스플레이에서 사용자에 대한 포커스를 추적하고 추적된 포커스에 기초하여 컨텐츠를 생성하는 예를 도시한다.
도 4a 내지 도 4d는 본 개시 전체에 걸쳐 설명된 구현예에 따른, 포커스 전환 마커를 묘사하는 예시적인 사용자 인터페이스를 도시한다.
도 5는 본 개시 전체에 걸쳐 설명된 구현예에 따라, 사용자 포커스를 추적하고 사용자 포커스에 응답하여 포커스 전환 컨텐츠를 생성하는 프로세스의 일 예를 나타내는 흐름도이다.
도 6은 본 명세서에 기술된 기술과 함께 사용될 수 있는 컴퓨터 디바이스 및 모바일 컴퓨터 디바이스의 예를 도시한다.
다양한 도면의 유사한 참조 기호는 유사한 요소를 나타낸다.
본 개시는 모델링 및/또는 추적된 사용자 어텐션(예를 들어, 포커스, 시선 및/또는 상호작용)에 기초하여 사용자 인터페이스(UI) 컨텐츠, 오디오 컨텐츠 및/또는 촉각적 컨텐츠를 생성하기 위한 시스템 및 방법을 설명한다. 기존 디스플레이 컨텐츠에 대한 UI 컨텐츠 또는 효과는 사용자가 물리적 세계로부터 디스플레이 스크린(예: 웨어러블 컴퓨팅 디바이스의 가상 스크린)의 컨텐츠로 포커스(예: 어텐션)를 회복하는 데 도움을 주기 위해 생성될 수 있다. 예를 들어, 사용자가 가상 스크린으로부터 물리적 세계로 주의가 산만해지면, 여기에 설명된 시스템 및 방법은 리포커스 이벤트를 예측할 수 있고, 리포커스 이벤트 발생에 응답하여, 시스템은 사용자가 가상 스크린의 컨텐츠에 다시 몰입되도록 돕기 위해 가상 스크린에 디스플레이하기 위한 컨텐츠를 생성 및/또는 수정할 수 있다.
본 명세서에 설명된 UI 컨텐츠, 오디오 컨텐츠 및/또는 촉각적 컨텐츠는 UI 마커, UI 수정, 오디오 출력, 촉각적 피드백, 제시된 UI 컨텐츠의 증강(augmentation), 오디오 컨텐츠의 증강, 촉각적 이벤트의 증강 등 중 일부 또는 전부를 포함할 수 있는 포커스 전환 마커로서 설명될 수 있다. 포커스 전환 마커는 예를 들어 물리적 세계에서 다시 가상 스크린으로 신속하게 전환하기 위해 사용자가 가상 스크린을 통해 컨텐츠를 시청 및/또는 액세스하는 데 도움을 줄 수 있다. 일부 구현예에서, 포커스 전환 마커는 배터리 구동식 컴퓨팅 디바이스의 가상 스크린을 위해 구성된 컴퓨팅 인터페이스의 일부일 수 있다. 컴퓨팅 인터페이스는 컴퓨팅 인터페이스에 액세스하는 사용자와 연관된 어텐션(예를 들어, 포커스) 행동의 특정 측면을 평가 및/또는 검출할 수 있다. 일부 구현예에서, 가상 스크린(또는 가상 스크린을 수용하는 컴퓨팅 디바이스)과 연관된 특정 센서는 사용자와 연관된 어텐션 행동의 특정 측면을 평가 및/또는 검출하는 데 사용될 수 있다.
일부 구현예에서, 촉각적 효과는 디포커스 이벤트 동안 및 그 후에, 그러나 검출된 리포커스 이벤트 이전에 변화가 발생했을 수 있음을 나타내는 촉각적 단서(cue)들을 포함할 수 있다. 일부 구현예에서, 촉각적 효과는 헤드폰 드라이버(예를 들어, 스피커 신호에 기초한 골전도 신호)에 의해 제공될 수 있다. 일부 구현예에서, 촉각적 효과는 디바이스의 구성요소에 의해 발생된 진동에 의해 제공될 수 있다. 예를 들어, 촉각적 효과는 디바이스에 설치되고 햅틱 신호를 생성하도록 구성된 선형 액추에이터(미도시)에 의해 제공될 수 있다.
일부 구현예에서, 사용자의 어텐션(예를 들어, 포커스)은 예를 들어, 디스플레이 스크린(예를 들어, AR 디바이스 상의 가상 스크린(예: 광학 투시형 웨어러블 디스플레이 디바이스, 비디오 투시형 웨어러블 디스플레이 디바이스)) 및 물리적 세계와의 하나 이상의 상호작용에 대해 모델링 및/또는 추적될 수 있다. 모델링된 사용자 어텐션은 가상 스크린과의 상호작용 중에 이러한 UI 컨텐츠, 오디오 컨텐츠 및/또는 촉각적 컨텐츠를 언제 디스플레이할지 결정하는 데 사용될 수 있다.
사용자의 어텐션(예를 들어, 포커스)을 모델링 및/또는 추적하는 것은 본 명세서에 설명된 시스템 및 방법이 사용자가 다음에 수행할 수 있는 액션 및/또는 상호작용을 예측하게 하는 것을 가능하게 할 수 있다. 사용자의 어텐션 및 예측 액션은 UI 컨텐츠의 증강(예를 들어, 시각화), 오디오 컨텐츠의 증강, 촉각적 이벤트의 증강 등을 나타낼 수 있는 하나 이상의 포커스 전환 마커를 생성하는 데 사용될 수 있다. 포커스 전환 마커는 가상 스크린에서 컨텐츠 영역 간의 차이를 보여주기 위한 특정 시각화 기술로 생성될 수 있다. 일부 구현예에서, 포커스 전환 마커의 제시는 가상 스크린의 일부에서 컨텐츠 사이를 전환하는 데 사용되는 시간을 최소화하는 이점을 제공할 수 있다.
일부 구현예에서, 포커스 전환 마커는 사용자가 가상 스크린의 포커스 영역과 물리적 세계의 포커스 영역 사이를 전환하는 데 도움을 주는 기능을 할 수 있다. 예를 들어, 사용자가 가상 스크린이 탑재된 전자 디바이스를 착용(또는 시청)하고 스크린에서 벗어나 물리적 세계를 바라보고 있다면, 여기에 설명된 시스템은 스크린 시청 인터럽션을 검출하고, 사용자가 스크린에서 수행 및/또는 시청할 가능성이 있는 다음 태스크를 결정하고, 사용자가 스크린 컨텐츠를 다시 시청하는 것을 돕는 포커스 전환 마커를 생성할 수 있다.
가상 스크린에서 시선을 돌리기로 결정된 (그리고 다시 가상 스크린으로 시선을 돌리기로 결정된) 사용자에게 포커스 전환 마커를 생성하여 제시하는 것은 사용자가 가상 스크린에서 물리적 세계로 인터럽트 및/또는 디포커싱될 때 발생하는 시간 비용 및/또는 인지 전환 비용을 최소화하는 이점을 제공할 수 있다. 디포커싱은 사용자의 어텐션을 변화시키는 것을 포함할 수 있다. 포커스 전환 마커는 예를 들어, 증강 현실(AR) 웨어러블 디바이스를 통해 물리적 세계를 시청하는 것에서, 예를 들어 가상 스크린의 영역을 시청하는 것으로 어텐션(예를 들어, 포커스, 상호작용, 시선 등)을 되찾는 데 사용되는 시간을 최소화하도록 설계될 수 있다.
일반적으로, 포커스 전환 마커(예를 들어, 컨텐츠)는 웨어러블 컴퓨팅 디바이스의 사용자 인터페이스 또는 연관된 오디오 인터페이스에서 디스플레이 및/또는 실행을 위해 생성될 수 있다. 일부 구현예에서, 포커스 전환 마커는 특정 시각적 효과, 오디오 효과, 움직임 효과, 또는 디스플레이되거나 실행되는 다른 컨텐츠 항목으로 사용자의 주의를 끌기 위해 사용자를 포커싱시키도록 의도된 시각적, 오디오 및/또는 촉각적 컨텐츠를 포함할 수 있다.
본 명세서에서 사용되는 바와 같이, 포커스 전환 마커는 UI 컨텐츠, UI 컨트롤, UI 컨텐츠의 수정, 오디오 컨텐츠, 촉각적 컨텐츠 및/또는 햅틱 이벤트, 애니메이션, 컨텐츠 되감기 및 리플레이(replay), 공간화된 오디오/비디오 효과, 하이라이팅 효과, 강조 해제 효과, 텍스트 및/또는 이미지 강조 효과, 3차원 효과, 오버레이 효과 중 하나 이상 (또는 임의의 조합)을 포함할 수 있으나, 이에 제한되지는 않는다.
포커스 전환 마커는 다수의 신호에 기초하여 디스플레이(또는 실행)를 위해 트리거될 수 있다. 예시적인 신호는 시선 신호(예를 들어, 시선), 머리 추적 신호, 명시적인 사용자 입력, 및/또는 원격 사용자 입력 중 임의의 하나 이상(또는 이들의 임의의 조합)을 포함할 수 있다. 일부 구현예에서, 여기에 설명된 시스템은 포커스 전환 마커가 디스플레이되거나 디스플레이에서 제거되도록 트리거하기 위해 위의 신호 중 하나 이상에서 특정 변화를 검출할 수 있다. 컨트롤이 있는 마커를 실행하는 것은 가상 스크린에서 적어도 하나의 액션을 트리거하기 위해 사용자가 액션할 수 있는 가상 스크린 상에 가상 컨트롤 요소가 포함된 마킹을 디스플레이하는 것과 관련될 수 있다. 예를 들어, 사용자는 마커의 컨트롤을 통해 제시된 컨텐츠와 상호작용할 수 있다.
일부 구현예에서, 본 명세서에 설명된 시스템 및 방법은 웨어러블 컴퓨팅 디바이스에 탑재된 하나 이상의 센서를 활용할 수 있다. 센서는 포커스 전환 마커가 디스플레이되거나 디스플레이에서 제거되도록 트리거할 수 있는 신호를 검출할 수 있다. 이러한 센서 신호는 또한 특정 포커스 전환 마커의 형태 및/또는 기능을 결정하는 데 사용될 수 있다. 일부 구현예에서, 센서 신호는 특정 컨텐츠에 대한 포커스 전환 마커(들)의 형태 및/또는 기능을 결정할 수 있는 기계 학습 및/또는 다른 모델링 작업을 수행하기 위한 입력으로 사용될 수 있다.
도 1은 본 개시 전반에 걸쳐 설명된 구현예에 따라, 사용자 어텐션을 추적하고 사용자가 웨어러블 컴퓨팅 디바이스(100)에 의해 제공되는 컨텐츠로 복귀하는 것을 돕기 위해 포커스 전환 마커를 생성하는 웨어러블 컴퓨팅 디바이스(100)의 예이다. 이 예에서, 웨어러블 컴퓨팅 디바이스(100)는 AR 스마트 안경(예를 들어, 광학 투시형 웨어러블 디스플레이 디바이스, 비디오 투시형 웨어러블 디스플레이 디바이스)의 형태로 묘사(예를 들어, 제시)된다. 그러나 배터리 구동식 디바이스의 모든 폼 팩터는 여기에 설명된 시스템 및 방법으로 대체되고 결합될 수 있다. 일부 구현예에서, 웨어러블 컴퓨팅 디바이스(100)는 하나 이상의 센서, 어텐션 입력, 기계 학습(ML) 모델, 프로세서, 인코더 등 중 일부 또는 모두에 대한 온보드(onboard)(또는 통신 액세스)와 결합된 시스템 온 칩(SOC) 아키텍처(미도시)를 포함한다.
동작 시, 웨어러블 컴퓨팅 디바이스(100)는 가상 스크린(104) 내의 컨텐츠(예를 들어, 컨텐츠(102a, 102b, 102c))의 뷰 뿐만 아니라 가상 스크린(104) 뒤의 물리적 세계 뷰(106)의 뷰도 제공할 수 있다. 스크린(104) 위에 또는 뒤에 묘사된 컨텐츠는 물리적 컨텐츠뿐만 아니라 증강 현실(AR) 컨텐츠도 포함할 수 있다. 일부 구현예에서, 웨어러블 컴퓨팅 디바이스(100)는 모바일 컴퓨팅 디바이스, 서버 컴퓨팅 디바이스, 추적 디바이스 등과 같은 다른 디바이스와 통신가능하게 결합될 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 가상 스크린(104) 상에 묘사된 컨텐츠(예를 들어, 102a, 102b, 102c)에 대한 사용자의 어텐션 입력(108)(예를 들어, 포커스, 시선, 어텐션)을 검출하기 위한 하나 이상의 센서(미도시)를 포함할 수 있다. 검출된 어텐션(108)(예를 들어, 포커스)은 어떤 컨텐츠(102a, 102b, 102c)가 시청되고 있는지 결정하기 위한 기초로 사용될 수 있다. 결정된 컨텐츠(102a, 102b, 102c) 중 일부 또는 전부는, 예를 들어 디바이스(100)가 디포커스 이벤트(예를 들어, 사용자의 변화된 어텐션)를 검출하고 및/또는 디포커스 이벤트를 검출한 다음 스크린(104)에서 리포커스 이벤트를 검출할 때, 포커스 전환 마커(110)(예를 들어, 컨텐츠 효과)를 생성하기 위해 어떤 방식으로 수정될 수 있다.
어텐션 입력(108)은 디바이스(100)에 의해 생성되거나 디바이스(100)에 의해 획득된 임의의 수의 모델에 제공될 수 있다. 모델은 어텐션/포커스 모델(112), 실시간 사용자 모델(114) 및 컨텐츠 인식 모델(116)을 포함할 수 있다. 각각의 모델(112-116)은 사용자가 인터럽트된 태스크 또는 컨텐츠 시청으로 돌아가는 데 도움을 줄 수 있는 특정 포커스 전환 마커를 생성하기 위해 디바이스(100)에 의해 액세스되는 컨텐츠 및/또는 사용자 어텐션의 특정 측면을 평가하도록 구성될 수 있다.
어텐션/포커스 모델(112)은 예를 들어 디바이스(100)에 의해 캡처된 실시간 센서 데이터에 기초하여 사용자의 어텐션(예를 들어, 포커스) 및/또는 상호작용의 실시간 모델을 나타낼 수 있다. 모델(112)은 가상 스크린(104) 상의 사용자 포커스(예를 들어, 어텐션(108))를 검출 및 추적하고/하거나 가상 스크린(104)과의 상호작용을 추적할 뿐만 아니라 포커스 및/또는 어텐션 및/또는 물리적 세계와의 상호작용을 추적할 수 있다. 일부 구현예에서, 모델(112)은 그러한 포커스 및/또는 상호작용을 추적하기 위해 특정 신호(예를 들어, 시선 추적 또는 사용자 입력)를 수신하거나 검출할 수 있다. 신호는 가상 스크린(104)의 컨텐츠 중 어느 부분이 현재 사용자의 포커스인지 결정하기 위해 활용될 수 있다.
간단히 말해서, 어텐션/포커스 모델(112)은 디바이스(100)의 사용자가 가상 스크린(104) 내의 사용자 인터페이스 컨텐츠를 응시하고 있는지 아니면 사용자 인터페이스를 넘어 물리적 세계를 응시하고 있는지 여부를 결정하는 데 사용될 수 있다. 예를 들어, 모델(112)은 디바이스(100)의 사용자에게 제공되는 시선 신호를 평가할 수 있다. 시선 신호는 사용자의 어텐션 모델을 생성하는 데 사용될 수 있다. 예를 들어, 시선 신호는 미리 결정된 기간 내의 시선 포지션의 히트 맵(heat map)(118)을 생성하는 데 사용될 수 있다. 디바이스(100)는 미리 결정된 기간 동안 히트 맵(118)이 가상 스크린(104)을 오버레이하는 양(예를 들어, 스크린(104)의 백분율)을 결정할 수 있다. 양이 미리 정의된 임계값보다 큰 것으로 결정되면, 디바이스(100)는 맵이 사용자가 히트 맵에 의해 표시되는 특정 사용자 인터페이스에 주의를 기울이고 있음을 나타낸다고 결정할 수 있다. 양이 미리 정의된 임계값보다 낮은 것으로 결정되면, 디바이스(100)는 맵이 사용자가 사용자 인터페이스로부터 주의가 산만해진다는 것을 나타낸다고 결정할 수 있다.
컨텐츠 인식 모델(116)은 가상 디스플레이 상의 특정 컨텐츠에 대한 현재 및 예상되는 사용자 어텐션을 나타낼 수 있다. 어텐션/포커스 모델과 유사하게, 사용자의 포커스 및/또는 어텐션은 시선에 기초하여 검출 및/또는 추적될 수 있다. 모델(116)은 사용자가 컨텐츠 및/또는 가상 스크린(104)에 대해 어떤 액션을 수행하려고 하는지 예측하기 위한 기초로서 특정 모션 궤적을 결정(또는 외삽(extrapolate))할 수 있다. 예측은 예를 들어, 사용자의 현재 어텐션/포커스 및 컨텐츠와의 상호작용 상태를 모델링하기 위해 생성되는 실시간 사용자 모델(114)에 제공될 수 있다. 모델(116)은 사용자 인터페이스(예를 들어, 컨텐츠)로 다시 포커스/어텐션을 되돌릴 때 사용자가 취할 수 있는 태스크를 예측하기 위해 컨텐츠를 묘사하는 사용자 인터페이스의 상태를 결정하고 예측하는 데 사용될 수 있다.
일부 구현예에서, 컨텐츠 인식 모델(116)은 순차적인 컨텐츠 내 모션을 예측할 수 있다. 예를 들어, 컨텐츠 인식 모델(116)은 모션의 시퀀스(sequence of motion)로 설명될 수 있는 요소들을 포함하는 컨텐츠를 모델링할 수 있다. 그러한 컨텐츠를 사용하여, 모델(116)은 컨텐츠에 대한 포커스/어텐션을 되돌릴 때 사용자를 가이드하기 위해 사용자의 예측된 포커스/어텐션을 결정할 수 있다. 예를 들어, 모델(116)은 포커스가 가상 스크린(104)의 컨텐츠에 남아 있었다면 사용자가 보고 있었을 수 있는 하나 이상의 위치를 하이라이팅(또는 마킹)하기 위해 시선 또는 모션 궤적을 추정할 수 있다. 예를 들어, 사용자가 객체를 움직이도록 트리거하는 액션을 수행하면 사용자는 객체의 궤적을 따라갈 수 있다. 사용자가 시선을 돌리는 동안(예: 컨텐츠에 디포커싱) 객체는 계속해서 궤적을 따라 움직인다. 따라서, 사용자가 컨텐츠에 리포커싱하면, 모델(116)은 사용자를 객체의 현재 포지션으로 가이드하기 위해 포커스 전환 마커를 생성하고 렌더링할 수 있다.
일부 구현예에서, 컨텐츠 인식 모델(116)은 순차적인 액션에서의 전환을 예측할 수 있다. 즉, (예를 들어, 사용자 인터페이스에서 트리거된) 액션들의 시퀀스(a sequence of actions)로서 설명될 수 있는 요소들이 있는 컨텐츠의 경우, 특정 액션의 결과를 강조하기 위해 포커스 전환 마커가 생성될 수 있다. 예를 들어, 버튼을 클릭하여 가상 스크린(104)의 한 위치에 아이콘이 노출되는 경우, 모델(116)은 컨텐츠 및/또는 액션들의 시퀀스 내의 위치에 기초하여, 사용자가 인터럽션으로부터 가상 스크린으로 리포커싱할 때 아이콘이 하이라이트될 수 있다고 결정할 수 있다. 이러한 하이라이트는 사용자의 시선을 변화 방향으로 유도할 수 있다.
일부 구현예에서, 모델(112-116)은 사용자 입력, 어텐션 입력 등에 기초한 사전 트레이닝을 갖춘 ML 모델로서 기능할 수 있다. 일부 구현예에서, 모델(112-116)은 실시간 사용자 어텐션 데이터에 기초하여 기능할 수 있다. 일부 구현예에서, 모델(112-116)은 ML 모델과 실시간 모델의 조합으로 기능할 수 있다.
일부 구현예에서, 웨어러블 컴퓨팅 디바이스(100)는 사용자의 특정 검출된 포커스 또는 어텐션 근처에서 발생할 수 있는 디포커스 이벤트 및 리포커스 이벤트를 검출할 수 있다. 디포커스 및 리포커스 이벤트는 포커스 전환 마커 및 관련 컨텐츠를 생성하기 위해 모델(112-116) 중 임의의 하나 이상의 사용을 트리거할 수 있다. 예를 들어, 웨어러블 컴퓨팅 디바이스(100)는 그러한 이벤트를 검출하고, 예를 들어 사용자가 스크린(104) 내의 컨텐츠에 리포커싱하는 것을 돕기 위해 포커스 전환 컨텐츠를 생성하는 방법을 결정할 수 있다. 결정은 업데이트된 사용자 관련 컨텐츠를 생성하고 제공하기 위해 사용자 포커스를 특정 예측된 다음 액션과 매칭하기 위해 컨텐츠 항목 및/또는 사용자 상호작용을 평가하는 것을 포함할 수 있다. 일부 구현예에서, 포커스 전환 컨텐츠는 포커스 전환 마커로서 추가 컨텐츠를 생성하지 않고 사용자가 특정 컨텐츠에 리포커싱하는 것을 돕기 위해 묘사된 컨텐츠를 확대하거나 묘사된 컨텐츠를 축소하는 것을 포함한다.
비제한적인 예에서, 사용자는 가상 스크린(104)에서 컨텐츠(102a)를 시청하고 있을 수 있다. 웨어러블 컴퓨팅 디바이스(100)는 스크린(104) 상의 컨텐츠(102a)(예를 들어, 컨텐츠(102a)의 영역(120))에 대한 사용자의 포커스를 추적할 수 있다. 도 1에 도시된 바와 같이, 추적된 포커스는 중심 영역(120)에 메인 포커스가 있는 히트 맵(118)으로 도시될 수 있다. 따라서, 이 예에서, 디바이스(100)는 사용자가 음악 작곡 애플리케이션에 의해 도시된 영역(120) 근처의 악보에 포커싱되어 있다고 결정할 수 있다.
어느 시점에서, 사용자는 다른 컨텐츠나 외부 물리적 세계 뷰(106)에 의해 주의가 산만해지거나 인터럽트될 수 있다. 디바이스(100)는 이전에 포커싱되었던 컨텐츠(102a)에 대해 디포커스 이벤트가 발생한 것으로 결정할 수 있다. 사용자가 산만한 동안(예를 들어, 컨텐츠(102a)로부터 디포커싱된 것으로 결정됨), 디바이스(100)는 컨텐츠(102a)의 다른 영역(122), 예를 들어 (또는 다른 컨텐츠 또는 영역)과 연관된 다음 포커스 이벤트를 결정할 수 있다. 결정은 디포커스 이벤트 및 검출된 디포커스 이벤트 이전의 미리 정의된 기간 동안 발생한 시선 궤적에 대응하는 사용자의 연속적으로 추적되는 포커스에 적어도 부분적으로 기초할 수 있다.
예를 들어, 악보 컨텐츠(102a)에서, 디바이스(100)는 사용자가 컨텐츠(102a)(또는 일반적으로 가상 스크린(104))에 포커싱하기 위해 돌아올 때, 사용자가 영역(120) 근처(예를 들어, 사용자가 이미 시청했거나 및/또는 생성되었을 수 있는 영역(120) 컨텐츠 이후)에 적어도 음악 작곡 애플리케이션과의 참여를 포함하는 다음 포커스 이벤트 또는 액션을 수행할 가능성이 있다고 결정할 수 있다. 그 후, 디바이스(100)는 결정된 다음 포커스 이벤트에 기초하여, 가상 스크린(104)에 보여지는 컨텐츠의 나머지 부분과 컨텐츠의 제2 영역(122)을 구별하기 위해 포커스 전환 컨텐츠 형태의 적어도 하나의 포커스 전환 마커를 생성할 수 있다.
또 다른 예에서, 사용자가 악보 컨텐츠(102a)를 보고 악보 컨텐츠(102a)를 따라가면서 악기를 연주하고 있다면, 사용자는 섹션을 다시 플레이하거나 섹션을 건너뛸 수 있도록 커서를 악보의 다른 영역으로 다시 배치할 수 있다.
이 예의 포커스 전환 컨텐츠는 다음 단계를 위한 메뉴(124)와 함께 마지막으로 알려진 포커스 영역(120b)에 기초하여 다음 포커스 이벤트를 수행하는 강조된 영역을 나타내는 제2 영역(122b)의 확대 버전을 포함하며, 이들 모두는 출력 컨텐츠(102b)로서 제시될 수 있다. 이 예에서 포커스 전환 마커는 사용자가 다음 음악 문구 편집 작업을 시작할 수 있도록 확대된 컨텐츠 영역(122b)을 포함한다. 다음 음악 문구는 사용자에 대한 마지막 포커스 영역이 120a라고 결정한 컨텐츠 인식 모델(116)에 기초하여 선택되고, 출력 컨텐츠(102b)에 마커(120b)로서 묘사된다. 메뉴(124)는 사용자가 디포커스 이벤트 이전에 사용한 마지막 애플리케이션에서 다음 태스크를 시작할 수 있도록 하는 포커스 전환 마커(예를 들어 컨텐츠)를 나타낸다. 여기의 메뉴는 사용자가 작곡 모드를 오픈하고, 마커(120b)(예를 들어, 북마크)까지 음악을 플레이하고, 마지막 엔트리를 오픈할 수 있게 하는 옵션을 포함한다. 다른 옵션도 가능하다. 간단히 말해서, 출력 컨텐츠(102b)는 사용자가 가상 스크린(104) 상의 컨텐츠에 다시 포커싱하는 데 도움이 되는 포커스 전환 마커를 갖는 컨텐츠(102a)를 나타낸다.
본 명세서에서 사용된 바와 같이, 디포커스 이벤트는 이전에 사용자의 포커스(예를 들어, 어텐션)였던 컨텐츠에 대한 어텐션 부족이 검출된 것을 의미할 수 있다. 예를 들어, 디포커스 이벤트는 웨어러블 컴퓨팅 디바이스(100)에 의해 검출된 사용자의 시선 이탈(look away)을 포함할 수 있다. 일부 구현예에서, 디포커스 이벤트는 머리 회전, 머리 들어 올리기 또는 내리기, 사용자로부터 디바이스 제거(예를 들어, 웨어러블 컴퓨팅 디바이스 제거), 및/또는 이들의 임의의 조합과 같은 사용자 관련 모션을 포함할 수 있다. 일부 구현예에서, 디포커스 이벤트는 사용자가 컨텐츠에 참여하지 않게 하고, 다른 컨텐츠로 전환하게 하고, 가상 스크린에 제시되는 다른 컨텐츠를 선택하게 하고, 및/또는 이들의 임의의 조합을 트리거하는 디바이스(100)에 의해 검출된 외부 이벤트를 포함할 수 있다.
본 명세서에서 사용된 바와 같이, 리포커스 이벤트는 동일한 컨텐츠와 연관된 디포커스 이벤트 이후에 발생하는 컨텐츠에 대한 검출된 지속적인 어텐션(또는 포커스)을 의미할 수 있다. 예를 들어, 리포커스 이벤트는 디포커스 이벤트 이전에 사용자가 참여했던 컨텐츠 및/또는 이전에 시청했던 컨텐츠에 포커싱된 검출된 시선을 포함할 수 있다. 따라서, 디포커스 이벤트 이후 임계 시간 후에 리포커스 이벤트가 발생할 수 있다.
본 명세서에서 사용되는 바와 같이, 다음 포커스 이벤트는 디포커스 이벤트 후에 사용자가 수행할 것으로 예측될 수 있는 임의의 다음 단계, 액션, 포커스 또는 어텐션을 의미할 수 있다. 다음 포커스 이벤트는 여기에 설명된 모델에 의해 결정될 수 있다.
동작 시, 디바이스(100)는 어텐션 입력(108)을 검출할 수 있고, 디바이스(100)가 사용자 어텐션/포커스의 변화를 검출(126)할 때, 어텐션/포커스 모델(112), 실시간 사용자 모델(114) 및/또는 컨텐츠 인식 모델(116)(또는 다른 사용자 입력 또는 디바이스(100) 입력) 중 일부 또는 전부를 사용할 수 있다. 어텐션/포커스 내 변화가 결정되면, 디바이스(100)는 스크린(104)과 연관된 리포커스 이벤트의 검출에 응답하여 가상 스크린(104)에 출력(102b)의 디스플레이를 트리거하기 위해 포커스 전환 마커(들)의 생성(128) 및 포커스 전환 마커(들)의 실행(130)을 트리거할 수 있다.
일부 구현예에서, 본 명세서에 설명된 시스템 및 방법은 웨어러블 컴퓨팅 디바이스의 디스플레이(예: 가상 스크린) 내에서 또는 그 너머에서 사용자 어텐션(예: 포커스, 상호작용, 시선 등)을 추적하고 가이드하기 위해 컨텐츠 인식 포커스 전환 마커(예: 사용자 인터페이스의 증강)를 구현할 수 있다. 컨텐츠 인식 포커스 전환 마커는 둘 이상의 포커스 영역 사이를 전환할 때 사용자를 돕기 위한 UI, 오디오 및/또는 촉각적 컨텐츠를 포함할 수 있다. 포커스 전환 마커는 가상 세계 컨텐츠와 물리적 세계 컨텐츠 사이의 전환을 덜 방해하게 만드는 컨텐츠 확대를 포함할 수 있다.
일부 구현예에서, 본 명세서에 설명된 시스템 및 방법은 현재 및 예상되는 사용자 어텐션(예: 포커스, 상호작용, 시선 등)의 컨텐츠 인식 모델을 생성 및 사용하여 시선 및/또는 모션 궤적을 추정하여 사용자가 곧 취할 액션을 예측할 수 있다. 이 정보는 사용자 상태에 대한 실시간 사용자 모델에 제공될 수 있으며, 이는 현재 UI 모델 및 UI 상태와 결합될 수 있다. 따라서, 본 명세서에 설명된 시스템 및 방법은 사용자가 일정 기간 동안 시선을 돌린 후 돌아올 것으로 예상되는 위치와 영역/컨텐츠를 예측할 수 있다.
다수의 모델(112-116)이 도시되어 있지만, 단일 모델 또는 복수의 추가 모델이 디바이스(100)에 대한 모든 모델링 및 예측 태스크를 수행하는 데 활용될 수 있다. 일부 구현예에서, 각각의 모델(112, 114, 116)은 예를 들어 디바이스(100)에 내장된 하나 이상의 프로세서에서 실행될 수 있고/있거나 모바일 디바이스를 통해 디바이스(100)에 통신가능하게 연결될 수 있는 서로 다른 알고리즘 또는 코드 스니펫(code snippet)을 나타낼 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 이 예에서 AR 안경으로 도시된다. 일반적으로, 디바이스(100)는 시스템(100 및/또는 200 및/또는 600)의 일부 또는 모든 구성요소를 포함할 수 있다. 웨어러블 컴퓨팅 디바이스(100)는 안경 형태로 설계된 광학 헤드 마운트 디스플레이 디바이스를 나타내는 스마트 안경으로도 표시될 수 있다. 예를 들어, 디바이스(100)는 착용자가 디바이스(100)를 통해 보는 것과 함께 정보를 추가(예: 디스플레이 투사)할 수 있는 하드웨어 및 소프트웨어를 나타낼 수 있다.
디바이스(100)가 본 명세서에 설명된 웨어러블 컴퓨팅 디바이스로 도시되어 있지만, 다른 유형의 컴퓨팅 디바이스도 가능하다. 예를 들어, 웨어러블 컴퓨팅 디바이스(100)는 광학 헤드 마운트 디스플레이(OHMD) 디바이스, 투명 헤드업 디스플레이(HUD) 디바이스, 증강 현실(AR) 디바이스 또는 센서, 디스플레이 및 컴퓨팅 기능을 갖춘 고글이나 헤드셋과 같은 기타 디바이스를 포함하지만, 이에 제한되지는 않는 임의의 배터리 구동 디바이스를 포함할 수 있다. 일부 예에서는, 웨어러블 컴퓨팅 디바이스(100)는 대신 시계, 모바일 디바이스, 보석, 링 컨트롤러, 또는 다른 웨어러블 컨트롤러일 수 있다.
도 2는 본 개시 전체에 걸쳐 설명된 구현예에 따라, 사용자 어텐션을 모델링 및 추적하고 웨어러블 컴퓨팅 디바이스(100)와 연관된 사용자 어텐션에 기초하여 컨텐츠를 생성하기 위한 시스템(200)을 예시한다. 일부 구현예에서, 모델링 및/또는 추적은 웨어러블 컴퓨팅 디바이스(100)에서 수행될 수 있다. 일부 구현예에서, 모델링 및/또는 추적은 하나 이상의 디바이스 간에 공유될 수 있다. 예를 들어, 모델링 및/또는 추적은 웨어러블 컴퓨팅 디바이스(100)에서 부분적으로 완료될 수 있고, 모바일 컴퓨팅 디바이스(202)(예를 들어, 디바이스(100)에 통신가능하게 결합된 모바일 컴패니언 디바이스) 및/또는 서버 컴퓨팅 디바이스(204)에서 부분적으로 완료될 수 있다. 일부 구현예에서, 모델링 및/또는 추적은 웨어러블 컴퓨팅 디바이스(100)에서 수행될 수 있으며 이러한 프로세싱으로부터의 출력은 추가 분석을 위해 모바일 컴퓨팅 디바이스(202) 및/또는 서버 컴퓨팅 디바이스(204)에 제공된다.
일부 구현예에서, 웨어러블 컴퓨팅 디바이스(100)는 하나 이상의 컴퓨팅 디바이스를 포함하며, 여기서 디바이스 중 적어도 하나는 사람의 피부에 또는 사람의 피부 근처에 착용될 수 있는 디스플레이 디바이스이다. 일부 예에서, 웨어러블 컴퓨팅 디바이스(100)는 하나 이상의 웨어러블 컴퓨팅 디바이스 구성요소이거나 이를 포함한다. 일부 구현예에서, 웨어러블 컴퓨팅 디바이스(100)는 광학 헤드 마운트 디스플레이(OHMD) 디바이스, 투명 헤드업 디스플레이(HUD) 디바이스, 가상 현실(VR) 디바이스, AR 디바이스 또는 센서, 디스플레이 및 컴퓨팅 기능을 갖춘 고글이나 헤드셋과 같은 기타 디바이스를 포함할 수 있다. 일부 구현예에서, 웨어러블 컴퓨팅 디바이스(100)는 AR 안경(예를 들어, 스마트 안경)을 포함한다. AR 안경은 안경 모양으로 설계된 광학 헤드 마운트 디스플레이 디바이스를 나타낸다. 일부 구현예에서, 웨어러블 컴퓨팅 디바이스(100)는 스마트 시계이거나 이를 포함한다. 일부 구현예에서, 웨어러블 컴퓨팅 디바이스(100)는 보석이거나 보석을 포함한다. 일부 구현예에서, 웨어러블 컴퓨팅 디바이스(100)는 링 컨트롤러 디바이스 또는 다른 웨어러블 컨트롤러이거나 이를 포함한다. 일부 웨어러블 컴퓨팅 디바이스(100)는 이어버드/헤드폰 또는 스마트 이어버드/헤드폰이거나 이를 포함한다.
도 2에 도시된 바와 같이, 시스템(200)은 모바일 컴퓨팅 디바이스(202)에 통신가능하게 연결되고 선택적으로 서버 컴퓨팅 디바이스(204)에 통신가능하게 연결되는 웨어러블 컴퓨팅 디바이스(100)를 포함한다. 일부 구현예에서, 통신가능한 결합은 네트워크(206)를 통해 발생할 수 있다. 일부 구현예에서, 통신가능한 결합은 웨어러블 컴퓨팅 디바이스(100), 모바일 컴퓨팅 디바이스(202) 및/또는 서버 컴퓨팅 디바이스(204) 사이에서 직접 발생할 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 하나 이상의 기계 실행가능 명령어나 소프트웨어, 펌웨어 또는 이들의 조합을 실행하도록 구성된 기판에 형성될 수 있는 하나 이상의 프로세서(208)를 포함한다. 프로세서(208)는 반도체 기반일 수 있고 디지털 로직을 수행할 수 있는 반도체 재료를 포함할 수 있다. 프로세서(208)는 단지 몇 가지 예를 들자면 CPU, GPU, 및/또는 DSP를 포함할 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 또한 하나 이상의 메모리 디바이스(210)를 포함할 수 있다. 메모리 디바이스(210)는 프로세서(들)(208)에 의해 판독 및/또는 실행될 수 있는 형식으로 정보를 저장하는 임의 유형의 저장 디바이스를 포함할 수 있다. 메모리 디바이스(210)는 프로세서(들)(208)에 의해 실행될 때 특정 동작을 수행하는 애플리케이션(212) 및 모듈을 저장할 수 있다. 일부 예에서, 애플리케이션(212) 및 모듈은 외부 저장 디바이스에 저장되고 메모리 디바이스(210)에 로드될 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 센서 시스템(214)을 포함한다. 센서 시스템(214)은 디스플레이된 컨텐츠 및/또는 사용자가 시청하는 컨텐츠의 이미지 데이터를 검출 및/또는 획득하도록 구성된 하나 이상의 이미지 센서(216)를 포함한다. 일부 구현예에서, 센서 시스템(214)은 다수의 이미지 센서(216)를 포함한다. 이미지 센서(216)는 이미지(예를 들어, 픽셀, 프레임 및/또는 이미지의 일부) 및 비디오를 캡처하고 기록할 수 있다.
일부 구현예에서, 이미지 센서(216)는 적색, 녹색, 청색(RGB) 카메라이다. 일부 예에서, 이미지 센서(216)는 펄스 레이저 센서(예를 들어, LiDAR 센서) 및/또는 깊이 카메라를 포함한다. 예를 들어, 이미지 센서(216)는 이미지를 만드는데 사용되는 정보를 검출하고 전달하도록 구성된 카메라일 수 있다. 일부 구현예에서, 이미지 센서(216)는 예를 들어 디바이스(100)에 액세스하는 사용자의 눈의 움직임을 캡처하는 눈/시선 추적기(218)와 같은 눈 추적 센서(또는 카메라)이다.
눈/시선 추적기(218)는 프로세서(208)에 의해 실행될 때 프로세서(208)가 본 명세서에 설명된 시선 검출 동작을 수행하게 하는 메모리(210)에 저장된 명령어를 포함한다. 예를 들어, 눈/시선 추적기(218)는 사용자의 시선이 향하는 가상 스크린(226) 상의 위치를 결정할 수 있다. 눈/시선 추적기(218)는 센서 시스템(214)의 이미징 디바이스(예를 들어, 센서(216) 및/또는 카메라(224))에 의해 캡처된 이미지에서 사용자의 동공 위치를 식별하고 추적하는 것에 기초하여 이러한 결정을 내릴 수 있다.
동작 시, 이미지 센서(216)는 디바이스(100)가 활성화되는 동안 이미지 데이터(예를 들어, 광학 센서 데이터)를 연속적으로 또는 주기적으로 획득(예를 들어, 캡처)하도록 구성된다. 일부 구현예에서, 이미지 센서(216)는 항상 켜져 있는 센서로 동작하도록 구성된다. 일부 구현예에서, 이미지 센서(216)는 사용자와 연관된 어텐션/포커스 변화 또는 시선 변화의 검출에 응답하여 활성화될 수 있다. 일부 구현예에서, 이미지 센서(216)는 관심 객체 또는 영역을 추적할 수 있다.
센서 시스템(214)은 또한 관성 모션 유닛(IMU) 센서(220)를 포함할 수 있다. IMU 센서(220)는 웨어러블 컴퓨팅 디바이스(100)의 모션, 움직임 및/또는 가속도를 검출할 수 있다. IMU 센서(220)는 예를 들어 가속도계, 자이로스코프, 자력계 및 기타 센서와 같은 다양한 다른 유형의 센서를 포함할 수 있다. 일부 구현예에서, 센서 시스템(214)은 가상 스크린에서 직접 특정 사용자 액션, 동작 등을 검출할 수 있는 스크린 내장형 센서를 포함할 수 있다.
일부 구현예에서, 센서 시스템(214)은 또한 웨어러블 컴퓨팅 디바이스(100)에 의해 수신된 오디오를 검출하도록 구성된 오디오 센서(222)를 포함할 수 있다. 센서 시스템(214)은 광 센서, 거리 및/또는 근접 센서, 용량성 센서와 같은 접촉 센서, 타이머, 및/또는 다른 센서 및/또는 이들의 다른 조합(들)과 같은 다른 유형의 센서를 포함할 수 있다. 센서 시스템(214)은 웨어러블 컴퓨팅 디바이스(100)의 포지션 및/또는 배향과 연관된 정보를 획득하는 데 사용될 수 있다. 일부 구현예에서, 센서 시스템(214)은 또한 오디오 컨텐츠를 출력하도록 트리거될 수 있는 오디오 출력 디바이스(예를 들어, 하나 이상의 스피커)를 포함하거나 이에 액세스할 수 있다.
센서 시스템(214)은 또한 정지 이미지 및/또는 동영상을 캡처할 수 있는 카메라(224)를 포함할 수 있다. 일부 구현예에서, 카메라(224)는 카메라(224)로부터 외부 객체의 거리와 관련된 데이터를 수집할 수 있는 깊이 카메라일 수 있다. 일부 구현예에서, 카메라(224)는 예를 들어 입력 디바이스의 광학 마커 또는 스크린의 손가락과 같은 외부 디바이스의 하나 이상의 광학 마커를 검출하고 따라갈 수 있는 포인트 추적 카메라일 수 있다. 입력은 예를 들어 입력 검출기(215)에 의해 검출될 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 가상 스크린(226)(예를 들어, 디스플레이)을 포함한다. 가상 스크린(226)은 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 디스플레이(OLED), 전기 영동 디스플레이(EPD) 또는 LED 광원을 채택한 마이크로 프로젝션 디스플레이 등을 포함할 수 있다. 일부 예에서, 가상 스크린(226)은 사용자의 시야에 투사된다. 일부 예에서, AR 안경의 경우, 가상 스크린(226)은 AR 안경을 착용한 사용자가 가상 스크린(226)에 의해 제공되는 이미지뿐만 아니라 투사된 이미지 뒤의 AR 안경 시야에 위치한 정보도 볼 수 있도록 투명 또는 반투명 디스플레이를 제공할 수 있다. 일부 구현예에서, 가상 스크린(226)은 물리적으로 존재하는 것보다 더 큰 스크린 이미지를 생성하는 가상 모니터를 나타낸다.
웨어러블 컴퓨팅 디바이스(100)는 또한 UI 렌더러(228)를 포함한다. UI 렌더러(228)는 웨어러블 컴퓨팅 디바이스(100)의 사용자에게 사용자 인터페이스 객체 또는 다른 컨텐츠를 묘사하기 위해 스크린(226)과 함께 기능할 수 있다. 예를 들어, UI 렌더러(228)는 포커스 전환 마커(230)와 같은 추가 사용자 인터페이스 컨텐츠를 생성하고 렌더링하기 위해 디바이스(100)에 의해 캡처된 이미지를 수신할 수 있다.
포커스 전환 마커(230)는 컨텐츠(232), UI 효과(234), 오디오 효과(236) 및/또는 촉각적 효과(238) 중 임의의 것 또는 전부를 포함할 수 있다. 컨텐츠(232)는 UI 렌더러(228)에 의해 제공되고 가상 스크린(226)에 디스플레이될 수 있다. 컨텐츠(232)는 하나 이상의 임계 조건(254)에 따라 모델(248) 및 컨텐츠 생성기(252)를 사용하여 생성될 수 있다. 예를 들어, 컨텐츠(232)는 모델(248)에 기초하여 컨텐츠 생성기(252)에 의해 생성될 수 있고, 임계 조건(254)을 충족하는 것에 응답하여 가상 스크린(226)에서 UI 렌더러(228)에 의해 렌더링될 수 있다. 예를 들어, 컨텐츠(232)는 (일정 기간 동안 디포커스 이벤트를 검출한 후) 가상 스크린(226)과 연관된 리포커스 이벤트를 검출한 것에 응답하여 생성될 수 있다. 디바이스(100)는 디포커스 이벤트 이후 미리 정의된 기간 동안 발생한 리포커스 이벤트의 검출에 기초하여, 가상 스크린(226)의 결정된 영역에서 포커스 전환 마커(230)(예: 컨텐츠(232))의 실행(및/또는 렌더링)을 트리거할 수 있다.
컨텐츠(232)는 스크린(226)에서 기존에 디스플레이된 컨텐츠 위에 묘사된 새로운 컨텐츠 중 하나 이상을 포함할 수 있다. 예를 들어, 컨텐츠(232)는 장식, 기존 컨텐츠나 텍스트에 대한 하이라이트 또는 글꼴 변경, 기호, 화살표, 윤곽선, 밑줄, 볼드체 또는 기존 컨텐츠에 대한 기타 강조를 포함할 수 있다. 유사한 방식으로, 컨텐츠의 변화가 없다는 것은 사용자가 경험하는 인터럽션 또는 주의 산만함 동안(예를 들어, 디포커스 이벤트 동안) 변화가 발생하지 않았음을 사용자에게 나타낼 수 있다.
UI 효과(234)는 애니메이션, 라이트닝 효과, 컨텐츠 켜기/끄기, 텍스트 또는 이미지의 이동, 텍스트 또는 이미지의 교체, 컨텐츠 리플레이를 위한 비디오 스니펫, 새 컨텐츠 또는 누락된 컨텐츠를 강조하기 위한 컨텐츠 축소/확대 중 임의의 하나 이상을 포함할 수 있다. 유사한 방식으로, 디스플레이된 UI 효과가 없다는 것은 사용자가 경험하는 인터럽션 또는 주의 산만함 동안 (예를 들어 디포커싱 이벤트 동안) 변화가 발생하지 않았음을 사용자에게 나타낼 수 있다. 즉, 디포커스 이벤트와 연관된 포커스 전환 마커는 가상 스크린에 묘사된 컨텐츠에 대한 변화(예를 들어 실질적인 변화)가 발생하지 않았다는 결정에 응답하여(즉, 디포커스 이벤트 동안 및 다음 포커스 이벤트 이전에) 억제될 수 있다.
오디오 효과(236)는 디포커스 이벤트 도중 및 이후에, 그러나 검출된 리포커스 이벤트 이전에 변화가 발생했을 수 있음을 나타내는 청각적 단서를 포함할 수 있다. 오디오 효과(236)는 예를 들어, 디포커스 시간 동안 컨텐츠가 누락되었음을 나타내기 위해 사용자에 의해 미리 설정된 오디오 단서와 같이, 가상 스크린(226)에 디스플레이하기 위해 이미 이용가능한 컨텐츠에 추가되는 오디오를 포함할 수 있다. 미리 설정된 오디오 단서에는 또한 사용자가 디포커싱되는 동안 발생했을 수 있는 모든 변화와 연관된 시각적 또는 촉각적 데이터가 제공될 수도 있다. 일부 구현예에서, 포커스 전환 마커(230)는 디포커스 이벤트와 연관된 시간부터 리포커스 이벤트와 연관된 시간까지 제시된 컨텐츠에서 검출된 변화들의 비디오 또는 오디오 리플레이를 포함한다. 검출된 변화들의 리플레이는 검출된 변화들에 대응하는 시각적 또는 청각적 단서들을 포함할 수 있다. 유사한 방식으로, 오디오 효과가 없다는 것은 사용자가 경험하는 인터럽션 또는 주의 산만함 동안 (예를 들어, 디포커스 이벤트 동안) 변화가 발생하지 않았음을 사용자에게 나타낼 수 있다.
촉각적 효과(238)는 디포커스 이벤트 도중 및 이후에, 그러나 검출된 리포커스 이벤트 이전에 변화가 발생했을 수 있음을 나타내는 촉각적 단서를 포함할 수 있다. 일부 구현예에서, 촉각적 효과(238)는 헤드폰 드라이버(예를 들어, 스피커 신호에 기초한 골전도 신호)에 의해 제공될 수 있다. 일부 구현예에서, 촉각적 효과(238)는 디바이스(100)의 구성요소에 의해 생성된 진동에 의해 제공될 수 있다. 예를 들어, 촉각적 효과(238)는 디바이스(100)에 설치되고 햅틱 신호를 생성하도록 구성된 선형 액추에이터(미도시)에 의해 제공될 수 있다.
촉각적 효과는 스크린(226) 또는 디바이스(100)로부터의 진동 또는 웨어러블 이어버드와 연관된 스피커와 같은 햅틱 컨텐츠를 포함할 수 있다. 촉각적 효과(238)는 또한 스크린(226) 상에 제시되는 제스처, 디포커스 기간 동안 누락되는 수행할 선택 또는 변경사항을 나타내는 애니메이션, 디포커스 기간 동안 누락되는 변화들을 나타내는 리플레이 이벤트 등을 포함할 수 있다.
일부 구현예에서, 포커스 전환 마커(230)는 디포커스 이벤트와 연관된 시간부터 리포커스 이벤트와 연관된 시간까지 제시된 컨텐츠에서 검출된 변화들의 비디오 또는 오디오 리플레이를 포함한다. 검출된 변화들의 리플레이는 검출된 변화들에 대응하는 촉각적 단서(예: 효과)가 포함된다.
일부 구현예에서, 촉각적 효과는 디포커스 이벤트 동안 발생한 변화들에 관한 인디케이션을 제공할 수 있다. 예를 들어, 촉각적 효과(238)는 모션의 리플레이, 메뉴 제시 및 선택, 및/또는 사용자가 놓친 컨텐츠를 리뷰하기 위해 취할 수 있는 다른 유형의 선택가능한 액션을 제안하는 진동을 포함할 수 있다. 유사한 방식으로, 촉각이 없다는 것은 사용자가 경험하는 인터럽션 또는 주의 산만함 동안 (예를 들어, 디포커스 이벤트 동안) 변화가 발생하지 않았음을 사용자에게 나타낼 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 또한 웨어러블 컴퓨팅 디바이스(100)의 동작을 용이하게 하기 위한 다양한 컨트롤 시스템 디바이스를 포함하는 컨트롤 시스템(240)을 포함한다. 컨트롤 시스템(240)은 웨어러블 컴퓨팅 디바이스(100)의 구성요소에 작동가능하게 결합된 프로세서(208), 센서 시스템(214) 및/또는 임의의 수의 온보드 CPU, GPUS, DSP 등을 활용할 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 또한 통신 모듈(242)을 포함한다. 통신 모듈(242)은 웨어러블 컴퓨팅 디바이스(100)가 디바이스(100)의 범위 내의 다른 컴퓨팅 디바이스와 정보를 교환하기 위해 통신할 수 있게 할 수 있다. 예를 들어, 웨어러블 컴퓨팅 디바이스(100)는 안테나(244)를 통한, 예를 들어 유선 연결, Wi-Fi 또는 블루투스를 통한 무선 연결, 또는 다른 유형의 연결을 통한 통신을 용이하게 하기 위해 다른 컴퓨팅 디바이스에 동작가능하게 결합될 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 또한 무선 신호를 통해 다른 컴퓨팅 디바이스와 통신하도록 구성된 하나 이상의 안테나(244)를 포함할 수 있다. 예를 들어, 웨어러블 컴퓨팅 디바이스(100)는 하나 이상의 무선 신호를 수신하고 무선 신호를 사용하여 모바일 컴퓨팅 디바이스(202) 및/또는 서버 컴퓨팅 디바이스(204), 또는 안테나(244) 범위 내의 다른 디바이스와 같은 다른 디바이스와 통신할 수 있다. 무선 신호는 근거리 연결(예: 블루투스 연결, 근거리 통신(NFC) 연결)이나 인터넷 연결(예: Wi-Fi, 모바일 네트워크)과 같은 무선 연결을 통해 트리거될 수 있다.
웨어러블 컴퓨팅 디바이스(100)는 또한 사용자 권한(246)을 포함하거나 그에 대한 액세스를 가질 수 있다. 그러한 권한(246)은 컨텐츠에 관해 사용자가 제공하고 승인한 권한에 기초하여 미리 구성될 수 있다. 예를 들어, 권한(246)은 카메라, 컨텐츠 액세스, 습관, 과거 입력 및/또는 행동 등에 관한 권한을 포함할 수 있다. 사용자는 예를 들어 다음 사용자 행동을 예상하는 데 사용될 수 있는 사용자에 관한 상황별 단서를 디바이스(100)가 식별할 수 있도록 권한을 제공할 수 있다. 사용자가 권한(246)을 구성하지 않은 경우, 여기에 설명된 시스템은 포커스 전환 마커 및 컨텐츠를 생성하지 않을 수 있다.
일부 구현예에서, 웨어러블 컴퓨팅 디바이스(100)는 네트워크(206)를 통해 서버 컴퓨팅 디바이스(204) 및/또는 모바일 컴퓨팅 디바이스(202)와 통신하도록 구성된다. 서버 컴퓨팅 디바이스(204)는 다수의 서로 다른 디바이스, 예를 들어 표준 서버, 이러한 서버의 그룹, 또는 랙 서버 시스템의 형태를 취하는 하나 이상의 컴퓨팅 디바이스를 나타낼 수 있다. 일부 구현예에서, 서버 컴퓨팅 디바이스(204)는 프로세서 및 메모리와 같은 구성요소를 공유하는 단일 시스템이다. 네트워크(206)는 인터넷 및/또는 LAN(Local Area Network), WAN(Wide Area Network), 셀룰러 네트워크, 위성 네트워크 또는 다른 유형의 데이터 네트워크와 같은 다른 유형의 데이터 네트워크를 포함할 수 있다. 네트워크(206)는 또한 네트워크(206) 내에서 데이터를 수신 및/또는 전송하도록 구성된 임의의 수의 컴퓨팅 디바이스(예를 들어, 컴퓨터, 서버, 라우터, 네트워크 스위치 등)를 포함할 수 있다.
입력 검출기(215)는 예를 들어 센서 시스템(214)으로부터 수신된 입력 및/또는 가상 스크린(226) 상에서 수신된 명시적인 사용자 입력을 프로세싱할 수 있다. 입력 검출기(215)는 가상 스크린(226) 상에 묘사된 컨텐츠에 대한 사용자의 어텐션 입력(예: 포커스, 시선, 어텐션)을 검출할 수 있다. 검출된 어텐션(예를 들어, 포커스)은 어떤 컨텐츠가 시청되고 있는지 결정하기 위한 기초로 사용될 수 있다. 결정된 컨텐츠 중 일부 또는 전부는 예를 들어, 디바이스(100)가 디포커스 이벤트를 검출하고 및/또는 디포커스 이벤트를 검출한 다음 스크린(226)에서 리포커스 이벤트를 검출할 때 포커스 전환 마커(230)(예를 들어, 컨텐츠 효과)를 생성하기 위해 어떤 방식으로 수정될 수 있다.
어텐션 입력은 디바이스(100)에 의해 생성되거나 디바이스(100)에 의해 획득된 임의의 수의 모델(248)에 제공될 수 있다. 도 2에 도시된 모델(248)은 어텐션 모델(112), 실시간 사용자 모델(114) 및 컨텐츠 인식 모델(116)을 포함하지만 이에 제한되지는 않으며, 이들 각각은 위에서 자세히 설명되었다. 모델 중 일부 또는 전부는 디바이스(100)에서 기계 학습 태스크를 수행하기 위해 신경망(NN)(250)을 호출하거나 액세스할 수 있다. NN은 특정 어텐션 포커스 및 디포커스를 예측 및/또는 검출하고 포커스 전환 마커(230)(예를 들어 컨텐츠(232), UI 효과(234), 오디오 효과(236) 및/또는 촉각적 효과(238))를 생성하여 디바이스(100)의 사용자가 가상 스크린(226)의 영역에 다시 포커싱하는 데 도움을 주기 위해 기계 학습 모델 및/또는 동작과 함께 사용될 수 있다.
일부 구현예에서, 센서 시스템(214)에 의해 획득된 센서 데이터에 대해 수행되는 프로세싱은 기계 학습(ML) 추론 동작으로 지칭된다. 추론 동작은 하나 이상의 예측을 하는 (또는 예측으로 이어지는) ML 모델과 관련된 이미지 프로세싱 동작, 단계 또는 하위 단계를 의미할 수 있다. 웨어러블 컴퓨팅 디바이스(100)에 의해 수행되는 특정 유형의 프로세싱은 ML 모델을 사용하여 예측할 수 있다. 예를 들어, 기계 학습은 새로운 데이터에 대한 결정을 내리기 위해 기존 데이터에서 데이터를 학습하는 통계 알고리즘을 사용할 수 있으며, 이를 추론이라고 한다. 즉, 추론은 이미 트레이닝된 모델을 가져와서 그 트레이닝된 모델을 사용하여 예측을 하는 과정을 의미한다.
도 3a 내지 도 3d는 본 개시 전체에 걸쳐 설명된 구현예에 따라, 웨어러블 컴퓨팅 디바이스의 디스플레이에서 사용자에 대한 포커스를 추적하고 추적된 포커스에 기초하여 컨텐츠를 생성하는 예를 도시한다. 도 3a는 배경에 물리적 세계 뷰(304A)가 있는 가상 스크린(302A)을 묘사한다. 일부 구현예에서, 가상 스크린(302A)은 표시되지만 물리적 세계 뷰(304A)는 표시되지 않는다. 이 예에서는 참조를 위해 물리적 세계 뷰(304A)가 도시되어 있지만, 동작 중에 사용자가 가상 스크린(302A) 상의 컨텐츠를 시청 중인 것으로 검출될 수 있으므로, 물리적 세계 뷰(304A)는 사용자가 스크린(302A)에 묘사된 컨텐츠에 집중할 수 있도록 시야에서 제거되거나, 흐릿하거나, 투명하거나, 다른 효과를 줄 수 있다.
이 예에서, 웨어러블 컴퓨팅 디바이스(100)는 눈/시선 추적기(218)(또는 센서 시스템(214)과 연관된 다른 디바이스)를 통해 사용자 조작 디바이스(100)가 여기에 음악 애플리케이션으로 보여지는 컨텐츠(306)에 어텐션하고 있음(예를 들어, 포커스를 맞추고 있음)을 결정할 수 있다. 눈/시선 추적기(218)는 사용자의 눈/시선을 추적하고 시선 타겟(310)으로 표시되는 가장 높은 강도의 시선을 갖는 맵(308)을 생성할 수 있다. 맵(308)은 일반적으로 사용자 조작 디바이스(100)에 의한 뷰를 위해 제공되지 않으며 예시 목적으로 여기에 표시된다. 그러나 맵(308)은 스크린(302A)의 컨텐츠 및/또는 물리적 세계 뷰(304A)의 컨텐츠에 대한 사용자의 시선(예를 들어, 어텐션, 포커스)을 결정하기 위해 센서 시스템(214)에 의해 수행되는 대표적인 시선 분석을 묘사할 수 있다.
디바이스(100)가 사용자가 컨텐츠(306)에 포커싱되어 있음을 검출하기 때문에, 디바이스(100)는 컨텐츠(306)를 스크린(302A)의 더 중앙 부분에 배치하도록 컨텐츠(306)를 수정할 수 있다. 일부 구현예에서, 디바이스(100)는 사용자가 컨텐츠(306)와 연관된 추가 컨텐츠와 상호작용할 수 있도록 컨텐츠(306)를 확대할 수 있다. 시선 타겟(310)은 사용자가 컨텐츠(310, 312, 314) 및/또는 스크린(302A)에 디스플레이되도록 구성된 다른 컨텐츠와 상호작용함에 따라 시간이 지남에 따라 변할 수 있다. 또한, 사용자가 물리적 세계 뷰(304A)로부터 인터럽션을 수신하면, 시선 타겟(310)은 변할 수 있다. 예를 들어, 사용자는 어떤 시점에서 스크린(302A)의 다른 영역이나 뷰(304A) 내의 컨텐츠로 어텐션/포커스를 변경할 수 있다.
도 3b에 도시된 바와 같이, 사용자는 물리적 세계로부터 인터럽션을 수신한 것일 수 있다. 인터럽션은 본질적으로 시각적, 청각적 또는 촉각적일 수 있다. 인터럽션은 사용자의 시선이 또 다른 포커스로 이동하거나 원래 포커스(예: 시선 타겟)에서 제거되도록 트리거할 수 있다. 예를 들어, 사용자는 인디케이터(318)에 표시된 것처럼 다른 사용자가 사용자의 이름을 부르는 것을 들을 수 있다. 그러면 사용자는 스크린(302B) 내의 컨텐츠(306)로부터 디포커싱할 수 있고 사용자의 시선 변화를 묘사하는 맵(316)에 의해 도시된 바와 같이 포커스(예를 들어, 어텐션, 시선 타겟)가 변할 수 있다. 이 예에서, 눈/시선 추적기(218)는 예를 들어 사용자가 스크린(302B) 너머를 보고 있음을 검출할 수 있고 디바이스(100)에서의 컨텐츠 제시의 변화를 트리거하기 시작할 수 있다. 예를 들어, 디바이스(100)는 스크린(302B)을 통해 물리적 세계 뷰(304B)를 투명하게 보여주기 시작할 수 있다. 일부 구현예에서, 디바이스(100)는 스크린(302B)을 뷰에서 제거하거나, 흐리게 하거나, 사용자가 물리적 뷰(304B)에 묘사된 컨텐츠에 집중할 수 있도록 하는 다른 효과를 나타낼 수 있다.
디바이스(100)(예를 들어, 눈/시선 추적기(218))가 310(도 3a)에서 316(도 3b)으로의 시선 변화를 검출함에 따라, 디바이스(100)는 도 3c에 도시된 바와 같이, 미리 결정된 시간 후에 스크린(302B)의 디스플레이를 끌 수 있다. 이 예에서, 디바이스(100)는 맵(322)에 도시된 바와 같이, 사용자가 영역(320)으로 눈/시선을 변경함에 따라 도시된 바와 같이 사용자 포커스의 변화를 검출할 수 있다. 또한, 디바이스(100)는 인디케이터(324)에 의해 도시된 바와 같이, 사용자 발화(talking)가 검출되지 않음을 검출할 수 있다. 인디케이터(324)는 디바이스(100)의 사용자에게 표시되지 않을 수 있지만, 대신 디바이스(100)에 의해 결정 및/또는 검출될 수 있고, 물리적 환경(304C)으로부터 사용자가 발화하는 것을 중단했음을 나타내기 위한 입력(예를 들어, 입력 검출기(215)를 통해)으로 사용될 수 있다. 시선/포커스/어텐션(예를 들어, 영역(320)에 대한)의 사용자 변화와 결합된 이 오디오 단서는 디바이스(100)가 입력에 기초하여 포커스 전환 마커(230)를 트리거하여 사용자를 물리적 세계가 아닌 가상 스크린과 연관된 포커스 포인트로 다시 끌어당기도록 트리거할 수 있다.
예를 들어, 눈/시선 추적기(218)는 사용자가 더 이상 물리적 세계 뷰(304C)에 포커싱하고 있지 않음을 검출할 수 있고, 도 3d에 도시된 바와 같이, 사용자가 가상 스크린에 다시 포커싱(예를 들어, 명시적으로 액세스)하려고 시도하고 있음을 검출할 수 있다. 이 예에서, 디바이스(100)는 사용자가 이전 인터페이스(302A)로부터의 컨텐츠(312)에 어텐션을 포커싱할 수 있는 다음 논리적 항목이라고 결정했을 수 있다. 컨텐츠(312)를 선택하기 위한 그러한 결정은 음악 애플리케이션을 수정하기 위해 이전에 컨텐츠(310)에 포커싱한 사용자에 기초했을 수 있지만, 사용자의 시선은 (맵(308)에 도시된 바와 같이) 진행 중인 방향이 있는 매핑 애플리케이션인 컨텐츠(312)를 향해 드리프트(drift)하기 시작하고 있었다. 드리프트는 디포커스 이벤트가 검출되기 전 일정 시간 동안 발생한 시선 궤적으로 해석될 수 있다.
동작 시, 디바이스(100)는 이전 단계 또는 액션에 기초하여 다음 단계 또는 액션을 결정하기 위해 모델(248)을 트리거할 수 있다. 트리거는 예를 들어 스크린(302A)으로부터 디포커싱될 때 발생할 수 있다. 일단 디바이스(100)가 컨텐츠(312)가 다음 시선 타겟 또는 액션일 가능성이 있다고 결정하면, 시스템은 도 3d에 도시된 바와 같이 포커스/어텐션이 검출되어 가상 스크린으로 복귀할 때 사용자가 컨텐츠(312)에 빠르게 포커싱하는 것을 돕기 위해 포커스 전환 마커(230)를 생성할 수 있다.
사용자가 컨텐츠(312)에 곧 어텐션할 것으로 예측된다는 검출에 응답하여, 컨텐츠 생성기(252)는 사용자가 스크린(302D)의 컨텐츠(312)에 사용자의 어텐션/포커스를 몰입시키는 데 도움이 되는 포커스 전환 마커를 생성할 수 있다. 여기서 포커스 전환 마커는 예를 들어 사용자가 304C에 어텐션하고 있는 동안 수신되었을 수 있는 방향과 관련된 메시지 및 누락된 방향을 나타내는 컨텐츠(326)를 포함한다. 여기서, 컨텐츠(326)는 누락된 주소 방향(328) 및 다른 사용자로부터의 누락된 메시지(330)를 포함한다. 컨텐츠(326)는 또한 사용자가 이 예에서 35초의 시간(334)으로 되감아 지난 35초 동안 발생했을 수 있는 다른 놓친 컨텐츠를 볼 수 있게 하는 컨트롤(332)을 포함한다. 일부 구현예에서, 이러한 컨트롤(332)은 컨텐츠(326)가 비디오, 오디오, 명령, 또는 사용자가 중단 전에 스크린(302C)에서 시청하고 있었을 수 있는 다른 순차적 컨텐츠일 때 제공될 수 있다. 일부 구현예에서, 시간(334)은 사용자가 놓친 컨텐츠 중 일부 또는 모두를 따라잡고 및/또는 리플레이할 수 있도록 디포커스 이벤트와 리포커스 이벤트 사이의 정확한 시간량으로 조정될 수 있다. 일부 구현예에서, 컨트롤(332)은 하이라이트(336)로 도시된 바와 같이 선택을 나타내기 위해 하이라이트되거나 다른 방식으로 강조될 수 있다. 물론 다른 시각화도 가능하다.
일부 구현예에서, 리플레이 및/또는 컨트롤(332)은 놓친 컨텐츠를 표준 속도 또는 가속 속도로 리플레이하기 위한 옵션을 제공할 수 있다. 일부 구현예에서, 리플레이는 리포커스 이벤트에 기초하여 트리거될 수 있으며, 사용자는 UI의 특정 객체, 컨트롤 또는 영역에 포커싱하고 있는 것으로 검출될 수 있다. 예를 들어, 사용자는 악보의 시작 부분을 응시할 때 음악 악보의 리플레이를 트리거할 수 있다. 다른 예에서, 사용자는 교사에게서 시선을 떼었다가 다시 교사를 본 후 리플레이를 트리거함으로써 교육 수업에 대한 요약을 트리거할 수 있다. 이로써, 사용자는 이전 몇 초 또는 몇 분 동안의 컨텐츠를 놓쳤을 때 실시간으로 사용할 수 있는 즉시 리플레이 기능(instant replay function)을 가질 수 있다.
일부 구현예에서, 디바이스(100)는 사용자 입력, 사용자 존재, 컨텐츠에 대한 사용자 근접성, 사용자나 컨텐츠 또는 디바이스 배향, 음성 활동, 응시 활동, 컨텐츠 상호작용 등과 같은 특성을 측정하거나 검출함으로써 사용자가 현재 무엇에 어텐션하고 있는지(예를 들어, 포커싱하고 있는지)를 식별하기 위해 모델(248)을 사용할 수 있다. 모델(248)은 사용자의 어텐션을 지배하는 우선순위에 대한 지식을 추론(예를 들어, 결정, 예측)하는 데 사용될 수 있다. 지식은 사용자에 의해 수행되는 어텐션 및 기타 상호작용 행동을 통계적으로 모델링하는 데 사용될 수 있다. 모델(248)은 현재 사용자 활동의 컨텍스트(context)에서 정보 또는 액션의 관련성을 결정할 수 있다. 정보의 관련성은 사용자가 능동적으로 선택하거나 수동적으로 참여할 수 있는 임의의 수의 옵션 및/또는 포커스 전환 마커(예: 컨텐츠)를 제시하는 데 사용될 수 있다. 따라서, 디바이스(100)는 사용자가 포커싱하는 것으로 결정되는 영역에 제시된 데이터 및/또는 컨텐츠를 향상시키면서 다른 주변 또는 배경 세부사항을 약화시킬 수 있는 포커스 전환 마커를 생성할 수 있다.
도 4a 내지 도 4d는 본 개시 전체에 걸쳐 설명된 구현예에 따른, 포커스 전환 마커를 묘사하는 예시적인 사용자 인터페이스를 예시한다. 포커스 전환 마커를 생성하기 위해, 디바이스(100)는 사용자 어텐션을 나타내는 실시간 사용자 모델(114)을 생성하여 사용할 수 있다. 예를 들어, 디바이스(100)는 가상 스크린(예: HMD 또는 AR 안경의 사용자 인터페이스)과 물리적 세계(예: 회의 중 대화 상대) 전반에 걸쳐 사용자의 포커스(예: 어텐션) 및/또는 상호작용을 추적할 수 있다. 디바이스(100)는 스크린 컨텐츠 중 사용자가 상호작용하는 부분(또는 영역)을 높은 정확도로 예측하기 위해 시선 추적 또는 명시적인 사용자 입력으로부터 획득된 검출된 신호를 활용할 수 있다.
도 4a에 도시된 바와 같이, 화상 회의는 디바이스(100)의 가상 스크린(402A)에서 호스팅되고 있으며 물리적 세계 뷰(404A)는 배경에 표시된다. 여기서 사용자는 다수의 다른 사용자와 새로운 통화에 참여하고 있을 수 있다. 어떤 시점에서, 사용자는 주의가 산만해질 수 있고, 디바이스(100)는 스크린(402A)의 특정 영역과 연관된 디포커스 이벤트를 검출할 수 있다. 디포커스 이벤트 동안, 디바이스(100)는 스크린(402A)의 제2 영역과 연관된 다음 포커스 이벤트 (또는 동일한 제1 영역과 연관된 다음 포커스 이벤트)를 결정할 수 있다. 다음 포커스 이벤트는 디포커스 이벤트 및 추적된 사용자의 포커스에 적어도 부분적으로 기초할 수 있다. 추적된 사용자의 포커스는 디포커스 이벤트가 검출되기 이전 시간 동안 발생한 시선 궤적에 대응할 수 있다. 예를 들어, 시간은 디포커스 이벤트가 발생하기 몇 초 전부터 디포커스 이벤트가 발생한 시간까지를 포함할 수 있다.
디바이스(100)는 컨텐츠의 제2 영역을 컨텐츠의 나머지 부분과 구별하기 위해 결정된 다음 포커스 이벤트에 기초하여 포커스 전환 마커(230)(예를 들어, 컨텐츠)를 생성할 수 있다. 일부 실시예에서, 포커스 전환 마커(230)는 제1 영역과 시간에 따라 발생하는 제1 영역의 업데이트 버전을 구별하기 위한 것일 수도 있다.
도 4b에 도시된 바와 같이, 디포커스 이벤트 및 리포커스 이벤트가 발생했을 수 있다. 디바이스(100)는 사용자가 도 4a로부터 이전 및 진행중인 컨텐츠로 다시 전환하는 것을 돕기 위해 마커(230)로서 기능하도록 가상 스크린(402B) 내의 컨텐츠를 생성했을 수도 있다.
일부 구현예에서, 포커스 전환 마커(230)는 실시간 스트림으로 새로운 컨텐츠를 보여주기 위해 사용될 수 있다. 예를 들어, 사용자가 라이브 스트림, 트랜스크립트(transcription), 번역 또는 비디오 중에 디포커싱할 때(예를 들어, 디포커스 이벤트), 디바이스(100)는 라이브 스트림 등으로의 리포커스 이벤트를 검출할 때 나타나는 새로운 컨텐츠를 하이라이팅할 수 있다. 리포커스 이벤트가 발생하면 시스템은 새 컨텐츠와 기존 컨텐츠를 구분할 수 있다. 따라서, 하이라이트는 사용자의 포커스/어텐션을 스크린 내 유용하고 실용적인 위치로 조종하는 기능을 하는 포커스 전환 마커일 수 있다. 일부 구현예에서는 짧은 시간 초과 후에 하이라이트가 사라질 수 있다. 일부 구현예에서, 트랜스크립트는 사용자의 어텐션이 마지막으로 검출된 위치까지 위로 스크롤(예를 들어, 20초 전에 뒤로 스크롤)될 수도 있다.
이 예에서, 사용자가 디포커싱하는 동안, Ella는 12:30에 통화에 참여했고(406), 회의가 녹음을 위해 트리거되었으며(408), Slavo는 추가 단어를 말했다(410). 디바이스(100)는 새로운 컨텐츠(406, 408, 410)를 스크린(402B)의 이미 시청한(굵게 표시되지 않은) 컨텐츠와 구별하기 위해 굵은 글씨로 표시된 새 컨텐츠(406, 408, 410)로서 마커(230)를 생성했다. 물론 텍스트 수정을 다른 효과로 대체할 수도 있다. 텍스트를 수정하는 것 외에도, 디바이스(100)는 리포커싱을 시도하는 사용자에게 변화들이 더 분명하게 보이도록 컨텐츠의 적절한 세트를 보여주기 위해 스크린(402B)의 컨텐츠 크기를 조정했다. 스크린(402B)에 표시된 컨텐츠는 예를 들어 가상 스크린(402B(또는 402A))과 연관된 리포커스 이벤트를 검출하는 것에 응답하여 UI에서의 표시(예: 렌더링)를 위해 생성, 실행 및 트리거될 수 있다.
일부 구현예에서, 미리 결정된 양의 시간 후에, 라이브 스트림은 스크린(402C) 및 물리적 세계 뷰(404C)에 관하여 도 4c에 도시된 바와 같이, 전체가 다시 묘사될 수 있다. 이 예에서는 굵게 표시된 텍스트가 마커/컨텐츠 하이라이트 없이 원래 텍스트로 희미하게 다시 표시된다.
어느 시점에서, 사용자는 디포커싱했다가 다시 리포커싱할 수 있다. 도 4d는 사용자를 돕기 위해 포커스 전환 마커(230)가 생성될 수 있는 리포커스 이벤트의 또 다른 예를 도시한다. 이 예에서 사용자는 중단으로 인해 몇 분 동안 컨텐츠를 놓쳤을 수 있으며 놓친 항목을 보고 싶어할 수 있다. 여기서, 사용자는 스크롤가능한 컨텐츠 상자(414)를 묘사하는 마커(412)로서 제시된 회의의 업데이트를 읽고 싶어하지 않을 수 있다. 디바이스(100)가 컨텐츠의 양이 많고, 디포커스 이벤트 이전에 마지막으로 알려진 컨텐츠를 사용자가 찾기 어려울 수 있다고 검출하는 경우, 디바이스(100)는 놓친 정보의 오디오를 다운로드하고 플레이하기 위한 컨트롤을 포함하는 마커(416)와 같은 마커를 생성할 수 있다. 사용자에게는 마커(416)가 제시될 수 있고 마커(416)를 선택하여 디포커스 지점에서 오디오 플레이를 시작할 수 있다.
일부 구현예에서, 디바이스(100)는 모션의 시퀀스로서 설명될 수 있는 요소를 갖는 컨텐츠에 대한 컨텐츠(예를 들어, 포커스 전환 마커)를 생성할 수 있다. 예를 들어, 디바이스(100)는 모션의 시퀀스를 검출하고 시퀀스 및 시퀀스 내의 UI/컨텐츠/사용자 액션의 상태에 기초하여 사용자 어텐션을 예상하기 위해 센서 시스템(214)을 활용할 수 있다. 예를 들어, 시선 또는 모션 궤적은 센서 시스템(214)에 의해 검출될 수 있으며 모션의 시퀀스에 대한 포커스 전환 마커(230)를 생성하는 데 사용될 수 있다. 시선 또는 모션 궤적을 외삽함으로써, 디바이스(100)는 사용자가 가상 스크린에 계속 포커싱했었다면, 사용자가 보고 있었을 영역 또는 포지션을 (예를 들어, 예측 모델(248)에 기초하여) 하이라이팅할 수 있다. 예를 들어, 사용자가 객체를 움직이도록 트리거하는 액션을 수행하는 경우, 디바이스(100)(및 사용자)는 객체의 궤적을 따라갈 수 있다. 사용자가 디포커싱하는 동안(예: 시선을 돌리는 동안) 객체는 계속 움직일 것이고, 사용자가 리포커싱하면(예: 뒤를 돌아보는 경우), 디바이스(100)는 컨텐츠, 도형, 하이라이트, 기타 이러한 마커를 사용하여 사용자에게 객체의 현재 포지션으로 가이드할 수 있다.
일부 구현예에서, 디바이스(100)는 순차적인 액션의 전환을 예측할 수 있다. 즉, 액션들의 시퀀스(예: 사용자 인터페이스에서 트리거됨)로 설명될 수 있는 요소가 포함된 컨텐츠의 경우 포커스 전환 마커가 사용자에게 특정 액션의 결과를 안내할 수 있다. 예를 들어, UI 버튼을 선택하여 가상 스크린의 특정 영역에 아이콘이 노출되는 경우, 사용자가 다시 가상 스크린에 포커싱하면 아이콘이 하이라이트되어 사용자의 시선을 변화 방향으로 가이드할 수 있다.
일부 구현예에서, 포커스 전환 마커는 순차적 컨텐츠의 차이를 보여줄 수 있다. 예를 들어, 예측을 수행하지 않고, 디바이스(100)는 가상 스크린에서 변경된 사항을 간략하게 강조하기 위한 마커(230)를 생성할 수 있다. 또 다른 예에서, 사용자가 트랜스크립트를 보고 있고 사용자가 포커스를 잃은 동안(예: 시선을 돌리는 경우) 일부 단어가 수정된 경우, 수정된 단어는 사용자가 다시 포커싱할 때 사용자에게 디스플레이하기 위한 마커로 하이라이팅될 수 있다. 공간적 차이 또는 모션이 단서인 차이에 대해, 디바이스(100)는 예를 들어 유선형 등으로 모션 벡터를 예시하는 것과 같은 다양한 시각화 기술을 사용하여 하이라이팅할 수 있다.
도 5는 본 개시 전체에 걸쳐 설명된 구현예에 따라, 컴퓨팅 디바이스에서 이미지 프로세싱 태스크를 수행하는 프로세스(500)의 일 예를 나타내는 흐름도이다. 일부 구현예에서, 컴퓨팅 디바이스는 배터리로 구동되는 웨어러블 컴퓨팅 디바이스이다. 일부 구현예에서, 컴퓨팅 디바이스는 배터리로 구동되는 비-웨어러블 컴퓨팅 디바이스이다.
프로세스(500)는 적어도 하나의 프로세싱 디바이스, 스피커, 선택적 디스플레이 기능, 및 실행 시 프로세싱 디바이스로 하여금 청구항에 기재된 복수의 동작 및 컴퓨터 구현 단계를 수행하게 하는 명령어들을 저장하는 메모리를 갖는 컴퓨팅 디바이스의 프로세싱 시스템을 활용할 수 있다. 일반적으로, 컴퓨팅 디바이스(100), 시스템(200 및/또는 600)은 프로세스(500)의 설명 및 실행에 사용될 수 있다. 디바이스(100)와 시스템(200 및/또는 600)의 조합은 일부 구현예에서 단일 시스템을 나타낼 수 있다. 일반적으로, 프로세스(500)는 여기에 설명된 시스템 및 알고리즘을 활용하여 사용자 어텐션을 검출하고 사용자 어텐션을 사용하여 어텐션/포커스를 가상 스크린으로 되돌릴 때 사용자가 빠르게 포커싱하는 데 도움이 되는 포커스 전환 마커(예를 들어, 컨텐츠)를 생성 및 디스플레이한다.
블록(502)에서, 프로세스(500)는 가상 스크린에 제시된 컨텐츠에 대한 사용자의 포커스를 추적하는 단계를 포함한다. 추적된 포커스는 시선, 어텐션, 상호작용 등을 포함할 수 있다. 예를 들어, 센서 시스템(214) 및/또는 입력 검출기(215)는 가상 스크린(226)에 디스플레이하기 위해 제시된 컨텐츠(예: 컨텐츠(310, 320 등))에 대한 사용자의 포커스 및/또는 어텐션을 추적할 수 있다. 일부 구현예에서, 추적은 눈/시선 추적기(218)에 의해 수행될 수 있다. 일부 구현예에서, 추적은 이미지 센서(216) 및/또는 카메라(224)에 의해 수행될 수 있다. 일부 구현예에서, 추적은 IMU(220)에 의해 수행될 수 있다. 일부 구현예에서, 추적은 시선 신호(예를 들어, 시선), 머리 추적 신호, 명시적인 사용자 입력, 및/또는 원격 사용자 입력 중 임의의 하나 이상(또는 이들의 임의의 조합)을 포함하는 신호를 평가하고 추적하는 것을 포함할 수 있다. 일부 구현예에서, 모델(248)은 다음 단계 및/또는 다음 포커스 이벤트를 결정하기 위해 추적된 포커스 또는 관련 신호를 평가하는 데 사용될 수 있다. 위의 조합을 사용하여 사용자의 포커스를 확인하고 추적할 수 있다.
블록(504)에서, 프로세스(500)는 컨텐츠의 제1 영역과 연관된 디포커스 이벤트를 검출하는 단계를 포함한다. 예를 들어, 센서 시스템(214)은 사용자가 제1 영역에서 다른 영역을 바라보고 있거나 사용자가 물리적 세계를 보기 위해 스크린에서 포커스나 어텐션을 멀리 이동했다는 것을 검출할 수 있다.
블록(506)에서, 프로세스(500)는 컨텐츠의 제2 영역과 연관된 다음 포커스 이벤트를 결정하는 단계를 포함한다. 결정은 디포커스 이벤트 및 검출된 디포커스 이벤트 이전의 미리 정의된 기간 동안 발생한 시선 궤적에 대응하는 사용자의 추적된 포커스에 적어도 부분적으로 기초할 수 있다. 예를 들어, 눈/시선 추적기(218)는 사용자가 가상 스크린(226) 및/또는 물리적 세계 뷰(304C)의 컨텐츠에 참여할 때 포커스를 추적할 수 있다. 추적기(218)에 의해 추적된 움직임 또는 모션 궤적은 하나 이상의 임계 조건(254) 및/또는 모델(248)과 결합하여 사용자가 다음에 수행할 액션(예를 들어 이벤트)을 예측하는 데 사용될 수 있다. 예를 들어, 실시간 사용자 모델(114) 및 사용자의 어텐션/포커스 상태는 검출된 UI 모델 및 UI 상태와 결합하여 사용자가 다음에 어떤 이벤트/액션을 수행할지 예측하는 데 사용될 수 있다.
일부 구현예에서, 사용자의 포커스는 컨텐츠(예를 들어, 컨텐츠(310))와의 검출된 사용자 상호작용에 기초하여 추가로 결정된다. 다음 포커스 이벤트는 검출된 사용자 상호작용 및 컨텐츠와 연관되고/되거나 가상 스크린(226)에 묘사된 UI와 연관된 액션들의 시퀀스에서 미리 정의된 다음 액션에 따라 결정될 수 있다. 즉, 디바이스(100)는 사용자 포커스가 컨텐츠(310)로 돌아오면, 음악의 바로 이전 바(bar)와 관련하여 발생하는 디포커스 이벤트에 기초하여 다음 액션은 시퀀스 내의 음악의 다음 바에 대한 음악 작곡 애플리케이션에서 작업되는 것일 수 있다고 예측할 수 있다. 일부 구현예에서, 사용자가 이전 사용자 행동에 대한 권한 기반 검색된 지식에 기초하여 애플리케이션을 변경할 것으로 예측되는 경우, 제2 영역은 제1 영역과 다른 컨텐츠의 일부일 수 있다. 일부 구현예에서, 다음 이벤트가 다른 컨텐츠에서 발생할 것이라고 결정하기 위해 모델(248)에 의해 일반적인 모션 궤적이 사용되는 경우, 제2 영역은 제1 영역과 다른 컨텐츠의 일부일 수 있다.
블록(508)에서, 프로세스(500)는 결정된 다음 포커스 이벤트에 기초하여, 컨텐츠의 제2 영역을 컨텐츠의 나머지 영역과 구별하기 위한 포커스 전환 마커를 생성하는 단계를 포함한다. 예를 들어, 컨텐츠 생성기(252)는 센서 시스템(214) 및 모델(248)과 함께 기능하여 제2 영역에 배치할 포커스 전환 마커(230)의 구성 및/또는 모양을 결정할 수 있다. 예를 들어, 디바이스(100)는 제2 영역을 가상 스크린(226)에 묘사된 다른 컨텐츠와 구별하기 위해 컨텐츠(232), UI 효과(234), 오디오 효과(236), 촉각적 효과(238) 및/또는 다른 시각화를 생성할지 여부를 결정할 수 있다.
일부 구현예에서, 포커스 전환 마커(230)는 디포커스 이벤트와 연관된 시간 및 리포커스 이벤트와 연관된 시간으로부터 컨텐츠의 검출된 변화들의 비디오 또는 오디오 리플레이를 나타낸다. 일반적으로, 검출된 변화들의 리플레이는 검출된 변화들에 대응하는 시각적 또는 청각적 단서들을 포함할 수 있다. 예를 들어, 포커스 전환 마커(230)는 디포커스 이벤트와 사용자에 의해 수행되고 추적기(218)에 의해 검출된 리포커스 이벤트 사이에 놓쳤을 수 있는 컨텐츠에 기초하여 생성된 UI 전환 또는 비디오, 오디오의 스니펫일 수 있다.
일부 구현예에서, 포커스 전환 마커(230)는 디포커스 이벤트와 연관된 시간 및 리포커스 이벤트와 연관된 시간으로부터 컨텐츠의 검출된 변화들의 리플레이를 나타낸다. 여기서 변화들의 리플레이는 변화들에 대응하는 촉각적 단서들이 포함된다. 예를 들어, 리플레이는 디포커스 이벤트와 리포커스 이벤트 사이에 발생했을 수 있는 변화들을 리뷰하기 위해 사용자가 포커스 전환 마커(230)를 선택해야 함을 나타내는 컨텐츠를 포함할 수 있다.
블록(510)에서, 프로세스(500)는 가상 스크린과 연관된 리포커스 이벤트를 검출한 것에 응답하여, 제2 영역에서 또는 그와 연관된 포커스 전환 마커의 실행을 트리거하는 단계를 포함한다. 예를 들어, 디바이스(100)는 포커스 전환 마커(들)(230)를 생성할 수 있으나, 리포커스 이벤트가 검출될 때까지 제2 영역에서 또는 이와 연관된 마커들을 실행 및/또는 디스플레이하는 것을 기다릴 수 있다.
일부 구현예에서, 특정 디포커스 이벤트와 연관된 포커스 전환 마커(230)는 가상 스크린에 묘사된 컨텐츠에 대한 실질적인 변화가 발생하지 않았다는 결정에 응답하여 억제되도록 구성될 수 있다. 예를 들어, 디바이스(100)는 가상 스크린(226)에 묘사된 컨텐츠에 대해 발생한 사용자 디포커스 이벤트 이후 아무런 변화(또는 변화의 최소 임계 레벨)가 발생하지 않았음을 검출할 수 있다. 이에 대응하여, 디바이스(100)는 포커스 전환 마커(230)를 디스플레이하지 않을 수 있다. 일부 구현예에서, 디바이스(100)는 디포커스 이벤트 이전에 포커싱되었던 최종 결정된 컨텐츠를 어둡게 한 다음 밝게 함으로써 포커스 전환 마커(230)의 효과를 부드럽게 할 수 있다.
일부 구현예에서, 포커스 전환 마커(들)(230)는 하이라이트(336) 및 컨트롤(332)에 의해 도 3d에 도시된 바와 같이, 적어도 하나의 컨트롤 및 제2 영역의 일부 위에 오버레이된 하이라이트된 인디케이터를 포함한다. 포커스 전환 마커는 리포커스 이벤트 후 미리 정의된 기간 이후 디스플레이에서 점차적으로 제거될 수 있다. 예를 들어, 리포커스 컨텐츠/마커(326)는 사용자가 스크린(302D)의 컨텐츠에 리포커스한 후 몇 초 내지 1분 동안 표시될 수 있다.
일부 구현예에서, 컨텐츠는 모션의 시퀀스를 묘사한다. 예를 들어, 컨텐츠는 공이 움직이는 스포츠 이벤트의 시퀀스일 수 있다. 제1 영역은 게임 중에 사용자가 어텐션/포커스를 두었던 모션의 제1 시퀀스를 나타낼 수 있다. 어떤 시점에서, 사용자는 가상 스크린(226)으로부터 디포커싱할 수 있다(예를 들어, 시선을 돌릴 수 있음). 제2 영역은 제1 시퀀스 이후에 발생하도록 구성된 모션의 제2 시퀀스를 나타낼 수 있다. 사용자가 모션의 제1 시퀀스 후에 디포커싱하면, 디바이스(100)는 모션의 제2 시퀀스 동안 컨텐츠(예를 들어, 움직이는 공)를 계속 추적할 수 있다.
사용자가 리포커싱할 때, 디바이스(100)는 사용자가 스크린(226) 상의 게임에 어텐션을 제공하지 않는 동안의 컨텐츠 추적에 기초하여 포커스 전환 생성기(230)를 생성했을 수 있다. 전환 마커(230)는 제2 영역의 공을 묘사할 수 있지만, 디포커스 이벤트와 리포커스 이벤트 사이의 시간 동안 게임 중에 무슨 일이 발생했는지 사용자에게 신속하게 알려주기 위해 제1 영역과 제2 영역 사이(예를 들어, 모션의 제1 시퀀스와 모션의 제2 시퀀스 사이 및 그 이후)의 공의 궤적을 보여줄 수 있다. 전환 마커(230)는 컨텐츠의 제2 영역과 연관된 위치에서 실행(및/또는 렌더링)을 위해 트리거될 수 있다. 일부 구현예에서, 제2 영역과 연관된 포커스 전환 마커(230)를 트리거링하는 것은 모션의 제2 시퀀스에 묘사된 포커스 전환 마커(230)를 실행하도록 제2 시퀀스를 트리거하는 것을 포함한다.
일부 구현예에서, 컨텐츠는 가상 스크린(302A)의 사용자 인터페이스(예를 들어, 컨텐츠(310, 312, 314)로 표시됨)에 제시된다. 센서 시스템(214)은 스크린(302A)에 도시된 UI와 연결된 제1 기간에 걸쳐 추적된 사용자의 포커스에 기초하여 사용자의 어텐션 모델을 생성하기 위해 사용자 포커스/어텐션을 검출할 수 있다. 이후, 디바이스(100)는 UI에 대한 모델을 획득할 수 있다. UI에 대한 모델은 UI의 복수의 상태들 및 UI와 연관된 사용자 상호작용들을 정의할 수 있다. 추적된 사용자의 포커스, 어텐션 모델, 및 UI의 복수의 상태들로부터 결정된 상태에 기초하여, 디바이스(100)는 제2 기간 동안 스크린(302D)의 제2 영역의 적어도 일부 및 그 안의 컨텐츠 상에 오버레이된 적어도 하나의 포커스 전환 마커(예를 들어, 마커(326))의 렌더링을 트리거할 수 있다.
일부 구현예에서, 가상 스크린(226)은 증강 현실 뷰(예를 들어, 스크린(302A)) 및 물리적 세계 뷰(예를 들어, 304A)를 포함하는 시야를 제공하도록 구성된 증강 현실 디바이스(예를 들어, 웨어러블 컴퓨팅 디바이스(100))와 연관된다. 일부 구현예에서, 사용자의 포커스를 추적하는 것은 사용자의 포커스가 증강 현실 뷰(예를 들어, 스크린(302A))와 연관된 검출된 시선인지 또는 물리적 세계 뷰(예를 들어, 뷰(304A))와 연관된 검출된 시선인지를 결정하는 것을 포함한다.
일부 구현예에서, 제2 영역과 연관된 포커스 전환 마커의 실행을 트리거하는 것은 사용자의 포커스가 증강 현실 뷰와 연관된 검출된 시선인 경우(예를 들어, 302A) 디포커스 이벤트와 연관된 시간부터 컨텐츠를 다시 시작하고(예를 들어, 컨텐츠와 연관된 이벤트/오디오/시각의 순차적인 리플레이 수행), 그리고 사용자의 포커스가 물리적 세계 뷰(예: 304A)와 연관된 검출된 시선인 경우 리포커스 이벤트가 검출될 때까지 컨텐츠를 일시정지하고 페이딩하는 것을 포함한다.
도 6은 (예를 들어, 클라이언트 컴퓨팅 디바이스(600), 서버 컴퓨팅 디바이스(204) 및/또는 모바일 컴퓨팅 디바이스(202)를 구현하기 위해) 설명된 기술과 함께 사용될 수 있는 컴퓨터 디바이스(600) 및 모바일 컴퓨터 디바이스(650)의 예를 도시한다. 컴퓨팅 디바이스(600)는 프로세서(602), 메모리(604), 저장 디바이스(606), 메모리(604) 및 고속 확장 포트(610)에 연결되는 고속 인터페이스(608), 및 저속 버스(614) 및 저장 디바이스(606)에 연결되는 저속 인터페이스(612)를 포함한다. 각각의 구성요소(602, 604, 606, 608, 610, 612)는 다양한 버스를 사용하여 상호연결되며, 공통 마더보드에 장착되거나 적절한 다른 방식으로 장착될 수 있다. 프로세서(602)는 고속 인터페이스(608)에 연결된 디스플레이(616)와 같은, 외부 입력/출력 디바이스에 GUI에 대한 그래픽 정보를 디스플레이하기 위해 메모리(604) 또는 저장 디바이스(606)에 저장된 명령어를 포함하여 컴퓨팅 디바이스(600) 내에서 실행하기 위한 명령어를 프로세싱할 수 있다. 다른 구현예에서, 다중 메모리 및 메모리 유형과 함께 다중 프로세서 및/또는 다중 버스가 적절하게 사용될 수 있다. 또한, 다수의 컴퓨팅 디바이스(600)는 필요한 동작의 부분을 제공하는 각 디바이스(예를 들어, 서버 뱅크, 블레이드 서버 그룹, 또는 다중 프로세서 시스템)와 연결될 수 있다.
메모리(604)는 컴퓨팅 디바이스(600) 내에 정보를 저장한다. 일 구현예에서, 메모리(604)는 휘발성 메모리 유닛 또는 유닛들이다. 다른 구현예에서, 메모리(604)는 비휘발성 메모리 유닛 또는 유닛들이다. 메모리(604)는 자기 디스크 또는 광학 디스크와 같은 컴퓨터 판독가능 매체의 다른 형태일 수도 있다.
저장 디바이스(606)는 컴퓨팅 디바이스(600)에 대용량 저장소를 제공할 수 있다. 일 구현예에서, 저장 디바이스(606)는 플로피 디스크 디바이스, 하드 디스크 디바이스, 광학 디스크 디바이스, 또는 테이프 디바이스, 플래시 메모리 또는 기타 유사한 고체 상태 메모리 디바이스, 또는 저장 영역 네트워크 또는 기타 구성의 디바이스를 포함한 디바이스 배열과 같은 컴퓨터 판독가능 매체이거나 이를 포함할 수 있다. 컴퓨터 프로그램 제품은 정보매체에 유형적으로 구현될 수 있다. 컴퓨터 프로그램 제품은 또한 실행될 때 위에서 설명된 것과 같은 하나 이상의 방법을 수행하는 명령어를 포함할 수 있다. 정보 매체는 메모리(604), 저장 디바이스(606) 또는 프로세서(602)의 메모리와 같은 컴퓨터 또는 기계 판독가능 매체이다.
고속 컨트롤러(608)는 컴퓨팅 디바이스(600)에 대한 대역폭 집약적 작업을 관리하는 반면, 저속 컨트롤러(612)는 낮은 대역폭 집약적 작업을 관리한다. 이러한 기능 할당은 단지 예시일 뿐이다. 일 구현예에서, 고속 컨트롤러(608)는 메모리(604), 디스플레이(616)(예를 들어, 그래픽 프로세서 또는 가속기를 통해) 및 다양한 확장 카드(미도시)를 수용할 수 있는 고속 확장 포트(610)에 연결된다. 구현예에서, 저속 컨트롤러(612)는 저장 디바이스(606) 및 저속 확장 포트(614)에 결합된다. 다양한 통신 포트(예: USB, 블루투스, 이더넷, 무선 이더넷)를 포함할 수 있는 저속 확장 포트는 예를 들어 네트워크 어댑터를 통해 키보드, 포인팅 디바이스, 스캐너와 같은 하나 이상의 입력/출력 디바이스 또는 스위치나 라우터와 같은 네트워킹 디바이스에 연결될 수 있다.
컴퓨팅 디바이스(600)는 도면에 도시된 바와 같이, 다수의 상이한 형태로 구현될 수 있다. 예를 들어, 표준 서버(620)로 구현되거나 그러한 서버 그룹에서 여러 번 구현될 수 있다. 이는 랙 서버 시스템(624)의 일부로 구현될 수도 있다. 또한, 노트북 컴퓨터(622)와 같은 개인용 컴퓨터에서도 구현될 수 있다. 대안적으로, 컴퓨팅 디바이스(600)의 구성요소는 디바이스(650)와 같은 모바일 디바이스(미도시)의 다른 구성요소와 결합될 수 있다. 이러한 디바이스 각각은 하나 이상의 컴퓨팅 디바이스(600, 650)를 포함할 수 있고, 전체 시스템은 서로 통신하는 다수의 컴퓨팅 디바이스(600, 650)로 구성될 수 있다.
컴퓨팅 디바이스(650)는 특히 프로세서(652), 메모리(664), 디스플레이(654)와 같은 입/출력 디바이스, 통신 인터페이스(666) 및 트랜시버(668)를 포함한다. 디바이스(650)에는 추가 저장소를 제공하기 위해 마이크로드라이브 또는 기타 디바이스와 같은 저장 디바이스가 제공될 수도 있다. 구성요소(650, 652, 664, 654, 666, 668) 각각은 다양한 버스를 사용하여 상호연결되며, 구성요소 중 여러 개는 공통 마더보드에 장착되거나 적절한 다른 방식으로 장착될 수 있다.
프로세서(652)는 메모리(664)에 저장된 명령어를 포함하여 컴퓨팅 디바이스(650) 내에서 명령어를 실행할 수 있다. 프로세서는 별도의 다중 아날로그 및 디지털 프로세서를 포함하는 칩의 칩셋으로 구현될 수 있다. 프로세서는 예를 들어, 사용자 인터페이스의 컨트롤, 디바이스(650)에 의해 실행되는 애플리케이션 및 디바이스(650)에 의한 무선 통신과 같은 디바이스(650)의 다른 구성요소의 조정을 제공할 수 있다.
프로세서(652)는 디스플레이(654)에 연결된 컨트롤 인터페이스(658) 및 디스플레이 인터페이스(656)를 통해 사용자와 통신할 수 있다. 디스플레이(654)는 예를 들어 TFT LCD(박막 트랜지스터 액정 디스플레이), LED(발광 다이오드) 또는 OLED(유기 발광 다이오드) 디스플레이 또는 기타 적절한 디스플레이 기술일 수 있다. 디스플레이 인터페이스(656)는 사용자에게 그래픽 및 기타 정보를 제공하기 위해 디스플레이(654)를 구동하기 위한 적절한 회로를 포함할 수 있다. 컨트롤 인터페이스(658)는 사용자로부터 명령을 수신하고 이를 프로세서(652)에 제출하기 위해 변환할 수 있다. 또한, 외부 인터페이스(662)는 프로세서(652)와 통신하여 제공되어 디바이스(650)와 다른 디바이스의 근거리 통신을 가능하게 할 수 있다. 외부 인터페이스(662)는 예를 들어 일부 구현예에서는 유선 통신을 제공하고 다른 구현예에서는 무선 통신을 제공할 수 있으며, 다중 인터페이스도 사용될 수 있다.
메모리(664)는 컴퓨팅 디바이스(650) 내에 정보를 저장한다. 메모리(664)는 컴퓨터 판독가능 매체(들), 휘발성 메모리 유닛(들), 또는 비휘발성 메모리 유닛(들) 중 하나 이상으로 구현될 수 있다. 확장 메모리(674)는 또한 예를 들어 SIMM(Single In-Line Memory Module) 카드 인터페이스를 포함할 수 있는 확장 인터페이스(672)를 통해 디바이스(650)에 제공되고 연결될 수 있다. 이러한 확장 메모리(674)는 디바이스(650)에 대한 추가 저장 공간을 제공할 수 있거나 디바이스(650)에 대한 애플리케이션 또는 기타 정보를 저장할 수도 있다. 구체적으로, 확장 메모리(674)는 전술한 프로세스를 수행하거나 보완하기 위한 명령어를 포함할 수 있으며, 보안 정보도 포함할 수 있다. 따라서, 예를 들어 확장 메모리(674)는 디바이스(650)에 대한 보안 모듈로 제공될 수 있으며 디바이스(650)의 보안 사용을 허용하는 명령어로 프로그래밍될 수 있다. 또한 SIMM 카드에 해킹 불가능한 방식으로 식별 정보를 배치하는 등의 추가 정보와 함께 보안 애플리케이션이 SIMM 카드를 통해 제공될 수 있다.
메모리는 예를 들어 후술하는 바와 같이 플래시 메모리 및/또는 NVRAM 메모리를 포함할 수 있다. 한 구현예에서, 컴퓨터 프로그램 제품은 정보 매체에 유형적으로 구현된다. 컴퓨터 프로그램 제품에는 실행 시 위에 설명된 것과 같은 하나 이상의 방법을 수행하는 명령어가 포함되어 있다. 정보 매체는 예를 들어 트랜시버(668) 또는 외부 인터페이스(662)를 통해 수신될 수 있는 메모리(664), 확장 메모리(674) 또는 프로세서(652)의 메모리와 같은 컴퓨터 또는 기계 판독가능 매체이다.
디바이스(650)는 필요한 경우 디지털 신호 처리 회로를 포함할 수 있는 통신 인터페이스(666)를 통해 무선으로 통신할 수 있다. 통신 인터페이스(666)는 무엇보다도 GSM 음성 통화, SMS, EMS 또는 MMS 메시징, CDMA, TDMA, PDC, WCDMA, CDMA2000 또는 GPRS와 같은 다양한 모드 또는 프로토콜 하에서 통신을 제공할 수 있다. 이러한 통신은 예를 들어 무선 주파수 트랜시버(668)를 통해 발생할 수 있다. 또한, 블루투스, Wi-Fi 또는 기타 트랜시버(미도시)를 사용하는 등의 단거리 통신이 발생할 수도 있다. 또한, GPS(Global Positioning System) 수신기 모듈(670)은 디바이스(650)에 추가적인 내비게이션 및 위치 관련 무선 데이터를 제공할 수 있으며, 이는 디바이스(650)에서 실행되는 애플리케이션에 의해 적절하게 사용될 수 있다.
디바이스(650)는 또한 사용자로부터 음성 정보를 수신하고 이를 사용가능한 디지털 정보로 변환할 수 있는 오디오 코덱(660)을 사용하여 청각적으로 통신할 수 있다. 오디오 코덱(660)은 마찬가지로 예를 들어 디바이스(650)의 핸드셋에서 스피커를 통해 사용자를 위한 가청 사운드를 생성할 수 있다. 이러한 소리에는 음성 전화 통화의 소리가 포함될 수 있고, 녹음된 소리(예: 음성 메시지, 음악 파일 등)가 포함될 수 있으며, 디바이스(650)에서 작동하는 애플리케이션에 의해 생성된 소리도 포함될 수 있다.
컴퓨팅 디바이스(650)는 도면에 도시된 바와 같이 다수의 다른 형태로 구현될 수 있다. 예를 들어, 휴대폰(680)으로 구현될 수 있다. 이는 또한 스마트폰(682), PDA(Personal Digital Assistant) 또는 기타 유사한 모바일 디바이스의 일부로 구현될 수도 있다.
여기에 설명된 시스템 및 기술의 다양한 구현예는 디지털 전자 회로, 집적 회로, 특별히 설계된 ASICs(애플리케이션 특정 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합으로 실현될 수 있다. 이들 다양한 구현예는 적어도 하나의 프로그래밍가능 프로세서를 포함하는 프로그래밍가능 시스템에서 실행가능 및/또는 해석가능한 하나 이상의 컴퓨터 프로그램에서의 구현을 포함할 수 있다. 이는 저장 시스템, 적어도 하나의 입력 디바이스 및 적어도 하나의 출력 디바이스로부터 데이터 및 명령어를 수신하고 스토리지 시스템으로 데이터 및 명령어를 전송하도록 결합된 특수 또는 일반 목적일 수 있다.
이러한 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션 또는 코드라고도 함)은 프로그래밍가능한 프로세서에 대한 기계 명령어를 포함하고, 고급 절차적 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리/기계 언어로 구현될 수 있다. 본 문서에 사용된 용어 "기계 판독가능 매체", "컴퓨터 판독가능 매체"는 기계 판독가능 신호로서 기계 명령어를 수신하는 기계 판독가능 매체를 포함하여 기계 명령어 및/또는 데이터를 프로그래밍가능한 프로세서에 제공하는 데 사용되는 모든 컴퓨터 프로그램 제품, 장치 및/또는 디바이스(예: 자기 디스크, 광 디스크, 메모리, 프로그래밍가능 논리 디바이스(PLD))를 포함한다. "기계 판독가능 신호"라는 용어는 기계 명령어 및/또는 데이터를 프로그래밍가능한 프로세서에 제공하는 데 사용되는 모든 신호를 의미한다.
사용자와의 상호작용을 제공하기 위해, 여기에 설명된 시스템과 기술은 사용자에게 정보를 디스플레이하기 위한 디스플레이 디바이스(LED(발광 다이오드), OLED(유기 LED) 또는 LCD(액정 디스플레이) 모니터/스크린)와 사용자가 컴퓨터에 입력을 제공할 수 있는 키보드 및 포인팅 디바이스(예: 마우스 또는 트랙볼)를 갖춘 컴퓨터에서 구현될 수 있다. 사용자와의 상호작용을 제공하기 위해 다른 종류의 디바이스도 사용될 수 있으며; 예를 들어, 사용자에게 제공되는 피드백은 모든 형태의 감각 피드백(예: 시각적 피드백, 청각적 피드백 또는 촉각적 피드백)일 수 있으며; 그리고 사용자의 입력은 음향, 음성 또는 촉각 입력을 포함한 모든 형태로 수신될 수 있다.
여기에 설명된 시스템 및 기술은 백엔드 구성요소(예: 데이터 서버)를 포함하거나, 미들웨어 구성요소(예: 애플리케이션 서버)를 포함하거나, 프런트엔드 구성요소(예: 사용자가 여기에 설명된 시스템 및 기술의 구현과 상호작용할 수 있는 그래픽 사용자 인터페이스 또는 웹 브라우저가 있는 클라이언트 컴퓨터)를 포함하거나, 이러한 백엔드, 미들웨어 또는 프런트엔드 구성요소의 임의의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 시스템의 구성요소는 디지털 데이터 통신의 모든 형태나 매체(예: 통신 네트워크)를 통해 상호연결될 수 있다. 통신 네트워크의 예로는 근거리 통신망("LAN"), 광역 통신망("WAN") 및 인터넷이 포함된다.
컴퓨팅 시스템은 클라이언트와 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있으며 일반적으로 통신 네트워크를 통해 상호작용한다. 클라이언트와 서버의 관계는 각 컴퓨터에서 실행되고 서로 클라이언트-서버 관계를 갖는 컴퓨터 프로그램으로 인해 발생한다.
일부 구현예에서, 도면에 도시된 컴퓨팅 디바이스는 AR 헤드셋/HMD 디바이스(690)와 인터페이스하여 물리적 공간 내에 삽입된 컨텐츠를 보기 위한 증강 환경을 생성하는 센서를 포함할 수 있다. 예를 들어, 컴퓨팅 디바이스(650) 또는 도면에 도시된 다른 컴퓨팅 디바이스에 포함된 하나 이상의 센서는 AR 헤드셋(690)에 입력을 제공하거나 일반적으로 AR 공간에 입력을 제공할 수 있다. 센서에는 터치스크린, 가속도계, 자이로스코프, 압력 센서, 생체 인식 센서, 온도 센서, 습도 센서 및 주변광 센서가 포함될 수 있지만 이에 국한되지는 않는다. 컴퓨팅 디바이스(650)는 AR 공간에 대한 입력으로서 사용될 수 있는 AR 공간에서 컴퓨팅 디바이스의 검출된 회전 및/또는 절대 위치를 결정하기 위해 센서를 사용할 수 있다. 예를 들어, 컴퓨팅 디바이스(650)는 컨트롤러, 레이저 포인터, 키보드, 무기 등과 같은 가상 객체로서 AR 공간에 포함될 수 있다. AR 공간에 통합될 때 사용자에 의한 컴퓨팅 디바이스/가상 객체의 위치 지정은 사용자가 AR 공간에서 특정 방식으로 가상 객체를 볼 수 있도록 컴퓨팅 디바이스를 포지셔닝하는 것을 허용할 수 있다.
일부 구현예에서, AR 헤드셋/HMD 디바이스(690)는 디바이스(600)를 나타내며 버드배스(birdbath) 또는 도파관 광학 디바이스를 사용하는 것과 같은 투시형 근안 디스플레이를 포함할 수 있는 디스플레이 디바이스(예: 가상 스크린)를 포함한다. 예를 들어, 이러한 광학 설계는 디스플레이 소스의 빛을 45도 각도로 배치된 빔 스플리터(beamsplitter) 역할을 하는 텔레프롬프터(teleprompter) 유리 부분에 투사할 수 있다. 빔 스플리터는 디스플레이 소스로부터의 광이 부분적으로 반사되고 나머지 광은 투과되도록 하는 반사 및 투과 값을 허용할 수 있다. 이러한 광학 설계를 통해 사용자는 디스플레이에 의해 생성된 디지털 이미지(예: UI 요소, 가상 컨텐츠, 포커스 전환 마커 등) 옆에 있는 세계의 두 물리적 항목을 모두 볼 수 있다. 일부 구현예에서, 도파관 광학은 디바이스(600)의 가상 스크린에 컨텐츠를 묘사하는 데 사용될 수 있다.
일부 구현예에서, 컴퓨팅 디바이스(650)에 포함되거나 이에 연결되는 하나 이상의 입력 디바이스는 AR 공간에 대한 입력으로서 사용될 수 있다. 입력 디바이스에는 터치스크린, 키보드, 하나 이상의 버튼, 트랙패드, 터치패드, 포인팅 디바이스, 마우스, 트랙볼, 조이스틱, 카메라, 마이크, 입력 기능이 있는 이어폰 또는 버드, 게임 컨트롤러 또는 기타 연결가능한 입력 디바이스가 포함될 수 있지만 이에 국한되지는 않는다. 컴퓨팅 디바이스가 AR 공간에 통합될 때 컴퓨팅 디바이스(650)에 포함된 입력 디바이스와 상호작용하는 사용자는 AR 공간에서 특정 동작이 발생하도록 할 수 있다.
일부 구현예에서, 컴퓨팅 디바이스(650)의 터치스크린은 AR 공간에서 터치패드로 렌더링될 수 있다. 사용자는 컴퓨팅 디바이스(650)의 터치스크린과 상호작용할 수 있다. 예를 들어, AR 헤드셋(690)에서 상호작용은 AR 공간에서 렌더링된 터치패드 상의 움직임으로 렌더링된다. 렌더링된 움직임은 AR 공간의 가상 객체를 컨트롤할 수 있다.
일부 구현예에서, 컴퓨팅 디바이스(650)에 포함된 하나 이상의 출력 디바이스는 AR 공간에 있는 AR 헤드셋(690)의 사용자에게 출력 및/또는 피드백을 제공할 수 있다. 출력 및 피드백은 시각적, 전술적 또는 오디오일 수 있다. 출력 및/또는 피드백에는 진동, 하나 이상의 조명이나 스트로보의 켜짐 및 꺼짐 또는 깜박임 및/또는 점멸, 알람 소리, 차임벨 재생, 노래 재생, 오디오 파일 재생 등이 포함될 수 있지만 이에 국한되지는 않는다. 출력 디바이스에는 진동 모터, 진동 코일, 압전 디바이스, 정전기 디바이스, 발광 다이오드(LED), 스트로브 및 스피커가 포함될 수 있지만 이에 국한되지는 않는다.
일부 구현예에서, 컴퓨팅 디바이스(650)는 컴퓨터 생성 3D 환경에서 또 다른 객체로 나타날 수 있다. 사용자와 컴퓨팅 디바이스(650)의 상호작용(예를 들어, 회전, 흔들기, 터치스크린 터치, 터치스크린에서 손가락 스와이프)은 AR 공간의 객체와의 상호작용으로 해석될 수 있다. AR 공간의 레이저 포인터의 예에서, 컴퓨팅 디바이스(650)는 컴퓨터로 생성된 3D 환경에서 가상 레이저 포인터로 나타난다. 사용자가 컴퓨팅 디바이스(650)를 조작함에 따라 AR 공간에 있는 사용자는 레이저 포인터의 움직임을 보게 된다. 사용자는 컴퓨팅 디바이스(650) 또는 AR 헤드셋(690) 상의 AR 환경에서 컴퓨팅 디바이스(650)와의 상호작용으로부터 피드백을 수신한다. 컴퓨팅 디바이스와 사용자의 상호작용은 컨트롤가능한 디바이스에 대한 AR 환경에서 생성된 사용자 인터페이스와의 상호작용으로 변환될 수 있다.
일부 구현예에서, 컴퓨팅 디바이스(650)는 터치스크린을 포함할 수 있다. 예를 들어, 사용자는 컨트롤가능한 디바이스의 사용자 인터페이스와 상호작용하기 위해 터치스크린과 상호작용할 수 있다. 예를 들어, 터치스크린은 컨트롤가능한 디바이스의 속성을 컨트롤할 수 있는 슬라이더와 같은 사용자 인터페이스 요소를 포함할 수 있다.
컴퓨팅 디바이스(600)는 랩탑, 데스크탑, 워크스테이션, PDA, 서버, 블레이드 서버, 메인프레임 및 기타 적절한 컴퓨터를 포함하지만 이에 제한되지 않는 다양한 형태의 디지털 컴퓨터 및 디바이스를 나타내도록 의도되었다. 컴퓨팅 디바이스(650)는 PDA, 휴대폰, 스마트폰 및 기타 유사한 컴퓨팅 디바이스와 같은 다양한 형태의 모바일 디바이스를 나타내도록 의도되었다. 여기에 표시된 구성요소, 해당 연결 및 관계, 기능은 단지 예시일 뿐이며 이 문서에 설명 및/또는 청구된 주제의 구현을 제한하려는 의미는 아니다.
다수의 실시예가 설명되었다. 그럼에도 불구하고, 본 명세서의 정신과 범위를 벗어나지 않고 다양한 수정이 이루어질 수 있음이 이해될 것이다.
또한, 도면에 도시된 논리 흐름은 원하는 결과를 달성하기 위해 표시된 특정 순서 또는 순차적 순서를 필요로 하지 않는다. 또한, 설명된 흐름으로부터 다른 단계가 제공되거나 단계가 제거될 수 있으며, 설명된 시스템에 다른 구성요소가 추가되거나 제거될 수 있다. 따라서, 다른 실시예는 다음 청구범위의 범위 내에 있다.
위의 설명에 더해, 사용자에게는 여기에 설명된 시스템, 프로그램 또는 기능이 사용자 정보 수집(예: 사용자의 소셜 네트워크, 소셜 액션, 활동, 직업, 사용자 선호도 또는 사용자의 현재 위치에 대한 정보)을 활성화할 수 있는지 여부와 사용자가 서버에서 컨텐츠 또는 통신을 전송할 수 있는지 여부에 대해 사용자가 선택할 수 있도록 하는 컨트롤 기능이 제공될 수 있다. 또한 특정 데이터는 저장 또는 사용되기 전에 하나 이상의 방법으로 처리되어 개인 식별 정보가 제거될 수 있다. 예를 들어, 사용자의 개인 식별 정보를 확인할 수 없도록 사용자의 신원을 처리할 수 있거나, 위치 정보가 획득되는 곳에서 사용자의 지리적 위치를 일반화하여 (예를 들어, 도시, 우편번호 또는 주 수준과 같이) 사용자의 특정 위치를 확인할 수 없게 할 수 있다. 따라서 사용자는 자신에 대해 어떤 정보가 수집되고, 해당 정보가 어떻게 사용되며, 어떤 정보가 사용자에게 제공되는지 컨트롤할 수 있다.
기술된 구현예의 특정 특징이 본 명세서에 기술된 바와 같이 설명되었지만, 이제 당업자에게는 많은 수정, 대체, 변경 및 등가물이 발생할 수 있다. 따라서, 첨부된 청구범위는 구현의 범위 내에 속하는 모든 수정 및 변경을 포괄하도록 의도된 것임을 이해해야 한다. 이는 예시로서 제시된 것이며, 이에 국한되지 않으며, 형태나 세부 사항이 다양하게 변경될 수 있다는 점을 이해해야 한다. 본 명세서에 설명된 디바이스 및/또는 방법의 임의의 부분은 상호 배타적인 조합을 제외하고 임의의 조합으로 조합될 수 있다. 여기에 설명된 구현예는 설명된 다양한 구현의 기능, 구성 요소 및/또는 특징의 다양한 조합 및/또는 하위 조합을 포함할 수 있다.

Claims (20)

  1. 방법으로서,
    가상 스크린에 제시된 컨텐츠에 대한 사용자의 어텐션(attention)을 추적하는 단계와;
    컨텐츠의 제1 영역과 연관된 디포커스(defocus) 이벤트를 검출하는 단계와;
    컨텐츠의 제2 영역과 연관된 다음 포커스(next focus) 이벤트를 결정하는 단계 - 상기 결정은 디포커스 이벤트 및 추적된 사용자의 어텐션에 적어도 부분적으로 기초함 - 와;
    결정된 다음 포커스 이벤트에 기초하여, 컨텐츠의 제2 영역을 컨텐츠의 나머지 영역과 구별하기 위한 마커를 생성하는 단계와; 그리고
    가상 스크린과 연관된 리포커스(refocus) 이벤트를 검출하는 것에 응답하여, 컨텐츠의 제2 영역과 연관된 마커의 실행을 트리거하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    마커는 적어도 하나의 컨트롤과 제2 영역의 일부에 오버레이된 하이라이트된 인디케이터를 포함하며; 그리고
    마커는 리포커스 이벤트 이후 미리 정의된 기간에 따라 디스플레이에서 점차적으로 제거되는, 방법.
  3. 제1항 또는 제2항에 있어서,
    사용자의 어텐션은 컨텐츠와의 검출된 사용자 상호작용에 기초하여 추가로 추적되며; 그리고
    다음 포커스 이벤트는 검출된 사용자 상호작용 및 컨텐츠와 연관된 액션들의 시퀀스에서 미리 정의된 다음 액션에 따라 추가로 결정되는, 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    컨텐츠는 모션의 시퀀스를 묘사하고;
    제1 영역은 모션의 제1 시퀀스를 나타내고;
    제2 영역은 모션의 제1 시퀀스 이후에 발생하도록 구성된 모션의 제2 시퀀스를 나타내고; 그리고
    상기 컨텐츠의 제2 영역과 연관된 마커의 실행을 트리거하는 단계는 모션의 제2 시퀀스에 묘사된 마커를 사용하여 실행하기 위해 제2 시퀀스를 트리거하는 단계를 포함하는, 방법.
  5. 선행하는 어느 한 항에 있어서,
    디포커스 이벤트와 연관된 마커는 가상 스크린에 묘사된 컨텐츠에 대한 실질적인 변화(substantive change)들이 발생하지 않았다는 결정에 응답하여 억제되는(suppressed), 방법.
  6. 선행하는 어느 한 항에 있어서,
    마커는 디포커스 이벤트와 연관된 시간 및 리포커스 이벤트와 연관된 시간으로부터 검출된 컨텐츠 내 변화들의 리플레이(replay)를 나타내고, 상기 변화들의 리플레이는 상기 변화들에 대응하는 촉각적 단서(cue)들을 포함하는, 방법.
  7. 선행하는 어느 한 항에 있어서,
    컨텐츠는 가상 스크린의 사용자 인터페이스에 제시되고, 상기 방법은:
    제1 기간에 걸쳐 추적된 사용자의 어텐션에 기초하여 사용자의 어텐션 모델을 생성하는 단계와;
    사용자 인터페이스에 대한 모델을 획득하는 단계 - 상기 모델은 사용자 인터페이스와 연관된 복수의 상태들 및 상호작용들을 정의함 - 와; 그리고
    제2 기간 동안, 추적된 사용자의 어텐션, 어텐션 모델, 및 상기 복수의 상태들로부터 결정된 사용자 인터페이스의 상태에 기초하여, 제2 영역의 적어도 일부에 오버레이된 적어도 하나의 추가 마커의 렌더링을 트리거하는 단계를 더 포함하는, 방법.
  8. 선행하는 어느 한 항에 있어서,
    가상 스크린은 증강 현실 뷰(augmented reality view)와 물리적 세계 뷰(physical world view)를 포함하는 시야를 제공하도록 구성된 증강 현실 디바이스와 연관되고;
    상기 사용자의 어텐션을 추적하는 단계는 사용자의 어텐션이 증강 현실 뷰와 연관되어 있는지 아니면 물리적 세계 뷰와 연관되어 있는지를 결정하는 단계를 포함하며; 그리고
    상기 제2 영역과 연관된 마커의 실행을 트리거하는 단계는,
    사용자의 어텐션이 증강 현실 뷰와 연관되어 있는 경우, 디포커스 이벤트와 연관된 시간부터 컨텐츠를 다시 시작하는 단계를 포함하고, 또는
    사용자의 어텐션이 물리적 세계 뷰와 연관되어 있는 경우, 리포커스 이벤트가 검출될 때까지 컨텐츠를 일시정지(pausing)하고 페이딩(fading)하는 단계를 포함하는, 방법.
  9. 웨어러블 컴퓨팅 디바이스로서,
    적어도 하나의 프로세싱 디바이스;
    적어도 하나의 센서;
    실행될 때 웨어러블 컴퓨팅 디바이스로 하여금 동작들을 수행하게 하는 명령어들을 저장하는 메모리를 포함하고, 상기 동작들은:
    적어도 하나의 센서에 의해, 가상 스크린에 대한 사용자의 포커스(focus)를 추적하는 동작과;
    적어도 하나의 센서에 의해, 가상 스크린의 제1 영역과 연관된 디포커스(defocus) 이벤트를 검출하는 동작과;
    적어도 하나의 센서에 의해, 가상 스크린의 제2 영역과 연관된 다음 포커스(next focus) 이벤트를 결정하는 동작 - 상기 결정은 디포커스 이벤트 및 검출된 사용자의 시선 궤적(gaze trajectory)에 대응하는 추적된 사용자의 포커스에 적어도 부분적으로 기초함 - 과;
    결정된 다음 포커스 이벤트에 기초하여, 가상 스크린의 제2 영역을 가상 스크린의 나머지 영역과 구별하기 위한 포커스 전환 마커(focus transition marker)의 생성을 트리거하는 동작과; 그리고
    적어도 하나의 센서에 의해, 가상 스크린과 연관된 리포커스(refocus) 이벤트를 검출하는 것에 응답하여, 컨텐츠의 제2 영역과 연관된 포커스 전환 마커의 실행을 트리거하는 동작을 포함하는, 웨어러블 컴퓨팅 디바이스.
  10. 제9항에 있어서,
    포커스 전환 마커는 적어도 하나의 컨트롤과 제2 영역의 일부에 오버레이된 하이라이트된 인디케이터를 포함하며; 그리고
    포커스 전환 마커는 리포커스 이벤트 이후 기간에 따라 디스플레이에서 점차적으로 제거되는, 웨어러블 컴퓨팅 디바이스.
  11. 제9항 또는 제10항에 있어서,
    사용자의 포커스는 가상 스크린과의 검출된 사용자 상호작용에 기초하여 추가로 결정되며; 그리고
    다음 포커스 이벤트는 검출된 사용자 상호작용 및 가상 스크린과 연관된 액션들의 시퀀스에서 미리 정의된 다음 액션에 따라 추가로 결정되는, 웨어러블 컴퓨팅 디바이스.
  12. 제9항 내지 제11항 중 어느 한 항에 있어서,
    가상 스크린에 대한 사용자의 포커스는 가상 스크린에 묘사된 컨텐츠에 대한 사용자의 포커스에 대응하고;
    컨텐츠는 모션의 시퀀스를 묘사하고;
    제1 영역은 모션의 제1 시퀀스를 나타내고;
    제2 영역은 모션의 제1 시퀀스 이후에 발생하도록 구성된 모션의 제2 시퀀스를 나타내고; 그리고
    제2 영역과 연관된 포커스 전환 마커의 실행을 트리거하는 동작은 모션의 제2 시퀀스에 묘사된 포커스 전환 마커를 사용하여 실행하기 위해 제2 시퀀스를 트리거하는 동작을 포함하는, 웨어러블 컴퓨팅 디바이스.
  13. 제12항에 있어서,
    포커스 전환 마커는 디포커스 이벤트와 연관된 시간 및 리포커스 이벤트와 연관된 시간으로부터 검출된 컨텐츠 내 변화(change)들의 비디오 또는 오디오 리플레이(replay)를 나타내고, 상기 검출된 변화들의 리플레이는 상기 검출된 변화들에 대응하는 시각적 또는 청각적 단서(cue)들을 포함하는, 웨어러블 컴퓨팅 디바이스.
  14. 제12항에 있어서,
    포커스 전환 마커는 디포커스 이벤트와 연관된 시간 및 리포커스 이벤트와 연관된 시간으로부터 검출된 컨텐츠 내 변화들의 리플레이를 나타내고, 상기 검출된 변화들의 리플레이는 상기 검출된 변화들에 대응하는 촉각적 단서들을 포함하는, 웨어러블 컴퓨팅 디바이스.
  15. 제12항 내지 제14항 중 어느 한 항에 있어서,
    컨텐츠는 가상 스크린의 사용자 인터페이스에 제시되고, 상기 동작들은:
    제1 기간에 걸쳐 추적된 사용자의 포커스에 기초하여 사용자의 어텐션 모델을 생성하는 동작과;
    사용자 인터페이스에 대한 모델을 획득하는 동작 - 상기 모델은 사용자 인터페이스와 연관된 복수의 상태들 및 상호작용들을 정의함 - 과; 그리고
    제2 기간 동안, 추적된 사용자의 포커스, 어텐션 모델, 및 상기 복수의 상태들로부터 결정된 사용자 인터페이스의 상태에 기초하여, 제2 영역의 적어도 일부에 오버레이된 적어도 하나의 포커스 전환 마커의 렌더링을 트리거하는 동작을 더 포함하는, 웨어러블 컴퓨팅 디바이스.
  16. 제9항 내지 제15항 중 어느 한 항에 있어서,
    가상 스크린은 증강 현실 뷰(augmented reality view)와 물리적 세계 뷰(physical world view)를 포함하는 시야를 제공하도록 구성된 증강 현실 디바이스와 연관되고;
    상기 사용자의 포커스를 추적하는 동작은 사용자의 포커스가 증강 현실 뷰와 연관되어 있는지 아니면 물리적 세계 뷰와 연관되어 있는지를 결정하는 동작을 포함하는, 웨어러블 컴퓨팅 디바이스.
  17. 명령어들이 저장되어 있는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 프로세싱 회로에 의해 실행될 때, 웨어러블 컴퓨팅 디바이스로 하여금:
    가상 스크린에 제시된 컨텐츠에 대한 사용자의 포커스(focus)를 추적하게 하고;
    컨텐츠의 제1 영역과 연관된 디포커스(defocus) 이벤트를 검출하게 하고;
    컨텐츠의 제2 영역과 연관된 다음 포커스(next focus) 이벤트를 결정하게 하고 - 상기 결정은 디포커스 이벤트 및 검출된 사용자의 시선 궤적(gaze trajectory)에 대응하는 추적된 사용자의 포커스에 적어도 부분적으로 기초함 -;
    결정된 다음 포커스 이벤트에 기초하여, 컨텐츠의 제2 영역을 컨텐츠의 나머지 영역과 구별하기 위한 포커스 전환 마커(focus transition marker)를 생성하게 하며; 그리고
    가상 스크린과 연관된 리포커스(refocus) 이벤트를 검출하는 것에 응답하여, 컨텐츠의 제2 영역과 연관된 포커스 전환 마커의 실행을 트리거하게 하는, 컴퓨터 판독가능 매체.
  18. 제17항에 있어서,
    포커스 전환 마커는 적어도 하나의 컨트롤과 제2 영역의 일부에 오버레이된 하이라이트된 인디케이터를 포함하며; 그리고
    포커스 전환 마커는 리포커스 이벤트 이후 기간에 따라 디스플레이에서 점차적으로 제거되는, 컴퓨터 판독가능 매체.
  19. 제17항 또는 제18항에 있어서,
    사용자의 포커스는 컨텐츠와의 검출된 사용자 상호작용에 기초하여 추가로 결정되며; 그리고
    다음 포커스 이벤트는 검출된 사용자 상호작용 및 컨텐츠와 연관된 액션들의 시퀀스에서 미리 정의된 다음 액션에 따라 추가로 결정되는, 컴퓨터 판독가능 매체.
  20. 제17항 내지 제19항 중 어느 한 항에 있어서,
    포커스 전환 마커는 디포커스 이벤트와 연관된 시간 및 리포커스 이벤트와 연관된 시간으로부터 검출된 컨텐츠 내 변화(change)들의 비디오 또는 오디오 리플레이(replay)를 나타내고, 상기 검출된 변화들의 리플레이는 상기 검출된 변화들에 대응하는 시각적 또는 청각적 단서(cue)들을 포함하는, 컴퓨터 판독가능 매체.
KR1020247012936A 2021-09-21 2022-09-21 포커스 전환을 강화하기 위한 어텐션 추적 KR20240063979A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163261449P 2021-09-21 2021-09-21
US63/261,449 2021-09-21
US17/933,631 US20230086766A1 (en) 2021-09-21 2022-09-20 Attention tracking to augment focus transitions
US17/933,631 2022-09-20
PCT/US2022/076779 WO2023049746A1 (en) 2021-09-21 2022-09-21 Attention tracking to augment focus transitions

Publications (1)

Publication Number Publication Date
KR20240063979A true KR20240063979A (ko) 2024-05-10

Family

ID=85573236

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020247012936A KR20240063979A (ko) 2021-09-21 2022-09-21 포커스 전환을 강화하기 위한 어텐션 추적

Country Status (3)

Country Link
US (1) US20230086766A1 (ko)
KR (1) KR20240063979A (ko)
CN (1) CN118103801A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11995230B2 (en) * 2021-02-11 2024-05-28 Apple Inc. Methods for presenting and sharing content in an environment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9911238B2 (en) * 2015-05-27 2018-03-06 Google Llc Virtual reality expeditions
US20210335147A1 (en) * 2020-04-27 2021-10-28 Rally Reader, LLC System and User Interfaces for Monitoring Reading Performance and Providing Reading Assistance

Also Published As

Publication number Publication date
CN118103801A (zh) 2024-05-28
US20230086766A1 (en) 2023-03-23

Similar Documents

Publication Publication Date Title
US11093045B2 (en) Systems and methods to augment user interaction with the environment outside of a vehicle
US9552676B2 (en) Wearable computer with nearby object response
US10254923B2 (en) Grouping of cards by time periods and content types
US9035878B1 (en) Input system
US20170329419A1 (en) Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment
US9448687B1 (en) Zoomable/translatable browser interface for a head mounted device
EP3451135A1 (en) Information processing device, information processing method, and program
US20130139082A1 (en) Graphical Interface Having Adjustable Borders
US20150193098A1 (en) Yes or No User-Interface
WO2017197394A1 (en) Editing animations using a virtual reality controller
JP6841232B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230086766A1 (en) Attention tracking to augment focus transitions
US20160299641A1 (en) User Interface for Social Interactions on a Head-Mountable Display
US20230315247A1 (en) Devices, Methods, and Graphical User Interfaces for Accessing System Functions of Computer Systems While Displaying Three-Dimensional Environments
WO2023049746A1 (en) Attention tracking to augment focus transitions
US11354011B2 (en) Snapping range for augmented reality
US20240019928A1 (en) Gaze and Head Pose Interaction
US20230359271A1 (en) Algorithmically adjusting the hit box of icons based on prior gaze and click information
US20240134492A1 (en) Digital assistant interactions in extended reality
WO2024064016A1 (en) Devices, methods, and user interfaces for gesture-based interactions