KR20240047458A - 미디어 및 3차원 환경들과의 상호작용을 위한 디바이스들, 방법들 및 그래픽 사용자 인터페이스들 - Google Patents

미디어 및 3차원 환경들과의 상호작용을 위한 디바이스들, 방법들 및 그래픽 사용자 인터페이스들 Download PDF

Info

Publication number
KR20240047458A
KR20240047458A KR1020247009664A KR20247009664A KR20240047458A KR 20240047458 A KR20240047458 A KR 20240047458A KR 1020247009664 A KR1020247009664 A KR 1020247009664A KR 20247009664 A KR20247009664 A KR 20247009664A KR 20240047458 A KR20240047458 A KR 20240047458A
Authority
KR
South Korea
Prior art keywords
media item
user
displaying
user interface
media
Prior art date
Application number
KR1020247009664A
Other languages
English (en)
Inventor
이스라엘 파스트라나 비센테
그레고리 엠. 아포다카
벤자민 에이치. 보에젤
시-상 치우
그레이엄 알. 클라크
웨슬리 엠. 홀더
치아 양 린
조니 비. 만자리
얼 엠. 올슨
제임스 제이. 오웬
조너선 라바즈
미켈 에스타니 로드리게즈
베단트 사란
브라이스 엘. 슈미첸
윌리엄 에이. 소렌티노 3세
마이클 아이. 와인스타인
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애플 인크. filed Critical 애플 인크.
Publication of KR20240047458A publication Critical patent/KR20240047458A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시내용은 대체적으로 미디어 아이템들을 관찰하고 그와 상호작용하기 위한 사용자 인터페이스들을 포함하는, 전자 디바이스들을 위한 사용자 인터페이스들에 관한 것이다. 본 개시내용은 또한 일부 실시예들에 따른, 확장 현실(XR) 경험을 사용자에게 제공하기 위한 사용자 인터페이스들에 관한 것이다. 본 명세서에 설명된 시스템들, 방법들, 및 그래픽 사용자 인터페이스(GUI)들은 다수의 방식들에 의한 가상/증강 현실 환경들과의 사용자 인터페이스 상호작용들에 관한 것이다. 일부 실시예들에서, 디스플레이된 콘텐츠의 하나 이상의 시각적 특성들은 사용자의 시선이 지향되는 곳에 기초하여 수정된다.

Description

미디어 및 3차원 환경들과의 상호작용을 위한 디바이스들, 방법들 및 그래픽 사용자 인터페이스들
관련 출원의 상호 참조
본 출원은 2022년 9월 23일자로 출원되고 발명의 명칭이 "DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR INTERACTING WITH MEDIA AND THREE-DIMENSIONAL ENVIRONMENTS"인 미국 특허 출원 제17/952,206호, 2022년 9월 23일자로 출원되고 발명의 명칭이 "DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR INTERACTING WITH MEDIA AND THREE-DIMENSIONAL ENVIRONMENTS"인 미국 가특허 출원 제63/409,695호, 및 2021년 9월 24일자로 출원되고 발명의 명칭이 "DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR INTERACTING WITH MEDIA AND THREE-DIMENSIONAL ENVIRONMENTS"인 미국 가특허 출원 제63/248,222호에 대한 우선권을 주장한다. 이들 출원들 각각의 내용은 이로써 그들 전체가 참고로 포함된다.
기술분야
본 개시내용은 대체적으로, 가상 현실 및 혼합 현실 경험들을 제공하는 전자 디바이스들을 포함하지만 이에 제한되지 않는, 컴퓨터 생성 경험들을 제공하는 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템들에 관한 것이다.
증강 현실을 위한 컴퓨터 시스템들의 개발은 최근에 상당히 증가하였다. 예시적인 증강 현실 환경들은 물리적 세계를 대체하거나 증강시키는 적어도 일부 가상 요소들을 포함한다. 컴퓨터 시스템들 및 다른 전자 컴퓨팅 디바이스들에 대한 입력 디바이스들, 예를 들어 카메라들, 제어기들, 조이스틱들, 터치 감응형 표면들, 및 터치 스크린 디스플레이들이 가상/증강 현실 환경들과 상호작용하기 위해 사용된다. 예시적인 가상 요소들은 디지털 이미지들, 비디오, 텍스트, 아이콘들, 및 버튼들 및 다른 그래픽들과 같은 제어 요소들과 같은 가상 객체들을 포함한다.
적어도 일부 가상 요소들(예를 들어, 애플리케이션들, 증강 현실 환경들, 혼합 현실 환경들, 및 가상 현실 환경들)을 포함하는 환경들 및 미디어 아이템들과 상호작용하기 위한 방법들 및 인터페이스들은 번거롭고, 비효율적이고, 제한된다. 예를 들어, 가상 객체들과 연관된 액션들을 수행하기 위한 불충분한 피드백을 제공하는 시스템들, 증강 현실 환경에서 원하는 결과를 달성하기 위해 일련의 입력들을 요구하는 시스템들, 및 가상 객체들의 조작이 복잡하고, 지루하며, 에러가 발생하기 쉬운 시스템들은 사용자에게 상당한 인지 부담을 생성하고, 가상/증강 현실 환경과의 경험을 손상시킨다. 게다가, 이러한 방법들은 필요 이상으로 오래 걸려서, 컴퓨터 시스템의 에너지가 낭비된다. 이러한 후자의 고려사항은 배터리-작동형 디바이스들에서 특히 중요하다.
따라서, 컴퓨터 시스템들과의 상호작용을 사용자에게 더 효율적이고 직관적으로 만드는 컴퓨터 생성 경험들을 사용자들에게 제공하기 위한 개선된 방법들 및 인터페이스들을 갖는 컴퓨터 시스템들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 선택적으로, 미디어 아이템들과 상호작용하고 확장 현실 경험들을 사용자들에게 제공하기 위한 종래의 방법들을 보완하거나 대체한다. 그러한 방법들 및 인터페이스들은, 사용자가 제공된 입력들과 입력들에 대한 디바이스 응답들 사이의 접속을 이해하는 것을 도움으로써 사용자로부터의 입력들의 수, 크기, 및/또는 종류를 줄여서, 이에 의해 더 효율적인 인간-기계 인터페이스를 생성한다.
컴퓨터 시스템들에 대한 사용자 인터페이스들과 연관된 위의 결함들 및 다른 문제들은 개시된 시스템들에 의해 감소되거나 또는 제거된다. 일부 실시예들에서, 컴퓨터 시스템은 연관된 디스플레이를 갖는 데스크톱 컴퓨터이다. 일부 실시예들에서, 컴퓨터 시스템은 휴대용 디바이스(예를 들어, 노트북 컴퓨터, 태블릿 컴퓨터, 또는 핸드헬드 디바이스)이다. 일부 실시예들에서, 컴퓨터 시스템은 개인용 전자 디바이스(예를 들어, 시계 또는 머리 장착형 디바이스와 같은 웨어러블 전자 디바이스)이다. 일부 실시예들에서, 컴퓨터 시스템은 터치패드를 갖는다. 일부 실시예들에서, 컴퓨터 시스템은 하나 이상의 카메라들을 갖는다. 일부 실시예들에서, 컴퓨터 시스템은 터치 감응형 디스플레이("터치 스크린" 또는 "터치 스크린 디스플레이"로도 알려짐)를 갖는다. 일부 실시예들에서, 컴퓨터 시스템은 하나 이상의 눈 추적 컴포넌트들을 갖는다. 일부 실시예들에서, 컴퓨터 시스템은 하나 이상의 손 추적 컴포넌트들을 갖는다. 일부 실시예들에서, 컴퓨터 시스템은 디스플레이 생성 컴포넌트에 추가하여 하나 이상의 출력 디바이스들을 갖고, 출력 디바이스들은 하나 이상의 촉각적 출력 생성기들 및/또는 하나 이상의 오디오 출력 디바이스들을 포함한다. 일부 실시예들에서, 컴퓨터 시스템은 그래픽 사용자 인터페이스(GUI), 하나 이상의 프로세서들, 메모리, 및 다수의 기능들을 수행하기 위해 메모리에 저장되는 하나 이상의 모듈들, 프로그램들 또는 명령어들의 세트들을 갖는다. 일부 실시예들에서, 사용자는 터치 감응형 표면 상의 스타일러스 및/또는 손가락 접촉들 및 제스처들, 카메라들 및 다른 이동 센서들에 의해 캡처된 GUI(및/또는 컴퓨터 시스템) 또는 사용자의 신체에 대한 공간에서의 사용자의 눈들 및 손의 이동, 및/또는 하나 이상의 오디오 입력 디바이스들에 의해 캡처된 음성 입력들을 통해 GUI와 상호작용한다. 일부 실시예들에서, 상호작용들을 통해 수행되는 기능들은, 선택적으로, 이미지 편집, 드로잉, 프레젠팅(presenting), 워드 프로세싱, 스프레드시트 작성, 게임 하기, 전화 걸기, 화상 회의, 이메일 보내기, 인스턴트 메시징(instant messaging), 운동 지원, 디지털 사진촬영, 디지털 비디오 녹화, 웹 브라우징, 디지털 음악 재생, 메모하기(note taking), 및/또는 디지털 비디오 재생을 포함한다. 이러한 기능들을 수행하기 위한 실행가능 명령어들은, 선택적으로, 하나 이상의 프로세서들에 의한 실행을 위해 구성된 일시적 및/또는 비일시적 컴퓨터 판독가능 저장 매체 또는 다른 컴퓨터 프로그램 제품에 포함된다.
3차원 환경 내의 미디어 아이템들과 상호작용하기 위한 개선된 방법들 및 인터페이스들을 갖는 전자 디바이스들이 필요하다. 이러한 방법들 및 인터페이스들은 3차원 환경 내의 미디어 아이템들과 상호작용하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 이러한 방법들 및 인터페이스들은 사용자로부터의 입력들의 수, 정도, 및/또는 종류를 줄이고 더 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 컴퓨팅 디바이스들의 경우, 그러한 방법들 및 인터페이스들은 전력을 절약하고 배터리 충전들 사이의 시간을 증가시킨다. 그러한 방법들 및 인터페이스들은 또한, 디바이스들의 작동성을 향상시키고, 예를 들어, 불필요한 그리고/또는 무관한 수신된 입력들의 수를 감소시키고 사용자들에게 개선된 시각적 피드백을 제공함으로써 사용자-디바이스 인터페이스들을 더 효율적으로 만든다.
일부 실시예들에 따르면, 방법이 설명된다. 상기 방법은, 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템에서, 상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 단계; 및 상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안: 제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고; 상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 단계를 포함한다.
일부 실시예들에 따르면, 비일시적 컴퓨터 판독가능 저장 매체가 설명된다. 일부 실시예들에서, 상기 비일시적 컴퓨터 판독가능 저장 매체는 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하고, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하기 위한; 그리고 상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안: 제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고; 상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하기 위한 명령어들을 포함한다.
일부 실시예들에 따르면, 일시적 컴퓨터 판독가능 저장 매체가 설명된다. 일부 실시예들에서, 상기 일시적 컴퓨터 판독가능 저장 매체는 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하고, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하기 위한; 그리고 상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안: 제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고; 상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하기 위한 명령어들을 포함한다.
일부 실시예들에 따르면, 컴퓨터 시스템이 설명된다. 일부 실시예들에서, 상기 컴퓨터 시스템은 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하고, 하나 이상의 프로세서들; 및 상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하기 위한; 그리고 상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안: 제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고; 상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하기 위한 명령어들을 포함한다.
일부 실시예들에서, 컴퓨터 시스템이 설명된다. 일부 실시예들에서, 컴퓨터 시스템은 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하고, 상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하기 위한 수단; 및 상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안: 제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고; 상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하기 위한 수단을 포함한다.
일부 실시예들에서, 컴퓨터 프로그램 제품이 설명된다. 일부 실시예들에서, 컴퓨터 프로그램 제품은 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하고, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하기 위한; 그리고 상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안: 제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고; 상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고; 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하기 위한 명령어들을 포함한다.
일부 실시예들에 따르면, 방법이 설명된다. 상기 방법은, 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템에서, 상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하는 단계; 상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인(zoom-in) 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하는 단계; 및 상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍(zooming)하는 것을 포함함 -; 상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 단계를 포함한다.
일부 실시예들에 따르면, 비일시적 컴퓨터 판독가능 저장 매체가 설명된다. 일부 실시예들에서, 상기 비일시적 컴퓨터 판독가능 저장 매체는 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하고, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하기 위한; 상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고 상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함함 -; 상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하기 위한 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 명령어들을 포함한다.
일부 실시예들에 따르면, 일시적 컴퓨터 판독가능 저장 매체가 설명된다. 일부 실시예들에서, 상기 일시적 컴퓨터 판독가능 저장 매체는 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하고, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하기 위한; 상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고 상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함함 -; 상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하기 위한 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 명령어들을 포함한다.
일부 실시예들에 따르면, 컴퓨터 시스템이 설명된다. 일부 실시예들에서, 상기 컴퓨터 시스템은 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하고, 상기 컴퓨터 시스템은, 하나 이상의 프로세서들; 및 상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하기 위한; 상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고 상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함함 -; 상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하기 위한 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 명령어들을 포함한다.
일부 실시예들에서, 컴퓨터 시스템이 설명된다. 일부 실시예들에서, 상기 컴퓨터 시스템은 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하고, 상기 컴퓨터 시스템은, 상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하기 위한 수단; 상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한 수단; 및 상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함함 -; 상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하기 위한 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 수단을 포함한다.
일부 실시예들에서, 컴퓨터 프로그램 제품이 설명된다. 일부 실시예들에서, 컴퓨터 프로그램 제품은 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하고, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하기 위한; 상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고 상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함함 -; 상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하기 위한 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 명령어들을 포함한다.
일부 실시예들에 따르면, 방법이 설명된다. 상기 방법은, 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템에서, 상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 단계; 및 상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고; 상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하는 단계를 포함한다.
일부 실시예들에 따르면, 비일시적 컴퓨터 판독가능 저장 매체가 설명된다. 일부 실시예들에서, 상기 비일시적 컴퓨터 판독가능 저장 매체는 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하고, 상기 하나 이상의 프로그램들은, 상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고 상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고; 상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하기 위한 명령어들을 포함한다.
일부 실시예들에 따르면, 일시적 컴퓨터 판독가능 저장 매체가 설명된다. 일부 실시예들에서, 상기 일시적 컴퓨터 판독가능 저장 매체는 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하고, 상기 하나 이상의 프로그램들은, 상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고 상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고; 상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하기 위한 명령어들을 포함한다.
일부 실시예들에 따르면, 컴퓨터 시스템이 설명된다. 일부 실시예들에서, 상기 컴퓨터 시스템은 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하고, 상기 컴퓨터 시스템은, 하나 이상의 프로세서들; 및 상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은, 상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고 상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고; 상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하기 위한 명령어들을 포함한다.
일부 실시예들에서, 컴퓨터 시스템이 설명된다. 일부 실시예들에서, 상기 컴퓨터 시스템은 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하고, 상기 컴퓨터 시스템은, 상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한 수단; 및 상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고; 상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하기 위한 수단을 포함한다.
일부 실시예들에서, 컴퓨터 프로그램 제품이 설명된다. 일부 실시예들에서, 컴퓨터 프로그램 제품은 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하고, 상기 하나 이상의 프로그램들은, 상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고 상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고; 상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하기 위한 명령어들을 포함한다.
일부 실시예들에서, 디스플레이 생성 컴포넌트와 통신하는 컴퓨터 시스템에서 수행되는 방법이 설명된다. 상기 방법은, 상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하는 단계를 포함하고, 상기 사용자 인터페이스는, 적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및 적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함한다.
일부 실시예들에서, 비일시적 컴퓨터 판독가능 저장 매체가 설명된다. 상기 비일시적 컴퓨터 판독가능 저장 매체는 디스플레이 생성 컴포넌트와 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하고, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하기 위한 명령어들을 포함하고, 상기 사용자 인터페이스는, 적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및 적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함한다.
일부 실시예들에서, 일시적 컴퓨터 판독가능 저장 매체가 설명된다. 상기 일시적 컴퓨터 판독가능 저장 매체는 디스플레이 생성 컴포넌트와 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하고, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하기 위한 명령어들을 포함하고, 상기 사용자 인터페이스는, 적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및 적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함한다.
일부 실시예들에서, 컴퓨터 시스템이 설명된다. 상기 컴퓨터 시스템은 디스플레이 생성 컴포넌트와 통신하고, 하나 이상의 프로세서들; 및 상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하기 위한 명령어들을 포함하고, 상기 사용자 인터페이스는, 적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및 적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함한다.
일부 실시예들에서, 컴퓨터 시스템이 설명된다. 상기 컴퓨터 시스템은 디스플레이 생성 컴포넌트와 통신하고, 상기 컴퓨터 시스템은, 상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하기 위한 수단을 포함하고, 상기 사용자 인터페이스는, 적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및 적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함한다.
일부 실시예들에서, 컴퓨터 프로그램 제품이 설명된다. 상기 컴퓨터 프로그램 제품은 디스플레이 생성 컴포넌트와 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하고, 상기 하나 이상의 프로그램들은, 상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하기 위한 명령어들을 포함하고, 상기 사용자 인터페이스는, 적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및 적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함한다.
전술된 다양한 실시예들이 본 명세서에 기술된 임의의 다른 실시예들과 조합될 수 있음에 주목한다. 본 명세서에 기술된 특징들 및 이점들은 모두를 포함하는 것은 아니며, 특히, 많은 추가적인 특징들 및 이점들이 도면, 명세서 및 청구범위를 고려하여 당업자에게 명백할 것이다. 그에 부가하여, 본 명세서에 사용된 표현은 주로 이해의 편의 및 설명을 위해 선택되었고, 본 발명의 요지를 상세히 기술하거나 제한하기 위해 선택되지 않았을 수 있다는 것에 주목해야 한다.
다양하게 기술된 실시예들의 더 양호한 이해를 위해, 유사한 도면 부호들이 도면 전체에 걸쳐서 대응 부분들을 나타내는 하기의 도면들과 관련하여 하기의 발명을 실시하기 위한 구체적인 내용이 참조되어야 한다.
도 1은 일부 실시예들에 따른 확장 현실 경험들을 제공하기 위한 컴퓨터 시스템의 동작 환경을 예시하는 블록도이다.
도 2는 일부 실시예들에 따른 사용자에 대한 확장 현실 경험을 관리 및 조정하도록 구성된 컴퓨터 시스템의 제어기를 예시하는 블록도이다.
도 3은 일부 실시예들에 따른 확장 현실 경험의 시각적 컴포넌트를 사용자에게 제공하도록 구성된 컴퓨터 시스템의 디스플레이 생성 컴포넌트를 예시하는 블록도이다.
도 4는 일부 실시예들에 따른 사용자의 제스처 입력들을 캡처하도록 구성된 컴퓨터 시스템의 손 추적 유닛을 예시하는 블록도이다.
도 5는 일부 실시예들에 따른 사용자의 시선 입력들을 캡처하도록 구성된 컴퓨터 시스템의 눈 추적 유닛을 예시하는 블록도이다.
도 6은 일부 실시예들에 따른, 글린트-보조 시선 추적 파이프라인(glint-assisted gaze tracking pipeline)을 예시하는 흐름도이다.
도 7a 내지 도 7n은 일부 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하기 위한 예시적인 기법들을 예시한다.
도 8은 다양한 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하는 방법들의 흐름도이다.
도 9는 다양한 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하는 방법들의 흐름도이다.
도 10은 다양한 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하는 방법들의 흐름도이다.
도 11a 내지 도 11f는 일부 실시예들에 따른, 미디어 아이템들을 디스플레이하기 위한 예시적인 기법들을 예시한다.
도 12는 일부 실시예들에 따른, 미디어 아이템들을 디스플레이하기 위한 방법들의 흐름도이다.
본 개시내용은 일부 실시예들에 따른, 확장 현실(XR) 경험을 사용자에게 제공하기 위한 사용자 인터페이스들에 관한 것이다.
본 명세서에 설명되는 시스템들, 방법들, 및 GUI들은 다수의 방식들로 가상/증강 현실 환경들과의 사용자 인터페이스 상호작용들을 개선한다.
일부 실시예들에서, 디스플레이된 콘텐츠의 하나 이상의 시각적 특성들은 사용자의 시선이 지향되는 곳에 기초하여 수정된다. 예를 들어, 사용자가 미디어 라이브러리 내의 제1 미디어 아이템을 응시하는 경우에 제1 미디어 아이템의 시각적 특성들이 수정되고, 사용자가 미디어 라이브러리 내의 제2 미디어 아이템을 응시하는 경우에 제2 미디어 아이템의 시각적 특성들이 수정된다. 사용자의 시선의 위치 및/또는 포지션은, 예컨대 터치 감응형 표면들 또는 다른 물리적 제어기들과는 대조적으로, 센서들 및/또는 카메라들(예컨대, 머리 장착형 디바이스와 통합되거나 사용자로부터 멀리(예컨대, CGR 방 내에) 설치된 센서들 및/또는 카메라들)을 사용하여 검출된다. 사용자의 시선에 기초하여 디스플레이된 콘텐츠의 시각적 특성들을 수정하는 것은 컴퓨터 시스템의 상태에 관한 시각적 피드백을 (예컨대, 컴퓨터 시스템이 사용자 인터페이스 내의 특정 위치에서 사용자 시선을 검출하였다는 것을) 사용자에게 제공한다. 사용자의 시선에 기초하여 디스플레이된 콘텐츠의 시각적 특성들을 수정하는 것은 또한, 다수의 제어부들로 디스플레이를 시각적으로 혼란스럽게 하지 않고서 사용자가 하나 초과의 콘텍스트에서 디스플레이된 콘텐츠와 효율적으로 상호작용하게 하고 사용자 인터페이스들의 상호작용 효율을 개선한다(예컨대, 원하는 결과를 달성하는 데 요구되는 입력들의 수를 감소시킨다).
일부 실시예들에서, 컴퓨터 시스템은 사용자의 시선이 지향되는 곳에 기초하여 사용자가 사용자 인터페이스 내로 주밍(zooming)하게 한다. 예를 들어, 사용자가 줌-인 커맨드(예컨대, 하나 이상의 손 제스처들)를 제공하는 동안 사용자 인터페이스 내의 제1 위치를 응시하는 경우에 컴퓨터 시스템은 줌 동작의 중심점으로서 제1 위치를 사용하여 사용자 인터페이스 상에서 줌-인하고, 사용자가 줌-인 커맨드를 제공하는 동안 사용자 인터페이스 내의 제2 위치를 응시하는 경우에 컴퓨터 시스템은 줌 동작의 중심점으로서 제2 위치를 사용하여 사용자 인터페이스 상에서 줌-인한다. 사용자의 시선에 기초하여 사용자 인터페이스 상에서 줌-인하는 것은 컴퓨터 시스템의 상태에 관한 시각적 피드백을 (예컨대, 컴퓨터 시스템이 사용자 인터페이스 내의 특정 위치에서 사용자 시선을 검출하였다는 것을) 사용자에게 제공하고, 사용자가 적절한 그리고/또는 정확한 입력들을 제공하는 데 도움을 준다. 사용자의 시선에 기초하여 사용자 인터페이스 상에서 줌-인하는 것은 또한, 다수의 제어부들로 디스플레이를 시각적으로 혼란스럽게 하지 않고서 사용자가 하나 초과의 콘텍스트에서 디스플레이된 콘텐츠와 효율적으로 상호작용하게 하고 사용자 인터페이스들의 상호작용 효율을 개선한다(예컨대, 원하는 결과를 달성하는 데 요구되는 입력들의 수를 감소시킨다).
일부 실시예들에서, 미디어 아이템들이 특정 유형의 깊이 정보를 포함하는지 여부에 기초하여 (예컨대, 미디어 아이템이 입체 캡처인지 여부에 기초하여) 미디어 아이템들이 상이하게 (예컨대, 상이한 시각적 효과들로) 디스플레이된다. 예를 들어, 미디어 아이템이 입체 캡처인 경우, 미디어 아이템은 제1 세트의 시각적 특성들로 디스플레이되고(예컨대, 3차원 형상 내에 디스플레이됨, 다수의 층들로 디스플레이됨, 굴절 및/또는 블러(blur) 에지들로 디스플레이됨); 미디어 아이템이 입체 캡처가 아닌 경우, 미디어 아이템은 제2 세트의 시각적 특성들로 디스플레이된다(예컨대, 2차원 형상으로 디스플레이됨, 단일 층으로서 디스플레이됨, 굴절 및/또는 블러 에지들 없이 디스플레이됨). 미디어 아이템이 특정 유형의 깊이 정보를 포함하는지 여부에 기초하여 미디어 아이템들을 상이하게 디스플레이하는 것은 컴퓨터 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공한다(예컨대, 현재 디스플레이된 미디어 아이템이 특정 유형의 깊이 정보를 포함하는지 여부를 사용자에게 나타낸다).
일부 실시예들에서, 이전에 캡처된 미디어 아이템(예컨대, 이전에 캡처된 입체 미디어 아이템)의 표현의 상부 상에 시각적 효과가 오버레이(overlay)되는 것으로 디스플레이된다. 예를 들어, 시각적 효과는 이전에 캡처된 미디어 아이템의 표현의 하나 이상의 에지들에 디스플레이될 수 있고 이전에 캡처된 미디어 아이템의 표현의 중심을 향하여 내향으로 연장될 수 있다. 시각적 효과는 시각적 효과가 미디어 아이템의 표현의 중심을 향하여 연장됨에 따라 값 및/또는 세기가 감소하는 시각적 특성(예컨대, 블러의 양)을 갖는다. 미디어 아이템의 표현의 하나 이상의 에지들에 시각적 효과를 디스플레이하는 것은 사용자가 이전에 캡처된 미디어 아이템의 표현을 보는 동안 사용자가 경험할 수 있는 시각적 불편함(예컨대, 윈도우 위반(window violation))의 양을 감소시키는 데 도움이 된다.
도 1 내지 도 6은 사용자들에게 XR 경험들을 제공하기 위한 예시적인 컴퓨터 시스템들의 설명을 제공한다. 도 7a 내지 도 7n은 일부 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하기 위한 예시적인 기법들을 예시한다. 도 8은 다양한 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하는 방법들의 흐름도이다. 도 9는 다양한 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하는 방법들의 흐름도이다. 도 10은 다양한 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하는 방법들의 흐름도이다. 도 7a 내지 도 7n의 사용자 인터페이스들이 도 8 내지 도 10의 프로세스들을 예시하기 위해 사용된다. 도 11a 내지 도 11f는 일부 실시예들에 따른, 미디어 아이템들을 디스플레이하기 위한 예시적인 기법들을 예시한다. 도 12는 다양한 실시예들에 따른, 미디어 아이템들을 디스플레이하기 위한 방법들의 흐름도이다. 도 11a 내지 도 11f의 사용자 인터페이스들이 도 12의 프로세스들을 예시하기 위해 사용된다.
아래에서 설명되는 프로세스들은, 사용자에게 개선된 시각적 피드백을 제공하는 것, 동작을 수행하는 데 필요한 입력들의 수를 감소시키는 것, 추가의 디스플레이된 제어부들로 사용자 인터페이스를 혼란스럽게 하지 않고서 추가 제어 옵션들을 제공하는 것, 추가 사용자 입력을 요구하지 않고서 한 세트의 조건들이 충족되었을 때 동작을 수행하는 것, 프라이버시 및/또는 보안을 개선시키는 것, 저장 공간을 절약하면서 더 다양한, 상세한, 그리고/또는 현실적인 사용자 경험을 제공하는 것, 사용자가 경험하는 윈도우 위반의 양을 감소시키는 것, 및/또는 추가 기법들을 포함한 다양한 기법들을 통해 (예컨대, 디바이스를 작동시키고/그와 상호작용할 때 사용자가 적절한 입력들을 제공하는 것을 돕고 사용자 실수들을 감소시킴으로써) 디바이스의 작동성을 향상시키고 사용자-디바이스 인터페이스들을 더 효율적으로 만든다. 이러한 기법들은 또한, 사용자가 디바이스를 더 신속하고 효율적으로 사용할 수 있게 함으로써 디바이스의 전력 사용량을 감소시키고 배터리 수명을 개선시킨다. 배터리 전력 및 그에 따른 중량을 절약하는 것은 디바이스의 인체공학적 특성을 개선한다. 이러한 기법들은 또한, 실시간 통신을 가능하게 하고, 더 적은 그리고/또는 덜 정밀한 센서들의 사용을 허용하여 더 콤팩트하고, 더 가볍고, 더 저렴한 디바이스를 가져오고, 디바이스가 다양한 조명 조건들에서 사용되는 것을 가능하게 한다. 이러한 기법들은 에너지 사용량을 감소시키고, 그에 의해 디바이스에 의해 방출된 열을 감소시키며, 이는 웨어러블 디바이스 - 웨어러블 디바이스가 너무 많은 열을 생성하고 있는 경우에 디바이스 컴포넌트들에 대한 동작 파라미터들 내의 디바이스 웰(well)이 사용자가 착용하는 데 불편할 수 있음 - 에 특히 중요하다.
게다가, 하나 이상의 단계들이 하나 이상의 조건들이 충족되었음을 조건으로 하는 본 명세서에서 설명되는 방법들에서, 설명된 방법은 다수의 반복들로 반복될 수 있어서, 반복들 동안, 방법의 단계들이 조건으로 하는 조건들 모두가 방법의 상이한 반복들로 충족되게 할 수 있다는 것이 이해되어야 한다. 예를 들어, 방법이, 조건이 만족되면 제1 단계를 그리고 조건이 만족되지 않으면 제2 단계를 수행할 것을 요구하는 경우, 당업자는, 조건이 만족되고 만족되지 않을 때까지, 청구된 단계들이 특정 순서 없이 반복된다는 것을 인식할 것이다. 따라서, 하나 이상의 조건들이 충족되었음을 조건으로 하는 하나 이상의 단계들로 설명되는 방법은, 방법에서 설명되는 조건들 각각이 충족될 때까지 반복되는 방법으로서 재작성될 수 있다. 그러나, 이는, 시스템 또는 컴퓨터 판독가능 매체가 대응하는 하나 이상의 조건들의 만족에 기초하여 조건부(contingent) 동작들을 수행하기 위한 명령어들을 포함하고, 그에 따라, 방법의 단계들이 조건으로 하는 조건들 모두가 충족될 때까지 방법의 단계들을 명시적으로 반복하지 않고서 우연성(contingency)이 만족되었는지 또는 만족되지 않았는지를 결정할 수 있는 시스템 또는 컴퓨터 판독가능 매체 청구항들에서는 요구되지 않는다. 당업자는, 또한, 조건부 단계들을 갖는 방법과 유사하게, 시스템 또는 컴퓨터 판독가능 저장 매체가 조건부 단계들 모두가 수행되었음을 보장하는 데 필요한 횟수만큼 방법의 단계들을 반복할 수 있다는 것을 이해할 것이다.
일부 실시예들에서, 도 1에 도시된 바와 같이, XR 경험은 컴퓨터 시스템(101)을 포함하는 동작 환경(100)을 통해 사용자에게 제공된다. 컴퓨터 시스템(101)은 제어기(110)(예를 들어, 휴대용 전자 디바이스 또는 원격 서버의 프로세서들), 디스플레이 생성 컴포넌트(120)(예를 들어, 머리 장착형 디바이스(HMD), 디스플레이, 프로젝터, 터치-스크린 등), 하나 이상의 입력 디바이스들(125)(예를 들어, 눈 추적 디바이스(130), 손 추적 디바이스(140), 다른 입력 디바이스들(150)), 하나 이상의 출력 디바이스들(155)(예를 들어, 스피커들(160), 촉각적 출력 생성기들(170), 및 다른 출력 디바이스들(180)), 하나 이상의 센서들(190)(예를 들어, 이미지 센서들, 광 센서들, 깊이 센서들, 촉각 센서들, 배향 센서들, 근접 센서들, 온도 센서들, 위치 센서들, 모션 센서들, 속도 센서들 등), 그리고 선택적으로, 하나 이상의 주변 디바이스들(195)(예를 들어, 홈 어플라이언스들, 웨어러블 디바이스들 등)을 포함한다. 일부 실시예들에서, 입력 디바이스들(125), 출력 디바이스들(155), 센서들(190) 및 주변 디바이스들(195) 중 하나 이상은 (예를 들어, 머리-장착 디바이스 또는 핸드헬드 디바이스에서) 디스플레이 생성 컴포넌트(120)와 통합된다.
XR 경험을 설명할 때, (예를 들어, XR 경험을 생성하는 컴퓨터 시스템으로 하여금 컴퓨터 시스템(101)에 제공된 다양한 입력들에 대응하는 오디오, 시각적 및/또는 촉각적 피드백을 생성하게 하는, XR 경험을 생성하는 컴퓨터 시스템(101)에 의해 검출된 입력들로) 사용자가 감지할 수 있고/있거나 사용자가 상호작용할 수 있는 몇몇 관련되지만 구별되는 환경들을 구별하여 지칭하기 위해 다양한 용어들이 사용된다. 다음은 이들 용어의 서브세트이다:
물리적 환경: 물리적 환경은 사람들이 전자 시스템들의 도움없이 감지하고 그리고/또는 상호작용할 수 있는 물리적 세계를 지칭한다. 물리적 공원과 같은 물리적 환경들은 물리적 물품들, 예컨대 물리적 나무들, 물리적 건물들, 및 물리적 사람들을 포함한다. 사람들은, 예컨대 시각, 촉각, 청각, 미각, 및 후각을 통해, 물리적 환경을 직접 감지하고/하거나 그와 상호작용할 수 있다.
확장 현실: 대조적으로, 확장 현실(XR) 환경은 사람들이 전자 시스템을 통해 감지하고 그리고/또는 그와 상호작용하는 완전히 또는 부분적으로 시뮬레이션된 환경을 지칭한다. XR에서, 사람의 신체적 움직임들, 또는 이들의 표현들의 서브세트가 추적되고, 이에 응답하여, XR 환경에서 시뮬레이션된 하나 이상의 가상 객체들의 하나 이상의 특성들이 적어도 하나의 물리 법칙에 따르는 방식으로 조정된다. 예를 들어, XR 시스템은 사람이 고개를 돌리는 것을 검출할 수 있고, 이에 응답하여, 그 사람에게 제시되는 그래픽 콘텐츠 및 음장(acoustic field)을 물리적 환경에서 그러한 뷰들 및 소리들이 변경되는 방식과 유사한 방식으로 조정할 수 있다. 일부 상황들에서(예를 들어, 접근성 이유들 때문에), XR 환경에서의 가상 객체(들)의 특성(들)에 대한 조정들은 신체적 움직임들의 표현들(예를 들어, 음성 커맨드들)에 응답하여 이루어질 수 있다. 사람은, 시각, 청각, 촉각, 미각, 및 후각을 포함하는 그들의 감각들 중 임의의 하나를 사용하여 XR 객체를 감지하고/하거나 그와 상호작용할 수 있다. 예를 들어, 사람은 3D 공간에서의 포인트 오디오 소스들의 지각을 제공하는 3D 또는 공간적 오디오 환경을 생성하는 오디오 객체들을 감지하고/하거나 그와 상호작용할 수 있다. 다른 예에서, 오디오 객체들은 오디오 투명성을 가능하게 할 수 있으며, 이는 선택적으로, 물리적 환경으로부터의 주변 소리들을 컴퓨터 생성 오디오와 함께 또는 그것 없이 통합한다. 일부 XR 환경들에서, 사람은 오디오 객체들만을 감지하고/하거나 그와 상호작용할 수 있다.
XR의 예들은 가상 현실 및 혼합 현실(mixed reality)을 포함한다.
가상 현실: 가상 현실(VR) 환경은 하나 이상의 감각들에 대한 컴퓨터-생성 감각 입력들에 전적으로 기초하도록 설계된 시뮬레이션된 환경을 지칭한다. VR 환경은 사람이 감지하고/하거나 그와 상호작용할 수 있는 복수의 가상 객체들을 포함한다. 예를 들어, 나무들, 빌딩들, 및 사람들을 표현하는 아바타들의 컴퓨터 생성 형상화가 가상 객체들의 예들이다. 사람은, 컴퓨터 생성 환경에서의 사람의 존재의 시뮬레이션을 통해 그리고/또는 컴퓨터 생성 환경에서의 사람의 신체적 움직임들의 서브세트의 시뮬레이션을 통해 VR 환경에서 가상 객체들을 감지하고/하거나 그와 상호작용할 수 있다.
혼합 현실: 컴퓨터-생성 감각 입력들에 전적으로 기초하도록 설계되는 VR 환경과는 대조적으로, 혼합 현실(MR) 환경은 컴퓨터-생성 감각 입력들(예를 들어, 가상 객체들)을 포함하는 것에 부가하여, 물리적 환경으로부터의 감각 입력들, 또는 그들의 표현을 통합하도록 설계된 시뮬레이션된 환경을 지칭한다. 가상 연속체(virtuality continuum)에서, 혼합 현실 환경은 한쪽의 완전히 물리적인 환경과 다른 쪽의 가상 현실 환경 사이의 임의의 곳에 있지만, 포함하지는 않는다. 일부 MR 환경들에서, 컴퓨터 생성 감각 입력들은 물리적 환경으로부터의 감각 입력들의 변화들에 응답할 수 있다. 또한, MR 환경을 제시하기 위한 일부 전자 시스템들은 물리적 환경에 대한 위치 및/또는 배향을 추적하여 가상 객체들이 실제 객체들(즉, 물리적 환경으로부터의 물리적 물품들 또는 물리적 물품들의 표현들)과 상호작용할 수 있게 할 수 있다. 예를 들어, 시스템은 움직임들을 고려하여 가상 나무가 물리적 땅에 대하여 고정되어 있는 것처럼 보이도록 할 수 있다.
혼합 현실들의 예들은 증강 현실 및 증강 가상을 포함한다.
증강 현실: 증강 현실(AR) 환경은 하나 이상의 가상 객체들이 물리적 환경, 또는 그의 표현 위에 중첩되어 있는 시뮬레이션된 환경을 지칭한다. 예를 들어, AR 환경을 제시하기 위한 전자 시스템은 사람이 직접 물리적 환경을 볼 수 있는 투명 또는 반투명 디스플레이를 가질 수 있다. 시스템은, 사람이 시스템을 사용하여 물리적 환경 위에 중첩된 가상 객체들을 인지하도록, 투명 또는 반투명 디스플레이 상에 가상 객체들을 제시하도록 구성될 수 있다. 대안적으로, 시스템은 불투명 디스플레이, 및 물리적 환경의 표현들인 물리적 환경의 이미지들 또는 비디오를 캡처하는 하나 이상의 이미징 센서들을 가질 수 있다. 시스템은 이미지들 또는 비디오를 가상 객체들과 합성하고, 합성물을 불투명 디스플레이 상에 제시한다. 사람은 시스템을 사용하여 물리적 환경의 이미지들 또는 비디오에 의해 물리적 환경을 간접적으로 보고, 물리적 환경 위에 중첩된 가상 객체들을 인지한다. 본 명세서에 사용되는 바와 같이, 불투명 디스플레이 상에 보여지는 물리적 환경의 비디오는 "패스 스루(pass-through) 비디오"로 불리는데, 이는 시스템이 하나 이상의 이미지 센서(들)를 사용하여 물리적 환경의 이미지들을 캡처하고, AR 환경을 불투명 디스플레이 상에 제시할 시에 이들 이미지들을 사용하는 것을 의미한다. 추가로 대안적으로, 시스템은, 사람이 시스템을 사용하여 물리적 환경 위에 중첩된 가상 객체들을 인지하도록, 가상 객체들을 물리적 환경에, 예를 들어, 홀로그램으로서 또는 물리적 표면 상에 투영하는 투영 시스템을 가질 수 있다. 증강 현실 환경은 또한 물리적 환경의 표현이 컴퓨터 생성 감각 정보에 의해 변환되는 시뮬레이션된 환경을 지칭한다. 예를 들어, 패스 스루 비디오를 제공할 시에, 시스템은 하나 이상의 센서 이미지들을 변환하여 이미징 센서들에 의해 캡처된 관점과 상이한 선택 관점(예를 들어, 시점)을 부과할 수 있다. 다른 예로서, 물리적 환경의 표현은 그것의 일부들을 그래픽적으로 수정(예를 들어, 확대)함으로써 변환될 수 있어서, 수정된 부분은 원래 캡처된 이미지들의 표현일 수 있지만, 실사 버전은 아닐 수 있다. 추가적인 예로서, 물리적 환경의 표현은 그의 일부들을 그래픽적으로 제거하거나 또는 흐리게 함으로써 변환될 수 있다.
증강 가상: 증강 가상(AV) 환경은 가상 또는 컴퓨터 생성 환경이 물리적 환경으로부터의 하나 이상의 감각 입력들을 통합하는 시뮬레이션된 환경을 지칭한다. 감각 입력들은 물리적 환경의 하나 이상의 특성들의 표현들일 수 있다. 예를 들어, AV 공원은 가상 나무들 및 가상 빌딩들을 가질 수 있지만, 사람들의 얼굴들은 물리적 사람들을 촬영한 이미지들로부터 실사처럼 재현될 수 있다. 다른 예로서, 가상 객체는 하나 이상의 이미징 센서들에 의해 이미징되는 물리적 물품의 형상 또는 색상을 채용할 수 있다. 추가적인 예로서, 가상 객체는 물리적 환경에서 태양의 위치에 부합하는 그림자들을 채용할 수 있다.
시점-록킹(viewpoint-locked) 가상 객체: 사용자의 시점이 시프트(예를 들어, 변경)되더라도, 컴퓨터 시스템이 사용자의 시점의 동일한 위치 및/또는 포지션에서 가상 객체를 디스플레이할 때 가상 객체가 시점-록킹된다. 컴퓨터 시스템이 머리 장착형 디바이스인 실시예들에서, 사용자의 시점은 사용자의 머리의 전방 대면 방향에 록킹되고(예를 들어, 사용자의 시점은 사용자가 정면을 보고 있을 때 사용자의 시야의 적어도 일부임); 따라서, 사용자의 시선이 시프트되더라도, 사용자의 머리를 이동시키지 않으면서, 사용자의 시점이 고정된 상태로 유지된다. 컴퓨터 시스템이 사용자의 머리에 대해 재위치될 수 있는 디스플레이 생성 컴포넌트(예를 들어, 디스플레이 스크린)를 갖는 실시예들에서, 사용자의 시점은 컴퓨터 시스템의 디스플레이 생성 컴포넌트 상에서 사용자에게 제시되고 있는 증강 현실 뷰이다. 예를 들어, 사용자의 시점의 상부 좌측 코너에서 디스플레이되는 시점-록킹 가상 객체는, 사용자의 시점이 제1 배향(예를 들어, 사용자의 머리가 북쪽을 향함)에 있을 때, 사용자의 시점이 제2 배향(예를 들어, 사용자의 머리가 서쪽을 향함)으로 변경되더라도, 사용자의 시점의 상부 좌측 코너에서 계속 디스플레이된다. 다시 말하면, 시점-록킹된 가상 객체가 사용자의 시점에서 디스플레이되는 위치 및/또는 포지션은 물리적 환경 내의 사용자의 포지션 및/또는 배향과 독립적이다. 컴퓨터 시스템이 머리 장착형 디바이스인 실시예들에서, 사용자의 시점은 사용자의 머리의 배향에 록킹되므로, 가상 객체는 또한 "머리-록킹 가상 객체"로 지칭된다.
환경-록킹 가상 객체: 컴퓨터 시스템이 3차원 환경(예를 들어, 물리적 환경 또는 가상 환경) 내의 위치 및/또는 객체에 기초하는(예를 들어, 이를 참조하여 선택되고 그리고/또는 이에 고정된) 사용자의 시점 내의 위치 및/또는 포지션에서 가상 객체를 디스플레이할 때, 가상 객체는 환경-록킹(대안적으로는, "세계-록킹")된다. 사용자의 시점이 시프트됨에 따라, 사용자의 시점에 대한 환경 내의 위치 및/또는 객체가 변경되며, 이는 환경-록킹된 가상 객체가 사용자의 시점 내의 상이한 위치 및/또는 포지션에서 디스플레이되는 것을 초래한다. 예를 들어, 사용자의 바로 전방에 있는 나무에 록킹되는 환경-록킹된 가상 객체는 사용자의 시점의 중심에서 디스플레이된다. 사용자의 시점이 우측으로 시프트되어(예를 들어, 사용자의 머리가 우측으로 회전되어), 나무가 이제 사용자의 시점에서 중심 좌측에 있을 때(예를 들어, 사용자의 시점 내의 나무의 포지션이 시프트될 때), 나무에 록킹되는 환경-록킹된 가상 객체는 사용자의 시점에서 중심 좌측에 디스플레이된다. 다시 말하면, 환경-록킹된 가상 객체가 사용자의 시점에서 디스플레이되는 위치 및/또는 포지션은 가상 객체가 록킹되는 환경 내의 위치 및/또는 객체의 포지션 및/또는 배향에 의존한다. 일부 실시예들에서, 컴퓨터 시스템은 사용자의 시점에서 환경-록킹된 가상 객체를 디스플레이할 포지션을 결정하기 위해 고정 기준 프레임(예를 들어, 물리적 환경 내의 고정 위치 및/또는 객체에 고정되는 좌표계)을 사용한다. 환경-록킹된 가상 객체는 환경의 고정 부분(예를 들어, 바닥, 벽, 테이블, 또는 다른 고정 객체)에 록킹될 수 있거나, 또는 환경의 이동가능 부분(예를 들어, 차량, 동물, 사람, 또는 심지어 사용자의 시점과 독립적으로 이동되는 사용자 신체의 일부, 예컨대 사용자의 손, 손목, 팔, 또는 다리의 표현)에 록킹될 수 있어서, 가상 객체는 가상 객체와 환경의 일부 사이의 고정된 관계를 유지하기 위해 시점 또는 환경의 일부가 이동됨에 따라 이동된다.
일부 실시예들에서, 환경-록킹되거나 시점-록킹된 가상 객체는 가상 객체가 따르는 기준 포인트의 이동에 대한 환경-록킹되거나 시점-록킹된 가상 객체의 모션을 감소시키거나 지연시키는 느린(lazy) 후속 거동을 나타낸다. 일부 실시예들에서, 느린 후속 거동을 나타낼 때, 컴퓨터 시스템은, 가상 객체가 따르고 있는 기준 포인트(예를 들어, 환경의 일부, 시점, 또는 시점에 대해 고정된 포인트, 예컨대 시점으로부터 5 내지 300 cm인 포인트)의 이동을 검출할 때 가상 객체의 이동을 의도적으로 지연시킨다. 예를 들어, 기준 포인트(예를 들어, 환경의 일부 또는 시점)가 제1 속도로 이동할 때, 가상 객체는 (예를 들어, 기준 포인트가 이동하는 것을 중지하거나 기준 포인트가 느려질 때까지(그 포인트에서, 가상 객체는 기준 포인트를 따라잡기 시작함)) 기준 포인트에 록킹된 상태로 유지되기 위해 디바이스에 의해 이동되지만, 제1 속도보다 느린 제2 속도로 이동한다. 일부 실시예들에서, 가상 객체가 느린 후속 거동을 나타낼 때, 디바이스는 기준 포인트의 작은 양들의 이동을 무시한다(예를 들어, 0 내지 5도만큼의 이동 또는 0 내지 50 cm만큼의 이동과 같은 임계량의 이동 미만인 기준 포인트의 이동을 무시함). 예를 들어, 기준 포인트(예를 들어, 가상 객체가 록킹되는 환경의 일부 또는 시점)가 제1 양만큼 이동할 때, (예를 들어, 가상 객체가 록킹되는 기준 포인트와 상이한 시점 또는 환경의 일부에 대해 고정된 또는 실질적으로 고정된 포지션을 유지하기 위해 가상 객체가 디스플레이되고 있기 때문에) 기준 포인트와 가상 객체 사이의 거리가 증가되고, 기준 포인트(예를 들어, 가상 객체가 록킹되는 환경의 일부 또는 시점)가 제1 양보다 큰 제2 양만큼 이동할 때, (예를 들어, 가상 객체가 록킹되는 기준 포인트와 상이한 시점 또는 환경의 일부에 대해 고정된 또는 실질적으로 고정된 포지션을 유지하기 위해 가상 객체가 디스플레이되고 있기 때문에) 기준 포인트와 가상 객체 사이의 거리는 초기에 증가되며, 이어서, 기준 포인트에 대해 고정된 또는 실질적으로 고정된 포지션을 유지하기 위해 가상 객체가 컴퓨터 시스템에 의해 이동되기 때문에, 기준 포인트의 이동의 양이 임계치(예를 들어, "느린 후속" 임계치) 초과로 증가됨에 따라 감소된다. 일부 실시예들에서, 가상 객체가 기준 포인트에 대해 실질적으로 고정된 포지션을 유지하는 것은 가상 객체가 하나 이상의 차원들(예를 들어, 기준 포인트의 포지션에 대해 위/아래, 좌측/우측, 및/또는 전방/후방)로 기준 포인트의 임계 거리(예를 들어, 1, 2, 3, 5, 15, 20, 50 cm) 내에서 디스플레이되는 것을 포함한다.
하드웨어: 사람이 다양한 XR 환경들을 감지하고/하거나 그와 상호작용할 수 있게 하는 많은 상이한 유형의 전자 시스템들이 있다. 예들은 머리 장착형 시스템들, 투영 기반 시스템들, 헤드업(head-up) 디스플레이(HUD)들, 디스플레이 능력이 통합된 차량 앞유리들, 디스플레이 능력이 통합된 창문들, 사람의 눈들에 배치되도록 설계된 렌즈들로서 형성된 디스플레이들(예를 들어, 콘택트 렌즈들과 유사함), 헤드폰들/이어폰들, 스피커 어레이들, 입력 시스템들(예를 들어, 햅틱 피드백이 있거나 또는 없는 웨어러블 또는 핸드헬드 제어기들), 스마트폰들, 태블릿들, 및 데스크톱/랩톱 컴퓨터들을 포함한다. 머리 장착형 시스템은 오디오 출력을 제공하기 위해 머리 장착형 시스템에 통합된 스피커들 및/또는 다른 오디오 출력 디바이스들을 포함할 수 있다. 머리 장착형 시스템은 하나 이상의 스피커(들) 및 통합 불투명 디스플레이를 가질 수 있다. 대안적으로, 머리 장착형 시스템은 외부 불투명 디스플레이(예를 들어, 스마트폰)를 수용하도록 구성될 수 있다. 머리 장착형 시스템은 물리적 환경의 이미지들 또는 비디오를 캡처하기 위한 하나 이상의 이미징 센서들, 및/또는 물리적 환경의 오디오를 캡처하기 위한 하나 이상의 마이크로폰들을 통합할 수 있다. 머리 장착형 시스템은 불투명 디스플레이보다는, 투명 또는 반투명 디스플레이를 가질 수 있다. 투명 또는 반투명 디스플레이는 이미지들을 표현하는 광이 사람의 눈들로 지향되는 매체를 가질 수 있다. 디스플레이는 디지털 광 프로젝션, OLED들, LED들, uLED들, 실리콘 액정 표시장치, 레이저 스캐닝 광원, 또는 이들 기술들의 임의의 조합을 이용할 수 있다. 매체는 광학 도파관, 홀로그램 매체, 광학 조합기, 광학 반사기, 또는 이들의 임의의 조합일 수 있다. 일 실시예에서, 투명 또는 반투명 디스플레이는 선택적으로 불투명하게 되도록 구성될 수 있다. 투사-기반 시스템들은 그래픽 이미지들을 사람의 망막 상에 투사하는 망막 투사 기술을 채용할 수 있다. 투영 시스템들은 또한 가상 객체들을 물리적 환경에, 예를 들어, 홀로그램으로서 또는 물리적 표면 상에 투영하도록 구성될 수 있다. 일부 실시예들에서, 제어기(110)는 사용자에 대한 XR 경험을 관리 및 조정하도록 구성된다. 일부 실시예들에서, 제어기(110)는 소프트웨어, 펌웨어, 및/또는 하드웨어의 적합한 조합을 포함한다. 제어기(110)는 도 2에 관해 아래에서 더 상세히 설명된다. 일부 실시예들에서, 제어기(110)는 장면(105)(예를 들어, 물리적 환경)에 대해 로컬 또는 원격인 컴퓨팅 디바이스이다. 예를 들어, 제어기(110)는 장면(105) 내에 위치된 로컬 서버이다. 다른 예에서, 제어기(110)는 장면(105)의 외부에 위치된 원격 서버(예를 들어, 클라우드 서버, 중앙 서버 등)이다. 일부 실시예들에서, 제어기(110)는 하나 이상의 유선 또는 무선 통신 채널들(144)(예를 들어, 블루투스, IEEE 802.11x, IEEE 802.16x, IEEE 802.3x 등)을 통해 디스플레이 생성 컴포넌트(120)(예를 들어, HMD, 디스플레이, 프로젝터, 터치-스크린 등)와 통신가능하게 결합된다. 다른 예에서, 제어기(110)는 디스플레이 생성 컴포넌트(120)(예를 들어, 디스플레이 및 하나 이상의 프로세서들을 포함하는 HMD 또는 휴대용 전자 디바이스 등)의 인클로저(예를 들어, 물리적 하우징), 입력 디바이스들(125) 중 하나 이상, 출력 디바이스들(155) 중 하나 이상, 센서들(190) 중 하나 이상, 및/또는 주변 디바이스들(195) 중 하나 이상 내에 포함되거나, 상기 중 하나 이상과 동일한 물리적 인클로저 또는 지지 구조를 공유한다.
일부 실시예들에서, 디스플레이 생성 컴포넌트(120)는 XR 경험(예를 들어, 적어도 XR 경험의 시각적 컴포넌트)을 사용자에게 제공하도록 구성된다. 일부 실시예들에서, 디스플레이 생성 컴포넌트(120)는 소프트웨어, 펌웨어, 및/또는 하드웨어의 적합한 조합을 포함한다. 디스플레이 생성 컴포넌트(120)는 도 3과 관련하여 아래에서 더욱 상세히 기술된다. 일부 실시예들에서, 제어기(110)의 기능성들은 디스플레이 생성 컴포넌트(120)에 의해 제공되고/되거나 이와 조합된다.
일부 실시예들에 따르면, 디스플레이 생성 컴포넌트(120)는 사용자가 장면(105) 내에 가상으로 그리고/또는 물리적으로 존재하는 동안 XR 경험을 사용자에게 제공한다.
일부 실시예들에서, 디스플레이 생성 컴포넌트는 사용자의 신체의 일부(예를 들어, 그의 머리에, 그의 손에 등)에 착용된다. 이와 같이, 디스플레이 생성 컴포넌트(120)는 XR 콘텐츠를 디스플레이하기 위해 제공되는 하나 이상의 XR 디스플레이들을 포함한다. 예를 들어, 다양한 실시예들에서, 디스플레이 생성 컴포넌트(120)는 사용자의 시야를 둘러싼다. 일부 실시예들에서, 디스플레이 생성 컴포넌트(120)는 XR 콘텐츠를 제시하도록 구성된 핸드헬드 디바이스(예를 들어, 스마트폰 또는 태블릿)이고, 사용자는 사용자의 시야를 향해 지향된 디스플레이 및 장면(105)을 향해 지향된 카메라를 갖는 디바이스를 유지한다. 일부 실시예들에서, 핸드헬드 디바이스는 선택적으로 사용자의 머리에 착용된 인클로저 내에 배치된다. 일부 실시예들에서, 핸드헬드 디바이스는 선택적으로 사용자 전방의 지지부(예를 들어, 삼각대) 상에 배치된다. 일부 실시예들에서, 디스플레이 생성 컴포넌트(120)는 사용자가 디스플레이 생성 컴포넌트(120)를 착용하거나 유지하지 않는 XR 콘텐츠를 제공하도록 구성된 XR 챔버, 인클로저 또는 룸이다. XR 콘텐츠를 디스플레이하기 위한 하나의 유형의 하드웨어(예를 들어, 핸드헬드 디바이스 또는 삼각대 상의 디바이스)를 참조하여 설명된 많은 사용자 인터페이스들은 XR 콘텐츠를 디스플레이하기 위한 다른 유형의 하드웨어(예를 들어, HMD 또는 다른 웨어러블 컴퓨팅 디바이스) 상에서 구현될 수 있다. 예를 들어, 핸드헬드 또는 삼각대 장착형 디바이스 전방의 공간에서 발생하는 상호작용들에 기초하여 트리거된 XR 콘텐츠와의 상호작용들을 보여주는 사용자 인터페이스는, 상호작용들이 HMD 전방의 공간에서 발생하고 XR 콘텐츠의 응답들이 HMD를 통해 디스플레이되는 HMD를 이용하여 유사하게 구현될 수 있다. 유사하게, 물리적 환경(예를 들어, 장면(105) 또는 사용자의 신체의 일부(예를 들어, 사용자의 눈(들), 머리 또는 손)에 대한 핸드헬드 또는 삼각대 장착형 디바이스의 이동에 기초하여 트리거되는 XR 콘텐츠와의 상호작용들을 보여주는 사용자 인터페이스는 유사하게, 물리적 환경(예를 들어, 장면(105) 또는 사용자의 신체의 일부(예를 들어, 사용자의 눈(들), 머리 또는 손)에 대한 HMD의 이동에 의해 이동이 야기되는 HMD로 구현될 수 있다.
동작 환경(100)의 관련 특징부들이 도 1에 도시되어 있지만, 당업자들은 본 개시내용으로부터, 간결함을 위해 그리고 본 명세서에 개시되는 예시적인 실시예들의 더 많은 관련 태양들을 불명료하게 하지 않기 위해 다양한 다른 특징부들이 예시되지 않았음을 인식할 것이다.
도 2는 일부 실시예들에 따른 제어기(110)의 일례의 블록도이다. 소정의 특정 특징부들이 예시되어 있지만, 당업자들은 본 개시내용으로부터, 간결함을 위해 그리고 본 명세서에 개시되는 실시예들의 더 많은 관련 태양들을 불명료하게 하지 않기 위해 다양한 다른 특징부들이 예시되지 않았음을 인식할 것이다. 이를 위해, 비제한적인 예로서, 일부 실시예들에서, 제어기(110)는 하나 이상의 프로세싱 유닛들(202)(예를 들어, 마이크로프로세서들, 주문형 집적 회로(ASIC)들, 필드-프로그래밍가능 게이트 어레이(FPGA)들, 그래픽 프로세싱 유닛(GPU)들, 중앙 프로세싱 유닛(CPU)들, 프로세싱 코어들 등), 하나 이상의 입/출력(I/O) 디바이스들(206), 하나 이상의 통신 인터페이스들(208)(예를 들어, 범용 직렬 버스(USB), FIREWIRE, THUNDERBOLT, IEEE 802.3x, IEEE 802.11x, IEEE 802.16x, 모바일 통신들을 위한 글로벌 시스템(GSM), 코드 분할 다중 액세스(CDMA), 시분할 다중 액세스(TDMA), 글로벌 포지셔닝 시스템(GPS), 적외선(IR), 블루투스, 지그비, 및/또는 유사한 유형의 인터페이스), 하나 이상의 프로그래밍(예를 들어, I/O) 인터페이스들(210), 메모리(220), 및 이들 및 다양한 다른 컴포넌트들을 상호연결시키기 위한 하나 이상의 통신 버스들(204)을 포함한다.
일부 실시예들에서, 하나 이상의 통신 버스들(204)은 시스템 컴포넌트들 사이의 통신을 상호연결시키고 제어하는 회로부를 포함한다. 일부 실시예들에서, 하나 이상의 I/O 디바이스들(206)은 키보드, 마우스, 터치패드, 조이스틱, 하나 이상의 마이크로폰들, 하나 이상의 스피커들, 하나 이상의 이미지 센서들, 하나 이상의 디스플레이들 등 중 적어도 하나를 포함한다.
메모리(220)는 동적-랜덤 액세스 메모리(DRAM), 정적 랜덤-액세스 메모리(SRAM), 더블-데이터-레이트 랜덤-액세스 메모리(DDR RAM), 또는 다른 랜덤-액세스 솔리드-스테이트(solid-state) 메모리 디바이스들과 같은 고속 랜덤-액세스 메모리를 포함한다. 일부 실시예들에서, 메모리(220)는 하나 이상의 자기 디스크 저장 디바이스들, 광 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 또는 다른 비휘발성 솔리드-스테이트 저장 디바이스들과 같은 비휘발성 메모리를 포함한다. 메모리(220)는 선택적으로, 하나 이상의 프로세싱 유닛들(202)로부터 원격으로 위치된 하나 이상의 저장 디바이스들을 포함한다. 메모리(220)는 비일시적 컴퓨터 판독가능 저장 매체를 포함한다. 일부 실시예들에서, 메모리(220) 또는 메모리(220)의 비일시적 컴퓨터 판독가능 저장 매체는 다음의 프로그램들, 모듈들 및 데이터 구조들, 또는 선택적인 운영 체제(230) 및 XR 경험 모듈(240)을 포함하는 그들의 서브세트를 저장한다.
운영 체제(230)는 다양한 기본 시스템 서비스들을 처리하고 하드웨어 의존 태스크들을 수행하기 위한 명령어들을 포함한다. 일부 실시예들에서, XR 경험 모듈(240)은 하나 이상의 사용자들에 대한 하나 이상의 XR 경험들(예를 들어, 하나 이상의 사용자들에 대한 단일 XR 경험, 또는 하나 이상의 사용자들의 각자의 그룹들에 대한 다수의 XR 경험들)을 관리하고 조정하도록 구성된다. 이를 위해, 다양한 실시예들에서, XR 경험 모듈(240)은 데이터 획득 유닛(241), 추적 유닛(242), 조정 유닛(246), 및 데이터 송신 유닛(248)을 포함한다.
일부 실시예들에서, 데이터 획득 유닛(241)은 적어도 도 1의 디스플레이 생성 컴포넌트(120) 및 선택적으로, 입력 디바이스들(125), 출력 디바이스들(155), 센서들(190), 및/또는 주변 디바이스들(195) 중 하나 이상으로부터 데이터(예를 들어, 제시 데이터, 상호작용 데이터, 센서 데이터, 위치 데이터 등)를 획득하도록 구성된다. 이를 위해, 다양한 실시예들에서, 데이터 획득 유닛(241)은 그에 대한 명령어들 및/또는 로직, 및 그에 대한 휴리스틱 및 메타데이터를 포함한다.
일부 실시예들에서, 추적 유닛(242)은 장면(105)을 맵핑하도록 그리고 도 1의 장면(105)에 대해 그리고 선택적으로, 입력 디바이스들(125), 출력 디바이스들(155), 센서들(190), 및/또는 주변 디바이스들(195) 중 하나 이상에 대해 적어도 디스플레이 생성 컴포넌트(120)의 포지션/위치를 추적하도록 구성된다. 이를 위해, 다양한 실시예들에서, 추적 유닛(242)은 그에 대한 명령어들 및/또는 로직, 및 그에 대한 휴리스틱 및 메타데이터를 포함한다. 일부 실시예들에서, 추적 유닛(242)은 손 추적 유닛(244), 및 눈 추적 유닛(243)을 포함한다. 일부 실시예들에서, 손 추적 유닛(244)은 도 1의 장면(105)에 대해, 디스플레이 생성 컴포넌트(120)에 대해, 및/또는 사용자의 손에 대해 정의된 좌표계에 대해 사용자의 손들의 하나 이상의 부분들의 포지션/위치 및/또는 사용자의 손들의 하나 이상의 부분들의 모션들을 추적하도록 구성된다. 손 추적 유닛(244)은 도 4와 관련하여 아래에서 더욱 상세히 설명된다. 일부 실시예들에서, 눈 추적 유닛(243)은 장면(105)에 대해(예를 들어, 물리적 환경 및/또는 사용자(예를 들어, 사용자의 손)에 대해) 또는 디스플레이 생성 컴포넌트(120)를 통해 디스플레이되는 XR 콘텐츠에 대해 사용자의 시선(또는 더 광범위하게는 사용자의 눈들, 얼굴 또는 머리)의 위치 및 이동을 추적하도록 구성된다. 눈 추적 유닛(243)은 도 5와 관련하여 아래에서 더욱 상세히 설명된다.
일부 실시예들에서, 조정 유닛(246)은 디스플레이 생성 컴포넌트(120)에 의해 그리고 선택적으로, 출력 디바이스들(155) 및/또는 주변 디바이스들(195) 중 하나 이상에 의해 사용자에게 제시되는 XR 경험을 관리 및 조정하도록 구성된다. 이를 위해, 다양한 실시예들에서, 조정 유닛(246)은 그에 대한 명령어들 및/또는 로직, 및 그에 대한 휴리스틱 및 메타데이터를 포함한다.
일부 실시예들에서, 데이터 송신 유닛(248)은 적어도 디스플레이 생성 컴포넌트(120) 및 선택적으로, 입력 디바이스들(125), 출력 디바이스들(155), 센서들(190), 및/또는 주변 디바이스들(195) 중 하나 이상에 데이터(예를 들어, 제시 데이터, 위치 데이터 등)를 송신하도록 구성된다. 이를 위해, 다양한 실시예들에서, 데이터 송신 유닛(248)은 그에 대한 명령어들 및/또는 로직, 및 그에 대한 휴리스틱 및 메타데이터를 포함한다.
데이터 획득 유닛(241), 추적 유닛(242)(예를 들어, 눈 추적 유닛(243) 및 손 추적 유닛(244)을 포함함), 조정 유닛(246), 및 데이터 송신 유닛(248)이 단일 디바이스(예를 들어, 제어기(110)) 상에 존재하는 것으로 도시되어 있지만, 다른 실시예들에서, 데이터 획득 유닛(241), 추적 유닛(242)(예를 들어, 눈 추적 유닛(243) 및 손 추적 유닛(244)을 포함함), 조정 유닛(246), 및 데이터 송신 유닛(248)의 임의의 조합이 별개의 컴퓨팅 디바이스들 내에 위치될 수 있다는 것을 이해해야 한다.
게다가, 도 2는 본 명세서에 설명된 실시예들의 구조적 개략도와는 대조적으로 특정 구현예에 존재할 수 있는 다양한 특징부들의 기능 설명으로서 더 의도된다. 당업자들에 의해 인식되는 바와 같이, 별개로 도시된 아이템들은 조합될 수 있고 일부 아이템들은 분리될 수 있다. 예를 들어, 다양한 실시예들에서, 도 2에 별개로 도시된 일부 기능 모듈들은 단일 모듈로 구현될 수 있고, 단일 기능 블록들의 다양한 기능들은 하나 이상의 기능 블록들에 의해 구현될 수 있다. 모듈들의 실제 수량 및 특정 기능들의 분할 그리고 특징부들이 그들 사이에서 어떻게 할당되는지는 구현예들마다 다를 것이고, 일부 실시예들에서, 특정 구현예에 대해 선택된 하드웨어, 소프트웨어, 및/또는 펌웨어의 특정 조합에 부분적으로 의존한다.
도 3은 일부 실시예들에 따른 디스플레이 생성 컴포넌트(120)의 일례의 블록도이다. 소정의 특정 특징부들이 예시되어 있지만, 당업자들은 본 개시내용으로부터, 간결함을 위해 그리고 본 명세서에 개시되는 실시예들의 더 많은 관련 태양들을 불명료하게 하지 않기 위해 다양한 다른 특징부들이 예시되지 않았음을 인식할 것이다. 이를 위해, 비제한적인 예로서, 일부 실시예들에서, 디스플레이 생성 컴포넌트(120)(예를 들어, HMD)는 하나 이상의 프로세싱 유닛들(302)(예를 들어, 마이크로프로세서들, ASIC들, FPGA들, GPU들, CPU들, 프로세싱 코어들 등), 하나 이상의 입/출력(I/O) 디바이스들 및 센서들(306), 하나 이상의 통신 인터페이스들(308)(예를 들어, USB, FIREWIRE, THUNDERBOLT, IEEE 802.3x, IEEE 802.11x, IEEE 802.16x, GSM, CDMA, TDMA, GPS, IR, 블루투스, 지그비, 및/또는 유사한 유형의 인터페이스), 하나 이상의 프로그래밍(예를 들어, I/O) 인터페이스들(310), 하나 이상의 XR 디스플레이들(312), 하나 이상의 선택적인 내부 및/또는 외부 대면 이미지 센서들(314), 메모리(320), 및 이들 및 다양한 다른 컴포넌트들을 상호연결시키기 위한 하나 이상의 통신 버스들(304)을 포함한다.
일부 실시예들에서, 하나 이상의 통신 버스들(304)은 시스템 컴포넌트들 사이의 통신을 상호연결하고 제어하는 회로부를 포함한다. 일부 실시예들에서, 하나 이상의 I/O 디바이스들 및 센서들(306)은 관성 측정 유닛(inertial measurement unit, IMU), 가속도계, 자이로스코프, 온도계, 하나 이상의 생리학적 센서들(예를 들어, 혈압 모니터, 심박수 모니터, 혈중 산소 센서, 혈당 센서 등), 하나 이상의 마이크로폰들, 하나 이상의 스피커들, 햅틱 엔진, 하나 이상의 깊이 센서들(예를 들어, 구조화된 광, 빛의 비행시간 등) 등 중 적어도 하나를 포함한다.
일부 실시예들에서, 하나 이상의 XR 디스플레이들(312)은 XR 경험을 사용자에게 제공하도록 구성된다. 일부 실시예들에서, 하나 이상의 XR 디스플레이들(312)은 홀로그래픽, 디지털 광 프로세싱(DLP), 액정 디스플레이(LCD), 실리콘 액정 표시장치(LCoS), 유기 발광 전계-효과 트랜지터리(OLET), 유기 발광 다이오드(OLED), 표면-전도 전자-방출기 디스플레이(SED), 전계-방출 디스플레이(FED), 양자점 발광 다이오드(QD-LED), 마이크로-전자기계 시스템(MEMS), 및/또는 유사한 디스플레이 유형들에 대응한다. 일부 실시예들에서, 하나 이상의 XR 디스플레이들(312)은 회절, 반사, 편광, 홀로그래픽 등의 도파관 디스플레이들에 대응한다. 예를 들어, 디스플레이 생성 컴포넌트(120)(예를 들어, HMD)는 단일 XR 디스플레이를 포함한다. 다른 예에서, 디스플레이 생성 컴포넌트(120)는 사용자의 각각의 눈에 대한 XR 디스플레이를 포함한다. 일부 실시예들에서, 하나 이상의 XR 디스플레이들(312)은 MR 및 VR 콘텐츠를 제시할 수 있다. 일부 실시예들에서, 하나 이상의 XR 디스플레이들(312)은 MR 또는 VR 콘텐츠를 제시할 수 있다.
일부 실시예들에서, 하나 이상의 이미지 센서들(314)은 사용자의 눈들을 포함하는 사용자의 얼굴의 적어도 일부분에 대응하는 이미지 데이터를 획득하도록 구성된다(그리고 눈-추적 카메라로 지칭될 수 있음). 일부 실시예들에서, 하나 이상의 이미지 센서들(314)은 사용자의 손(들) 및 선택적으로 사용자의 팔(들)의 적어도 일부에 대응하는 이미지 데이터를 획득하도록 구성된다(그리고 손-추적 카메라로 지칭될 수 있음). 일부 실시예들에서, 하나 이상의 이미지 센서들(314)은, 디스플레이 생성 컴포넌트(120)(예를 들어, HMD)가 존재하지 않았다면 사용자가 봤을 장면에 대응하는 이미지 데이터를 획득하기 위해 전방-대면하도록 구성된다(그리고 이들은 장면 카메라로 지칭될 수 있다). 하나 이상의 선택적인 이미지 센서들(314)은 하나 이상의 RGB 카메라들(예를 들어, 상보성 금속-산화물-반도체(CMOS) 이미지 센서 또는 CCD(charge-coupled device) 이미지 센서를 가짐), 하나 이상의 적외선(IR) 카메라들, 하나 이상의 이벤트-기반 카메라들 등을 포함할 수 있다.
메모리(320)는 DRAM, SRAM, DDR RAM, 또는 다른 랜덤-액세스 솔리드-스테이트 메모리 디바이스들과 같은 고속 랜덤-액세스 메모리를 포함한다. 일부 실시예들에서, 메모리(320)는 하나 이상의 자기 디스크 저장 디바이스들, 광 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 또는 다른 비휘발성 솔리드-스테이트 저장 디바이스들과 같은 비휘발성 메모리를 포함한다. 메모리(320)는 선택적으로, 하나 이상의 프로세싱 유닛들(302)로부터 원격으로 위치된 하나 이상의 저장 디바이스들을 포함한다. 메모리(320)는 비일시적 컴퓨터 판독가능 저장 매체를 포함한다. 일부 실시예들에서, 메모리(320) 또는 메모리(320)의 비일시적 컴퓨터 판독가능 저장 매체는 다음의 프로그램들, 모듈들 및 데이터 구조들, 또는 선택적인 운영 체제(330) 및 XR 제시 모듈(340)을 포함하는 그들의 서브세트를 저장한다.
운영 체제(330)는 다양한 기본 시스템 서비스들을 처리하고 하드웨어 의존 태스크들을 수행하기 위한 명령어들을 포함한다. 일부 실시예들에서, XR 제시 모듈(340)은 하나 이상의 XR 디스플레이들(312)을 통해 XR 콘텐츠를 사용자에게 제시하도록 구성된다. 이를 위해, 다양한 실시예들에서, XR 제시 모듈(340)은 데이터 획득 유닛(342), XR 제시 유닛(344), XR 맵 생성 유닛(346), 및 데이터 송신 유닛(348)을 포함한다.
일부 실시예들에서, 데이터 획득 유닛(342)은 적어도 도 1의 제어기(110)로부터 데이터(예컨대, 제시 데이터, 상호작용 데이터, 센서 데이터, 위치 데이터 등)를 획득하도록 구성된다. 이를 위해, 다양한 실시예들에서, 데이터 획득 유닛(342)은 그에 대한 명령어들 및/또는 로직, 및 그에 대한 휴리스틱 및 메타데이터를 포함한다.
일부 실시예들에서, XR 제시 유닛(344)은 하나 이상의 XR 디스플레이들(312)을 통해 XR 콘텐츠를 제시하도록 구성된다. 이를 위해, 다양한 실시예들에서, XR 제시 유닛(344)은 그에 대한 명령어들 및/또는 로직, 및 그에 대한 휴리스틱 및 메타데이터를 포함한다.
일부 실시예들에서, XR 맵 생성 유닛(346)은 미디어 콘텐츠 데이터에 기초하여 XR 맵(예를 들어, 확장 현실을 생성하기 위해 컴퓨터 생성 객체들이 배치될 수 있는 혼합 현실 장면의 3D 맵 또는 물리적 환경의 맵)을 생성하도록 구성된다. 이를 위해, 다양한 실시예들에서, XR 맵 생성 유닛(346)은 그에 대한 명령어들 및/또는 로직, 및 그에 대한 휴리스틱 및 메타데이터를 포함한다.
일부 실시예들에서, 데이터 송신 유닛(348)은 적어도 제어기(110) 및 선택적으로, 입력 디바이스들(125), 출력 디바이스들(155), 센서들(190), 및/또는 주변 디바이스들(195) 중 하나 이상에 데이터(예를 들어, 제시 데이터, 위치 데이터 등)를 송신하도록 구성된다. 이를 위해, 다양한 실시예들에서, 데이터 송신 유닛(348)은 그에 대한 명령어들 및/또는 로직, 및 그에 대한 휴리스틱 및 메타데이터를 포함한다.
데이터 획득 유닛(342), XR 제시 유닛(344), XR 맵 생성 유닛(346), 및 데이터 송신 유닛(348)이 단일 디바이스(예컨대, 도 1의 디스플레이 생성 컴포넌트(120)) 상에 존재하는 것으로 도시되어 있지만, 다른 실시예들에서, 데이터 획득 유닛(342), XR 제시 유닛(344), XR 맵 생성 유닛(346), 및 데이터 송신 유닛(348)의 임의의 조합이 별개의 컴퓨팅 디바이스들 내에 위치될 수 있다는 것을 이해해야 한다.
게다가, 도 3은 본 명세서에 설명된 실시예들의 구조적 개략도와는 대조적으로 특정 구현예에 존재할 수 있는 다양한 특징부들의 기능 설명으로서 더 의도된다. 당업자들에 의해 인식되는 바와 같이, 별개로 도시된 아이템들은 조합될 수 있고 일부 아이템들은 분리될 수 있다. 예를 들어, 다양한 실시예들에서, 도 3에 별개로 도시된 일부 기능 모듈들은 단일 모듈로 구현될 수 있고, 단일 기능 블록들의 다양한 기능들은 하나 이상의 기능 블록들에 의해 구현될 수 있다. 모듈들의 실제 수량 및 특정 기능들의 분할 그리고 특징부들이 그들 사이에서 어떻게 할당되는지는 구현예들마다 다를 것이고, 일부 실시예들에서, 특정 구현예에 대해 선택된 하드웨어, 소프트웨어, 및/또는 펌웨어의 특정 조합에 부분적으로 의존한다.
도 4는 손 추적 디바이스(140)의 예시적인 실시예의 개략적인 그림 예시이다. 일부 실시예들에서, 손 추적 디바이스(140)(도 1)는 사용자의 손들의 하나 이상의 부분들의 포지션/위치 및/또는 도 1의 장면(105)에 대해(예를 들어, 사용자를 둘러싸는 물리적 환경의 일부에 대해, 디스플레이 생성 컴포넌트(120)에 대해, 또는 사용자의 일부(예를 들어, 사용자의 얼굴, 눈들, 또는 손)에 대해, 및/또는 사용자의 손에 대해 정의된 좌표계에 대해) 사용자의 손들의 하나 이상의 부분들의 모션들을 추적하기 위해 손 추적 유닛(244)(도 2)에 의해 제어된다. 일부 실시예들에서, 손 추적 디바이스(140)는 디스플레이 생성 컴포넌트(120)(예를 들어, 머리 장착형 디바이스에 내장되거나 그에 부착됨)의 일부이다. 일부 실시예들에서, 손 추적 디바이스(140)는 디스플레이 생성 컴포넌트(120)와 별개이다(예를 들어, 별개의 하우징들에 위치되거나 또는 별개의 물리적 지지 구조들에 부착됨).
일부 실시예들에서, 손 추적 디바이스(140)는 적어도 인간 사용자의 손(406)을 포함하는 3차원 장면 정보를 캡처하는 이미지 센서들(404)(예를 들어, 하나 이상의 IR 카메라들, 3D 카메라들, 깊이 카메라들 및/또는 컬러 카메라들 등)을 포함한다. 이미지 센서들(404)은 손가락들 및 이들 각자의 위치들이 구별될 수 있게 하기에 충분한 해상도로 손 이미지들을 캡처한다. 이미지 센서들(404)은 통상적으로, 또한 사용자의 신체의 다른 부분들, 또는 가능하게는 신체 전부의 이미지들을 캡처하고, 원하는 해상도로 손의 이미지들을 캡처하기 위한 향상된 배율을 갖는 전용 센서 또는 줌 능력들을 가질 수 있다. 일부 실시예들에서, 이미지 센서들(404)은 또한 손(406) 및 장면의 다른 요소들의 2D 컬러 비디오 이미지들을 캡처한다. 일부 실시예들에서, 이미지 센서들(404)은 장면(105)의 물리적 환경을 캡처하거나 또는 장면(105)의 물리적 환경들을 캡처하는 이미지 센서들의 역할을 하기 위해 다른 이미지 센서들과 함께 사용된다. 일부 실시예들에서, 이미지 센서들(404)은, 이미지 센서들에 의해 캡처된 손 이동이 제어기(110)로의 입력들로서 취급되는 상호작용 공간을 정의하기 위해 이미지 센서들의 시야 또는 그의 일부가 사용되는 방식으로 사용자 또는 사용자의 환경에 대해 위치설정된다.
일부 실시예들에서, 이미지 센서들(404)은 3D 맵 데이터(및 가능하게는 또한 컬러 이미지 데이터)를 포함하는 프레임들의 시퀀스를, 맵 데이터로부터 고레벨 정보를 추출하는 제어기(110)에 출력한다. 이러한 고레벨 정보는 통상적으로, 애플리케이션 프로그램 인터페이스(API)를 통해 제어기 상에서 실행되는 애플리케이션에 제공되며, 제어기는 그에 따라 디스플레이 생성 컴포넌트(120)를 구동시킨다. 예를 들어, 사용자는 자신의 손(406)을 이동시키고 자신의 손 자세를 변경함으로써 제어기(110) 상에서 실행되는 소프트웨어와 상호작용할 수 있다.
일부 실시예들에서, 이미지 센서들(404)은 손(406)을 포함하는 장면 상에 스폿들의 패턴을 투영하고 투영된 패턴의 이미지를 캡처한다. 일부 실시예들에서, 제어기(110)는 패턴 내의 스폿들의 횡방향 시프트들에 기초하여, 삼각측량에 의해 장면 내의 포인트들(사용자의 손의 표면 상의 포인트들을 포함함)의 3D 좌표들을 컴퓨팅한다. 이러한 접근법은 그것이 사용자가 임의의 종류의 비콘(beacon), 센서 또는 다른 마커를 유지하거나 착용할 것을 요구하지 않는다는 점에서 유리하다. 이는 이미지 센서들(404)로부터 특정 거리에서 미리결정된 기준 평면에 대한 장면 내의 포인트들의 깊이 좌표들을 제공한다. 본 개시내용에서, 이미지 센서들(404)은, 장면 내의 포인트들의 깊이 좌표들이 이미지 센서들에 의해 측정된 z 성분들에 대응하도록 x, y, z 축들의 직교 세트를 정의하는 것으로 가정된다. 대안적으로, 이미지 센서들(404)(예를 들어, 손 추적 디바이스)은 단일 또는 다수의 카메라들 또는 다른 유형들의 센서들에 기초하여, 입체 이미징 또는 비행 시간 측정들과 같은 다른 3D 맵핑 방법들을 사용할 수 있다.
일부 실시예들에서, 손 추적 디바이스(140)는 사용자의 손(예를 들어, 전체 손 또는 하나 이상의 손가락들)을 이동시키는 동안 사용자의 손을 포함하는 깊이 맵들의 시간적 시퀀스를 캡처 및 프로세싱한다. 이미지 센서들(404) 및/또는 제어기(110) 내의 프로세서 상에서 실행되는 소프트웨어는 이러한 깊이 맵들에서 손의 패치 디스크립터들을 추출하기 위해 3D 맵 데이터를 프로세싱한다. 소프트웨어는, 각각의 프레임에서 손의 포즈를 추정하기 위해, 이전 학습 프로세스에 기초하여, 데이터베이스(408)에 저장된 패치 디스크립터들에 이들 디스크립터들을 매칭한다. 포즈는 전형적으로 사용자의 손 관절들 및 손가락 팁들의 3D 위치들을 포함한다.
소프트웨어는 또한 제스처들을 식별하기 위해 시퀀스에서 다수의 프레임들에 걸친 손들 및/또는 손가락들의 궤적을 분석할 수 있다. 본 명세서에 설명된 포즈 추정 기능들은 모션 추적 기능들과 인터리빙될 수 있어서, 패치-기반 포즈 추정은 2개(또는 그 초과)의 프레임들마다 단 한번만 수행되는 한편, 나머지 프레임들에 걸쳐 발생하는 포즈의 변화들을 발견하기 위해 추적이 사용된다. 포즈, 모션 및 제스처 정보는 위에서 언급된 API를 통해 제어기(110) 상에서 실행되는 애플리케이션 프로그램에 제공된다. 이 프로그램은, 예를 들어, 포즈 및/또는 제스처 정보에 응답하여, 디스플레이 생성 컴포넌트(120) 상에 제시된 이미지들을 이동 및 수정하거나, 또는 다른 기능들을 수행할 수 있다.
일부 실시예들에서, 제스처는 에어 제스처를 포함한다. 에어 제스처는 디바이스(예를 들어, 컴퓨터 시스템(101), 하나 이상의 입력 디바이스(125) 및/또는 손 추적 디바이스(140))의 일부인 입력 요소를 사용자가 터치하지 않으면서(또는 이와 독립적으로) 검출되는 제스처이며, 사용자 신체의 다른 부분에 대한 절대적 기준(예를 들어, 지면에 대한 사용자의 팔의 각도 또는 지면에 대한 사용자의 손의 거리)에 대한 사용자의 신체의 모션(예를 들어, 사용자의 어깨에 대한 사용자의 손의 움직임, 사용자의 다른 손에 대한 사용자의 하나의 손의 움직임, 및/또는 사용자의 다른 손가락 또는 손의 일부에 대한 사용자의 손가락의 움직임), 및/또는 사용자의 신체의 일부의 절대적 모션(예를 들어, 미리결정된 양 및/또는 속도만큼 미리결정된 포즈에서 손의 움직임을 포함하는 탭 제스처, 또는 사용자의 신체의 일부의 미리결정된 회전 속도 또는 양을 포함하는 셰이크 제스처)을 포함하는 공중을 통한 사용자의 신체의 일부(예를 들어, 머리, 하나 이상의 팔들, 하나 이상의 손들, 하나 이상의 손가락들 및/또는 하나 이상의 다리들)의 검출된 모션에 기초한다.
일부 실시예들에서, 본 명세서에서 설명된 다양한 예들 및 실시예들에서 사용된 입력 제스처들은, 일부 실시예들에 따른, XR 환경(예를 들어, 가상 또는 혼합 현실 환경)과 상호작용하기 위해 다른 손가락(들)(또는 사용자의 손의 일부(들))에 대한 사용자의 손가락(들)의 움직임에 의해 수행되는 에어 제스처들을 포함한다. 일부 실시예들에서, 에어 제스처는, 사용자가 디바이스의 일부인 입력 요소를 터치하지 않으면서(또는 디바이스의 일부인 입력 요소와 독립적으로) 검출되고, 절대적 기준에 대한 사용자의 신체의 모션(예를 들어, 지면에 대한 사용자의 팔의 각도 또는 지면에 대한 사용자의 손의 거리), 사용자의 신체의, 사용자의 신체의 다른 부분에 대한 모션(예를 들어, 사용자의 손의 사용자의 어깨에 대한 이동, 사용자의 하나의 손의 사용자의 다른 손에 대한 이동, 및/또는 사용자의 손가락의 사용자의 손의 다른 손가락 또는 부분에 대한 이동), 및/또는 사용자의 신체의 일부분의 절대적 모션(예를 들어, 미리결정된 양 및/또는 속력만큼의 미리결정된 포즈의 손의 이동을 포함하는 탭 제스처, 또는 사용자의 신체의 일부분의 미리결정된 속력 또는 양의 회전을 포함하는 쉐이크 제스처)을 포함하는 에어를 통한 사용자의 신체의 일부분의 검출된 모션에 기초하는 제스처이다.
입력 제스처가 에어 제스처인 일부 실시예들에서(예를 들어, 터치스크린 상에 디스플레이된 사용자 인터페이스 요소와의 접촉 또는 사용자 인터페이스 요소에 대해 커서를 이동시키는 마우스 또는 트랙패드와의 접촉과 같이, 사용자 인터페이스 요소가 사용자 입력의 타깃인 것에 대한 정보를 컴퓨터 시스템에 제공하는 입력 디바이스와의 물리적 접촉의 부재 시에), 제스처는 (예를 들어, 아래에서 설명되는 바와 같은 직접 입력들에 대한) 사용자 입력의 타깃을 결정하기 위해 사용자의 주의(예를 들어, 시선)를 고려한다. 따라서, 에어 제스처들을 수반하는 구현들에서, 입력 제스처는, 예를 들어, 아래에서 더 상세히 설명되는 바와 같이, 핀치(pinch) 및/또는 탭 입력을 수행하기 위해 사용자의 손가락(들) 및/또는 손들의 움직임과 조합하여(예를 들어, 동시에) 사용자 인터페이스 요소를 향한 검출된 주의(예를 들어, 시선)이다.
일부 실시예들에서, 사용자 인터페이스 객체로 지향되는 입력 제스처들은 사용자 인터페이스 객체를 참조하여 간접적으로 또는 직접적으로 수행된다. 예를 들어, (예를 들어, 사용자의 현재 시점에 기초하여 결정되는 바와 같이) 3차원 환경에서 사용자 인터페이스 객체의 포지션에 대응하는 포지션에서 사용자의 손으로 입력 제스처를 수행하는 것에 따라 사용자 인터페이스 객체 상에서 직접 사용자 입력이 수행된다. 일부 실시예들에서, 사용자 인터페이스 객체 상에서 사용자의 주의(예를 들어, 시선)를 검출하면서 사용자의 손의 포지션이 3차원 환경에서 사용자 인터페이스 객체의 포지션에 대응하는 포지션에 있지 않은 동안 사용자가 입력 제스처를 수행하는 것에 따라 사용자 인터페이스 객체 상에서 간접적으로 입력 제스처가 수행된다. 예를 들어, 직접적인 입력 제스처의 경우, 사용자는, 사용자 인터페이스 객체의 디스플레이된 포지션에 대응하는 포지션에서 또는 그 근처에서(예를 들어, 옵션의 외측 에지 또는 옵션의 중심 부분으로부터 측정되는 바와 같이 0.5 cm, 1 cm, 5 cm, 또는 0 내지 5 cm의 거리 내에서) 제스처를 개시함으로써 사용자 인터페이스 객체로 사용자의 입력을 지향시키는 것이 가능하게 된다. 간접적인 입력 제스처의 경우, 사용자는 사용자 인터페이스 객체에 주의를 기울임으로써(예를 들어, 사용자 인터페이스 객체를 응시함으로써) 사용자의 입력을 사용자 인터페이스 객체로 지향시키는 것이 가능하게 되고, 옵션에 주의를 기울이는 동안, 사용자는 (예를 들어, 컴퓨터 시스템에 의해 검출가능한 임의의 포지션에서)(예를 들어, 사용자 인터페이스 객체의 디스플레이된 포지션에 대응하지 않는 포지션에서) 입력 제스처를 개시한다.
일부 실시예들에서, 본 명세서에서 설명된 다양한 예들 및 실시예들에서 사용된 입력 제스처들(예를 들어, 에어 제스처들)은 일부 실시예들에 따른, 가상 또는 혼합 현실 환경과 상호작용하기 위한 핀치 입력들 및 탭 입력들을 포함한다. 예를 들어, 아래에서 설명되는 핀치 입력들 및 탭 입력들은 에어 제스처들로서 수행된다.
일부 실시예들에서, 핀치 입력은 핀치 제스처, 롱 핀치 제스처, 핀치 및 드래그 제스처 또는 더블 핀치 제스처 중 하나 이상을 포함하는 에어 제스처의 일부이다. 예를 들어, 에어 제스처인 핀치 제스처는 서로 접촉하기 위한 손의 2개 이상의 손가락들의 움직임을 포함하고, 이는, 선택적으로, 즉각적인(예를 들어, 0 내지 1 초 이내에) 서로로부터의 접촉 해제가 후속된다. 에어 제스처인 롱 핀치 제스처는, 서로로부터의 접촉 해제를 검출하기 전에 적어도 임계 시간(예를 들어, 적어도 1 초) 동안 서로 접촉하기 위한 손의 2개 이상의 손가락들의 움직임을 포함한다. 예를 들어, 롱 핀치 제스처는 사용자가 핀치 제스처를 유지하는 것(예를 들어, 2개 이상의 손가락들이 접촉함)을 포함하고, 롱 핀치 제스처는 2개 이상의 손가락들 사이의 접촉 해제가 검출될 때까지 계속된다. 일부 실시예들에서, 에어 제스처인 더블 핀치 제스처는 서로 즉각적인(예를 들어, 미리정의된 기간 내인) 연속으로 검출되는 2개(예를 들어, 또는 그 이상)의 핀치 입력들(예를 들어, 동일한 손에 의해 수행됨)을 포함한다. 예컨대, 사용자는 제1 핀치 입력(예를 들어, 핀치 입력 또는 롱 핀치 입력)을 수행하고, 제1 핀치 입력을 해제하고(예를 들어, 2개 이상의 손가락들 사이의 접촉을 해제함), 제1 핀치 입력을 해제한 이후 미리정의된 시간 내에(예를 들어, 1초 이내 또는 2초 내에) 제2 핀치 입력을 수행한다.
일부 실시예들에서, 에어 제스처인 핀치 및 드래그 제스처는, 핀치 제스처(예를 들어, 핀치 제스처 또는 롱 핀치 제스처)를 포함하고, 이는 사용자의 손의 포지션을 제1 포지션(예를 들어, 드래그의 시작 포지션)으로부터 제2 포지션(예를 들어, 드래그의 종료 포지션)으로 변경하는 드래그 입력과 함께 수행된다(예를 들어, 그에 후속함). 일부 실시예들에서, 사용자는 드래그 입력을 수행하는 동안 핀치 제스처를 유지하고, (예를 들어, 제2 포지션에서) 드래그 제스처를 종료하기 위해 핀치 제스처를 해제한다(예를 들어, 자신의 2개 이상의 손가락들을 개방함). 일부 실시예들에서, 핀치 입력 및 드래그 입력은 동일한 손에 의해 수행된다(예를 들어, 사용자는 2개 이상의 손가락들을 핀칭하여 서로 접촉하게 하고, 드래그 제스처를 이용하여 동일한 손을 공중에서 제2 포지션으로 이동시킨다). 일부 실시예들에서, 핀치 입력은 사용자의 제1 손에 의해 수행되고 드래그 입력은 사용자의 제2 손에 의해 수행된다(예를 들어, 사용자의 제2 손이 공중에서 제1 포지션으로부터 제2 포지션으로 이동하는 동안 사용자는 사용자의 제1 손으로 핀치 입력을 계속한다). 일부 실시예들에서, 에어 제스처인 입력 제스처는 사용자의 두 손들 둘 모두를 사용하여 수행되는 입력들(예를 들어, 핀치 및/또는 탭핑 입력들)을 포함한다. 예컨대, 입력 제스처는 서로 함께(예를 들어, 동시에 또는 미리정의된 기간 내에) 수행되는 2개(예를 들어, 그 이상)의 핀치 입력들을 포함한다. 예를 들어, 제1 핀치 제스처는 사용자의 제1 손을 사용하여 수행되고(예를 들어, 핀치 입력, 롱 핀치 입력 또는 핀치 및 드래그 입력), 제1 손을 사용하여 핀치 입력을 수행하는 것과 관련하여, 다른 손(예를 들어, 사용자의 두 손들 중 두 번째 손)을 사용하는 제2 핀치 입력을 수행한다. 일부 실시예들에서, 사용자의 두 손들 사이의 움직임은 (예를 들어, 사용자의 두 손들 사이의 거리 또는 상대적인 배향을 증가 및/또는 감소시키기 위한 것이다).
일부 실시예들에서, 에어 제스처로서 수행되는 (예를 들어, 사용자 인터페이스 요소로 지향되는) 탭 입력은 사용자 인터페이스 요소를 향한 사용자의 손가락(들)의 움직임, 선택적으로 사용자 인터페이스 요소를 향해 연장된 사용자의 손가락(들)과 함께 사용자 인터페이스 요소를 향한 사용자의 손의 움직임, 사용자의 손가락의 하향 모션(예를 들어, 터치스크린 상의 마우스 클릭 모션 또는 탭을 모방함), 또는 사용자의 손의 다른 미리정의된 움직임을 포함한다. 일부 실시예들에서, 에어 제스처로서 수행되는 탭 입력은 사용자의 시점으로부터 멀어지게 그리고/또는 탭 입력의 타깃인 객체를 향해 손가락 또는 손의 탭 제스처 움직임을 수행하는 손가락 또는 손과 후속되는 움직임의 종료의 움직임 특성들에 기초하여 검출된다. 일부 실시예들에서, 움직임의 종료는 탭 제스처를 수행하는 손가락 또는 손의 움직임 특징들의 변화(예를 들어, 사용자의 시점으로부터 멀어지는 그리고/또는 탭 입력의 타깃인 객체를 향한 움직임의 종료, 손가락 또는 손의 움직임의 방향의 반전, 및/또는 손가락 또는 손의 움직임의 가속의 방향의 반전)에 기초하여 검출된다.
일부 실시예들에서, 사용자의 주의는 (선택적으로는 다른 조건들을 요구하지 않으면서) 3차원 환경의 일부로 지향되는 시선의 검출에 기초하여 3차원 환경의 일부로 지향되는 것으로 결정된다. 일부 실시예들에서, 사용자의 주의는, 시선이 적어도 임계 지속기간(예컨대, 체류(dwell) 지속기간) 동안 3차원 환경의 일부로 지향되는 것을 요구하는 것 및/또는 사용자의 주의가 3차원 환경의 일부로 지향된다고 디바이스가 결정하기 위해 사용자의 시점이 3차원 환경의 일부로부터 거리 임계치 내에 있는 동안 시선이 3차원 환경의 일부로 지향되는 것을 요구하는 것과 같은 하나 이상의 부가적인 조건들과 함께, 3차원 환경의 일부로 지향되는 시선의 검출에 기초하여 3차원 환경의 일부로 지향되는 것으로 결정되며, 여기서 부가적인 조건들 중 하나가 충족되지 않으면, 디바이스는 (예를 들어, 하나 이상의 부가적인 조건들이 충족될 때까지) 시선이 지향되는 3차원 환경의 일부로 주의가 지향되지 않는다고 결정한다.
일부 실시예들에서, 사용자 또는 사용자의 일부의 준비 상태 구성의 검출은 컴퓨터 시스템에 의해 검출된다. 손의 준비 상태 구성의 검출은 사용자가 손에 의해 수행된 하나 이상의 에어 제스처 입력들(예를 들어, 핀치, 탭, 핀치 및 드래그, 더블 핀치, 롱 핀치, 또는 본 명세서에 설명된 다른 에어 제스처)을 사용하여 컴퓨터 시스템과 상호작용하도록 준비할 가능성이 있다는 표시로서 컴퓨터 시스템에 의해 사용된다. 예를 들어, 손이 미리결정된 손 형상(예를 들어, 엄지 및 하나 이상의 손가락들이 핀치 또는 파지(grab) 제스처를 만들 준비가 되게 펼쳐지고 간격을 두고 있는 사전-핀치 형상 또는 하나 이상의 손가락들이 펼쳐지고 손바닥이 사용자로부터 멀어지는 쪽을 향하는 사전-탭)을 갖는지 여부에 기초하여, 손이 사용자의 시점에 대해 미리결정된 포지션(예를 들어, 사용자의 머리 아래 그리고 사용자의 허리 위, 및 적어도 15, 20, 25, 30, 또는 50 cm만큼 신체로부터 펼쳐짐)에 있는지 여부에 기초하여, 그리고/또는 손이 특정 방식으로 이동되는지(예를 들어, 사용자의 허리 위 그리고 사용자의 머리 아래로 사용자의 정면의 구역을 향해 이동되는지 또는 사용자의 신체 또는 다리로부터 멀어지게 이동되는지) 여부에 기초하여, 손의 준비 상태가 결정된다. 일부 실시예들에서, 준비 상태는 사용자 인터페이스의 상호작용 요소들이 주의(예를 들어, 시선) 입력들에 응답하는지 여부를 결정하는 데 사용된다.
일부 실시예들에서, 소프트웨어는, 예를 들어 네트워크를 통해 전자적 형태로 제어기(110)에 다운로드될 수 있거나, 또는 그것은 대안적으로는 광학, 자기, 또는 전자 메모리 매체들과 같은 유형적인 비일시적 매체들 상에 제공될 수 있다. 일부 실시예들에서, 데이터베이스(408)는 마찬가지로 제어기(110)와 연관된 메모리에 저장된다. 대안적으로 또는 추가적으로, 컴퓨터의 설명된 기능들 중 일부 또는 전부는 주문형 또는 반-주문형 집적회로 또는 프로그래밍가능 디지털 신호 프로세서(DSP)와 같은 전용 하드웨어로 구현될 수 있다. 제어기(110)가 예시적으로 이미지 센서들(404)과 별개의 유닛으로서 도 4에 도시되지만, 제어기의 프로세싱 기능들의 일부 또는 전부는 적합한 마이크로프로세서 및 소프트웨어에 의해, 또는 이미지 센서들(404)(예를 들어, 손 추적 디바이스)의 하우징 내의 또는 달리 이미지 센서들(404)과 관련된 전용 회로부에 의해 수행될 수 있다. 일부 실시예들에서, 이들 프로세싱 기능들의 적어도 일부가 (예를 들어, 텔레비전 세트, 핸드헬드 디바이스, 또는 머리 장착형 디바이스 내의) 디스플레이 생성 컴포넌트(120) 또는 게임 콘솔 또는 미디어 플레이어와 같은, 임의의 다른 적합한 컴퓨터화된 디바이스와 통합된 적합한 프로세서에 의해 수행될 수 있다. 이미지 센서들(404)의 감지 기능들은 센서 출력에 의해 제어될 컴퓨터 또는 다른 컴퓨터화된 장치 내에 마찬가지로 통합될 수 있다.
도 4는 일부 실시예들에 따른, 이미지 센서들(404)에 의해 캡처된 깊이 맵(410)의 개략적인 표현을 더 포함한다. 위에서 설명된 바와 같이, 깊이 맵은 각자의 깊이 값들을 갖는 픽셀들의 행렬을 포함한다. 손(406)에 대응하는 픽셀들(412)은 이 맵에서 배경 및 손목으로부터 분할되었다. 깊이 맵(410) 내의 각각의 픽셀의 밝기는 그의 깊이 값, 즉, 이미지 센서들(404)로부터 측정된 z 거리에 역으로 대응하며, 회색 음영은 깊이가 증가함에 따라 더 어두워진다. 제어기(110)는 인간 손의 특성들을 갖는 이미지의 컴포넌트(즉, 이웃 픽셀들의 그룹)를 식별 및 분할하기 위해 이러한 깊이 값들을 프로세싱한다. 이러한 특성들은, 예를 들어, 깊이 맵들의 시퀀스의 프레임마다 전체 크기, 형상 및 모션을 포함할 수 있다.
도 4는 또한, 일부 실시예들에 따른, 제어기(110)가 궁극적으로 손(406)의 깊이 맵(410)으로부터 추출하는 손 골격(414)을 개략적으로 예시한다. 도 4에서, 손 골격(414)은 오리지널 깊이 맵으로부터 분할된 손 배경(416) 상에 중첩된다. 일부 실시예들에서, 손(예를 들어, 너클들, 손가락 팁들, 손바닥의 중심, 손목에 연결되는 손의 단부 등에 대응하는 포인트들) 및 선택적으로, 손에 연결된 손목 또는 팔 상의 핵심 특징 포인트들이 손 골격(414) 상에 식별 및 위치된다. 일부 실시예들에서, 다수의 이미지 프레임들에 걸친 이러한 핵심 특징 포인트들의 위치 및 이동들은, 일부 실시예들에 따라, 손에 의해 수행되는 손 제스처들 또는 손의 현재 상태를 결정하기 위해 제어기(110)에 의해 사용된다.
도 5는 눈 추적 디바이스(130)(도 1)의 예시적인 실시예를 예시한다. 일부 실시예들에서, 눈 추적 디바이스(130)는 장면(105)에 대한 또는 디스플레이 생성 컴포넌트(120)를 통해 디스플레이된 XR 콘텐츠에 대한 사용자의 시선의 위치 및 이동을 추적하기 위해 눈 추적 유닛(243)(도 2)에 의해 제어된다. 일부 실시예들에서, 눈 추적 디바이스(130)는 디스플레이 생성 컴포넌트(120)와 통합된다. 예를 들어, 일부 실시예들에서, 디스플레이 생성 컴포넌트(120)가 머리 장착형 디바이스, 예를 들어, 헤드셋, 헬멧, 고글, 또는 안경, 또는 웨어러블 프레임에 배치된 핸드헬드 디바이스일 때, 머리 장착형 디바이스는 사용자가 보기 위한 XR 콘텐츠를 생성하는 컴포넌트 및 XR 콘텐츠에 대한 사용자의 시선을 추적하기 위한 컴포넌트 둘 모두를 포함한다. 일부 실시예들에서, 눈 추적 디바이스(130)는 디스플레이 생성 컴포넌트(120)와 별개이다. 예를 들어, 디스플레이 생성 컴포넌트가 핸드헬드 디바이스 또는 XR 챔버일 때, 눈 추적 디바이스(130)는 선택적으로 핸드헬드 디바이스 또는 XR 챔버와 별개의 디바이스이다. 일부 실시예들에서, 눈 추적 디바이스(130)는 머리 장착형 디바이스 또는 머리 장착형 디바이스의 일부이다. 일부 실시예들에서, 머리 장착형 눈 추적 디바이스(130)는 선택적으로, 또한 머리 장착된 디스플레이 생성 컴포넌트 또는 머리 장착되지 않은 디스플레이 생성 컴포넌트와 함께 사용된다. 일부 실시예들에서, 눈 추적 디바이스(130)는 머리 장착형 디바이스가 아니며, 선택적으로 머리 장착형 디스플레이 생성 컴포넌트와 함께 사용된다. 일부 실시예들에서, 눈 추적 디바이스(130)는 머리 장착형 디바이스가 아니며, 선택적으로 머리 장착되지 않은 디스플레이 생성 컴포넌트의 일부이다.
일부 실시예들에서, 디스플레이 생성 컴포넌트(120)는 사용자의 눈들 전방에서 좌측 및 우측 이미지들을 포함하는 프레임들을 디스플레이하기 위한 디스플레이 메커니즘(예를 들어, 좌측 및 우측 근안 디스플레이 패널들)을 사용하여 3D 가상 뷰들을 사용자에게 제공한다. 예를 들어, 머리 장착형 디스플레이 생성 컴포넌트는 디스플레이와 사용자의 눈들 사이에 위치된 좌측 및 우측 광학 렌즈들(본 명세서에서 눈 렌즈들로 지칭됨)을 포함할 수 있다. 일부 실시예들에서, 디스플레이 생성 컴포넌트는 디스플레이를 위해 사용자의 환경의 비디오를 캡처하는 하나 이상의 외부 비디오 카메라들을 포함하거나 그에 결합될 수 있다. 일부 실시예들에서, 머리 장착형 디스플레이 생성 컴포넌트는 사용자가 물리적 환경을 직접 보고 투명 또는 반투명 디스플레이 상에 가상 객체들을 디스플레이할 수 있게 하는 투명 또는 반투명 디스플레이를 가질 수 있다. 일부 실시예들에서, 디스플레이 생성 컴포넌트는 가상 객체들을 물리적 환경에 투영한다. 가상 객체들은, 예를 들어, 물리적 표면 상에 또는 홀로그래프로서 투영되어, 개인이 시스템을 사용하여, 물리적 환경 상에 중첩된 가상 객체들을 관찰하게 할 수 있다. 그러한 경우들에서, 좌측 및 우측 눈들에 대한 별개의 디스플레이 패널들 및 이미지 프레임들이 필요하지 않을 수 있다.
도 5에 도시된 바와 같이, 일부 실시예들에서, 눈 추적 디바이스(130)(예를 들어, 시선 추적 디바이스)는 적어도 하나의 눈 추적 카메라(예를 들어, 적외선(IR) 또는 NIR(near-IR) 카메라들), 및 사용자의 눈들을 향하여 광(예를 들어, IR 또는 NIR 광)을 방출하는 조명원들(예를 들어, LED들의 어레이 또는 링과 같은 IR 또는 NIR 광원들)을 포함한다. 눈 추적 카메라들은 눈들로부터 직접적으로 광원들로부터 반사된 IR 또는 NIR 광을 수신하기 위해 사용자의 눈들을 향해 지향될 수 있거나, 또는 대안적으로, 가시광이 통과할 수 있게 하면서 눈들로부터 눈 추적 카메라들로 IR 또는 NIR 광을 반사하는 디스플레이 패널들과 사용자의 눈들 사이에 위치된 "핫" 미러들을 향해 지향될 수 있다. 눈 추적 디바이스(130)는 선택적으로 사용자의 눈들의 이미지들을 (예를 들어, 60-120 fps(frames per second)로 캡처된 비디오 스트림으로서) 캡처하고, 이미지들을 분석하여 시선 추적 정보를 생성하고, 시선 추적 정보를 제어기(110)에 통신한다. 일부 실시예들에서, 사용자의 2개의 눈들은 각자의 눈 추적 카메라들 및 조명원들에 의해 개별적으로 추적된다. 일부 실시예들에서, 사용자의 오직 하나의 눈만이 각자의 눈 추적 카메라 및 조명원들에 의해 추적된다.
일부 실시예들에서, 눈 추적 디바이스(130)는, 특정 동작 환경(100)에 대한 눈 추적 디바이스의 파라미터들, 예를 들어 LED들, 카메라들, 핫 미러들(존재하는 경우), 눈 렌즈들 및 디스플레이 스크린의 3D 기하학적 관계 및 파라미터들을 결정하기 위해 디바이스-특정 교정 프로세스를 사용하여 교정된다. 디바이스-특정 교정 프로세스는 AR/VR 장비를 최종 사용자에게 전달하기 전에 공장 또는 다른 설비에서 수행될 수 있다. 디바이스-특정 교정 프로세스는 자동화된 교정 프로세스 또는 수동 교정 프로세스일 수 있다. 사용자-특정 교정 프로세스는 특정 사용자의 눈 파라미터들, 예를 들어 동공 위치, 중심와 위치, 광학 축, 시각 축, 눈 간격 등의 추정을 포함할 수 있다. 디바이스-특정 및 사용자-특정 파라미터들이 눈 추적 디바이스(130)에 대해 결정되면, 일부 실시예들에 따라, 눈 추적 카메라들에 의해 캡처된 이미지들은 디스플레이에 대한 사용자의 현재의 시각 축 및 시선 포인트를 결정하기 위해 글린트-보조 방법을 사용하여 프로세싱될 수 있다.
도 5에 도시된 바와 같이, 눈 추적 디바이스(130)(예를 들어, 130A 또는 130B)는 눈 렌즈(들)(520), 및 눈 추적이 수행되는 사용자의 얼굴의 측부 상에 위치설정된 적어도 하나의 눈 추적 카메라(540)(예를 들어, 적외선(IR) 또는 NIR(near-IR) 카메라들)를 포함하는 시선 추적 시스템, 및 사용자의 눈(들)(592)을 향해 광(예를 들어, IR 또는 NIR 광)을 방출하는 조명원(530)(예를 들어, NIR 발광 다이오드(LED)들의 어레이 또는 링과 같은 IR 또는 NIR 광원들)을 포함한다. 눈 추적 카메라들(540)은 (예를 들어, 도 5의 상단 부분에 도시된 바와 같이) 가시광이 통과하게 허용하면서 눈(들)(592)으로부터 IR 또는 NIR 광을 반사하는 디스플레이(510)(예를 들어, 머리 장착형 디스플레이의 좌측 또는 우측 디스플레이 패널, 또는 핸드헬드 디바이스의 디스플레이, 프로젝터 등)와 사용자의 눈(들)(592) 사이에 위치된 미러들(550) 쪽으로 지향될 수 있거나 또는 (예를 들어, 도 5의 하단 부분에 도시된 바와 같이) 눈(들)(592)으로부터 반사된 IR 또는 NIR 광을 수신하기 위해 사용자의 눈(들)(592)을 향해 지향될 수 있다.
일부 실시예들에서, 제어기(110)는 AR 또는 VR 프레임들(562)(예를 들어, 좌측 및 우측 디스플레이 패널들에 대한 좌측 및 우측 프레임들)을 렌더링하고, 프레임들(562)을 디스플레이(510)에 제공한다. 제어기(110)는, 예를 들어 디스플레이를 위해 프레임들(562)을 프로세싱할 때, 다양한 목적들을 위해 눈 추적 카메라들(540)로부터의 시선 추적 입력(542)을 사용한다. 제어기(110)는 선택적으로, 글린트-보조 방법들 또는 다른 적합한 방법들을 사용하여 눈 추적 카메라들(540)로부터 획득된 시선 추적 입력(542)에 기초하여 디스플레이(510) 상의 사용자의 시선 포인트를 추정한다. 시선 추적 입력(542)으로부터 추정된 시선의 포인트는 선택적으로, 사용자가 현재 보고 있는 방향을 결정하는 데 사용된다.
다음은 사용자의 현재 시선 방향에 대한 몇몇 가능한 사용 사례들을 설명하며, 제한하려는 의도가 아니다. 예시적인 사용 사례로서, 제어기(110)는 사용자의 시선의 결정된 방향에 기초하여 가상 콘텐츠를 상이하게 렌더링할 수 있다. 예를 들어, 제어기(110)는 주변 영역들에서보다 사용자의 현재 시선 방향으로부터 결정된 중심와 구역에서 더 높은 해상도로 가상 콘텐츠를 생성할 수 있다. 다른 예로서, 제어기는 사용자의 현재 시선 방향에 적어도 부분적으로 기초하여 뷰에서 가상 콘텐츠를 위치설정하거나 이동시킬 수 있다. 다른 예로서, 제어기는 사용자의 현재 시선 방향에 적어도 부분적으로 기초하여 뷰에서 특정 가상 콘텐츠를 디스플레이할 수 있다. AR 애플리케이션들에서의 다른 예시적인 사용 사례로서, 제어기(110)는 결정된 방향으로 포커싱하도록 XR 경험의 물리적 환경들을 캡처하기 위한 외부 카메라들에 지시할 수 있다. 이어서, 외부 카메라들의 자동 초점 메커니즘은 사용자가 현재 디스플레이(510) 상에서 보고 있는 환경 내의 객체 또는 표면에 포커싱할 수 있다. 다른 예시적인 사용 사례로서, 눈 렌즈들(520)은 포커싱가능한 렌즈들일 수 있고, 시선 추적 정보는, 사용자가 현재 보고 있는 가상 객체가 사용자의 눈들(592)의 수렴에 매칭하기 위해 적절한 버전스(vergence)를 갖도록 눈 렌즈들(520)의 초점을 조정하기 위해 제어기에 의해 사용된다. 제어기(110)는, 사용자가 보고 있는 가까운 객체들이 올바른 거리에 나타나게 초점을 조정하도록 눈 렌즈들(520)을 지향시키기 위해 시선 추적 정보를 레버리지할 수 있다.
일부 실시예들에서, 눈 추적 디바이스는 디스플레이(예를 들어, 디스플레이(510)), 2개의 눈 렌즈들(예를 들어, 눈 렌즈(들)(520)), 눈 추적 카메라들(예를 들어, 눈 추적 카메라(들)(540)) 및 웨어러블 하우징에 장착된 광원들(예를 들어, 광원들(530)(예를 들어, IR 또는 NIR LED들))을 포함하는 머리 장착형 디바이스의 일부이다. 광원들은 광(예를 들어, IR 또는 NIR 광)을 사용자의 눈(들)(592)을 향해 방출한다. 일부 실시예들에서, 광원들은 도 5에 도시된 바와 같이 렌즈들 각각 주위에 링들 또는 원들로 배열될 수 있다. 일부 실시예들에서, 8개의 광원들(530)(예를 들어, LED들)이 예로서 각각의 렌즈(520) 주위에 배열된다. 그러나, 더 많거나 또는 더 적은 광원들(530)이 사용될 수 있고, 광원들(530)의 다른 배열들 및 위치들이 사용될 수 있다.
일부 실시예들에서, 디스플레이(510)는 가시광 범위에서 광을 방출하고, IR 또는 NIR 범위에서 광을 방출하지 않아서, 시선 추적 시스템에 노이즈를 도입시키지 않는다. 눈 추적 카메라(들)(540)의 위치 및 각도는 예로서 주어진 것이며, 제한하려는 의도가 아님에 유의한다. 일부 실시예들에서, 단일 눈 추적 카메라(540)는 사용자의 얼굴의 각각의 측부 상에 위치된다. 일부 실시예들에서, 2개 이상의 NIR 카메라들(540)이 사용자의 얼굴의 각각의 측부 상에서 사용될 수 있다. 일부 실시예들에서, 더 넓은 시야(FOV)를 갖는 카메라(540) 및 더 좁은 FOV를 갖는 카메라(540)가 사용자의 얼굴의 각각의 측부 상에서 사용될 수 있다. 일부 실시예들에서, 하나의 파장(예를 들어, 850 nm)에서 동작하는 카메라(540) 및 상이한 파장(예를 들어, 940 nm)에서 동작하는 카메라(540)가 사용자의 얼굴의 각각의 측부 상에서 사용될 수 있다.
도 5에 예시된 바와 같은 시선 추적 시스템의 실시예들은, 예를 들어, 컴퓨터 생성 현실, 가상 현실, 증강 현실 및/또는 증강 가상 경험들을 사용자에게 제공하기 위해 컴퓨터 생성 현실, 가상 현실 및/또는 혼합 현실 애플리케이션들에서 사용될 수 있다.
도 6은 일부 실시예들에 따른 글린트-보조 시선 추적 파이프라인을 예시한다. 일부 실시예들에서, 시선 추적 파이프라인은 글린트-보조 시선 추적 시스템(예를 들어, 도 1 및 도 5에 예시된 바와 같은 눈 추적 디바이스(130))에 의해 구현된다. 글린트-보조 시선 추적 시스템은 추적 상태를 유지할 수 있다. 초기에, 추적 상태는 오프 또는 "아니오"이다. 추적 상태에 있을 때, 글린트-보조 시선 추적 시스템은 현재 프레임에서 동공 윤곽 및 글린트를 추적하기 위해 현재 프레임을 분석할 때 이전 프레임으로부터의 이전 정보를 사용한다. 추적 상태에 있지 않을 때, 글린트-보조 시선 추적 시스템은 현재 프레임에서 동공 및 글린트를 검출하려고 시도하고, 성공적인 경우, 추적 상태를 "예"로 초기화하고, 추적 상태에서 다음 프레임으로 계속된다.
도 6에 도시된 바와 같이, 시선 추적 카메라들은 사용자의 좌측 및 우측 눈들의 좌측 및 우측 이미지들을 캡처할 수 있다. 이어서, 캡처된 이미지들은 610에서 시작하는 프로세싱을 위해 시선 추적 파이프라인에 입력된다. 요소(600)로 돌아가는 화살표에 의해 표시된 바와 같이, 시선 추적 시스템은, 예를 들어 초당 60 내지 120 프레임의 레이트로 사용자의 눈들의 이미지들을 캡처하는 것을 계속할 수 있다. 일부 실시예들에서, 캡처된 이미지들의 각각의 세트는 프로세싱을 위해 파이프라인에 입력될 수 있다. 그러나, 일부 실시예들에서 또는 일부 조건들 하에서, 캡처된 모든 프레임들이 파이프라인에 의해 프로세싱되는 것은 아니다.
610에서, 현재 캡처된 이미지들에 대해, 추적 상태가 예이면, 방법은 요소(640)로 진행한다. 610에서, 추적 상태가 아니오이면, 620에서 표시된 바와 같이, 이미지들에서 사용자의 동공들 및 글린트들을 검출하기 위해 이미지들이 분석된다. 630에서, 동공들 및 글린트들이 성공적으로 검출되면, 방법은 요소(640)로 진행한다. 그렇지 않으면, 방법은 사용자의 눈들의 다음 이미지들을 프로세싱하기 위해 요소(610)로 복귀한다.
640에서, 요소(610)로부터 진행하면, 이전 프레임들로부터의 이전 정보에 부분적으로 기초하여 동공들 및 글린트들을 추적하기 위해 현재 프레임들이 분석된다. 640에서, 요소(630)로부터 진행하면, 추적 상태는 현재 프레임들에서 검출된 동공들 및 글린트들에 기초하여 초기화된다. 요소(640)에서의 프로세싱의 결과들은 추적 또는 검출의 결과들이 신뢰할 수 있음을 검증하기 위해 체크된다. 예를 들어, 동공 및 시선 추정을 수행하기에 충분한 수의 글린트들이 현재 프레임들에서 성공적으로 추적되거나 검출되는지를 결정하기 위해 결과들이 체크될 수 있다. 650에서, 결과들이 신뢰될 수 없다면, 요소(660)에서 추적 상태는 아니오로 설정되고, 방법은 사용자의 눈들의 다음 이미지들을 프로세싱하기 위해 요소(610)로 리턴한다. 650에서, 결과들이 신뢰되면, 방법은 요소(670)로 진행한다. 670에서, 추적 상태는 (이미 예가 아니라면) 예로 설정되고, 동공 및 글린트 정보는 사용자의 시선 포인트를 추정하기 위해 요소(680)에 전달된다.
도 6은 특정 구현에서 사용될 수 있는 눈 추적 기술의 일 예로서의 역할을 하도록 의도된다. 당업자들에 의해 인식되는 바와 같이, 현재 존재하거나 미래에 개발될 다른 눈 추적 기술들은, 다양한 실시예들에 따라, 사용자들에게 XR 경험들을 제공하기 위해 컴퓨터 시스템(101)에서 본 명세서에 설명된 글린트-보조 눈 추적 기술 대신에 또는 그와 조합하여 사용될 수 있다.
본 개시내용에서, 컴퓨터 시스템과의 상호작용들과 관련하여 다양한 입력 방법들이 설명된다. 하나의 입력 디바이스 또는 입력 방법을 사용하여 일 예가 제공되고 다른 입력 디바이스 또는 입력 방법을 사용하여 다른 예가 제공되는 경우, 각각의 예는 다른 예와 관련하여 설명된 입력 디바이스 또는 입력 방법과 호환가능할 수 있고 선택적으로 이를 활용한다는 것을 이해해야 한다. 유사하게, 컴퓨터 시스템과의 상호작용들과 관련하여 다양한 출력 방법들이 설명된다. 하나의 출력 디바이스 또는 출력 방법을 사용하여 일 예가 제공되고 다른 출력 디바이스 또는 출력 방법을 사용하여 다른 예가 제공되는 경우, 각각의 예는 다른 예와 관련하여 설명된 출력 디바이스 또는 출력 방법과 호환가능할 수 있고 선택적으로 이를 활용한다는 것을 이해해야 한다. 유사하게, 컴퓨터 시스템을 통한 가상 환경 또는 혼합 현실 환경과의 상호작용들과 관련하여 다양한 방법들이 설명된다. 가상 환경과의 상호작용들을 사용하여 일 예가 제공되고 혼합 현실 환경을 사용하여 다른 예가 제공되는 경우, 각각의 예는 다른 예와 관련하여 설명된 방법들과 호환가능할 수 있고 선택적으로 이를 활용한다는 것을 이해해야 한다. 따라서, 본 개시내용은, 각각의 예시적인 실시예의 설명에서 실시예의 모든 특징들을 철저히 열거하지 않으면서 다수의 예들의 특징들의 조합들인 실시예들을 개시한다.
사용자 인터페이스들 및 연관된 프로세스들
이제, 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템, 예컨대 휴대용 다기능 디바이스 또는 머리 장착형 디바이스 상에서 구현될 수 있는 사용자 인터페이스(user interface, "UI")들 및 연관된 프로세스들의 실시예들에 대해 주목한다.
도 7a 내지 도 7n은 일부 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하기 위한 예시적인 기법들을 예시한다. 도 8 내지 도 10은 각각 미디어 아이템들 및 사용자 인터페이스들과 상호작용하기 위한 예시적인 방법들(800, 900, 1000)의 흐름도들이다. 도 7a 내지 도 7n의 사용자 인터페이스들은 도 8 내지 도 10의 프로세스들을 포함하여 아래에 설명되는 프로세스들을 예시하기 위해 사용된다.
도 7a는 디스플레이 디바이스(예컨대, 터치 감응형 디스플레이)(702) 및 하나 이상의 입력 센서들(715)(예컨대, 하나 이상의 카메라들, 눈 시선 추적기들, 손 이동 추적기들, 및/또는 머리 이동 추적기들)을 포함하는 태블릿인 컴퓨터 시스템(700)을 도시한다. 후술되는 일부 실시예들에서, 컴퓨터 시스템(700)은 태블릿이다. 일부 실시예들에서, 컴퓨터 시스템(700)은 스마트폰, 웨어러블 디바이스, 웨어러블 스마트워치 디바이스, 머리 장착형 시스템(예컨대, 헤드셋), 또는 디스플레이 디바이스(예컨대, 디스플레이 스크린, 프로젝션 디바이스 등)를 포함하고/하거나 그와 통신하는 다른 컴퓨터 시스템이다. 컴퓨터 시스템(700)은 컴퓨터 시스템(예컨대, 도 1의 컴퓨터 시스템(101))이다.
도 7a에서, 컴퓨터 시스템(700)은, 디스플레이 디바이스(예컨대, 터치 감응형 디스플레이 또는 HMD의 디스플레이)(702)를 통해, 미디어 윈도우(704) 및 3차원 환경(706)을 디스플레이한다. 일부 실시예들에서, 3차원 환경(706)은 디스플레이에 의해 디스플레이된다(도 7a에 도시된 바와 같음). 일부 실시예들에서, 3차원 환경(706)은 하나 이상의 카메라들에 의해 캡처된 물리적 환경의 가상 환경 또는 이미지(또는 비디오)이다. 일부 실시예들에서, 3차원 환경(706)은 미디어 윈도우(704) 후방의 사용자에게 가시적이지만, 디스플레이에 의해 디스플레이되지 않는다. 예를 들어, 일부 실시예들에서, 3차원 환경(706)은 디스플레이에 의해 디스플레이되지 않고서 미디어 윈도우(704) 후방의 사용자에게 (예컨대, 투명 디스플레이를 통해) 가시적인 물리적 환경이다.
도 7a에서, 전자기기(700)는, 미디어 윈도우(704) 내에, 미디어 라이브러리 사용자 인터페이스(708)를 디스플레이한다. 미디어 라이브러리 사용자 인터페이스(708)는 복수의 미디어 아이템들(710A 내지 710E)의 표현들을 포함한다. 일부 실시예들에서, 복수의 미디어 아이템들은 사진들 및/또는 비디오들(예컨대, 입체 사진들 및/또는 비디오들 및/또는 비입체 사진들 및/또는 비디오들)을 포함한다. 일부 실시예들에서, 복수의 미디어 아이템들은 미디어 라이브러리(예컨대, 디바이스(700)의 사용자 및/또는 디바이스(700)와 연관된 미디어 라이브러리)로부터의 복수의 미디어 아이템들 및/또는 미디어 아이템들의 서브세트를 포함한다. 일부 실시예들에서, 복수의 미디어 아이템들(710A 내지 710E)은 하나 이상의 입체 미디어 아이템들(예컨대, 입체 사진들 및/또는 입체 비디오들) 및 하나 이상의 비입체 미디어 아이템들(예컨대, 비입체 사진들 및/또는 비입체 비디오들)을 포함한다. 일부 실시예들에서, 입체 미디어 아이템이 특정 유형의 깊이 정보를 포함하는 한편, 비입체 미디어 아이템은 특정 유형의 깊이 정보를 포함하지 않는다. 일부 실시예들에서, 입체 미디어 아이템은 2개의 상이한 카메라들(또는 카메라들의 2개의 상이한 세트들)을 사용하여 동일한 시간에 캡처되는 적어도 2개의 이미지들을 포함하는 미디어 아이템이다. 일부 실시예들에서, 제1 카메라(또는 제1 세트의 카메라들)에 의해 캡처된 제1 이미지를 사용자의 제1 눈에 대해 디스플레이함으로써(예컨대, 제1 이미지는 사용자의 제2 눈에 대해 디스플레이되지 않는 상태임) 그리고 동시에 제1 이미지와는 상이한 그러나 제2 카메라(또는 제2 세트의 카메라들)에 의해 제1 이미지와 동일한 시간에 캡처된 제2 이미지를 사용자의 제2 눈에 대해 디스플레이함으로써(예컨대, 제2 이미지는 사용자의 제1 눈에 대해 디스플레이되지 않는 상태임) 입체 미디어 아이템이 디스플레이된다. 비입체 이미지들은, 예를 들어, 단일 카메라에 의해 캡처된 정지 이미지들 및/또는 단일 카메라에 의해 캡처된 비디오들을 포함한다. 일부 실시예들에서, 비입체 미디어 아이템은, 예를 들어, 다수의 카메라들에 의해 캡처된 (예컨대, 동일한 시간에 다수의 카메라들에 의해 캡처된) 다수의 이미지들을 포함하지만, 상이한 이미지들은 사용자의 상이한 눈들에 동시에 제시되지 않는다(예컨대, 다수의 이미지들은 사용자의 양 눈들에 제시되는 단일 이미지로 조합된다). 일부 실시예들에서, 입체 미디어 아이템들 및/또는 비입체 미디어 아이템들은 디바이스(700)에 의해 (예컨대, 디바이스(700)의 일부인 그리고/또는 그와 통신하는 하나 이상의 카메라들을 사용하여) 캡처된다.
미디어 라이브러리 사용자 인터페이스(708)는 옵션들(712A 내지 712E)을 포함한다. 옵션(712A)은 (예컨대, 어떠한 비입체 미디어 아이템들도 디스플레이하지 않으면서) 한 세트의 입체 미디어 아이템들을 디스플레이하기 위해 선택가능하다. 일부 실시예들에서, 옵션(712A)은 비입체 미디어 아이템들의 표현들을 포함하지 않고 하나 이상의 입체 미디어 아이템들의 표현들을 포함하는 사용자 인터페이스를 디스플레이하기 위해 선택가능하다. 옵션(712B)은 미디어 라이브러리(예컨대, 특정 시간, 이벤트, 및/또는 위치와 연관된 미디어 아이템들의 컬렉션)로부터 복수의 미디어 아이템들을 종합함으로써 (예컨대, 자동적으로) 생성되는 한 세트의 종합된 콘텐츠 아이템들을 디스플레이하기 위해 선택가능하다. 옵션(712C)은 미디어 라이브러리 사용자 인터페이스(708)를 디스플레이하기 위해 선택가능하다. 옵션(712D)은 미디어 아이템들의 앨범들(예컨대, 미디어 아이템들의 컬렉션들)(예컨대, 미디어 아이템들의 수동으로 엄선된 컬렉션들 및/또는 미디어 아이템들의 자동적으로 생성된 컬렉션들)을 디스플레이하기 위해 선택가능하다. 옵션(712E)은 미디어 아이템들에 대한 텍스트 검색을 수행하기 위한 프로세스를 개시하기 위해 선택가능하다(예컨대, 텍스트 검색 사용자 인터페이스를 디스플레이하기 위해 선택가능함).
도 7a에서, 컴퓨터 시스템(700)은 제1 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이한다. 도 7a에서, 컴퓨터 시스템(700)은, 시선 표시(714)에 의해 나타낸 바와 같이, 사용자가 미디어 아이템(710A)을 응시하고 있다는 것을 (예컨대, 센서들(715)을 통해) 검출한다. 일부 실시예들에서, 시선 표시(714)는 컴퓨터 시스템(700)에 의해 디스플레이되지 않는다.
도 7b에서, 사용자가 임계 지속기간 동안 (예컨대, 다른 미디어 아이템을 응시하지 않고 계속적으로) 미디어 아이템(710A)을 응시하였다는 결정에 응답하여, 컴퓨터 시스템(700)은 미디어 아이템(710A)의 하나 이상의 시각적 특성들을 수정하고, 제1 세트의 시각적 특성들과는 상이한 제2 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이한다.
일부 실시예들에서, 미디어 아이템(710A)의 하나 이상의 시각적 특성들을 수정하는 것 및/또는 제2 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이하는 것은 미리정의된 축을 따라 미디어 아이템(710A)의 요소들을 분리 및/또는 확장하는 것을 (예컨대, 2차원 객체로부터 3차원 객체로 미디어 아이템(710A)의 디스플레이를 변경하는 것을) 포함한다. 예를 들어, 일부 실시예들에서, 미디어 아이템(710A)의 하나 이상의 시각적 특성들을 수정하는 것의 일부로서, 컴퓨터 시스템(700)은 사용자가 미디어 아이템(710A)을 깊이(예컨대, 두께)를 갖는 3차원 객체로서 인지하도록 미디어 아이템(710A)의 각자의 축(예컨대, 미디어 아이템(710A)의 z-축)을 따라서 미디어 아이템(710A)의 디스플레이를 확장시킨다. 일부 실시예들에서, 미디어 아이템(710A)은 미디어 아이템(710A)이 깊이 정보(예컨대, 특정 유형의 깊이 정보)를 포함한다는 (예컨대, 미디어 아이템(710A)이 입체 미디어 아이템이라는) 결정에 기초하여 (예컨대, 결정에 응답하여) 미디어 아이템(710A)의 각자의 축을 따라 확장된다. 예를 들어, 미디어 아이템(710A)이 미디어 아이템(710A)의 각자의 축을 따라 확장될 때, 미디어 아이템(710A) 내의 제1 세트의 요소들은 제1 깊이(예컨대, 확장된 미디어 아이템(710A)의 z-축을 따른 제1 z-위치)에 디스플레이되고, 미디어 아이템(710A) 내의 제2 세트의 요소들은 제1 깊이와는 상이한 제2 깊이(예컨대, 확장된 미디어 아이템(710A)의 z-축 상의 제2 z-위치)에 디스플레이된다.
일부 실시예들에서, 미디어 아이템(710A)을 응시하는 동안, 사용자가 (예컨대, HMD를 착용하고 있는 동안 그의 또는 그녀의 머리를 이동 및/또는 회전시킴으로써, 그리고/또는 디스플레이 디바이스(702)에 대해 그의 또는 그녀의 신체를 이동시킴으로써) 그의 또는 그녀의 시점을 시프트시키는 경우, 미디어 아이템(710A) 내의 콘텐츠는 사용자가 그의 또는 그녀의 시점을 시프트시키는 것에 응답하여 시프트된다. 일부 실시예들에서, 예를 들어, 사용자로부터 더 멀리 있는 미디어 아이템(710A)의 층들이 사용자에게 더 가까이 있는 미디어 아이템(710A)의 층들보다 더 느리게 (또는 더 작은 양만큼) 이동하도록 시차 효과가 구현된다.
일부 실시예들에서, 미디어 아이템(710A)의 하나 이상의 시각적 특성들을 수정하는 것 및/또는 제2 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이하는 것은 미디어 아이템(710A)을 후방으로 (예컨대, 사용자로부터 멀리) 푸시하는 것을 포함한다. 예를 들어, 일부 실시예들에서, 도 7b에서, 사용자가 임계 지속기간 동안 미디어 아이템(710A)을 응시하였다는 결정에 응답하여, 컴퓨터 시스템(700)은 미디어 아이템(710A)을 후방으로 푸시하는 동안 미디어 아이템들(710B 내지 710E)의 디스플레이된 깊이를 유지한다. 일부 실시예들에서, 미디어 아이템(710A)은 미디어 아이템(710A)이 특정 유형의 깊이 정보를 포함한다는 (예컨대, 입체 미디어 아이템이라는) 결정에 기초하여 후방으로 푸시된다.
일부 실시예들에서, 미디어 아이템(710A)의 하나 이상의 시각적 특성들을 수정하는 것 및/또는 제2 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이하는 것은 미디어 아이템(710A)을 자동 재생하는 (예컨대, (예컨대, 사용자 시선 이외의 추가 사용자 입력 없이) 자동적으로 재생하는) 것을 포함한다. 예를 들어, 일부 실시예들에서, 미디어 아이템(710A)이 비디오(예컨대, 입체 비디오 또는 비입체 비디오)인 경우, 사용자가 임계 지속기간 동안 미디어 아이템(710A)을 응시하였다는 결정에 응답하여, 컴퓨터 시스템(700)은 미디어 라이브러리 사용자 인터페이스(708) 내의 미디어 아이템(710A)의 비디오 콘텐츠를 재생하기 시작한다. 일부 실시예들에서, (예컨대, 사용자의 시선에 응답하여) 미디어 아이템(710A)을 자동 재생하는 것은 미디어 라이브러리 사용자 인터페이스(708) 내의 미디어 아이템(710A)을 재생할 때 저역 통과 필터(예컨대, 블러링 및/또는 스무딩(smoothing) 필터)를 적용하는 것을 포함한다. 일부 실시예들에서, 저역 통과 필터는 선택된 상태에서 (예컨대, 예를 들어, 하기의 도 7m 및 도 7n을 참조하여 논의된 바와 같이, 선택된 미디어 사용자 인터페이스(719)에서) 미디어 아이템(710A)을 재생할 때 제거된다. 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(708) 내의 미디어 아이템(710A)을 자동 재생하는 것은 미디어 아이템(710A)이 선택된 상태에서 (예컨대, 예를 들어, 하기의 도 7m 및 도 7n을 참조하여 논의된 바와 같이, 선택된 미디어 사용자 인터페이스(719)에서) 재생될 때보다 낮은 볼륨으로 미디어 아이템(710A)의 오디오 콘텐츠를 출력하는 것을 포함한다.
일부 실시예들에서, 사용자의 시선이 미디어 아이템(710A)으로부터 멀리 (예컨대, 다른 미디어 아이템들(710B 내지 710E)로) 이동할 때, 컴퓨터 시스템(700)은 제2 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이하는 것을 중지한다(예컨대, 미디어 아이템(710A)을 자동 재생하는 것을 중지한다)(예컨대, 제2 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이하는 것으로부터 다시 제1 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이하는 것으로 그리고/또는 제3 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이하는 것으로 전이한다).
도 7c에서, 제2 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이하는 동안, 컴퓨터 시스템(700)은, 시선 표시(714)에 의해 나타낸 바와 같이, 사용자의 시선이 미디어 아이템(710C)에 대응하는 미디어 라이브러리 사용자 인터페이스(708) 내의 상이한 위치로 이동하였다는 것을 검출한다. 도 7c에서, 사용자의 시선이 미디어 아이템(710C)으로 이동하였다고 결정하는 것에 응답하여, 컴퓨터 시스템(700)은 제2 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이하는 것을 중지하고, (도 7a에 디스플레이되었던 것과 같이) 제1 세트의 시각적 특성들로 미디어 아이템(710A)을 디스플레이한다. 또한, 사용자의 시선이 미디어 아이템(710C)으로 이동하였다는 (그리고 선택적으로, 임계 지속기간 동안 유지되었다는) 결정에 응답하여, 컴퓨터 시스템(700)은 미디어 아이템(710C)을 제3 세트의 시각적 특성들로 디스플레이되는 것(예컨대, 도 7a 및 도 7b)으로부터 제4 세트의 시각적 특성들로 디스플레이되는 것(예컨대, 도 7c)으로 전이시킨다. 일부 실시예들에서, 제3 세트의 시각적 특성들은 제1 세트의 시각적 특성들과 동일하다. 일부 실시예들에서, 제4 세트의 시각적 특성들은 제2 세트의 시각적 특성들과 동일하다. 일부 실시예들에서, 제1 세트의 시각적 특성들로부터 제2 세트의 시각적 특성들로 전이하는 것과 관련하여 전술된 예들은 제3 세트의 시각적 특성들로부터 제4 세트의 시각적 특성들로 전이하는 것에 적용될 수 있다.
도 7c에서, 미디어 라이브러리 사용자 인터페이스(708)에서 제4 세트의 시각적 특성들로 미디어 아이템(710C)을 디스플레이하는 동안, 컴퓨터 시스템(700)은 (예컨대, 센서들(715)을 통해) 사용자 제스처(716)를 검출한다. 일부 실시예들에서, 사용자 제스처(716) 및 본 명세서에 설명된 다양한 사용자 제스처들은 (예컨대, 터치 감응형 디스플레이와 같은 디스플레이 디바이스(702) 상에서의) 하나 이상의 터치 입력들을 포함한다. 일부 실시예들에서, 사용자 제스처(716) 및 본 명세서에 설명된 다양한 사용자 제스처들은 (예컨대, 카메라 및/또는 신체 움직임 센서(예컨대, 손 움직임 센서 및/또는 머리 움직임 센서)에 의해 캡처된 바와 같은) 하나 이상의 에어 제스처들(예컨대, 미리정의된 방식으로 사용자의 신체의 하나 이상의 부분들의 이동)을 포함한다. 일부 실시예들에서, 에어 제스처는, 사용자가 디바이스의 일부인 입력 요소를 터치하지 않으면서(또는 디바이스의 일부인 입력 요소와 독립적으로) 검출되고, 절대적 기준에 대한 사용자의 신체의 모션(예를 들어, 지면에 대한 사용자의 팔의 각도 또는 지면에 대한 사용자의 손의 거리), 사용자의 신체의, 사용자의 신체의 다른 부분에 대한 모션(예를 들어, 사용자의 손의 사용자의 어깨에 대한 이동, 사용자의 하나의 손의 사용자의 다른 손에 대한 이동, 및/또는 사용자의 손가락의 사용자의 손의 다른 손가락 또는 부분에 대한 이동), 및/또는 사용자의 신체의 일부분의 절대적 모션(예를 들어, 미리결정된 양 및/또는 속력만큼의 미리결정된 포즈의 손의 이동을 포함하는 탭 제스처, 또는 사용자의 신체의 일부분의 미리결정된 속력 또는 양의 회전을 포함하는 쉐이크 제스처)을 포함하는 에어를 통한 사용자의 신체의 일부분의 검출된 모션에 기초하는 제스처이다. 일부 실시예들에서, 사용자 제스처(716)는 핀치 및 드래그 제스처(예컨대, 핀치 및 드래그 에어 제스처)를 포함하며, 여기서 사용자는 그의 손으로 미리정의된 핀칭된 형상을 형성하고 (예컨대, 손이 미리정의된 핀칭된 형상을 유지하는 동안) 미리정의된 핀칭된 형상을 이루는 손을 특정 방향으로 드래그(예컨대, 이동)한다(예컨대, 상향 방향으로의 핀치 및 드래그 제스처). 일부 실시예들에서, 미리정의된 핀칭된 형상은 사용자가 한 손의 엄지의 끝에 근접한 영역을 동일한 손의 하나 이상의 다른 손가락들의 끝(들)과 접촉시킨 형상이다. 일부 실시예들에서, 도 7c에서, 미디어 라이브러리 사용자 인터페이스(708)를 디스플레이하는 동안, 컴퓨터 시스템(700)은 (예컨대, 센서들(715)을 통해) 사용자의 손이 미리정의된 형상(예컨대, 미리정의된 핀칭된 형상)을 이루는 것을 검출하고, (예컨대, 미리정의된 형상을 유지하면서) 사용자의 손이 미리정의된 (예컨대, 상향) 방향으로 이동하는 것을 검출한다.
도 7d에서, 사용자 제스처(716)를 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 미디어 라이브러리 사용자 인터페이스(708)를 상향으로 스크롤한다. 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(708)는 사용자 제스처(716)의 방향 및 크기에 기초하여 (예컨대, 핀치 및 드래그 제스처의 이동의 방향 및 크기에 기초하여(예컨대, 사용자의 핀칭된 손의 방향, 및 사용자의 핀칭된 손이 얼마나 멀리 이동하는지에 기초하여)) 상향으로 스크롤된다. 결과적으로, 미디어 라이브러리 사용자 인터페이스(708)는 더 이상 미디어 아이템들(710A 내지 710B)을 포함하지 않고, 미디어 아이템들(710C 내지 710E)을 상향으로 이동시키고, 이제 미디어 아이템(710F)을 디스플레이한다. 추가로, 도 7d에서, 컴퓨터 시스템(700)은 사용자의 시선이 시선 표시(714)에 의해 나타낸 바와 같이 미디어 아이템(710F)으로 지향된다는 것을 검출한다. 도 7d에서, 사용자의 시선이 임계 지속기간 동안 미디어 아이템(710F) 상에서 유지되었다는 결정에 응답하여, 컴퓨터 시스템(700)은 제5 세트의 시각적 특성들(예컨대, 2차원 및/또는 확장되지 않은 상태)로 미디어 아이템(710F)을 디스플레이하는 것으로부터 제5 세트의 시각적 특성들과는 상이한 제6 세트의 시각적 특성들(예컨대, 3차원 및/또는 확장된 상태)로 미디어 아이템(710F)을 디스플레이하는 것으로 전이한다. 일부 실시예들에서, 제5 세트의 시각적 특성들은 제1 및/또는 제3 세트의 시각적 특성들과 동일하다. 일부 실시예들에서, 제6 세트의 시각적 특성들은 제2 및/또는 제4 세트의 시각적 특성들과 동일하다. 일부 실시예들에서, 제1 세트의 시각적 특성들로부터 제2 세트의 시각적 특성들로 전이하는 것과 관련하여 전술된 예들은 또한 제5 세트의 시각적 특성들로부터 제6 세트의 시각적 특성들로 전이하는 것에 적용될 수 있다.
도 7d에서, 사용자의 시선이 미디어 아이템(710F) 상에서 유지되는 동안, 컴퓨터 시스템(700)은 사용자 제스처(718)를 검출한다. 일부 실시예들에서, 사용자 제스처(718)는 줌-인 커맨드에 대응한다. 일부 실시예들에서, 사용자 제스처(718)는 양 손 디핀치 제스처(예컨대, 양 손 디핀치 에어 제스처)(예컨대, 핀칭된 양 손들이 서로로부터 멀리 이동되는 제스처)를 포함한다. 일부 실시예들에서, 양 손 디핀치 제스처를 검출하는 것은 사용자의 제1 손이 미리정의된 형상(예컨대, 미리정의된 핀칭된 형상)을 형성하였다는 것을 컴퓨터 시스템(700)이 검출하는 것; 사용자의 제2 손이 미리정의된 형상(예컨대, 미리정의된 핀칭된 형상)을 형성하였다는 것을 컴퓨터 시스템(700)이 검출하는 것; 제1 시간에, 미리정의된 형상을 형성하는 제1 손과 미리정의된 형상을 형성하는 제2 손이 서로로부터 제1 거리에 있다는 것을 컴퓨터 시스템(700)이 검출하는 것; 및 제2 시간에 후속하여, 미리정의된 형상을 형성하는 제1 손과 미리정의된 형상을 형성하는 제2 손이 서로로부터, 제1 거리보다 먼 제2 거리로 이동되는 것을 컴퓨터 시스템(700)이 검출하는 것을 포함한다. 일부 실시예들에서, 사용자 제스처(718)는 한 손 핀치 제스처 또는 한 손 더블 핀치 제스처(예컨대, 사용자의 한 손이 빠르게 연속하여 두 번의 핀치 제스처들을 이루는 것(예컨대, 서로의 임계 지속기간 내의 두 번의 핀치 제스처들))를 포함한다. 일부 실시예들에서, 컴퓨터 시스템(700)이 한 손 핀치 제스처를 검출하는 것은, 2개의 손가락들이 서로의 임계 거리 내에 있을 때까지 (예컨대, 2개의 손가락들이 임계 거리보다 서로 더 가까이 있을 때까지 (예컨대, 2개의 손가락들이 서로 접촉할 때까지)) 사용자의 손가락들 중 둘 이상이 서로 더 가깝게 이동하는 것을 포함하는 핀치를 컴퓨터 시스템(700)이 검출하는 것을 포함한다. 일부 실시예들에서, 컴퓨터 시스템(700)이 한 손 더블 핀치 제스처를 검출하는 것은, 2개의 손가락들이 서로의 임계 거리 내에 있을 때까지 (예컨대, 2개의 손가락들이 임계 거리보다 서로 더 가까이 있을 때까지 (예컨대, 2개의 손가락들이 서로 접촉할 때까지)) 사용자의 손가락들 중 둘 이상이 서로 더 가깝게 이동하는 것을 포함하는 제1 핀치를 컴퓨터 시스템(700)이 검출하고; 2개의 손가락들이 분리되는 것을 검출하는 것에 후속하여, 2개의 손가락들이 서로의 임계 거리 내에 있을 때까지 (예컨대, 2개의 손가락들이 임계 거리보다 서로 더 가까이 있을 때까지 (예컨대, 2개의 손가락들이 서로 접촉할 때까지)) 사용자의 손가락들 중 둘 이상이 서로 더 가깝게 이동하는 것을 포함하는 제2 핀치를 컴퓨터 시스템(700)이 검출하는 것을 포함한다. 일부 실시예들에서, 한 손 더블 핀치 제스처는 제1 핀치의 임계 기간 내에 제2 핀치를 검출하는 것을 포함한다(예컨대, 제1 핀치가 개시 및/또는 완료된 후 임계 기간 내에 제2 핀치가 개시 및/또는 완료된다).
도 7e에서, 사용자의 시선이 미디어 아이템(710F)으로 지향되는 동안 줌-인 커맨드에 대응하는 사용자 제스처(718)를 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 줌-인 동작의 중심 및/또는 포커스로서 미디어 아이템(710F)을 갖는 미디어 라이브러리 사용자 인터페이스(708) 상에서 줌-인한다. 따라서, 도 7e에서, 미디어 아이템(710F)은 도 7d에서보다 큰 크기로 디스플레이된다. 일부 실시예들에서, 사용자의 시선이 상이한 미디어 아이템으로 지향되었다면, 줌-인 사용자 커맨드는 미디어 아이템(710F) 상에서 줌-인하는 대신 상이한 미디어 아이템 상에서 줌-인하는 결과를 가져왔을 것이다. 일부 실시예들에서, 줌 동작의 크기(예컨대, 컴퓨터 시스템(700)이 미디어 라이브러리 사용자 인터페이스(708) 상에서 얼마나 더 줌-인하는지)는 양 손 디핀치 제스처(예컨대, 에어 제스처)의 방향 및/또는 크기에 기초하여 (예컨대, 사용자의 제1 핀칭된 손이 사용자의 제2 핀칭된 손으로부터 얼마나 멀리 이동하는지에 기초하여) 결정된다. 일부 실시예들에서, 사용자 제스처(718)가 한 손 핀치 및/또는 한 손 더블 핀치 제스처(예컨대, 에어 제스처)일 때, 컴퓨터 시스템(700)은 미디어 라이브러리 사용자 인터페이스(708) 상에서 미리결정된 양(예컨대, 디폴트 양)만큼 줌-인한다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 2개의 개별적인 디스플레이 디바이스들 상에서 미디어(710F)의 디스플레이의 줌 레벨을 개별적으로 증가시키며, 여기서 컴퓨터 시스템(700)의 각각의 디스플레이 디바이스는 사용자의 각자의 눈에 대응한다(예컨대, 각각의 디스플레이 디바이스는 사용자의 각자의 눈에 가시적이다).
도 7d로 돌아가서, 사용자의 시선이 미디어 아이템(710F) 상에서 유지되는 동안, 컴퓨터 시스템(700)은 사용자 제스처(718)를 검출한다. 일부 실시예들에서, 도 7e를 참조하여 앞서 논의된 바와 같이, 줌-인 사용자 커맨드에 대응하는 사용자 제스처(718)보다는 오히려, 사용자 제스처(718)가 미디어 아이템 선택 커맨드에 대응한다. 일부 실시예들에서, 미디어 아이템 선택 커맨드는 (예컨대, 전술된 바와 같이) 한 손 핀치 제스처(예컨대, 에어 제스처)를 포함한다(한 손 핀치 제스처이다). 일부 실시예들에서, 미디어 아이템 선택 커맨드는 (예컨대, 전술된 바와 같이) 양 손 디핀치 제스처(예컨대, 에어 제스처)를 포함한다(양 손 디핀치 제스처이다). 일부 실시예들에서, 다수의 제스처들은 단일 커맨드에 대응한다(예컨대, 상이한 제스처들이 동일한 결과를 야기한다).
도 7f에서, 사용자의 시선이 미디어 아이템(710F)으로 지향되는 동안 미디어 아이템 선택 커맨드에 대응하는 사용자 제스처(718)를 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 미디어 윈도우(704) 내의 미디어 라이브러리 사용자 인터페이스(708)의 디스플레이를 중지하고, 미디어 윈도우(704) 내에서, 선택된 미디어 사용자 인터페이스(719)에 미디어 아이템(710F)을 디스플레이한다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 미디어 아이템(710F)의 제1 표현(예컨대, 포함된 미디어 아이템(710F)에 포함된 환경의 제1 관점)을 사용자의 제1 눈에 대해 디스플레이하고 컴퓨터 시스템(700)은 미디어 아이템(710F)의 제2 표현(예컨대, 미디어 아이템(710F)에 포함된 환경의 제2 관점)을 사용자의 제2 눈에 대해 디스플레이하여 사용자가 입체 깊이 효과로 미디어 아이템(710F)을 보게 한다.
일부 실시예들에서, 도 7f에 도시된 시나리오에서, 미디어 아이템 선택 커맨드에 대응하는 도 7d의 사용자 제스처(718)가 하나 이상의 중간 상태들을 포함한다. 예를 들어, 미디어 아이템 선택 커맨드가 한 손 핀치 제스처인 경우, 사용자는 핀치 제스처를 수행하기 위해 그의 검지를 그의 엄지에 더 가깝게 천천히 그리고/또는 점진적으로 이동시킬 수 있다. 일부 실시예들에서, 사용자가 미디어 아이템 선택 커맨드에서 진행함에 따라, 도 7d의 미디어 아이템(710F)의 하나 이상의 분리된 요소들은 (예컨대, 미리정의된 축을 따라(예컨대, z-축을 따라)) 서로 더 가깝게 점진적으로 이동한다. 일부 실시예들에서, 사용자 제스처가 완료 임계치를 초과할 때, 미디어 아이템(710F)은 하나 이상의 요소들이 재확장된 상태로 선택된 미디어 사용자 인터페이스(719)에 디스플레이된다(예컨대, 도 7f에 도시된 바와 같음). 일부 실시예들에서, 완료 임계치에 도달하기 전에 사용자가 미디어 아이템 선택 제스처를 수행하는 것을 중지하는 (예컨대, 사용자가 완료 임계치에 도달하기 전에 핀치 제스처를 중지하고/하거나, 완료 임계치에 도달하기 전에 그의 또는 그녀의 검지 및 엄지를 다시 벌리는) 경우, 도 7d의 미디어 아이템(710F)의 요소들은 미디어 라이브러리 사용자 인터페이스(708) 내에서 재확장 및/또는 분리된다. 일부 실시예들에서, 사용자가 미디어 아이템 선택 커맨드에서 진행함에 따라, 도 7d의 다른 미디어 아이템들(예컨대, 미디어 아이템들(710C 내지 710E))은 점진적으로 블러링된다(예컨대, 미디어 아이템 선택 커맨드가 완료 임계치를 향하여 진행됨에 따라 더 블러링된다). 일부 실시예들에서, 소정 유형들의 사용자 제스처들이 도 7d와 도 7f 사이의 중간 단계들의 디스플레이를 (예컨대, 미디어 아이템들의 점진적인 블러링 및/또는 미디어 아이템 층들 및/또는 요소들의 서로 더 가까워지는 점진적인 이동을) 생성하는 반면, 다른 유형들의 사용자 제스처들은 중간 단계들을 디스플레이하지 않고서 도 7d의 미디어 라이브러리 사용자 인터페이스(708)로부터 도 7f의 선택된 미디어 사용자 인터페이스(719)로의 전이를 즉각적으로 야기한다. 예를 들어, 일부 실시예들에서, 빠른 한 손 핀치 제스처(예컨대, 임계 기간 내에 완료되는 한 손 핀치 제스처)가 중간 상태들을 디스플레이하지 않고서 미디어 라이브러리 사용자 인터페이스(708)로부터 선택된 미디어 사용자 인터페이스(719)로의 전이를 즉각적으로 야기하는 한편, 느린 한 손 핀치 제스처 또는 양 손 디핀치 제스처는 사용자 제스처에 기초하여 미디어 라이브러리 사용자 인터페이스(708)로부터 선택된 미디어 사용자 인터페이스(719)로 전이하는 동안 중간 상태들을 디스플레이할 것이다.
도 7f에서, 선택된 미디어 사용자 인터페이스(719)가 디스플레이될 때, 3차원 환경(706)이 어두워진 것을 알 수 있다. 추가로, 미디어 윈도우(704)는 미디어 윈도우(704)로부터 (예컨대, 3차원 환경(706) 내로) 연장되는 하나 이상의 조명 효과들(726-1)로 디스플레이된다. 일부 실시예들에서, 미디어 아이템을 열 때(예컨대, 미디어 라이브러리 사용자 인터페이스(708)로부터 선택된 미디어 사용자 인터페이스(719)로 전이할 때), 미디어 윈도우(704)로부터 연장되는 조명 효과들(예컨대, 726-1) 및 3차원 환경(706)에 적용된 조명 효과들은 점진적으로 구현되고/되거나 디스플레이된다. 예를 들어, 일부 실시예들에서, 도 7d로부터 도 7f로, 사용자 제스처(718)(미디어 아이템 선택 커맨드)에 응답하여, 미디어 아이템(710F)의 크기는 미디어 윈도우(704)를 충전하도록 점진적으로 증가되고, 3차원 환경(706)은 점진적으로 어두워지고, 조명 효과들(726-1)은 미디어 윈도우(704)로부터 점진적으로 연장되어 세기가 점진적으로 증가한다. 유사하게, 일부 실시예들에서, (예컨대, 선택된 미디어 사용자 인터페이스(719)로부터 미디어 라이브러리 사용자 인터페이스(708)로 전이하도록) 미디어 아이템이 닫힐 때, 미디어 윈도우(704)로부터 연장되고 3차원 환경(706)에 적용된 조명 효과들은 점진적으로 제거된다(예컨대, 조명 효과들(726-1)은 세기 및 크기가 점진적으로 감소하고, 3차원 환경(706)은 점진적으로 밝게 된다). 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 사용자가 (예컨대, 컴퓨터 시스템(700)을 착용하고 있는 동안) 그의 머리를 회전시키고/시키거나 물리적 환경 주위를 걷는 것에 응답하여 조명 효과들(726-1)의 외관을 변경한다. 일부 실시예들에서, 조명 효과들(726-1)은 미디어 윈도우(704)로부터 연장되는 복수의 광선들을 포함한다. 일부 실시예들에서, 복수의 광선들에 대한 시각적 특성들(예컨대, 하나 이상의 광선들의 길이, 하나 이상의 광선들의 색상(들), 및/또는 하나 이상의 광선들의 밝기 및/또는 세기)은 디스플레이된 미디어 아이템(예컨대, 선택된 미디어 사용자 인터페이스(719)에 디스플레이된 미디어 아이템)의 시각적 콘텐츠 에 기초하여 결정된다. 일부 실시예들에서, 미디어 윈도우(704)의 에지에서의 시각적 콘텐츠(예컨대, 미디어 윈도우(704)의 에지 및/또는 경계부의 임계 거리 내의 시각적 콘텐츠)는 복수의 광선들에 대한 시각적 특성들을 결정하는 데 있어서 미디어 윈도우(704)의 에지 내부의 콘텐츠보다 더 크게 가중된다. 일부 실시예들에서, 하나 이상의 광선들은 (예컨대, 디스플레이된 미디어 아이템의 시각적 콘텐츠에 기초하여) 가변 길이, 가변 색상들, 가변 밝기, 및/또는 가변 세기를 갖는다. 이와 같이, 일부 실시예들에서, 디스플레이된 미디어 아이템의 시각적 콘텐츠가 변경될 때(예컨대, 디스플레이된 미디어 아이템이 하나의 미디어 아이템으로부터 다른 미디어 아이템으로 변경될 때, 디스플레이된 미디어 아이템이 비디오로서, 비디오가 재생됨에 따라 변하는 시각적 콘텐츠를 갖는 그러한 비디오일 때, 그리고/또는 사용자가 미디어 아이템 내에서 줌-인 또는 줌-아웃(zoom-out)할 때), 복수의 광선들을 포함하는 조명 효과들(726-1)이 그에 따라서 변경된다. 일부 실시예들에서, 조명 효과들(726-1)(예컨대, 복수의 광선들)의 변경은 디스플레이된 미디어 아이템이 비디오일 때 시간 경과에 따라 매끄러워진다. 일부 실시예들에서, 조명 효과들(726-1)은 미디어 윈도우(704)의 전방 표면(예컨대, 전방 층(720))으로부터 연장되는 (예컨대, 전방으로 연장되는) 광선들 및 미디어 윈도우(704)의 후방 표면(예컨대, 후방 층(722))으로부터 연장되는 (예컨대, 후방으로 연장되는) 광선들을 포함한다.
일부 실시예들에서, 조명 효과들(726-1)은 디스플레이된 미디어 아이템(예컨대, 선택된 미디어 사용자 인터페이스(719)에 디스플레이된 미디어 아이템)이 입체 미디어 아이템인지 또는 비입체 미디어 아이템인지에 관계없이 미디어 윈도우(704)로부터 연장된다. 일부 실시예들에서, 미디어 윈도우(704)로부터 연장되는 광선들은 도시된 미디어 아이템이 (예컨대, 도 7f, 도 7g, 도 7h, 및 도 7n에 도시된 바와 같이) 입체 미디어 아이템인지 또는 도시된 미디어 아이템이 (예컨대, 도 7j 내지 도 7m에 도시된 바와 같이) 비입체 미디어 아이템인지에 기초하여 상이하다. 예를 들어, 광선들의 시각적 특성들을 결정하는 데 사용되는 하나 이상의 알고리즘들은 디스플레이된 미디어 아이템이 입체 미디어 아이템인지 또는 비입체 미디어 아이템인지에 기초하여 상이하다. 일부 실시예들에서, 광선들(또는 광선들의 시각적 특성들을 결정하는 데 사용되는 알고리즘들)은 디스플레이된 미디어 아이템이 입체 미디어 아이템인지 또는 비입체 미디어 아이템인지에 기초하여 상이하지 않다.
일부 실시예들에서, 미디어 아이템, 미디어 윈도우(704), 및/또는 3차원 환경(706)의 시각적 특성들은 디스플레이된 미디어 아이템이 입체 미디어 아이템인지 또는 비입체 미디어 아이템인지에 의존한다. 도 7f에서, 디스플레이된 미디어 아이템은 입체 미디어 아이템이다. 디스플레이된 미디어 아이템이 입체 미디어 아이템이라는 결정에 기초하여, 컴퓨터 시스템(700)은 입체 미디어 아이템들에 대응하는 한 세트의 시각적 특성들로 미디어 아이템을 디스플레이한다. 예를 들어, 도시된 실시예에서, 미디어 윈도우(704)는 미디어 아이템의 요소들이 축을 따라 확장된 3차원 방식으로 디스플레이된 미디어 아이템을 디스플레이한다. 도시된 실시예에서, 미디어 윈도우(704)는 전방 층(720), 후방 층(722), 및 전방 층(720)과 후방 층(722) 사이의 하나 이상의 중간 층(724)을 갖는 것으로 도시되어 있다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 사용자가 (예컨대, 그의 머리에 컴퓨터 시스템(700)을 착용하고 있는 동안) 물리적 환경 내에서 자신을 재위치시키고/하거나 그의 머리를 회전시키는 것에 응답하여 미디어 윈도우(704)에 디스플레이된 미디어 아이템의 상이한 관점을 디스플레이한다.
일부 실시예들에서, 디스플레이된 미디어 아이템이 입체 미디어 아이템이라는 결정에 따라, 디스플레이된 미디어 아이템은 연속 에지들을 갖는 연속 3차원 형상 내에 디스플레이된다(예컨대, 미디어 윈도우(704)는 연속 에지들을 갖는 연속 3차원 형상이다). 도 7i는 연속 에지들을 갖는 연속 3차원 형상의 예시적인 실시예의 측면 프로파일 도면을 도시하는데, 여기서 전방 층(720)이 도 7i에서 형상의 좌측 표면으로서 도시되고, 후방 층(722)은 도 7i에서 형상의 우측 표면으로서 도시되어 있다. 일부 실시예들에서, 도 7i에 도시된 바와 같이, 미디어 윈도우(704)의 3차원 형상은 만곡 전방 표면 및/또는 만곡 후방 표면을 갖는다. 일부 실시 형태에서, 미디어 윈도우(704)의 3차원 형상은 굴절 에지들(예컨대, 블러링된 및/또는 유리 같은(glassy) 에지들)을 갖는다. 대조적으로, 일부 실시예들에서, 디스플레이된 미디어 아이템이 비입체 미디어 아이템이라는 결정에 따라, 디스플레이된 미디어 아이템은 (도 7j에 도시된 바와 같이) 2차원 객체 내에 그리고/또는 2차원 객체로서 디스플레이된다(예컨대, 미디어 윈도우(704)는 2차원 객체 및/또는 형상이다). 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 (예컨대, 사용자가 그의 머리에 컴퓨터 시스템(700)을 착용하고 있는 동안) 사용자가 물리적 환경 내에서 자신을 재위치시키고/하거나 그의 머리를 회전시키는 것에 응답하여 입체 미디어 아이템의 3차원 형상의 상이한 관점들을 디스플레이한다.
도 7f에서, 컴퓨터 시스템(700)은 또한, 공유 옵션(728A), 시간 및 위치 정보(728B), 및 닫기 옵션(728C)을 디스플레이한다. 공유 옵션(728A)은 디스플레이된 미디어 아이템을 공유하기 위한 하나 이상의 옵션들을 디스플레이하기 위해 선택가능하다. 시간 및 위치 정보(728B)는 디스플레이된 미디어 아이템에 대응하는 시간 및 위치 정보(728B)(예컨대, 디스플레이된 미디어 아이템에 대한 캡처의 시간 및 위치)를 디스플레이한다. 닫기 옵션(728C)은 디스플레이된 미디어 아이템을 닫기 위해 선택가능하다(예컨대, 선택된 미디어 사용자 인터페이스(719)를 디스플레이하는 것을 중지하기 위해 그리고 미디어 라이브러리 사용자 인터페이스(708)를 재디스플레이하기 위해 선택가능하다). 일부 실시예들에서, 디스플레이된 미디어 아이템이 입체 미디어 아이템이라는 결정에 따라, 공유 옵션(728A), 날짜 및 시간 정보(728B), 및 닫기 옵션(728C)과 같은 하나 이상의 제어부들이 (예컨대, 미디어 윈도우(704)의 외측에 그리고/또는 하나 이상의 제어부들이 디스플레이된 입체 미디어 아이템(710F)을 중첩 및/또는 오버레이하지 않도록 하는 방식으로) 디스플레이된다.
일부 실시예들에서, 미디어 아이템이 선택된 미디어 사용자 인터페이스(719)에 디스플레이될 때, 미디어 아이템은 (예컨대, 디스플레이된 미디어 아이템이 입체 미디어 아이템인지 또는 비입체 미디어 아이템인지에 관계없이) 비네팅(vignetting)이 미디어 아이템(예컨대, 어두워진 코너들 및/또는 에지들)에 적용된 상태로 디스플레이된다. 일부 실시예들에서, 미디어 아이템이 선택된 미디어 사용자 인터페이스(719)에 디스플레이될 때, 미디어 아이템은 선택적으로 몰입형 상태로 디스플레이된다. 일부 실시예들에서, 제1 세트의 조건들이 충족되는 경우에 미디어 아이템은 몰입형 상태로 디스플레이되고, 제1 세트의 조건들이 충족되지 않는 경우에, 미디어 아이템은 몰입형 상태로 디스플레이되지 않는다. 다양한 실시예들에서, 제1 세트의 조건들은, 예를 들어, 하기 중 하나 이상을 포함한다: 제1 사용자 설정(예컨대, 몰입형 보기 설정)이 인에이블 및/또는 디스에이블된다는 결정; (예컨대, 제1 미디어 아이템이 입체 미디어 아이템이라는 결정에 따라) 제1 미디어 아이템이 (예컨대, 비입체적인 것에 비해 입체적인) 특정 유형의 것이라는 결정; 및/또는 특정 유형의 하나 이상의 사용자 입력들(예컨대, 하나 이상의 제스처들(예컨대, 하나 이상의 에어 제스처들))이 검출된다는 결정. 일부 실시예들에서, 비몰입형 상태는 제1 각도 크기에 대응하고, 몰입형 상태는 제1 각도 크기보다 큰 제2 각도 크기에 대응한다. 다시 말하면, 몰입형 상태에서, 디스플레이된 미디어 아이템은 더 큰 각을 이루는 디스플레이 크기로 디스플레이되고, 비몰입형 상태에서, 디스플레이된 미디어 아이템은 더 작은 각을 이루는 디스플레이 크기로 디스플레이된다. 일부 실시예들에서, 미디어 아이템이 몰입형 상태로 디스플레이될 때 그리고 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 (예컨대, 사용자가 그의 머리에 컴퓨터 시스템(700)을 착용하고 있는 동안) 사용자가 물리적 환경 내에서 자신을 재위치시키고/하거나 그의 머리를 회전시키는 것에 기초하여 미디어 아이템의 상이한 관점들을 디스플레이한다.
도 7f에서, 선택된 미디어 사용자 인터페이스(719)에 미디어 아이템(710F)을 디스플레이하는 동안, 컴퓨터 시스템(700)은 사용자 제스처(732)를 검출한다. 사용자 제스처(732)에 대한 상이한 유형들의 사용자 제스처들에 대응하는 여러 상이한 시나리오들이 하기에서 차례로 설명될 것이다.
제1 시나리오에서, 사용자 제스처(732)는, 예를 들어, 선택된 미디어 사용자 인터페이스(719)를 디스플레이하는 것을 중지하고/하거나 미디어 라이브러리 사용자 인터페이스(708)를 재디스플레이하기 위한 미디어 아이템 닫기 커맨드에 대응한다. 일부 실시예들에서, 미디어 아이템 닫기 커맨드는 핀치 및 드래그 제스처(예컨대, 에어 제스처)(예컨대, 미리정의된 방향으로의 핀치 및 드래그 제스처(예컨대, 하향 방향으로의 핀치 및 드래그 제스처))를 포함한다. 일부 실시예들에서, 제1 방향(예컨대, 좌측)으로의 핀치 및 드래그 제스처는 선택된 미디어 사용자 인터페이스(719) 내의 후속 미디어 아이템(예컨대, 미디어 아이템들의 순서화된 시퀀스 내의 바로 다음 미디어 아이템)을 디스플레이하기 위한 다음 미디어 아이템 커맨드에 대응하고, 제2 방향(예컨대, 제1 방향에 반대인 제2 방향)(예컨대, 우측)으로의 핀치 및 드래그 제스처는 선택된 미디어 사용자 인터페이스(719) 내의 이전 미디어 아이템(예컨대, 미디어 아이템들의 순서화된 시퀀스 내의 바로 이전 미디어 아이템)을 디스플레이하기 위한 이전 미디어 아이템 커맨드에 대응하고, 제3 방향(예컨대, 하향)으로의 핀치 및 드래그 제스처는 미디어 아이템 닫기 커맨드에 대응한다. 전술된 바와 같이, 일부 실시예들에서, 컴퓨터 시스템(700)이 핀치 및 드래그 제스처(예컨대, 핀치 및 드래그 에어 제스처)를 검출하는 것은 컴퓨터 시스템(700)이 사용자의 손이 미리정의된 형상(예컨대, 미리정의된 핀칭된 형상)을 형성한다는 것을 검출하는 것; 및 (예컨대, 사용자의 손이 미리정의된 형상을 형성하고/하거나 유지하는 동안) 컴퓨터 시스템(700)이 미리정의된 형상을 형성하는 손의 특정 방향으로의 이동을 검출하는 것을 포함한다. 일부 실시예들에서, 컴퓨터 시스템(700)이 핀치 및 드래그 제스처를 검출하는 것은 컴퓨터 시스템(700)이 미리정의된 형상을 형성하는 손의 특정 방향으로의 그리고 적어도 임계 거리에 대한 이동을 검출하는 것을 추가로 포함한다.
제2 시나리오에서, 사용자 제스처(732)는, 사용자의 시선이 시선 표시(714-1)에 의해 나타낸 바와 같이 미디어 윈도우(704)의 하단 우측 코너에서 검출되는 동안 수신되는 줌-인 커맨드(예컨대, 한 손 더블 핀치 제스처 또는 양 손 디핀치 제스처 - 이의 다양한 실시예들이 도 7d를 참조하여 전술되었음)에 대응한다. 제3 시나리오에서, 사용자 제스처(732)는, 사용자의 시선이 시선 표시(714-2)에 의해 나타낸 바와 같이 미디어 윈도우(704)의 상단 좌측 코너에서 검출되는 동안 수신되는 줌-인 커맨드에 대응한다. 제2 시나리오에서, 사용자의 시선이 미디어 윈도우(704)의 하단 우측 코너로 지향되는 동안 줌-인 커맨드에 대응하는 사용자 제스처(732)에 응답하여, 컴퓨터 시스템(700)은, 도 7g에 도시된 바와 같이, 미디어 윈도우(704)의 하단 우측 코너 상에서 줌-인한다. 제3 시나리오에서, 사용자의 시선이 미디어 윈도우(704)의 상단 좌측 코너로 지향되는 동안 줌-인 커맨드에 대응하는 사용자 제스처(732)에 응답하여, 컴퓨터 시스템(700)은, 도 7h에 도시된 바와 같이, 미디어 윈도우(704)의 상단 좌측 코너 상에서 줌-인한다.
도 7j는 선택된 미디어 사용자 인터페이스(719)가 비입체 미디어 아이템(731)을 디스플레이하는 것을 도시한다. 도 7j에서, 미디어 아이템(731)은 파노라마 비입체 이미지이다. 도 7j에서, 3차원 환경(706)이, 도 7f에서 그러했던 것과 같이, 어두워지고, 조명 효과들(730-1)이 미디어 윈도우(704)로부터 연장된다. 도 7f를 참조하여 위에서 논의된 조명 효과들(726-1)과 마찬가지로, 일부 실시예들에서, 조명 효과들(730-1)은 미디어 윈도우(704)에 도시된 시각적 콘텐츠(예컨대, 디스플레이된 미디어 아이템(731)의 시각적 콘텐츠)에 기초하여 결정된다. 일부 실시예들에서, 조명 효과들(730-1)이 미디어 윈도우(704) 내의 디스플레이된 시각적 콘텐츠의 차이들에 기초하여 조명 효과들(726-1)과 상이하지만, 조명 효과들(730-1)을 생성 및/또는 결정하는 데 사용되는 알고리즘들은 조명 효과들(726-1)을 생성 및/또는 결정하는 데 사용되는 알고리즘들과 동일하다. 일부 실시예들에서, 조명 효과들(730-1)을 생성 및/또는 결정하는 데 사용되는 알고리즘들은 미디어 아이템(731)이 비입체 미디어 아이템이고 미디어 아이템(710F)이 입체 미디어 아이템인 사실에 기초하여 조명 효과들(726-1)을 생성 및/또는 결정하는 데 사용되는 알고리즘들과 상이하다. 일부 실시예들에서, 도 7f를 참조하여 전술된 바와 같은 조명 효과들(726-1)의 다양한 특성들은 조명 효과들(730-1), 및 본 명세서에 설명된 다른 조명 효과들(예컨대, 730-2, 730-3, 730-4, 726-2, 726-3, 및/또는 726-4)에 적용가능하다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은, 미디어 아이템(731)이 비입체 미디어 아이템인 결과로서 (예컨대, 사용자가 그의 머리에 컴퓨터 시스템(700)을 착용하고 있는 동안) 사용자가 물리적 환경 주위를 걷고/걷거나 그의 머리를 회전시키는 것에 응답하여 미디어 아이템(731)에 포함된 콘텐츠의 다양한 관점들을 디스플레이하지 않는다.
일부 실시예들에서, 도 7j의 선택된 미디어 사용자 인터페이스(719) 및 미디어 윈도우(704)의 소정 시각적 특성들은 디스플레이된 미디어 아이템(731)이 비입체 미디어 아이템이라는 결정에 기초하여 도 7f의 것들과 상이하다. 예를 들어, 일부 실시예들에서, 도 7j의 디스플레이된 미디어 아이템(731)이 비입체 미디어 아이템이라는 결정에 기초하여, 공유 옵션(728A), 시간 및 위치 정보(728B), 및 닫기 옵션(728C)과 같은 하나 이상의 제어부들은 디스플레이된 미디어 아이템(731) 상에 오버레이되어 디스플레이된다. 다른 예에서, 일부 실시예들에서, 도 7j의 디스플레이된 미디어 아이템(731)이 비입체 미디어 아이템이라는 결정에 기초하여, 미디어 아이템(731)은 2차원 객체 내에 그리고/또는 2차원 객체로서 디스플레이된다(반면, 도 7f의 미디어 아이템(710F)은 3차원 객체 내에 디스플레이되었다). 입체 미디어 아이템과 비입체 미디어 아이템 사이의 다른 차이들은 도 7f를 참조하여 위에서 더 상세히 설명되었다.
도 7j에서, 선택된 미디어 사용자 인터페이스(719)에 비입체 파노라마 미디어 아이템(731)을 디스플레이하는 동안, 컴퓨터 시스템(700)은 (예컨대, 센서들(715)을 통해) 사용자 제스처(733)를 검출한다. 도시된 시나리오에서, 사용자 제스처(733)는 줌-인 커맨드에 대응한다. 일부 실시예들에서, 줌-인 커맨드는, (예컨대, 도 7d를 참조하여) 전술된 바와 같이, 한 손 더블 핀치 제스처 및/또는 양 손 디핀치 제스처를 포함한다. 추가로, 도 7j에서, 컴퓨터 시스템(700)은, 사용자 제스처(733)를 검출하는 동안, 시선 표시(714)에 의해 나타낸 바와 같이, 디스플레이된 미디어 아이템(731) 내의 제1 위치로 지향된 사용자 시선을 검출한다.
도 7k에서, 사용자의 시선이 디스플레이된 미디어 아이템(731) 내의 제1 위치로 지향되는 동안 사용자 제스처(733)(예컨대, 줌-인 커맨드)를 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 줌-인 동작의 중심점으로서 제1 위치를 갖는 미디어 아이템(731) 상에서 줌-인한다. 추가로, 도 7k에서, 사용자 제스처(733)(예컨대, 줌-인 커맨드)를 검출하는 것에 응답하여 그리고 디스플레이된 미디어 아이템(731)이 파노라마 미디어 아이템이라는 결정에 따라, 컴퓨터 시스템(700)은 미디어 윈도우(704)의 크기를 확대하고, 또한 미디어 윈도우(704)를 만곡시킨다. 도 7k에서, 조명 효과들(730-2)은 미디어 윈도우(704)로부터 연장된다. 일부 실시예들에서, 조명 효과들(730-2)은 미디어 윈도우(704)에 디스플레이되고 있는 변하는 시각적 콘텐츠에 기초하여 조명 효과들(730-1)과 상이하다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 미디어 윈도우(704)의 디스플레이가 사용자의 더 큰 시야를 점유하는 한편, 미디어 윈도우(704)는 (예컨대, 미디어 윈도우(704)가 만곡된 외관 없이 디스플레이될 때와는 대조적으로) 만곡된 외관으로 디스플레이된다.
도 7k에서, 컴퓨터 시스템(700)은 (예컨대, 센서들(715)을 통해) 사용자 제스처(734)를 검출한다. 일부 실시예들에서, 사용자 제스처(734)는 사용자 제스처(733)의 줌-인 커맨드의 연속(예컨대, 양 손 디핀치 제스처의 연속(예컨대, 이의 다양한 실시예들은 (예컨대, 도 7d를 참조하여) 전술되었음))이다. 추가로, 도 7k에서, 컴퓨터 시스템(700)은, 사용자 제스처(734)를 검출하는 동안, 시선 표시(714)에 의해 나타낸 바와 같이, 디스플레이된 미디어 아이템 내의 제2 위치로 지향된 사용자 시선을 검출한다.
도 7l에서, 사용자의 시선이 디스플레이된 미디어 아이템 내의 제2 위치로 지향되었던 동안 사용자 제스처(734)(예컨대, 줌-인 커맨드(예컨대, 이의 다양한 실시예들은 (예컨대, 도 7d를 참조하여) 전술되었음))를 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 줌-인 동작의 중심점으로서 제2 위치를 갖는 파노라마 미디어 아이템(731) 상에서 추가로 줌-인한다. 추가로, 도 7l에서, 사용자 제스처(734)(예컨대, 줌-인 커맨드)를 검출하는 것에 응답하여 그리고 디스플레이된 미디어 아이템(731)이 파노라마 미디어 아이템이라는 결정에 따라, 컴퓨터 시스템(700)은 미디어 윈도우(704)의 크기를 추가로 확대하고, 미디어 윈도우(704)를 추가로 만곡시킨다. 도 7l에서, 조명 효과들(730-3)은 미디어 윈도우(704)로부터 연장된다. 일부 실시예들에서, 조명 효과들(730-3)은 미디어 윈도우(704)에 디스플레이되고 있는 변하는 시각적 콘텐츠에 기초하여 조명 효과들(730-2, 730-1)과 상이하다.
추가로, 도 7l에서, 미디어 아이템(731)이 추가로 줌-인됨에 따라, 미디어 아이템(731)은 미디어 아이템(731)의 좌측 및 우측의 소정 콘텐츠가 미디어 윈도우(704)에서 더 이상 가시적이지 않도록 충분히 줌-인된다. 도 7l에서, 미디어 윈도우(704)에서 가시적이지 않은 미디어 아이템(731)의 좌측에 추가 콘텐츠가 있다는 결정에 따라, 컴퓨터 시스템(700)은 미디어 윈도우(704)의 좌측에 시각적 효과(736A)를 디스플레이한다. 유사하게, 미디어 윈도우(704)에서 가시적이지 않은 미디어 아이템(731)의 우측에 추가 콘텐츠가 있다는 결정에 따라, 컴퓨터 시스템(700)은 미디어 윈도우(704)의 우측에 시각적 효과(736B)를 디스플레이한다. 일부 실시예들에서, 시각적 효과(736A)는 미디어 윈도우(704)의 좌측 에지를 블러링하고/하거나 시각적으로 가리는 것을 포함하고, 시각적 효과(736B)는 미디어 윈도우(704)의 우측 에지를 블러링하고/하거나 시각적으로 가리는 것을 포함한다.
도 7l에서, 선택된 미디어 사용자 인터페이스(719)에 미디어 아이템(731)을 디스플레이하는 동안, 컴퓨터 시스템(700)은 사용자 제스처(738)를 검출한다. 일부 실시예들에서, 사용자 제스처(738)는 이전 콘텐츠 아이템 커맨드(예컨대, 제1 (예컨대, 우측) 방향으로의 핀치 및 드래그 제스처(예컨대, 이의 다양한 실시예들은 (예컨대, 도 7d 및 도 7f를 참조하여) 전술되었음)) 및/또는 다음 콘텐츠 아이템 커맨드(예컨대, 제2 (예컨대, 좌측) 방향으로의 핀치 및 드래그 제스처(예컨대, 이의 다양한 실시예들은 (예컨대, 도 7d 및 도 7f를 참조하여) 전술되었음))에 대응한다.
도 7m에서, 사용자 제스처(738)를 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 선택된 미디어 사용자 인터페이스(719)에 도 7l의 미디어 아이템(731)을 디스플레이하는 것을 중지하고, 선택된 미디어 사용자 인터페이스(719)에 비입체 비디오 미디어 아이템(741)을 디스플레이한다. 도 7m에서, 도시된 미디어 아이템(741)이 비입체 미디어 아이템이라는 결정에 따라, 하나 이상의 제어부들이 미디어 아이템 상에 오버레이되어 디스플레이된다. 하나 이상의 제어부들은, 예를 들어, 공유 옵션(728A), 시간 및 위치 정보(728B), 및 닫기 옵션(728C)뿐만 아니라 스크러버(scrubber)(740)를 포함한다. 스크러버(740)는 비디오 미디어 아이템(741) 내에서 내비게이팅하도록 사용자에 의해 조작될 수 있고(예컨대, 사용자는 스크러버(740)와 상호작용할 수 있고), 일시정지 버튼, 재생 버튼, 앞으로 빨리 가기 버튼, 및/또는 뒤로 가기 버튼과 같은 하나 이상의 재생 제어부들을 또한 포함한다. 도 7m에서, 조명 효과들(730-4)은 미디어 윈도우(704)로부터 연장된다. 도 7f를 참조하여 위에서 논의된 바와 같이, 일부 실시예들에서, 비디오에 대한 조명 효과들은 비디오의 각자의 시간에서의 조명 효과들이 복수의 비디오 프레임들(예컨대, 각자의 시간 직전 및/또는 바로 직후의 복수의 비디오 프레임들)에 기초하여 결정되도록 시간 경과에 따라 매끄러워진다.
도 7m에서, 선택된 미디어 사용자 인터페이스(719)에 비입체 비디오 미디어 아이템(741)을 디스플레이하는 동안, 컴퓨터 시스템(700)은 사용자 제스처(742)를 검출한다. 일부 실시예들에서, 사용자 제스처(742)는 이전 콘텐츠 아이템 커맨드(예컨대, 제1 (예컨대, 우측) 방향으로의 핀치 및 드래그 제스처(예컨대, 이의 다양한 실시예들은 (예컨대, 도 7d 및 도 7f를 참조하여) 전술되었음)) 및/또는 다음 콘텐츠 아이템 커맨드(예컨대, 제2 (예컨대, 좌측) 방향으로의 핀치 및 드래그 제스처(예컨대, 이의 다양한 실시예들은 (예컨대, 도 7d 및 도 7f를 참조하여) 전술되었음))에 대응한다.
도 7n에서, 사용자 제스처(742)를 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 선택된 미디어 사용자 인터페이스(719)에 도 7m의 비입체 비디오 미디어 아이템(741)을 디스플레이하는 것을 중지하고, 선택된 미디어 사용자 인터페이스(719)에 입체 비디오 미디어 아이템(743)을 디스플레이한다. 도 7n에서, 도시된 미디어 아이템(743)이 입체 미디어 아이템이라는 결정에 따라, 하나 이상의 제어부들(예컨대, 공유 옵션(728A), 시간 및 위치 정보(728B), 닫기 옵션(728C), 스크러버(740))은 (예컨대, 미디어 윈도우(704)의 외측에 그리고/또는 그와 중첩하지 않고) 디스플레이된다. 일부 실시예들에서, 하나 이상의 제어부들(예컨대, 728A, 728B, 728C, 및/또는 740)은 사용자의 손이 제1 위치(예컨대, 상승된 위치)에 있을 때 디스플레이되고, 사용자의 손이 제1 위치에 있지 않을 때 (예컨대, 사용자의 손이 하강된 위치에 있을 때) 숨겨지고/지거나 디스플레이되지 않는다. 일부 실시예들에서, 하나 이상의 제어부들은 디스플레이된 미디어 아이템이 입체 미디어 아이템인지 또는 비입체 미디어 아이템인지에 관계없이 사용자의 손이 제1 위치에 있을 때 디스플레이되고 사용자의 손이 제1 위치에 있지 않을 때 숨겨진다. 일부 실시예들에서, 하나 이상의 제어부들은 디스플레이된 미디어 아이템이 정지 이미지인지 또는 비디오인지에 관계없이 사용자의 손이 제1 위치에 있을 때 디스플레이되고 사용자의 손이 제1 위치에 있지 않을 때 숨겨진다.
추가로, 도시된 미디어 아이템(743)이 입체 미디어 아이템이라는 결정에 따라, 미디어 아이템(743)은 다수의 층들(예컨대, 720, 722, 및 724)을 갖는 3차원 형상 내에 디스플레이된다. 도 7n에서, 조명 효과들(726-4)은 미디어 윈도우(704)로부터 연장된다. 도 7f 및 도 7m을 참조하여 위에서 논의된 바와 같이, 일부 실시예들에서, 비디오에 대한 조명 효과들은 비디오의 각자의 시간에서의 조명 효과들이 복수의 비디오 프레임들(예컨대, 각자의 시간 직전 및/또는 바로 직후의 복수의 비디오 프레임들)에 기초하여 결정되도록 시간 경과에 따라 매끄러워진다.
도 7a 내지 도 7n에 관한 추가 설명들은 도 8 내지 도 10을 참조하여 설명되는 방법들(800, 900, 1000)을 참조하여 아래에서 제공된다.
도 8은 일부 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하기 위한 예시적인 방법(800)의 흐름도이다. 일부 실시예들에서, 방법(800)은 디스플레이 생성 컴포넌트(예컨대, 702)(예컨대, 디스플레이 제어기; 터치 감응형 디스플레이 시스템; 디스플레이(예컨대, 통합형 및/또는 연결형), 3D 디스플레이, 투명 디스플레이, 프로젝터, 및/또는 헤드업 디스플레이) 및 하나 이상의 입력 디바이스들(예컨대, 715)(예컨대, 터치 감응형 표면(예컨대, 터치 감응형 디스플레이); 마우스; 키보드; 리모컨; 시각적 입력 디바이스(예컨대, 카메라); 오디오 입력 디바이스(예컨대, 마이크로폰); 및/또는 생체측정 센서(예컨대, 지문 센서, 안면 식별 센서, 및/또는 홍채 식별 센서))과 통신하는 컴퓨터 시스템(예컨대, 700)(예컨대, 도 1의 컴퓨터 시스템(101))(예컨대, 스마트폰, 스마트 워치, 태블릿, 및/또는 웨어러블 디바이스)에서 수행된다. 일부 실시예들에서, 방법(800)은, 비일시적 (또는 일시적) 컴퓨터 판독가능 저장 매체에 저장되며 컴퓨터 시스템의 하나 이상의 프로세서들, 예를 들어, 컴퓨터 시스템(101)의 하나 이상의 프로세서들(202)(예를 들어, 도 1a의 제어부(110))에 의해 실행되는 명령어들에 의해 통제된다. 방법(800)에서의 일부 동작들이 선택적으로 조합되거나, 및/또는 일부 동작들의 순서가 선택적으로 변경된다.
일부 실시예들에서, 컴퓨터 시스템(예컨대, 700)은, 디스플레이 생성 컴포넌트(예컨대, 702)를 통해, 제1 미디어 아이템(예컨대, 710A 내지 710F)의 표현을 포함하는 복수의 미디어 아이템들(예컨대, 710A 내지 710F)(예컨대, 이미지들, 사진들, 및/또는 비디오들)의 표현들(예컨대, 썸네일들 및/또는 프리뷰들)을 포함하는 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이한다(802).
미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안(804), 컴퓨터 시스템은, 제1 시간에, 하나 이상의 입력 디바이스들을 통해, 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선(예컨대, 714)을 검출한다(예컨대, 사용자가 미디어 라이브러리 사용자 인터페이스 내의 제1 위치를 응시한다는 것을 검출 및/또는 결정한다)(806). 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스 내의 제1 위치는 제1 미디어 아이템의 표현에 대응하는 위치이거나, 제1 미디어 아이템의 표현에 대응하지 않는 (예컨대, 제1 미디어 아이템과는 상이한 제2 미디어 아이템의 표현에 대응하는) 미디어 라이브러리 사용자 인터페이스 내의 위치이다.
미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여(808), 컴퓨터 시스템은 제1 미디어 아이템의 표현의 외관을, 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 (예컨대, 제1 세트의 시각적 특성들로) 디스플레이되는 것으로부터 제1 방식과는 상이한 제2 방식으로 (예컨대, 제2 세트의 시각적 특성들로) 디스플레이되는 것으로 변경한다(예컨대, 도 7a 및 도 7b의 미디어 아이템(710A) 및/또는 도 7b 및 도 7c의 미디어 아이템(710C))(810).
컴퓨터 시스템은, 제1 시간에 후속하는 제2 시간에(예컨대, 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이한 후 또는 그 동안), 하나 이상의 입력 디바이스들을 통해, 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선(예컨대, 도 7c의 714)을 검출한다(예컨대, 사용자가 미디어 라이브러리 사용자 인터페이스 내의 제2 위치를 응시한다는 것을 검출 및/또는 결정한다)(812). 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스 내의 제2 위치는, 제1 위치와는 상이한, 제1 미디어 아이템의 표현에 대응하는 위치이거나, 제1 미디어 아이템의 표현에 대응하지 않는 (예컨대, 제1 미디어 아이템과는 상이한 제2 미디어 아이템의 표현에 대응하는) 미디어 라이브러리 사용자 인터페이스 내의 위치이다.
미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여(814), 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제2 방식과는 상이한 제3 방식으로 (예컨대, 제2 세트의 시각적 특성들과는 상이한 제3 세트의 시각적 특성들로) 제1 미디어 아이템의 표현을 (예컨대, 미디어 아이템(710A)을 도 7b로부터 도 7c로) 디스플레이한다(816). 일부 실시예들에서, 제3 방식은 제1 방식과 동일하다.
미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여 제1 미디어 아이템의 표현의 외관을 제1 방식으로 디스플레이되는 것으로부터 제2 방식으로 디스플레이되는 것으로 변경하는 것은 (예컨대, 제1 위치에 대응하는 사용자 시선이 검출되었다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 컴퓨터 시스템은 (예컨대, 제2 시간에 후속하는 제3 시간에), 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템과는 상이한 제2 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들(예컨대, 710A 내지 710F)(예컨대, 이미지들, 사진들, 및/또는 비디오들)의 표현들(예컨대, 썸네일들 및/또는 프리뷰들)을 포함하는 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이한다. 제2 미디어 아이템의 표현을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안, 컴퓨터 시스템은 (예컨대, 제3 시간에 후속하는 제4 시간에), 하나 이상의 입력 디바이스들을 통해, 미디어 라이브러리 사용자 인터페이스 내의 제3 위치(예컨대, 제2 위치, 또는 제1 위치 및/또는 제2 위치와는 상이한 제3 위치)(예컨대, 제2 미디어 아이템의 표현에 대응하는 미디어 라이브러리 사용자 인터페이스 내의 제3 위치, 또는 제2 미디어 아이템의 표현에 대응하지 않는 (예컨대, 제2 미디어 아이템과는 상이한 제3 미디어 아이템의 표현에 대응하는) 미디어 라이브러리 사용자 인터페이스 내의 제3 위치)에 대응하는 사용자 시선(예컨대, 도 7c의 714)을 검출한다(예컨대, 사용자가 미디어 라이브러리 사용자 인터페이스 내의 제3 위치를 응시하고 있다는 것을 검출 및/또는 결정한다). 미디어 라이브러리 사용자 인터페이스 내의 제3 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여, 컴퓨터 시스템은 제2 미디어 아이템(예컨대, 710C)의 표현의 외관을 제4 방식으로 (예컨대, 제4 세트의 시각적 특성들로) 디스플레이되는 것으로부터(일부 실시예들에서, 제4 방식은 제1 방식, 제2 방식, 및/또는 제3 방식과 동일함) 제4 방식과 상이한 제5 방식으로 (예컨대, 제4 세트의 시각적 특성들과 상이한 제5 세트의 시각적 특성들로) 디스플레이되는 것으로 변경한다(예컨대, 도 7b 및 도 7c의 미디어 아이템(710C)). 일부 실시예들에서, 제5 방식은 제1 방식, 제2 방식, 및/또는 제3 방식과 동일하다.
일부 실시예들에서, 컴퓨터 시스템은 (예컨대, 제4 시간에 후속하는 제5 시간에)(예컨대, 제5 방식으로 제2 미디어 아이템의 표현을 디스플레이한 후 또는 그 동안), 하나 이상의 입력 디바이스들을 통해, 제3 위치와는 상이한 미디어 라이브러리 사용자 인터페이스 내의 제4 위치에 대응하는 사용자 시선을 검출한다(예컨대, 사용자가 미디어 라이브러리 사용자 인터페이스 내의 제4 위치(예컨대, 제2 미디어 아이템의 표현에 대응하는 미디어 라이브러리 사용자 인터페이스 내의 제4 위치, 또는 제2 미디어 아이템의 표현에 대응하지 않는 (예컨대, 제2 미디어 아이템과는 상이한 제3 미디어 아이템의 표현에 대응하는) 미디어 라이브러리 사용자 인터페이스 내의 제4 위치)를 응시하고 있다는 것을 검출 및/또는 결정함). 미디어 라이브러리 사용자 인터페이스 내의 제4 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제5 방식과는 상이한 제6 방식으로 (예컨대, 제5 세트의 시각적 특성들과는 상이한 제6 세트의 시각적 특성들로) 제2 미디어 아이템의 표현을 디스플레이한다. 일부 실시예들에서, 제6 방식은 제4 방식과 동일하다.
미디어 라이브러리 사용자 인터페이스 내의 제3 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여 제2 미디어 아이템의 표현의 외관을 제4 방식으로 디스플레이되는 것으로부터 제5 방식으로 디스플레이되는 것으로 변경하는 것은 (예컨대, 제3 위치에 대응하는 사용자 시선이 검출되었다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 미디어 아이템(예컨대, 710A)은 제1 요소 및 제2 요소를 포함하는 복수의 요소들을 포함한다. 일부 실시예들에서, 제1 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 제1 2차원 평면(예컨대, (예컨대, 제1 차원, 및 제1 차원과는 상이한 (예컨대, 제1 차원에 수직인) 제2 차원을 포함하는 2차원 평면) 내에 제1 요소 및 제2 요소를 디스플레이하는 것(예컨대, 도 7a의 미디어 아이템(710A))(예컨대, 2차원 객체 내의 그리고/또는 단일 2차원 객체의 일부로서 제1 요소 및 제2 요소를 디스플레이하는 것)을 포함한다. 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 제1 2차원 평면의 외측으로 연장되는 제3 차원(예컨대, 제1 2차원 평면에 수직인 제3 차원)을 따라 제1 요소와 제2 요소를 분리하는 것(예컨대, 도 7b의 미디어 아이템(710A))을 포함한다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스는 x-축 및 x-축에 수직인 y-축을 갖는 제1 평면을 한정하고(예컨대, 미디어 라이브러리 사용자 인터페이스는 적어도 하나의 평면형 표면을 포함하고, 평면형 표면은 x-축 및 y-축을 한정함)(일부 실시예들에서, 복수의 미디어 아이템들의 표현들은 제1 평면 상에 (예컨대, 내에) 디스플레이됨); 제1 미디어 아이템은 제1 요소 및 제2 요소를 포함하는 복수의 요소들을 포함하고; 제1 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 x-축 및 y-축 둘 모두에 수직인 z-축 상의 제1 위치에 복수의 요소들을 디스플레이하는 것을 포함하고(예컨대, 제1 미디어 아이템의 표현은 2차원 객체로서 디스플레이됨)(예컨대, 제1 미디어 아이템 내의 복수의 요소들은 단일 2차원 평면(예컨대, 제1 평면) 상에 디스플레이됨)(일부 실시예들에서, 제1 방식으로 디스플레이될 때, 제1 미디어 아이템의 표현은 제1 평면에 제시되는 2차원의 평면형 객체로서 디스플레이됨)(일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스에 의해 한정되는 제1 평면은 z-축 상의 제1 위치에 위치됨); 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 z-축 상의 제2 위치(일부 실시예들에서, z-축 상의 제2 위치는 z-축 상의 제1 위치와 동일하거나 z-축 상의 제1 위치와 상이함)에 제1 요소를, 그리고 제2 위치와는 상이한 z-축 상의 제3 위치에 제2 요소를 동시에 디스플레이하는 것을 포함한다.
일부 실시예들에서, 제1 미디어 아이템은 제3 요소를 포함하고, 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 z-축 상의 제2 위치에 제1 요소를; 제2 위치와는 상이한 z-축 상의 제3 위치에 제2 요소를; 그리고 제2 및 제3 위치들과 상이한 z-축 상의 제4 위치에 제3 요소를 동시에 디스플레이하는 것을 포함한다.
미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여 제3 차원으로 요소들을 확장시킴으로써 제1 미디어 아이템의 표현의 외관을 제1 방식으로 디스플레이되는 것으로부터 제2 방식으로 디스플레이되는 것으로 변경하는 것은 (예컨대, 제1 위치에 대응하는 사용자 시선이 검출되었다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 사용자에 대한 제1 위치에 제1 미디어 아이템의 표현을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 제1 위치보다 사용자로부터 더 멀리 있는 사용자에 대한 제2 위치에 제1 미디어 아이템의 표현을 디스플레이하는 것을 포함한다(예컨대, 제1 미디어 아이템의 표현은 후방으로 그리고/또는 사용자로부터 멀리 푸시된다)(예컨대, 도 7a 내지 도 7d의 미디어 아이템들(710A 내지 710F)을 참조하여 설명된 바와 같음).
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 것은, 제1 미디어 아이템의 표현과 동시에, 제1 미디어 아이템의 표현과는 상이한 제3 미디어 아이템의 표현을 디스플레이하는 것을 포함하고; 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 사용자에 대한 제3 미디어 아이템의 위치를 유지하면서 사용자에 대한 제2 위치에 제1 미디어 아이템의 표현을 디스플레이하는 것을 (예컨대, 사용자에 대한 제3 미디어 아이템의 위치를 유지하면서 제1 미디어 아이템의 표현을 후방으로 그리고/또는 사용자로부터 멀리 이동시키는 것을) 포함한다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스는 x-축 및 x-축에 수직인 y-축을 갖는 제1 평면을 한정하고(예컨대, 미디어 라이브러리 사용자 인터페이스는 적어도 하나의 평면형 표면을 포함하고, 평면형 표면은 x-축 및 y-축을 한정함)(일부 실시예들에서, 복수의 미디어 아이템들의 표현들은 제1 평면 상에 (예컨대, 내에) 디스플레이됨); 제1 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 z-축 상의 제1 위치에 제1 미디어 아이템의 표현을 디스플레이하는 것을 포함하고 - 여기서 z-축은 x-축 및 y-축 둘 모두에 수직이고, 추가로, 미디어 라이브러리 사용자 인터페이스의 전방 표면은 z-축의 양의 방향을 한정하고 미디어 라이브러리 사용자 인터페이스의 후방 표면은 z-축의 음의 방향을 한정함(일부 실시예들에서, z-축의 양의 방향은 사용자를 향하여 연장되고, z-축의 음의 방향은 사용자로부터 멀리 연장됨) -; 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 제1 위치와는 상이한 z-축 상의 제2 위치에 제1 미디어 아이템의 표현을 디스플레이하는 것을 포함한다 - 제2 위치는 제1 위치보다 더 음의 z-축 위치임(예컨대, 제1 미디어 아이템은 제1 방식과 비교하여 제2 방식으로 후방으로 (예컨대, 사용자로부터 더 멀리) 푸시됨)(일부 실시예들에서, 제1 미디어 아이템의 표현은 z-축 상의 제2 위치에 그리고 제1 평면에 평행하게 디스플레이됨).
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 동안, 하나 이상의 (예컨대, 둘 이상의) 다른 미디어 아이템들의 표현들은 z-축 상의 제1 위치에 디스플레이되고; 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 동안, 하나 이상의 (예컨대, 둘 이상의) 다른 미디어 아이템들의 표현들은 z-축 상의 제1 위치에 디스플레이된다(예컨대, 그에 유지된다).
미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여 제1 미디어 아이템의 표현을 사용자로부터 멀리 이동시킴으로써 제1 미디어 아이템의 표현의 외관을 제1 방식으로 디스플레이되는 것으로부터 제2 방식으로 디스플레이되는 것으로 변경하는 것은 (예컨대, 제1 위치에 대응하는 사용자 시선이 검출되었다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 미디어 아이템은 비디오 콘텐츠(예컨대, 영화 콘텐츠 및/또는 움직이는 시각적 콘텐츠)를 포함하고; 제1 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 제1 미디어 아이템의 비디오 콘텐츠의 정적 표현을 디스플레이하는 것을 (예컨대, 제1 미디어 아이템의 정적 썸네일 이미지 표현을 디스플레이하는 것을) 포함하고; 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 제1 미디어 아이템의 비디오 콘텐츠의 재생(예컨대, 적어도 제1 미디어 아이템의 비디오 콘텐츠의 서브세트의 재생)을 디스플레이하는 것(예컨대, 제1 미디어 아이템의 움직이는 시각적 콘텐츠 및/또는 영화 콘텐츠를 디스플레이하는 것)(예컨대, 미디어 라이브러리 사용자 인터페이스에 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 것)(예컨대, 미디어 라이브러리 사용자 인터페이스에 임의의 다른 미디어 아이템들의 비디오 콘텐츠의 재생을 디스플레이하지 않고서 미디어 라이브러리 사용자 인터페이스에 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 것)을 포함한다(예컨대, 도 7a 내지 도 7d의 미디어 아이템들(710A 내지 710F)을 참조하여 설명된 바와 같음). 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이함으로써 제1 미디어 아이템의 표현의 외관을 제1 방식으로 디스플레이되는 것으로부터 제2 방식으로 디스플레이되는 것으로 변경하는 것은 (예컨대, 제1 위치에 대응하는 사용자 시선이 검출되었다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제2 방식과는 상이한 제3 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 제1 미디어 아이템의 비디오 콘텐츠의 제2 정적 표현을 디스플레이하는 것을 (예컨대, 제1 미디어 아이템의 정적 썸네일 이미지 표현을 디스플레이하는 것을) 포함한다(예컨대, 도 7a 내지 도 7d의 미디어 아이템들(710A 내지 710F)을 참조하여 설명된 바와 같음). 일부 실시예들에서, 제2 정적 표현은 정적 표현과 동일하거나 정적 표현과 상이하다. 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 아이템의 비디오 콘텐츠의 재생을 중지한다. 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 미디어 아이템과는 상이한 제2 미디어 아이템의 표현의 외관을 제2 미디어 아이템의 비디오 콘텐츠의 정적 표현을 디스플레이하는 것(예컨대, 제1 아이템의 비디오 콘텐츠의 정적 썸네일 이미지 표현을 디스플레이하는 것)으로부터 제2 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 것(예컨대, 제2 미디어 아이템의 움직이는 시각적 콘텐츠 및/또는 영화 콘텐츠를 디스플레이하는 것)으로 변경한다. 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여 (예컨대, 제1 미디어 아이템의 비디오 콘텐츠의 정적 표현을 디스플레이함으로써) 제1 미디어 아이템의 표현의 외관을 제2 방식으로 디스플레이되는 것으로부터 제3 방식으로 디스플레이되는 것으로 변경하는 것은 (예컨대, 제2 위치에 대응하는 사용자 시선이 검출되었다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 (일부 실시예들에서, 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 것은) 저역 통과 필터(예컨대, 블러링 및/또는 스무딩 필터)를 제1 미디어 아이템의 비디오 콘텐츠에 적용하는 것을 포함한다(예컨대, 도 7a 내지 도 7d의 미디어 아이템들(710A 내지 710F)을 참조하여 설명된 바와 같음). 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안, 컴퓨터 시스템은 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들(예컨대, 하나 이상의 터치 입력들, 하나 이상의 비-터치 입력들, 하나 이상의 제스처들(예컨대, 하나 이상의 에어 제스처들))(예컨대, 사용자의 시선이 제1 미디어 아이템에 유지되고/되거나 그로 지향되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)을 검출하고; 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 저역 통과 필터가 적용되지 않는 상태로 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이한다. 일부 실시예들에서, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 미디어 라이브러리 사용자 인터페이스와는 상이한 미디어 플레이어 사용자 인터페이스를 디스플레이하고(일부 실시예들에서, 컴퓨터 시스템은 미디어 라이브러리 사용자 인터페이스의 디스플레이를 중지하고/하거나 미디어 라이브러리 사용자 인터페이스의 적어도 일부의 디스플레이를 중지하고), 저역 통과 필터가 적용되지 않는 상태로 제1 미디어 아이템의 비디오 콘텐츠의 재생을, 미디어 플레이어 사용자 인터페이스에, 디스플레이한다. 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여 (예컨대, 저역 통과 필터가 적용된 상태로 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이함으로써) 제1 미디어 아이템의 표현의 외관을 제1 방식으로 디스플레이되는 것으로부터 제2 방식으로 디스플레이되는 것으로 변경하는 것은 (예컨대, 제1 위치에 대응하는 사용자 시선이 검출되었다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 것을 포함하여, 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 동안, 컴퓨터 시스템은 제1 볼륨 레벨로 제1 미디어 아이템의 오디오 콘텐츠(예컨대, 제1 미디어 아이템의 비디오 콘텐츠에 대응하는 오디오 콘텐츠)를 출력한다. 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안(일부 실시예들에서, (예컨대, 미디어 라이브러리 사용자 인터페이스에) 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 동안 그리고/또는 제1 볼륨 레벨로 제1 미디어 아이템의 오디오 콘텐츠를 출력하는 동안), 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들(예컨대, 하나 이상의 터치 입력들, 하나 이상의 비-터치 입력들, 및/또는 하나 이상의 제스처들(예컨대, 하나 이상의 에어 제스처들))(예컨대, 사용자의 시선이 제1 미디어 아이템에 유지되고/되거나 그로 지향되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)을 검출한다. 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 볼륨 레벨보다 높은 제2 볼륨 레벨로 제1 미디어 아이템의 오디오 콘텐츠를 출력한다(예컨대, 도 7a 내지 도 7d의 미디어 아이템들(710A 내지 710F)을 참조하여 설명된 바와 같음). 일부 실시예들에서, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들은 하나 이상의 에어 제스처들을 포함한다. 일부 실시예들에서, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것은 사용자의 시선이 제1 미디어 아이템에 유지되고/되거나 그로 지향되는 동안 한 손 핀치 제스처(예컨대, 한 손 핀치 에어 제스처) 및/또는 양 손 디핀치 제스처(예컨대, 양 손 디핀치 에어 제스처)를 검출하는 것을 (예컨대, 사용자의 시선이 제1 미디어 아이템에 유지되고/되거나 그로 지향되는 것을 검출하는 동안 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처를 검출하는 것을) 포함한다. 일부 실시예들에서, 컴퓨터 시스템은 제1 미디어 아이템의 비디오 콘텐츠의 재생을 계속 디스플레이하는 동안 제2 볼륨 레벨로 제1 미디어 아이템의 오디오 콘텐츠를 출력한다. 일부 실시예들에서, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 미디어 라이브러리 사용자 인터페이스와는 상이한 미디어 플레이어 사용자 인터페이스를 디스플레이하고(일부 실시예들에서, 컴퓨터 시스템은 미디어 라이브러리 사용자 인터페이스의 디스플레이를 중지하고/하거나 미디어 라이브러리 사용자 인터페이스의 적어도 일부의 디스플레이를 중지하고), 제2 볼륨 레벨로 제1 미디어 아이템의 오디오 콘텐츠를 출력하는 동안 제1 미디어 아이템의 비디오 콘텐츠의 재생을, 미디어 플레이어 사용자 인터페이스에, 디스플레이한다. 제1 미디어 아이템의 오디오 콘텐츠가 제1 미디어 아이템의 열림 및/또는 선택에 응답하여 출력되는 볼륨을 자동적으로 증가시키는 것은 사용자가 추가 사용자 입력들을 제공하지 않고 재생 볼륨을 증가시키게 하고, 이는 동작을 수행하는 데 필요한 입력들의 수를 감소시킨다.
일부 실시예들에서, 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 것은 (예컨대, 어떠한 추가의 사용자 입력들도 없이) 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여 수행된다(예컨대, 도 7a 내지 도 7d의 미디어 아이템들(710A 내지 710F)을 참조하여 설명된 바와 같음). 일부 실시예들에서, 제1 미디어 아이템의 비디오 콘텐츠의 재생은 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선이 임계 지속기간 동안 유지되었다는 결정에 따라 디스플레이된다. 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 것은 사용자가 추가 사용자 입력들 없이 제1 미디어 아이템의 비디오 콘텐츠를 재생하게 하며, 이는 동작을 수행하는 데 필요한 입력들의 수를 감소시킨다.
일부 실시예들에서, 제1 미디어 아이템은 제1 요소 및 제2 요소를 포함하는 복수의 요소들(예컨대, 제1 층 내의 제1 요소 및 제2 층 내의 제2 요소를 포함하는, 복수의 층들에 배열된 복수의 요소들(일부 실시예들에서, 각각의 층은 z-축을 따라 상이한 위치에 위치됨)을 포함한다. 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 사용자의 시점이 제1 미디어 아이템에 대해 시프트됨에 따라 제1 요소가 제2 요소에 대해 이동하는 것을 (예컨대, 사용자의 시점의 이동에 응답하여 또는 사용자의 시점이 동일한 장소에 유지되는 동안 제1 미디어 아이템의 이동에 응답하여 제1 요소를 제2 요소에 대해 시프트시키는 것을) 디스플레이한다(예컨대, 도 7a 내지 도 7d의 미디어 아이템들(710A 내지 710F)을 참조하여 설명된 바와 같음). 일부 실시예들에서, 제1 요소는 제1 미디어 아이템에 대한 사용자의 시점의 변화의 양에 기초한 양만큼 제2 요소에 대해 시프트된다. 일부 실시예들에서, 제1 요소는 제1 미디어 아이템에 대한 사용자의 시점의 변화의 방향에 기초한 방향으로 제2 요소에 대해 시프트된다. 일부 실시예들에서, 제1 요소가 제2 요소에 대해 이동하는 것을 디스플레이하는 것은 하나 이상의 사용자 입력들(예컨대, 하나 이상의 제스처들(예컨대, 사용자의 손들 및/또는 머리의 이동)(예컨대, 하나 이상의 에어 제스처들) 및/또는 하나 이상의 비-제스처 입력들)을 검출하는 것에 응답하여 수행된다. 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하는 동안 제1 요소가 제2 요소에 대해 이동하는 것을 디스플레이하는 것은 (예컨대, 제1 위치에 대응하는 사용자 시선이 검출되었다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 컴퓨터 시스템은 (예컨대, 제3 방식으로 제1 미디어 아이템의 표현을 디스플레이한 후 그리고/또는 그 동안), 하나 이상의 입력 디바이스들을 통해, 미디어 라이브러리 사용자 인터페이스(예컨대, 708) 내의 제1 위치(예컨대, 제1 미디어 아이템의 표현에 대응하는 미디어 라이브러리 사용자 인터페이스 내의 제1 위치)에 대응하는 사용자 시선(예컨대, 714)을 검출한다(예컨대, 사용자가 미디어 라이브러리 사용자 인터페이스 내의 제1 위치를 응시하고 있다는 것을 검출 및/또는 결정함). (예컨대, 제3 시간에 후속하는 제4 시간에) 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 하나 이상의 사용자 제스처들(예컨대, 716 또는 718)(예컨대, 사용자의 손들, 머리, 및/또는 신체의 이동)(예컨대, 하나 이상의 에어 제스처들(예컨대, 한 손 핀치 에어 제스처, 한 손 더블 핀치 에어 제스처, 핀치 및 드래그 에어 제스처, 양 손 핀치 에어 제스처 및/또는 양 손 디핀치 에어 제스처))(일부 실시예들에서, 하나 이상의 비-제스처 입력들)(일부 실시예들에서, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 제스처들)을 검출한다. 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 미디어 아이템의 표현의 외관을, 디스플레이 생성 컴포넌트를 통해, 제7 방식으로 (예컨대, 제7 세트의 시각적 특성들로) 디스플레이되는 것으로부터 제7 방식과는 상이한 제8 방식으로 (예컨대, 제8 세트의 시각적 특성들로) 디스플레이되는 것으로 변경한다(예컨대, 도 7d 내지 도 7f를 참조하여 설명된 바와 같이, 사용자 제스처(718)에 응답하여 미디어 아이템(710F)의 외관을 변경함). 일부 실시예들에서, 제7 방식은 제2 방식과 동일하다. 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 미디어 아이템의 표현의 외관을 제2 방식으로 디스플레이되는 것으로부터 상기 제2 방식과는 상이한 제8 방식으로 디스플레이되는 것으로 변경한다. 미디어 라이브러리 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 제1 미디어 아이템의 표현의 외관을 변경하는 것은 (예컨대, 시스템이 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 하나 이상의 사용자 제스처들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 하나 이상의 사용자 제스처들은 핀치 제스처(예컨대, 핀치 에어 제스처)(예컨대, 한 손 핀치 제스처 또는 양 손 핀치 제스처)(예컨대, 2개의 손가락들(예컨대, 한 손 또는 양 손의 2개의 손가락들)이 서로에 대한 제1 거리로부터 서로에 대한 제2 거리로 이동하는 것 - 제2 거리는 제1 거리보다 가까움)를 포함한다(예컨대, 도 7d 내지 도 7f를 참조하여 설명된 바와 같음). 일부 실시예들에서, 제2 거리는 임계 거리보다 가깝다(예컨대, 2개의 손가락들은 거리 임계치를 만족하기에 충분히 가까운 위치로 이동된다). 일부 실시예들에서, 핀치 제스처는 제1 미디어 아이템의 사용자 선택(예컨대, 어떠한 다른 미디어 아이템들의 선택도 없는 제1 미디어 아이템의 사용자 선택(예컨대, 제1 미디어 아이템만의 사용자 선택)을 나타내는 선택 제스처에 대응하고; 제8 방식에 의한 제1 미디어 아이템의 표현의 디스플레이는 제1 미디어 아이템의 사용자 선택을 나타내고(예컨대, 복수의 미디어 아이템들 중 어떠한 다른 미디어 아이템들도 선택하지 않은 상태의, 복수의 미디어 아이템들로부터의 제1 미디어 아이템의 사용자 선택(예컨대, 제1 미디어 아이템만의 사용자 선택)을 나타내고); 제7 방식에 의한 제1 미디어 아이템의 표현의 디스플레이는 제1 미디어 아이템의 사용자 선택을 나타내지 않는다.
일부 실시예들에서, 제1 미디어 아이템의 표현의 외관을 제7 방식으로 디스플레이되는 것으로부터 제8 방식으로 디스플레이되는 것으로 변경하는 것은 제1 미디어 아이템의 표현의 크기를 확장하는 것을 포함한다. 일부 실시예들에서, 제1 미디어 아이템의 표현의 외관을 제7 방식으로 디스플레이되는 것으로부터 제8 방식으로 디스플레이되는 것으로 변경하는 것은 제1 미디어 아이템의 재생을 개시하는 것을 (예컨대, 제1 미디어 아이템의 비디오 재생을 개시하는 것을) 포함한다. 일부 실시예들에서, 제1 미디어 아이템의 표현의 외관을 제7 방식으로 디스플레이되는 것으로부터 제8 방식으로 디스플레이되는 것으로 변경하는 것은 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스 내에 제1 미디어 아이템의 표현을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 핀치 제스처를 포함하는 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 미디어 아이템의 표현과는 상이한 하나 이상의 미디어 아이템들의 표현들(예컨대, 미디어 라이브러리 사용자 인터페이스에 디스플레이되었던 하나 이상의 미디어 아이템들의 표현들)을 디스플레이하는 것을 중지한다.
미디어 라이브러리 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 제1 미디어 아이템의 표현의 외관을 변경하는 것은 (예컨대, 시스템이 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 하나 이상의 사용자 제스처들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 미디어 아이템(예컨대, 710A 내지 710F)은 제1 요소 및 제2 요소를 포함하는 복수의 요소들을 포함한다. 일부 실시예들에서, 제7 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 제1 위치에 제1 요소를 디스플레이하는 것; 및 제1 위치보다 컴퓨터 시스템의 사용자에게 더 가까운 제2 위치에 제2 요소를 디스플레이하는 것을 포함한다. 일부 실시예들에서, 하나 이상의 사용자 제스처들(예컨대, 하나 이상의 에어 제스처들)은 제1 제스처(예컨대, 제1 에어 제스처)를 포함한다. 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 제1 제스처를 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 요소와 제2 요소 사이의 거리를 감소시키도록 제1 요소에 대해 제2 요소를 이동시킨다(예컨대, 도 7d 내지 도 7f를 참조하여 설명된 바와 같음). 일부 실시예들에서, 제1 제스처는 핀치 제스처(예컨대, 핀치 에어 제스처)(예컨대, 제1 손가락이 제2 손가락에 더 가깝게 이동하는 제스처)이고, 제2 요소는 핀치 제스처의 크기에 기초하여 (예컨대, 다른 손가락에 대한 하나의 손가락의 이동의 양에 기초하여) 축을 따라 제1 요소와 제2 요소 사이의 거리를 감소시키도록 제1 요소에 대해 축을 따라 이동된다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스는 x-축 및 x-축에 수직인 y-축을 갖는 제1 평면을 한정하고(예컨대, 미디어 라이브러리 사용자 인터페이스는 적어도 하나의 평면형 표면을 포함하고, 평면형 표면은 x-축 및 y-축을 한정함)(일부 실시예들에서, 복수의 미디어 아이템들의 표현들은 제1 평면 상에 (예컨대, 내에) 디스플레이됨); 제1 미디어 아이템은 제1 요소 및 제2 요소를 포함하는 복수의 요소들을 포함하고; 제7 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 것은 z-축 상의 제1 위치에 제1 요소를 그리고 제2 위치와는 상이한 z-축 상의 제2 위치에 제2 요소를 동시에 디스플레이하는 것을 포함하고; 하나 이상의 사용자 제스처들은 제1 제스처를 포함하고; 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 제1 제스처를 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 제스처의 크기에 기초하여 z-축을 따라 제1 요소와 제2 요소 사이의 거리를 감소시키도록 제1 요소에 대해 z-축을 따라 제2 요소를 이동시킨다. 일부 실시예들에서, 제1 제스처는 핀치 제스처(예컨대, 핀치 에어 제스처)(예컨대, 제1 손가락이 제2 손가락에 더 가깝게 이동하는 제스처)이고, 제2 요소는 핀치 제스처의 크기에 기초하여 (예컨대, 다른 손가락에 대한 하나의 손가락의 이동의 양에 기초하여) z-축을 따라 제1 요소와 제2 요소 사이의 거리를 감소시키도록 제1 요소에 대해 z-축을 따라 이동된다.
제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 제1 제스처를 검출하는 것에 응답하여 제2 요소를 제1 요소에 대해 이동시키는 것은 (예컨대, 시스템이 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 제1 제스처들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 하나 이상의 사용자 제스처들은 제1 제스처에 후속하여 수행되는 제2 제스처(예컨대, 제2 에어 제스처)를 포함한다. 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 제2 제스처를 검출하는 것에 응답하여, 컴퓨터 시스템은 (예컨대, 제2 제스처의 크기에 기초하여) 제1 요소와 제2 요소 사이의 거리를 증가시키도록 제1 요소에 대해 제2 요소를 이동시킨다(예컨대, 미리정의된 축을 따라 제2 요소를 이동시킴)(예컨대, 도 7d 내지 도 7f를 참조하여 설명된 바와 같음). 일부 실시예들에서, 제1 요소와 제2 요소 사이의 거리를 증가시키도록 제1 요소에 대해 제2 요소를 이동시키는 것은 제1 요소를 축(예컨대, 미리정의된 축(예컨대, 컴퓨터 시스템의 사용자를 향하여 연장되는 축)) 상의 제1 위치로 이동시키는 것 및/또는 제2 요소를 축 상의 제2 위치로 이동시키는 것을 포함한다. 일부 실시예들에서, 제2 제스처는 디핀치 제스처(예컨대, 디핀치 에어 제스처)(예컨대, 제1 손가락이 제2 손가락으로부터 더 멀리 이동하는 제스처)이다. 일부 실시예들에서, 제2 요소는 디핀치 제스처의 크기에 기초하여 (예컨대, 다른 손가락에 대한 하나의 손가락의 이동의 양에 기초하여) 제1 요소와 제2 요소 사이의 거리를 증가시키도록 제1 요소에 대해 이동된다(예컨대, 축을 따라 이동된다). 일부 실시예들에서, 제1 요소와 제2 요소 사이의 거리를 증가시키도록 제1 요소에 대해 제2 요소를 이동시키는 것은 제1 제스처가 완료 임계치를 만족하지 못한다는 결정에 따라 수행된다. 미디어 라이브러리 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 제2 제스처를 검출하는 것에 응답하여 제2 요소를 제1 요소에 대해 이동시키는 것은 (예컨대, 시스템이 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 제2 제스처들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 하나 이상의 사용자 제스처들(예컨대, 718)은 제1 제스처에 후속하여 수행되는 제3 제스처(예컨대, 제3 에어 제스처)를 포함하고; 제3 제스처는 제1 미디어 아이템의 사용자 선택(예컨대, 어떠한 다른 미디어 아이템들도 선택하지 않은 상태의 제1 미디어 아이템의 사용자 선택(예컨대, 제1 미디어 아이템만의 선택))을 나타낸다. 일부 실시예들에서, 제3 제스처는 제1 제스처의 연속(예컨대, 완료 임계치 초과의 제1 제스처의 연속)이다. 일부 실시예들에서, 제3 제스처를 검출하는 것에 응답하여, 컴퓨터 시스템은 (예컨대, 미리정의된 축을 따라) 제1 요소와 제2 요소 사이의 거리를 증가시킨다(예컨대, 도 7d 내지 도 7f를 참조하여 설명된 바와 같음). 일부 실시예들에서, 제1 제스처를 검출하는 것에 응답하여, 제1 요소와 제2 요소 사이의 거리는 제1 거리로 감소되고, 제3 제스처를 검출하는 것에 응답하여, 제1 요소와 제2 요소 사이의 거리는 제1 거리로부터 제2 거리로 증가된다. 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 제1 제스처를 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 제스처의 크기에 기초하여 제1 요소와 제2 요소 사이의 거리를 제1 거리로 감소시키도록 제1 요소에 대해 제2 요소를 이동시키고; 제1 요소와 제2 요소 사이의 거리를 제1 거리로 감소시키도록 제1 요소에 대해 제2 요소를 이동시키는 것에 후속하여, 제1 제스처가 완료 임계치를 충족한다는 결정에 따라, 컴퓨터 시스템은 제1 요소와 제2 요소 사이의 거리를 제2 거리로 증가시킨다. 제3 제스처를 검출하는 것에 응답하여 제1 요소와 제2 요소 사이의 거리를 증가시키는 것은 (예컨대, 시스템이 제3 제스처를 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이하는 것은, 제1 미디어 아이템(예컨대, 710A 내지 710F)의 표현과 동시에, 제1 미디어 아이템(예컨대, 710A 내지 710F)의 표현과는 상이한 제2 미디어 아이템의 표현을 디스플레이하는 것을 포함하고; 하나 이상의 사용자 제스처들은 제1 미디어 아이템의 선택(예컨대, 도 7d의 미디어 아이템(710F)의 선택)(예컨대, 어떠한 다른 미디어 아이템들도 선택하지 않은 상태의 제1 미디어 아이템의 선택(예컨대, 제1 미디어 아이템만의 선택))에 대응하는 제1 선택 제스처(예컨대, 에어 제스처)(예컨대, 718)(예컨대, 에어 탭 제스처(예컨대, 어떠한 표면 또는 객체와도 접촉하지 않는 탭 제스처); 두 손가락 핀치 제스처; 두 손가락 디핀치 제스처; 한 손 핀치 제스처; 및/또는 한 손 디핀치 제스처)를 포함한다. 일부 실시예들에서, 제1 선택 제스처를 검출하는 것은 사용자의 시선이 제1 미디어 아이템으로 지향되고/되거나 그에 유지되는 것을 또한 검출하는 동안, 미리정의된 제스처(예컨대, 에어 제스처)(예컨대, 사용자의 시선이 제1 미디어 아이템으로 지향되고/되거나 그에 유지되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)를 검출하는 것을 포함한다. 일부 실시예들에서, 제1 미디어 아이템의 선택에 대응하는 제1 선택 제스처를 검출하는 것에 응답하여, 컴퓨터 시스템은 제2 미디어 아이템의 표현을 시각적으로 가린다(예컨대, 제2 미디어 아이템의 표현을 블러링한다)(예컨대, 도 7d 내지 도 7f를 참조하여 설명된 바와 같음). 제1 선택 제스처를 검출하는 것에 응답하여 제2 미디어 아이템의 표현을 시각적으로 가리는 것은 (예컨대, 시스템이 제1 미디어 아이템의 선택에 대응하는 제1 선택 제스처를 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선(예컨대, 714)을 검출하는 동안(그리고 선택적으로, 제2 방식으로 제1 미디어 아이템의 표현을 디스플레이하는 동안), 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 제2 세트의 하나 이상의 사용자 제스처들(예컨대, 718)(예컨대, 사용자의 손들, 머리(예컨대, 좌우), 및/또는 신체 일부의 이동)(예컨대, 하나 이상의 에어 제스처들)을 검출한다. 제2 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은 제2 세트의 하나 이상의 사용자 제스처들에 기초하여 (예컨대, 제2 세트의 하나 이상의 사용자 제스처들의 이동 방향에 기초하여) 제1 미디어 아이템의 표현의 시각적 콘텐츠를 시프트시킨다(예컨대, 도 7c 및 도 7d). 일부 실시예들에서, 제2 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은 추가 콘텐츠(예컨대, 제1 미디어 아이템의 추가 콘텐츠 및/또는 미디어 라이브러리 사용자 인터페이스의 추가 콘텐츠)를 디스플레이한다. 제2 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 제1 미디어 아이템의 표현의 시각적 콘텐츠를 시프트시키는 것은 (예컨대, 시스템이 제2 세트의 하나 이상의 사용자 제스처들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다. 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때, 제2 세트의 하나 이상의 사용자 제스처들은 사용자의 머리의 회전에 대응한다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 핀치 제스처(예컨대, 핀치 에어 제스처)(예컨대, 서로 옆에 있는 2개의 손가락들의 배치 및/또는 서로 더 가까워지는 2개의 손가락들의 이동) 및 드래그 제스처(예컨대, 드래그 에어 제스처)(예컨대, 일정 방향으로의 손의 이동(예컨대, 핀칭된 손의 이동))(예컨대, 핀치 및 드래그 제스처)를 포함하는 제3 세트의 하나 이상의 사용자 제스처들(예컨대, 716)(예컨대, 하나 이상의 에어 제스처들)을 검출한다. 제3 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은 미디어 라이브러리 사용자 인터페이스의 스크롤을 디스플레이한다(예컨대, 도 7c 및 도 7d). 일부 실시예들에서, 제3 세트의 하나 이상의 사용자 제스처들을 검출하기 전, 컴퓨터 시스템은 제1 세트의 미디어 아이템들의 표현을 디스플레이하고, 미디어 라이브러리 사용자 인터페이스의 스크롤을 디스플레이하는 것은, 제3 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 후속하여, 제1 세트의 미디어 아이템들과는 상이한 제2 세트의 미디어 아이템들의 표현들을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스의 스크롤을 디스플레이하는 것은 적어도 제1 세트의 미디어 아이템들의 서브세트가 더 이상 디스플레이되지 않을 때까지 일정 방향으로의 제1 세트의 미디어 아이템들의 스크롤을 디스플레이하는 것을 포함한다. 제3 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 미디어 라이브러리 사용자 인터페이스의 스크롤을 디스플레이하는 것은 (예컨대, 시스템이 제3 세트의 하나 이상의 사용자 제스처들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템(예컨대, 710F)의 선택에 대응하는 하나 이상의 사용자 입력들(예컨대, 718)(예컨대, 하나 이상의 제스처 입력들(예컨대, 하나 이상의 에어 제스처들) 및/또는 하나 이상의 비-제스처 입력들)(예컨대, 사용자의 시선이 제1 미디어 아이템으로 지향되고/되거나 그에 유지되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)(예컨대, 어떠한 다른 미디어 아이템들도 선택하지 않은 상태의 제1 미디어 아이템의 선택(예컨대, 제1 미디어 아이템만의 선택))을 검출한다. 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스(예컨대, 719)에 제1 미디어 아이템을 디스플레이한다. 일부 실시예들에서, 선택된 미디어 사용자 인터페이스는 미디어 라이브러리 사용자 인터페이스를 오버레이한다. 일부 실시예들에서, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 것을 중지하거나, 미디어 라이브러리 사용자 인터페이스의 적어도 일부를 디스플레이하는 것을 중지한다. 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템을 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 핀치 제스처(예컨대, 핀치 에어 제스처)(예컨대, 서로 옆에 있는 2개의 손가락들의 배치 및/또는 서로 더 가까워지는 2개의 손가락들의 이동) 및 드래그 제스처(예컨대, 드래그 에어 제스처)(예컨대, 일정 방향으로의 손의 이동(예컨대, 핀칭된 손의 이동))(예컨대, 제1 방향으로의 핀치 및 드래그 제스처)를 포함하는 제4 세트의 하나 이상의 사용자 제스처들(예컨대, 732)(예컨대, 하나 이상의 에어 제스처들)을 검출한다. 제4 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은 선택된 미디어 사용자 인터페이스에서의 제1 미디어 아이템의 디스플레이를 중지하고; 디스플레이 생성 컴포넌트를 통해, 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템과는 상이한 제2 미디어 아이템을 디스플레이한다(예컨대, 도 7f를 참조하여 설명된 바와 같음). 일부 실시예들에서, 컴퓨터 시스템은 선택된 미디어 사용자 인터페이스에서의 제1 미디어 아이템의 디스플레이를 선택된 미디어 사용자 인터페이스에서의 제2 미디어 아이템의 디스플레이로 대체한다. 일부 실시예들에서, 선택된 미디어 사용자 인터페이스에 제2 미디어 아이템을 디스플레이하는 것은 드래그 제스처(예컨대, 핀치 및 드래그 제스처)가 특정 방향(예컨대, 좌측 방향, 우측 방향, 상향 방향, 및/또는 하향 방향)에 대응한다는 결정에 따라 수행된다. 일부 실시예들에서, 특정 방향과는 상이한 방향으로의 핀치 및 드래그 제스처는 상이한 액션(예컨대, 선택된 미디어 사용자 인터페이스를 디스플레이하는 것을 중지하는 것 및/또는 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 것)을 야기한다. 제4 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 선택된 미디어 사용자 인터페이스에서의 제1 미디어 아이템의 디스플레이를 중지하는 것 및 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템과는 상이한 제2 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제4 세트의 하나 이상의 사용자 제스처들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템(예컨대, 710F)의 선택에 대응하는 하나 이상의 사용자 입력들(예컨대, 718)(예컨대, 하나 이상의 제스처 입력들(예컨대, 하나 이상의 에어 제스처들) 및/또는 하나 이상의 비-제스처 입력들)(예컨대, 사용자의 시선이 제1 미디어 아이템으로 지향되고/되거나 그에 유지되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)(예컨대, 어떠한 다른 미디어 아이템들도 선택하지 않은 상태의 제1 미디어 아이템의 선택(예컨대, 제1 미디어 아이템만의 선택))을 검출한다. 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스(예컨대, 719)에 제1 미디어 아이템(예컨대, 710F)을 디스플레이한다. 일부 실시예들에서, 선택된 미디어 사용자 인터페이스는 미디어 라이브러리 사용자 인터페이스를 오버레이한다. 일부 실시예들에서, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 것을 중지하거나, 미디어 라이브러리 사용자 인터페이스의 적어도 일부를 디스플레이하는 것을 중지한다. 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템을 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 핀치 제스처(예컨대, 서로 옆에 있는 2개의 손가락들의 배치 및/또는 서로 더 가까워지는 2개의 손가락들의 이동) 및 드래그 제스처(예컨대, 일정 방향으로의 손의 이동(예컨대, 핀칭된 손의 이동))(예컨대, 제1 방향으로의 핀치 및 드래그 제스처)를 포함하는 제5 세트의 하나 이상의 사용자 제스처들(예컨대, 732)(예컨대, 하나 이상의 에어 제스처들)을 검출한다. 제5 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은 선택된 미디어 사용자 인터페이스의 디스플레이를 중지하고; 디스플레이 생성 컴포넌트를 통해, (예컨대, 선택된 미디어 사용자 인터페이스에 의해 이전에 점유되었던 위치에) 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이한다(예컨대, 도 7f를 참조하여 설명된 바와 같음). 일부 실시예들에서, 선택된 미디어 사용자 인터페이스의 디스플레이를 중지하는 것 및 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 것은 드래그 제스처(예컨대, 핀치 및 드래그 제스처)가 특정 방향(예컨대, 좌측 방향, 우측 방향, 상향 방향, 및/또는 하향 방향)에 대응한다는 결정에 따라 수행된다. 일부 실시예들에서, 특정 방향과는 상이한 방향으로의 핀치 및 드래그 제스처는 상이한 액션(예컨대, 선택된 미디어 사용자 인터페이스에서의 제1 미디어 아이템의 디스플레이를 선택된 미디어 사용자 인터페이스에서의 상이한 미디어 아이템으로 대체하는 것)을 야기한다. 제5 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 선택된 미디어 사용자 인터페이스의 디스플레이를 중지하는 것 및 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 것은 (예컨대, 시스템이 제5 세트의 하나 이상의 사용자 제스처들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템(예컨대, 710F)의 선택에 대응하는 하나 이상의 사용자 입력들(예컨대, 718)(예컨대, 하나 이상의 제스처 입력들(예컨대, 하나 이상의 에어 제스처들) 및/또는 하나 이상의 비-제스처 입력들)(예컨대, 사용자의 시선이 제1 미디어 아이템으로 지향되고/되거나 그에 유지되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)(예컨대, 어떠한 다른 미디어 아이템들도 선택하지 않은 상태의 제1 미디어 아이템의 선택(예컨대, 제1 미디어 아이템만의 선택))을 검출한다. 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스(예컨대, 719)에 제1 미디어 아이템(예컨대, 710F)을 디스플레이한다. 일부 실시예들에서, 선택된 미디어 사용자 인터페이스는 미디어 라이브러리 사용자 인터페이스를 오버레이한다. 일부 실시예들에서, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 것을 중지하거나, 미디어 라이브러리 사용자 인터페이스의 적어도 일부를 디스플레이하는 것을 중지한다. 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템을 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 핀치 제스처(예컨대, 서로 옆에 있는 2개의 손가락들의 배치 및/또는 서로 더 가까워지는 2개의 손가락들의 이동) 및 드래그 제스처(예컨대, 일정 방향으로의 손의 이동(예컨대, 핀칭된 손의 이동))(예컨대, 제1 방향으로의 핀치 및 드래그 제스처)를 포함하는 제6 세트의 하나 이상의 사용자 제스처들(예컨대, 하나 이상의 에어 제스처들)(예컨대, 732)을 검출한다. 제6 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 그리고 드래그 제스처(예컨대, 핀치 및 드래그 제스처)가 제1 방향(예컨대, 좌측 방향, 우측 방향, 상향 방향, 및/또는 하향 방향)에 대응한다는 결정에 따라, 컴퓨터 시스템은 선택된 미디어 사용자 인터페이스에서의 제1 미디어 아이템의 디스플레이를 중지하고; 디스플레이 생성 컴포넌트를 통해, 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템과는 상이한 제2 미디어 아이템을 디스플레이한다. 일부 실시예들에서, 제2 미디어 아이템을 디스플레이하는 것은 선택된 미디어 사용자 인터페이스에서의 제1 미디어 아이템의 디스플레이를 선택된 미디어 사용자 인터페이스에서의 제2 미디어 아이템의 디스플레이로 대체하는 것을 포함한다. 일부 실시예들에서, 제6 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 그리고 드래그 제스처(예컨대, 핀치 및 드래그 제스처)가 제1 방향과는 상이한 제2 방향(예컨대, 좌측 방향, 우측 방향, 상향 방향, 및/또는 하향 방향)에 대응한다는 결정에 따라, 컴퓨터 시스템은 선택된 미디어 사용자 인터페이스의 디스플레이를 중지하고; 디스플레이 생성 컴포넌트를 통해, 미디어 라이브러리 사용자 인터페이스를 디스플레이한다(예컨대, 도 7f를 참조하여 설명된 바와 같음).
일부 실시예들에서, 제6 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 드래그 제스처가 제1 방향 및 제2 방향과 상이한 제3 방향(및 선택적으로, 제1 방향과 반대 방향)이라는 결정에 따라, 컴퓨터 시스템은 선택된 미디어 사용자 인터페이스에서의 제1 미디어 아이템의 디스플레이를 중지하고; 디스플레이 생성 컴포넌트를 통해, 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템 및 제2 미디어 아이템과는 상이한 제3 미디어 아이템을 디스플레이한다. 일부 실시예들에서, 컴퓨터 시스템은 선택된 미디어 사용자 인터페이스에서의 제1 미디어 아이템의 디스플레이를 선택된 미디어 사용자 인터페이스에서의 제3 미디어 아이템의 디스플레이로 대체한다.
제6 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 그리고 드래그 제스처가 제1 방향에 대응한다는 결정에 따라, 선택된 미디어 사용자 인터페이스에서의 제1 미디어 아이템의 디스플레이를 중지하는 것 및 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템과는 상이한 제2 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제6 세트의 하나 이상의 사용자 제스처들을 검출하였고 제6 세트의 제스처들이 제1 방향에 대응한다고 결정하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
제6 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 그리고 드래그 제스처가 제2 방향에 대응한다는 결정에 따라, 선택된 미디어 사용자 인터페이스의 디스플레이를 중지하는 것 및 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 것은 (예컨대, 시스템이 제6 세트의 하나 이상의 사용자 제스처들을 검출하였고 제6 세트의 하나 이상의 사용자 제스처들이 제2 방향에 대응한다고 결정하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템(예컨대, 710F)의 선택에 대응하는 하나 이상의 사용자 입력들(예컨대, 718)(예컨대, 하나 이상의 제스처 입력들(예컨대, 하나 이상의 에어 제스처들) 및/또는 하나 이상의 비-제스처 입력들)(예컨대, 사용자의 시선이 제1 미디어 아이템으로 지향되고/되거나 그에 유지되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)(예컨대, 어떠한 다른 미디어 아이템들도 선택하지 않은 상태의 제1 미디어 아이템의 선택(예컨대, 제1 미디어 아이템만의 선택))을 검출한다. 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스(예컨대, 719)에 제1 미디어 아이템(예컨대, 710F)을 디스플레이한다. 일부 실시예들에서, 선택된 미디어 사용자 인터페이스는 미디어 라이브러리 사용자 인터페이스를 오버레이한다. 일부 실시예들에서, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 것을 중지하거나, 미디어 라이브러리 사용자 인터페이스의 적어도 일부를 디스플레이하는 것을 중지한다. 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템을 디스플레이하는 동안, 사용자의 손(예컨대, 사용자의 하나 이상의 손들)이 제1 상태(예컨대, 상승 상태 및/또는 제1 포즈)에 있다는 결정에 따라, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제1 세트의 사용자 인터페이스 제어부들(예컨대, 728A, 728B, 728C, 및/또는 740)(예컨대, 선택가능 제어부들, 닫기 옵션, 공유 옵션, 시간 정보, 날짜 정보, 위치 정보, 및/또는 재생 제어부들(예컨대, 재생 옵션, 일시정지 옵션, 앞으로 빨리 가기 옵션, 및/또는 뒤로 가기 옵션))을 디스플레이한다. 일부 실시예들에서, 제1 세트의 사용자 인터페이스 제어부들을 디스플레이하는 동안, 컴퓨터 시스템은 제1 세트의 사용자 인터페이스 제어부들 중 제1 사용자 인터페이스 제어부의 선택에 대응하는 하나 이상의 선택 입력들을 검출하고; 하나 이상의 선택 입력들을 검출하는 것에 응답하여, 제1 미디어 아이템의 디스플레이를 수정한다(예컨대, 제1 미디어 아이템을 닫음(예컨대, 그의 디스플레이를 중지함); 제1 미디어 아이템의 재생을 개시하고/하거나 일시정지함; 제1 미디어 아이템의 재생에서 앞으로 그리고/또는 뒤로 스킵함; 제1 미디어 아이템의 재생을 느리게 하고/하거나 빠르게 함). 일부 실시예들에서, 제1 세트의 사용자 인터페이스 제어부들은 제1 미디어 아이템을 닫기 (예컨대, 그의 디스플레이를 중지하기) 위해 선택가능한 제1 사용자 인터페이스 제어부(예컨대, 닫기 옵션)를 포함한다. 일부 실시예들에서, 제1 세트의 하나 이상의 사용자 인터페이스 제어부들은 제1 미디어 아이템을 하나 이상의 외부 전자 디바이스들에 공유하기 위한 프로세스를 개시하기 위해 선택가능한 제2 사용자 인터페이스 제어부(예컨대, 공유 옵션)를 포함한다. 일부 실시예들에서, 제1 세트의 하나 이상의 사용자 인터페이스 제어부들은 제1 미디어 아이템의 재생을 재개하고/하거나 개시하기 위해 선택가능한 제3 사용자 인터페이스 제어부(예컨대, 재생 옵션)를 포함한다. 일부 실시예들에서, 제1 세트의 하나 이상의 사용자 인터페이스 제어부들은 제1 미디어 아이템의 재생을 일시정지하기 위해 선택가능한 제4 사용자 인터페이스 제어부(예컨대, 일시정지 옵션)를 포함한다. 일부 실시예들에서, 제1 세트의 하나 이상의 사용자 인터페이스 제어부들은 제1 미디어 아이템의 재생을 앞으로 스킵하고/하거나 빠르게 하기 위해 선택가능한 제5 사용자 인터페이스 제어부(예컨대, 앞으로 빨리 가기 옵션)를 포함한다. 일부 실시예들에서, 제1 세트의 하나 이상의 사용자 인터페이스 제어부들은 제1 미디어 아이템의 재생을 뒤로 스킵하고/하거나, 느리게 하고/하거나, 되돌리기 위해 선택가능한 제6 사용자 인터페이스 제어부(예컨대, 뒤로 가기 옵션)를 포함하고; 사용자의 손(예컨대, 사용자의 하나 이상의 손들)이 제1 상태와는 상이한 제2 상태(예컨대, 하강 상태 및/또는 제2 포즈)에 있다는 결정에 따라, 컴퓨터 시스템은 제1 세트의 사용자 인터페이스 제어부들을 디스플레이하는 것을 보류한다(예컨대, 도 7n을 참조하여 설명된 바와 같음).
일부 실시예들에서, 제1 세트의 사용자 인터페이스 제어부들은 (예컨대, 제1 미디어 아이템 위에서 그리고/또는 아래에서) 제1 미디어 아이템 상에 오버레이되지 않고서 디스플레이된다. 일부 실시예들에서, 제1 세트의 사용자 인터페이스 제어부들을 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 사용자의 손이 제1 상태로부터 제2 상태로 이동하였다는 것을 검출하고; 사용자의 손이 제1 상태로부터 제2 상태로 이동하였다는 것을 검출하는 것에 응답하여, 제1 세트의 사용자 인터페이스 제어부들의 디스플레이를 중지한다.
사용자의 손이 제1 상태에 있다는 결정에 따라 제1 세트의 사용자 인터페이스 제어부들을 디스플레이하는 것은 (예컨대, 시스템이 사용자의 손이 제1 상태에 있다는 것을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
사용자의 손이 제2 상태에 있을 때 제1 세트의 사용자 인터페이스 제어부들을 디스플레이하는 것을 보류하는 것 및 사용자의 손이 제1 상태에 있을 때 제1 세트의 사용자 인터페이스 제어부들을 디스플레이하는 것은
사용자 인터페이스를 혼란스럽게 하지 않고서 추가 제어 옵션들을 제공한다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템(예컨대, 710F)의 선택에 대응하는 제7 세트의 하나 이상의 사용자 제스처들(예컨대, 718)(예컨대, 하나 이상의 에어 제스처들)(예컨대, 사용자의 시선이 제1 미디어 아이템으로 지향되고/되거나 그에 유지되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)(예컨대, 어떠한 다른 미디어 아이템들도 선택하지 않은 상태의 제1 미디어 아이템의 선택(예컨대, 제1 미디어 아이템만의 선택))을 검출한다. 제7 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은, 제1 세트의 조명 효과들(예컨대, 제1 세트의 시각적 조명 특성들)을 디스플레이하는 것으로부터 제1 세트의 조명 효과들과는 상이한 제2 세트의 조명 효과들(예컨대, 제2 세트의 시각적 조명 특성들)을 디스플레이하는 것으로 전이하는데, 이는 제1 세트의 조명 효과들을 디스플레이하는 것에 후속하여, 디스플레이 생성 컴포넌트를 통해, 제1 세트의 조명 효과들 및 제2 세트의 조명 효과들과는 상이한 중간 세트의 조명 효과들(예컨대, 제1 세트의 시각적 조명 특성들 및 제2 세트의 시각적 조명 특성들과는 상이한 중간 세트의 시각적 조명 특성들)을 디스플레이하는 것(일부 실시예들에서, 제1 세트의 조명 효과들은 제1 조명 특성(예컨대, 밝기, 대비, 채도)에 대한 제1 값(예컨대, 제1 수치 값)을 갖고, 제2 세트의 조명 효과들은 제1 조명 특성에 대한 제1 값과는 상이한 제2 값을 갖고, 중간 세트의 조명 효과들은 제1 조명 특성에 대한 제1 및 제2 값과는 상이한, 제1 값과 제2 값 사이의 제3 값을 가짐), 및 중간 세트의 조명 효과들을 디스플레이하는 것에 후속하여, 디스플레이 생성 컴포넌트를 통해, 제2 세트의 조명 효과들을 디스플레이하는 것을 포함한다(예컨대, 도 7d 내지 도 7f를 참조하여 설명된 바와 같음). 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때, 제1 세트 및/또는 제2 세트의 조명 효과들의 외관은 (예컨대, 사용자가 컴퓨터 시스템을 착용하는 동안) 사용자가 물리적 환경에 자신을 재위치시켰고/시켰거나 사용자가 그의 머리를 회전시켰다는 것을 컴퓨터 시스템이 검출하는 것에 응답하여 변경된다.
일부 실시예들에서, 제1 세트의 조명 효과들을 디스플레이하는 것으로부터 제2 세트의 조명 효과들을 디스플레이하는 것으로 전이하는 것은 제1 세트의 조명 효과들로부터 제2 세트의 조명 효과들로 점진적으로 전이하는 것을 포함한다(예컨대, 제1 세트의 조명 효과들에서 제2 세트의 조명 효과들로 가는 사이에 복수의 중간 조명 효과들이 적용됨). 일부 실시예들에서, 제1 세트의 조명 효과들을 디스플레이하는 것으로부터 제2 세트의 조명 효과들을 디스플레이하는 것으로 전이하는 것은 복수의 광선들(예컨대, 가변하는 색상, 길이, 및/또는 세기의 복수의 광선들)이 미디어 윈도우로부터 연장되는 광 유출 효과(light spill effect)를 점진적으로 적용하는 것을 (예컨대, 광 유출 효과의 밝기 및/또는 세기를 점진적으로 증가시키는 것을) 포함한다. 일부 실시예들에서, 광 유출 효과는 선택된 미디어 아이템에 기초하여 결정된다(예컨대, 어떤 미디어 아이템이 선택되는지에 기초하여 상이하다). 일부 실시예들에서, 제1 세트의 조명 효과들을 디스플레이하는 것으로부터 제2 세트의 조명 효과들을 디스플레이하는 것으로 전이하는 것은 미디어 라이브러리 사용자 인터페이스와 동시에 디스플레이되는 배경 콘텐츠를 점진적으로 어둡게 하는 것을 포함한다. 일부 실시예들에서, 제7 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 선택된 제1 미디어 아이템은 선택된 미디어 아이템 사용자 인터페이스에 디스플레이된다. 일부 실시예들에서, 배경 콘텐츠는 제1 시간에 미디어 라이브러리 사용자 인터페이스와 동시에 디스플레이되고, 제2 시간에는 선택된 미디어 아이템 사용자 인터페이스와 동시에 디스플레이된다. 일부 실시예들에서, 배경 콘텐츠는 미디어 라이브러리 사용자 인터페이스와 동시에 디스플레이되는 동안 밝게 된 상태로 디스플레이되고, 선택된 미디어 아이템 사용자 인터페이스와 동시에 디스플레이되는 동안 어둡게 된 상태로 디스플레이된다. 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때, 제1 세트 및/또는 제2 세트의 조명 효과들의 외관은 (예컨대, 사용자가 컴퓨터 시스템을 착용하는 동안) 사용자가 물리적 환경에 자신을 재위치시켰고/시켰거나 사용자가 그의 머리를 회전시켰다는 것을 컴퓨터 시스템이 검출하는 것에 응답하여 변경된다.
제7 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 제1 세트의 조명 효과들을 디스플레이하는 것으로부터 제2 세트의 조명 효과들을 디스플레이하는 것으로 전이하는 것은 (예컨대, 시스템이 제7 세트의 하나 이상의 사용자 제스처들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)와는 상이한 선택된 미디어 사용자 인터페이스(예컨대, 719)(예컨대, 제1 미디어 아이템의 선택을 나타내는 (예컨대, 제1 미디어 아이템만의 선택을 나타내는) 선택된 미디어 사용자 인터페이스(예컨대, 제1 미디어 아이템이 시각적으로 강조되는 (예컨대, 다른 미디어 아이템들보다 큰 크기로 디스플레이되는 그리고/또는 디스플레이되고 있는 미디어 라이브러리의 유일한 미디어 아이템인) 선택된 미디어 사용자 인터페이스))에 제1 미디어 아이템(예컨대, 710F)을 디스플레이한다. 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템을 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 하나 이상의 입력 디바이스들을 통해, 선택된 미디어 사용자 인터페이스를 닫으라는 사용자 요청에 대응하는 제8 세트의 하나 이상의 사용자 제스처들(예컨대, 732)(예컨대, 하나 이상의 에어 제스처들)(예컨대, 핀치 및 드래그 제스처(예컨대, 미리결정된 방향으로의 핀치 및 드래그 제스처))을 검출한다. 제8 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은 제3 세트의 조명 효과들(예컨대, 제3 세트의 시각적 조명 특성들)(예컨대, 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템과 동시에 디스플레이되는 제3 세트의 조명 효과들)을 디스플레이하는 것으로부터 제3 세트의 조명 효과들과는 상이한 제4 세트의 조명 효과들(예컨대, 제4 세트의 시각적 조명 특성들)을 디스플레이하는 것으로 전이하는데, 이는 제3 세트의 조명 효과들을 디스플레이하는 것에 후속하여, 디스플레이 생성 컴포넌트를 통해, 제3 세트의 조명 효과들 및 제4 세트의 조명 효과들과는 상이한 제2 중간 세트의 조명 효과들(예컨대, 제3 세트의 시각적 조명 특성들 및 제4 세트의 시각적 조명 특성들과는 상이한 제2 중간 세트의 시각적 조명 특성들)을 디스플레이하는 것(일부 실시예들에서, 제3 세트의 조명 효과들은 제1 조명 특성(예컨대, 밝기, 대비, 채도)에 대한 제1 값(예컨대, 제1 수치 값)을 갖고, 제4 세트의 조명 효과들은 제1 조명 특성에 대한 제1 값과는 상이한 제2 값을 갖고, 제2 중간 세트의 조명 효과들은 제1 조명 특성에 대한 제1 및 제2 값과는 상이한, 제1 값과 제2 값 사이의 제3 값을 가짐), 및 제2 중간 세트의 조명 효과들을 디스플레이하는 것에 후속하여, 디스플레이 생성 컴포넌트를 통해, 제4 세트의 조명 효과들을 디스플레이하는 것을 포함한다(예컨대, 도 7f를 참조하여 설명된 바와 같음).
일부 실시예들에서, 제3 세트의 조명 효과들을 디스플레이하는 것으로부터 제4 세트의 조명 효과들을 디스플레이하는 것으로 전이하는 것은 제3 세트의 조명 효과들로부터 제4 세트의 조명 효과들로 점진적으로 전이하는 것을 포함한다(예컨대, 제3 세트의 조명 효과들에서 제4 세트의 조명 효과들로 가는 사이에 복수의 중간 조명 효과들이 적용됨). 일부 실시예들에서, 제3 세트의 조명 효과들을 디스플레이하는 것으로부터 제4 세트의 조명 효과들을 디스플레이하는 것으로 전이하는 것은 복수의 광선들(예컨대, 가변하는 색상, 길이, 및/또는 세기의 복수의 광선들)이 미디어 윈도우로부터 연장되는 (예컨대, 선택된 미디어 사용자 인터페이스로부터 연장되는) 광 유출 효과를 점진적으로 감소시키는 것을 (예컨대, 광 유출 효과의 밝기 및/또는 세기를 점진적으로 감소시키는 것을) 포함한다. 일부 실시예들에서, 광 유출 효과는 선택된 미디어 아이템에 기초하여 결정된다(예컨대, 어떤 미디어 아이템이 선택되는지에 기초하여 상이하다). 일부 실시예들에서, 제3 세트의 조명 효과들을 디스플레이하는 것으로부터 제4 세트의 조명 효과들을 디스플레이하는 것으로 전이하는 것은 선택된 미디어 사용자 인터페이스와 동시에 디스플레이되는 배경 콘텐츠를 점진적으로 밝게 하는 것을 포함한다. 일부 실시예들에서, 제8 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 컴퓨터 시스템은 선택된 미디어 사용자 인터페이스를 디스플레이하는 것을 중지하고 미디어 라이브러리 사용자 인터페이스를 디스플레이한다. 일부 실시예들에서, 배경 콘텐츠는 제1 시간에 선택된 미디어 사용자 인터페이스와 동시에 디스플레이되고, 제2 시간에는 미디어 라이브러리 사용자 인터페이스와 동시에 디스플레이된다. 일부 실시예들에서, 배경 콘텐츠는 선택된 미디어 사용자 인터페이스와 동시에 디스플레이되는 동안 어둡게 된 상태로 디스플레이되고, 미디어 라이브러리 사용자 인터페이스와 동시에 디스플레이되는 동안 밝게 된 상태로 디스플레이된다.
제8 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여 제3 세트의 조명 효과들을 디스플레이하는 것으로부터 제4 세트의 조명 효과들을 디스플레이하는 것으로 전이하는 것은 (예컨대, 시스템이 제8 세트의 하나 이상의 사용자 제스처들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)와는 상이한 선택된 미디어 사용자 인터페이스(예컨대, 719)(예컨대, 제1 미디어 아이템의 선택을 나타내는 (예컨대, 제1 미디어 아이템만의 선택을 나타내는) 선택된 미디어 사용자 인터페이스(예컨대, 제1 미디어 아이템이 시각적으로 강조되는 (예컨대, 다른 미디어 아이템들보다 큰 크기로 디스플레이되는 그리고/또는 디스플레이되고 있는 미디어 라이브러리의 유일한 미디어 아이템인) 선택된 미디어 사용자 인터페이스))에 제1 미디어 아이템(예컨대, 741 또는 743)을; 그리고 시각적 콘텐츠를 통해 내비게이팅하기 위한 (예컨대, 복수의 프레임들(예컨대, 비디오의 이미지들)을 통해 내비게이팅하기 위한, 그리고/또는 복수의 미디어 아이템들을 통해 내비게이팅하기 위한) 내비게이션 사용자 인터페이스 요소(예컨대, 740)(예컨대, 스크러버 바)를 동시에 디스플레이한다. 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템과 동시에 내비게이션 사용자 인터페이스 요소를 디스플레이하는 것은 사용자가 더 적은 입력들로 콘텐츠를 통해 내비게이팅하게 하며, 이는 동작을 수행하는 데 필요한 입력들의 수를 감소시킨다.
일부 실시예들에서, 내비게이션 사용자 인터페이스 요소(예컨대, 740)는, 선택될 때, 하나 이상의 각자의 미디어 아이템들(예컨대, 도 7m 및 도 7n의 스크러버(740)에 도시된 일시정지 옵션)(예컨대, 재생 옵션, 일시정지 옵션, 앞으로 빨리 가기 옵션, 뒤로 가기 옵션, 및/또는 스킵 옵션)과 연관된 각자의 기능들을 수행하는 하나 이상의 선택가능 제어부들을 포함한다. 일부 실시예들에서, 내비게이션 사용자 인터페이스 요소를 디스플레이하는 동안, 컴퓨터 시스템은 하나 이상의 선택가능 제어부들 중 제1 선택가능 제어부의 선택에 대응하는 하나 이상의 선택 입력들(예컨대, 하나 이상의 에어 제스처들)을 검출하고; 하나 이상의 선택 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 미디어 아이템의 디스플레이를 수정한다(예컨대, 제1 미디어 아이템의 재생을 개시하고/하거나 일시정지함; 제1 미디어 아이템의 재생에서 앞으로 그리고/또는 뒤로 스킵함; 제1 미디어 아이템의 재생을 느리게 하고/하거나 빠르게 함). 일부 실시예들에서, 하나 이상의 선택가능 제어부들은 제1 미디어 아이템의 재생을 재개하고/하거나 개시하기 위해 선택가능한 제1 제어부(예컨대, 재생 옵션)를 포함한다. 일부 실시예들에서, 하나 이상의 선택가능 제어부들은 제1 미디어 아이템의 재생을 일시정지하기 위해 선택가능한 제2 제어부(예컨대, 일시정지 옵션)를 포함한다. 일부 실시예들에서, 하나 이상의 선택가능 제어부들은 제1 미디어 아이템의 재생을 앞으로 스킵하고/하거나 빠르게 하기 위해 선택가능한 제3 제어부(예컨대, 앞으로 빨리 가기 옵션)를 포함한다. 일부 실시예들에서, 하나 이상의 선택가능 제어부들은 제1 미디어 아이템의 재생을 뒤로 스킵하고/하거나, 느리게 하고/하거나, 되돌리기 위해 선택가능한 제4 제어부(예컨대, 뒤로 가기 옵션)를 포함한다. 하나 이상의 선택가능 제어부들을 디스플레이하는 것은 사용자가 더 적은 입력들로 다양한 각자의 기능들을 수행하게 하며, 이는 동작을 수행하는 데 필요한 입력들의 수를 감소시킨다.
일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)를 디스플레이하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템(예컨대, 710F)의 선택에 대응하는 하나 이상의 사용자 입력들(예컨대, 718)(예컨대, 하나 이상의 터치 입력들, 하나 이상의 비-터치 입력들, 및/또는 하나 이상의 제스처들(예컨대, 하나 이상의 에어 제스처들))(예컨대, 사용자의 시선이 제1 미디어 아이템으로 지향되고/되거나 그에 유지되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)을 검출한다. 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 제1 세트의 기준들이 충족되었다는 결정에 따라(예컨대, 제1 사용자 설정(예컨대, 몰입형 보기 설정)이 인에이블되고/되거나 디스에이블된다는 결정에 따라; 제1 미디어 아이템이 특정 유형의 것이라는 결정에 따라; 그리고/또는 특정 유형의 하나 이상의 사용자 입력들이 검출된다는 결정에 따라), 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제1 각도 크기로 제1 미디어 아이템을 디스플레이하고; 제1 세트의 기준들이 충족되지 않았다는 결정에 따라, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제1 각도 크기와는 상이한 제2 각도 크기로 제1 미디어 아이템을 디스플레이한다(예컨대, 도 7f를 참조하여 설명된 바와 같음). 일부 실시예들에서, 제1 각도 크기는 (예컨대, 보여지는 미디어 아이템에 대해 더 큰 각도 크기에 의한) 몰입형의 보는 경험에 대응하고, 제2 각도 크기는 비몰입형의 보는 경험에 대응한다(예컨대, 제2 각도 크기는 제1 각도 크기보다 작다). 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때 그리고 제1 미디어 아이템이 제1 각도 크기로 디스플레이되는 동안, 컴퓨터 시스템은 (예컨대, 사용자가 컴퓨터 시스템을 착용하는 동안) 사용자가 물리적 환경에 자신을 재위치시켰고/시켰거나 그의 머리를 회전시켰다는 것을 컴퓨터 시스템이 검출하는 것에 응답하여 제1 미디어 아이템이 디스플레이되는 관점을 변경한다. 제1 세트의 기준들이 충족되었다는 결정에 따라 제1 각도 크기로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 제1 세트의 기준들이 충족되었다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 컴퓨터 시스템, 디스플레이 생성 컴포넌트를 통해, (예컨대, 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스에) (예컨대, 제1 미디어 아이템의 선택을 나타내는 (예컨대, 제1 미디어 아이템만의 선택을 나타내는) 선택된 미디어 사용자 인터페이스에) (예컨대, 제1 미디어 아이템이 다른 미디어 아이템들에 비해 시각적으로 강조되는 (예컨대, 다른 미디어 아이템들보다 큰 크기로 디스플레이되는 그리고/또는 디스플레이되고 있는 미디어 라이브러리의 유일한 미디어 아이템인) 선택된 미디어 사용자 인터페이스에) 제1 미디어 아이템(예컨대, 710F)을 디스플레이하는데, 제1 미디어 아이템은 제1 미디어 아이템에 적용된 비네팅으로 (예컨대, 선택된 미디어 사용자 인터페이스에) 디스플레이된다(예컨대, 제1 미디어 아이템의 에지들 및/또는 코너들을 어둡게 하고/하거나, 흐려지게 하고/하거나, 가리고/가리거나, 블러링한다)(예컨대, 도 7f를 참조하여 설명된 바와 같음). 제1 미디어 아이템에 적용되는 비네팅으로 제1 미디어 아이템의 표현을 디스플레이하는 것은, 예를 들어, 선택된 상태에서, 제1 미디어 아이템의 표현이 디스플레이되고 있다는 것을 사용자에게 나타내며, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 컴퓨터 시스템은 (예컨대, 제2 시간에 후속하는 제6 시간에) (예컨대, 제3 방식으로 제1 미디어 아이템의 표현을 디스플레이한 후 또는 그 동안), 하나 이상의 입력 디바이스들을 통해, 미디어 라이브러리 사용자 인터페이스(예컨대, 708) 내의 제1 위치(예컨대, 제1 미디어 아이템의 표현에 대응하는 미디어 라이브러리 사용자 인터페이스 내의 제1 위치)에 대응하는 사용자 시선(예컨대, 714)을 검출한다(예컨대, 사용자가 미디어 라이브러리 사용자 인터페이스 내의 제1 위치를 응시하고 있다는 것을 검출 및/또는 결정함). (예컨대, 제6 시간에 후속하는 제7 시간에) 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템(예컨대, 710F)의 선택에 대응하는 선택 제스처(예컨대, 718)(예컨대, 에어 제스처)(예컨대, 사용자의 손들, 머리, 및/또는 신체의 이동)(일부 실시예들에서, 하나 이상의 비-제스처 입력들)(예컨대, 사용자의 시선이 제1 미디어 아이템으로 지향되고/되거나 그에 유지되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)를 검출한다. 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 계속 검출하는 동안 제1 미디어 아이템의 선택에 대응하는 선택 제스처를 검출하는 것에 응답하여: 선택 제스처가 제1 유형의 선택 제스처(예컨대, 에어 제스처)(예컨대, 한 손 핀치 제스처, 한 손 더블 핀치 제스처, 양 손 핀치 제스처, 양 손 디핀치 제스처, 부분적으로 완료된 한 손 핀치 제스처, 및/또는 완료된 한 손 핀치 제스처)에 대응한다는 결정에 따라, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제9 방식으로 (예컨대, 제9 세트의 시각적 특성들로) 제1 미디어 아이템을 디스플레이하고(예컨대, 중간 선택 상태로 (예컨대, 미디어 라이브러리 사용자 인터페이스로부터 선택된 미디어 사용자 인터페이스로 전이하는 전이 상태로) 제1 미디어 아이템을 디스플레이함)(예컨대, 선택된 미디어 사용자 인터페이스에 디스플레이된 제1 미디어 아이템의 크기보다 작고 미디어 라이브러리 사용자 인터페이스 내의 제1 미디어 아이템의 표현의 크기보다 큰 크기로 제1 미디어 아이템을 디스플레이함); 선택 제스처가 제1 유형의 선택 제스처(예컨대, 한 손 핀치 제스처, 한 손 더블 핀치 제스처, 양 손 핀치 제스처, 양 손 디핀치 제스처, 부분적으로 완료된 한 손 핀치 제스처, 및/또는 완료된 한 손 핀치 제스처)와는 상이한 제2 유형의 선택 제스처에 대응한다는 결정에 따라, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제9 방식과는 상이한 제10 방식으로 (예컨대, 제9 세트의 시각적 특성들과는 상이한 제10 세트의 시각적 특성들로) (예컨대, 제1 미디어 아이템의 사용자 선택을 나타내는 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스에) 제1 미디어 아이템을 디스플레이한다. 일부 실시예들에서, 제9 방식으로 제1 미디어 아이템을 디스플레이하는 것은 전이 상태로 제1 미디어 아이템을 디스플레이하는 것을 포함하고, 제10 방식으로 제1 미디어 아이템을 디스플레이하는 것은 선택된 상태로 제1 미디어 아이템을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 제9 방식으로 제1 미디어 아이템을 디스플레이하는 것은 미디어 라이브러리 사용자 인터페이스에 제1 미디어 아이템의 표현의 크기보다 큰 제1 크기로 제1 미디어 아이템을 디스플레이하는 것을 포함하고, 제10 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 크기보다 큰 제2 크기로 제1 미디어 아이템을 디스플레이하는 것을 포함한다(예컨대, 도 7f를 참조하여 설명된 바와 같음). 제1 미디어 아이템의 선택에 대응하는 선택 제스처를 검출하는 것에 응답하여 제9 방식으로 그리고/또는 제10 방식으로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템의 선택에 대응하는 선택 제스처를 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 방법들(800, 900, 1000, 1100)의 태양들/동작들은 이들 방법들 사이에서 상호교환, 대체, 및/또는 추가될 수 있다. 예를 들어, 방법(800)으로 디스플레이되는 미디어 라이브러리 사용자 인터페이스는 선택적으로, 방법(900)으로 디스플레이되는 사용자 인터페이스이고/이거나, 방법(800)으로 디스플레이되는 제1 미디어 아이템은 선택적으로, 방법들(900 및/또는 1000)로 디스플레이되는 제1 미디어 아이템이다. 간결함을 위해, 이러한 상세사항들은 여기서 반복되지 않는다.
도 9는 일부 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하기 위한 예시적인 방법(900)의 흐름도이다. 일부 실시예들에서, 방법(1000)은 디스플레이 생성 컴포넌트(예컨대, 702)(예컨대, 디스플레이 제어기; 터치 감응형 디스플레이 시스템; 디스플레이(예컨대, 통합형 및/또는 연결형), 3D 디스플레이, 투명 디스플레이, 프로젝터, 및/또는 헤드업 디스플레이) 및 하나 이상의 입력 디바이스들(예컨대, 715)(예컨대, 터치 감응형 표면(예컨대, 터치 감응형 디스플레이); 마우스; 키보드; 리모컨; 시각적 입력 디바이스(예컨대, 카메라); 오디오 입력 디바이스(예컨대, 마이크로폰); 및/또는 생체측정 센서(예컨대, 지문 센서, 안면 식별 센서, 및/또는 홍채 식별 센서))과 통신하는 컴퓨터 시스템(예컨대, 700)(예컨대, 도 1의 컴퓨터 시스템(101))(예컨대, 스마트폰, 스마트 워치, 태블릿, 및/또는 웨어러블 디바이스)에서 수행된다. 일부 실시예들에서, 방법(1000)은, 비일시적 (또는 일시적) 컴퓨터 판독가능 저장 매체에 저장되며 컴퓨터 시스템의 하나 이상의 프로세서들, 예를 들어, 컴퓨터 시스템(101)의 하나 이상의 프로세서들(202)(예를 들어, 도 1a의 제어부(110))에 의해 실행되는 명령어들에 의해 통제된다. 방법(900)에서의 일부 동작들이 선택적으로 조합되고/되거나, 일부 동작들의 순서가 선택적으로 변경된다.
일부 실시예들에서, 컴퓨터 시스템(예컨대, 700)은, 디스플레이 생성 컴포넌트(예컨대, 702)를 통해, 제1 줌 레벨로 사용자 인터페이스(예컨대, 708, 719)(예컨대, 도 7d의 사용자 인터페이스(708); 도 7f 또는 도 7j의 사용자 인터페이스(719))(예컨대, 하나 이상의 콘텐츠 아이템들(예컨대, 하나 이상의 선택가능 콘텐츠 아이템들 및/또는 미디어 아이템들(예컨대, 사진들 및/또는 비디오들))을 포함하는 사용자 인터페이스 및/또는 하나 이상의 콘텐츠 아이템들의 표현들(예컨대, 하나 이상의 미디어 아이템들의 선택가능 표현들))를 디스플레이한다(902). 사용자 인터페이스를 디스플레이하는 동안(904), 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 줌-인 사용자 커맨드(예컨대, 한 손 핀치 제스처, 한 손 더블 핀치 제스처, 양 손 핀치 제스처, 및/또는 양 손 디핀치 제스처)에 대응하는 하나 이상의 사용자 입력들(예컨대, 718, 732, 733, 734)(예컨대, 하나 이상의 탭 입력들, 하나 이상의 제스처들(예컨대, 하나 이상의 에어 제스처들), 및/또는 하나 이상의 다른 입력들)을 검출한다(906). 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여(908): 사용자 시선(예컨대, 714)(예컨대, 하나 이상의 사용자 입력들을 검출하는 동안 그리고/또는 하나 이상의 사용자 입력들을 검출하는 것에 후속하여 검출되는 사용자 시선)이 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라(예컨대, 사용자가 사용자 인터페이스 내의 제1 위치를 응시하고 있다는 결정에 따라)(910), 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨보다 높은 제2 줌 레벨로 사용자 인터페이스(예컨대, 도 7e의 사용자 인터페이스(708); 도 7g의 사용자 인터페이스(719); 도 7h의 사용자 인터페이스(719); 도 7k의 사용자 인터페이스(719))를 디스플레이하고(912) - 제2 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 사용자 인터페이스를 주밍하는 것을 포함함(예컨대, 사용자 인터페이스를 확장 및/또는 주밍하는 동안 디스플레이 생성 컴포넌트 상의 사용자 인터페이스의 현재 디스플레이 위치에 사용자 인터페이스의 제1 위치를 유지함(예컨대, 주밍 동작의 적어도 일부분을 위해 디스플레이 생성 컴포넌트 상의 사용자 인터페이스의 현재 디스플레이 위치에 사용자 인터페이스의 제1 위치를 유지함)) -; 사용자 시선(예컨대, 하나 이상의 사용자 입력들을 검출하는 동안 그리고/또는 하나 이상의 사용자 입력들을 검출하는 것에 후속하여 검출되는 사용자 시선)이 제1 위치와는 상이한 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라(예컨대, 사용자가 사용자 인터페이스 내의 제2 위치를 응시하고 있다는 결정에 따라)(914), 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨보다 높은 제3 줌 레벨(예컨대, 제2 줌 레벨과 동일하거나 상이한 제3 줌 레벨)로 사용자 인터페이스(예컨대, 도 7e의 사용자 인터페이스(708); 도 7g의 사용자 인터페이스(719); 도 7h의 사용자 인터페이스(719); 도 7k의 사용자 인터페이스(719))를 디스플레이한다(916) - 제3 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 사용자 인터페이스를 주밍하는 것을 포함하고, 제2 줌 중심은 제1 줌 중심과는 상이한 위치에 있음(예컨대, 사용자 인터페이스를 확장 및/또는 주밍하는 동안 디스플레이 생성 컴포넌트 상의 사용자 인터페이스의 현재 디스플레이 위치에 사용자 인터페이스의 제2 위치를 유지함(예컨대, 주밍 동작의 적어도 일부분을 위해 디스플레이 생성 컴포넌트 상의 사용자 인터페이스의 현재 디스플레이 위치에 사용자 인터페이스의 제2 위치를 유지함)). 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여 사용자 시선의 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 제2 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 (예컨대, 시스템이 하나 이상의 사용자 입력들을 검출하였고, 사용자 시선의 위치를 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 줌-인 사용자 커맨드(예컨대, 718, 732, 733, 또는 734)에 대응하는 하나 이상의 사용자 입력들은 제1 핀치 제스처(예컨대, 에어 제스처)(예컨대, 2개의 손가락들이 서로 더 가깝게 이동하는 제스처(예컨대, 한 손의 검지와 엄지가 서로 더 가깝게 이동하는 제스처))(예컨대, 한 손 핀치 제스처(예컨대, 한 손으로부터의 2개의 손가락들이 서로 더 가깝게 이동하는 것)); 및 제1 핀치 제스처에 후속하여 일어나는 제2 핀치 제스처(예컨대, 에어 제스처)(예컨대, 제2 한 손 핀치 제스처(예컨대, 제1 핀치 제스처와 동일한 손에 의함))(예컨대, 제1 핀치 제스처와 제2 핀치 제스처가 서로의 임계 지속기간 내에 일어나고/나거나 검출됨)를 포함한다. 제1 핀치 제스처 및 제2 핀치 제스처에 응답하여 사용자 시선의 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 제2 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 (예컨대, 시스템이 제1 핀치 제스처 및 제2 핀치 제스처를 검출하였고, 사용자 시선의 위치를 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 줌-인 사용자 커맨드(예컨대, 718, 732, 733, 또는 734)에 대응하는 하나 이상의 사용자 입력들은 양 손 디핀치 제스처(예컨대, 에어 제스처)(예컨대, 제1 손이 다른 손으로부터 멀리 이동하는 제스처)(예컨대, 핀칭된 형상(예컨대, 미리정의된 핀칭된 형상(예컨대, 손의 검지와 엄지가 접촉하는 형상)을 이루는 제1 손이 핀칭된 형상을 이루는 제2 손으로부터 멀리 이동하는 제스처)을 포함한다. 양 손 디핀치 제스처에 응답하여 사용자 시선의 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 제2 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 (예컨대, 시스템이 양 손 디핀치 제스처를 검출하였고, 사용자 시선의 위치를 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 줌-인 사용자 커맨드(예컨대, 718, 732, 733, 또는 734)에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 사용자 인터페이스가 제1 유형의 제1 미디어 아이템(예컨대, 비-파노라마 이미지)을 디스플레이하고 있다는 결정에 따라, 컴퓨터 시스템은 제1 크기(예컨대, 제1 커버리지 면적 및/또는 제1 세트의 치수들)(예컨대, 제1 유형의 미디어 아이템들에 대한 미리정의된 최대 크기)로 제1 미디어 아이템을 디스플레이하고; 사용자 인터페이스가 제1 유형과는 상이한 제2 유형의 제2 미디어 아이템(예컨대, 파노라마 이미지(예컨대, 복수의 이미지 캡처들을 특정 방향으로 서로 연결함으로써 생성된 이미지)(예컨대, 파노라마 치수들로서 식별되는 한 세트의 치수들(예컨대, 폭 및/또는 높이)을 갖는 이미지))(예컨대, 임계 종횡비보다 큰 종횡비를 갖는 이미지(예컨대, 16:9 초과의 그리고/또는 그 이상의 종횡비를 갖는 이미지))을 디스플레이하고 있다는 결정에 따라, 컴퓨터 시스템은 제1 크기보다 큰 제2 크기(예컨대, 제2 커버리지 면적 및/또는 제2 세트의 치수들)(예컨대, 제1 유형의 미디어 아이템들에 대한 미리정의된 최대 크기보다 큰 크기)로 제2 미디어 아이템을 디스플레이한다(예컨대, 도 7k 및 도 7l의 미디어 윈도우(704))(예컨대, 도 7j 내지 도 7l을 참조하여 기술된 바와 같음). 일부 실시예들에서, 파노라마 이미지들은 비-파노라마 이미지들보다 더 큰 크기로 확장될 수 있다. 사용자 인터페이스가 제2 유형의 미디어 아이템을 디스플레이하고 있다는 결정에 따라 제1 크기보다 큰 제2 크기로 제2 미디어 아이템을 자동적으로 디스플레이하는 것은 사용자가 추가 사용자 입력들을 요구하지 않고서 더 큰 크기로 제2 유형의 미디어 아이템들(예컨대, 파노라마 이미지들)을 디스플레이하게 하는데, 이는 추가 사용자 입력을 요구하지 않고서 한 세트의 조건들이 충족되었을 때 동작을 수행한다.
일부 실시예들에서, 줌-인 사용자 커맨드(예컨대, 718, 732, 733, 또는 734)에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 사용자 인터페이스가 제1 유형의 제1 미디어 아이템(예컨대, 비-파노라마 이미지)을 디스플레이하고 있다는 결정에 따라, 컴퓨터 시스템은 평탄 객체(예컨대, 2차원 객체, 비-만곡 객체, 평탄 평면형 객체, 및/또는 평탄, 비-만곡 표면들을 갖는 객체)로서 제1 미디어 아이템을 디스플레이하고; 사용자 인터페이스가 제2 유형의 제2 미디어 아이템(예컨대, 파노라마 이미지(예컨대, 복수의 이미지 캡처들을 특정 방향으로 서로 연결함으로써 생성된 이미지)(예컨대, 파노라마 치수들로서 식별되는 한 세트의 치수들(예컨대, 폭 및/또는 높이)을 갖는 이미지))을 디스플레이하고 있다는 결정에 따라, 컴퓨터 시스템은 만곡 객체(예컨대, 3차원 객체, 만곡 평면형 객체, 및/또는 하나 이상의 만곡 표면들을 갖는 객체)로서 제2 미디어 아이템을 디스플레이한다(예컨대, 도 7k 및 도 7l의 미디어 윈도우(704))(예컨대, 도 7j 내지 도 7l을 참조하여 기술된 바와 같음). 일부 실시예들에서, 파노라마 이미지들은 그들이 주밍됨에 따라 만곡되고, 비-파노라마 이미지들은 그들이 주밍됨에 따라 만곡되지 않는다. 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때, 제2 미디어 아이템은 제1 미디어 아이템이 평탄 객체로서 디스플레이될 때와 대조적으로 제2 미디어 아이템이 만곡 객체로서 디스플레이될 때 더 넓은 사용자의 시야를 점유한다. 사용자 인터페이스가 제2 유형의 미디어 아이템을 디스플레이하고 있다는 결정에 따라 만곡 객체로서 제2 미디어 아이템을 자동적으로 디스플레이하는 것은 사용자가 추가 사용자 입력들을 요구하지 않고서 만곡 객체로서 제2 유형의 미디어 아이템들(예컨대, 파노라마 이미지들)을 디스플레이하게 하는데, 이는 추가 사용자 입력을 요구하지 않고서 한 세트의 조건들이 충족되었을 때 동작을 수행한다.
일부 실시예들에서, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 제1 크기의 제1 미디어 아이템(예컨대, 도 7d에서 710F)의 표현(예컨대, 제1 미디어 아이템의 썸네일 표현)을 디스플레이하는 것을 포함하고; 3차원 환경(예컨대, 706)이 사용자 인터페이스(예컨대, 708)를 적어도 부분적으로 둘러싸고 사용자 인터페이스 후방에 배경 콘텐츠(예컨대, 물리적 또는 가상 환경의 표현)를 포함한다. 일부 실시예들에서, 배경 콘텐츠는 사용자 인터페이스를 적어도 부분적으로 둘러싼다. 일부 실시예들에서, 3차원 환경 및/또는 배경 콘텐츠는 디스플레이 생성 컴포넌트에 의해 (예컨대, 사용자 인터페이스 후방에) 디스플레이된다. 일부 실시예들에서, 3차원 환경 및/또는 배경 콘텐츠가 (예컨대, 사용자 인터페이스 후방의) 사용자에게 가시적이지만, 디스플레이 생성 컴포넌트에 의해 디스플레이되지 않는다(예컨대, 3차원 환경 및/또는 배경 콘텐츠는 디스플레이 생성 컴포넌트에 의해 디스플레이되지 않고 사용자 인터페이스 후방의 사용자에 의해 가시적인 유형적인 물리적 객체들이다). 일부 실시예들에서, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들(예컨대, 718)을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 미디어 아이템의 표현을 제1 크기로 디스플레이되는 것(예컨대, 도 7d의 710F)으로부터 제1 크기보다 큰 제2 크기로 디스플레이되는 것(예컨대, 도 7F의 710F)으로 전이시키고(예컨대, 제1 미디어 아이템의 디스플레이를 확대함); 제1 미디어 아이템(예컨대, 도 7f의 3차원 환경(706))에 대한 배경 콘텐츠의 시각적 강조를 감소시킨다(예컨대, 배경 콘텐츠를 희미하게 함). 일부 실시예들에서, 배경 콘텐츠는, 제1 미디어 아이템의 표현이 제1 크기로 디스플레이되는 것으로부터 제2 크기로 디스플레이되는 것으로 전이되는 것과 동시에, 제1 밝기 레벨로 디스플레이되는 것으로부터 제2 밝기 레벨로 디스플레이되는 것으로 전이된다. 사용자가 제1 미디어 아이템을 줌-인하였을 때 어둡게 된 상태로 배경 콘텐츠를 디스플레이하는 것은 (예컨대, 시스템이 줌-인 상태로 제1 미디어 아이템을 디스플레이하고 있다는) 시스템의 상태에 관한 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 제1 크기의 제1 미디어 아이템(예컨대, 도 7d에서 710F)의 표현(예컨대, 제1 미디어 아이템의 썸네일 표현)을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들(예컨대, 718)을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 미디어 아이템의 표현을 제1 크기로 디스플레이되는 것(예컨대, 도 7d의 710F)으로부터 제1 크기보다 큰 제2 크기로 디스플레이되는 것(예컨대, 도 7F의 710F)으로 전이시키고(예컨대, 제1 미디어 아이템의 디스플레이를 확대함); 사용자 인터페이스(예컨대, 704)로부터 연장되는 (예컨대, 제1 미디어 아이템으로부터 연장되는) 광 유출 효과(예컨대, 726-1)를 디스플레이한다. 일부 실시예들에서, 광 유출 효과들은 제1 미디어 아이템의 시각적 콘텐츠(예컨대, 시각적 특성들)에 기초하여 결정되는 하나 이상의 시각적 특성들(예컨대, 밝기, 세기, 크기 및/또는 길이, 색상, 채도, 대비)을 포함한다(예컨대, 상이한 미디어 아이템들은 상이한 광 유출 효과들을 가져온다). 일부 실시예들에서, 광 유출 효과는 아이템의 에지 주위의 불빛; 아이템을 둘러싸는 광의 외관; 아이템 주위의 광선의 외관; 및/또는 아이템의 중간 또는 중심 후방의 광원의 외관 중 하나 이상을 포함한다. 일부 실시예들에서, 제1 미디어 아이템의 표현의 크기는 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들에 응답하여 점진적으로 증가된다. 일부 실시예들에서, 사용자 인터페이스로부터 배경 콘텐츠로 연장되는 광 유출 효과들은 제1 미디어 아이템의 표현의 크기의 점진적인 증가와 동시에 점진적으로 수정된다(예컨대, 점진적으로 세기가 증가된다). 사용자가 제1 미디어 아이템을 줌-인하였을 때 광 유출 효과를 디스플레이하는 것은 (예컨대, 시스템이 줌-인 상태로 제1 미디어 아이템을 디스플레이하고 있다는) 시스템의 상태에 관한 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 제1 크기의 제1 미디어 아이템(예컨대, 도 7j, 도 7k의 731)을 디스플레이하는 것을 포함한다(예컨대, 제1 미디어 아이템의 사용자 선택을 나타내는 선택된 미디어 사용자 인터페이스에 제1 미디어 아이템의 표현을 디스플레이함). 일부 실시예들에서, 제2 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 제1 크기보다 큰 제2 크기의 제1 미디어 아이템(예컨대, 도 7l의 731)을 디스플레이하는 것; 제2 크기가 미리결정된 임계 크기보다 크다는 결정에 따라, 적어도 제1 미디어 아이템의 제1 에지에 적용되는 블러링 효과(예컨대, 736A 또는 736B)로 제1 미디어 아이템을 디스플레이하는 것; 및 제2 크기가 미리결정된 임계 크기보다 크지 않다는 결정에 따라, 블러링 효과가 제1 미디어 아이템의 어떠한 에지들에도 적용되지 않는 상태로 제1 미디어 아이템을 디스플레이하는 것(예컨대, 도 7j)을 포함한다. 일부 실시예들에서, 블러링 효과는 제1 에지를 넘어 연장되는 제1 미디어 아이템의 추가 콘텐츠가 디스플레이되지 않는다는 그리고/또는 사용자가 제1 미디어 아이템의 추가 콘텐츠를 보기 위해 제1 에지의 방향으로 스크롤할 수 있다는 표시로서 제1 미디어 아이템의 제1 에지에 적용된다. 일부 실시예들에서, 블러링 효과는 제1 미디어 아이템의 제1 에지에서 시각적 콘텐츠를 블러링하는 것 및/또는 그렇지 않으면 제1 미디어 아이템의 제1 에지에서 시각적 콘텐츠를 시각적으로 가리는 것을 포함한다. 일부 실시예들에서, 제1 미디어 아이템의 어떠한 에지들에도 블러링 효과가 적용되지 않은 상태로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템의 전체가 디스플레이되고 있다는 것을 나타낸다. 제1 미디어 아이템의 제1 에지에 블러링 효과가 적용되는 상태로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 디스플레이되지 않은 제1 에지를 넘어 연장되는 제1 미디어 아이템의 추가 콘텐츠가 있다는) 시스템의 상태에 관한 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 사용자 인터페이스는 제1 미디어 아이템의 표현 및 제2 미디어 아이템의 표현을 포함하는 미디어 라이브러리(예컨대, 디바이스와 연관된 (예컨대, 디바이스 상에 저장된) 그리고/또는 사용자와 연관된 미디어 아이템들의 컬렉션) 내의 복수의 미디어 아이템들(예컨대, 710A 내지 710F)의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스(예컨대, 708)이다. 일부 실시예들에서, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 (예컨대, 제1 세트의 치수들(예컨대, 높이 및/또는 폭)을 갖는) 제1 크기의 제1 미디어 아이템의 표현, 및 제2 크기(일부 실시예들에서, 제2 크기는 제1 크기와 상이하거나 동일함)의 제2 미디어 아이템의 표현을 동시에 디스플레이하는 것을 포함한다(예컨대, 도 7d의 708). 일부 실시예들에서, 제2 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 제1 크기보다 큰 제3 크기의 제1 미디어 아이템의 표현; 및 제2 크기보다 큰 제4 크기의 제2 미디어 아이템의 표현을 동시에 디스플레이하는 것을 포함한다(예컨대, 도 7e). 일부 실시예들에서, 제4 크기는 제3 크기와 상이하거나 동일하다. 일부 실시예들에서, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 복수의 미디어 아이템들의 표현들을 갖는 미디어 라이브러리 그리드(grid)를 디스플레이하는 것을 포함하고, 제2 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 미디어 라이브러리 그리드 상에서 줌-인하는 것을 포함한다(예컨대, 더 적은 미디어 아이템들이지만 더 큰 크기들의 표현들을 디스플레이함). 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여 제3 크기로 제1 미디어 아이템의 표현을 디스플레이하는 것 및 제4 크기로 제2 미디어 아이템의 표현을 디스플레이하는 것은 (예컨대, 시스템이 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하는 것은 (예컨대, 제1 세트의 치수들(예컨대, 높이 및/또는 폭)을 갖는) 제1 크기로 사용자 인터페이스를 디스플레이하는 것을 포함한다. 일부 실시예들에서, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여: 사용자 인터페이스가 제1 사용자 인터페이스(예컨대, 719)(예컨대, 선택된 미디어 사용자 인터페이스(예컨대, 사용자에 의해 선택되는 미디어 아이템을 디스플레이하는 사용자 인터페이스, 및/또는 미디어 아이템의 사용자 선택을 나타내고/내거나 그에 응답하는 사용자 인터페이스))라는 결정에 따라, 컴퓨터 시스템은 제1 크기보다 큰 제2 크기의 사용자 인터페이스(예컨대, 도 7j 내지 도 7l의 선택된 미디어 사용자 인터페이스(719))를 디스플레이하고; 사용자 인터페이스가 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스(예컨대, 708)(예컨대, 미디어 라이브러리 사용자 인터페이스(예컨대, 미디어 라이브러리의 복수의 미디어 아이템들의 표현들을 디스플레이하는 사용자 인터페이스))라는 결정에 따라, 컴퓨터 시스템은 제1 크기의 사용자 인터페이스(예컨대, 도 7d 및 도 7e의 미디어 라이브러리 사용자 인터페이스(708))를 유지한다(일부 실시예들에서, 미디어 라이브러리 사용자 인터페이스(예컨대, 708)가 줌-인 커맨드에 응답하여 더 큰 크기로 확장되지 않는 동안, 선택된 미디어 사용자 인터페이스(예컨대, 719)는 줌-인 커맨드에 응답하여 더 큰 크기로 확장될 수 있다). 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여 제1 크기보다 큰 제2 크기의 사용자 인터페이스를 디스플레이하는 것은 (예컨대, 시스템이 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 방법들(800, 900, 1000, 1100)의 태양들/동작들은 이들 방법들 사이에서 상호교환, 대체, 및/또는 추가될 수 있다. 예를 들어, 방법(800)으로 디스플레이되는 미디어 라이브러리 사용자 인터페이스는 선택적으로, 방법(900)으로 디스플레이되는 사용자 인터페이스이고/이거나, 방법(800)으로 디스플레이되는 제1 미디어 아이템은 선택적으로, 방법들(900 및/또는 1000)로 디스플레이되는 제1 미디어 아이템이다. 간결함을 위해, 이러한 상세사항들은 여기서 반복되지 않는다.
도 10은 일부 실시예들에 따른, 미디어 아이템들 및 사용자 인터페이스들과 상호작용하기 위한 예시적인 방법(1000)의 흐름도이다. 일부 실시예들에서, 방법(1000)은 디스플레이 생성 컴포넌트(예컨대, 702)(예컨대, 디스플레이 제어기; 터치 감응형 디스플레이 시스템; 디스플레이(예컨대, 통합형 및/또는 연결형), 3D 디스플레이, 투명 디스플레이, 프로젝터, 및/또는 헤드업 디스플레이) 및 하나 이상의 입력 디바이스들(예컨대, 715)(예컨대, 터치 감응형 표면(예컨대, 터치 감응형 디스플레이); 마우스; 키보드; 리모컨; 시각적 입력 디바이스(예컨대, 카메라); 오디오 입력 디바이스(예컨대, 마이크로폰); 및/또는 생체측정 센서(예컨대, 지문 센서, 안면 식별 센서, 및/또는 홍채 식별 센서))와 통신하는 컴퓨터 시스템(예컨대, 700)(예컨대, 도 1의 컴퓨터 시스템(101))에서 수행된다. 일부 실시예들에서, 방법(1000)은, 비일시적 (또는 일시적) 컴퓨터 판독가능 저장 매체에 저장되며 컴퓨터 시스템의 하나 이상의 프로세서들, 예를 들어, 컴퓨터 시스템(101)의 하나 이상의 프로세서들(202)(예를 들어, 도 1a의 제어부(110))에 의해 실행되는 명령어들에 의해 통제된다. 방법(1000)에서의 일부 동작들이 선택적으로 조합되고/되거나, 일부 동작들의 순서가 선택적으로 변경된다.
일부 실시예들에서, 컴퓨터 시스템(예컨대, 700)은, 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템(예컨대, 710F)의 선택(예컨대, 사용자의 시선이 제1 미디어 아이템으로 지향되고/되거나 그에 유지되는 동안의 한 손 핀치 제스처 및/또는 양 손 디핀치 제스처)(예컨대, 미디어 라이브러리의 제1 미디어 아이템의 선택; 미디어 라이브러리 내의 복수의 미디어 아이템들 중 제1 미디어 아이템의 선택; 복수의 미디어 아이템들 중 제1 미디어 아이템의 선택 및/또는 복수의 디스플레이된 미디어 아이템들 중 제1 미디어 아이템의 선택(예컨대, 미디어 아이템들의 복수의 디스플레이된 표현들 중 제1 미디어 아이템의 표현의 선택)에 대응하는 하나 이상의 사용자 입력들(예컨대, 718)(예컨대, 하나 이상의 탭 입력들, 하나 이상의 제스처들(예컨대, 하나 이상의 에어 제스처들), 및/또는 하나 이상의 다른 입력들)을 검출한다(1002). 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여(1004): 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템(예컨대, 사용자의 제1 눈에 대한 제1 세트의 하나 이상의 카메라들로부터의 이미지 및 사용자의 제2 눈에 대한 제2 세트의 하나 이상의 카메라들로부터의 이미지를 디스플레이함으로써 디스플레이되는, 2개의 상이한 카메라들(또는 카메라들의 세트들)로부터 동일한 시간에 캡처되는 미디어를 갖는 입체 미디어 아이템)이라는 결정에 따라(1006), 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 (예컨대, 제1 세트의 시각적 특성들을 갖는) 제1 미디어 아이템을 디스플레이하고(예컨대, 도 7f)(1008); 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라(1010), 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제1 방식과는 상이한 제2 방식으로 (예컨대, 제2 세트의 시각적 특성들을 갖는) 제1 미디어 아이템을 디스플레이한다(예컨대, 도 7j)(1012)(예컨대, 도 7f 및 도 7j를 참조하여 설명된 바와 같음). 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템은 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함한다고 결정하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템을 둘러싸는 (예컨대, 에지 및/또는 경계를 둘러싸는) 제1 유형의 경계부(예컨대, 제1 형상을 갖는 제1 경계부, 제1 세트의 시각적 특성들을 갖는 제1 경계부)(예컨대, 굴절 에지들을 갖는 제1 경계부 및/또는 둥근 코너들을 갖는 제1 경계부)를 갖는 제1 미디어 아이템을 디스플레이하는 것을 포함한다(예컨대, 도 7f). 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템을 둘러싸는 제1 경계부와는 상이한 (예컨대, 에지 및/또는 경계를 둘러싸는) 제2 유형의 경계부(예컨대, 제2 형상을 갖는 제2 경계부, 제2 세트의 시각적 특성들을 갖는 제2 경계부)(예컨대, 비-굴절 에지들을 갖는 제2 경계부 및/또는 둥글지 않은 (예컨대, 직각의 그리고/또는 뾰족한) 코너들을 갖는 제2 경계부)를 갖는 제1 미디어 아이템을 디스플레이하는 것을 포함한다(예컨대, 도 7j)(예컨대, 도 7f를 참조하여 설명된 바와 같음). 일부 실시예들에서, (예컨대, 미디어 라이브러리 사용자 인터페이스에 제시된) 미디어 라이브러리는 제1 유형의 한 세트의 미디어 아이템들(예컨대, 복수의 미디어 아이템들), 및 제2 유형의 한 세트의 미디어 아이템들(예컨대, 복수의 미디어 아이템들)을 포함한다. 제1 유형의 각자의 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 유형의 각자의 미디어 아이템을 둘러싸는 제1 유형의 경계부를 갖는 제1 유형의 각자의 미디어 아이템을 디스플레이하는 것을 포함하여, 제1 방식으로 제1 유형의 각자의 미디어 아이템을 디스플레이한다. 제2 유형의 각자의 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 컴퓨터 시스템은 제2 유형의 각자의 미디어 아이템을 둘러싸는 제2 유형의 경계부를 갖는 제2 유형의 각자의 미디어 아이템을 디스플레이하는 것을 포함하여, 제2 방식으로 제2 유형의 각자의 미디어 아이템을 디스플레이한다. 일부 실시예들에서, 제1 유형의 미디어 아이템들은 제1 유형의 경계부와 함께 디스플레이되는 것을 포함하여 제1 방식으로 디스플레이되고, 제2 유형의 미디어 아이템들은 제2 유형의 경계부와 함께 디스플레이되는 것을 포함하여 제2 방식으로 디스플레이된다. 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는지 여부에 기초하여 제1 미디어 아이템의 경계부를 상이하게 디스플레이하는 것은 시스템의 상태(예컨대, 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는지 여부)에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 미디어 아이템이 제1 방식으로 디스플레이될 때, 제1 미디어 아이템을 적어도 부분적으로 둘러싸는 (예컨대, 완전히 둘러싸는) 콘텐츠(예컨대, 배경 콘텐츠)(예컨대, 706)(예컨대, 제1 미디어 아이템 후방에 디스플레이되는 그리고 제1 미디어 아이템을 부분적으로 둘러싸는 배경 콘텐츠)는 (예컨대, 제3 세트의 시각적 특성들을 갖는)(예컨대, 제1 미디어 아이템의 경계들의 외측에 디스플레이되는 선택가능 제어부들을 갖는 그리고/또는 배경 콘텐츠에 적용되는 제3 세트의 조명 효과들을 갖는) 제1 외관을 갖고(예컨대, 제1 외관을 갖도록 디스플레이 생성 컴포넌트에 의해 수정되고)(예컨대, 도 7f); 제1 미디어 아이템이 제2 방식으로 디스플레이될 때, 제1 미디어 아이템을 적어도 부분적으로 둘러싸는 (예컨대, 완전히 둘러싸는) 콘텐츠(예컨대, 배경 콘텐츠)는 (예컨대, 제4 세트의 시각적 특성들을 갖는)(예컨대, 제1 미디어 아이템의 경계들의 외측에 선택가능 제어부들을 디스플레이하지 않는 그리고/또는 배경 콘텐츠에 적용되는 제4 세트의 조명 효과들을 갖는) 제1 외관과는 상이한 제2 외관을 갖는다(예컨대, 제2 외관을 갖도록 디스플레이 생성 컴포넌트에 의해 수정된다)(예컨대, 도 7j)(예컨대, 도 7f를 참조하여 설명된 바와 같음). 일부 실시예들에서, 제1 미디어 아이템을 적어도 부분적으로 둘러싸는 콘텐츠는 디스플레이 생성 컴포넌트에 의해 디스플레이된다. 일부 실시예들에서, 제1 미디어 아이템을 적어도 부분적으로 둘러싸는 콘텐츠는 디스플레이 생성 컴포넌트에 의해 디스플레이되지 않는다(예컨대, 제1 미디어 아이템을 적어도 부분적으로 둘러싸는 콘텐츠는 콘텐츠가 디스플레이 생성 컴포넌트에 의해 디스플레이되지 않는 상태로 사용자 인터페이스 후방의 사용자에 의해 가시적인 하나 이상의 유형적인 물리적 객체들을 포함한다). 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는지 여부에 기초하여 제1 미디어 아이템을 둘러싸는 콘텐츠를 상이하게 디스플레이하는 것은 시스템의 상태(예컨대, 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는지 여부)에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 컴퓨터 시스템은 제1 미디어 아이템으로부터 연장되는 한 세트의 광선들(예컨대, 726-1, 726-2, 726-3, 726-4, 730-1, 730-2, 730-3, 또는 730-4)(예컨대, 광 유출 조명 효과)(예컨대, 제1 미디어 아이템의 외부 경계로부터 제1 미디어 아이템을 적어도 부분적으로 둘러싸는 배경 콘텐츠 내로 연장되는 광선들)을 디스플레이한다. 일부 실시예들에서, 광선들은 광선들의 하나 이상의 시각적 특성들(예컨대, 밝기, 세기, 크기, 길이, 색상, 채도, 및/또는 대비)이 제1 미디어 아이템의 시각적 콘텐츠(예컨대, 시각적 특성들)에 기초하여 결정되는 시각적 효과들이다(예컨대, 상이한 미디어 아이템들은 상이한 광 유출 광선들을 야기한다). 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템으로부터 연장되는 한 세트의 광선들을 디스플레이하는 것을 보류하는 것을 포함한다. 일부 실시예들에서, 제1 미디어 아이템으로부터 연장되는 한 세트의 광선들은 시간 경과에 따라 변경된다(예컨대, 제1 미디어 아이템으로부터 연장되는 한 세트의 광선들은 제1 미디어 아이템의 시각적 콘텐츠가 시간 경과에 따라 변경됨에 따라 (예컨대, 제1 미디어 아이템의 시각적 콘텐츠(예컨대, 비디오 콘텐츠)가 재생됨에 따라) 시간 경과에 따라 변경된다). 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여 제1 미디어 아이템으로부터 연장되는 한 세트의 광선들을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 한 세트의 광선들의 하나 이상의 시각적 특성들(예컨대, 밝기, 세기, 크기, 길이, 색상, 채도, 및/또는 대비)(예컨대, 726-1, 726-2, 726-3, 726-4, 730-1, 730-2, 730-3, 또는 730-4)은 제1 미디어 아이템의 에지들에서의 (예컨대, 외부 경계에서의 또는 에지로부터 미리결정된 거리 내에서의) 하나 이상의 색상들에 기초하여 결정된다(예컨대, 도 7f를 참조하여 설명된 바와 같음)(예를 들어, 일부 실시예들에서, 제1 미디어 아이템의 제1 에지로부터 연장되는 광선들의 시각적 특성들은 제1 미디어 아이템의 제1 에지 상에 디스플레이되는 색상들에 기초하여 결정되고/되거나 제1 미디어 아이템의 제2 에지로부터 연장되는 광선들의 시각적 특성들은 제1 미디어 아이템의 제2 에지 상에 디스플레이되는 색상들에 기초하여 결정된다). 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여 제1 미디어 아이템으로부터 연장되는 한 세트의 광선들을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 한 세트의 광선들(예컨대, 726-1, 726-2, 726-3, 726-4, 730-1, 730-2, 730-3, 또는 730-4)은 제1 길이를 갖는 제1 광선 및 제1 길이와는 상이한 제2 길이를 갖는 제2 광선을 포함한다(예컨대, 한 세트의 광선들은 상이한 또는 가변 길이들을 갖는 광선들을 포함한다). 일부 실시예들에서, 한 세트의 광선들은 제1 길이 및 제2 길이와는 상이한 제3 길이를 갖는 제3 광선을 포함한다. 일부 실시예들에서, 제1 광선은 제1 미디어 아이템의 제1 측(예컨대, 상단, 하단, 좌측, 및/또는 우측)으로부터 연장되고, 제2 광선은 제1 측과는 상이한 제1 미디어 아이템의 제2 측으로부터 연장되고, 제3 광선은 제1 및 제2 측들과는 상이한 제1 미디어 아이템의 제3 측으로부터 연장되고, 제4 광선은 제1, 제2, 제3 측들과는 상이한 제1 미디어 아이템의 제4 측으로부터 연장된다. 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여 제1 미디어 아이템으로부터 연장되는 한 세트의 광선들을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 미디어 아이템은 각자의 유형의 깊이 정보를 포함하고(예컨대, 사용자의 제1 눈에 대한 제1 세트의 하나 이상의 카메라들로부터의 이미지 및 사용자의 제2 눈에 대한 제2 세트의 하나 이상의 카메라들로부터의 이미지를 디스플레이함으로써 디스플레이되는, 2개의 상이한 카메라들(또는 카메라들의 세트들)로부터 동일한 시간에 캡처되는 미디어를 갖는 입체 미디어 아이템), 제1 미디어 아이템은 (예컨대, 컴퓨터 시스템에 연결 및/또는 통합된 복수의 카메라들을 사용하여) 컴퓨터 시스템(예컨대, 700)에 의해 캡처되었다. 일부 실시예들에서, 하나 이상의 사용자 입력들을 검출하기 전, 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, (예컨대, 컴퓨터 시스템에 연결 및/또는 통합된 복수의 카메라들을 사용하여) 제1 미디어 아이템을 캡처한다. 일부 실시예들에서, 미디어 아이템은 제1 미디어 아이템이 입체 캡처(예컨대, 입체 미디어 아이템)인 경우에 각자의 유형의 깊이 정보를 포함한다. 일부 실시예들에서, 입체 캡처는 이격된 (예컨대, 사람의 눈들과 대략 동일한 거리들로 이격된) 2개의 상이한 카메라들로부터 동일한 시간에 캡처된 2개의 이미지들을 포함하고, 2개의 이미지들(사용자의 제1 눈에 대해 제1 이미지, 및 사용자의 제2 눈에 대해 제2 이미지)은 캡처된 장면의 깊이를 재생성하기 위해 사용자에게 동일한 시간에 디스플레이된다. 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때 그리고 제1 미디어 아이템이 깊이 정보를 포함할 때, 컴퓨터 시스템은 컴퓨터 시스템의 제1 디스플레이 상에 미디어 아이템에 포함된 물리적 환경의 제1 관점을 디스플레이하고, 컴퓨터 시스템은 전자 디바이스의 제2 디스플레이 상에 미디어 아이템에 포함된 물리적 환경의 제2 관점을 디스플레이하여 사용자가 미디어 아이템에 포함된 콘텐츠 사이에 입체 깊이를 인지하게 한다. 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템은 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함한다고 결정하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 세트의 조명 효과들(예컨대, 726-1, 726-2, 726-3, 또는 726-4)(예컨대, 제1 미디어 아이템으로부터 연장되는 제1 세트의 광 유출 조명 효과들(예컨대, 제1 미디어 아이템의 시각적 콘텐츠에 기초하여 결정되는 하나 이상의 시각적 특성들(예컨대, 밝기, 세기, 크기, 길이, 색상, 채도, 및/또는 대비)을 갖는 제1 세트의 광 유출 조명 효과들))로 제1 미디어 아이템을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제2 세트의 조명 효과들(예컨대, 730-1, 730-2, 730-3, 또는 730-4)(예컨대, 제1 세트의 조명 효과들과 상이한 제2 세트의 조명 효과들 또는 제1 세트의 조명 효과들과 동일한 제2 세트의 조명 효과들)(예컨대, 제1 미디어 아이템으로부터 연장되는 제2 세트의 광 유출 조명 효과들(예컨대, 제1 미디어 아이템의 시각적 콘텐츠에 기초하여 결정되는 하나 이상의 시각적 특성들(예컨대, 밝기, 세기, 크기, 길이, 색상, 채도, 및/또는 대비)을 갖는 제2 세트의 광 유출 조명 효과들))로 제1 미디어 아이템을 디스플레이하는 것을 포함한다. 예를 들어, 일부 실시예들에서, 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템인지(예컨대, 입체 미디어 아이템인지) 또는 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템인지(예컨대, 입체 미디어 아이템이 아닌지)와 관계 없이, 제1 미디어 아이템은 제1 미디어 아이템에 적용되는 조명 효과들로 디스플레이된다. 일부 실시예들에서, 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템인지(예컨대, 입체 미디어 아이템인지) 또는 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템인지(예컨대, 입체 미디어 아이템이 아닌지)와 관계 없이, 제1 미디어 아이템은 제1 미디어 아이템으로부터 연장되는 광 유출 광선들로 디스플레이된다. 일부 실시예들에서, 제1 미디어 아이템으로부터 연장되는 광 유출 광선들은 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는지 또는 각자의 유형의 깊이 정보를 포함하지 않는지에 기초하여 상이하다(예컨대, 제1 미디어 아이템으로부터 연장되는 광 유출 광선들을 결정하기 위한 하나 이상의 알고리즘들은 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는지 또는 각자의 유형의 깊이 정보를 포함하지 않는지에 기초하여 상이하다). 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여 제1 세트의 조명 효과들 또는 제2 세트의 조명 효과들로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것을 갖는다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 세트의 조명 효과들(예컨대, 726-1, 726-2, 726-3, 또는 726-4)은 제1 미디어 아이템의 에지들에서의 (예컨대, 에지로부터 미리결정된 거리 내에서의) 제1 세트의 색상들(예컨대, 제1 미디어 아이템의 최외부 에지, 경계부, 및/또는 경계에 디스플레이되는 색상들)에 기초하여 그리고 제1 미디어 아이템의 에지들 내부에서의 제2 세트의 색상들(예컨대, (예를 들어, 에지로부터 미리결정된 거리보다 먼) (예컨대, 제1 세트의 색상들보다 중심에 더 가까운 그리고/또는 제1 미디어 아이템의 에지로부터 더 먼) (예컨대, 제1 미디어 아이템의 에지 상에서가 아닌) 제1 미디어 아이템의 내부 부분에 디스플레이되는 색상들)에 기초하여 결정되고, 제1 세트의 색상들에는 제1 세트의 조명 효과들의 결정 시 제2 세트의 색상들보다 큰 가중치(weight)가 주어진다. 일부 실시예들에서, 제2 세트의 조명 효과들(예컨대, 730-1, 730-2, 730-3, 또는 730-4)은 제1 미디어 아이템의 에지들에서의 (예컨대, 에지로부터 미리결정된 거리 내에서의) 제3 세트의 색상들(예컨대, 제1 미디어 아이템의 최외부 에지, 경계부, 및/또는 경계에 디스플레이되는 색상들)에 기초하여 그리고 제1 미디어 아이템의 에지들 내부에서의 제4 세트의 색상들(예컨대, (예를 들어, 에지로부터 미리결정된 거리보다 먼) (예컨대, 제3 세트의 색상들보다 중심에 더 가까운 그리고/또는 제1 미디어 아이템의 에지로부터 더 먼) (예컨대, 제1 미디어 아이템의 에지 상에서가 아닌) 제1 미디어 아이템의 내부 부분에 디스플레이되는 색상들)에 기초하여 결정되고, 제3 세트의 색상들에는 제2 세트의 조명 효과들의 결정 시 제4 세트의 색상들보다 큰 가중치가 주어진다(예컨대, 도 7f를 참조하여 설명된 바와 같음). 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여 제1 세트의 조명 효과들 또는 제2 세트의 조명 효과들로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것을 갖는다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 세트의 조명 효과들 및 제2 세트의 조명 효과들은 제1 미디어 아이템의 전방에 방출되는 광(예컨대, 제1 미디어 아이템의 전방 표면으로부터 외향으로 연장되는 광); 및 제1 미디어 아이템의 후방에 방출되는 광(예컨대, 제1 미디어 아이템의 후방 표면으로부터 외향으로 연장되는 광)(예컨대, 미디어 윈도우(704)의 전방에 방출되는 광 및 미디어 윈도우(704)의 후방에 방출되는 광)을 포함한다(예컨대, 도 7f를 참조하여 설명된 바와 같음). 예를 들어, 일부 실시예들에서, 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템인지(예컨대, 입체 미디어 아이템인지) 또는 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템인지(예컨대, 입체 미디어 아이템이 아닌지)와 관계 없이, 제1 미디어 아이템은 제1 미디어 아이템의 전방에 방출되는 광 및 제1 미디어 아이템의 후방에 방출되는 광을 포함하는 조명 효과들로 디스플레이된다. 일부 실시예들에서, 제1 미디어 아이템의 전방에 방출되는 광 및/또는 제1 미디어 아이템 후방에 방출되는 광은 사용자에게 가시적인 다른 콘텐츠(예컨대, 제1 미디어 아이템을 적어도 부분적으로 둘러싸는 콘텐츠(예컨대, 배경 콘텐츠))로부터 반사된다. 일부 실시예들에서, 사용자에게 가시적인 다른 콘텐츠는 디스플레이 생성 컴포넌트에 의해 디스플레이된다. 일부 실시예들에서, 사용자에게 가시적인 다른 콘텐츠는 디스플레이 생성 컴포넌트에 의해 디스플레이되지 않는다(예컨대, 다른 콘텐츠는 제1 미디어 아이템 후방에서 가시적인 물리적 (예컨대, 실제) 배경 콘텐츠를 포함하지만, 디스플레이 생성 컴포넌트에 의해 디스플레이되지 않는다). 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 제1 미디어 아이템의 전방에 방출되는 광 및 제1 미디어 아이템의 후방에 방출되는 광을 포함하는 제1 세트의 조명 효과들 또는 제2 세트의 조명 효과들로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것을 갖는다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템이 비디오라는 결정에 따라, 제3 세트의 조명 효과들(예컨대, 726-4)로 제1 미디어 아이템을 디스플레이하는 것; 및 제1 미디어 아이템이 정지 이미지라는 결정에 따라, 제4 세트의 조명 효과들(예컨대, 726-1, 726-2, 또는 726-3)(예컨대, 제3 세트의 조명 효과들과 동일한 또는 상이한 제4 세트의 조명 효과들)로 제1 미디어 아이템을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템이 비디오라는 결정에 따라, 제5 세트의 조명 효과들(예컨대, 730-4)로 제1 미디어 아이템을 디스플레이하는 것; 및 제1 미디어 아이템이 정지 이미지라는 결정에 따라, 제6 세트의 조명 효과들(예컨대, 730-1, 730-2, 또는 730-3)(예컨대, 도 7f, 도 7n, 및 도 7m을 참조하여 설명된 바와 같음)(예컨대, 제5 세트의 조명 효과들과 동일한 또는 상이한 제6 세트의 조명 효과들)로 제1 미디어 아이템을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 제1 미디어 아이템이 정지 이미지인지 또는 비디오인지와 관계 없이, 제1 미디어 아이템은 제1 미디어 아이템에 적용되는 조명 효과들로 디스플레이된다. 일부 실시예들에서, 조명 효과들은 제1 미디어 아이템이 비디오인지 또는 정지 이미지인지에 기초하여 상이하다. 일부 실시예들에서, 조명 효과들은 제1 미디어 아이템이 비디오인지 또는 정지 이미지인지와 관계 없이 동일하다. 일부 실시예들에서, 제3 세트의 조명 효과들 및 제5 세트의 조명 효과들(예컨대, 비디오들에 대한 조명 효과들)은 시간 경과에 따라 변경된다(예컨대, 제1 미디어 아이템으로부터 연장되는 한 세트의 광선들은 제1 미디어 아이템의 시각적 콘텐츠가 시간 경과에 따라 변경됨에 따라 (예컨대, 제1 미디어 아이템의 비디오 콘텐츠가 재생됨에 따라) 시간 경과에 따라 변경된다). 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여 제1 세트의 조명 효과들 또는 제2 세트의 조명 효과들로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것을 갖는다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 미디어 아이템은 비디오이고; 비디오의 각자의 재생 시간에서의 제1 세트의 조명 효과들(예컨대, 730-4 또는 726-4)은 비디오의 각자의 재생 시간을 포함하는 비디오의 다수의 재생 시간들로부터 비디오로부터의 콘텐츠에 기초하여 생성되는 조명 효과를 포함한다(예컨대, 도 7f, 도 7n, 및 도 7m을 참조하여 설명된 바와 같음)(예컨대, 비디오로부터의 시간 평균 콘텐츠에 기초하여 비디오로부터 광을 방출하여, 다수의 프레임들로부터의 콘텐츠가 조명 효과를 생성하는 데 사용되는 평균 색상을 생성하기 위해 조합되게 한다). 일부 실시예들에서, 제1 세트의 조명 효과들이 적용되는 제1 미디어 아이템을 디스플레이하는 것은, 제1 미디어 아이템이 비디오라는 결정에 따라, 제1 초기 세트의 조명 효과들에 제1 스무딩 기능을 적용하는 것을 (예컨대, 제1 초기 세트의 조명 효과들에 제1 스무딩 기능을 적용함으로써 한 세트의 조명 효과들을 결정하는 것을) 포함한다(일부 실시예들에서, 제1 스무딩 기능은 일정 기간(예컨대, 미리결정된 지속기간)에 걸쳐 제1 초기 세트의 조명 효과들을 매끄럽게 한다). 일부 실시예들에서, 제2 세트의 조명 효과들이 적용되는 제1 미디어 아이템을 디스플레이하는 것은, 제1 미디어 아이템이 비디오라는 결정에 따라, 제2 초기 세트의 조명 효과들에 제2 스무딩 기능(일부 실시예들에서, 제2 스무딩 기능은 제1 스무딩 기능과 동일하거나 상이함)을 적용하는 것을 (예컨대, 제2 초기 세트의 조명 효과들에 제2 스무딩 기능을 적용함으로써 한 세트의 조명 효과들을 결정하는 것을) 포함한다(일부 실시예들에서, 제2 스무딩 기능은 일정 기간(예컨대, 미리결정된 지속기간)에 걸쳐 제2 초기 세트의 조명 효과들을 매끄럽게 한다). 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것에 응답하여 제1 세트의 조명 효과들 또는 제2 세트의 조명 효과들로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 것을 갖는다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템의 하나 이상의 에지들을 시각적으로 왜곡시키는 것을 포함한다(예컨대, 도 7f를 참조하여 설명된 바와 같음)(예컨대, 시각적으로 가리고/가리거나 블러링함)(예컨대, 제1 미디어 아이템의 모든 에지들 및/또는 전체 외부 경계부 및/또는 경계를 시각적으로 왜곡시킴). 일부 실시예들에서, 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 일부 왜곡을 보여주는 유리 같은 에지들을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템의 하나 이상의 에지들을 시각적으로 왜곡시키는 것을 보류하는 것을 (예컨대, 제1 미디어 아이템의 어떠한 에지 및/또는 외부 경계도 시각적으로 왜곡시키는 것을 보류하는 것을) 포함한다. 하나 이상의 에지들이 각자의 유형의 깊이 정보를 포함하는 제1 미디어 아이템에 기초하여 시각적으로 왜곡된 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함한다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템을 디스플레이하는 동안: 컴퓨터 시스템은, 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템 내의 제1 위치에 대응하는 사용자 시선(예컨대, 714)을 검출하고(예컨대, 사용자가 제1 미디어 아이템 내의 제1 위치를 응시하고 있다는 것을 검출 및/또는 결정함); 제1 미디어 아이템 내의 제1 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여, 컴퓨터 시스템은 제1 미디어 아이템의 적어도 일부분이 (예컨대, 사용자의 시점으로부터 멀리) 후방으로 이동하는 것을 디스플레이한다(예컨대, 도 7a 내지 도 7d를 참조하여 설명된 바와 같음). 각자의 유형의 깊이 정보를 포함하는 제1 미디어 아이템에 기초하여 그리고 제1 위치에 대응하는 사용자 시선을 검출하는 것에 응답하여 후방으로 이동되는 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함한다고 결정하였고 제1 위치에 대응하는 사용자 시선을 검출하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템의 하나 이상의 에지들을 블러링하는 것을 (예컨대, 제1 미디어 아이템의 모든 에지들 및/또는 전체 외부 경계부 및/또는 경계를 블러링하는 것을) 포함한다. 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템의 하나 이상의 에지들을 블러링하는 것을 보류하는 것을 (예컨대, 제1 미디어 아이템의 어떠한 에지 또는 경계도 블러링하는 것을 보류하는 것을) 포함한다(예컨대, 도 7f를 참조하여 설명된 바와 같음). 제1 미디어 아이템의 하나 이상의 에지들이 각자의 유형의 깊이 정보를 포함하는 제1 미디어 아이템에 기초하여 블러링된 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함한다고 결정하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템(예컨대, 704)으로부터 연장되는 제1 세트의 광 유출 조명 효과들(예컨대, 726-1)(예컨대, 제1 미디어 아이템의 시각적 콘텐츠에 기초하여 결정되는 하나 이상의 시각적 특성들(예컨대, 밝기, 세기, 크기, 길이, 색상, 채도, 및/또는 대비)을 갖는 제1 세트의 광 유출 조명 효과들)로 제1 미디어 아이템을 디스플레이하는 것; 및 제1 세트의 광 유출 조명 효과들과 동시에, 하나 이상의 추가 조명 효과들(예컨대, 도 7f를 참조하여 설명된 바와 같음)(예컨대, 제1 미디어 아이템으로부터 연장되는 추가 광선들, 제1 미디어 아이템을 둘러싸는 추가 광, 제1 미디어 아이템의 경계부(예컨대, 굴절 및/또는 유리 같은 경계부들)에 적용되는 조명 효과들, 및/또는 제1 미디어 아이템으로부터 연장되는 조명 효과들에 적용되는 하나 이상의 스무딩 기능들)을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템을 디스플레이하는 것은 하나 이상의 추가 조명 효과들을 적용하지 않고서 제1 미디어 아이템(예컨대, 704)으로부터 연장되는 (일부 실시예들에서, 제1 세트의 광 유출 조명 효과들과 동일한 또는 제1 세트의 광 유출 조명 효과들과 상이한) 제2 세트의 광 유출 조명 효과들(예컨대, 730-1)(예컨대, 제1 미디어 아이템의 시각적 콘텐츠에 기초하여 결정되는 하나 이상의 시각적 특성들(예컨대, 밝기, 세기, 크기, 길이, 색상, 채도, 및/또는 대비)을 갖는 제2 세트의 광 유출 조명 효과들)로 제1 미디어 아이템을 디스플레이하는 것을 포함한다(예컨대, 도 7f를 참조하여 설명된 바와 같음). 각자의 유형의 깊이 정보를 포함하는 제1 미디어 아이템에 기초하여 하나 이상의 추가 조명 효과들로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함한다고 결정하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 연속 에지들을 갖는 3차원 형상(예컨대, 704 in 도 7I)(예컨대, 도 7f 및 도 7i를 참조하여 설명된 바와 같음)(예컨대, 날카롭고 그리고/또는 뾰족한 코너들이 없는 3차원 형상, 예를 들어 연속 도함수들의 각자의 횟수(예컨대, 2, 3, 4, 10, 100 또는 무한)로 미분가능한 표면을 가진 볼록 형상과 같은 연속적이고 매끄러운 형상) 내에 제1 미디어 아이템을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템을 디스플레이하는 것은 연속 에지들을 갖는 3차원 형상 내에 제1 미디어 아이템을 디스플레이하는 것을 보류하는 것을 (예컨대, 2차원 형상으로, 그리고/또는 (예컨대, 날카롭고 그리고/또는 뾰족한 코너들을 갖는) 연속 에지들을 갖지 않는 3차원 형상으로 그리고/또는 상이한 3차원 형상으로 제1 미디어 아이템을 디스플레이하는 것을) 포함한다. 각자의 유형의 깊이 정보를 포함하는 제1 미디어 아이템에 기초하여 연속 에지들을 갖는 3차원 형상 내에 제1 미디어 아이템을 디스플레이하는 것은 사용자에게 시스템의 상태에 관한 시각적 피드백을 제공하며 (예컨대, 시스템은 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함한다고 결정하였음), 이는 개선된 시각적 피드백을 제공한다. 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 컴퓨터 시스템이 사용자가 자신을 물리적 환경 내에 재위치시켰고/시켰거나 (예컨대, 사용자가 그의 머리에 컴퓨터 시스템(700)을 착용하고 있는 동안) 그의 머리를 회전시켰다는 것을 검출하는 것에 응답하여 제1 미디어 아이템의 3차원 형상의 상이한 관점들을 디스플레이한다.
일부 실시예들에서, 연속 에지들을 갖는 3차원 형상은 만곡 전방 표면 및 만곡 후방 표면(예컨대, 도 7i의 704)(예컨대, 도 7f 및 7i를 참조하여 설명된 바와 같음)(예컨대, 만곡 후방 표면이 만곡 전방 표면을 직접 가로질러 그리고/또는 그의 반대편에 위치됨)을 포함한다. 각자의 유형의 깊이 정보를 포함하는 제1 미디어 아이템에 기초하여 연속 에지들을 갖는 3차원 형상 내에 제1 미디어 아이템을 디스플레이하는 것은 사용자에게 시스템의 상태에 관한 시각적 피드백을 제공하며 (예컨대, 시스템은 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함한다고 결정하였음), 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 연속 에지들을 갖는 3차원 형상은 하나 이상의 굴절 에지들로부터 방출되는 광에 굴절 특성들을 적용하는 (예컨대, 그의 방향을 편향시키거나, 돌리거나, 변경하는) 하나 이상의 굴절 에지들을 포함한다(예컨대, 도 7i의 704)(예컨대, 도 7f 및 7i를 참조하여 설명된 바와 같음). 각자의 유형의 깊이 정보를 포함하는 제1 미디어 아이템에 기초하여 연속 에지들을 갖는 3차원 형상 내에 제1 미디어 아이템을 디스플레이하는 것은 사용자에게 시스템의 상태에 관한 시각적 피드백을 제공하며 (예컨대, 시스템은 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함한다고 결정하였음), 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정은 제1 미디어 아이템이 2개의 상이한 카메라들(또는 2개의 상이한 세트들의 카메라들)로부터 동일한 시간에 캡처된 미디어를 포함하는 입체 미디어 아이템이라는 결정이다(예컨대, 도 7a 내지 도 7d를 참조하여 설명된 바와 같음). 일부 실시예들에서, 입체 미디어 아이템은 사용자의 제1 눈에 대한 제1 세트의 하나 이상의 카메라들에 의해 캡처되는 제1 이미지를 디스플레이함으로써, 그리고 (예컨대, 제1 이미지와 동시에 그리고/또는 동일한 시간에) 사용자의 제2 눈에 대한 제2 세트의 하나 이상의 카메라들에 의해 캡처되는 제2 이미지를 디스플레이함으로써 디스플레이된다. 일부 실시예들에서, 입체 미디어 아이템은 이격된 (예컨대, 사람의 눈들과 대략 동일한 거리들로 이격된) 2개의 상이한 카메라들로부터 동일한 시간에 캡처된 2개의 상이한 이미지들을 포함하고, 2개의 상이한 이미지들(사용자의 제1 눈에 대해 디스플레이되는 제1 이미지, 및 사용자의 제2 눈에 대해 디스플레이되는 제1 이미지와는 상이한 제2 이미지)은 캡처된 장면의 깊이를 재생성하기 위해 사용자에게 동일한 시간에 디스플레이된다. 제1 미디어 아이템이 2개의 상이한 카메라들로부터 동일한 시간에 캡처된 미디어를 포함하는 입체 미디어 아이템이라는 결정에 따라 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템이 2개의 상이한 카메라들과 동일한 시간에 캡처된 미디어를 포함하는 입체 미디어 아이템이라고 결정하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 제1 방식으로 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 제1 미디어 아이템 상에 오버레이되지 않는) 제1 미디어 아이템의 외부 경계 외측의 (예컨대, 미디어 윈도우(704) 외측의) 하나 이상의 제어부들(예컨대, 728A, 728B, 728C, 또는 740)(예컨대, 재생 제어부들(예컨대, 재생, 일시정지, 뒤로 가기, 앞으로 빨리 가기), 공유 옵션, 및/또는 닫기 옵션)을 디스플레이하는 것을 포함한다(예컨대, 도 7f 내지 도 7h 및 도 7n). 일부 실시예들에서, 제2 방식으로 제1 미디어 아이템을 디스플레이하는 것은 제1 미디어 아이템 상에 오버레이되는 하나 이상의 제어부들을 디스플레이하는 것을 포함한다. 일부 실시예들에서, 하나 이상의 제어부들은 제1 미디어 아이템을 닫기 (예컨대, 그의 디스플레이를 중지하기) 위해 선택가능한 제1 제어부(예컨대, 닫기 옵션)를 포함한다. 일부 실시예들에서, 하나 이상의 제어부들은 제1 미디어 아이템을 하나 이상의 외부 전자 디바이스들에 공유하기 위한 프로세스를 개시하기 위해 선택가능한 제2 제어부(예컨대, 공유 옵션)를 포함한다. 일부 실시예들에서, 하나 이상의 제어부들은 제1 미디어 아이템의 재생을 재개하고/하거나 개시하기 위해 선택가능한 제3 제어부(예컨대, 재생 옵션)를 포함한다. 일부 실시예들에서, 하나 이상의 제어부들은 제1 미디어 아이템의 재생을 일시정지하기 위해 선택가능한 제4 제어부(예컨대, 일시정지 옵션)를 포함한다. 일부 실시예들에서, 하나 이상의 제어부들은 제1 미디어 아이템의 재생을 앞으로 스킵하고/하거나 빠르게 하기 위해 선택가능한 제5 제어부(예컨대, 앞으로 빨리 가기 옵션)를 포함한다. 일부 실시예들에서, 하나 이상의 제어부들은 제1 미디어 아이템의 재생을 뒤로 스킵하고/하거나, 느리게 하고/하거나, 되돌리기 위해 선택가능한 제6 제어부(예컨대, 뒤로 가기 옵션)를 포함한다. 하나 이상의 제어부들이 각자의 유형의 깊이 정보를 포함하는 제1 미디어 아이템에 기초하여 제1 미디어 아이템의 외부 경계들의 외측에 디스플레이되는 제1 미디어 아이템을 디스플레이하는 것은 (예컨대, 시스템이 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함한다고 결정하였다는) 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 방법들(800, 900, 1000, 1100)의 태양들/동작들은 이들 방법들 사이에서 상호교환, 대체, 및/또는 추가될 수 있다. 예를 들어, 방법(800)으로 디스플레이되는 미디어 라이브러리 사용자 인터페이스는 선택적으로, 방법(900)으로 디스플레이되는 사용자 인터페이스이고/이거나, 방법(800)으로 디스플레이되는 제1 미디어 아이템은 선택적으로, 방법들(900 및/또는 1000)로 디스플레이되는 제1 미디어 아이템이다. 간결함을 위해, 이러한 상세사항들은 여기서 반복되지 않는다.
도 11a 내지 도 11f는 미디어를 디스플레이하는 예들을 예시한다. 도 1200은 미디어를 디스플레이하기 위한 예시적인 방법(1200)의 흐름도이다. 도 11a 내지 도 11f의 사용자 인터페이스들은 도 12의 프로세스를 포함하여 아래에 설명되는 프로세스들을 예시하기 위해 사용된다.
도 11a는 디스플레이 디바이스(702) 및 하나 이상의 카메라들을 포함하는 태블릿인 컴퓨터 시스템(700)을 도시한다(예컨대, 컴퓨터 시스템(700)은 하나 이상의 카메라들과 유선 통신 및/또는 무선통신한다). 도 11a가 태블릿으로서 컴퓨터 시스템(700)을 도시하고 있지만, 후술되는 기법들은 머리 장착형 디바이스들에 적용가능하다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스인 경우, 컴퓨터 시스템(700)은 선택적으로 각각의 디스플레이가 다양한 콘텐츠를 디스플레이하는 2개의 디스플레이들(컴퓨터 시스템(700)의 사용자의 각각의 눈에 대해 하나씩)을 포함한다. 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 깊이의 인식을 생성하기 위해 (예컨대, 아래에서 논의되는 시각적 효과(1112)와 같은) 다양한 요소들을 입체적으로 디스플레이한다. 추가로, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 사용자는 물리적 환경 주위를 걷고/걷거나 그의 머리를 회전시켜 가상 포털(1102)과 같은 객체의 상이한 관점을 얻을 수 있다.
도 11a에 예시된 바와 같이, 컴퓨터 시스템(700)은, 디스플레이 디바이스(702)를 통해, 미디어 사용자 인터페이스(1104)를 디스플레이한다. 도 11a에 예시된 바와 같이, 미디어 사용자 인터페이스는 물리적 환경(1106)의 표현을 포함한다. 도 11a에서, 의자(1106a), 카우치(1106b), 및 물 분배기(1106c)가 컴퓨터 시스템(700)과 통신하는 하나 이상의 카메라들의 시야 내에 있다. 도 11a에서, 의자(1106a), 카우치(1106b), 및 물 분배기(1106c)가 컴퓨터 시스템(700)과 통신하는 하나 이상의 카메라들의 시야 내에 있기 때문에, 물리적 환경(1106)의 표현은 의자(1106a), 카우치(1106b), 및 물 분배기(1106c)를 포함한다. 사용자가 디스플레이 디바이스(예컨대, 터치 감응형 디스플레이)(702)를 볼 때, 사용자는 컴퓨터 시스템(700)이 디스플레이하는 하나 이상의 가상 객체들과 함께 물리적 환경(1106)의 표현을 볼 수 있다(예컨대, 도 11a 내지 도 11f에 도시된 바와 같음). 따라서, 컴퓨터 시스템(700)은 디스플레이 디바이스(702)를 통해 증강 현실 환경을 제시한다. 일부 실시예들에서, 물리적 환경(1106)의 표현에 포함된 콘텐츠는 컴퓨터 시스템(700)의 시점으로부터 (예컨대, 사용자에게) 가시적인 콘텐츠에 대응한다. 일부 실시예들에서, 물리적 환경(1106)의 표현에 포함된 콘텐츠는 컴퓨터 시스템(700)의 사용자의 시점으로부터 가시적인 콘텐츠에 대응한다. 일부 실시예들에서, 물리적 환경(1106)의 표현은 디스플레이에 의해 디스플레이되지 않고서 (예컨대, 투명 디스플레이를 통해) 사용자에게 가시적인 물리적 환경이다.
도 11a 내지 도 11f의 실시예에서, 컴퓨터 시스템(700)의 시점은 컴퓨터 시스템(700)과 통신하는 하나 이상의 카메라들의 시야에 대응한다. 따라서, 컴퓨터 시스템(700)이 물리적 환경 전체에 걸쳐 이동됨에 따라, 컴퓨터 시스템(700)의 시점은 변경되고, 이는 하나 이상의 카메라들의 시야가 그에 대응하게 변경되게 한다.
도 11a에 예시된 바와 같이, 컴퓨터 시스템(700)은 물리적 환경(1106)의 표현 내에 가상 포털(1102)을 디스플레이한다. 컴퓨터 시스템(700)은 물리적 환경(1106)의 표현 내에 3차원 객체로서 가상 포털(1102)을 디스플레이한다. 따라서, 컴퓨터 시스템(700)은 일정 양의 깊이를 갖는 가상 포털(1102)을 디스플레이한다. 컴퓨터 시스템(700)이 가상 포털(1102)을 디스플레이하는 깊이의 양은 (예컨대, 개인이 일정 각도로부터 얇은 유리 시트를 볼 때 얇은 유리 시트의 두께가 어떻게 보일 수 있는지와 유사하게) 가상 포털(1102)의 디스플레이에 대한 컴퓨터 시스템(700)의 위치설정의 각도와 직접 상관된다. 가상 포털(1102)의 디스플레이는 월드 록킹된다(world locked). 따라서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 시점이 변경됨에 따라 (예컨대, 컴퓨터 시스템(700)이 물리적 환경 전체에 걸쳐 이동됨에 따라) 물리적 환경(1106)의 표현 내에서 가상 포털(1102)의 상대적 위치설정을 유지한다.
도 11a에 예시된 바와 같이, 컴퓨터 시스템(700)은 가상 포털(1102) 내에 미디어 아이템(1108)의 표현을 디스플레이한다. 사용자는 가상 윈도우(1118)를 통해 보는 것에 의해 미디어 아이템(1108)의 표현을 볼 수 있다. 가상 윈도우(1118)는 가상 포털(1102)의 반투명 부분으로 이를 통해 사용자가 볼 수 있다. 가상 윈도우(1118)는 가상 포털(1102)의 전방 측에 위치된다. 미디어 아이템(1108)의 표현은 이전에 캡처된 입체 미디어 아이템(예컨대, 사진 또는 비디오)(예컨대, 물리적 환경 내의 공통 위치에 위치된 한 세트의 카메라들(예컨대, 둘 이상의 카메라들)(예컨대, 한 세트의 카메라들은 사람의 눈들이 이격되어 있는 것과 대략 동일한 거리만큼 이격되어 있음)로부터 캡처되는 미디어 아이템 - 한 세트의 카메라들의 각각의 카메라는 물리적 환경의 고유한 관점을 캡처함)에 대응한다. 추가로, 도 11a에 예시된 바와 같이, 컴퓨터 시스템(700)은 미디어 아이템(1108)의 표현의 상단에 오버레이된 바와 같이 시각적 효과(1112)를 디스플레이한다. 도 11a에서, 시각적 효과(1112)는 미디어 아이템(1108)의 표현의 에지들에 디스플레이되는 콘텐츠를 커버하는 블러 효과이다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 사용자의 제1 눈에 대해 제1 이미지(예컨대, 미디어 아이템(1108) 내의 표현에 도시된 환경의 제1 관점)를 디스플레이하고 컴퓨터 시스템(700)은 사용자의 제2 눈에 대해 제2 이미지(예컨대, 미디어 아이템(1108) 내의 표현에 도시된 환경의 제2 관점)를 디스플레이하여, 사용자가 입체 깊이 효과를 갖는 미디어 아이템(1108)을 보게 한다(예컨대, 분리된 이미지들을 사용자의 상이한 눈들에 대해 디스플레이하는 것은 입체 깊이 효과를 생성한다).
도 11a에서, 컴퓨터 시스템(700)은 가상 포털(1102) 내에 미디어 아이템(1108), 후방 블러 층(1112a), 및 침범(impinging) 블러 층(1112b)의 표현을 디스플레이한다. 후방 블러 층(1112a)과 침범 블러 층(1112b)은 조합되어 컴퓨터 시스템(700)이 미디어 아이템(1108)의 표현의 에지들을 가리는 것으로서 디스플레이하는 시각적 효과(1112)를 생성한다. 추가로, 도 11a에 예시된 바와 같이, 컴퓨터 시스템(700)은 미디어 아이템(1108)의 표현을 디스플레이하는 것의 일부로서 비네트 효과를 디스플레이한다. 따라서, 도 11a에 예시된 바와 같이, 컴퓨터 시스템(700)은 미디어 아이템(1108)의 표현의 주변부를 미디어 아이템(1108)의 표현의 중심보다 더 어두운 것으로 디스플레이한다.
도 11a는 가상 포털(1102) 내에서 후방 블러 층과 침범 블러 층과 미디어 아이템(1108)의 표현 사이의 위치 관계를 도시하는 데 도움을 주기 위한 시각적 보조로서 개략도(1114)를 포함한다. 개략도(1114)는 (예컨대, 가상 포털(1102)에 디스플레이되는 후방 블러 층에 대응하는) 후방 블러 층(1114b)의 표현, (예컨대, 가상 포털(1102) 내에 디스플레이되는 침범 블러 층에 대응하는) 침범 블러 층(1114c)의 표현, (예컨대, 가상 포털(1102) 내에 디스플레이되는 미디어 아이템(1108)의 표현에 대응하는) 콘텐츠(1114d)의 표현, 및 (예컨대, 가상 포털(1102)의 가상 윈도우(1118)에 대응하는) 윈도우(1114e)의 표현을 포함한다.
도 11a에서, 개략도(1114)는 콘텐츠(1114d)의 표현이 후방 블러 층(1114b)의 표현과 침범 블러 층(1114c)의 표현 사이에 위치되는 것을 도시한다. 따라서, 컴퓨터 시스템(700)은 가상 포털(1102) 내에서 후방 블러 층(1112a)과 침범 블러 층(1112b) 사이에 미디어 아이템(1108)의 표현을 디스플레이한다(예컨대, 렌더링한다). 추가로, 개략도(1114)에 의해 예시되는 바와 같이, 후방 블러 층(1112a)은 콘텐츠(1114d)의 표현보다 넓고, 침범 블러 층(1112b)은 미디어 아이템(1108)의 표현의 에지들에 침범한다.
후방 블러 층(1112a)은 미디어 아이템(1108)의 표현에 대응하는 입체 미디어 아이템의 에지들에 있는 콘텐츠의 외삽(extrapolation)의 블러이다. 입체 미디어 아이템의 에지들에 있는 콘텐츠가 변경됨에 따라(예컨대, 입체 미디어 아이템이 비디오 미디어 아이템에 대응할 때), 후방 블러 층(1112a)에 포함된 콘텐츠는 입체 미디어 아이템의 에지들에서의 콘텐츠에 대한 변경들에 기초하여 변경된다.
침범 블러 층(1112b)은 미디어 아이템(1108)의 표현에 대응하는 입체 미디어 아이템의 에지들에 있는 콘텐츠의 블러이다. 컴퓨터 시스템(700)은 미디어 아이템(1108)의 표현의 에지들로부터 미디어 아이템(1108)의 표현의 중간을 향하여 내향으로 연장되는 바와 같이 침범 블러 층(1112b)을 디스플레이한다. 추가로, 침범 블러 층(1112b)은 침범 블러 층(1112b)이 미디어 아이템(1108)의 표현의 중심을 향하여 연장됨에 따라 크기(예컨대, 세기)가 감소하는 블러 효과이다. 즉, 침범 블러 층(1112b)은 침범 블러 층(1112b)이 미디어 아이템(1108)의 표현의 중심을 향하여 연장됨에 따라 더 반투명해진다(예컨대, 침범 블러 층(1112b)은 깃털형으로 된다). 후방 블러 층(1112a)과 유사하게, 침범 블러 층(1112b)에 의해 블러링되는 콘텐츠는 입체 미디어 아이템의 에지들에서의 콘텐츠가 변경됨에 따라 (예컨대, 입체 미디어 아이템이 비디오 미디어 아이템에 대응할 때) 변경된다.
도 11a에 예시된 바와 같이, 개략도(1114)는 전자 디바이스(1114a)의 표현을 포함한다. 전자 디바이스(1114a)의 표현은 가상 포털(1102)의 디스플레이의 위치에 대한 컴퓨터 시스템(700)의 위치설정을 나타낸다. 도 11a에서, 개략도(1114)에 윈도우(1114e)의 표현에 대한 전자 디바이스(1114a)의 표현의 위치설정에 의해 나타낸 바와 같이, 컴퓨터 시스템(700)은 가상 포털(1102)의 디스플레이의 바로 전방에 있는 물리적 환경 내의 위치에 위치된다. 추가로, 개략도(1114)에 콘텐츠(1114d)의 표현 및 윈도우(1114e)의 표현의 위치설정에 의해 나타낸 바와 같이, 컴퓨터 시스템(700)은 가상 포털(1102)의 가상 윈도우(1118) 후방에 미디어 아이템(1108)의 표현을 디스플레이한다(예컨대, 미디어 아이템(1108)의 표현은 가상 포털(1102)의 가상 윈도우(1118)보다 컴퓨터 시스템(700)으로부터 더 멀리 있다). 도 11a 내지 도 11f의 실시예들에서, 컴퓨터 시스템(700)은 사용자에 의해 보유 및/또는 착용되고 있다. 따라서, 컴퓨터 시스템(700)의 시점은 사용자의 시점에 대응한다.
도 11a에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 위치설정이 가상 포털(1102)의 디스플레이와 중심설정된다는 결정을 한다. 도 11a에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 위치설정이 가상 포털(1102)의 디스플레이와 중심설정된다는 결정을 하기 때문에, 컴퓨터 시스템(700)은 미디어 아이템(1108)의 표현의 주변부 주위에 시각적 효과(1112)를 균일하게 디스플레이한다. 도 11a에서, 컴퓨터 시스템(700)은 물리적 환경 내에 재위치된다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 사용자의 상이한 눈들에 각각 대응하는 2개의 디스플레이 디바이스들 상에 미디어 아이템(1108)의 표현의 주변부 주위에 균일하게 시각적 효과(1112)를 개별적으로 디스플레이한다(예컨대, 컴퓨터 시스템(700)은 사용자의 2개의 눈들에 대해 미디어 아이템(1112)의 표현의 주변부 주위에 균일하게 시각적 효과(1112)를 개별적으로 디스플레이한다). 일부 실시예들에서, 컴퓨터 시스템(700)은 시각적 효과(1112)로 입체 미디어 아이템들의 둘 이상의 표현들을 동시에 디스플레이한다. 일부 실시예들에서, 컴퓨터 시스템(700)은 시각적 효과(1112) 없이 비입체 미디어 아이템의 표현을 디스플레이한다. 일부 실시예들에서, 컴퓨터 시스템(700)은 시각적 효과(1112)로 미디어 아이템(1108)의 표현을 그리고 시각적 효과(1112) 없이 비입체 미디어 아이템의 표현을 동시에 디스플레이한다. 일부 실시예들에서, 미디어 아이템(1108)의 표현은 컴퓨터 시스템(700)과 통신하는 하나 이상의 카메라들을 통해 캡처되었던 미디어 아이템의 묘사이다. 일부 실시예들에서, 미디어 아이템(1108)의 표현은 컴퓨터 시스템(700)과 통신(예컨대, 유선 통신 및/또는 무선 통신)하는 외부 디바이스를 통해 캡처되었던 미디어 아이템의 묘사이다. 일부 실시예들에서, 미디어 아이템(1108)의 표현은 둘 이상의 고유한 관점들로부터 캡처되는 물리적 환경의 표현이고, 컴퓨터 시스템(700)은 사용자의 각각의 눈에 대해 물리적 환경의 상이한 관점들을 디스플레이한다.
도 11b에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 가상 포털(1102)의 디스플레이의 우측에 위치되어 있다는 결정을 한다. 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 가상 포털(1102)의 디스플레이의 우측에 위치되어 있다는 결정을 하기 때문에, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 디스플레이 디바이스(702)의 중심의 좌측에 가상 포털(1102)을 디스플레이한다. 컴퓨터 시스템(700)은 가상 포털(1102)의 디스플레이에 대한 컴퓨터 시스템(700)의 위치설정에 기초하여 디스플레이 디바이스(702) 상에서의 가상 포털(1102)의 디스플레이의 위치를 변경한다(예컨대, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 가상 포털(1102)의 디스플레이의 좌측에 위치되는 경우에 디스플레이 디바이스(702)의 중심의 우측에 가상 포털(1102)을 디스플레이한다). 위에서 설명된 바와 같이, 가상 포털(1102)의 디스플레이는 월드-록킹된다. 따라서, 물리적 환경(1106)의 표현에 포함된 콘텐츠에 대한 가상 포털(1102)의 디스플레이의 위치는 컴퓨터 시스템(700)의 위치설정이 변경되는 것에 응답하여 변경되지 않는다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 사용자의 상이한 눈들에 각각 대응하는 2개의 개별적인 디스플레이 디바이스들의 중심의 좌측에 가상 포털(1102)을 개별적으로 디스플레이한다(예컨대, 컴퓨터 시스템(700)은 사용자의 각각의 눈에 대한 2개의 개별적인 디스플레이 디바이스들의 중심의 좌측에 시각적 효과(1112)를 개별적으로 디스플레이한다).
추가로, 도 11b에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 가상 포털(1102)의 디스플레이의 우측에 위치되어 있다는 결정을 하기 때문에, 컴퓨터 시스템(700)은 가상 포털(1102)의 좌측 경계 상에 디스플레이되는 시각적 효과(1112)의 크기를 증가시킨다. 더 구체적으로, 컴퓨터 시스템(700)은 가상 포털(1102)의 좌측 경계 상에 디스플레이되는 (예컨대, 시각적 효과(1112)의 일부를 구성하는) 후방 블러 층(1112a)의 양을 증가시킨다.
후방 블러 층(1112a)의 디스플레이는 동적이다. 즉, 컴퓨터 시스템(700)은 가상 포털(1102)의 디스플레이에 대한 컴퓨터 시스템(700)의 위치설정의 각도가 증가하는 것으로 결정될 때 가상 포털(1102)의 각자의 경계 상에 디스플레이되는 후방 블러 층(1112a)의 양을 증가시킨다. 더 구체적으로, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 위치설정에 반대편인 가상 포털(1102)의 경계 상에 디스플레이되는 후방 블러 층(1112a)의 양을 증가시킨다(예컨대, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 가상 포털(1102)의 디스플레이의 좌측에 위치되는 경우에 가상 포털(1102)의 우측 경계 상에 디스플레이되는 후방 블러 층(1112a)의 양을 증가시키고, 그 반대도 마찬가지이다). 따라서, 컴퓨터 시스템(700)의 시점이 물리적 환경 전체에 걸쳐 변경됨에 따라, 미디어 아이템(1108)의 표현의 외관은 컴퓨터 시스템(700)의 시점의 변경에 기초하여 변경된다. 더 구체적으로, 컴퓨터 시스템(700)의 시점이 물리적 환경 전체에 걸쳐 변경됨에 따라, 시각적 효과(1112)에 의해 가려지는 미디어 아이템(1108)의 표현의 일부분이 변경된다.
컴퓨터 시스템(700)이 디스플레이하는 후방 블러 영역의 양은 컴퓨터 시스템(700)의 위치설정과 가상 포털(1102)의 디스플레이 사이의 상대 각도에 의존한다. 컴퓨터 시스템(700)의 위치설정과 가상 포털(1102)의 디스플레이 사이의 상대 각도가 클수록, 컴퓨터 시스템(700)이 컴퓨터 시스템(700)의 위치에 반대편인 가상 포털(1102)의 경계 상에 디스플레이하는 후방 블러 영역의 양은 더 커진다.
도 11b에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 (예컨대, 도 11a에서의 컴퓨터 시스템(700)의 위치설정과 비교하여) 컴퓨터 시스템(700)의 이전 위치보다 가상 포털(1102)의 디스플레이에 더 가깝게 위치되어 있다는 결정을 한다. 도 11b에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 컴퓨터 시스템(700)의 이전 위치보다 가상 포털(1102)의 디스플레이에 더 가깝게 위치되어 있다는 결정을 하기 때문에, 컴퓨터 시스템(700)은 (예컨대, 도 11a에서의 가상 포털(1102)의 디스플레이의 크기와 비교하여) 가상 포털(1102)의 디스플레이의 크기를 증가시킨다(예컨대, 물리적 환경(1106)의 표현 내의 가상 포털(1102)의 디스플레이와 컴퓨터 시스템(700) 사이의 거리가 감소하였다는 것을 나타낸다).
위에서 설명된 바와 같이, 컴퓨터 시스템(700)의 이동은 컴퓨터 시스템(700)과 통신하는 하나 이상의 카메라들의 시야가 변경되게 한다. 추가로, 위에서 설명된 바와 같이, 물리적 환경(1106)의 표현의 외관은 하나 이상의 카메라들의 시야 내에 있는 물리적 환경의 일부분에 대응한다. 따라서, 컴퓨터 시스템(700)이 물리적 환경 내에 재위치됨에 따라, 물리적 환경(1106)의 표현의 외관은 대응하여 변경된다. 따라서, 도 11b에서, 컴퓨터 시스템(700)의 위치설정이 물리적 환경 내에서 우측으로 시프트되었기 때문에, 물리적 환경(1106)의 표현에 포함된 콘텐츠(예컨대, 카우치(1106b) 및 물 분배기(1106c))의 위치설정은 (예컨대, 도 11a에서의 물리적 환경(1106)의 표현에 포함된 콘텐츠의 위치설정과 비교하여) 미디어 사용자 인터페이스(1104) 내에서 좌측으로 시프트된다.
도 11b에 예시된 바와 같이, 컴퓨터 시스템(700)은 가상 포털(1102)의 코너 상에 경면 효과(1120)를 디스플레이한다. 경면 효과(1120)의 디스플레이는 가상 포털(1102)이 물리적 환경(1106)의 표현 내의 3차원 객체라는 인식을 생성하는 것을 돕는다. 도 11b에서, 컴퓨터 시스템(700)은 물리적 환경 내에 재위치된다. 일부 실시예들에서, 경면 효과(1120)는 가상 포털(1102)의 주변부 주위에 디스플레이된다. 일부 실시예들에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 물리적 환경 내에 재위치됨에 따라 시차 효과를 갖는 미디어 아이템(1108)의 표현을 디스플레이한다(예컨대, 컴퓨터 시스템(700)은 미디어 아이템(1108)의 표현의 전경 부분이 미디어 아이템(1109)의 표현의 배경 부분에 대해 이동/시프트되는 것을 보여준다). 일부 실시예들에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 시점의 변경을 검출하는 것에 응답하여 시각적 효과(1112)의 침범 층에 의해 가려지는 미디어 아이템(1108)의 표현의 일부분을 변경한다. 일부 실시예들에서, 컴퓨터 시스템(700)의 시점의 변경을 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 미디어 아이템(1108)의 표현의 외관을 사용자의 각각의 눈에 대해 상이하게 변경한다.
도 11c에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 가상 포털(1102)의 디스플레이의 좌측에 위치되어 있다는 결정을 한다(예컨대, 컴퓨터 시스템(700)은 가상 포털(1102)의 디스플레이에 대해 일정 각도로 위치된다). 도 11c에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 가상 포털(1102)의 디스플레이의 좌측에 위치되어 있다는 결정을 하기 때문에, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 디스플레이 디바이스(702)의 중심의 우측에 가상 포털(1102)을 디스플레이한다. 추가로, 도 11c에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 가상 포털(1102)의 디스플레이의 좌측에 위치되어 있다는 결정을 하기 때문에, 컴퓨터 시스템(700)은 (예컨대, 도 11a 및 도 11b에서 가상 포털(1102)의 우측 경계 상에 디스플레이되는 후방 블러 층(1112a)의 양과 비교하여) 가상 포털(1102)의 우측 경계 상에 디스플레이되는 (예컨대, 시각적 효과(1112)의 일부를 형성하는) 후방 블러 층(1112a)의 양을 증가시킨다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 사용자의 상이한 눈들에 각각 대응하는 컴퓨터 시스템(700)의 2개의 개별적인 디스플레이 디바이스들의 중심의 우측에 가상 포털(1102)을 개별적으로 디스플레이한다(예컨대, 컴퓨터 시스템(700)은 사용자의 각각의 눈에 대한 디스플레이의 중심의 우측에 가상 포털(1102)을 개별적으로 디스플레이한다). 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 사용자의 상이한 눈들에 각각 대응하는 컴퓨터 시스템(700)의 2개의 개별적인 디스플레이 디바이스들에 대한 가상 포털(1102)의 우측 경계 상의 후방 블러 층(1112a)의 디스플레이의 양을 개별적으로 증가시킨다(예컨대, 컴퓨터 시스템(700)은 사용자의 각각의 눈에 대한 가상 포털(1102)의 디스플레이의 양을 개별적으로 증가시킨다).
추가로, 도 11c에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 물리적 환경 내에서의 컴퓨터 시스템(700)의 이전 위치(예컨대, 도 11b에서의 컴퓨터 시스템(700)의 위치)보다 가상 포털(1102)의 디스플레이로부터 더 멀리 위치되어 있다는 결정을 한다. 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 컴퓨터 시스템(700)의 이전 위치보다 가상 포털(1102)의 디스플레이로부터 더 멀리 위치되어 있다는 결정을 하기 때문에, 컴퓨터 시스템(700)은 (예컨대, 도 11b에서의 가상 포털(1102)의 크기와 비교하여) 가상 포털(1102)의 디스플레이의 크기를 감소시킨다(예컨대, 가상 포털(1102)의 디스플레이와 컴퓨터 시스템(700) 사이의 거리가 증가하였다는 것을 나타낸다). 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 사용자의 상이한 눈들에 각각 대응하는 컴퓨터 시스템(700)의 2개의 개별적인 디스플레이 디바이스들 상의 가상 포털(1102)의 디스플레이의 크기를 개별적으로 감소시킨다.
도면에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 이전 위치(예컨대, 도 11b에서의 컴퓨터 시스템(700)의 위치)보다 가상 포털(1102)의 디스플레이로부터 좌측에 그리고 더 멀리 위치되어 있기 때문에, 물리적 환경(1106)의 표현에 포함된 콘텐츠(예컨대, 의자(1106a), 카우치(1106b), 및 물 분배기(1106c))의 위치설정은 (예컨대, 도 11b에서의 물리적 환경(1106)의 표현에 포함된 콘텐츠의 위치설정과 비교하여) 미디어 사용자 인터페이스(1104) 내에서 우측으로 시프트된다. 도 11c에 예시된 바와 같이, 컴퓨터 시스템(700)은 가상 포털(1102)의 좌측 코너 상에 경면 효과(1120)의 디스플레이를 유지한다. 도 11c에서, 컴퓨터 시스템(700)은 물리적 환경 내에 재위치된다. 일부 실시예들에서, 경면 효과(1120)의 디스플레이의 위치는 가상 포털(1102)의 디스플레이에 대한 컴퓨터 시스템(700)의 시점에 기초한다.
도 11d에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 위치설정이 가상 포털(1102)의 디스플레이와 중심설정된다는 결정을 한다. 도 11d에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 위치설정이 가상 포털(1102)의 디스플레이와 중심설정된다는 결정을 하기 때문에, 컴퓨터 시스템(700)은 가상 포털(1102)의 주변부 주위에 후방 블러 층(1112a)을 균일하게 디스플레이한다(예컨대, 컴퓨터 시스템(700)은 가상 포털(1102)의 각각의 경계 상에 동일한 양의 후방 블러 층(1112a)을 디스플레이한다). 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 사용자의 상이한 눈들에 각각 대응하는 컴퓨터 시스템(700)의 2개의 개별적인 디스플레이 디바이스들 상에서 가상 포털(1102)의 주변부 주위에 후방 블러 층(1112a)을 균일하게 디스플레이한다.
추가로, 도 11d에서, 컴퓨터 시스템(700)은 물리적 환경 내의 컴퓨터 시스템(700)의 위치설정이 컴퓨터 시스템(700)의 이전 위치설정(예컨대, 도 11c에서의 컴퓨터 시스템(700)의 위치설정)보다 가상 포털(1102)의 디스플레이에 더 가깝다는 결정을 한다. 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 위치설정이 컴퓨터 시스템(700)의 이전 위치설정보다 가상 포털의 디스플레이에 더 가깝다는 결정을 하기 때문에, 컴퓨터 시스템(700)은 가상 포털(1102)의 디스플레이의 크기를 증가시킨다(예컨대, 컴퓨터 시스템(700)과 가상 포털(1102)의 디스플레이 사이의 거리의 감소를 나타낸다). 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 사용자의 상이한 눈들에 각각 대응하는 컴퓨터 시스템(700)의 2개의 개별적인 디스플레이 디바이스들 상의 가상 포털(1102)의 디스플레이의 크기를 개별적으로 증가시킨다.
도 11d에서, 컴퓨터 시스템(700)은 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하라는 요청을 검출한다. 일부 실시예들에서, 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하라는 요청은 컴퓨터 시스템(700)이 컴퓨터 시스템(700)과 통신하는 하나 이상의 하드웨어 입력 메커니즘들(예컨대, 눌려지고/지거나 회전되는 하나 이상의 하드웨어 입력 메커니즘들)의 활성화에 대응하는 입력을 검출하는 것에 대응한다. 일부 실시예들에서, 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하라는 요청은 컴퓨터 시스템(700)이 그것이 가상 포털(1102)의 디스플레이에 대응하는 물리적 환경 내의 위치에 재위치된다는 것을 검출하는 것에 대응한다.
도 11e에서, 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하라는 요청을 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이한다. 도 11e에서, 미디어 아이템(1108)의 표현의 디스플레이는 디스플레이 디바이스(702)의 전체를 차지한다. 즉, 컴퓨터 시스템(700)이 몰입형 외관으로 디스플레이된 미디어 아이템(1108)의 표현을 디스플레이하는 동안, 물리적 환경(1106)의 표현은 가시적이지 않다. 컴퓨터 시스템(700)이 풀(full) 스케일(예컨대, 실제 세계 스케일)로 미디어 아이템(1108)에 포함된 콘텐츠(예컨대, 나무 및 여성)를 디스플레이하는 한편 컴퓨터 시스템(700)은 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이한다. 미디어 아이템(1108)의 표현이 사용자의 시점의 더 큰 양을 점유하는 한편 미디어 아이템(1108)의 표현은 미디어 아이템(1108)의 표현이 비몰입형 외관(예컨대, 도 11a 내지 도 11d에서의 미디어 아이템(1108)의 표현의 외관)으로 디스플레이될 때와는 대조적으로 몰입형 외관으로 디스플레이된다. 일부 실시예들에서, 컴퓨터 시스템(700)이 머리 장착형 디바이스일 때, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이할 때 사용자의 상이한 눈들에 각각 대응하는 컴퓨터 시스템(700)의 2개의 개별적인 디스플레이 디바이스들의 대부분 (예컨대, 전체) 상에 미디어 아이템(1108)의 표현을 디스플레이한다.
도 11e에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 시점이 물리적 환경에서 좌측으로 회전된다는 것을 검출한다. 일부 실시예들에서, 컴퓨터 시스템(700)은, 컴퓨터 시스템(700)이 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하는 동안, 사용자의 시점 주위를 둘러싸는 것으로서 미디어 아이템(1108)의 표현을 디스플레이한다. 일부 실시예들에서, 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하라는 요청을 검출하는 것에 응답하여, 컴퓨터 시스템(700)과 가상 포털(1102) 사이의 거리는 감소한다(예컨대, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)의 위치에 더 가깝게 가상 포털(1102)의 디스플레이를 이동시키고/시키거나 컴퓨터 시스템(700)은 물리적 환경(1106)의 표현 내의 가상 포털(1102)의 디스플레이에 더 가깝게 이동된다). 일부 실시예들에서, 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하라는 요청을 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 미디어 아이템(1108)의 표현의 z-축을 따라 미디어 아이템(1108)의 표현의 크기를 증가시킨다(예컨대, 컴퓨터 시스템(700)은 가상 포털(1102)의 두께를 증가시킨다). 일부 실시예들에서, 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하는 것의 일부로서, 컴퓨터 시스템(700)은 입체 미디어 아이템의 에지들에 포함된 콘텐츠의 외삽에 기초하는 후방 블러 층(1112a)을 디스플레이한다.
도 11f에서, 컴퓨터 시스템(700)이 컴퓨터 시스템(700)의 시점이 좌측으로 회전된다는 것을 검출하는 것에 응답하여, 컴퓨터 시스템(700)은 미디어 아이템(1108)의 표현의 좌측 반부를 보여주도록 미디어 아이템(1108)의 표현의 디스플레이를 업데이트한다. 더 구체적으로, 컴퓨터 시스템(700)은 미디어 아이템(1108)의 표현의 좌측 반부(예컨대, 나무를 포함하는 미디어 아이템(1108)의 표현의 일부분)가 가시적이고 미디어 아이템(1108)의 표현의 우측 부분(예컨대, 개인을 포함하는 미디어 아이템의 표현의 일부분)이 가시적이지 않도록 미디어 아이템(1108)의 디스플레이를 업데이트한다. 즉, 컴퓨터 시스템(700)이 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하는 동안, 미디어 아이템(1108)의 표현의 디스플레이는 컴퓨터 시스템(700)의 시점에 대한 변경들에 기초하여 변경된다. 일부 실시예들에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 비몰입형 외관(예컨대, 도 11a 내지 도 11d에서의 미디어 아이템(1108)의 표현의 외관)으로 미디어 아이템(1108)의 표현을 디스플레이하라는 요청을 검출하는 것에 응답하여 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하는 것을 중지한다. 일부 실시예들에서, 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 가상 포털(1102)의 디스플레이에 대응하는 물리적 환경 내의 위치로부터 멀리 재위치되어 있다는 것을 컴퓨터 시스템(700)이 검출하는 것에 응답하여 몰입형 외관으로 미디어 아이템(1108)의 표현을 디스플레이하는 것을 중지한다.
도 11a 내지 도 11f에 관한 추가 설명들이 도 12와 관련하여 설명되는 방법(1200)을 참조하여 아래에 제공된다.
도 12는 일부 실시예들에 따른, 미디어 아이템을 디스플레이하기 위한 예시적인 방법(1200)의 흐름도이다. 일부 실시예들에서, 방법(1200)은 디스플레이 생성 컴포넌트(예컨대, 702)(예컨대, 디스플레이 제어기; 터치 감응형 디스플레이 시스템; 디스플레이(예컨대, 통합형 및/또는 연결형), 3D 디스플레이, 투명 디스플레이, 헤드업 디스플레이, 및/또는 머리 장착형 디스플레이)와 통신(예컨대, 유선 통신 및/또는 무선 통신)하는 컴퓨터 시스템(예컨대, 700)(예컨대, 스마트폰, 태블릿, 및/또는 머리 장착형 디바이스)에서 수행된다. 일부 실시예들에서, 방법(1200)은, 비일시적 (또는 일시적) 컴퓨터 판독가능 저장 매체에 저장되며 컴퓨터 시스템의 하나 이상의 프로세서들, 예를 들어, 컴퓨터 시스템(101)의 하나 이상의 프로세서들(202)(예를 들어, 도 1의 제어부(110))에 의해 실행되는 명령어들에 의해 통제된다. 방법(1200)에서의 일부 동작들이 선택적으로 조합되고/되거나, 일부 동작들의 순서가 선택적으로 변경된다.
컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 하기를 포함하는 사용자 인터페이스(예컨대, 1104)(예컨대, 컴퓨터 시스템 상에 설치된 미디어 보기 애플리케이션(예컨대, 제3자 미디어 보기 애플리케이션 또는 컴퓨터 시스템의 제조사에 의해 컴퓨터 시스템 상에 설치된 미디어 보기 애플리케이션)에 대응하는 사용자 인터페이스)를 디스플레이한다(1202): 입체 미디어 아이템(예컨대, 1108)(예컨대, 이전에 캡처되었된 (예컨대, 컴퓨터 시스템과 통신하는 하나 이상의 카메라들을 사용하여 이전에 캡처되었된) 입체 미디어 아이템)(예컨대, 깊이를 전달하는 방식으로 사용자에게 표현될 수 있는 미디어 아이템 (예컨대, 비디오 또는 정지 사진); 상이한 관점들을 갖는 둘 이상의 카메라들(또는 카메라들의 세트들)을 사용하여 캡처되는 미디어 아이템; 및/또는 컴퓨터 시스템과 통신(예컨대, 유선 통신 또는 무선 통신)하는 카메라들을 사용하여 캡처되는 미디어 아이템)의 제1 표현(1204) - 입체 미디어 아이템의 제1 표현은 적어도 제1 에지(예컨대, 1108의 경계)를 포함함 - 및 적어도 입체 미디어 아이템의 제1 부분을 가리고 적어도 입체 미디어 아이템의 제1 표현의 제1 에지로부터 입체 미디어 아이템의 제1 표현의 내부(예컨대, 입체 미디어 아이템의 제1 표현의 중심)를 향하여 내향으로 (예컨대, 제1 에지의 방향에 수직인 캡처된 입체 미디어 아이템의 제1 표현의 중심을 향하여 내향으로 연장되는 방향으로) 연장되는 시각적 효과(예컨대, 침범 블러 층(1112b))(1206)(예컨대, 그래픽 요소 및/또는 효과; 블러 영역)(예컨대, 도 11a를 참조하여 전술된 바와 같음)(예컨대, 캡처된 입체 미디어 아이템의 제1 표현 및 시각적 효과는 물리적 환경(예컨대, 컴퓨터 시스템의 위치의 물리적 환경)의 표현(예컨대, 가상 표현 또는 광학 표현)(예컨대, 물리적 환경의 실시간 표현)이 컴퓨터 시스템의 사용자에게 가시적인 동안 디스플레이됨)(예컨대, 시각적 효과는 캡처된 입체 미디어 아이템의 제1 표현과 동시에 디스플레이됨)(예컨대, 컴퓨터 시스템은 개별적인 층들에 시각적 효과 및 캡처된 입체 미디어 아이템의 제1 표현을 렌더링한다(예컨대, 시각적 효과는 캡처된 입체 미디어 아이템의 표현의 후방에 렌더링된다)). 일부 실시예들에서, 시각적 효과에 의해 커버되는 캡처된 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠는 가시적이다(예컨대, 컴퓨터 시스템의 사용자에게 가시적이다)(예컨대, 시각적 효과는 일정 정도의 반투명도를 갖는다). 일부 실시예들에서, 캡처된 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠는 시각적 효과의 일부분을 가린다(예컨대, 캡처된 입체 미디어 아이템에 포함된 콘텐츠는 사용자가 시각적 효과의 일부분을 보는 것을 차단한다). 일부 실시예들에서, 컴퓨터 시스템은 캡처된 입체 미디어 아이템의 제1 표현 주위에 경계(예컨대, 유색(흑색) 실선)를 디스플레이한다. 일부 실시예들에서, 캡처된 입체 미디어 아이템의 제1 표현은 머리 로킹된다(head locked)(예컨대, 물리적 환경의 표현에 대한 캡처된 입체 미디어 아이템의 제1 표현의 위치설정은 컴퓨터 시스템의 배향이 물리적 환경 내에서 변경됨에 따라 변경된다). 일부 실시예들에서, 캡처된 입체 미디어 아이템의 제1 표현은 월드 로킹된다(예컨대, 물리적 환경의 표현에 대한 캡처된 입체 미디어 아이템의 위치설정은 컴퓨터 시스템의 배향이 물리적 환경 내에서 변경될 때 유지된다). 입체 미디어 아이템의 제1 부분을 가리고 입체 미디어 아이템의 제1 에지로부터 입체 미디어 아이템의 내부를 향하여 내향으로 연장되는 시각적 효과를 디스플레이하는 것은 사용자가 소정 각도들(예컨대, 극단 각도(extreme angle)들)로부터 입체 미디어 아이템을 보는 동안 사용자가 검출하는 윈도우 위반(예컨대, 입체 미디어 아이템 내의 객체가 윈도우의 에지에 의해 가려질 때 발생하는 시각적 효과 - 윈도우의 후방에는 입체 미디어 아이템이, 입체 미디어 아이템의 콘텐츠가 윈도우의 전방에서 인지되는 시점에, 디스플레이됨)의 양을 감소시키는 데 도움이 되는데, 이는 사용자에 대한 개선된 보는 경험을 야기하고, 윈도우 위반을 감소시키는 것은 디바이스들의 작동성을 향상시키고 사용자-디바이스 인터페이스들을 더 효율적으로 만들며; 그렇게 하는 것은 또한 사용자가 디바이스를 더 빠르고 효율적으로 사용하는 것을 가능하게 함으로써 전력 사용량을 감소시키고 컴퓨터 시스템의 배터리 수명을 개선한다.
일부 실시예들에서, (예컨대, 1108에 의해 표현되는) 입체 미디어 아이템은 한 세트의 카메라들(예컨대, 물리적 환경 내의 상이한 (예컨대, 약간 상이한(예컨대, 1 인치, 2 인치, 3 인치, 및/또는 사람에 대한 평균 동공간 거리만큼 분리된)) 위치들에 위치된 둘 이상의 카메라들)(예컨대, 컴퓨터 시스템과 통신(예컨대, 유선 통신 및/또는 무선 통신)하는 둘 이상의 카메라들)로부터 캡처되었다 - 한 세트의 카메라들 중 제1 카메라는 물리적 환경의 제1 관점을 캡처하고, 한 세트의 카메라들 중 (예컨대, 제1 카메라와는 상이한) 제2 카메라는 물리적 환경의 제2 관점을 캡처하며, 제2 관점은 제1 관점과 상이함(예컨대, 도 11a를 참조하여 위에서 논의된 바와 같음). 일부 실시예들에서, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트(예컨대, 702)를 통해, 물리적 환경의 제1 관점을 사용자의 제1 눈(예컨대, 사용자의 좌측 눈)에 대해 디스플레이하고 사용자의 제2 눈(예컨대, 사용자의 우측 눈)에 대해 디스플레이하지 않으며(예컨대, 제1 카메라를 통해 캡처되는 물리적 환경의 관점은 사용자의 제1 눈에 가시적이고 사용자의 제2 눈에 가시적이지 않음(예컨대, 제2 카메라를 통해 캡처되는 물리적 환경의 관점은 사용자의 제2 눈에 가시적이지 않음))(예컨대, 도 11a를 참조하여 위에서 논의된 바와 같음), 컴퓨터 시스템은, 디스플레이 생성 컴포넌트를 통해, 제2 관점을 사용자의 제2 눈에 대해 디스플레이하고 사용자의 제1 눈에 대해 디스플레이하지 않는다(예컨대, 도 11a를 참조하여 위에서 논의된 바와 같음)(예컨대, 제2 카메라를 통해 캡처되는 물리적 환경의 관점은 사용자의 제2 눈에 가시적이고 사용자의 제1 눈에 가시적이지 않음)(예컨대, 제2 관점은 제1 관점에 포함되지 않은 콘텐츠를 포함하고 그 반대도 마찬가지임)(예컨대, 입체 미디어 아이템은 이미지들이 사용자의 상이한 눈들에 대해 동시에 디스플레이될 때 입체 효과를 생성하도록 동일한 대체적인 방향으로 향하고 있고 사람의 눈들이 이격되어 있는 대략적인 거리만큼 이격되어 있는 둘 이상의 이격된 카메라들에 의해 캡처되었다). 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때, 컴퓨터 시스템은 컴퓨터 시스템의 제1 디스플레이 디바이스 상에 물리적 환경의 제1 관점을 디스플레이하고, 컴퓨터 시스템은 전자 디바이스의 제2 디스플레이 디바이스 상에 물리적 환경의 제2 관점을 디스플레이하며, 여기서 제1 디스플레이 디바이스는 사용자의 제1 눈에 대응하고(예컨대, 사용자의 제1 눈에 가시적이고) 제2 디스플레이 디바이스는 사용자의 제2 눈에 대응한다(예컨대, 사용자의 제2 눈에 가시적이다). 물리적 환경의 제1 관점을 사용자의 제1 눈에 대해 디스플레이하고 물리적 환경의 제2 관점을 사용자의 제2 눈에 대해 디스플레이하는 것은 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠 사이의 사용자의 깊이의 인식을 향상시키며, 이는 사용자에 대한 향상되고 더 정확한 보는 경험을 야기한다.
일부 실시예들에서, 입체 미디어 아이템의 제1 표현(예컨대, 1108)을 디스플레이하는 동안, 컴퓨터 시스템은 사용자의 시점의 제1 변경(예컨대, 700의 시점의 변경)(예컨대, 사용자의 전체 신체의 위치설정의 변경, 사용자의 신체의 제1 부분(예컨대, 사용자의 머리)의 위치설정의 변경)(예컨대, 사용자의 측방향 이동, 사용자의 좌우 이동, 및/또는 수평 평면을 따르는 사용자의 이동)을 검출한다. 일부 실시예들에서, 사용자의 시점에서 제1 변경을 검출하는 것에 응답하여, 컴퓨터 시스템은 사용자의 시점의 제1 변경에 기초하여 입체 미디어 아이템의 제1 표현의 외관을 변경한다(예컨대, 도 11b를 참조하여 위에서 논의된 바와 같음)(예컨대, 입체 미디어의 제1 표현의 외관의 변경은 사용자의 시점의 변경과 상관된다). 일부 실시예들에서, 입체 미디어 아이템의 제1 표현의 둘 이상의 시각적 특성들은 입체 미디어 아이템의 제1 표현의 외관을 변경시키는 것의 일부로서 변경된다. 일부 실시예들에서, 사용자의 시점의 변경 전에 가시적이지 않았던 입체 미디어 아이템의 제1 표현의 부분들은 사용자의 시점의 변경 후에 가시적이다. 사용자의 시점의 변경을 검출하는 것에 응답하여 입체 미디어 아이템의 외관을 변경하는 것은 추가 제어부들을 디스플레이하지 않은 상태에서 사용자가 입체 미디어 아이템의 표현의 외관을 제어하게 하며, 이는 사용자 인터페이스를 혼란스럽게 하지 않고서 추가 제어 옵션들을 제공한다. 사용자의 시점의 변경을 검출하는 것에 응답하여 입체 미디어 아이템의 외관을 변경하는 것은 (예컨대, 컴퓨터 시스템이 사용자의 시점의 변경을 검출하였다는) 컴퓨터 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 입체 미디어 아이템(예컨대, 1108)의 제1 표현의 외관을 변경하기 전, 시각적 효과(예컨대, 침범 블러 층(1112b))는 입체 미디어 아이템의 제1 표현의 제1 부분을 가린다(예컨대, 그리고 시각적 효과는 입체 미디어 아이템의 제1 표현의 제3 부분을 가리지 않는다). 일부 실시예들에서, 입체 미디어 아이템의 제1 표현의 외관을 변경하는 것은 시각적 효과가 제1 부분과는 상이한 입체 미디어 아이템의 제1 표현의 제2 부분을 가리도록 시각적 효과를 수정하는 것을 포함한다(예컨대, 도 11b를 참조하여 위에서 논의된 바와 같음)(예컨대, 그리고 시각적 효과는 입체 미디어 아이템의 표현의 제1 부분을 가리지 않는다). 일부 실시예들에서, 입체 미디어 아이템의 제1 표현의 제1 부분은 입체 미디어 아이템의 표현의 제2 부분에 포함된 콘텐츠를 포함한다(예컨대, 입체 미디어 아이템의 표현의 제1 부분 내의 콘텐츠는 입체 미디어 아이템의 표현의 제3 부분에 포함된 콘텐츠와 중첩된다). 사용자의 시점의 변경을 검출하는 것에 응답하여 시각적 효과가 가리는 입체 미디어 아이템의 제1 표현의 부분을 변경하는 것은 추가 제어부들을 디스플레이하지 않은 상태에서 사용자가 시각적 효과의 디스플레이를 제어하게 하며, 이는 사용자 인터페이스를 혼란스럽게 하지 않고서 추가 제어 옵션들을 제공한다.
일부 실시예들에서, 입체 미디어 아이템의 제1 표현(예컨대, 1108)의 외관을 변경하는 것은 제1 방식으로 사용자의 좌측 눈에 대해 디스플레이되고 사용자의 우측 눈에 대해 디스플레이되지 않는 입체 미디어 아이템의 제1 표현의 외관을 변경하는 것(예컨대, 도 11b를 참조하여 위에서 논의된 바와 같음) 및 제1 방식과는 상이한 제2 방식으로 사용자의 우측 눈에 대해 디스플레이되고 (예컨대, 사용자의 좌측 눈과는 상이한) 사용자의 좌측 눈에 대해 디스플레이되지 않는 제1 입체 미디어 아이템의 제1 표현의 외관을 변경하는 것(예컨대, 도 11b를 참조하여 위에서 논의된 바와 같음)을 포함한다(예컨대, 사용자의 좌측 눈 및 사용자의 우측 눈 둘 모두에 디스플레이되는 입체 미디어 아이템의 제1 표현의 콘텐츠의 중첩이 있음)(예컨대, 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠는 사용자의 좌측 눈에 가시적이고 사용자의 우측 눈에 가시적이지 않으며, 그 반대도 마찬가지임)(예컨대, 컴퓨터 시스템은 사용자의 좌측 눈에 가시적인 시각적 효과의 양을 증가시키고 컴퓨터 시스템은 사용자의 우측 눈에 가시적인 시각적 효과의 양을 감소시킨다). 일부 실시예들에서, 컴퓨터 시스템은 사용자의 좌측 눈 및 사용자의 우측 눈 둘 모두에 대해 입체 미디어 아이템의 제1 표현의 동일한 시각적 특성(예컨대, 밝기, 반투명도, 및/또는 크기)의 변경을 디스플레이한다. 일부 실시예들에서, 컴퓨터 시스템은 사용자의 좌측 눈에 대해 입체 미디어 아이템의 제1 표현의 제1 시각적 특성들(예컨대, 밝기, 반투명도, 및/또는 크기)의 변경을 디스플레이하고, 컴퓨터 시스템은 사용자의 우측 눈에 대해 입체 미디어 아이템의 제1 표현의 제2 시각적 특성에 대한 변경을 디스플레이하는데, 여기서 제1 시각적 특성은 제2 시각적 특성과 상이하다. 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때, 컴퓨터 시스템은 (예컨대, 사용자의 제1 눈에 대응하는(예컨대, 제1 디스플레이 디바이스는 사용자의 제1 눈에 가시적임)) 컴퓨터 시스템의 제1 디스플레이 디바이스 상에 디스플레이되는 입체 미디어 아이템의 제1 표현의 외관을, 컴퓨터 시스템이 (예컨대, 사용자의 제2 눈에 대응하는(예컨대, 제2 디스플레이 디바이스는 사용자의 제2 눈에 가시적임)) 컴퓨터 시스템의 제2 디스플레이 디바이스 상에 디스플레이되는 입체 미디어 아이템의 표현의 외관을 변경하는 방식과는 상이하게, 변경한다. 사용자의 좌측 눈에 디스플레이되는 입체 미디어 아이템의 제1 표현의 외관을, 사용자의 우측 눈(예컨대, 사용자의 제2 눈)에 디스플레이되는 입체 미디어 아이템의 제1 표현이 변경되는 방식과는 상이하게, 변경하는 것은 추가 제어부들을 디스플레이하지 않은 상태에서 사용자의 양 눈들에 대해 독립적으로 디스플레이되는 것을 사용자가 제어하게 하며, 이는 사용자 인터페이스를 혼란스럽게 하지 않고서 추가 제어 옵션들을 제공한다. 사용자의 좌측 눈에 디스플레이되는 입체 미디어 아이템의 제1 표현의 외관을, 사용자의 우측 눈(예컨대, 사용자의 제2 눈)에 디스플레이되는 입체 미디어 아이템의 제1 표현이 변경되는 방식과는 상이하게, 변경하는 것은 사용자가 극단 각도들로부터 입체 미디어 아이템을 볼 때 사용자가 검출하는 윈도우 위반(예컨대, 입체 미디어 아이템 내의 객체가 윈도우의 에지에 의해 가려질 때 발생하는 시각적 효과 - 윈도우의 후방에는 입체 미디어 아이템이, 입체 미디어 아이템의 콘텐츠가 윈도우의 전방에서 인지되는 시점에, 디스플레이됨)의 양을 완화시키는 것을 돕는데, 이는 사용자에 대한 개선된 보는 경험을 야기한다.
일부 실시예들에서, 시각적 효과(예컨대, 침범 블러 층(1112b))는 시각적 효과가 적어도 입체 미디어 아이템의 제1 표현의 제1 에지(예컨대, 1108의 경계)로부터 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장됨에 따라 복수의 값들을 통해 (예컨대, 점진적으로 또는 복수의 이산 단계들을 통해) 감소하는 시각적 특성(예컨대, 밀도 및/또는 색상(예컨대, 단색 또는 다색인 색상 구배))(예컨대, 반투명도의 양(예컨대, 시각적 특성 후방에 가시적인 물리적 환경의 표현의 양))(예컨대, 시각적 특성은 물리적 환경의 제1 부분에 오버레이되고 물리적 환경의 표현의 제2 부분에 오버레이되지 않음)을 갖는다(예컨대, 도 11a를 참조하여 위에서 논의된 바와 같음). 일부 실시예들에서, 시각적 효과의 제2 시각적 특성(예컨대, 반투명도)은 입체 미디어 아이템의 제1 표현의 중심을 향하는 거리들이 감소함에 따라 복수의 값들을 통해 증가한다. 블러 효과의 시각적 특성을 감소시키는 것은 둘 이상의 카메라들의 캡처 영역의 중첩 내에 있지 않은 콘텐츠를 보지 않는 동안 둘 이상의 카메라들의 캡처 영역의 중첩 내에 있는 콘텐츠를 사용자가 보는 것을 돕는데, 이는 입체 미디어 아이템을 보는 동안 사용자가 검출하는 윈도우 위반(예컨대, 입체 미디어 아이템 내의 객체가 윈도우의 에지에 의해 가려질 때 발생하는 시각적 효과 - 윈도우의 후방에는 입체 미디어 아이템이, 입체 미디어 아이템의 콘텐츠가 윈도우의 전방에서 인지되는 시점에, 디스플레이됨)의 양을 완화시키는 것을 돕는데, 이는 사용자에 대한 개선된 보는 경험을 야기한다.
일부 실시예들에서, 입체 미디어(예컨대, 1108)의 제1 표현은 입체 미디어 아이템의 제1 표현의 제1 에지(예컨대, 1108의 경계)에 (그리고 선택적으로 입체 미디어 아이템의 제1 표현의 하나 이상의 다른 에지들에) 콘텐츠를 포함한다. 일부 실시예들에서, 시각적 효과(예컨대, 침범 블러 층(1112b))는 입체 미디어 아이템의 제1 표현의 제1 에지에서의 (그리고 선택적으로, 입체 미디어 아이템의 제1 표현의 하나 이상의 다른 에지들에서의) 콘텐츠의 블러이다(예컨대, 도 11a를 참조하여 전술된 바와 같음). 입체 미디어의 제1 표현의 제1 에지에서 콘텐츠를 블러링하는 것은 사용자가 극단 각도들로부터 입체 미디어 아이템을 보는 동안 사용자가 검출하는 윈도우 위반(예컨대, 입체 미디어 아이템 내의 객체가 윈도우의 에지에 의해 가려질 때 발생하는 시각적 효과 - 윈도우의 후방에는 입체 미디어 아이템이, 입체 미디어 아이템의 콘텐츠가 윈도우의 전방에서 인지되는 시점에, 디스플레이됨)의 양을 완화시키는 것을 돕는데, 이는 사용자에 대한 개선된 보는 경험을 야기한다.
일부 실시예들에서, 시각적 효과는 입체 미디어 아이템(예컨대, 1108)의 제1 표현의 제1 에지 및 제2 에지 상에 디스플레이된다(예컨대, 동시에 디스플레이된다). 일부 실시예들에서, 입체 미디어 아이템의 제1 표현을 디스플레이하는 동안, 컴퓨터 시스템은 사용자의 시점의 제2 변경(예컨대, 700의 시점의 변경)(예컨대, 사용자의 전체 신체의 위치설정의 변경, 사용자의 신체의 제1 부분(예컨대, 사용자의 머리)의 위치설정의 변경)(예컨대, 사용자의 측방향 이동, 사용자의 좌우 이동, 및/또는 수평 평면을 따르는 사용자의 이동)을 검출한다. 일부 실시예들에서, 사용자의 시점의 제2 변경은 입체 미디어 아이템의 제1 표현의 디스플레이에 대한 사용자의 시점의 각도의 변경을 포함한다(예컨대, 입체 미디어 아이템의 제1 표현의 디스플레이에 대한 사용자의 시점의 각도는 5, 10, 15, 25, 30, 35, 40, 55 또는 60도만큼 변경된다). 일부 실시예들에서, 사용자의 시점의 제2 변경을 검출하는 것에 응답하여 그리고 사용자의 시점의 제2 변경이 제1 방향으로 (예컨대, 좌측으로, 우측으로, 상향으로, 그리고/또는 하향으로) 있다는 결정에 따라, 컴퓨터 시스템은 적어도 입체 미디어 아이템의 제1 표현의 제2 에지에 대한 시각적 효과(예컨대, 후방 블러(층1112a))의 크기를 증가시키고(예컨대, 도 11b 및 도 11c를 참조하여 위에서 논의된 바와 같음)(예컨대, 입체 미디어 아이템의 표현 후방에 디스플레이되는 블러 영역의 크기는 증가함)(예컨대, 그리고 입체 미디어 아이템의 제1 표현의 제1 에지에 대한 시각적 효과의 크기를 감소시킴)(예컨대, 제2 에지는 입체 미디어 아이템의 제1 표현의, 제1 방향과는 반대편 측에 있음(예컨대, 제2 에지는 제1 방향이 우측인 경우에 입체 미디어 아이템의 좌측에 있음)), 그리고 사용자의 시점의 제2 변경이 제1 방향과는 상이한 제2 방향으로 (예컨대, 좌측으로, 우측으로, 상향으로, 그리고/또는 하향으로) 있다는 결정에 따라, 컴퓨터 시스템은 적어도 입체 미디어 아이템의 제1 표현의 제1 에지에 대한 시각적 효과의 크기를 증가시킨다(예컨대, 도 11b 및 도 11c를 참조하여 위에서 논의된 바와 같음)(예컨대, 입체 미디어 아이템의 표현 후방에 디스플레이되는 블러 영역의 크기는 증가한다)(예컨대, 그리고 입체 미디어 아이템의 제1 표현의 제2 에지에 디스플레이되는 시각적 효과의 크기를 감소시킨다)(예컨대, 제1 에지는 입체 미디어 아이템의 제1 표현의, 제2 방향과는 반대편 측에 있다(예컨대, 제1 측은 제2 방향이 하향인 경우에 입체 미디어 아이템의 제1 표현의 상단에 있다)). 일부 실시예들에서, 제1 에지 및 제2 에지는 입체 미디어 아이템의 제1 표현의 서로 반대편인 측들에 있고, 제1 방향은 제2 방향과 반대이다. 일부 실시예들에서, 입체 미디어 아이템의 제1 표현의 제2 에지에 대한 시각적 효과의 크기가 변경될 때, 입체 미디어의 제1 표현의 제1 에지에 대한 시각적 효과의 크기는 변경되지 않고, 그 반대도 마찬가지이다. 일부 실시예들에서, 제1 에지 및 제2 에지는 제1 표현의 서로 반대편인 측들(예컨대, 좌측 에지 및 우측 에지)에 있다. 사용자의 시점의 변경을 검출하는 것에 응답하여 입체 미디어 아이템의 제1 표현의 각자의 에지에 대한 시각적 효과의 크기를 변경하는 것은 사용자가 소정 각도들로부터 입체 미디어 아이템을 볼 때 사용자가 검출하는 윈도우 위반(예컨대, 입체 미디어 아이템 내의 객체가 윈도우의 에지에 의해 가려질 때 발생하는 시각적 효과 - 윈도우의 후방에는 입체 미디어 아이템이, 입체 미디어 아이템의 콘텐츠가 윈도우의 전방에서 인지되는 시점에, 디스플레이됨)의 양을 완화시키는데, 이는 사용자에 대한 개선된 보는 경험을 야기한다. 사용자의 시점의 변경을 검출하는 것에 응답하여 입체 미디어 아이템의 제1 표현의 각자의 에지에 대한 시각적 효과의 크기를 변경하는 것은 추가 제어부들을 디스플레이하지 않은 상태에서 사용자가 시각적 효과의 디스플레이를 제어하게 하며, 이는 사용자 인터페이스를 혼란스럽게 하지 않고서 추가 제어 옵션들을 제공한다.
일부 실시예들에서, 사용자 인터페이스(예컨대, 1104)를 디스플레이하는 것은 블러 영역(예컨대, 시각적 효과(1112)의 후방 블러 영역)을 디스플레이하는 것을 포함하며, 입체 미디어 아이템은 제1 복수의 에지들(예컨대, 3개의 에지들, 4개의 에지들, 5개의 에지들, 6개의 에지들, 또는 7개의 에지들)을 포함한다. 일부 실시예들에서, (예컨대, 1108에 대응하는) 입체 미디어 아이템의 제1 복수의 에지들이 제1 콘텐츠를 포함한다는 결정에 따라, 블러 영역은 제1 콘텐츠의 블러 표현을 포함하고 - 제1 콘텐츠의 블러 표현은 제1 콘텐츠의 외삽에 기초함 - (예컨대, 제1 콘텐츠의 블러 표현은 입체 미디어 아이템의 복수의 에지들에서의 콘텐츠의 외삽을 포함함)(예컨대, 블러 표현은 입체 미디어 아이템에 가시적이지 않은 콘텐츠를 포함함)(예컨대, 도 11a를 참조하여 전술된 바와 같음), (예컨대, 1108에 대응하는) 입체 미디어 아이템의 제1 복수의 에지들이 (예컨대, 제1 콘텐츠와는 상이한) 제2 콘텐츠를 포함한다는 결정에 따라, 블러 영역은 제2 콘텐츠의 블러 표현을 포함하며, 제2 콘텐츠의 블러 표현은 제2 콘텐츠의 외삽에 기초한다(예컨대, 그리고 블러 영역은 제1 콘텐츠의 외삽을 포함하지 않는다)(예컨대, 도 11a를 참조하여 전술된 바와 같음). 일부 실시예들에서, 블러 영역에 포함된 콘텐츠는 컴퓨터 시스템이 사용자의 시점의 변경을 검출하는 것에 응답하여 변경된다(예컨대, 블러 영역에 포함된 콘텐츠는 컴퓨터 시스템의 시점에 기초하여 동적으로 변경된다). 일부 실시예들에서, 블러 영역은 적어도 입체 미디어 아이템의 제1 표현의 제1 에지로부터 외향으로 연장된다.
일부 실시예들에서, 입체 미디어 아이템의 제1 표현은 비네트 효과(예컨대, 입체 미디어 아이템의 제1 표현의 주변부에서의 입체 미디어 아이템의 제1 표현의 밝기 및/또는 채도의 감소(예컨대, 입체 미디어 아이템의 제1 표현의 주변부로부터 (예컨대, 입체 미디어 아이템의 제1 표현의 중심을 향하여) 거리가 감소함에 따라 입체 미디어 아이템의 제1 표현의 밝기가 증가함))로 디스플레이된다(예컨대, 도 11a를 참조하여 위에서 논의된 바와 같음)(예컨대, 입체 미디어 아이템의 제1 표현은 입체 미디어 아이템의 제1 표현의 중심에서 가장 밝고 에지들에서 가장 어둡다). 일부 실시예들에서, 컴퓨터 시스템은 입체 미디어 아이템의 제1 표현이 초기에 디스플레이된 후에 비네트 효과를 적용한다. 일부 실시예들에서, 컴퓨터 시스템은 입체 미디어 아이템의 제1 표현을 초기에 디스플레이하는 것의 일부로서 비네트 효과를 적용한다.
일부 실시예들에서, 사용자 인터페이스(예컨대, 1104)를 디스플레이하는 것은 가상 포털(예컨대, 1102)을 디스플레이하는 것을 포함하고, 입체 미디어 아이템(예컨대, 1108)의 제1 표현은 가상 포털 내에 디스플레이된다(예컨대, 도 11a를 참조하여 전술된 바와 같음)(예컨대, 가상 포털은 입체 미디어 아이템의 제1 표현 주위에 디스플레이된다). 일부 실시예들에서, 가상 포털은 물리적 환경의 표현(예컨대, 광학 또는 가상 표현)의 상단 상에 오버레이된다. 일부 실시예들에서, 가상 포털은 3차원 객체로서 디스플레이된다(예컨대, 가상 포털은 깊이를 갖고서 디스플레이된다). 일부 실시예들에서, 컴퓨터 시스템은, 사용자가 가상 포털의 디스플레이 주위에서 이동함에 따라 콘텐츠가 사용자에게 계속 가시적이도록 가상 포털 내에 콘텐츠를 디스플레이한다. 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때, 컴퓨터 시스템은 (예컨대, 사용자가 컴퓨터 시스템을 착용하고 있는 동안) 사용자가 물리적 환경 주위에서 걷고 있고/있거나 그의 머리를 회전시키는 것을 검출하는 것에 응답하여 가상 포털의 상이한 관점들을 디스플레이한다. 가상 포털 내에 입체 미디어 아이템의 표현을 디스플레이하는 것은 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠 사이의 (예컨대, 사용자에 의해 경험되는 바와 같은) 상대 깊이의 인식을 향상시키며, 이는 사용자에 대한 향상된 보는 경험을 야기한다.
일부 실시예들에서, 입체 미디어 아이템(예컨대, 1108)의 제1 표현은 전경 부분 및 배경 부분을 포함한다. 일부 실시예들에서, 입체 미디어 아이템의 제1 표현을 디스플레이하는 동안, 컴퓨터 시스템은 사용자의 시점의 제3 변경(예컨대, 700의 시점의 변경)(예컨대, 사용자의 전체 신체의 위치설정의 변경, 사용자의 신체의 제1 부분(예컨대, 사용자의 신체)의 위치설정의 변경)(예컨대, 사용자의 측방향 이동, 사용자의 좌우 이동, 및/또는 수평 평면을 따르는 사용자의 이동)을 검출한다(예컨대, 도 11a, 도 11b, 및 도 11c를 참조하여 전술된 바와 같음). 일부 실시예들에서, 사용자의 시점의 제3 변경을 검출하는 것에 응답하여, 컴퓨터 시스템은, 디스플레이 생성 컴포넌트(예컨대, 702)를 통해, 입체 미디어 아이템의 제1 표현의 전경 부분이 사용자의 시점의 제3 변경에 기초하여 입체 미디어 아이템의 제1 표현의 배경 부분에 대해 이동하는 것을 디스플레이한다(예컨대, 도 11b를 참조하여 전술된 바와 같음)(예컨대, 컴퓨터 시스템은 입체 미디어 아이템의 제1 표현의 전경 부분과 배경 부분에 대해 시차 효과를 디스플레이한다)(예컨대, 입체 미디어 아이템의 제1 표현의 전경 부분은 입체 미디어 아이템의 제1 표현의 배경 부분과 상이하게 시프트된다(예컨대, 그보다 빠르게 이동한다))(예컨대, 입체 미디어 아이템의 제1 표현의 전경 부분 내의 객체들은 사용자의 시점의 변경에 기초하여 제1 가변 속도로 이동하고 입체 미디어 아이템의 제1 표현의 배경 부분 내의 객체들은 사용자의 시점의 변경에 기초하여 제2 가변 속도로 이동한다). 입체 미디어 아이템의 제1 표현의 전경 부분이 입체 미디어 아이템의 제1 표현의 배경 부분에 대해 이동하는 것을 디스플레이하는 것은 입체 미디어 아이템의 제1 표현과 연관된 깊이 데이터에 관한 시각적 피드백을 사용자에게 제공하고, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 가상 포털(예컨대, 1102)을 디스플레이하는 것은 사용자의 제1 시점으로부터 멀리 제1 거리에 있는 물리적 환경(예컨대, 1106)의 제1 표현 내의 제1 위치(예컨대, 700의 위치설정)에 (예컨대, 가상 포털의 전체 미만인) 가상 포털(예컨대, 1102)의 제1 부분(예컨대, 1118)을 디스플레이하는 것을 포함하고(예컨대, 가상 포털의 윈도우(예컨대, 입체 미디어 아이템의 제1 표현은 윈도우 내에 놓임)), 입체 미디어 아이템의 제1 표현을 디스플레이하는 (예컨대, 렌더링하는) 것은 사용자의 제1 시점으로부터 멀리, 제1 거리보다 먼 제2 거리에 있는 물리적 환경의 제1 표현 내의 제2 위치에 입체 미디어 아이템(예컨대, 1108)의 제1 표현을 디스플레이하는 것을 포함한다(예컨대, 가상 포털의 제1 부분과 입체 미디어 아이템의 제1 표현 사이에 일정 양의 입체 깊이가 있음(예컨대, 컴퓨터 시스템은 입체 미디어 아이템의 제1 표현이 가상 포털의 제1 부분 후방에 위치되는 것을 사용자가 인지하게 하는 사용자의 두 눈들에 대해 개별적인 이미지들을 디스플레이한다))(예컨대, 표현은 가상 포털의 제1 부분보다 사용자로부터 더 멀리 있다). 일부 실시예들에서, 컴퓨터 시스템은 윈도우와 블러 층 사이에 입체 미디어 아이템의 제1 표현을 렌더링한다. 일부 실시예들에서, 컴퓨터 시스템은 제1 블러와 제2 블러 사이에 입체 미디어 아이템의 제1 표현을 렌더링한다. 포털의 제1 부분보다 사용자로부터 더 멀리 입체 미디어 아이템의 표현을 디스플레이하는 것은 컴퓨터 시스템이 입체 미디어 아이템의 제1 표현의 상단 상에 다양한 가상 객체들(예컨대, 선택가능 가상 객체들)을 디스플레이할 때 사용자가 경험할 수 있는 윈도우 위반(예컨대, 입체 미디어 아이템 내의 객체가 윈도우의 에지에 의해 가려질 때 발생하는 시각적 효과 - 윈도우의 후방에는 입체 미디어 아이템이, 입체 미디어 아이템의 콘텐츠가 윈도우의 전방에서 인지되는 시점에, 디스플레이됨)의 양을 완화시키는데, 이는 사용자에 대한 개선된 보는 경험을 제공한다.
일부 실시예들에서, 가상 포털(예컨대, 1102)은 일정 양의 두께를 갖는 3차원 가상 객체이고, 사용자에 대해 디스플레이되는 (예컨대, 가시적인) 일정 양의 두께는 가상 포털의 디스플레이에 대한 사용자의 시점의 각도와 직접 상관된다(예컨대, 도 11a와 관련하여 전술된 바와 같음)(예컨대, 사용자에 가시적인 일정 양의 두께는 가상 포털의 디스플레이에 대한 사용자의 시점의 각도가 증가함에 따라 증가한다).
일부 실시예들에서, 입체 미디어 아이템(예컨대, 1108)의 제1 표현을 디스플레이하는 것은 입체 미디어 아이템의 제1 표현의 제1 에지에서 (그리고 선택적으로 입체 미디어 아이템의 제1 표현의 하나 이상의 다른 에지들에서) 경면 효과(예컨대, 1120)(예컨대, 가상 경면 효과)(예컨대, 광의 미러 유사 반사)를 디스플레이하는 것을 포함한다. 일부 실시예들에서, 경면 효과는 입체 미디어 아이템의 제1 표현의 2개의, 3개의, 또는 그 이상의 (예컨대, 모든) 에지들 상에 디스플레이된다. 일부 실시예들에서, 경면 효과는 입체 미디어 아이템의 제1 표현의 주변부 주위에 디스플레이된다. 일부 실시예들에서, 경면 효과의 외관은 사용자의 시점의 검출된 변경에 기초하여 변경된다. 일부 실시예들에서, 컴퓨터 시스템은 물리적 환경 내의 주변 조명이 조명 임계치 아래에 있다는 결정에 따라 경면 효과를 디스플레이하는 것을 중지한다. 일부 실시예들에서, 경면 효과는 정적이다(예컨대, 경면 효과의 외관은 사용자의 시점이 변경됨에 따라 변경되지 않는다). 입체 미디어 아이템의 표현의 제1 에지에서 경면 효과를 디스플레이하는 것은 가상 포털이 물리적 환경 내의 3차원 객체라는 인식을 생성하는 데 도움을 주며, 이는 사용자가 입체 미디어 아이템과 연관된 깊이 데이터를 시각화하는 것을 돕고, 이는 사용자에 대한 향상된 보는 경험을 제공한다.
일부 실시예들에서, 입체 미디어 아이템(예컨대, 1108)의 제1 표현은 물리적 환경(예컨대, 1106)의 제2 표현(예컨대, 광학 표현 또는 가상 표현) 내의 제1 위치 (예컨대, 가상 위치)에 디스플레이되고(예컨대, 제1 위치는 물리적 환경 내의 컴퓨터 시스템의 위치설정의 전방에 있는 물리적 환경 내의 위치에 대응함), 제1 위치는 사용자의 제1 시점(예컨대, 700의 시점)으로부터 (예컨대, 6 인치, 1 피트, 1.5 피트, 5 피트, 또는 10 피트) 멀리 제1 거리(예컨대, 가상 거리)에 있다. 일부 실시예들에서, 물리적 환경의 제2 표현 내의 제1 위치에 입체 미디어 아이템의 제1 표현을 디스플레이하는 동안, 컴퓨터 시스템은 몰입형 외관으로 입체 미디어 아이템을 디스플레이하라는 요청(예컨대, 컴퓨터 시스템과 통신(예컨대, 유선 통신 및/또는 무선 통신)하는 하드웨어 버튼의 활성화; 에어 제스처(예컨대, 에어 핀치, 에어 스윕, 및/또는 에어 탭)의 (예컨대, 컴퓨터 시스템과 통신하는 하나 이상의 카메라들을 통한) 검출; 및/또는 음성 커맨드)을 검출한다(예컨대, 컴퓨터 시스템은 사용자가 입체 미디어 아이템의 제1 표현의 디스플레이의 위치에 대응하는 물리적 환경 내의 위치로 이동하는 것을 검출한다)(예컨대, 도 11d에서 위에서 논의되는 바와 같음)(예컨대, 제1 사람 뷰). 일부 실시예들에서, 몰입형 외관으로 입체 미디어 아이템의 제1 표현을 디스플레이하라는 요청을 검출하는 것에 응답하여, 컴퓨터 시스템은 물리적 환경의 제2 표현 내의 제2 위치로부터 입체 미디어 아이템의 제1 표현을 디스플레이하고, 제2 위치는 사용자의 제1 시점(예컨대, 700의 시점)으로부터 멀리, 제1 거리보다 가까운 제2 거리에 있고(예컨대, 도 11e를 참조하여 위에서 논의된 바와 같음)(예컨대, 컴퓨터 시스템은 입체 미디어 아이템의 제1 표현의 디스플레이를 사용자의 시점을 향하여 이동시키고/시키거나 컴퓨터 시스템은 사용자가 입체 미디어 아이템의 제1 표현의 디스플레이에 더 가깝게 이동하는 것을 검출함)(예컨대, 컴퓨터 시스템은 컴퓨터 시스템이 미디어 아이템의 제1 표현을 제1 위치로부터 제2 위치로 이동시키는 동안 입체 미디어 아이템의 제1 표현의 디스플레이를 유지함), 컴퓨터 시스템은 물리적 환경의 제2 표현 내의 제1 위치와 물리적 환경의 제2 표현 내의 제2 위치 사이의 경로에 평행한 입체 미디어 아이템의 제1 표현의 평면을 따라 입체 미디어 아이템의 제1 표현의 크기를 증가시킨다(예컨대, 도 11e를 참조하여 위에서 논의된 바와 같음)(예컨대, 입체 미디어 아이템의 제1 표현의 디스플레이는 입체 미디어 아이템의 제1 표현의 크기가 증가된 후(예컨대, 입체 미디어 아이템의 제1 표현이 몰입형 외관으로 디스플레이되는 동안) 더 넓은 사용자의 시야를 점유한다)(예컨대, z-축을 따르는 입체 미디어 아이템의 제1 표현의 두께가 증가된다). 일부 실시예들에서, 몰입형 외관으로 입체 미디어 아이템을 디스플레이하는 것은 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠의 표현의 상이한 관점들을 디스플레이하는 것을 포함하며, 여기서 상이한 관점들은 환경 내의 공통 포인트에 있다. 일부 실시예들에서, 입체 미디어 아이템의 제1 표현이 몰입형 외관으로 디스플레이되는 동안 물리적 환경의 표현은 사용자에게 가시적이다. 일부 실시예들에서, 컴퓨터 시스템은 입체 미디어 아이템의 제1 표현의 크기가 증가하는 것을 컴퓨터 시스템이 디스플레이하는 동안 물리적 환경의 표현 내의 제1 위치로부터 물리적 환경의 표현 내의 제2 위치로 이동하는 것으로서 입체 미디어 아이템의 제1 표현을 디스플레이한다. 일부 실시예들에서, 컴퓨터 시스템은 입체 미디어 아이템의 제1 표현의 크기가 증가하는 것을 컴퓨터 시스템이 디스플레이하기 전에 또는 그 후에 물리적 환경의 표현 내의 제1 위치로부터 물리적 환경의 표현 내의 제2 위치로 이동하는 것으로서 입체 미디어 아이템의 제1 표현을 디스플레이한다. 일부 실시예들에서, 컴퓨터 시스템은 비몰입형 외관으로 입체 미디어 아이템의 제1 표현을 디스플레이하라는 요청을 검출하는 것에 응답하여 몰입형 외관으로 입체 미디어 아이템의 제1 표현을 디스플레이하는 것을 중지한다. 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때, 입체 미디어 아이템의 외관은 입체 미디어 아이템이 몰입형 외관으로 디스플레이되는 동안 사용자의 머리의 위치 배향에 대응한다. 일부 실시예들에서, 컴퓨터 시스템이 머리 장착형 디바이스일 때, 컴퓨터 시스템은 컴퓨터 시스템의 제1 디스플레이 디바이스의 대부분 (예컨대, 전체) 상에 입체 미디어 아이템을 디스플레이하고, 컴퓨터 시스템은 컴퓨터 시스템의 제2 디스플레이 디바이스의 대부분 (예컨대, 전체) 상에 입체 미디어 아이템을 디스플레이하는데, 컴퓨터 시스템의 제1 디스플레이 디바이스는 사용자의 제1 눈에 대응하고(예컨대, 제1 디스플레이 디바이스는 사용자의 제1 눈에 가시적임) 컴퓨터 시스템의 제2 디스플레이 디바이스는 사용자의 제2 눈에 대응한다(예컨대, 제2 디스플레이 디바이스는 사용자의 제2 눈에 가시적임). 입체 미디어 아이템의 제1 표현을 사용자에게 더 가깝게 디스플레이하는 것 및 입체 미디어 아이템의 제1 표현의 크기를 증가시키는 것은 (예컨대, 컴퓨터 시스템이 몰입형 외관으로 입체 미디어 아이템의 제1 표현을 디스플레이하라는 요청을 검출하였다는) 컴퓨터 시스템의 상태에 관한 시각적 피드백을 사용자에게 제공하는데, 이는 개선된 시각적 피드백을 제공한다.
일부 실시예들에서, 입체 미디어 아이템(예컨대, 1108)의 제1 표현에 포함된 콘텐츠(예컨대, 1108 내의 나무 및 개인)는 공간 미디어가 캡처되었을 때 캡처된 객체들의 스케일에 대한 미리결정된 관계를 갖는 각자의 스케일로 디스플레이되고(예컨대, 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠는 입체 미디어 아이템이 캡처되었을 때 객체들이 위치되었던 물리적 환경에 대한 미디어 아이템 내의 객체들의 스케일과 비교하여 물리적 환경의 표현에 대해 1:1 스케일로 디스플레이됨)(예컨대, 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠는 실제 세계 스케일로 디스플레이됨) 입체 미디어 아이템의 제1 표현은 몰입형 외관으로 디스플레이된다(예컨대, 도 11e에서 위에서 논의된 바와 같음). 일부 실시예들에서, 컴퓨터 시스템은 컴퓨터 시스템이 몰입형 외관으로 입체 미디어 아이템의 제1 표현을 디스플레이하라는 요청을 검출하기 전에 풀 스케일 미만으로 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠를 디스플레이한다(예컨대, 입체 미디어 아이템의 제1 표현은 비몰입형 외관으로 디스플레이된다). 공간 미디어가 캡처되었을 때 캡처된 객체들의 스케일에 대한 미리결정된 관계를 갖는 각자의 스케일로 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠를 디스플레이하는 것은 입체 미디어 아이템의 제1 표현이 몰입형 외관을 갖는 동안 사용자의 보는 경험을 향상시키는 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠의 상대 실제 세계 크기 및 위치설정의 정확한 표현을 사용자에게 제공한다.
일부 실시예들에서, 몰입형 외관으로 입체 미디어 아이템(예컨대, 도 11e 및 도 11f에서의 1108)의 제1 표현을 디스플레이하라는 요청을 검출하기 전에, 입체 미디어 아이템의 제1 표현을 디스플레이하는 것은 비몰입형 외관으로 입체 미디어 아이템(예컨대, 도 11a 내지 도 11d에서의 1108)의 제1 표현을 디스플레이하는 것을 포함한다(예컨대, 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠의 외관은 컴퓨터 시스템의 시점에 대한 변경에 기초하여 변경되지 않는다). 일부 실시예들에서, 입체 미디어 아이템의 제1 표현은, 몰입형 외관으로 디스플레이될 때, 사용자의 제2 시점의 제1 각도 범위(예컨대, 사용자의 시점 주위의 180, 270, 또는 360도)를 점유한다(예컨대, 입체 미디어 아이템의 제1 표현은 입체 미디어 아이템의 제1 표현이 비몰입형 외관으로 디스플레이되는 동안 (예컨대, 컴퓨터 시스템이 몰입형 외관으로 제1 표현을 디스플레이하라는 요청을 검출하기 전에) 사용자의 제2 시점의 제1 각도 범위를 점유하지 않는다)(예컨대, 도 11e를 참조하여 위에서 논의된 바와 같음). 일부 실시예들에서, 입체 미디어 아이템의 제1 표현은, 비몰입형 외관으로 디스플레이될 때, 사용자의 제2 시점의 제2 각도 범위(예컨대, 30, 45, 60, 120, 또는 180도)를 점유하고, 제2 각도 범위는 제1 각도 범위보다 작다(예컨대, 도 11e를 참조하여 위에서 논의된 바와 같음). 입체 미디어 아이템의 제1 표현이 몰입형 외관으로 디스플레이되는 동안 사용자의 시점의 더 큰 각도 범위 주위에 입체 미디어 아이템의 제1 표현을 디스플레이하는 것은 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠를 보는 것을 유지하는 동안 모션의 더 큰 범위 내에서 이동하는 능력을 사용자에게 제공하며, 이는 사용자에 대한 향상된 보는 경험을 제공한다.
일부 실시예들에서, 입체 미디어 아이템은 제2 복수의 에지들(예컨대, 3개의 에지들, 4개의 에지들, 5개의 에지들, 또는 6개의 에지들)을 포함한다. 일부 실시예들에서, 몰입형 외관으로 입체 미디어 아이템(예컨대, 도 11e 및 도 11f에서의 1108)의 제1 표현이 디스플레이되는 동안 그리고 입체 미디어 아이템(예컨대, 1108에 의해 표현되는 미디어 아이템)의 제2 복수의 에지들이 제3 콘텐츠를 포함한다는 결정에 따라, 컴퓨터 시스템은 (예컨대, 적어도 제3 에지로부터 외향으로 연장되는) 입체 미디어 아이템의 제1 표현의 제1 에지에 제3 콘텐츠의 표현을 디스플레이하고 - 제3 콘텐츠의 표현은 제3 콘텐츠의 외삽에 기초함(예컨대, 제3 콘텐츠의 표현은 입체 미디어 아이템의 복수의 에지들의 각각의 에지에서 가시적인 콘텐츠의 외삽을 포함함)(예컨대, 제3 표현은 입체 미디어 아이템에서 가시적이지 않은 콘텐츠를 포함함)(예컨대, 도 11e를 참조하여 위에서 논의된 바와 같음) -, 입체 미디어 아이템의 제2 복수의 에지들이 제4 콘텐츠를 포함한다는 결정에 따라, 컴퓨터 시스템은 입체 미디어 아이템의 제1 표현의 제1 에지에 제4 콘텐츠의 표현을 디스플레이하는데, 제4 콘텐츠의 표현은 제4 콘텐츠의 외삽에 기초한다(예컨대, 도 11e를 참조하여 위에서 논의된 바와 같음). 일부 실시예들에서, 제3 콘텐츠의 외삽에 기초하는 제3 콘텐츠의 표현은 블러링된다. 일부 실시예들에서, 제4 콘텐츠의 외삽에 기초하는 제4 콘텐츠의 표현은 블러링된다. 일부 실시예들에서, 제3 콘텐츠/제4 콘텐츠의 표현은 사용자의 시점의 변경의 검출에 응답하여 변경된다.
일부 실시예들에서, 컴퓨터 시스템은 비입체 미디어 아이템(예컨대, 복수의 관점들로부터 캡처되는 콘텐츠를 포함하지 않는 미디어 아이템)의 표현을 디스플레이하는데, 비입체 미디어 아이템은 시각적 효과(예컨대, 침범 블러(1112b)) 없이 디스플레이된다(예컨대, 도 11a를 참조하여 위에서 논의된 바와 같음)(예컨대, 비입체 미디어 아이템들은 입체 미디어 아이템들이 디스플레이되는 전술된 시각적 효과들 없이 디스플레이된다(예컨대, 비입체 미디어 아이템들은 블러 효과가 비입체 미디어 아이템의 중간을 향하여 연장됨에 따라 세기가 감소되는 블러 효과로 디스플레이되지 않음; 비입체 미디어 아이템은 비입체 미디어 아이템에 포함된 콘텐츠의 일부분을 가리는 블러 효과로 디스플레이되지 않음; 비입체 미디어 아이템으로 디스플레이되는 블러 효과의 양은 컴퓨터 시스템의 시점이 변경됨에 따라 변경되지 않음; 블러 효과가 가리는 콘텐츠의 부분들은 컴퓨터 시스템의 시점이 변경되는 것에 응답하여 변경되지 않음; 비입체 미디어 아이템은 비입체 미디어 아이템에 포함된 콘텐츠의 외삽에 기초하는 블러 영역으로 디스플레이되지 않음; 비입체 미디어 아이템은 몰입형 외관으로 디스플레이되지 않음; 사용자의 양 눈들은 컴퓨터 시스템의 시점이 변경되는 것에 응답하여 비입체 미디어 아이템들의 외관의 동일한 변경을 봄). 일부 실시예들에서, 비입체 미디어 아이템의 표현은 입체 미디어 아이템의 제1 표현과 동시에 디스플레이된다. 일부 실시예들에서, 컴퓨터 시스템은 비입체 미디어 아이템을 디스플레이하는 것에 응답하여 입체 미디어 아이템의 제1 표현을 디스플레이하는 것을 중지한다. 일부 실시예들에서, 전술된 시각적 효과들의 일부 조합은 입체 미디어 아이템들에 적용되고 비입체 미디어 아이템들에 대해서는 적용되지 않는다. 일부 실시예들에서, 전술된 시각적 효과들의 일부 조합은 입체 미디어 아이템들 및 비입체 미디어 아이템들 둘 모두에 적용된다.
일부 실시예들에서, 컴퓨터 시스템은 입체 미디어 아이템의 제1 표현과는 상이한 제2 입체 미디어 아이템의 제2 표현을 디스플레이하는데(예컨대, 제2 입체 미디어 아이템의 제2 표현은 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠와는 상이한 콘텐츠를 포함함), 제2 입체 미디어 아이템의 제2 표현은 제2 시각적 효과(예컨대, 침범 블러(1112b))로 디스플레이되고(예컨대, 제2 입체 미디어 아이템의 제2 표현은 입체 미디어 아이템들이 갖는 전술된 시각적 효과들로 디스플레이됨)(예컨대, 제2 입체 미디어 아이템의 제2 표현은 블러 효과가 제2 입체 미디어 아이템의 제2 표현의 중간을 향하여 연장됨에 따라 세기가 감소하는 블러 효과로 디스플레이됨; 제2 입체 미디어 아이템의 제2 표현은 제2 입체 미디어 아이템의 제2 표현에 포함된 콘텐츠의 일부분을 가리는 블러 효과로 디스플레이됨; 제2 입체 미디어 아이템의 제2 표현 내에 디스플레이되는 블러 효과의 양은 컴퓨터 시스템의 시점이 변경됨에 따라 변경됨; 블러 효과가 가리는 제2 입체 미디어 아이템의 제2 표현 내의 콘텐츠의 부분들은 컴퓨터 시스템의 시점이 변경되는 것에 응답하여 변경됨; 제2 입체 미디어 아이템의 제2 표현은 제2 입체 미디어 아이템의 제2 표현에 포함된 콘텐츠의 외삽에 기초하는 블러 영역으로 디스플레이됨; 제2 입체 미디어 아이템의 제2 표현은 몰입형 외관으로 디스플레이될 수 있음; 사용자의 눈들은 컴퓨터 시스템의 시점이 변경되는 것에 응답하여 제2 입체 미디어 아이템의 제2 표현의 외관에 대한 상이한 변경들을 봄), 제2 시각적 효과는 적어도 제2 입체 미디어 아이템의 제2 표현의 제1 부분을 가리고 적어도 제2 입체 미디어 아이템의 제2 표현의 제1 에지로부터 제2 입체 미디어 아이템의 제2 표현의 내부(예컨대, 제2 입체 미디어 아이템의 제2 표현의 중심)를 향하여 내향으로 (예컨대, 제1 에지의 방향에 수직인, 제2 입체 미디어 아이템의 제2 표현의 중심을 향하여 내향으로 연장되는 방향으로) 연장된다(예컨대, 도 11a를 참조하여 위에서 논의된 바와 같음). 일부 실시예들에서, 컴퓨터 시스템은 제2 입체 미디어 아이템의 제2 표현을 디스플레이하는 것의 일부로서 입체 미디어 아이템의 제1 표현을 디스플레이하는 것을 중지한다. 일부 실시예들에서, 컴퓨터 시스템은 입체 미디어 아이템의 제1 표현 및 제2 입체 미디어 아이템의 제2 표현을 동일한 시간에 디스플레이한다.
일부 실시예들에서, 방법들(800, 900, 1000, 1100)의 태양들/동작들은 이들 방법들 사이에서 상호교환, 대체, 및/또는 추가될 수 있다. 예를 들어, 방법(900)에서 설명되는 줌 동작은 선택적으로, 증가된 및/또는 감소된 줌 레벨로 미디어 아이템의 표현을 디스플레이하는 데 사용된다. 간결함을 위해, 이러한 상세사항들은 여기서 반복되지 않는다.
전술한 설명은, 설명의 목적을 위해, 특정 실시예들을 참조하여 기술되었다. 그러나, 상기의 예시적인 논의들은 본 발명을 개시된 정확한 형태들로 규명하거나 제한하려는 의도는 아니다. 많은 수정들 및 변형들이 상기 교시 내용들의 관점에서 가능하다. 본 발명의 원리들 및 그의 실제적인 응용들을 가장 잘 설명하여, 그에 의해 당업자들이 본 발명 및 다양한 설명된 실시예들을 고려되는 특정 용도에 적합한 바와 같은 다양한 변형들을 갖고서 가장 잘 사용하는 것을 가능하게 하도록, 실시예들이 선택 및 설명되었다.
위에서 설명된 바와 같이, 본 기술의 일 태양은 사용자들의 XR 경험들을 개선시키기 위해 다양한 소스들로부터 이용가능한 데이터의 수집 및 사용이다. 본 개시내용은, 일부 경우들에 있어서, 이러한 수집된 데이터가 특정 개인을 고유하게 식별하거나 또는 그와 연락하거나 그의 위치를 확인하는 데 이용될 수 있는 개인 정보 데이터를 포함할 수 있음을 고려한다. 그러한 개인 정보 데이터는 인구통계 데이터, 위치 기반 데이터, 전화번호들, 이메일 주소들, 트위터 ID들, 집 주소들, 사용자의 건강 또는 피트니스 레벨에 관한 데이터 또는 기록들(예를 들어, 바이탈 사인(vital sign) 측정치들, 약물 정보, 운동 정보), 생년월일, 또는 임의의 다른 식별 또는 개인 정보를 포함할 수 있다.
본 개시내용은 본 기술에서의 그러한 개인 정보 데이터의 이용이 사용자들에게 이득을 주기 위해 사용될 수 있음을 인식한다. 예를 들어, 개인 정보 데이터는 사용자의 XR 경험을 개선시키는 데 사용될 수 있다. 게다가, 사용자에게 이득을 주는 개인 정보 데이터에 대한 다른 이용들이 또한 본 개시내용에 의해 고려된다. 예를 들어, 건강 및 피트니스 데이터는 사용자의 일반적인 웰니스(wellness)에 대한 통찰력을 제공하는 데 사용될 수 있거나, 또는 웰니스 목표를 추구하기 위한 기술을 이용하여 개인들에게 긍정적인 피드백으로서 사용될 수 있다.
본 개시내용은 그러한 개인 정보 데이터의 수집, 분석, 공개, 전달, 저장, 또는 다른 사용을 담당하는 엔티티들이 잘 확립된 프라이버시 정책들 및/또는 프라이버시 관례들을 준수할 것임을 고려한다. 특히, 이러한 엔티티들은, 대체로 개인 정보 데이터를 사적이고 안전하게 유지시키기 위한 산업적 또는 행정적 요건들을 충족시키거나 넘어서는 것으로 인식되는 프라이버시 정책들 및 관례들을 구현하고 지속적으로 사용해야 한다. 그러한 정책들은 사용자들에 의해 쉽게 액세스가능해야 하고, 데이터의 수집 및/또는 사용이 변화됨에 따라 업데이트되어야 한다. 사용자들로부터의 개인 정보는 엔티티의 적법하며 합리적인 용도들을 위해 수집되어야 하고, 이들 적법한 용도들을 벗어나서 공유되거나 판매되어서는 안 된다. 추가로, 그러한 수집/공유는 사용자들의 통지된 동의를 수신한 후에 발생해야 한다. 부가적으로, 이러한 엔티티들은, 이러한 개인 정보 데이터에 대한 액세스를 보호하고 안전하게 하며 개인 정보 데이터에 대한 액세스를 갖는 다른 사람들이 그들의 프라이버시 정책들 및 절차들을 고수한다는 것을 보장하기 위한 임의의 필요한 조처들을 취하는 것을 고려해야 한다. 게다가, 이러한 엔티티들은 널리 인정된 프라이버시 정책들 및 관례들에 대한 그들의 고수를 증명하기 위해 제3자들에 의해 그들 자신들이 평가를 받을 수 있다. 부가적으로, 정책들 및 관례들은 수집된 그리고/또는 액세스된 특정 유형들의 개인 정보 데이터에 대해 조정되고, 관할구역 특정 고려사항들을 포함하여 적용가능한 법률들 및 표준들로 조정되어야 한다. 예를 들어, 미국에서, 소정 건강 데이터의 수집 또는 그에 대한 액세스는 연방법 및/또는 주의 법, 예를 들어 미국 건강 보험 양도 및 책임 법령(Health Insurance Portability and Accountability Act, HIPAA)에 의해 통제될 수 있는 반면; 다른 국가들에서의 건강 데이터는 다른 규정들 및 정책들의 적용을 받을 수 있고 그에 따라 취급되어야 한다. 따라서, 상이한 프라이버시 관례들은 각각의 국가의 상이한 개인 데이터 유형들에 대해 유지되어야 한다.
전술한 것에도 불구하고, 본 개시내용은 또한 사용자들이 개인 정보 데이터의 사용, 또는 그에 대한 액세스를 선택적으로 차단하는 실시예들을 고려한다. 즉, 본 개시내용은 그러한 개인 정보 데이터에 대한 액세스를 방지하거나 차단하기 위해 하드웨어 및/또는 소프트웨어 요소들이 제공될 수 있다는 것을 고려한다. 예를 들어, XR 경험들의 경우, 본 기술은 사용자들이 서비스를 위한 등록 중 또는 이후 임의의 시간에 개인 정보 데이터의 수집 시의 참여의 "동의함" 또는 "동의하지 않음"을 선택하는 것을 허용하도록 구성될 수 있다. 다른 예에서, 사용자들은 서비스들의 맞춤화를 위한 데이터를 제공하지 않도록 선택할 수 있다. 또 다른 예에서, 사용자들은 데이터가 유지되는 시간의 길이를 제한하거나 또는 맞춤형 서비스의 개발을 전적으로 금지하도록 선택할 수 있다. "동의" 및 "동의하지 않음" 옵션들을 제공하는 것에 부가하여, 본 개시내용은 개인 정보의 액세스 또는 사용에 관한 통지들을 제공하는 것을 고려한다. 예를 들어, 사용자는 그들의 개인 정보 데이터가 액세스될 앱을 다운로드할 시에 통지받고, 이어서 개인 정보 데이터가 앱에 의해 액세스되기 직전에 다시 상기하게 될 수 있다.
또한, 의도하지 않은 또는 인가되지 않은 액세스 또는 이용의 위험을 최소화하는 방식으로 개인 정보 데이터가 관리되고 취급되어야 한다는 것이 본 개시내용의 의도이다. 데이터의 수집을 제한하고 데이터가 더 이상 필요하지 않게 되면 데이터를 삭제함으로써 위험이 최소화될 수 있다. 추가로, 그리고 소정의 건강 관련 애플리케이션들을 비롯하여, 적용가능할 때, 사용자의 프라이버시를 보호하기 위해 데이터 비식별화가 사용될 수 있다. 적절한 경우, 특정 식별자들(예컨대, 생년월일 등)을 제거함으로써, 저장된 데이터의 양 또는 특이성을 제어함으로써(예컨대, 주소 수준이라기보다는 오히려 도시 수준에서 위치 데이터를 수집함으로써), 데이터가 저장되는 방식을 제어함으로써(예컨대, 사용자들에 걸쳐 데이터를 집계함으로써), 그리고/또는 다른 방법들에 의해, 비식별화가 용이하게 될 수 있다.
따라서, 본 개시내용이 하나 이상의 다양한 개시된 실시예들을 구현하기 위해 개인 정보 데이터의 사용을 광범위하게 커버하지만, 본 개시내용은 다양한 실시예들이 또한 그러한 개인 정보 데이터에 액세스할 필요 없이 구현될 수 있다는 것을 또한 고려한다. 즉, 본 기술의 다양한 실시예들은 이러한 개인 정보 데이터의 전부 또는 일부분의 결여로 인해 동작 불가능하게 되지 않는다. 예를 들어, XR 경험은, 사용자와 연관된 디바이스에 의해 요청되는 콘텐츠, 서비스들에 이용가능한 다른 비-개인 정보, 또는 공개적으로 입수가능한 정보와 같은 비-개인 정보 데이터 또는 드러난 최소량의 개인 정보에 기초하여 선호도들을 추론함으로써 생성될 수 있다.

Claims (110)

  1. 방법으로서,
    디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템에서,
    상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 단계; 및
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안:
    제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고;
    상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 미디어 아이템과는 상이한 제2 미디어 아이템의 표현을 포함하는 상기 복수의 미디어 아이템들의 표현들을 포함하는 상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 단계; 및
    상기 제2 미디어 아이템의 표현을 포함하는 상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안:
    상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제3 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제3 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제2 미디어 아이템의 표현의 외관을 제4 방식으로 디스플레이되는 것으로부터 상기 제4 방식과는 상이한 제5 방식으로 디스플레이되는 것으로 변경하는 단계를 추가로 포함하는, 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 제1 미디어 아이템은 제1 요소 및 제2 요소를 포함하는 복수의 요소들을 포함하고;
    상기 제1 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 것은 제1 2차원 평면 내에 상기 제1 요소 및 상기 제2 요소를 디스플레이하는 것을 포함하고;
    상기 제2 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 것은 상기 제1 2차원 평면의 외측으로 연장되는 제3 차원을 따라 상기 제1 요소와 상기 제2 요소를 분리하는 것을 포함하는, 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제1 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 것은 사용자에 대한 제1 위치에 상기 제1 미디어 아이템의 표현을 디스플레이하는 것을 포함하고;
    상기 제2 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 것은 상기 제1 위치보다 상기 사용자로부터 더 멀리 있는 상기 사용자에 대한 제2 위치에 상기 제1 미디어 아이템의 표현을 디스플레이하는 것을 포함하는, 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 제1 미디어 아이템은 비디오 콘텐츠를 포함하고;
    상기 제1 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 것은 상기 제1 미디어 아이템의 비디오 콘텐츠의 정적 표현을 디스플레이하는 것을 포함하고;
    상기 제2 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 것은 상기 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 것을 포함하는, 방법.
  6. 제5항에 있어서,
    상기 제2 방식과는 상이한 상기 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 것은 상기 제1 미디어 아이템의 비디오 콘텐츠의 제2 정적 표현을 디스플레이하는 것을 포함하는, 방법.
  7. 제5항 또는 제6항에 있어서, 상기 제2 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 것은 저역 통과 필터를 상기 제1 미디어 아이템의 비디오 콘텐츠에 적용하는 것을 포함하는, 방법.
  8. 제5항 내지 제7항 중 어느 한 항에 있어서,
    상기 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 것을 포함하여, 상기 제2 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 동안, 제1 볼륨 레벨로 상기 제1 미디어 아이템의 오디오 콘텐츠를 출력하는 단계;
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 단계; 및
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 제1 볼륨 레벨보다 높은 제2 볼륨 레벨로 상기 제1 미디어 아이템의 오디오 콘텐츠를 출력하는 단계를 추가로 포함하는, 방법.
  9. 제5항 내지 제8항 중 어느 한 항에 있어서, 상기 제1 미디어 아이템의 비디오 콘텐츠의 재생을 디스플레이하는 것은 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여 수행되는, 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서, 상기 제1 미디어 아이템은 제1 요소 및 제2 요소를 포함하는 복수의 요소들을 포함하고, 상기 방법은,
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 계속 검출하는 동안:
    상기 디스플레이 생성 컴포넌트를 통해, 상기 사용자의 시점이 상기 제1 미디어 아이템에 대해 시프트됨에 따라 상기 제1 요소가 상기 제2 요소에 대해 이동하는 것을 디스플레이하는 단계를 추가로 포함하는, 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 사용자 시선을 검출하는 단계;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 계속 검출하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 하나 이상의 사용자 제스처들을 검출하는 단계; 및
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 계속 검출하는 동안 상기 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제7 방식으로 디스플레이되는 것으로부터 상기 제7 방식과는 상이한 제8 방식으로 디스플레이되는 것으로 변경하는 단계를 추가로 포함하는, 방법.
  12. 제11항에 있어서,
    상기 하나 이상의 사용자 제스처들은 핀치 제스처(pinch gesture)를 포함하는, 방법.
  13. 제11항 또는 제12항에 있어서,
    상기 제1 미디어 아이템은 제1 요소 및 제2 요소를 포함하는 복수의 요소들을 포함하고;
    상기 제7 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하는 것은,
    제1 위치에 상기 제1 요소를 디스플레이하는 것; 및
    상기 제1 위치보다 상기 컴퓨터 시스템의 사용자에 더 가까운 제2 위치에 상기 제2 요소를 디스플레이하는 것을 포함하고;
    상기 하나 이상의 사용자 제스처들은 제1 제스처를 포함하고;
    상기 방법은,
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 계속 검출하는 동안 상기 제1 제스처를 검출하는 것에 응답하여, 상기 제1 요소와 상기 제2 요소 사이의 거리를 감소시키도록 상기 제1 요소에 대해 상기 제2 요소를 이동시키는 단계를 추가로 포함하는, 방법.
  14. 제13항에 있어서,
    상기 하나 이상의 사용자 제스처들은 상기 제1 제스처에 후속하여 수행되는 제2 제스처를 포함하고;
    상기 방법은,
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 계속 검출하는 동안 상기 제2 제스처를 검출하는 것에 응답하여, 상기 제1 요소와 상기 제2 요소 사이의 거리를 증가시키도록 상기 제1 요소에 대해 상기 제2 요소를 이동시키는 단계를 추가로 포함하는, 방법.
  15. 제13항 또는 제14항에 있어서,
    상기 하나 이상의 사용자 제스처들은 상기 제1 제스처에 후속하여 수행되는 제3 제스처를 포함하고;
    상기 제3 제스처는 상기 제1 미디어 아이템의 사용자 선택을 나타내고;
    상기 방법은,
    상기 제3 제스처를 검출하는 것에 응답하여, 상기 제1 요소와 상기 제2 요소 사이의 상기 거리를 증가시키는 단계를 추가로 포함하는, 방법.
  16. 제11항 내지 제15항 중 어느 한 항에 있어서,
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 것은, 상기 제1 미디어 아이템의 표현과 동시에, 상기 제1 미디어 아이템의 표현과는 상이한 제2 미디어 아이템의 표현을 디스플레이하는 것을 포함하고;
    상기 하나 이상의 사용자 제스처들은 상기 제1 미디어 아이템의 선택에 대응하는 제1 선택 제스처를 포함하고;
    상기 방법은,
    상기 제1 미디어 아이템의 선택에 대응하는 상기 제1 선택 제스처를 검출하는 것에 응답하여, 상기 제2 미디어 아이템의 표현을 시각적으로 가리는 단계를 추가로 포함하는, 방법.
  17. 제1항 내지 제16항 중 어느 한 항에 있어서,
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 동안:
    상기 하나 이상의 입력 디바이스들을 통해, 제2 세트의 하나 이상의 사용자 제스처들을 검출하고;
    상기 제2 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 상기 제2 세트의 하나 이상의 사용자 제스처들에 기초하여 상기 제1 미디어 아이템의 표현의 시각적 콘텐츠를 시프트시키는 단계를 추가로 포함하는, 방법.
  18. 제1항 내지 제17항 중 어느 한 항에 있어서,
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안:
    상기 하나 이상의 입력 디바이스들을 통해, 핀치 제스처 및 드래그 제스처(drag gesture)를 포함하는 제3 세트의 하나 이상의 사용자 제스처들을 검출하고;
    상기 제3 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여, 상기 미디어 라이브러리 사용자 인터페이스의 스크롤을 디스플레이하는 단계를 추가로 포함하는, 방법.
  19. 제1항 내지 제18항 중 어느 한 항에 있어서,
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 단계;
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을 디스플레이하는 단계;
    상기 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 핀치 제스처 및 드래그 제스처를 포함하는 제4 세트의 하나 이상의 사용자 제스처들을 검출하는 단계; 및
    상기 제4 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여:
    상기 선택된 미디어 사용자 인터페이스에서의 상기 제1 미디어 아이템의 디스플레이를 중지하고;
    상기 디스플레이 생성 컴포넌트를 통해, 상기 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템과는 상이한 제2 미디어 아이템을 디스플레이하는 단계를 추가로 포함하는, 방법.
  20. 제1항 내지 제19항 중 어느 한 항에 있어서,
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 단계;
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을 디스플레이하는 단계;
    상기 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 핀치 제스처 및 드래그 제스처를 포함하는 제5 세트의 하나 이상의 사용자 제스처들을 검출하는 단계; 및
    상기 제5 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여:
    상기 선택된 미디어 사용자 인터페이스의 디스플레이를 중지하고;
    상기 디스플레이 생성 컴포넌트를 통해, 상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 단계를 추가로 포함하는, 방법.
  21. 제1항 내지 제20항 중 어느 한 항에 있어서,
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 단계;
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을 디스플레이하는 단계;
    상기 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 핀치 제스처 및 드래그 제스처를 포함하는 제6 세트의 하나 이상의 사용자 제스처들을 검출하는 단계; 및
    상기 제6 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여:
    상기 드래그 제스처가 제1 방향에 대응한다는 결정에 따라:
    상기 선택된 미디어 사용자 인터페이스에서의 상기 제1 미디어 아이템의 디스플레이를 중지하고;
    상기 디스플레이 생성 컴포넌트를 통해, 상기 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템과는 상이한 제2 미디어 아이템을 디스플레이하며;
    상기 드래그 제스처가 상기 제1 방향과는 상이한 제2 방향에 대응한다는 결정에 따라:
    상기 선택된 미디어 사용자 인터페이스의 디스플레이를 중지하고;
    상기 디스플레이 생성 컴포넌트를 통해, 상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 단계를 추가로 포함하는, 방법.
  22. 제1항 내지 제21항 중 어느 한 항에 있어서,
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 단계;
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을 디스플레이하는 단계;
    상기 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을 디스플레이하는 동안:
    사용자의 손이 제1 상태에 있다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 세트의 사용자 인터페이스 제어부들을 디스플레이하고;
    상기 사용자의 손이 상기 제1 상태와는 상이한 제2 상태에 있다는 결정에 따라, 상기 제1 세트의 사용자 인터페이스 제어부들을 디스플레이하는 것을 보류하는 단계를 추가로 포함하는, 방법.
  23. 제1항 내지 제22항 중 어느 한 항에 있어서,
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 미디어 아이템의 선택에 대응하는 제7 세트의 하나 이상의 사용자 제스처들을 검출하는 단계; 및
    상기 제7 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여:
    제1 세트의 조명 효과들을 디스플레이하는 것으로부터 상기 제1 세트의 조명 효과들과는 상이한 제2 세트의 조명 효과들을 디스플레이하는 것으로 전이시키는 단계 - 이는,
    상기 제1 세트의 조명 효과들을 디스플레이하는 것에 후속하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 세트의 조명 효과들 및 상기 제2 세트의 조명 효과들과는 상이한 중간 세트의 조명 효과들을 디스플레이하는 단계; 및
    상기 중간 세트의 조명 효과들을 디스플레이하는 것에 후속하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 세트의 조명 효과들을 디스플레이하는 단계를 포함함 - 를 추가로 포함하는, 방법.
  24. 제1항 내지 제23항 중 어느 한 항에 있어서,
    상기 디스플레이 생성 컴포넌트를 통해, 상기 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을 디스플레이하는 단계;
    상기 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 상기 선택된 미디어 사용자 인터페이스를 닫으라는 사용자 요청에 대응하는 제8 세트의 하나 이상의 사용자 제스처들을 검출하는 단계; 및
    상기 제8 세트의 하나 이상의 사용자 제스처들을 검출하는 것에 응답하여:
    제3 세트의 조명 효과들을 디스플레이하는 것으로부터 상기 제3 세트의 조명 효과들과는 상이한 제4 세트의 조명 효과들을 디스플레이하는 것으로 전이시키는 단계 - 이는,
    상기 제3 세트의 조명 효과들을 디스플레이하는 것에 후속하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제3 세트의 조명 효과들 및 상기 제4 세트의 조명 효과들과는 상이한 제2 중간 세트의 조명 효과들을 디스플레이하는 단계; 및
    상기 제2 중간 세트의 조명 효과들을 디스플레이하는 것에 후속하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제4 세트의 조명 효과들을 디스플레이하는 단계를 포함함 - 를 추가로 포함하는, 방법.
  25. 제1항 내지 제24항 중 어느 한 항에 있어서,
    상기 디스플레이 생성 컴포넌트를 통해,
    상기 미디어 라이브러리 사용자 인터페이스와는 상이한 선택된 미디어 사용자 인터페이스에 상기 제1 미디어 아이템을; 그리고
    시각적 콘텐츠를 내비게이팅하기 위한 내비게이션 사용자 인터페이스 요소를 동시에 디스플레이하는 단계를 추가로 포함하는, 방법.
  26. 제25항에 있어서, 상기 내비게이션 사용자 인터페이스 요소는, 선택될 때, 하나 이상의 각자의 미디어 아이템들과 연관된 각자의 기능들을 수행하는 하나 이상의 선택가능 제어부들을 포함하는, 방법.
  27. 제1항 내지 제26항 중 어느 한 항에 있어서,
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 단계; 및
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    제1 세트의 기준들이 충족되었다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 각도 크기로 상기 제1 미디어 아이템을 디스플레이하고;
    상기 제1 세트의 기준들이 충족되지 않았다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 각도 크기와는 상이한 제2 각도 크기로 상기 제1 미디어 아이템을 디스플레이하는 단계를 추가로 포함하는, 방법.
  28. 제1항 내지 제27항 중 어느 한 항에 있어서,
    상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 미디어 아이템을 디스플레이하는 단계를 추가로 포함하고, 상기 제1 미디어 아이템은 비네팅(vignetting)이 상기 제1 미디어 아이템에 적용된 상태로 디스플레이되는, 방법.
  29. 제1항 내지 제28항 중 어느 한 항에 있어서,
    상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 사용자 시선을 검출하는 단계;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 계속 검출하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 미디어 아이템의 선택에 대응하는 선택 제스처를 검출하는 단계; 및
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 계속 검출하는 동안 상기 제1 미디어 아이템의 선택에 대응하는 상기 선택 제스처를 검출하는 것에 응답하여:
    상기 선택 제스처가 제1 유형의 선택 제스처에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제9 방식으로 상기 제1 미디어 아이템을 디스플레이하고;
    상기 선택 제스처가 상기 제1 유형의 선택 제스처와는 상이한 제2 유형의 선택 제스처에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제9 방식과는 상이한 제10 방식으로 상기 제1 미디어 아이템을 디스플레이하는 단계를 추가로 포함하는, 방법.
  30. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램들은 제1항 내지 제29항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  31. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    하나 이상의 프로세서들; 및
    상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은 제1항 내지 제29항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는, 컴퓨터 시스템.
  32. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    제1항 내지 제29항 중 어느 한 항의 방법을 수행하기 위한 수단을 포함하는, 컴퓨터 시스템.
  33. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램들은,
    상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하기 위한; 그리고
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안:
    제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고;
    상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하기 위한 명령어들을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  34. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    하나 이상의 프로세서들; 및
    상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은,
    상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하기 위한; 그리고
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안:
    제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고;
    상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하기 위한 명령어들을 포함하는, 컴퓨터 시스템.
  35. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하기 위한 수단; 및
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안:
    제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고;
    상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하기 위한 수단을 포함하는, 컴퓨터 시스템.
  36. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하는 컴퓨터 프로그램 제품으로서, 상기 하나 이상의 프로그램들은,
    상기 디스플레이 생성 컴포넌트를 통해, 제1 미디어 아이템의 표현을 포함하는 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스를 디스플레이하기 위한; 그리고
    상기 미디어 라이브러리 사용자 인터페이스를 디스플레이하는 동안:
    제1 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 미디어 라이브러리 사용자 인터페이스 내의 제1 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 표현의 외관을, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 디스플레이되는 것으로부터 상기 제1 방식과는 상이한 제2 방식으로 디스플레이되는 것으로 변경하고;
    상기 제1 시간에 후속하는 제2 시간에, 상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 위치와는 상이한 상기 미디어 라이브러리 사용자 인터페이스 내의 제2 위치에 대응하는 사용자 시선을 검출하고;
    상기 미디어 라이브러리 사용자 인터페이스 내의 상기 제2 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 방식과는 상이한 제3 방식으로 상기 제1 미디어 아이템의 표현을 디스플레이하기 위한 명령어들을 포함하는, 컴퓨터 프로그램 제품.
  37. 방법으로서,
    디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템에서,
    상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하는 단계;
    상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인(zoom-in) 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하는 단계; 및
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍(zooming)하는 것을 포함함 -;
    상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 단계를 포함하는, 방법.
  38. 제37항에 있어서,
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들은,
    제1 핀치 제스처; 및
    상기 제1 핀치 제스처에 후속하여 발생하는 제2 핀치 제스처를 포함하는, 방법.
  39. 제37항 또는 제38항에 있어서,
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들은 양 손 디핀치 제스처(two-handed de-pinch gesture)를 포함하는, 방법.
  40. 제37항 내지 제39항 중 어느 한 항에 있어서,
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 사용자 인터페이스가 제1 유형의 제1 미디어 아이템을 디스플레이하고 있다는 결정에 따라, 제1 크기로 상기 제1 미디어 아이템을 디스플레이하고;
    상기 사용자 인터페이스가 상기 제1 유형과는 상이한 제2 유형의 제2 미디어 아이템을 디스플레이하고 있다는 결정에 따라, 상기 제1 크기보다 큰 제2 크기로 상기 제2 미디어 아이템을 디스플레이하는 단계를 추가로 포함하는, 방법.
  41. 제37항 내지 제40항 중 어느 한 항에 있어서,
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 사용자 인터페이스가 제1 유형의 제1 미디어 아이템을 디스플레이하고 있다는 결정에 따라, 상기 제1 미디어 아이템을 평탄 객체로서 디스플레이하고;
    상기 사용자 인터페이스가 제2 유형의 제2 미디어 아이템을 디스플레이하고 있다는 결정에 따라, 상기 제2 미디어 아이템을 만곡 객체로서 디스플레이하는 단계를 추가로 포함하는, 방법.
  42. 제37항 내지 제41항 중 어느 한 항에 있어서,
    상기 제1 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 제1 크기로 제1 미디어 아이템의 표현을 디스플레이하는 것을 포함하고;
    3차원 환경이 상기 사용자 인터페이스를 적어도 부분적으로 둘러싸고 상기 사용자 인터페이스 후방에 배경 콘텐츠를 포함하고;
    상기 방법은, 상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 제1 미디어 아이템의 표현을 상기 제1 크기로 디스플레이되는 것으로부터 상기 제1 크기보다 큰 제2 크기로 디스플레이되는 것으로 전이시키고;
    상기 제1 미디어 아이템에 대한 상기 배경 콘텐츠의 시각적 강조를 감소시키는 단계를 추가로 포함하는, 방법.
  43. 제37항 내지 제42항 중 어느 한 항에 있어서,
    상기 제1 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 제1 크기로 제1 미디어 아이템의 표현을 디스플레이하는 것을 포함하고;
    상기 방법은,
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 제1 미디어 아이템의 표현을 상기 제1 크기로 디스플레이되는 것으로부터 상기 제1 크기보다 큰 제2 크기로 디스플레이되는 것으로 전이시키고;
    상기 사용자 인터페이스로부터 연장되는 광 유출 효과(light spill effect)를 디스플레이하는 단계를 추가로 포함하는, 방법.
  44. 제37항 내지 제43항 중 어느 한 항에 있어서,
    상기 제1 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 제1 크기로 제1 미디어 아이템을 디스플레이하는 것을 포함하고;
    상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은,
    상기 제1 크기보다 큰 제2 크기로 상기 제1 미디어 아이템을 디스플레이하는 것;
    상기 제2 크기가 미리결정된 임계 크기보다 크다는 결정에 따라, 적어도 상기 제1 미디어 아이템의 제1 에지에 적용되는 블러링 효과(blurring effect)로 상기 제1 미디어 아이템을 디스플레이하는 것; 및
    상기 제2 크기가 상기 미리결정된 임계 크기보다 크지 않다는 결정에 따라, 상기 블러링 효과가 상기 제1 미디어 아이템의 어떠한 에지들에도 적용되지 않는 상태로 상기 제1 미디어 아이템을 디스플레이하는 것을 포함하는, 방법.
  45. 제37항 내지 제44항 중 어느 한 항에 있어서,
    상기 사용자 인터페이스는 제1 미디어 아이템의 표현 및 제2 미디어 아이템의 표현을 포함하는 미디어 라이브러리 내의 복수의 미디어 아이템들의 표현들을 포함하는 미디어 라이브러리 사용자 인터페이스이고;
    상기 제1 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은,
    제1 크기로 상기 제1 미디어 아이템의 표현을, 그리고
    제2 크기로 상기 제2 미디어 아이템의 표현을 동시에 디스플레이하는 것을 포함하고;
    상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은,
    상기 제1 크기보다 큰 제3 크기로 상기 제1 미디어 아이템의 표현을, 그리고
    상기 제2 크기보다 큰 제4 크기로 상기 제2 미디어 아이템의 표현을 동시에 디스플레이하는 것을 포함하는, 방법.
  46. 제37항 내지 제45항 중 어느 한 항에 있어서,
    상기 제1 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 제1 크기로 상기 사용자 인터페이스를 디스플레이하는 것을 포함하고;
    상기 방법은,
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 사용자 인터페이스가 제1 사용자 인터페이스라는 결정에 따라, 상기 제1 크기보다 큰 제2 크기로 상기 사용자 인터페이스를 디스플레이하고;
    상기 사용자 인터페이스가 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스라는 결정에 따라, 상기 제1 크기로 상기 사용자 인터페이스를 유지하는 단계를 추가로 포함하는, 방법.
  47. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램들은 제37항 내지 제46항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  48. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    하나 이상의 프로세서들; 및
    상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은 제37항 내지 제46항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는, 컴퓨터 시스템.
  49. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    제37항 내지 제46항 중 어느 한 항의 방법을 수행하기 위한 수단을 포함하는, 컴퓨터 시스템.
  50. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램들은,
    상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하기 위한;
    상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함함 -;
    상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하기 위한 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 명령어들을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  51. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    하나 이상의 프로세서들; 및
    상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은,
    상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하기 위한;
    상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함함 -;
    상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하기 위한 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 명령어들을 포함하는, 컴퓨터 시스템.
  52. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하기 위한 수단;
    상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한 수단; 및
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함함 -;
    상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하기 위한 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 수단을 포함하는, 컴퓨터 시스템.
  53. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하는 컴퓨터 프로그램 제품으로서, 상기 하나 이상의 프로그램들은,
    상기 디스플레이 생성 컴포넌트를 통해, 제1 줌 레벨로 사용자 인터페이스를 디스플레이하기 위한;
    상기 사용자 인터페이스를 디스플레이하는 동안, 상기 하나 이상의 입력 디바이스들을 통해, 줌-인 사용자 커맨드에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고
    상기 줌-인 사용자 커맨드에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    사용자 시선이 상기 사용자 인터페이스 내의 제1 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하고 - 상기 제2 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제1 위치에 기초하여 선택되는 제1 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함함 -;
    상기 사용자 시선이 상기 제1 위치와는 상이한 상기 사용자 인터페이스 내의 제2 위치에 대응한다는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 줌 레벨보다 높은 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하기 위한 - 상기 제3 줌 레벨로 상기 사용자 인터페이스를 디스플레이하는 것은 상기 제2 위치에 기초하여 선택되는 제2 줌 중심을 사용하여 상기 사용자 인터페이스를 주밍하는 것을 포함하고, 상기 제2 줌 중심은 상기 제1 줌 중심과는 상이한 위치에 있음 - 명령어들을 포함하는, 컴퓨터 프로그램 제품.
  54. 방법으로서,
    디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템에서,
    상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하는 단계; 및
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고;
    상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하는 단계를 포함하는, 방법.
  55. 제54항에 있어서,
    상기 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은 상기 제1 미디어 아이템을 둘러싸는 제1 유형의 경계부를 갖는 상기 제1 미디어 아이템을 디스플레이하는 것을 포함하고;
    상기 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은 상기 제1 미디어 아이템을 둘러싸는 상기 제1 경계부와는 상이한 제2 유형의 경계부를 갖는 상기 제1 미디어 아이템을 디스플레이하는 것을 포함하는, 방법.
  56. 제54항 또는 제55항에 있어서,
    상기 제1 미디어 아이템이 상기 제1 방식으로 디스플레이될 때, 상기 제1 미디어 아이템을 적어도 부분적으로 둘러싸는 콘텐츠가 제1 외관을 갖고;
    상기 제1 미디어 아이템이 상기 제2 방식으로 디스플레이될 때, 상기 제1 미디어 아이템을 적어도 부분적으로 둘러싸는 상기 콘텐츠는 상기 제1 외관과는 상이한 제2 외관을 갖는, 방법.
  57. 제54항 내지 제56항 중 어느 한 항에 있어서, 상기 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은,
    상기 제1 미디어 아이템으로부터 연장되는 한 세트의 광선들을 디스플레이하는 것을 포함하는, 방법.
  58. 제57항에 있어서, 상기 한 세트의 광선들의 하나 이상의 시각적 특성들은 상기 제1 미디어 아이템의 에지들에서의 하나 이상의 색상들에 기초하여 결정되는, 방법.
  59. 제57항 또는 제58항에 있어서, 상기 한 세트의 광선들은 제1 길이를 갖는 제1 광선 및 상기 제1 길이와는 상이한 제2 길이를 갖는 제2 광선을 포함하는, 방법.
  60. 제54항 내지 제59항 중 어느 한 항에 있어서, 상기 제1 미디어 아이템은 상기 각자의 유형의 깊이 정보를 포함하고, 상기 제1 미디어 아이템은 상기 컴퓨터 시스템에 의해 캡처되었던, 방법.
  61. 제54항 내지 제60항 중 어느 한 항에 있어서,
    상기 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은 제1 세트의 조명 효과들로 상기 제1 미디어 아이템을 디스플레이하는 것을 포함하고;
    상기 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은 제2 세트의 조명 효과들로 상기 제1 미디어 아이템을 디스플레이하는 것을 포함하는, 방법.
  62. 제61항에 있어서,
    상기 제1 세트의 조명 효과들은 상기 제1 미디어 아이템의 에지들에서의 제1 세트의 색상들에 기초하여 그리고 상기 제1 미디어 아이템의 에지들 내부에서의 제2 세트의 색상들에 기초하여 결정되고, 상기 제1 세트의 색상들에는 상기 제1 세트의 조명 효과들의 결정 시 상기 제2 세트의 색상들보다 큰 가중치(weight)가 주어지며;
    상기 제2 세트의 조명 효과들은 상기 제1 미디어 아이템의 에지들에서의 제3 세트의 색상들에 기초하여 그리고 상기 제1 미디어 아이템의 에지들 내부에서의 제4 세트의 색상들에 기초하여 결정되고, 상기 제3 세트의 색상들에는 상기 제2 세트의 조명 효과들의 결정 시 상기 제4 세트의 색상들보다 큰 가중치가 주어지는, 방법.
  63. 제61항 또는 제62항에 있어서,
    상기 제1 세트의 조명 효과들 및 상기 제2 세트의 조명 효과들은,
    상기 제1 미디어 아이템의 전방으로 방출되는 광; 및
    상기 제1 미디어 아이템의 후방으로 방출되는 광을 포함하는, 방법.
  64. 제61항 내지 제63항 중 어느 한 항에 있어서,
    상기 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은,
    상기 제1 미디어 아이템이 비디오라는 결정에 따라, 제3 세트의 조명 효과들로 상기 제1 미디어 아이템을 디스플레이하는 것; 및
    상기 제1 미디어 아이템이 정지 이미지라는 결정에 따라, 제4 세트의 조명 효과들로 상기 제1 미디어 아이템을 디스플레이하는 것을 포함하고;
    상기 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은,
    상기 제1 미디어 아이템이 비디오라는 결정에 따라, 제5 세트의 조명 효과들로 상기 제1 미디어 아이템을 디스플레이하는 것; 및
    상기 제1 미디어 아이템이 정지 이미지라는 결정에 따라, 제6 세트의 조명 효과들로 상기 제1 미디어 아이템을 디스플레이하는 것을 포함하는, 방법.
  65. 제61항 내지 제64항 중 어느 한 항에 있어서,
    상기 제1 미디어 아이템은 비디오이고;
    상기 비디오의 각자의 재생 시간에서의 상기 제1 세트의 조명 효과들은 상기 비디오의 각자의 재생 시간을 포함하는 상기 비디오의 다수의 재생 시간들로부터 상기 비디오로부터의 콘텐츠에 기초하여 생성되는 조명 효과를 포함하는, 방법.
  66. 제54항 내지 제65항 중 어느 한 항에 있어서, 상기 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은 상기 제1 미디어 아이템의 하나 이상의 에지들을 시각적으로 왜곡시키는 것을 포함하는, 방법.
  67. 제54항 내지 제66항 중 어느 한 항에 있어서,
    상기 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하는 동안:
    상기 하나 이상의 입력 디바이스들을 통해, 상기 제1 미디어 아이템 내의 제1 위치에 대응하는 사용자 시선을 검출하고;
    상기 제1 미디어 아이템 내의 상기 제1 위치에 대응하는 상기 사용자 시선을 검출하는 것에 응답하여, 상기 제1 미디어 아이템의 적어도 일부분이 후방으로 이동하는 것을 디스플레이하는 단계를 추가로 포함하는, 방법.
  68. 제54항 내지 제67항 중 어느 한 항에 있어서, 상기 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은 상기 제1 미디어 아이템의 하나 이상의 에지들을 블러링하는 것을 포함하는, 방법.
  69. 제54항 내지 제68항 중 어느 한 항에 있어서,
    상기 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은,
    상기 제1 미디어 아이템으로부터 연장되는 제1 세트의 광 유출 조명 효과들로 상기 제1 미디어 아이템을 디스플레이하는 것; 및
    상기 제1 세트의 광 유출 조명 효과들과 동시에, 하나 이상의 추가 조명 효과들로 디스플레이하는 것을 포함하고;
    상기 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은,
    상기 하나 이상의 추가 조명 효과들을 적용하지 않고서, 상기 제1 미디어 아이템으로부터 연장되는 제2 세트의 광 유출 조명 효과들로 상기 제1 미디어 아이템을 디스플레이하는 것을 포함하는, 방법.
  70. 제54항 내지 제69항 중 어느 한 항에 있어서, 상기 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은 연속 에지들을 갖는 3차원 형상 내에 상기 제1 미디어 아이템을 디스플레이하는 것을 포함하는, 방법.
  71. 제54항 내지 제70항 중 어느 한 항에 있어서, 연속 에지들을 갖는 상기 3차원 형상은 만곡 전방 표면 및 만곡 후방 표면을 포함하는, 방법.
  72. 제54항 내지 제71항 중 어느 한 항에 있어서, 연속 에지들을 갖는 상기 3차원 형상은 하나 이상의 굴절 에지들 - 상기 하나 이상의 굴절 에지들은 상기 하나 이상의 굴절 에지들로부터 방출되는 광에 굴절 특성들을 적용함 - 을 갖는, 방법.
  73. 제54항 내지 제72항 중 어느 한 항에 있어서, 상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 상기 결정은 상기 제1 미디어 아이템이 2개의 상이한 카메라들로부터 동일한 시간에 캡처된 미디어를 포함하는 입체 미디어 아이템이라는 결정인, 방법.
  74. 제54항 내지 제73항 중 어느 한 항에 있어서,
    상기 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하는 것은 상기 제1 미디어 아이템의 외부 경계들의 외측에 하나 이상의 제어부들을 디스플레이하는 것을 포함하는, 방법.
  75. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램들은 제54항 내지 제74항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  76. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    하나 이상의 프로세서들; 및
    상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은 제54항 내지 제74항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는, 컴퓨터 시스템.
  77. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    제54항 내지 제74항 중 어느 한 항의 방법을 수행하기 위한 수단을 포함하는, 컴퓨터 시스템.
  78. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램들은,
    상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고;
    상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하기 위한 명령어들을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  79. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    하나 이상의 프로세서들; 및
    상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은,
    상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고;
    상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하기 위한 명령어들을 포함하는, 컴퓨터 시스템.
  80. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템으로서,
    상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한 수단; 및
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고;
    상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하기 위한 수단을 포함하는, 컴퓨터 시스템.
  81. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하는 컴퓨터 프로그램 제품으로서, 상기 하나 이상의 프로그램들은,
    상기 하나 이상의 입력 디바이스들을 통해, 제1 미디어 아이템의 선택에 대응하는 하나 이상의 사용자 입력들을 검출하기 위한; 그리고
    상기 제1 미디어 아이템의 선택에 대응하는 상기 하나 이상의 사용자 입력들을 검출하는 것에 응답하여:
    상기 제1 미디어 아이템이 각자의 유형의 깊이 정보를 포함하는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 제1 방식으로 상기 제1 미디어 아이템을 디스플레이하고;
    상기 제1 미디어 아이템이 상기 각자의 유형의 깊이 정보를 포함하지 않는 미디어 아이템이라는 결정에 따라, 상기 디스플레이 생성 컴포넌트를 통해, 상기 제1 방식과는 상이한 제2 방식으로 상기 제1 미디어 아이템을 디스플레이하기 위한 명령어들을 포함하는, 컴퓨터 프로그램 제품.
  82. 방법으로서,
    디스플레이 생성 컴포넌트와 통신하는 컴퓨터 시스템에서,
    상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하는 단계를 포함하고, 상기 사용자 인터페이스는,
    적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및
    적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함하는, 방법.
  83. 제82항에 있어서, 상기 입체 미디어 아이템은 한 세트의 카메라들로부터 캡처되었고, 상기 한 세트의 카메라들 중 제1 카메라는 물리적 환경의 제1 관점을 캡처하고, 상기 한 세트의 카메라들 중 제2 카메라는 상기 물리적 환경의 상기 제1 관점과는 상이한 제2 관점을 캡처하며, 상기 입체 미디어 아이템의 제1 표현을 디스플레이하는 것은,
    상기 디스플레이 생성 컴포넌트를 통해, 상기 물리적 환경의 제1 관점을 사용자의 제1 눈에 대해 디스플레이하고 상기 사용자의 제2 눈에 대해 디스플레이하지 않는 것; 및
    상기 디스플레이 생성 컴포넌트를 통해, 상기 제2 관점을 상기 사용자의 제2 눈에 대해 디스플레이하고 상기 사용자의 제1 눈에 대해 디스플레이하지 않는 것을 포함하는, 방법.
  84. 제82항 또는 제83항에 있어서,
    상기 입체 미디어 아이템의 제1 표현을 디스플레이하는 동안, 사용자의 시점의 제1 변경을 검출하는 단계; 및
    상기 사용자의 시점의 제1 변경을 검출하는 것에 응답하여, 상기 사용자의 시점의 제1 변경에 기초하여 상기 입체 미디어 아이템의 제1 표현의 외관을 변경하는 단계를 추가로 포함하는, 방법.
  85. 제84항에 있어서,
    상기 입체 미디어 아이템의 제1 표현의 외관을 변경하기 전, 상기 시각적 효과는 상기 입체 미디어 아이템의 제1 표현의 제1 부분을 가리고;
    상기 입체 미디어 아이템의 제1 표현의 외관을 변경하는 것은 상기 시각적 효과가 상기 제1 부분과는 상이한 상기 입체 미디어 아이템의 제1 표현의 제2 부분을 가리도록 상기 시각적 효과를 수정하는 것을 포함하는, 방법.
  86. 제84항 또는 제85항에 있어서, 상기 입체 미디어 아이템의 제1 표현의 외관을 변경하는 것은,
    제1 방식으로 사용자의 좌측 눈에 대해 디스플레이되고 상기 사용자의 우측 눈에 대해 디스플레이되지 않는 상기 입체 미디어 아이템의 제1 표현의 외관을 변경하는 것; 및
    상기 제1 방식과는 상이한 제2 방식으로 상기 사용자의 우측 눈에 대해 디스플레이되고 상기 사용자의 좌측 눈에 대해 디스플레이되지 않는 상기 제1 입체 미디어 아이템의 제1 표현의 외관을 변경하는 것을 포함하는, 방법.
  87. 제82항 내지 제86항 중 어느 한 항에 있어서, 상기 시각적 효과는 상기 시각적 효과가 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장됨에 따라 복수의 값들을 통해 감소하는 시각적 특성을 갖는, 방법.
  88. 제87항에 있어서, 상기 입체 미디어의 제1 표현은 상기 입체 미디어 아이템의 제1 표현의 제1 에지에 콘텐츠를 포함하고, 상기 시각적 효과는 상기 입체 미디어 아이템의 제1 표현의 제1 에지에 있는 상기 콘텐츠의 블러인, 방법.
  89. 제82항 내지 제88항 중 어느 한 항에 있어서, 상기 시각적 효과는 상기 입체 미디어 아이템의 제1 표현의 제1 에지 및 제2 에지 상에 디스플레이되고, 상기 방법은,
    상기 입체 미디어 아이템의 제1 표현을 디스플레이하는 동안, 상기 사용자의 시점의 제2 변경을 검출하는 단계 - 상기 사용자의 시점의 제2 변경은 상기 입체 미디어 아이템의 제1 표현의 디스플레이에 대한 상기 사용자의 시점의 각도의 변경을 포함함 -; 및
    상기 사용자의 시점의 제2 변경을 검출하는 것에 응답하여:
    상기 사용자의 시점의 제2 변경이 제1 방향으로 있다는 결정에 따라, 적어도 상기 입체 미디어 아이템의 제1 표현의 제2 에지에 대한 상기 시각적 효과의 크기를 증가시키고;
    상기 사용자의 시점의 제2 변경이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지에 대한 상기 시각적 효과의 크기를 증가시키는 단계를 추가로 포함하는, 방법.
  90. 제82항 내지 제89항 중 어느 한 항에 있어서, 상기 사용자 인터페이스를 디스플레이하는 것은 블러 영역을 디스플레이하는 것을 포함하고, 상기 입체 미디어 아이템은 제1 복수의 에지들을 포함하고,
    상기 입체 미디어 아이템의 제1 복수의 에지들이 제1 콘텐츠를 포함한다는 결정에 따라, 상기 블러 영역은 상기 제1 콘텐츠의 블러 표현을 포함하고, 상기 제1 콘텐츠의 블러 표현은 상기 제1 콘텐츠의 외삽(extrapolation)에 기초하고;
    상기 입체 미디어 아이템의 제1 복수의 에지들이 제2 콘텐츠를 포함한다는 결정에 따라, 상기 블러 영역은 상기 제2 콘텐츠의 블러 표현을 포함하고, 상기 제2 콘텐츠의 블러 표현은 상기 제2 콘텐츠의 외삽에 기초하는, 방법.
  91. 제82항 내지 제90항 중 어느 한 항에 있어서, 상기 입체 미디어 아이템의 제1 표현은 비네트 효과(vignette effect)로 디스플레이되는, 방법.
  92. 제82항 내지 제91항 중 어느 한 항에 있어서, 상기 사용자 인터페이스를 디스플레이하는 것은 가상 포털을 디스플레이하는 것을 포함하고, 상기 입체 미디어 아이템의 제1 표현은 상기 가상 포털 내에 디스플레이되는, 방법.
  93. 제92항에 있어서, 상기 입체 미디어 아이템의 제1 표현은 전경 부분 및 배경 부분을 포함하고; 상기 방법은,
    상기 입체 미디어 아이템의 제1 표현을 디스플레이하는 동안, 상기 사용자의 시점의 제3 변경을 검출하는 단계; 및
    상기 사용자의 시점의 제3 변경을 검출하는 것에 응답하여, 상기 디스플레이 생성 컴포넌트를 통해, 상기 사용자의 시점의 제3 변경에 기초하여 상기 입체 미디어 아이템의 제1 표현의 전경 부분이 상기 입체 미디어 아이템의 제1 표현의 배경 부분에 대해 이동하는 것을 디스플레이하는 단계를 추가로 포함하는, 방법.
  94. 제91항 내지 제93항 중 어느 한 항에 있어서, 상기 가상 포털을 디스플레이하는 것은 사용자의 제1 시점으로부터 멀리 제1 거리에 있는 물리적 환경의 제1 표현 내의 제1 위치에 상기 가상 포털의 제1 부분을 디스플레이하는 것을 포함하고, 상기 입체 미디어 아이템의 제1 표현을 디스플레이하는 것은 상기 사용자의 제1 시점으로부터 멀리, 상기 제1 거리보다 먼 제2 거리에 있는 상기 물리적 환경의 제1 표현 내의 제2 위치에 상기 입체 미디어 아이템의 제1 표현을 디스플레이하는 것을 포함하는, 방법.
  95. 제91항 내지 제94항 중 어느 한 항에 있어서, 상기 가상 포털은 일정 양의 두께를 갖는 3차원 가상 객체이고, 사용자에 대해 디스플레이되는 상기 일정 양의 두께는 상기 가상 포털의 디스플레이에 대한 상기 사용자의 시점의 각도와 직접 상관되는, 방법.
  96. 제82항 내지 제95항 중 어느 한 항에 있어서, 상기 입체 미디어 아이템의 제1 표현을 디스플레이하는 것은 상기 입체 미디어 아이템의 제1 표현의 제1 에지에 경면 효과(specular effect)를 디스플레이하는 것을 포함하는, 방법.
  97. 제82항 내지 제96항 중 어느 한 항에 있어서, 상기 입체 미디어 아이템의 제1 표현은 상기 물리적 환경의 제2 표현 내의 제1 위치에 디스플레이되고, 상기 제1 위치는 사용자의 제1 시점으로부터 멀리 제1 거리에 있고, 상기 방법은,
    상기 물리적 환경의 제2 표현 내의 상기 제1 위치에 상기 입체 미디어 아이템의 제1 표현을 디스플레이하는 동안, 몰입형 외관으로 상기 입체 미디어 아이템을 디스플레이하라는 요청을 검출하는 단계; 및
    상기 몰입형 외관으로 상기 입체 미디어 아이템의 제1 표현을 디스플레이하라는 상기 요청을 검출하는 것에 응답하여:
    상기 물리적 환경의 제2 표현 내의 제2 위치로부터 상기 입체 미디어 아이템의 제1 표현을 디스플레이하고 - 상기 제2 위치는 상기 사용자의 제1 시점으로부터 멀리, 상기 제1 거리보다 가까운 제2 거리에 있음 -;
    상기 물리적 환경의 제2 표현 내의 상기 제1 위치와 상기 물리적 환경의 제2 표현 내의 상기 제2 위치 사이의 경로에 평행한 상기 입체 미디어 아이템의 제1 표현의 평면을 따라 상기 입체 미디어 아이템의 제1 표현의 크기를 증가시키는 단계를 추가로 포함하는, 방법.
  98. 제97항에 있어서, 상기 입체 미디어 아이템의 제1 표현에 포함된 콘텐츠는 공간 미디어가 캡처되었을 때 캡처된 객체들의 스케일에 대한 미리결정된 관계를 갖는 각자의 스케일로 디스플레이되고, 상기 입체 미디어 아이템의 제1 표현은 상기 몰입형 외관으로 디스플레이되는, 방법.
  99. 제97항 또는 제98항에 있어서, 상기 몰입형 외관으로 상기 입체 미디어 아이템의 제1 표현을 디스플레이하라는 상기 요청을 검출하기 전, 상기 입체 미디어 아이템의 제1 표현을 디스플레이하는 것은 비몰입형 외관으로 상기 입체 미디어 아이템의 제1 표현을 디스플레이하는 것을 포함하고,
    상기 입체 미디어 아이템의 제1 표현은, 상기 몰입형 외관으로 디스플레이될 때, 사용자의 제2 시점의 제1 각도 범위를 점유하고;
    상기 입체 미디어 아이템의 제1 표현은, 상기 비몰입형 외관으로 디스플레이될 때, 상기 사용자의 제2 시점의 제2 각도 범위를 점유하고, 상기 제2 각도 범위는 상기 제1 각도 범위보다 작은, 방법.
  100. 제97항 내지 제99항 중 어느 한 항에 있어서, 상기 입체 미디어 아이템은 제2 복수의 에지들을 포함하고, 상기 방법은,
    상기 입체 미디어 아이템의 제1 표현이 상기 몰입형 외관으로 디스플레이되는 동안:
    상기 입체 미디어 아이템의 제2 복수의 에지들이 제3 콘텐츠를 포함한다는 결정에 따라, 상기 입체 미디어 아이템의 제1 표현의 제1 에지에 상기 제3 콘텐츠의 표현을 디스플레이하고 - 상기 제3 콘텐츠의 표현은 상기 제3 콘텐츠의 외삽에 기초함 -; 및
    상기 입체 미디어 아이템의 제2 복수의 에지들이 제4 콘텐츠를 포함한다는 결정에 따라, 상기 입체 미디어 아이템의 제1 표현의 제1 에지에 상기 제4 콘텐츠의 표현을 디스플레이하는 - 상기 제4 콘텐츠의 표현은 상기 제4 콘텐츠의 외삽에 기초함 - 단계를 추가로 포함하는, 방법.
  101. 제82항 내지 제100항 중 어느 한 항에 있어서,
    비입체 미디어 아이템의 표현을 디스플레이하는 단계를 추가로 포함하고, 상기 비입체 미디어 아이템은 상기 시각적 효과 없이 디스플레이되는, 방법.
  102. 제82항 내지 제101항 중 어느 한 항에 있어서,
    상기 입체 미디어 아이템의 제1 표현과는 상이한 제2 입체 미디어 아이템의 제2 표현을 디스플레이하는 단계를 추가로 포함하고, 상기 제2 입체 미디어 아이템의 제2 표현은 제2 시각적 효과로 디스플레이되고, 상기 제2 시각적 효과는 적어도 상기 제2 입체 미디어 아이템의 제2 표현의 제1 부분을 가리고 적어도 상기 제2 입체 미디어 아이템의 제2 표현의 제1 에지로부터 상기 제2 입체 미디어 아이템의 제2 표현의 내부를 향하여 내향으로 연장되는, 방법.
  103. 디스플레이 생성 컴포넌트와 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램들은 제82항 내지 제102항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  104. 디스플레이 생성 컴포넌트와 통신하도록 구성된 컴퓨터 시스템으로서,
    하나 이상의 프로세서들; 및
    상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은 제82항 내지 제102항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는, 컴퓨터 시스템.
  105. 디스플레이 생성 컴포넌트와 통신하도록 구성된 컴퓨터 시스템으로서,
    제82항 내지 제102항 중 어느 한 항의 방법을 수행하기 위한 수단을 포함하는, 컴퓨터 시스템.
  106. 디스플레이 생성 컴포넌트와 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하는 컴퓨터 프로그램 제품으로서, 상기 하나 이상의 프로그램들은 제82항 내지 제102항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는, 컴퓨터 프로그램 제품.
  107. 디스플레이 생성 컴포넌트와 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램들은,
    상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하기 위한 명령어들을 포함하고, 상기 사용자 인터페이스는,
    적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및
    적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  108. 디스플레이 생성 컴포넌트와 통신하도록 구성된 컴퓨터 시스템으로서,
    하나 이상의 프로세서들; 및
    상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 저장하는 메모리를 포함하며, 상기 하나 이상의 프로그램들은,
    상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하기 위한 명령어들을 포함하고, 상기 사용자 인터페이스는,
    적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및
    적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함하는, 컴퓨터 시스템.
  109. 디스플레이 생성 컴포넌트 및 하나 이상의 입력 디바이스들과 통신하도록 구성된 컴퓨터 시스템으로서,
    상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하기 위한 수단을 포함하고, 상기 사용자 인터페이스는,
    적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및
    적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함하는, 컴퓨터 시스템.
  110. 디스플레이 생성 컴포넌트와 통신하는 컴퓨터 시스템의 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하는 컴퓨터 프로그램 제품으로서, 상기 하나 이상의 프로그램들은,
    상기 디스플레이 생성 컴포넌트를 통해, 사용자 인터페이스를 디스플레이하기 위한 명령어들을 포함하고, 상기 사용자 인터페이스는,
    적어도 제1 에지를 포함하는 입체 미디어 아이템의 제1 표현; 및
    적어도 상기 입체 미디어 아이템의 제1 부분을 가리고 적어도 상기 입체 미디어 아이템의 제1 표현의 제1 에지로부터 상기 입체 미디어 아이템의 제1 표현의 내부를 향하여 내향으로 연장되는 시각적 효과를 포함하는, 컴퓨터 프로그램 제품.
KR1020247009664A 2021-09-24 2022-09-24 미디어 및 3차원 환경들과의 상호작용을 위한 디바이스들, 방법들 및 그래픽 사용자 인터페이스들 KR20240047458A (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202163248222P 2021-09-24 2021-09-24
US63/248,222 2021-09-24
US202263409695P 2022-09-23 2022-09-23
US202217952206A 2022-09-23 2022-09-23
US63/409,695 2022-09-23
US17/952,206 2022-09-23
PCT/US2022/044637 WO2023049418A2 (en) 2021-09-24 2022-09-24 Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments

Publications (1)

Publication Number Publication Date
KR20240047458A true KR20240047458A (ko) 2024-04-12

Family

ID=83693149

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020247009664A KR20240047458A (ko) 2021-09-24 2022-09-24 미디어 및 3차원 환경들과의 상호작용을 위한 디바이스들, 방법들 및 그래픽 사용자 인터페이스들

Country Status (4)

Country Link
EP (1) EP4384889A2 (ko)
KR (1) KR20240047458A (ko)
AU (1) AU2022352756A1 (ko)
WO (1) WO2023049418A2 (ko)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130036380A1 (en) * 2011-08-02 2013-02-07 Apple Inc. Graphical User Interface for Tracking and Displaying Views of an Application
US20140195918A1 (en) * 2013-01-07 2014-07-10 Steven Friedlander Eye tracking user interface
US9766702B2 (en) * 2014-06-19 2017-09-19 Apple Inc. User detection by a computing device
US10775882B2 (en) * 2016-01-21 2020-09-15 Microsoft Technology Licensing, Llc Implicitly adaptive eye-tracking user interface
JP6966443B2 (ja) * 2016-07-19 2021-11-17 富士フイルム株式会社 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
CN111052046B (zh) * 2017-09-29 2022-06-03 苹果公司 使用现实界面访问外部设备的功能

Also Published As

Publication number Publication date
WO2023049418A3 (en) 2023-05-04
AU2022352756A1 (en) 2024-04-04
WO2023049418A2 (en) 2023-03-30
EP4384889A2 (en) 2024-06-19

Similar Documents

Publication Publication Date Title
US11768579B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11995230B2 (en) Methods for presenting and sharing content in an environment
CN116438505A (zh) 用于操纵环境中的对象的方法
US11720171B2 (en) Methods for navigating user interfaces
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
US20230384907A1 (en) Methods for relative manipulation of a three-dimensional environment
US20230106627A1 (en) Devices, Methods, And Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20230252737A1 (en) Devices, methods, and graphical user interfaces for interacting with virtual objects using hand gestures
US20240036699A1 (en) Devices, Methods, and Graphical User Interfaces for Processing Inputs to a Three-Dimensional Environment
US20240028177A1 (en) Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments
US20240152245A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments
US20240094819A1 (en) Devices, methods, and user interfaces for gesture-based interactions
US20230343049A1 (en) Obstructed objects in a three-dimensional environment
US20230334808A1 (en) Methods for displaying, selecting and moving objects and containers in an environment
US20230221833A1 (en) Methods for displaying user interface elements relative to media content
KR20240064014A (ko) 가상 환경들에서 가상 객체들을 제시하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
KR20240047458A (ko) 미디어 및 3차원 환경들과의 상호작용을 위한 디바이스들, 방법들 및 그래픽 사용자 인터페이스들
US20240103614A1 (en) Devices, methods, for interacting with graphical user interfaces
US20240256049A1 (en) Devices, methods, and graphical user interfaces for using a cursor to interact with three-dimensional environments
US20240103682A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments
US20240152256A1 (en) Devices, Methods, and Graphical User Interfaces for Tabbed Browsing in Three-Dimensional Environments
US20240094862A1 (en) Devices, Methods, and Graphical User Interfaces for Displaying Shadow and Light Effects in Three-Dimensional Environments
CN117940880A (zh) 用于与媒体和三维环境交互的设备、方法和图形用户界面
WO2024064388A1 (en) Devices, methods, for interacting with graphical user interfaces
WO2023154219A1 (en) Devices, methods, and graphical user interfaces for interacting with virtual objects using hand gestures

Legal Events

Date Code Title Description
A201 Request for examination