KR20180114172A - 컨텐츠를 표시하기 위한 시스템 및 방법 - Google Patents

컨텐츠를 표시하기 위한 시스템 및 방법 Download PDF

Info

Publication number
KR20180114172A
KR20180114172A KR1020187027022A KR20187027022A KR20180114172A KR 20180114172 A KR20180114172 A KR 20180114172A KR 1020187027022 A KR1020187027022 A KR 1020187027022A KR 20187027022 A KR20187027022 A KR 20187027022A KR 20180114172 A KR20180114172 A KR 20180114172A
Authority
KR
South Korea
Prior art keywords
computing device
scene
viewport
viewport interface
cause
Prior art date
Application number
KR1020187027022A
Other languages
English (en)
Inventor
조이스 수
찰스 매튜 서톤
재이미 레오나르도 로비라
애닝 후
체탄 패러그 굽타
클리프 워렌
Original Assignee
페이스북, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 페이스북, 인크. filed Critical 페이스북, 인크.
Publication of KR20180114172A publication Critical patent/KR20180114172A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • H04N5/23293
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

시스템, 방법 및 비일시적 컴퓨터 판독가능 매체는 컨텐츠 아이템에 접근하기 위한 적어도 하나의 요청을 결정할 수 있고, 컨텐츠 아이템은 상이한 위치의 세트로부터 적어도 하나의 장면을 캡처하는 카메라 피드의 세트를 사용하여 구성된다. 컨텐츠 아이템의 재생이 표시되는 컴퓨팅 장치의 디스플레이 스크린 상에 뷰포트 인터페이스가 제공될 수 있고, 뷰포트 인터페이스는 컴퓨팅 장치를 구동하는 사용자가 i) 장면에 대한 뷰포트의 방향 또는 ii) 뷰포트 인터페이스의 줌 수준을 변경함으로써 적어도 하나의 장면을 가상으로 탐색할 수 있게 하도록 구성된다. 뷰포트 인터페이스에 내비게이션 표시자가 제공될 수 있고, 내비게이션 표시자는 컨텐츠 아이템의 재생 동안 뷰포트 인터페이스의 각 방향 및 줌 수준에 대한 임의의 변경을 시각적으로 표시하도록 구성된다.

Description

컨텐츠를 표시하기 위한 시스템 및 방법
본 기술은 컨텐츠 표시 분야에 관한 것이다. 특히, 본 기술은 컴퓨팅 장치를 통한 컨텐츠 아이템 표시를 위한 기술에 관한 것이다.
오늘날, 사람들은 매우 다양한 목적으로 종종 컴퓨팅 장치(또는 시스템)를 사용한다. 사용자는 그 컴퓨팅 장치를 구동하여, 예컨대 서로 상호작용하고, 컨텐츠를 생성하고, 컨텐츠를 공유하고, 정보에 접근할 수 있다. 종래의 접근법에서, 컨텐츠 아이템(예컨대, 이미지, 비디오, 오디오 파일 등)은 컨텐츠 공유 플랫폼을 통하여 사용가능해질 수 있다. 사용자는 그 컴퓨팅 장치를 구동하여 플랫폼을 통해 컨텐츠 아이템에 접근할 수 있다. 일반적으로, 컨텐츠 아이템은 예컨대 컨텐츠 발행자 및 컨텐츠 공유 플랫폼의 사용자도 포함하여 다양한 엔티티에 의하여 제공 또는 업로드될 수 있다. 일부 예시에서, 컨텐츠 아이템은 카테고리화 및/또는 큐레이팅될 수 있다.
본 발명의 내용 중에 포함되어 있다.
본 명세서의 다양한 실시예는 컨텐츠 아이템에 접근하기 위한 적어도 하나의 요청을 결정하도록 구성된 시스템, 방법 및 비일시적 컴퓨터 판독가능한 매체를 포함할 수 있는데, 컨텐츠 아이템은 상이한 위치의 세트로부터 적어도 하나의 장면을 캡처하는 카메라 피드의 세트를 사용하여 구성된다. 컨텐츠 아이템의 재생이 표시되는 컴퓨팅 장치의 디스플레이 스크린 상에 뷰포트 인터페이스가 제공될 수 있는데, 뷰포트 인터페이스는 컴퓨팅 장치를 구동하는 사용자가 i) 장면에 대한 뷰포트의 방향 또는 ii) 뷰포트 인터페이스의 줌 수준을 변경함으로써 적어도 하나의 장면을 가상으로 탐색할 수 있게 하도록 구성된다. 뷰포트 인터페이스에 내비게이션 표시자가 제공될 수 있는데, 내비게이션 표시자는 컨텐츠 아이템의 재생 동안 뷰포트 인터페이스의 각 방향 및 줌 수준에 대한 임의의 변경을 시각적으로 표시하도록 구성된다.
일부 실시예에서, 시스템, 방법 및 비일시적 컴퓨터 판독가능한 매체는 장면 내의 적어도 하나의 관심 지점의 각 방향을 결정하고 내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 수준을 시각적으로 표시하는데 추가로 적어도 하나의 관심 지점의 각 방향을 시각적으로 표시하도록 야기하도록 구성된다.
일부 실시예에서, 시스템, 방법 및 비일시적 컴퓨터 판독가능한 매체는 컨텐츠 아이템의 재생 동안 장면 내에서 생성되는 적어도 하나의 소리의 각 방향을 결정하고 내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 방향을 시각적으로 표시하는데 추가로 적어도 하나의 소리의 각 방향을 시각적으로 표시하도록 야기하도록 구성된다.
일부 실시예에서, 시스템, 방법 및 비일시적 컴퓨터 판독가능한 매체는 컨텐츠 아이템이 장면 내의 관심 지점의 세트를 가상으로 탐색하기 위한 정보를 명시하는 자동 모드와 연관된다고 결정하고 내비게이션 표시자로 하여금 자동 모드가 활성화되었다고 시각적으로 표시하도록 야기하고 뷰포트 인터페이스로 하여금 자동 모드에 적어도 부분적으로 기반하여 장면을 가상으로 탐색하도록 야기하도록 구성된다.
일부 실시예에서, 자동 모드 정보는 관심 지점의 세트 중 관심 지점들 간을 가상으로 탐색하는 동안 장면 내에서 뷰포트 인터페이스를 안내하기 위한 각 궤적도 명시한다.
일부 실시예에서, 시스템, 방법 및 비일시적 컴퓨터 판독가능한 매체는 컴퓨팅 장치에 의하여, 사용자가 뷰포트 인터페이스의 방향 또는 뷰포트 인터페이스의 줌 수준을 변경하기 위하여 하나 이상의 동작을 수행했다고 결정하고, 자동 모드가 비활성화되도록 야기하고, 뷰포트 인터페이스로 하여금 변경된 방향 또는 줌 수준에 대응하도록 야기하고, 내비게이션 표시자로 하여금 변경된 방향 또는 줌 수준을 시각적으로 표시하도록 야기하도록 구성되는데, 내비게이션 표시자는 더 이상 자동 모드가 활성화되었다고 표시하지 않는다.
일부 실시예에서, 시스템, 방법 및 비일시적 컴퓨터 판독가능한 매체는 사용자가 뷰포트 인터페이스의 방향 또는 줌 수준을 변경하기 위하여 하나 이상의 동작을 수행한 후 임계 기간이 경과했다고 결정하고, 자동 모드가 재활성화되도록 야기하고, 내비게이션 표시자로 하여금 자동 모드가 활성화되었다고 시각적으로 표시하도록 야기하도록 구성된다.
일부 실시예에서, 시스템, 방법 및 비일시적 컴퓨터 판독가능한 매체는 사용자가 뷰포트 인터페이스의 방향 또는 뷰포트 인터페이스의 줌 수준을 변경하기 위하여 하나 이상의 동작을 수행했다고 결정하고, 뷰포트 인터페이스로 하여금 변경된 방향 또는 줌 수준에 대응하도록 야기하고, 내비게이션 표시자로 하여금 뷰포트 인터페이스의 변경된 방향 및 줌 수준을 시각적으로 표시하도록 야기하도록 구성된다.
일부 실시예에서, 시스템, 방법 및 비일시적 컴퓨터 판독가능한 매체는 사용자가 내비게이션 표시자에 대응하는 디스플레이 스크린의 영역 상에 터치 제스처를 수행했다고 결정하고, 뷰포트 인터페이스로 하여금 컨텐츠 아이템의 게시자에 의하여 지정된 방향 및 줌 수준에 대응하도록 야기하도록 구성된다.
일부 실시예에서, 하나 이상의 동작은 적어도 하나의 터치 제스처 또는 장치 제스처를 포함한다.
개시된 기술의 많은 다른 특징, 응용, 실시예 및/또는 변형이 첨부된 도면 및 다음의 상세한 설명으로부터 명백할 것이라는 것을 이해할 것이다. 본 명세서에 서술되는 구조, 시스템, 비일시적 컴퓨터 판독가능한 매체 및 방법의 추가 및/또는 대안적 구현이 개시된 기술의 원리로부터 벗어남 없이 채용될 수 있다.
본 발명에 따른 실시예들은 특히 방법, 저장 매체, 시스템 및 컴퓨터 프로그램 제품에 대한 첨부된 청구항에 개시되고, 한 청구항 카테고리, 예컨대 방법에 언급된 임의의 특징은 다른 청구항 카테고리, 예컨대 시스템에도 청구될 수 있다. 첨부된 청구항의 인용 또는 참조는 형식상의 이유를 위해 선택되었을 뿐이다. 하지만 임의의 선행 청구항으로의 의도적인 참조(특히 다중 인용)에서 야기되는 임의의 주제 또한 청구될 수 있어, 청구항 및 그 특징의 임의의 조합이 첨부된 청구항에서 선택된 인용에 관계 없이 개시되고 청구될 수 있다. 청구될 수 있는 주제는 첨부된 청구항에 나타난 바와 같은 특징의 조합뿐만 아니라 청구항의 특징의 다른 임의의 조합을 포함하는데, 청구항에 언급된 각 특징은 청구항의 임의의 다른 특징 또는 다른 특징의 조합과 조합될 수 있다. 나아가, 임의의 실시예와 본 명세서에 서술되거나 도시된 특징은 별개의 청구항 및/또는 임의의 실시예나 본 명세서에 서술되거나 도시된 특징과의 또는 첨부된 청구항의 임의의 특징과의 조합에 청구될 수 있다.
본 발명의 내용 중에 포함되어 있다.
도 1은 본 명세서의 일실시예에 따른 사용자에게 컨텐츠를 제공하도록 구성된 컨텐츠 제공자 모듈의 예시를 포함하는 시스템의 예시를 도시한다.
도 2는 본 명세서의 일실시예에 따른 컨텐츠 아이템에 접근하기 위한 인터페이스를 제공하도록 구성된 인터페이스 모듈의 예시를 도시한다.
도 3a-f는 본 명세서의 일실시예에 따른 컨텐츠 아이템이 접근될 때 뷰포트 인터페이스에 표시될 수 있는 내비게이션 표시자의 예시를 도시한다.
도 4a-c는 본 명세서의 일실시예에 따른 컨텐츠 아이템이 접근되는 동안 내비게이션 표시자가 표시되는 뷰포트 인터페이스의 예시를 도시한다.
도 5는 본 명세서의 일실시예에 따른 인터페이스를 통해 컨텐츠에 접근하는 내비게이션 표시자를 제공하는 방법의 예시를 도시한다.
도 6은 본 명세서의 일실시예에 따른 다양한 시나리오에서 이용될 수 있는 소셜 네트워킹 시스템의 예시를 포함하는 시스템의 예시의 네트워크도를 도시한다.
도 7은 본 명세서의 일실시예에 따른 다양한 시나리오에서 이용될 수 있는 컴퓨터 시스템 또는 컴퓨팅 장치의 예시를 도시한다.
도면들은 오로지 예시적인 목적을 위해 개시된 기술의 다양한 실시예들을 도시하며, 도면들은 같은 구성요소를 식별하기 위해 같은 참조 번호를 사용한다. 통상의 기술자는 다음의 설명으로부터 도면들에 도시된 구조들 및 방법들의 대안적 실시예가 본 명세서에 기술된, 개시된 기술의 원리로부터 벗어남이 없이 이용될 수 있음을 쉽게 인식할 것이다.
컨텐츠 표시를 위한 접근법
사람들은 매우 다양한 목적으로 컴퓨팅 장치(또는 시스템)를 사용한다. 상술한 바와 같이, 종래의 접근법에서, 사용자는 컴퓨팅 장치를 이용하여 다른 사용자와 컨텐츠 아이템(예컨대, 문서, 이미지, 비디오, 오디오 등)을 공유할 수 있다. 종래의 접근법에서, 컨텐츠 아이템(예컨대, 이미지, 비디오, 오디오 파일 등)은 컨텐츠 공유 플랫폼을 통하여 사용가능해질 수 있다. 사용자는 그 컴퓨팅 장치를 구동하여 플랫폼을 통해 컨텐츠 아이템에 접근할 수 있다. 일반적으로, 컨텐츠 아이템은 예컨대 컨텐츠 발행자 및 컨텐츠 공유 플랫폼의 사용자도 포함하여 다양한 엔티티에 의하여 제공 또는 업로드될 수 있다.
일부 경우에, 사용자는 가상 컨텐츠에 예컨대 그 컴퓨팅 장치, 가상 현실 시스템 및/또는 헤드 마운트 디스플레이의 디스플레이 스크린을 통해 접근할 수 있다. 예컨대, 가상 컨텐츠는 지리적 위치와 같은 장면 및/또는 수행중인 활동을 캡처하는 하나 이상의 비디오 및/또는 이미지를 사용하여 구성될 수 있다. 이러한 장면은 실제 세계로부터 캡처되거나 컴퓨터 생성될 수 있다. 일부 경우에, 가상 컨텐츠가 구성되어 사용자는 가상 컨텐츠에 의해 캡처된 장면 내를 탐색할 수 있다. 따라서, 가상 컨텐츠에 접근함으로써, 예컨대 마치 사용자가 주어진 장소에 물리적으로 존재하거나 및/또는 장면에 표현되는 활동을 물리적으로 수행하는 것처럼 사용자는 캡처된 장면을 가상으로 경험 및 탐색할 수 있다.
가상 컨텐츠는 예컨대, 장면의 360도 시야를 캡처하는 구형 비디오일 수 있다. 구형 비디오는 장면의 360도 시야를 캡처하기 위하여 상이한 장소 및/또는 위치에 배치된 카메라에 의해 캡처된 다양한 비디오 스트림 또는 피드를 함께 스티칭함으로써 생성될 수 있다. 함께 스티칭되면, 사용자는 일부 각도에서 구형 비디오의 부분을 열람하기 위하여 구형 비디오를 접근 또는 재생할 수 있다. 일반적으로, 구형 비디오에 접근하는 동안, 사용자는 줌 및 뷰포트의 방향(예컨대, 피치, 요우, 롤)을 변경하여 구형 비디오에 의해 캡처된 장면의 다른 부분에 접근할 수 있다. 가상 컨텐츠의 특성 상, 사용자는 뷰포트의 줌 단계 및/또는 방향에 대한 변경 사항을 계속 추적하는데 어려움이 있을 수 있다. 이러한 변경은 가상 컨텐츠의 게시자에 의해 명시된 가상 컨텐츠의 의도된 줌 수준 및/또는 뷰포트 방향으로부터 벗어날 수 있다. 일부 경우에, 줌 수준 및/또는 뷰포트 방향에 대한 변경을 추적하지 못하면 사용자가 방향을 잃을 수 있고 이러한 방향 상실은 사용자 경험을 저하할 수 있다. 따라서, 이러한 종래의 접근법은 이들 및 컴퓨터 기술에서 발생하는 다른 문제를 다루는데 효과적이지 않을 수 있다.
향상된 접근법은 종래의 접근법과 연관된 상기 및 다른 단점을 극복한다. 다양한 실시예에서, 내비게이션 요소 또는 표시자는 가상 컨텐츠가 표시되는 인터페이스 또는 뷰포트에 제공될 수 있다. 사용자가 가상 컨텐츠와 상호작용함에 따라 내비게이션 표시자는 자동으로 업데이트되어 i) 가상 컨텐츠에 의해 캡처된 장면 내의 뷰포트의 방향 또는 방위 및/또는 ii) 뷰포트의 줌 수준을 시각적으로 표시할 수 있다. 이러한 실시예에서, 가상 컨텐츠에 접근하는 사용자는 내비게이션 표시자에 의존하여 시청 경험 동안 임의의 주어진 포인트에서 방향 및/또는 줌 수준을 결정할 수 있다. 그 결과, 사용자는 컨텐츠에 접근하는 동안 방향을 잃을 가능성이 적다.
도 1은 본 명세서의 일실시예에 따른 사용자에게 컨텐츠 아이템을 제공하도록 구성된 컨텐츠 제공자 모듈(102)의 예시를 포함하는 시스템(100)의 예시를 도시한다. 도 1의 예시에 도시된 바와 같이, 컨텐츠 제공자 모듈(102)은 인터페이스 모듈(104) 및 컨텐츠 모듈(106)을 포함할 수 있다. 일부 예시에서, 시스템(100)의 예시는 적어도 하나의 데이터 스토어(108)를 포함할 수 있다. 이 도면 및 본 명세서의 모든 도면에 도시된 컴포넌트(예컨대, 모듈, 요소 등)는 오직 예시적인 것이고, 다른 구현은 추가적이거나, 더 적거나, 통합되거나, 상이한 컴포넌트를 포함할 수 있다. 일부 컴포넌트는 관련 세부사항을 모호하게 하지 않기 위해 도시되지 않을 수 있다.
일부 실시예에서, 컨텐츠 제공자 모듈(102)은 일부 또는 전체로서, 소프트웨어, 하드웨어 또는 그들의 임의의 조합으로 구현될 수 있다. 일반적으로, 본 명세서에서 논의되는 모듈은 소프트웨어, 하드웨어 또는 그들의 임의의 조합과 연관될 수 있다. 일부 구현에서, 모듈의 하나 이상의 기능, 작업 및/또는 동작은 소프트웨어 루틴, 소프트웨어 프로세스, 하드웨어 및/또는 그들의 임의의 조합에 의해 이행 또는 수행될 수 있다. 일부 경우에, 컨텐츠 제공자 모듈(102)은 사용자 컴퓨팅 장치나 클라이언트 컴퓨팅 시스템과 같은 하나 이상의 컴퓨팅 장치 또는 시스템 상에서 실행되는 소프트웨어로 부분적 또는 전체로 구현될 수 있다. 예를 들어, 컨텐츠 제공자 모듈(102) 또는 그 적어도 일부는 사용자 컴퓨팅 장치 또는 클라이언트 컴퓨팅 시스템, 예컨대 도 6의 사용자 장치(610) 상에서 실행되는 애플리케이션(예컨대, 앱), 프로그램 또는 애플릿 등으로서 또는 그 내부에 구현될 수 있다. 나아가, 컨텐츠 제공자 모듈(102), 또는 적어도 그 일부는 네트워크 서버나 클라우드 서버와 같은 하나 이상의 서버를 포함하는 하나 이상의 컴퓨팅 장치 또는 시스템을 사용하여 구현될 수 있다. 일부 예에서, 컨텐츠 제공자 모듈(102)은 부분 또는 전체로, 도 6의 소셜 네트워킹 시스템(630)과 같은 소셜 네트워킹 시스템(또는 서비스) 내에 구현되거나 함께 동작하도록 구성될 수 있다. 다양한 변형 또는 다른 가능성이 있을 수 있다는 것을 이해하여야 한다.
다양한 실시예에서, 컨텐츠 제공자 모듈(102)은 인터페이스 모듈(104) 및 컨텐츠 모듈(106)을 이용하여 사용자에게 컨텐츠 아이템을 제공할 수 있다. 인터페이스 모듈(104)은 컨텐츠 아이템이 표시(예컨대, 스트리밍)될 수 있는 뷰포트(예컨대, 그래픽 사용자 인터페이스)를 제공하도록 구성될 수 있다. 예를 들어, 뷰포트는 사용자가 구동중인 컴퓨팅 방지 상에서 실행되는 소프트웨어 애플리케이션을 통하여 제공될 수 있고 뷰포트는 컴퓨팅 장치의 디스플레이 스크린을 통해 표시될 수 있다. 사용자는 예컨대, 입력 장치를 통하여 또는 디스플레이 스크린을 통하여 터치 스크린 제스처를 수행함으로써 뷰포트와 상호작용할 수 있다. 인터페이스 모듈(104)에 관한 세부 사항은 도 2와 관련되어 후술된다.
컨텐츠 모듈(106)은 인터페이스 모듈(104)이 제공하는 인터페이스를 통해 표시될 수 있는 다양한 타입의 컨텐츠 아이템을 제공하도록 구성될 수 있다. 다양한 실시예에서, 컨텐츠 모듈(106)은 장면(예컨대, 지리적 위치 및/또는 수행되는 활동)을 캡처하는 하나 이상의 비디오 및/또는 이미지를 사용하여 구성될 수 있는 가상 컨텐츠를 제공할 수 있다. 이러한 장면은 실제 세계로부터 캡처되거나 컴퓨터 생성될 수 있다. 가상 컨텐츠는 예컨대, 장면의 360도 시야를 캡처하는 구형 비디오일 수 있다. 나아가, 가상 컨텐츠는 주어진 순간에 표시될 수 있는 뷰포트보다 큰 임의의 크기인 컨텐츠를 포함할 수 있다. 이러한 경우에, 뷰포트는 뷰포트 위치가 변경됨에 따라 컨텐츠의 상이한 위치를 표시할 수 있다. 일례로, 가상 컨텐츠는 예컨대 몇몇 예를 들자면, 직선 스티칭, 구형 스티칭, 큐브 스티칭을 포함하여 일반적으로 알려진 이미지 스티칭 기술을 사용하여 생성될 수 있다. 다른 예시로, 가상 컨텐츠는 관심 지점과 같은 장면의 360도 시야를 캡처하는 구형 비디오일 수 있다. 가상 컨텐츠의 일부 다른 예시는 모노스코프 360도 시야를 사용하여 구성된 비디오, 스테레오스코프 180도 시야를 사용하여 구성된 비디오 등을 포함할 수 있다. 구형 비디오는 장면의 360도 시야를 캡처하기 위하여 상이한 장소 및/또는 위치에 배치된 카메라에 의해 캡처된 다양한 비디오 스트림 또는 피드를 함께 스티칭함으로써 생성될 수 있다. 이러한 비디오 스트림은 구형 비디오의 다양한 각도(예컨대, 0도, 30도, 60도 등)에 대해 미리 결정될 수 있다. 함께 스티칭되면, 사용자는 일부 각도에서 구형 비디오의 부분을 열람하기 위하여 구형 비디오를 접근 또는 재생할 수 있다. 사용자에게 보여지는 구형 비디오의 부분은 3차원 공간에서 사용자의 뷰포트의 위치 및 방향에 기반하여 결정될 수 있다.
일부 실시예에서, 컨텐츠 제공자 모듈(102)은 예시적인 시스템(100)의 적어도 하나의 데이터 스토어(108)와 통신 및/또는 동작하도록 구성될 수 있다. 적어도 하나의 데이터 스토어(108)는 다양한 타입의 데이터를 저장 및 유지하도록 구성될 수 있다. 다양한 실시예에서, 적어도 하나의 데이터 스토어(108)는 컨텐츠 제공자 모듈(102)의 기능 및 동작과 관련된 데이터를 저장할 수 있다. 이러한 데이터의 일례는 인터페이스 모듈(104)이 제공하는 인터페이스를 통해 접근 가능한 가상 컨텐츠 아이템이다. 일부 구현에서, 적어도 하나의 데이터 스토어(108)는 소셜 네트워킹 시스템(예컨대, 도 6의 소셜 네트워킹 시스템(630))과 연관된 정보를 저장할 수 있다. 소셜 네트워킹 시스템과 연관된 정보는 사용자에 대한 데이터, 소셜 연결, 소셜 상호작용, 위치, 지오펜스 영역, 지도, 장소, 이벤트, 페이지, 그룹, 게시물, 통신, 컨텐츠, 피드, 계정 설정, 사생활 설정, 소셜 그래프 및 다양한 다른 타입의 데이터를 포함할 수 있다. 일부 구현에서, 적어도 하나의 데이터 스토어(108)는 사용자와 연관된 정보, 예컨대 사용자 식별자, 사용자 정보, 프로필 정보, 사용자 고유 설정, 사용자에 의해 생성 또는 게시된 컨텐츠 및 다양한 다른 타입의 사용자 데이터를 저장할 수 있다. 많은 변형 또는 다른 가능성이 있을 수 있음을 이해할 것이다.
도 2는 본 명세서의 일실시예에 따른 컨텐츠 아이템에 접근하기 위한 인터페이스를 제공하도록 구성된 인터페이스 모듈(202)의 예시(200)를 도시한다. 일부 실시예에서, 도 1의 인터페이스 모듈(104)은 인터페이스 모듈(202)로 구현될 수 있다. 도 2의 예시에 도시된 바와 같이, 인터페이스 모듈(202)은 뷰 방향 모듈(204), 뷰 줌 수준 모듈(206), 표시자 모듈(208) 및 관심 지점 모듈(210)을 포함할 수 있다.
상술한 바와 같이, 인터페이스 모듈(202)은 컨텐츠 아이템(예컨대, 가상 컨텐츠 아이템)이 표시 및 접근될 수 있는 뷰포트(예컨대, 그래픽 사용자 인터페이스)를 제공하도록 구성될 수 있다. 다양한 실시예에서, 사용자는 사용자에 의해 동작 중인 컴퓨팅 장치를 사용하여 도 1의 컨텐츠 모듈(106)을 통하여 제공되는 가상 컨텐츠 아이템에 접근할 수 있다. 컴퓨팅 장치는 예컨대, 휴대 전화, 태블릿, 가상 현실 시스템 및/또는 헤드 마운트 디스플레이를 포함하여 컨텐츠를 처리 및 표시할 수 있는 임의의 장치일 수 있다. 접근되면, 인터페이스 모듈(202)은 컴퓨팅 장치의 디스플레이를 통하여 가상 컨텐츠 아이템을 표시할 수 있다.
가상 컨텐츠 아이템이 처음 접근될 때, 컴퓨팅 장치와 연관된 뷰포트는 가상 컨텐츠 아이템의 장면의 특정 부분을 디스플레이할 수 있다. 보여지는 부분은 장면과 관련하여 뷰포트의 위치 및/또는 방향(예컨대, 피치, 요우, 롤)에 기반할 수 있다. 일부 실시예에서, 사용자는 가상 컨텐츠 아이템에 의해 캡처되는 장면(들)을 가상으로 탐색함으로써 장면의 상이한 부분을 열람할 수 있다. 예를 들어, 사용자는 뷰포트의 위치 및/또는 방향을 가상으로 변경함으로써 뷰포트를 변경 또는 조정할 수 있다. 뷰포트에 대한 이러한 변경은 사용자가 가상 컨텐츠 아이템과 상호작용함에 따라 뷰 방향 모듈(204)에 의해 실시간으로 결정될 수 있다. 다른 예시에서, 사용자는 주어진 장면에 접근하는 동안 뷰포트의 줌 수준도 변경할 수 있다. 예를 들어, 사용자는 장면의 어떤 부분을 보기 위하여 뷰포트의 줌 수준을 증가 또는 감소시키기 원할 수 있다. 뷰포트 줌 수준에 대한 이러한 변경은 뷰 줌 수준 모듈(206)에 의해 실시간으로 결정될 수 있다. 사용자는 예컨대, 터치 제스처(예컨대, 스와이프 제스처, 드래그 제스처, 슬라이드 제스처, 탭 제스처, 더블 탭 제스처, 핀치 제스처, 스프레드 제스처, 회전 제스처, 플릭 제스처 등) 및/또는 컴퓨팅 장치 제스처를 수행함으로써 뷰포트에 대한 변경(예컨대, 위치, 방향, 줌 등)을 할 수 있다. 컴퓨팅 장치 제스처(예컨대, 틸트)는 예컨대 컴퓨팅 장치의 하나 이상의 센서(예컨대, 자이로스코프, 가속도계 및/또는 관성 측정 유닛)를 사용하여 결정될 수 있다. 나아가, 만약 가상 현실 헤드 마운트 디스플레이를 통해 가상 컨텐츠 아이템에 접근한다면, 사용자는 사용자의 머리의 방향을 바꿈으로써 뷰포트의 방향을 바꿀 수 있다. 당연히, 다른 접근법이 구형 비디오 내의 탐색 및 줌을 위해 이용될 수 있다. 일반적으로, 뷰포트에 대한 변경 또는 조정은 실시간으로(예컨대, 지속적으로 또는 특정 시간 간격으로) 뷰 방향 모듈(204) 및 뷰 줌 수준 모듈(206)에 의해 모니터링될 수 있다. 이러한 변경은 뷰포트를 업데이트하는데 사용되어 가상 컨텐츠 아이템에서 적절한 이미지 및/또는 스트림이 뷰포트에 대한 변경에 기반하여 결정된 바와 같이 사용자에게 표시될 수 있다.
언급한 바와 같이 일부 경우에, 줌 수준 및/또는 뷰포트 방향에 대한 변경을 추적하지 못하면 사용자가 접근되는 가상 컨텐츠에 대해 방향을 잃을 수 있고 이러한 방향 상실은 사용자 경험을 저하할 수 있다. 따라서, 다양한 실시예에서, 표시자 모듈(208)은 가상 컨텐츠가 표시되는 뷰포트에 내비게이션 표시자를 제공하도록 구성될 수 있다. 일부 경우에, 내비게이션 표시자는 뷰포트 내의 오버레이로 제공된다. 내비게이션 표시자는 i) 가상 컨텐츠에 의해 캡처된 장면(들)의 뷰포트의 방향 및/또는 방위 및/또는 ii) 장면(들) 내의 뷰포트의 줌 수준을 시각적으로 표시할 수 있다. 일부 경우에, 내비게이션 표시자에 의해 표시되는 방향은 요우(즉, 수직축을 따르는 뷰포트의 움직임)에 기반하여 결정될 수 있다. 하지만, 구현에 따라서, 내비게이션 표시자는 피치(즉, 가로축을 따르는 뷰포트의 움직임) 및/또는 롤(세로축을 따르는 뷰포트의 움직임)도 표시할 수 있다. 내비게이션 표시자는 사용자가 가상 컨텐츠와 상호작용함에 따라 자동으로 업데이트되어 가상 컨텐츠 아이템이 접근되는 동안 임의의 주어진 포인트에서 뷰포트의 방향 및/또는 줌 수준을 반영할 수 있다. 내비게이션 표시자에 대한 세부 사항은 도 3a-f 및 4a-c와 관련하여 후술될 것이다.
일부 실시예에서, 관심 지점 모듈(210)은 접근되는 가상 컨텐츠 아이템의 장면 내의 다양한 관심 지점을 식별하는데 사용될 수 있다. 이러한 관심 지점은 예컨대 가상 컨텐츠 아이템의 게시자에 의해 지정될 수 있다. 일반적으로, 각 관심 지점은 가상 컨텐츠 아이템에 의해 캡처되는 장면(들) 내의 주어진 위치와 연관될 수 있다. 일부 실시예에서, 내비게이션 표시자는 뷰포트를 통해 표시되는 장면의 뷰포트 위치의 임계 거리 내에 있는 관심 지점을 식별할 수 있다. 이러한 실시예에서, 내비게이션 표시자는 관심 지점의 각 방향을 시각적으로 표시할 수 있다. 관심 지점에 대한 세부 사항은 도 3e 및 4a와 관련하여 후술될 것이다.
도 3a는 컨텐츠 아이템(예컨대, 가상 컨텐츠 아이템)이 접근될 때 뷰포트 인터페이스에 표시될 수 있는 내비게이션 표시자(302)의 예시(300)를 도시한다. 도 3a에서, 내비게이션 표시자(302)는 가상 컨텐츠 아이템이 접근되는 동안 뷰포트의 초기 또는 의도된 방향(304)을 표시한다. 방향(304)은 예컨대 가상 컨텐츠 아이템의 게시자에 의해 명시될 수 있고, 가상 컨텐츠 아이템의 재생 동안 상이한 시점에 변경될 수 있다. 내비게이션 표시자(302)는 가상 컨텐츠에 의해 캡처되는 장면(들)에 접근하는 동안 뷰포트의 방향 또는 방위를 표시하는 방위 표시자(306)도 포함한다. 이 예시에서, 뷰포트의 방향은 방위 표시자(306)의 방향에 의해 표시된다. 뷰포트 방향이 변함에 따라, 방위 표시자(306)는 업데이트된 뷰포트 방향에 대응하는 방향을 향하도록 점(308) 주위로 회전할 수 있다. 일부 실시예에서, 방위 표시자(306)에 의해 표시되는 방향은 수직 축을 따른 뷰포트의 움직임(즉, 요우)에 대응한다. 방위 표시자(306)는 접근되는 장면(들)의 뷰포트의 줌 수준도 표시할 수 있다. 일부 실시예에서, 방위 표시자(306)의 길이 또는 크기는 점(308) 주위로 증가하거나 길어져 뷰포트의 더 높은 줌 수준을 표시한다. 이러한 실시예에서, 방위 표시자(306)의 길이 또는 크기는 감소 또는 수축하여 감소된 뷰포트의 줌 수준을 표시한다. 일부 실시예에서, 가상 컨텐츠 아이템은 기본 줌 수준(예컨대, 60도 또는 일부 다른 지정된 줌 수준)과 연관될 수 있다. 일부 실시예에서, 가상 컨텐츠 아이템의 게시자는 뷰포트에 적용될 수 있는 최소 및/또는 최대 줌 수준을 명시할 수 있다.
도 3b는 컨텐츠 아이템(예컨대, 가상 컨텐츠 아이템)이 접근될 때 뷰포트 인터페이스에 표시될 수 있는 내비게이션 표시자(322)의 예시(320)를 도시한다. 도 3b에서, 가상 컨텐츠 아이템에 접근하는 뷰포트는 장면으로 줌인된다. 그 결과, 방위 표시자(326)는 점(328) 주위로 길어지거나 증가된 크기로 도시되어 뷰포트의 증가된 줌 레벨을 표시한다.
도 3c는 컨텐츠 아이템(예컨대, 가상 컨텐츠 아이템)이 접근될 때 뷰포트 인터페이스에 표시될 수 있는 내비게이션 표시자(332)의 예시(330)를 도시한다. 도 3c에서, 가상 컨텐츠 아이템에 접근하는 뷰포트의 방향은 뷰포트의 초기 또는 의도된 방향(334)에 대해 서쪽, 또는 왼쪽을 향한다. 나아가, 뷰포트는 열람되는 장면으로부터 줌아웃된다. 그 결과, 방위 표시자(336)는 점(338) 주위로 왼쪽으로 회전된 것으로 도시되어 뷰포트의 방향을 표시한다. 나아가, 방위 표시자(336)는 점(338) 주위로 수축 또는 감소된 크기로 도시되어 뷰포트의 감소된 줌 레벨을 표시한다.
도 3d는 컨텐츠 아이템(예컨대, 가상 컨텐츠 아이템)이 접근될 때 뷰포트 인터페이스에 표시될 수 있는 내비게이션 표시자(342)의 예시(340)를 도시한다. 도 3d에서, 가상 컨텐츠 아이템에 접근하는 뷰포트는 가상 컨텐츠 아이템의 장면으로 줌인된다. 나아가, 가상 컨텐츠 아이템에 접근하는 뷰포트의 방향은 뷰포트의 초기 또는 의도된 방향(344)에 대해 서쪽, 또는 왼쪽을 향한다. 그 결과, 방위 표시자(346)는 점(348) 주위로 길어지거나 증가된 크기로 도시되어 뷰포트의 증가된 줌 레벨을 표시한다. 또한, 방위 표시자(346)는 점(348) 주위로 왼쪽으로 회전된 것으로도 도시되어 뷰포트의 방향을 표시한다.
도 3e는 컨텐츠 아이템(예컨대, 가상 컨텐츠 아이템)이 접근될 때 뷰포트 인터페이스에 표시될 수 있는 내비게이션 표시자(352)의 예시(350)를 도시한다. 도 3e에서, 뷰포트의 초기 또는 의도된 방향(354)이 업데이트되었다. 의도된 방향(354)의 변경은 가상 컨텐츠 아이템의 재생 동안 상이한 시점, 예컨대 뷰포트가 안내되는 장면(예컨대, 이동중인 자동차로부터의 시야)에 접근할 때 일어날 수 있다. 이 예시에서, 가상 컨텐츠 아이템에 접근하는 뷰포트는 뷰포트의 의도된 방향(354)에 대해 반대 방향을 향하고 있다. 그 결과, 방위 표시자(356)는 의도된 방향(354)에 대해 반대 방향으로 점(358) 주위로 회전된 것으로 도시된다.
도 3f는 컨텐츠 아이템(예컨대, 가상 컨텐츠 아이템)이 접근될 때 뷰포트 인터페이스에 표시될 수 있는 내비게이션 표시자(362)의 예시(360)를 도시한다. 도 3f에서, 가상 컨텐츠 아이템에 접근하는 뷰포트는 가상 컨텐츠 아이템의 장면으로 줌인된다. 나아가, 가상 컨텐츠 아이템에 접근하는 뷰포트의 방향은 뷰포트의 초기 또는 의도된 방향(364)에 대해 서쪽, 또는 왼쪽을 향한다. 그 결과, 방위 표시자(366)는 점(368) 주위로 길어지거나 증가된 크기로 도시되어 뷰포트의 증가된 줌 레벨을 표시한다. 또한, 방위 표시자(366)는 점(368) 주위로 왼쪽으로 회전된 것으로도 도시되어 뷰포트의 방향을 표시한다. 일부 실시예에서, 내비게이션 표시자(362)는 접근되는 가상 컨텐츠 아이템의 장면 내의 다양한 관심 지점을 식별할 수 있다. 이러한 실시예에서, 내비게이션 표시자(362)는 관심 지점의 각 방향(370)을, 예컨대 방향(364) 및/또는 방위 표시자(366)에 대해 시각적으로 표시할 수 있다. 이러한 관심 지점은 예컨대 가상 컨텐츠 아이템의 게시자에 의해 지정될 수 있다. 일반적으로, 각 관심 지점은 접근되는 장면(예컨대, 스트림 또는 피드)에 대응하는 시점에 대해 가상 컨텐츠 아이템에 의해 캡처되는 장면(들) 내의 주어진 위치와 연관될 수 있다. 일부 실시예에서, 내비게이션 표시자(362)는 뷰포트를 통해 표시되는 장면의 뷰포트 위치의 임계 거리 내에 있는 관심 지점을 식별할 수 있다.
도 4a는 본 명세서의 일실시예에 따른 컨텐츠 아이템(예컨대, 가상 컨텐츠 아이템)이 접근되는 동안 내비게이션 표시자(406)가 제공되는 뷰포트 인터페이스(404)의 예시(400)를 도시한다. 이 예시에서, 뷰포트(404)는 컴퓨팅 장치(402)의 디스플레이 스크린 상에 표시된다. 나아가, 뷰포트(404)는 컴퓨팅 장치(402) 상에서 실행되는 소프트웨어 애플리케이션(예컨대, 웹 브라우저, 소셜 네트워킹 애플리케이션 등)을 통해 제공될 수 있다. 디스플레이 스크린에 보이는 내비게이션 표시자(406)의 위치 및/또는 크기는 구현에 따라 달라질 수 있다. 도 4a의 예시에서, 뷰포트(404)는 가상 컨텐츠 아이템으로부터의 장면을 표시한다. 이 예시에서, 장면은 다른 관심 지점 중에서, 한 쌍의 새(414)와 행글라이더(416)를 포함한다. 뷰포트(404)는 상술한 바와 같이 뷰포트의 방향과 줌 수준을 식별하기 위한 방위 표시자(408)를 포함하는 내비게이션 표시자(406)를 포함한다. 내비게이션 표시자(406)는 관심 지점(410)이 식별되었고 방위 표시자(408)에 의해 식별된 뷰포트 방향에 대해 동쪽 방향에 위치한다고도 표시한다. 컴퓨팅 장치(402)를 구동하는 사용자는 예컨대, 상술한 바와 같이 뷰포트의 방향 및/또는 줌 수준을 변경함으로써 장면을 탐색한다. 예를 들어, 사용자는 뷰포트의 방향을 관심 지점에 대응하는 방향(410)을 향하도록 변경할 수 있다. 그 결과, 뷰포트는 도 4b의 예시에 도시되는 바와 같이 방향(410)에 대응하는 컨텐츠(예컨대, 이미지 및/또는 비디오 스트림)를 표시하도록 업데이트될 수 있다. 일부 실시예에서, 내비게이션 표시자(406)는 관심 지점 옆에서 접근되는 장면(들) 내에서 일어나는 다른 타입의 이벤트도 식별할 수 있다. 예를 들어, 내비게이션 표시자(406)는 장면에서 나는 소리의 방향을 표시할 수 있다.
일부 실시예에서, 내비게이션 표시자(406)는 초기에 반투명 또는 희미한 것으로 보여진다. 이러한 실시예에서, 내비게이션 표시자(406)는 예컨대 뷰포트(404) 및/또는 컴퓨팅 장치(402)와의 사용자 상호작용을 감지하면 불투명해진다. 내비게이션 표시자(406)는 사용자가 내비게이션 표시자(406)에 대응하는 디스플레이 스크린의 영역에서 터치 제스처를 수행할 때도 불투명해질 수 있다. 예를 들어, 내비게이션 표시자(406)는 컴퓨팅 장치의 센서에 기반하여 사용자 상호작용을 감지할 수 있다. 일부 실시예에서, 내비게이션 표시자(406)는 사용자 상호작용이 임계 기간 동안 감지되지 않으면 반투명 또는 희미한 상태로 돌아갈 수 있다. 일부 실시예에서, 가상 컨텐츠 아이템이 접근될 때 자동 모드가 기본으로 활성화될 수 있다. 이러한 실시예에서, 자동 모드 동안, 뷰포트는 가상 컨텐츠 아이템의 장면(들)을 통해 자동으로 탐색될 수 있다. 예를 들어, 가상 컨텐츠 아이템의 게시자가 장면(들)에 하나 이상의 관심 지점을 지정할 수 있고 뷰포트는 관심 지점이 보이도록 자동으로 유도될 수 있다. 일부 실시예에서, 뷰포트가 관심 지점 사이를 이동함에 따라 각 궤적이 자동으로 생성될 수 있다. 일부 실시예에서, 관심 지점이 뷰포트를 통해 표시되는 비디오 스트림에 대응하는 한 순간 또는 기간에 장면(들)의 공간적 영역으로 정의될 수 있다. 일부 실시예에서, 관심 지점은 뷰포트가 관심 지점에 초점을 맞추어야 하는 기간(예컨대, 제1 관심 지점에 3초, 제2 관심 지점에 5초 등)을 표시하는 시간 정보와 연관될 수 있다.
도 4b는 본 명세서의 일실시예에 따른 컨텐츠 아이템(예컨대, 가상 컨텐츠 아이템)이 접근되는 동안 내비게이션 표시자(406)가 제공되는 뷰포트 인터페이스(404)의 예시(440)를 도시한다. 이 예시에서, 컴퓨팅 장치(402)의 디스플레이 스크린 상에 표시되는 뷰포트(404)의 방향은 도 4a의 내비게이션 표시자(406)에서 관심 지점(410)으로 표시된 관심 지점(418)에 대응하는 방향을 향하도록 변경되었다. 그 결과, 뷰포트(404)에 표시되는 장면은 뷰포트 조정에 대응하는 컨텐츠(예컨대, 이미지 및/또는 비디오 스트림)를 표시하도록 업데이트되었다. 이 예시에서, 장면은 다른 관심 지점 중에서, 행글라이더(416)와 내비게이션 표시자(406)에 의해 관심 지점(410)으로 식별된 열기구(418)를 보여준다. 도 4b에서, 방위 표시자(408)는 뷰포트의 방향의 변화에 대응하도록 점(412) 주위로 오른쪽으로 회전되었다. 일부 실시예에서, 컴퓨팅 장치(402)를 구동하는 사용자는 내비게이션 표시자(406)에 대응하는 디스플레이 스크린의 영역에서 터치 제스처를 수행하여 뷰포트가 가상 컨텐츠 아이템에 대해 정의된 초기 또는 의도된 방위로 복귀하도록 야기할 수 있다. 이러한 실시예에서, 뷰포트의 줌 수준 또한 터치 제스처를 감지하면 가상 컨텐츠 아이템에 대해 정의된 기본 또는 의도된 줌 수준으로 리셋된다. 방위 표시자(408)는 점(412) 주위로, 예컨대 사용자가 뷰포트를 탐색하는 방향에 따라 시계 또는 반시계 방향으로 회전할 수 있다. 예를 들어, 뷰포트 방향의 0에서 180도로의 변화는 방위 표시자(408)가 점(412) 주위로 시계 방향으로 회전하도록 야기할 수 있는 반면 뷰포트 방향의 180에서 360도로의 변화는 방위 표시자(408)가 점(412) 주위로 반시계 방향으로 회전하도록 야기할 수 있다.
도 4c는 본 명세서의 일실시예에 따른 컨텐츠 아이템(예컨대, 가상 컨텐츠 아이템)이 접근되는 동안 내비게이션 표시자(406)가 제공되는 뷰포트 인터페이스(404)의 예시(480)를 도시한다. 이 예시에서, 컴퓨팅 장치(402)의 디스플레이 스크린 상에 표시되는 뷰포트(404)의 방향은 도 4a의 장면에서 보인 한 쌍의 새(414)를 향하도록 변경되었다. 그 결과, 뷰포트(404)에 표시되는 장면은 뷰포트 조정에 대응하는 컨텐츠(예컨대, 이미지 및/또는 비디오 스트림)를 표시하도록 업데이트되었다. 이 예시에서, 장면은 다른 관심 지점 중에서, 사용자가 뷰포트에 초점을 맞춘 한 쌍의 새(414)를 보여준다. 도 4c에서, 방위 표시자(408)는 뷰포트의 방향의 변화에 대응하도록 점(412) 주위로 장면의 한 쌍의 새(414)의 방향을 향하도록 회전되었다. 이 예시에서, 방위 표시자(408)는 점(412) 주위로 크기도 증가되어 뷰포트의 증가된 줌 레벨을 표시한다.
도 5는 본 명세서의 일실시예에 따른 인터페이스를 통해 컨텐츠에 접근하는 내비게이션 표시자를 제공하는 방법(500)의 예시를 도시한다. 다르게 언급되지 않으면 본 명세서에 서술된 다양한 실시예의 범위 내에서 유사하거나 대안적인 순서로, 또는 병행하여 수행되는 추가적이거나, 더 적거나, 대안적인 단계가 있을 수 있음을 이해하여야 한다. 블록(502)에서, 컨텐츠 아이템에 접근하기 위한 적어도 하나의 요청의 결정이 내려지고, 컨텐츠 아이템은 상이한 위치의 세트로부터 적어도 하나의 장면을 캡처하는 카메라 피드의 세트를 사용하여 구성된다. 블록(504)에서, 뷰포트 인터페이스가 컨텐츠 아이템의 재생이 표시되는 컴퓨팅 장치의 디스플레이 스크린 상에 제공되고, 뷰포트 인터페이스는 컴퓨팅 장치를 구동하는 사용자가 i) 장면에 대한 뷰포트 인터페이스의 방향 또는 ii) 뷰포트 인터페이스의 줌 수준을 변경함으로써 가상으로 적어도 하나의 장면을 탐색할 수 있도록 구성된다. 블록(506)에서, 내비게이션 표시자는 뷰포트 인터페이스에 제공되는데, 내비게이션 표시자는 컨텐츠 아이템의 재생 동안 뷰포트 인터페이스의 각 방향 및 줌 수준에 대한 임의의 변경을 시각적으로 표시하도록 구성된다.
본 명세서의 다양한 실시예와 연관된 많은 다른 사용, 응용 및/또는 변형이 있을 수 있음을 고려한다. 예를 들어, 일부 경우에서, 사용자는 개시된 기술을 이용할 것인지 여부를 선택할 수 있다. 또한, 개시된 기술은 다양한 사생활 설정 및 선호가 유지되고 개인 정보가 유출되는 것을 방지할 수 있음을 보장할 수 있다. 다른 예시에서, 본 명세서의 다양한 실시예는 시간에 걸쳐 학습, 개선 및/또는 개량될 수 있다.
소셜 네트워킹 시스템 - 구현의 예시
도 6은 본 명세서의 일실시예에 따른 다양한 시나리오에서 이용될 수 있는 소셜 네트워킹 시스템(600)의 예시를 포함하는 시스템의 예시의 네트워크도를 도시한다. 시스템(600)은 하나 이상의 사용자 장치(610), 하나 이상의 외부 시스템(620), 소셜 네트워킹 시스템(또는 서비스)(630) 및 네트워크(650)를 포함한다. 일실시예로, 전술한 실시예들과 연계하여 논의된 소셜 네트워킹 서비스, 제공자 및/또는 시스템은 소셜 네트워킹 시스템(630)으로 구현될 수 있다. 예시적인 목적을 위해, 도 6에 의해 도시된 시스템(600)의 실시예는 단일 외부 시스템(620) 및 단일 사용자 장치(610)를 포함한다. 하지만, 다른 실시예로, 시스템(600)은 더 많은 사용자 장치(610) 및/또는 더 많은 외부 시스템(620)을 포함할 수 있다. 특정 실시예로, 소셜 네트워킹 시스템(630)은 소셜 네트워크 제공자에 의해 운영되는 한편, 외부 시스템(620)은, 상이한 엔티티들에 의해 운영될 수 있는 점에서 소셜 네트워킹 시스템(630)으로부터 분리되어 있다. 하지만, 다양한 실시예로, 소셜 네트워킹 시스템(630) 및 외부 시스템(620)은 소셜 네트워킹 시스템(630)의 사용자들 (또는 구성원들)에게 소셜 네트워킹 서비스를 제공하기 위해 함께 동작한다. 이러한 측면에서, 소셜 네트워킹 시스템(630)은, 외부 시스템(620)과 같은 다른 시스템들이 인터넷을 통해 사용자에게 소셜 네트워킹 서비스 및 기능을 제공하는데 사용할 수 있는 플랫폼 또는 백본을 제공한다.
사용자 장치(610)는 사용자로부터 입력을 수신하고 네트워크(650)를 통해 송수신할 수 있는 하나 이상의 컴퓨팅 장치(또는 시스템)를 포함한다. 일실시예로, 사용자 장치(610)는 예컨대, Microsoft Windows 호환가능한 운영 시스템(OS), Apple OS X, 및/또는 리눅스 배포판을 실행하는 종래의 컴퓨터 시스템이다. 다른 실시예로, 사용자 장치(610)는 컴퓨팅 장치 또는 가령 스마트폰, 태블릿, PDA(personal digital assistant), 모바일 전화 등과 같은 컴퓨터 기능을 갖는 장치일 수 있다. 사용자 장치(610)는 네트워크를 통해 통신하도록 구성된다. 사용자 장치(610)는 예컨대, 사용자 장치(610)의 사용자가 소셜 네트워킹 시스템(630)과 상호작용할 수 있게 하는 브라우저 애플리케이션과 같은 애플리케이션을 실행할 수 있다. 또 다른 실시예로, 사용자 장치(610)는 iOS 및 ANDROID와 같은 사용자 장치(610)의 네이티브 운영 시스템에 의해 제공되는 API(application programming interface)를 통해 소셜 네트워킹 시스템(630)과 상호작용한다. 사용자 장치(610)는 유선 및/또는 무선 통신 시스템을 사용하여 근거리 및/또는 원거리 네트워크의 임의의 조합을 포함할 수 있는 네트워크(650)를 통해 외부 시스템(620) 및 소셜 네트워킹 시스템(630)과 통신하도록 구성된다.
일실시예로, 네트워크(650)는 표준 통신 기술 및 프로토콜을 사용한다. 따라서, 네트워크(650)는 Ethernet, 802.11, WiMAX(worldwide interoperability for microwave access), 3G, 4G, CDMA, GSM, LTE, DSL(digital subscriber line) 등과 같은 기술을 사용하는 링크를 포함할 수 있다. 유사하게, 네트워크(650)에서 사용되는 네트워킹 프로토콜은 MPLS(multiprotocol label switching), TCP/IP(transmission control protocol/Internet protocol), UDP(User Datagram Protocol), HTTP(hypertext transport protocol), SMTP(simple mail transfer protocol), FTP(file transfer protocol) 등을 포함할 수 있다. 네트워크(650) 상에서 교환되는 데이터는 HTML(hypertext markup language) 및 XML(extensible markup language)을 포함하는 기술 및/또는 포맷을 사용하여 표현될 수 있다. 추가로, 모든 또는 일부 링크는 SSL(secure sockets layer), TLS(transport layer security), 및 IPsec(Internet Protocol security)와 같은 종래의 암호화 기술을 사용하여 암호화될 수 있다.
일실시예로, 사용자 장치(610)는 브라우저 애플리케이션(612)을 사용하여, 외부 시스템(620) 및 소셜 네트워킹 시스템(630)으로부터 수신된 마크업 언어 문서(614)를 프로세싱함으로써 외부 시스템(620) 및/또는 소셜 네트워킹 시스템(630)으로부터의 컨텐츠를 디스플레이할 수 있다. 마크업 언어 문서(614)는 컨텐츠 및 컨텐츠의 포맷 또는 프레젠테이션을 기술하는 하나 이상의 명령어들을 식별한다. 마크업 언어 문서(614)에 포함된 명령어들을 실행함으로써, 브라우저 애플리케이션(612)은 마크업 언어 문서(614)에 의해 기술된 포맷 또는 프레젠테이션을 사용하여 식별된 컨텐츠를 디스플레이한다. 예컨대, 마크업 언어 문서(614)는, 외부 시스템(620) 및 소셜 네트워킹 시스템(630)으로부터 검색된 텍스트 및/또는 이미지 데이터를 포함하는 다수의 프레임들을 갖는 웹 페이지를 생성하고 디스플레이하기 위한 명령어들을 포함한다. 다양한 실시예로, 마크업 언어 문서(614)는 XML(extensible markup language) 데이터, XHTML(extensible hypertext markup language) 데이터, 또는 다른 마크업 언어 데이터를 포함하는 데이터 파일을 포함한다. 추가로, 마크업 언어 문서(614)는 JSON(JavaScript Object Notation) 데이터, 패딩(padding)을 갖는 JSON(JSONP), 및 외부 시스템(620)과 사용자 장치(610) 사이의 데이터 상호교환을 용이하게 하는 자바스크립트 데이터를 포함할 수 있다. 사용자 장치(610)상의 브라우저 애플리케이션(612)은 마크업 언어 문서(614)를 디코딩하기 위해 자바스크립트 컴파일러를 사용할 수 있다.
마크업 언어 문서(614)는 또한, FLASH™ 또는 Unity™ 애플리케이션들, SilverLight™ 애플리케이션 프레임워크(framework) 등과 같은 애플리케이션 또는 애플리케이션 프레임워크를 포함하거나 링크할 수 있다.
일실시예로, 사용자 장치(610)는 또한, 사용자 장치(610)의 사용자가 소셜 네트워킹 시스템(630)으로 로그되는지 여부를 표시하는 데이터를 포함하는 하나 이상의 쿠키(616)를 포함하고, 이는 소셜 네트워킹 시스템(630)으로부터 사용자 장치(610)로 통신되는 데이터의 수정을 가능하게 할 수 있다.
외부 시스템(620)은, 네트워크(650)를 사용하여 사용자 장치(610)로 통신되는 하나 이상의 웹 페이지들(622a, 622b)을 포함하는 하나 이상의 웹 서버들을 포함한다. 외부 시스템(620)은 소셜 네트워킹 시스템(630)으로부터 분리된다. 예컨대, 외부 시스템(620)은 제1 도메인과 연관되는 한편, 소셜 네트워킹 시스템(630)은 분리된 소셜 네트워킹 도메인과 연관된다. 외부 시스템(620)에 포함된 웹 페이지들(622a, 622b)은 컨텐츠를 식별하고 식별된 컨텐츠의 포맷 또는 프레젠테이션을 특정하는 명령어들을 포함하는 마크업 언어 문서(614)를 포함한다. 전술한 바와 같이, 많은 변형 또는 다른 가능성이 있을 수 있음을 이해할 것이다.
소셜 네트워킹 시스템(630)은 복수의 사용자들을 포함하는 소셜 네트워크를 위해 소셜 네트워크의 사용자들에게 소셜 네트워크의 다른 사용자들과 통신하고 상호작용하는 능력을 제공하는 하나 이상의 컴퓨팅 장치를 포함한다. 일부 예에서, 소셜 네트워크는 그래프 즉, 에지 및 노드를 포함하는 데이터 구조로 표현될 수 있다. 데이터 베이스, 객체, 클래스, 메타 구성요소, 파일, 또는 임의의 다른 데이터 구조를 포함하지만 이에 제한되지 않는 다른 데이터 구조가 또한, 소셜 네트워크를 표현하는데 사용될 수 있다. 소셜 네트워킹 시스템(630)은 오퍼레이터에 의해 관리되고, 유지되거나, 또는 제어될 수 있다. 소셜 네트워킹 시스템(630)의 오퍼레이터는 사람, 자동화된 애플리케이션, 또는 컨텐츠를 관리하고, 정책을 규제하고, 소셜 네트워킹 시스템(630) 내에서 사용 메트릭을 수집하기 위한 일련의 애플리케이션들일 수 있다. 임의 유형의 운영자가 사용될 수 있다.
사용자들은 소셜 네트워킹 시스템(630)에 가입할 수 있고, 이후 그들이 연결되고자 하는 소셜 네트워킹 시스템(630)의 임의의 수의 다른 사용자들에 대한 연결을 추가할 수 있다. 본 명세서에서 사용되는 용어 "친구"는, 사용자가 소셜 네트워킹 시스템(630)을 통해 연결, 연관, 또는 관계를 형성한 소셜 네트워킹 시스템(630)의 임의의 다른 사용자를 의미한다. 예컨대, 일실시예로, 소셜 네트워킹 시스템(630)에서의 사용자들이 소셜 그래프에서 노드로 표현된다면, 용어 "친구"는 2개의 사용자 노드를 직접 연결하고 그 사이에 형성되는 에지를 의미할 수 있다.
연결은 사용자에 의해 명시적으로 추가되거나 사용자의 공통의 특징(예컨대, 동일한 교육 기관의 졸업생들인 사용자들)에 기반하여 소셜 네트워킹 시스템(630)에 의해 자동으로 생성될 수 있다. 예컨대, 제1 사용자는 구체적으로 특정의 다른 사용자를 친구로 선택한다. 소셜 네트워킹 시스템(630)에서의 연결은 보통 양방향이지만, 그럴 필요는 없고, 따라서 용어들 "사용자" 및 "친구"는 준거 기준(frame of reference)에 따른다. 소셜 네트워킹 시스템(630)의 사용자들 사이의 연결은 보통 양방향("쌍방향"), 또는 "상호적"이지만, 연결들은 또한, 일방적, 또는 "일방향"일 수 있다. 예컨대, Bob과 Joe가 모두 소셜 네트워킹 시스템(630)의 사용자들이고 서로에게 연결되어있다면, Boe과 Joe는 서로의 연결들이다. 반면에, Bob이 소셜 네트워킹 시스템(630)으로 Joe에 의해 통신되는 데이터를 열람하기 위해 Joe에게 연결하기를 희망한지만, Joe가 상호 연결을 형성하기를 희망하지 않는다면, 일방향 연결이 확립될 수 있다. 사용자들 사이의 연결은 직접적인 연결일 수 있지만, 소셜 네트워킹 시스템(630)의 일부 실시예들은 하나 이상의 연결 레벨 또는 이격도를 통한 간접적인 연결을 허용한다.
사용자들 사이의 연결을 확립 및 관리하고 사용자들 사이의 상호작용을 허용하는 것에 추가로, 소셜 네트워킹 시스템(630)은 사용자들에게 소셜 네트워킹 시스템(630)에 의해 지원되는 다양한 타입의 아이템들에 대해 행위를 수행할 능력을 제공한다. 이러한 아이템들을, 소셜 네트워킹 시스템(630)의 사용자들이 속할 수 있는 그룹들 또는 네트워크들(즉, 사람들, 엔티티들, 및 컨셉들의 소셜 네트워크), 사용자가 관심있을 수 있는 이벤트 또는 캘린더 엔트리들, 사용자가 소셜 네트워킹 시스템(630)을 통해 사용할 수 있는 컴퓨터-기반의 애플리케이션들, 사용자가 소셜 네트워킹 시스템(630)에 의해 제공되거나 소셜 네트워킹 시스템(630)을 통한 서비스를 통해 아이템들을 사거나 팔 수 있도록 하는 거래들, 사용자가 소셜 네트워킹 시스템(630) 내에서 혹은 밖에서 수행할 수 있는 광고와의 상호작용들을 포함할 수 있다. 이들은 사용자가 소셜 네트워킹 시스템(630)에 대해 행동할 수 있는 아이템들의 몇몇 예시에 불과하며, 많은 다른 예들이 가능하다. 사용자는 소셜 네트워킹 시스템(630)에서 또는 소셜 네트워킹 시스템(630)과 분리되거나 네트워크(650)를 통해 소셜 네트워킹 시스템(630)으로 연결된 외부 시스템(620)에서, 표현될 수 있는 어떤 것과도 상호작용할 수 있다.
소셜 네트워킹 시스템(630)은 또한, 다양한 엔티티들을 링크할 수 있다. 예컨대, 소셜 네트워킹 시스템(630)은 사용자가 API, 웹 서비스, 또는 다른 통신 채널을 통해 외부 시스템(620) 또는 다른 엔티티들과 상호작용하는 것뿐만 아니라 사용자들 서로와 상호작용할 수 있게 한다. 소셜 네트워킹 시스템(630)은 복수의 에지에 의해 상호연결된 복수의 노드를 포함하는 "소셜 그래프"를 생성하고 관리한다. 소셜 그래프에서의 각각의 노드는 다른 노드에 대해 행동할 수 있거나 및/또는 다른 노드가 행동할 수 있는 엔티티를 표현할 수 있다. 소셜 그래프는 다양한 타입의 노드들을 포함할 수 있다. 노드의 타입의 예들은 사용자들, 비-인간 엔티티들, 컨텐츠 아이템, 웹 페이지, 그룹, 활동, 메시지, 컨셉, 및 소셜 네트워킹 시스템(630)에서 객체에 의해 표현될 수 있는 임의의 다른 것들을 포함한다. 소셜 그래프에서 두 노드 사이의 에지는 두 노드 사이의 특정 종류의 연결 또는 연관을 나타낼 수 있으며, 이는 노드 관계 또는 노드들 중 하나에 의해 다른 노드에 수행되었던 행위로부터의 결과일 수 있다. 일부 경우에서, 노드 사이의 에지에는 가중치가 부과될 수 있다. 에지의 가중치는 노드 사이의 연결 또는 연관의 강도와 같은 에지와 연관된 속성을 표현할 수 있다. 상이한 타입의 에지에는 상이한 가중치가 제공될 수 있다. 예컨대, 한 명의 사용자가 다른 사용자를 "좋아요"할 때 생성된 에지에는 하나의 가중치가 부여될 수 있는 한편, 사용자가 다른 사용자를 친구로 삼을 때 생성된 에지에는 상이한 가중치가 부여될 수 있다.
예로서, 제1 사용자가 제2 사용자를 친구로 식별할 때, 소셜 그래프에서의 에지는 제1 사용자를 표현하는 노드와 제2 사용자를 표현하는 제2 노드를 연결하도록 생성된다. 다양한 노드가 서로 연관되고 상호작용함에 따라, 소셜 네트워킹 시스템(630)은 관계 및 상호작용을 반영하도록 다양한 노드를 연결하는 에지들을 수정한다.
소셜 네트워킹 시스템(630)은 또한, 소셜 네트워킹 시스템(630)과의 사용자 상호작용을 향상시키는 사용자-생성된 컨텐츠를 포함한다. 사용자-생성된 컨텐츠는, 사용자가 소셜 네트워킹 시스템(630)에 추가, 업로드, 전송 또는 "게시"할 수 있는 모든 것을 포함할 수 있다. 예컨대, 사용자는 사용자 장치(610)로부터 소셜 네트워킹 시스템(630)에 게시물을 통신한다. 게시물은 상태 업데이트 또는 다른 텍스트 데이터, 위치 정보, 사진과 같은 이미지, 비디오, 링크, 음악, 또는 다른 유사한 데이터 및/또는 미디어와 같은 데이터를 포함할 수 있다. 컨텐츠는 또한, 제3자에 의해 소셜 네트워킹 시스템(630)에 추가될 수 있다. 컨텐츠 "아이템"들은 소셜 네트워킹 시스템(630)에서 객체로 표현될 수 있다. 이러한 방식으로, 소셜 네트워킹 시스템(630)의 사용자들은, 다양한 통신 채널을 통해 미디어의 다양한 타입의 텍스트 및 컨텐츠 아이템을 게시함으로써 서로와 통신하도록 장려된다. 이러한 통신은 사용자들 서로간의 상호작용을 증가시키고 사용자가 소셜 네트워킹 시스템(630)과 상호작용하는 빈도를 증가시킨다.
소셜 네트워킹 시스템(630)은 웹 서버(632), API 요청 서버(634), 사용자 프로필 스토어(636), 연결 스토어(638), 행위 로거(640), 활동 로그(642) 및 인증 서버(644)를 포함한다. 본 발명의 일실시예로, 소셜 네트워킹 시스템(630)은 다양한 애플리케이션을 위해 추가의, 더 적은 수의, 혹은 상이한 컴포넌트들을 포함할 수 있다. 네트워크 인터페이스, 보안 메커니즘, 로드 균형기(load balancer), 장애복구 서버(failover server), 관리 및 네트워크 운영 콘솔 등과 같은 다른 컴포넌트들은 시스템의 세부사항을 불명확하게 만들지 않기 위해 도시되지 않는다.
사용자 프로필 스토어(636)는, 사용자에 의해 선언되었거나 소셜 네트워킹 시스템(630)에 의해 추론된 경력, 학력, 취미 또는 선호도, 위치 등과 같은 인명적, 인구학적, 및 다른 타입의 기술적 정보를 포함하는 사용자 계정에 관한 정보를 관리한다. 이 정보는 사용자 프로필 스토어(636)에 저장되어서, 각각의 사용자가 고유하게 식별되도록 한다. 소셜 네트워킹 시스템(630)은 또한, 연결 스토어(638)에서의 상이한 사용자들 사이의 하나 이상의 연결을 기술하는 데이터를 저장한다. 연결 정보는 유사하거나 공통되는 경력, 그룹 멤버쉽, 취미, 또는 학력을 갖는 사용자들을 표시할 수 있다. 추가로, 소셜 네트워킹 시스템(630)은 상이한 사용자들 사이의 사용자-정의된 연결을 포함하여, 사용자들이 다른 사용자들과의 그들의 관계를 특정할 수 있도록 한다. 예컨대, 사용자-정의된 연결은 사용자가 사용자의 실제-삶에서의 관계들, 가령 친구들, 동료들, 파트너들 등에 필적하는 다른 사용자들과의 관계를 생성할 수 있도록 한다. 사용자는 기정의된 연결 타입으로부터 선택될 수 있거나, 필요에 따라 스스로 연결 타입을 정의할 수 있다. 소셜 네트워킹 시스템(630)에서의 다른 노드들과의 연결, 가령 비-인간 엔티티들, 버켓, 클러스터 센터, 이미지, 관심사, 페이지, 외부 시스템, 컨셉 등이 또한, 연결 스토어(638)에 저장된다.
소셜 네트워킹 시스템(630)은 사용자가 상호작용할 수 있는 객체들에 관한 데이터를 관리한다. 이 데이터를 관리하기 위해, 사용자 프로필 스토어(636) 및 연결 스토어(638)는 소셜 네트워킹 시스템(630)에 의해 관리되는 객체들의 대응하는 타입의 인스턴스들을 저장한다. 각 객체 유형은 객체 유형에 적절한 정보를 저장하는데 적합한 정보 필드를 가진다. 예컨대, 사용자 프로필 스토어(636)는 사용자의 계정 및 사용자의 계정과 관련된 정보를 기술하기에 적절한 필드를 갖는 데이터 구조를 포함한다. 특정 타입의 새로운 객체가 생성될 때, 소셜 네트워킹 시스템(630)은 대응하는 타입의 새로운 데이터 구조를 초기화하고, 고유한 객체 식별자를 그것에 할당하며, 필요에 따라 객체에 데이터를 추가한다. 이는 예컨대, 사용자가 소셜 네트워킹 시스템(630)의 사용자가 되고, 소셜 네트워킹 시스템(630)이 사용자 프로필 스토어(636)에 사용자 프로필의 새로운 인스턴스를 생성하며, 고유한 식별자를 사용자 계정에 할당하고, 사용자에 의해 제공된 정보로 사용자 계정의 필드를 채우는 것을 시작할 때에 발생할 수 있다.
연결 스토어(638)는 사용자의 다른 사용자들에 대한 연결, 외부 시스템(620)으로의 연결 또는 다른 엔티티들로의 연결을 기술하는데 적절한 데이터 구조를 포함한다. 연결 스토어(638)는 또한, 연결 타입을 사용자의 연결과 연관시킬 수 있고, 연결 타입은 사용자에 관한 정보에 대한 액세스를 규제하기 위해 사용자의 개인정보 설정과 함께 사용될 수 있다. 본 발명의 일실시예로, 사용자 프로필 스토어(636) 및 연결 스토어(638)는 연합된 데이터베이스로 구현될 수 있다.
연결 스토어(638), 사용자 프로필 스토어(636), 및 활동 로그(642)에 저장된 데이터는 소셜 네트워킹 시스템(630)이 상이한 객체들 사이의 관계를 식별하기 위해 다양한 객체 및 노드를 연결하는 에지를 식별하도록 노드를 사용하는 소셜 그래프를 생성할 수 있도록 한다. 예컨대, 제1 사용자가 소셜 네트워킹 시스템(630)에서 제2 사용자와의 연결을 확립한다면, 사용자 프로필 스토어(636)로부터의 제1 사용자 및 제2 사용자의 사용자 계정들은 소셜 그래프에서 노드로서 역할을 할 수 있다. 연결 스토어(638)에 의해 저장된 제1 사용자 및 제2 사용자 사이의 연결은 제1 사용자 및 제2 사용자와 연관된 노드들 사이의 에지이다. 이 예로 계속하면, 제2 사용자는 이후, 소셜 네트워킹 시스템(630) 내에서 제1 사용자에게 메시지를 전송할 수 있다. 저장될 수 있는 이 메시지를 전송하는 행위는, 제1 사용자 및 제2 사용자를 표현하는 소셜 그래프에서의 2개의 노드 사이의 또 다른 에지이다. 추가로, 메시지 자체는 제1 사용자 및 제2 사용자를 나타내는 노드에 연결된 다른 노드로서 식별되고 소셜 그래프 내에 포함될 수 있다.
다른 예로, 제1 사용자는 소셜 네트워킹 시스템(630)에 의해 관리되는 이미지에서 (또는 대안으로, 소셜 네트워킹 시스템(630) 외부의 다른 시스템에 의해 관리되는 이미지)에서 제2 사용자를 태그할 수 있다. 이미지는 그 자체가 소셜 네트워킹 시스템(630)에서 노드로 표현될 수 있다. 이 태깅 행위는 제1 사용자와 제2 사용자 사이의 에지를 생성할뿐 아니라 사용자 각각과 소셜 그래프 내의 노드인 이미지 사이의 에지를 생성할 수 있다. 또 다른 예로, 사용자가 이벤트에 참석하는 것을 확인한다면, 사용자 및 이벤트는 사용자 프로필 스토어(636)로부터 획득되는 노드들이며, 여기서 이벤트의 참석은 활동 로그(642)로부터 검색될 수 있는 노드 사이의 에지이다. 소셜 그래프를 생성하고 관리함으로써, 소셜 네트워킹 시스템(630)은 상이한 타입의 객체 및 상호작용과 그 객체들 사이의 연결을 기술하는 데이터를 포함하고, 소셜적으로 관련된(socially relevant) 정보의 풍부한 소스를 제공한다.
웹 서버(632)는 네트워크(650)를 통해 소셜 네트워킹 시스템(630)을 하나 이상의 사용자 장치(610) 및/또는 하나 이상의 외부 시스템(620)으로 링크한다. 웹 서버(632)는, 가령 Java, JavaScript, Flash, XML 등과 같은 다른 웹-연관 컨텐츠뿐만 아니라 웹 페이지들을 서빙한다. 웹 서버(632)는 메일 서버 또는 소셜 네트워킹 시스템(630)과 하나 이상의 사용자 장치(610) 사이의 메시지를 수신하고 라우팅하기 위한 다른 메시징 기능을 포함할 수 있다. 메시지는 인스턴트 메시지, 큐잉된 메시지(예컨대, 이메일), 텍스트 및 SMS 메시지, 또는 임의의 다른 적절한 메시지 포맷일 수 있다.
API 요청 서버(634)는, 하나 이상의 API 함수를 호출함으로써 하나 이상의 외부 시스템(620) 및 사용자 장치(610)가 소셜 네트워킹 시스템(630)으로부터 액세스 정보를 호출하도록 한다. API 요청 서버(634)는 또한, API들을 호출함으로써 외부 시스템(620)이 소셜 네트워킹 시스템(630)으로 정보를 전송하도록 할 수 있다. 일 실시예로, 외부 시스템(620)은 네트워크(650)를 통하여 소셜 네트워킹 시스템(630)으로 API 요청을 전송하며, API 요청 서버(634)는 그 API 요청을 수신한다. API 요청 서버(634)는 API 요청 서버(634)가 네트워크(650)를 통하여 외부 시스템(620)으로 통신할 적절한 응답을 생성하기 위하여 API 요청과 연관된 API를 호출하는 것에 의하여 그 요청을 처리한다. 예를 들어, API 요청에 응답하여, API 요청 서버(634)는 사용자와 연관된 데이터, 예컨대 외부 시스템(620)에 로그인한 사용자의 연결을 수집하고, 외부 시스템(620)과 수집된 데이터를 통신한다. 다른 실시예로, 사용자 장치(610)는 외부 시스템(620)과 동일한 방식으로 소셜 네트워킹 시스템(630)과 API들을 통해 통신한다.
행위 로거(640)는 소셜 네트워킹 시스템(630) 안에서의 및/또는 밖에서의 사용자 행위에 관한 통신을 웹 서버(632)로부터 수신할 수 있다. 행위 로거(640)는 사용자 행위에 관한 정보로 활동 로그(642)를 채워서 소셜 네트워킹 시스템(630)이 소셜 네트워킹 시스템(630) 내에서 및 소셜 네트워킹 시스템(630) 밖에서 그것의 사용자들에 의해 행해진 다양한 행위를 발견할 수 있도록 한다. 특정 사용자가 소셜 네트워킹 시스템(630) 상의 다른 노드에 관해 행한 임의의 행위는, 활동 로그(642) 또는 유사한 데이터베이스 또는 다른 데이터 저장소에 관리되는 정보를 통해 각각의 사용자의 계정과 연관될 수 있다. 식별되고 저장된 소셜 네트워킹 시스템(630) 내에서 사용자에 의해 행해진 행위의 예들은 예컨대, 다른 사용자로의 연결의 추가, 다른 사용자에게 메세지를 전송, 다른 사용자로부터의 메시지를 읽기, 다른 사용자와 연관된 컨텐츠를 열람, 다른 사용자에 의해 게시된 이벤트에 참석, 이미지를 게시, 이미지를 게시하는 것의 시도, 또는 다른 사용자 또는 다른 객체와 상호작용하는 다른 행위들을 포함할 수 있다. 사용자가 소셜 네트워킹 시스템(630) 내에서 행위를 행할 때, 행위는 활동 로그(642)에 기록된다. 일실시예로, 소셜 네트워킹 시스템(630)은 활동 로그(642)를 엔트리들의 데이터베이스로서 관리한다. 행위가 소셜 네트워킹 시스템(630) 내에서 행해질 때, 행위에 대한 엔트리는 활동 로그(642)에 추가된다. 활동 로그(642)는 행위 로그라고 언급될 수 있다.
추가로, 사용자 행위는 가령 소셜 네트워킹 시스템(630)으로부터 분리된 외부 시스템(620)과 같이 소셜 네트워킹 시스템(630)의 외부의 엔트리 내에서 발생하는 컨셉 및 행위와 연관될 수 있다. 예컨대, 행위 로거(640)는 웹 서버(632)로부터 외부 시스템(620)과의 사용자 상호작용을 기술하는 데이터를 수신할 수 있다. 이 예에서, 외부 시스템(620)은 소셜 그래프에서의 구조화된 행위 및 객체에 따라 사용자의 상호작용을 보고한다.
사용자가 외부 시스템(620)과 상호작용하는 행위들의 다른 예들은, 사용자가 외부 시스템(620) 또는 다른 엔티티에 대한 관심을 표현하는 것, 사용자가 외부 시스템(620) 또는 외부 시스템(620) 내의 웹 페이지(622a)를 논의하는 코멘트를 소셜 네트워킹 시스템(630)에 게시하는 것, 사용자가 외부 시스템(620)과 연관된 URL(Uniform Resource Locator) 또는 다른 식별자를 소셜 네트워킹 시스템(630)에 게시하는 것, 사용자가 외부 시스템(620)과 연관된 이벤트에 참석하는 것, 또는 외부 시스템(620)과 관련된 사용자에 의한 임의의 다른 행위를 포함한다. 따라서, 활동 로그(642)는 소셜 네트워킹 시스템(630)의 사용자 및 소셜 네트워킹 시스템(630)으로부터 분리된 외부 시스템(620) 사이의 상호작용을 기술하는 행위들을 포함할 수 있다.
인증 서버(644)는 소셜 네트워킹 시스템(630)의 사용자들의 하나 이상의 개인정보 설정을 강제한다. 사용자의 개인정보 설정은 어떻게 사용자와 관련된 특정 정보가 공유될 수 있는지를 결정한다. 개인정보 설정은 사용자와 연관된 특정 정보의 사양 및 정보가 공유될 수 있는 엔터티 또는 엔터티들의 사양을 포함한다. 정보가 공유될 수 있는 엔티티들의 예들은 다른 사용자들, 애플리케이션, 외부 시스템(620), 또는 정보에 잠재적으로 액세스할 수 있는 임의의 엔티티를 포함할 수 있다. 사용자에 의해 공유될 수 있는 정보는 가령, 프로필 사진, 사용자와 연관된 전화번호, 사용자의 연결, 연결을 추가하기, 사용자의 프로필 정보를 변경하기와 같은 사용자에 의해 행해진 행위 등과 같은 사용자 계정 정보를 포함한다.
개인정보 설정 명세가 상이한 레벨의 입상도(granularity)에서 제공될 수 있다. 예컨대, 개인정보 설정은 다른 사용자들과 공유될 특정 정보를 식별할 수 있고; 개인정보 설정은 직장 전화번호 또는 가령, 프로필 사진, 집 전화번호, 및 상태와 같은 관련된 정보의 특정 세트를 식별한다. 대안으로, 개인정보 설정은 사용자와 연관된 모든 정보에 적용될 수 있다. 특정 정보에 접속할 수 있는 엔터티 세트의 사양 또한 다양한 상세도 레벨으로 특정될 수 있다. 정보가 공유될 수 있는 다양한 세트의 엔티티들은 예컨대, 사용자의 모든 친구들, 친구들의 모든 친구들, 모든 애플리케이션, 또는 모든 외부 시스템(620)을 포함할 수 있다. 일 실시예는 엔터티 세트의 사양이 엔터티들의 나열을 포함하게 한다. 예컨대, 사용자는 특정 정보에 액세스하는 것이 허용되는 외부 시스템(620)의 리스트를 제공할 수 있다. 다른 실시예는 명세가, 정보에 액세스하는것이 허용되지 않은 예외들을 함께 갖는 엔티티들의 세트를 포함하도록 한다. 예컨대, 사용자는 모든 외부 시스템(620)이 사용자의 작업 정보에 액세스할 수 있도록 하지만, 작업 정보에 액세스하는 것이 허용되지 않는 외부 시스템(620)의 리스트를 특정할 수 있다. 특정 실시예들은 특정 정보를 액세스하는 것이 허용되지 않는 예외들의 리스트를 "차단 리스트"라고 할 수 있다. 사용자에 의해 특정된 차단 리스트에 속하는 외부 시스템(620)은 개인정보 설정에 특정된 정보를 액세스하는 것으로부터 차단된다. 정보의 명세의 입상도 및 정보가 공유되는 엔티티들의 명세의 입상도의 다양한 조합이 가능하다. 예컨대, 모든 개인 정보는 친구들과 공유될 수 있는 한편, 모든 작업 정보는 친구의 친구들과 공유될 수 있다.
인증 서버(644)는 사용자와 연관된 특정 정보가 사용자의 친구들, 외부 시스템(620), 및/또는 다른 애플리케이션과 엔티티들에 의해 액세스될 수 있는지 여부를 결정하는 로직을 포함한다. 외부 시스템(620)은 가령 사용자의 직장 전화번호와 같은 사용자의 더 개인적이고 민감한 정보에 액세스하기 위해 인증 서버(644)로부터의 인증이 필요할 수 있다. 사용자의 개인정보 설정에 기반하여, 인증 서버(644)는, 다른 사용자, 외부 시스템(620), 애플리케이션, 또는 다른 엔티티가 사용자에 의해 행해진 행위에 관한 정보를 포함하는 사용자와 연관된 정보에 액세스하는 것이 허용되는지 여부를 결정한다.
일부 실시예에서, 소셜 네트워킹 시스템(630)은 컨텐츠 제공자 모듈(646)을 포함할 수 있다. 컨텐츠 제공자 모듈(646)은 예컨대 도 1의 컨텐츠 제공자 모듈(102)로 구현될 수 있다. 전술한 바와 같이, 많은 변형 또는 다른 가능성이 있을 수 있음을 이해할 것이다.
하드웨어 구현
전술한 프로세스 및 특징들은 광범위하게 다양한 네트워크 및 컴퓨팅 환경에서 광범위하게 다양한 기계 및 컴퓨터 시스템 구조에 의해 구현될 수 있다. 도 7은 본 발명의 실시예에 따른, 본 명세서에 기술된 하나 이상의 실시예들을 구현하도록 사용될 수 있는 컴퓨터 시스템(700)의 예시를 도시한다. 컴퓨터 시스템(700)은 컴퓨터 시스템(700)이 본 명세서에 기술된 프로세스 및 특징들을 수행하도록 야기하는 명령어들의 세트들을 포함한다. 컴퓨터 시스템(700)은 다른 기계들에 연결(예컨대, 네트워크화)될 수 있다. 네트워크화된 배치에서, 컴퓨터 시스템(700)은 클라이언트-서버 네트워크 환경에서의 서버 기계 또는 클라이언트 기계의 용량으로 또는 피어-투-피어 (또는 분산형) 네트워크 환경에서의 피어 기계로서 동작할 수 있다. 본 발명의 일실시예로, 컴퓨터 시스템(700)은 소셜 네트워킹 시스템(630), 사용자 장치(610) 및 외부 시스템(620)이거나 그들의 컴포넌트일 수 있다. 본 발명의 일실시예로, 컴퓨터 시스템(700)은 소셜 네트워킹 시스템(630)의 전부 또는 일부를 구성하는 많은 수의 서버들 중 하나의 서버일 수 있다.
컴퓨터 시스템(700)은, 본 명세서에 기술된 프로세스 및 특징에 관련되고, 컴퓨터-판독가능한 매체에 저장된 프로세서(702), 캐시(704), 및 하나 이상의 실행가능한 모듈 및 드라이버를 포함한다. 추가로, 컴퓨터 시스템(700)은 고성능 입력/출력(I/O) 버스(706) 및 표준 I/O 버스(708)를 포함한다. 호스트 브릿지(710)는 프로세서(702)를 고성능 I/O 버스(706)에 연결하는 한편, I/O 버스 브릿지(712)는 2개의 버스들(706, 708)을 서로 연결한다. 시스템 메모리(714) 및 하나 이상의 네트워크 인터페이스(716)는 고성능 I/O 버스(706)에 연결된다. 컴퓨터 시스템(700)은 비디오 메모리 및 비디오 메모리에 연결된 디스플레이 장치(도시되지 않음)를 더 포함할 수 있다. 대용량 저장소(718) 및 I/O 포트(720)는 표준 I/O 버스(708)에 연결된다. 컴퓨터 시스템(700)은 선택적으로 키보드, 포인팅 장치, 디스플레이 장치, 또는 표준 I/O 버스(708)에 연결된 다른 입력/출력 장치들(도시되지 않음)을 포함할 수 있다. 전체적으로, 이러한 구성요소들은, 캘리포니아 산타 클라라의 인텔사에 의해 제조된 x86-호환 프로세서, 및 캘리포니아 서니데일의 AMD(Advanced Micro Devices), Inc. 에 의해 제조된 x86-호환 프로세서뿐만 아니라 임의의 다른 적절한 프로세서에 기반하는 컴퓨터 시스템을 포함하지만 이에 제한되지 않는 컴퓨터 하드웨어 시스템의 넓은 카테고리를 표현하도록 의도되었다.
운영 시스템은, 소프트웨어 애플리케이션(도시되지 않음)으로 오가는 데이터의 입력 및 출력을 포함하는 컴퓨터 시스템(700)의 동작을 관리하고 제어한다. 운영 시스템은 시스템상에 실행되는 소프트웨어 애플리케이션과 시스템의 하드웨어 컴포넌트들 사이의 인터페이스를 제공한다. 가령 LINUX 운영 시스템, 캘리포니아 쿠퍼티노의 Apple Computer Inc. 로부터 이용가능한 Apple Macintosh 운영 시스템, UNIX 운영 시스템, Microsoft® Windows® 운영 시스템, BSD 운영 시스템 등과 같은 임의의 적절한 운영 시스템이 이용될 수 있다. 다른 구현도 가능하다.
컴퓨터 시스템(700)의 구성요소들은 아래에서 더 상세하게 기술된다. 특히, 네트워크 인터페이스(716)는 컴퓨터 시스템(700) 및 가령 Ethernet(예컨대, IEEE 802.3) 네트워크, 백플레인(backplane) 등과 같은 임의의 광범위의 네트워크 사이의 통신을 제공한다. 대용량 저장소(718)는 앞서 식별된 각각의 컴퓨팅 시스템들에 의해 구현되는 상기 프로세스들 및 특징들을 수행하는 프로그래밍 명령어들 및 데이터를 위한 영구적인 저장소를 제공하는 한편, 시스템 메모리(714)(예컨대, DRAM)는 프로세서(702)에 의해 실행될 때 데이터 및 프로그래밍 명령어들을 위한 임시적인 저장소를 제공한다. I/O 포트(720)는, 컴퓨터 시스템(700)에 연결될 수 있는 추가 주변 장치들 사이의 통신을 제공하는 하나 이상의 직렬 및/또는 병렬 통신 포트일 수 있다.
컴퓨터 시스템(700)은 다양한 시스템 구조들을 포함할 수 있고, 컴퓨터 시스템(700)의 다양한 컴포넌트들은 재정렬될 수 있다. 예컨대, 캐시(704)는 프로세서(702)를 갖는 온-칩일 수 있다. 대안으로, 캐시(704) 및 프로세서(702)는 프로세서(702)가 "프로세서 코어"로 불리는 "프로세서 모듈"로 함께 패킹(pack)될 수 있다. 더욱이, 본 발명의 특정 실시예들은 상기의 컴포넌트들 전부를 요구하지도 않고 포함하지도 않을 수 있다. 예컨대, 표준 I/O 버스(708)에 연결된 주변 장치들은 고성능 I/O 버스(706)에 연결될 수 있다. 추가로, 일부 실시예로, 단일 버스만이 존재할 수 있고, 컴퓨터 시스템(700)의 컴포넌트들은 단일 버스에 연결될 수 있다. 더욱이, 컴퓨터 시스템(700)은 가령 추가적인 프로세서, 저장 장치, 또는 메모리와 같은 추가 컴포넌트들을 포함할 수 있다.
일반적으로, 본 명세서에 기술된 프로세스 및 특징들은 운영 시스템 또는 특정 애플리케이션, 컴포넌트, 프로그램, 객체, 모듈 또는 "프로그램"으로 불리는 일련의 명령어들의 일부로서 구현될 수 있다. 예컨대, 하나 이상의 프로그램들은 본 명세서에 기술된 특정 프로세스들을 실행하는데 사용될 수 있다. 프로그램들은 전형적으로 하나 이상의 프로세서에 의해 읽혀지고 실행될 때 컴퓨터 시스템(700)이 본 명세서에 기술된 프로세스 및 특징들을 실행하는 동작들을 수행하도록 야기하는 하나 이상의 명령어들을 컴퓨터 시스템(700)에서 다양한 메모리 및 저장 장치에서 포함할 수 있다. 본 명세서에 기술된 프로세스 및 특징들은 소프트웨어, 펌웨어, 하드웨어(예컨대, 애플리케이션 고유의 집적 회로(application specific integrated circuit; ASIC), 또는 이들의 임의의 조합에서 구현될 수 있다.
하나의 구현예로, 본 명세서에 기술된 프로세스 및 특징들은, 컴퓨터 시스템(700)에 의해 실행되는 일련의 실행가능한 모듈로서 분산형 컴퓨팅 환경에서 개별적으로 또는 집합적으로 구현될 수 있다. 전술한 모듈들은 하드웨어, 컴퓨터-판독가능한 매체 (또는 기계-판독가능한 매체), 또는 이들 모두의 조합에 의해 실현될 수 있다. 예컨대, 모듈은 가령, 프로세서(702)와 같은 하드웨어 시스템에서의 프로세서에 의해 실행되는 복수의 또는 일련의 명령어들을 포함할 수 있다. 초기에, 일련의 명령어들은 가령, 대용량 저장소(718)와 같은 저장 장치에 저장될 수 있다. 하지만, 일련의 명령어들은 임의의 적절한 컴퓨터-판독가능한 저장 매체에 저장될 수 있다. 더욱이, 일련의 명령어들은 로컬에서 저장될 필요가 없으며, 네트워크 인터페이스(716)를 통해 가령 네트워크상의 서버와 같은 원격 저장 장치로부터 수신될 수 있다. 명령어들은 가령 대용량 저장소(718)와 같은 저장 장치로부터 시스템 메모리(714)로 복사되고, 이후 프로세서(702)에 의해 액세스되고 실행된다. 다양한 구현예에서, 모듈 또는 모듈들은 프로세서나 복수의 프로세서들에 의하여 하나 또는 복수의 위치, 예컨대 병렬 프로세싱 환경의 복수의 서버에서 실행될 수 있다.
컴퓨터-판독가능한 매체의 예들은, 가령 휘발성 및 비-휘발성 메모리 장치와 같은 기록 가능한 타입의 매체; 고체 상태 메모리(solid state memory; SSD); 플로피 및 다른 제거가능한 디스크; 하드 디스크 드라이브, 자기 매체; 광학 디스크(예컨대, CD ROMS(Compact Disk Read-Only Memory), DVDs(Digital Versatile Disks)); 다른 유사한 비-일시적 (또는 일시적), 실체적 (또는 비-실체적) 저장 매체; 또는 본 명세서에 기술되는 임의의 하나 이상의 프로세스 및 특징을 수행하는 컴퓨터 시스템(700)에 의해 실행하기 위한 일련의 명령어들을 저장하고, 인코딩하고, 운반하는데 적절한 임의의 타입의 매체를 포함하지만, 이에 제한되지 않는다.
설명하기 위한 목적을 위해, 발명의 설명의 완전한 이해를 제공하도록 다수의 구체적인 세부사항들이 언급된다. 하지만, 본 명세서의 실시예들은 이러한 구체적인 세부사항들 없이도 실행될 수 있음이 통상의 기술자에게 자명해질 것이다. 다른 예에서, 기능적 블록 다이어그램 및 흐름 다이어그램은 데이터 및 로직의 흐름을 표현하도록 도시된다. 다른 예에서, 기능적 블록 다이어그램 및 흐름 다이어그램은 데이터 및 로직의 흐름을 표현하도록 도시된다. 블록 다이어그램 및 흐름 다이어그램의 컴포넌트들(예컨대, 모듈, 블록, 구조, 장치, 특징 등)은 본 명세서에 명시적으로 기술되고 도시된 것과 다른 방식으로 다양하게 조합되고, 분리되고, 제거되고, 재정렬되고, 대체될 수 있다.
본 명세서에서의 "일실시예", "실시예", "다른 실시예", "일련의 실시예", "일부 실시예", "다양한 실시예", "특정 실시예" 등에 대한 언급은, 실시예와 연계되어 기술된 특정의 특징, 설계, 구조, 또는 특성이 본 명세서의 적어도 하나의 실시예에 포함되는 것을 의미한다. 본 명세서에서의 다양한 위치에서 가령, "일실시예로" 또는 "실시예로"와 같은 구절이 나타나는 것은 동일한 실시예를 언급하거나 혹은 다른 실시예들과 상호 배타적이며 분리된 또는 대안적 실시예들을 필연적으로 언급하는 것은 아니다. 더욱이, "실시예" 등에 대한 명시적인 언급이 있는지와 무관하게, 다양하게 조합될 수 있고 일부 실시예들에 포함될 수 있는 다양한 특징들이 기술되지만, 이들은 또한, 다른 실시예들에서 다양하게 생략된다. 마찬가지로, 일부 실시예에 대하여 바람직하거나 필요할 수 있지만 다른 실시예에서는 그렇지 않은 다양한 특징들이 개시된다.
본 명세서에 사용되는 용어는 원칙적으로 가독성 및 훈시적 목적을 위해서 선택되었으며, 발명의 대상을 묘사하거나 제한하기 위해 선택된 것은 아니다. 따라서, 본 발명의 범위는, 본 발명의 상세한 설명에 의해 제한되는 것이 아니며, 본 출원이 기초로 하는 제출되는 청구범위에 의해 정의되는 것으로 의도되었다. 따라서, 본 발명의 실시예들의 개시는 설명을 위한 것이며, 본 발명의 범위를 제한하고자 하는 것이 아니다. 본 발명의 범위는 이하의 청구범위에 개시된다.

Claims (33)

  1. 컴퓨팅 장치에 의하여, 컨텐츠 아이템에 접근하기 위한 적어도 하나의 요청을 결정하는 단계;
    컴퓨팅 장치에 의하여, 컨텐츠 아이템의 재생이 표시되는 컴퓨팅 장치의 디스플레이 스크린 상에 뷰포트 인터페이스를 제공하는 단계; 및
    컴퓨팅 장치에 의하여, 뷰포트 인터페이스에 내비게이션 표시자를 제공하는 단계를 포함하고,
    컨텐츠 아이템은 상이한 위치의 세트로부터 적어도 하나의 장면을 캡처하는 카메라 피드의 세트를 사용하여 구성되고,
    뷰포트 인터페이스는 컴퓨팅 장치를 구동하는 사용자가 i) 장면에 대한 뷰포트의 방향 또는 ii) 뷰포트 인터페이스의 줌 수준을 변경함으로써 적어도 하나의 장면을 가상으로 탐색할 수 있게 하도록 구성되고,
    내비게이션 표시자는 컨텐츠 아이템의 재생 동안 뷰포트 인터페이스의 각 방향 및 줌 수준에 대한 임의의 변경을 시각적으로 표시하도록 구성되는 컴퓨터 구현 방법.
  2. 청구항 1에 있어서,
    컴퓨팅 장치에 의하여, 장면 내의 적어도 하나의 관심 지점의 각 방향을 결정하는 단계; 및
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 수준을 시각적으로 표시하는데 추가로 적어도 하나의 관심 지점의 각 방향을 시각적으로 표시하도록 야기하는 단계를 더 포함하는 컴퓨터 구현 방법.
  3. 청구항 1에 있어서,
    컴퓨팅 장치에 의하여, 컨텐츠 아이템의 재생 동안 장면 내에서 생성되는 적어도 하나의 소리의 각 방향을 결정하는 단계; 및
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 방향을 시각적으로 표시하는데 추가로 적어도 하나의 소리의 각 방향을 시각적으로 표시하도록 야기하는 단계를 더 포함하는 컴퓨터 구현 방법.
  4. 청구항 1에 있어서,
    컴퓨팅 장치에 의하여, 컨텐츠 아이템이 장면 내의 관심 지점의 세트를 가상으로 탐색하기 위한 정보를 명시하는 자동 모드와 연관된다고 결정하는 단계;
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 자동 모드가 활성화되었다고 시각적으로 표시하도록 야기하는 단계; 및
    컴퓨팅 장치에 의하여, 뷰포트 인터페이스로 하여금 자동 모드에 적어도 부분적으로 기반하여 장면을 가상으로 탐색하도록 야기하는 단계를 더 포함하는 컴퓨터 구현 방법.
  5. 청구항 4에 있어서,
    자동 모드 정보는 관심 지점의 세트 중 관심 지점들 간을 가상으로 탐색하는 동안 장면 내에서 뷰포트 인터페이스를 안내하기 위한 각 궤적도 명시하는 컴퓨터 구현 방법.
  6. 청구항 4에 있어서,
    컴퓨팅 장치에 의하여, 사용자가 뷰포트 인터페이스의 방향 또는 뷰포트 인터페이스의 줌 수준을 변경하기 위하여 하나 이상의 동작을 수행했다고 결정하는 단계;
    컴퓨팅 장치에 의하여, 자동 모드가 비활성화되도록 야기하는 단계;
    컴퓨팅 장치에 의하여, 뷰포트 인터페이스로 하여금 변경된 방향 또는 줌 수준에 대응하도록 야기하는 단계; 및
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 변경된 방향 또는 줌 수준을 시각적으로 표시하도록 야기하는 단계를 더 포함하고,
    내비게이션 표시자는 더 이상 자동 모드가 활성화되었다고 표시하지 않는 컴퓨터 구현 방법.
  7. 청구항 6에 있어서,
    컴퓨팅 장치에 의하여, 사용자가 뷰포트 인터페이스의 방향 또는 줌 수준을 변경하기 위하여 하나 이상의 동작을 수행한 후 임계 기간이 경과했다고 결정하는 단계;
    컴퓨팅 장치에 의하여, 자동 모드가 재활성화되도록 야기하는 단계; 및
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 자동 모드가 활성화되었다고 시각적으로 표시하도록 야기하는 단계를 더 포함하는 컴퓨터 구현 방법.
  8. 청구항 1에 있어서,
    컴퓨팅 장치에 의하여, 사용자가 뷰포트 인터페이스의 방향 또는 뷰포트 인터페이스의 줌 수준을 변경하기 위하여 하나 이상의 동작을 수행했다고 결정하는 단계;
    컴퓨팅 장치에 의하여, 뷰포트 인터페이스로 하여금 변경된 방향 또는 줌 수준에 대응하도록 야기하는 단계; 및
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 뷰포트 인터페이스의 변경된 방향 및 줌 수준을 시각적으로 표시하도록 야기하는 단계를 더 포함하는 컴퓨터 구현 방법.
  9. 청구항 8에 있어서,
    컴퓨팅 장치에 의하여, 사용자가 내비게이션 표시자에 대응하는 디스플레이 스크린의 영역 상에 터치 제스처를 수행했다고 결정하는 단계; 및
    컴퓨팅 장치에 의하여, 뷰포트 인터페이스로 하여금 컨텐츠 아이템의 게시자에 의하여 지정된 방향 및 줌 수준에 대응하도록 야기하는 단계를 더 포함하는 컴퓨터 구현 방법.
  10. 청구항 8에 있어서,
    하나 이상의 동작은 적어도 하나의 터치 제스처 또는 장치 제스처를 포함하는 컴퓨터 구현 방법.
  11. 적어도 하나의 프로세서; 및
    명령어를 저장하는 메모리를 포함하는 시스템으로서, 명령어는 적어도 하나의 프로세서에 의해 실행될 때, 시스템으로 하여금:
    컨텐츠 아이템에 접근하기 위한 적어도 하나의 요청을 결정하는 단계;
    컨텐츠 아이템의 재생이 표시되는 컴퓨팅 장치의 디스플레이 스크린 상에 뷰포트 인터페이스를 제공하는 단계; 및
    뷰포트 인터페이스에 내비게이션 표시자를 제공하는 단계를 수행하도록 야기하고,
    컨텐츠 아이템은 상이한 위치의 세트로부터 적어도 하나의 장면을 캡처하는 카메라 피드의 세트를 사용하여 구성되고,
    뷰포트 인터페이스는 컴퓨팅 장치를 구동하는 사용자가 i) 장면에 대한 뷰포트의 방향 또는 ii) 뷰포트 인터페이스의 줌 수준을 변경함으로써 적어도 하나의 장면을 가상으로 탐색할 수 있게 하도록 구성되고,
    내비게이션 표시자는 컨텐츠 아이템의 재생 동안 뷰포트 인터페이스의 각 방향 및 줌 수준에 대한 임의의 변경을 시각적으로 표시하도록 구성되는 시스템.
  12. 청구항 11에 있어서,
    명령어는 시스템으로 하여금:
    장면 내의 적어도 하나의 관심 지점의 각 방향을 결정하는 단계; 및
    내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 수준을 시각적으로 표시하는데 추가로 적어도 하나의 관심 지점의 각 방향을 시각적으로 표시하도록 야기하는 단계를 수행하도록 더 야기하는 시스템.
  13. 청구항 11에 있어서,
    명령어는 시스템으로 하여금:
    컨텐츠 아이템의 재생 동안 장면 내에서 생성되는 적어도 하나의 소리의 각 방향을 결정하는 단계; 및
    내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 방향을 시각적으로 표시하는데 추가로 적어도 하나의 소리의 각 방향을 시각적으로 표시하도록 야기하는 단계를 수행하도록 더 야기하는 시스템.
  14. 청구항 11에 있어서,
    명령어는 시스템으로 하여금:
    컨텐츠 아이템이 장면 내의 관심 지점의 세트를 가상으로 탐색하기 위한 정보를 명시하는 자동 모드와 연관된다고 결정하는 단계;
    내비게이션 표시자로 하여금 자동 모드가 활성화되었다고 시각적으로 표시하도록 야기하는 단계; 및
    뷰포트 인터페이스로 하여금 자동 모드에 적어도 부분적으로 기반하여 장면을 가상으로 탐색하도록 야기하는 단계를 수행하도록 더 야기하는 시스템.
  15. 청구항 14에 있어서,
    자동 모드 정보는 관심 지점의 세트 중 관심 지점들 간을 가상으로 탐색하는 동안 장면 내에서 뷰포트 인터페이스를 안내하기 위한 각 궤적도 명시하는 시스템.
  16. 명령어를 포함하는 비일시적 컴퓨터 판독가능 저장 매체로서, 명령어는 컴퓨팅 시스템의 적어도 하나의 프로세서에 의해 실행될 때, 컴퓨팅 시스템으로 하여금:
    컨텐츠 아이템에 접근하기 위한 적어도 하나의 요청을 결정하는 단계;
    컨텐츠 아이템의 재생이 표시되는 컴퓨팅 장치의 디스플레이 스크린 상에 뷰포트 인터페이스를 제공하는 단계; 및
    뷰포트 인터페이스에 내비게이션 표시자를 제공하는 단계를 포함하는 방법을 수행하도록 야기하고,
    컨텐츠 아이템은 상이한 위치의 세트로부터 적어도 하나의 장면을 캡처하는 카메라 피드의 세트를 사용하여 구성되고,
    뷰포트 인터페이스는 컴퓨팅 장치를 구동하는 사용자가 i) 장면에 대한 뷰포트의 방향 또는 ii) 뷰포트 인터페이스의 줌 수준을 변경함으로써 적어도 하나의 장면을 가상으로 탐색할 수 있게 하도록 구성되고,
    내비게이션 표시자는 컨텐츠 아이템의 재생 동안 뷰포트 인터페이스의 각 방향 및 줌 수준에 대한 임의의 변경을 시각적으로 표시하도록 구성되는 비일시적 컴퓨터 판독가능 저장 매체.
  17. 청구항 16에 있어서,
    명령어는 컴퓨팅 시스템으로 하여금:
    장면 내의 적어도 하나의 관심 지점의 각 방향을 결정하는 단계; 및
    내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 수준을 시각적으로 표시하는데 추가로 적어도 하나의 관심 지점의 각 방향을 시각적으로 표시하도록 야기하는 단계를 수행하도록 더 야기하는 비일시적 컴퓨터 판독가능 저장 매체.
  18. 청구항 16에 있어서,
    명령어는 컴퓨팅 시스템으로 하여금:
    컨텐츠 아이템의 재생 동안 장면 내에서 생성되는 적어도 하나의 소리의 각 방향을 결정하는 단계; 및
    내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 방향을 시각적으로 표시하는데 추가로 적어도 하나의 소리의 각 방향을 시각적으로 표시하도록 야기하는 단계를 수행하도록 더 야기하는 비일시적 컴퓨터 판독가능 저장 매체.
  19. 청구항 16에 있어서,
    명령어는 컴퓨팅 시스템으로 하여금:
    컨텐츠 아이템이 장면 내의 관심 지점의 세트를 가상으로 탐색하기 위한 정보를 명시하는 자동 모드와 연관된다고 결정하는 단계;
    내비게이션 표시자로 하여금 자동 모드가 활성화되었다고 시각적으로 표시하도록 야기하는 단계; 및
    뷰포트 인터페이스로 하여금 자동 모드에 적어도 부분적으로 기반하여 장면을 가상으로 탐색하도록 야기하는 단계를 수행하도록 더 야기하는 비일시적 컴퓨터 판독가능 저장 매체.
  20. 청구항 19에 있어서,
    자동 모드 정보는 관심 지점의 세트 중 관심 지점들 간을 가상으로 탐색하는 동안 장면 내에서 뷰포트 인터페이스를 안내하기 위한 각 궤적도 명시하는 비일시적 컴퓨터 판독가능 저장 매체.
  21. 컴퓨팅 장치에 의하여, 컨텐츠 아이템에 접근하기 위한 적어도 하나의 요청을 결정하는 단계;
    컴퓨팅 장치에 의하여, 컨텐츠 아이템의 재생이 표시되는 컴퓨팅 장치의 디스플레이 스크린 상에 뷰포트 인터페이스를 제공하는 단계; 및
    컴퓨팅 장치에 의하여, 뷰포트 인터페이스에 내비게이션 표시자를 제공하는 단계를 포함하고,
    컨텐츠 아이템은 상이한 위치의 세트로부터 적어도 하나의 장면을 캡처하는 카메라 피드의 세트를 사용하여 구성되고,
    뷰포트 인터페이스는 컴퓨팅 장치를 구동하는 사용자가 i) 장면에 대한 뷰포트의 방향 또는 ii) 뷰포트 인터페이스의 줌 수준을 변경함으로써 적어도 하나의 장면을 가상으로 탐색할 수 있게 하도록 구성되고,
    내비게이션 표시자는 컨텐츠 아이템의 재생 동안 뷰포트 인터페이스의 각 방향 및 줌 수준에 대한 임의의 변경을 시각적으로 표시하도록 구성되는 컴퓨터 구현 방법.
  22. 청구항 21에 있어서,
    컴퓨팅 장치에 의하여, 장면 내의 적어도 하나의 관심 지점의 각 방향을 결정하는 단계; 및
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 수준을 시각적으로 표시하는데 추가로 적어도 하나의 관심 지점의 각 방향을 시각적으로 표시하도록 야기하는 단계를 더 포함하는 컴퓨터 구현 방법.
  23. 청구항 21 또는 청구항 22에 있어서,
    컴퓨팅 장치에 의하여, 컨텐츠 아이템의 재생 동안 장면 내에서 생성되는 적어도 하나의 소리의 각 방향을 결정하는 단계; 및
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 방향을 시각적으로 표시하는데 추가로 적어도 하나의 소리의 각 방향을 시각적으로 표시하도록 야기하는 단계를 더 포함하는 컴퓨터 구현 방법.
  24. 청구항 21 내지 청구항 23 중 어느 하나의 항에 있어서,
    컴퓨팅 장치에 의하여, 컨텐츠 아이템이 장면 내의 관심 지점의 세트를 가상으로 탐색하기 위한 정보를 명시하는 자동 모드와 연관된다고 결정하는 단계;
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 자동 모드가 활성화되었다고 시각적으로 표시하도록 야기하는 단계; 및
    컴퓨팅 장치에 의하여, 뷰포트 인터페이스로 하여금 자동 모드에 적어도 부분적으로 기반하여 장면을 가상으로 탐색하도록 야기하는 단계를 더 포함하고,
    바람직하게는 자동 모드 정보는 관심 지점의 세트 중 관심 지점들 간을 가상으로 탐색하는 동안 장면 내에서 뷰포트 인터페이스를 안내하기 위한 각 궤적도 명시하고; 및/또는
    방법은:
    컴퓨팅 장치에 의하여, 사용자가 뷰포트 인터페이스의 방향 또는 뷰포트 인터페이스의 줌 수준을 변경하기 위하여 하나 이상의 동작을 수행했다고 결정하는 단계;
    컴퓨팅 장치에 의하여, 자동 모드가 비활성화되도록 야기하는 단계;
    컴퓨팅 장치에 의하여, 뷰포트 인터페이스로 하여금 변경된 방향 또는 줌 수준에 대응하도록 야기하는 단계; 및
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 변경된 방향 또는 줌 수준을 시각적으로 표시하도록 야기하는 단계를 더 포함하고,
    내비게이션 표시자는 더 이상 자동 모드가 활성화되었다고 표시하지 않고,
    바람직하게는 방법은:
    컴퓨팅 장치에 의하여, 사용자가 뷰포트 인터페이스의 방향 또는 줌 수준을 변경하기 위하여 하나 이상의 동작을 수행한 후 임계 기간이 경과했다고 결정하는 단계;
    컴퓨팅 장치에 의하여, 자동 모드가 재활성화되도록 야기하는 단계;
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 자동 모드가 활성화되었다고 시각적으로 표시하도록 야기하는 단계를 더 포함하는 컴퓨터 구현 방법.
  25. 청구항 21 내지 청구항 24 중 어느 하나의 항에 있어서,
    컴퓨팅 장치에 의하여, 사용자가 뷰포트 인터페이스의 방향 또는 뷰포트 인터페이스의 줌 수준을 변경하기 위하여 하나 이상의 동작을 수행했다고 결정하는 단계;
    컴퓨팅 장치에 의하여, 뷰포트 인터페이스로 하여금 변경된 방향 또는 줌 수준에 대응하도록 야기하는 단계; 및
    컴퓨팅 장치에 의하여, 내비게이션 표시자로 하여금 뷰포트 인터페이스의 변경된 방향 및 줌 수준을 시각적으로 표시하도록 야기하는 단계를 더 포함하고,
    바람직하게는 방법은:
    컴퓨팅 장치에 의하여, 사용자가 내비게이션 표시자에 대응하는 디스플레이 스크린의 영역 상에 터치 제스처를 수행했다고 결정하는 단계; 및
    컴퓨팅 장치에 의하여, 뷰포트 인터페이스로 하여금 컨텐츠 아이템의 게시자에 의하여 지정된 방향 및 줌 수준에 대응하도록 야기하는 단계를 더 포함하고, 및/또는
    바람직하게는 하나 이상의 동작은 적어도 하나의 터치 제스처 또는 장치 제스처를 포함하는 컴퓨터 구현 방법.
  26. 적어도 하나의 프로세서; 및
    명령어를 저장하는 메모리를 포함하는 시스템으로서, 명령어는 적어도 하나의 프로세서에 의해 실행될 때, 시스템으로 하여금:
    컨텐츠 아이템에 접근하기 위한 적어도 하나의 요청을 결정하는 단계;
    컨텐츠 아이템의 재생이 표시되는 컴퓨팅 장치의 디스플레이 스크린 상에 뷰포트 인터페이스를 제공하는 단계; 및
    뷰포트 인터페이스에 내비게이션 표시자를 제공하는 단계를 수행하도록 야기하고,
    컨텐츠 아이템은 상이한 위치의 세트로부터 적어도 하나의 장면을 캡처하는 카메라 피드의 세트를 사용하여 구성되고,
    뷰포트 인터페이스는 컴퓨팅 장치를 구동하는 사용자가 i) 장면에 대한 뷰포트의 방향 또는 ii) 뷰포트 인터페이스의 줌 수준을 변경함으로써 적어도 하나의 장면을 가상으로 탐색할 수 있게 하도록 구성되고,
    내비게이션 표시자는 컨텐츠 아이템의 재생 동안 뷰포트 인터페이스의 각 방향 및 줌 수준에 대한 임의의 변경을 시각적으로 표시하도록 구성되는 시스템.
  27. 청구항 26에 있어서,
    명령어는 시스템으로 하여금:
    장면 내의 적어도 하나의 관심 지점의 각 방향을 결정하는 단계; 및
    내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 수준을 시각적으로 표시하는데 추가로 적어도 하나의 관심 지점의 각 방향을 시각적으로 표시하도록 야기하는 단계를 수행하도록 더 야기하는 시스템.
  28. 청구항 26 또는 청구항 27에 있어서,
    명령어는 시스템으로 하여금:
    컨텐츠 아이템의 재생 동안 장면 내에서 생성되는 적어도 하나의 소리의 각 방향을 결정하는 단계; 및
    내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 방향을 시각적으로 표시하는데 추가로 적어도 하나의 소리의 각 방향을 시각적으로 표시하도록 야기하는 단계를 수행하도록 더 야기하는 시스템.
  29. 청구항 26 내지 청구항 28 중 어느 하나의 항에 있어서,
    명령어는 시스템으로 하여금:
    컨텐츠 아이템이 장면 내의 관심 지점의 세트를 가상으로 탐색하기 위한 정보를 명시하는 자동 모드와 연관된다고 결정하는 단계;
    내비게이션 표시자로 하여금 자동 모드가 활성화되었다고 시각적으로 표시하도록 야기하는 단계; 및
    뷰포트 인터페이스로 하여금 자동 모드에 적어도 부분적으로 기반하여 장면을 가상으로 탐색하도록 야기하는 단계를 수행하도록 더 야기하고,
    바람직하게는 자동 모드 정보는 관심 지점의 세트 중 관심 지점들 간을 가상으로 탐색하는 동안 장면 내에서 뷰포트 인터페이스를 안내하기 위한 각 궤적도 명시하는 시스템.
  30. 명령어를 포함하는 비일시적 컴퓨터 판독가능 저장 매체로서, 명령어는 컴퓨팅 시스템의 적어도 하나의 프로세서에 의해 실행될 때, 컴퓨팅 시스템으로 하여금:
    컨텐츠 아이템에 접근하기 위한 적어도 하나의 요청을 결정하는 단계;
    컨텐츠 아이템의 재생이 표시되는 컴퓨팅 장치의 디스플레이 스크린 상에 뷰포트 인터페이스를 제공하는 단계; 및
    뷰포트 인터페이스에 내비게이션 표시자를 제공하는 단계를 포함하는 방법을 수행하도록 야기하고,
    컨텐츠 아이템은 상이한 위치의 세트로부터 적어도 하나의 장면을 캡처하는 카메라 피드의 세트를 사용하여 구성되고,
    뷰포트 인터페이스는 컴퓨팅 장치를 구동하는 사용자가 i) 장면에 대한 뷰포트의 방향 또는 ii) 뷰포트 인터페이스의 줌 수준을 변경함으로써 적어도 하나의 장면을 가상으로 탐색할 수 있게 하도록 구성되고,
    내비게이션 표시자는 컨텐츠 아이템의 재생 동안 뷰포트 인터페이스의 각 방향 및 줌 수준에 대한 임의의 변경을 시각적으로 표시하도록 구성되는 비일시적 컴퓨터 판독가능 저장 매체.
  31. 청구항 30에 있어서,
    명령어는 컴퓨팅 시스템으로 하여금:
    장면 내의 적어도 하나의 관심 지점의 각 방향을 결정하는 단계; 및
    내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 수준을 시각적으로 표시하는데 추가로 적어도 하나의 관심 지점의 각 방향을 시각적으로 표시하도록 야기하는 단계를 수행하도록 더 야기하는 비일시적 컴퓨터 판독가능 저장 매체.
  32. 청구항 30 또는 청구항 31에 있어서,
    명령어는 컴퓨팅 시스템으로 하여금:
    컨텐츠 아이템의 재생 동안 장면 내에서 생성되는 적어도 하나의 소리의 각 방향을 결정하는 단계; 및
    내비게이션 표시자로 하여금 뷰포트 인터페이스의 방향 및 줌 방향을 시각적으로 표시하는데 추가로 적어도 하나의 소리의 각 방향을 시각적으로 표시하도록 야기하는 단계를 수행하도록 더 야기하는 비일시적 컴퓨터 판독가능 저장 매체.
  33. 청구항 30 내지 청구항 32 중 어느 하나의 항에 있어서,
    명령어는 컴퓨팅 시스템으로 하여금:
    컨텐츠 아이템이 장면 내의 관심 지점의 세트를 가상으로 탐색하기 위한 정보를 명시하는 자동 모드와 연관된다고 결정하는 단계;
    내비게이션 표시자로 하여금 자동 모드가 활성화되었다고 시각적으로 표시하도록 야기하는 단계; 및
    뷰포트 인터페이스로 하여금 자동 모드에 적어도 부분적으로 기반하여 장면을 가상으로 탐색하도록 야기하는 단계를 수행하도록 더 야기하고,
    바람직하게는 자동 모드 정보는 관심 지점의 세트 중 관심 지점들 간을 가상으로 탐색하는 동안 장면 내에서 뷰포트 인터페이스를 안내하기 위한 각 궤적도 명시하는 비일시적 컴퓨터 판독가능 저장 매체.
KR1020187027022A 2016-03-07 2016-12-27 컨텐츠를 표시하기 위한 시스템 및 방법 KR20180114172A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/063,423 US10824320B2 (en) 2016-03-07 2016-03-07 Systems and methods for presenting content
US15/063,423 2016-03-07
PCT/US2016/068694 WO2017155590A1 (en) 2016-03-07 2016-12-27 Systems and methods for presenting content

Publications (1)

Publication Number Publication Date
KR20180114172A true KR20180114172A (ko) 2018-10-17

Family

ID=59722686

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187027022A KR20180114172A (ko) 2016-03-07 2016-12-27 컨텐츠를 표시하기 위한 시스템 및 방법

Country Status (10)

Country Link
US (1) US10824320B2 (ko)
JP (1) JP6921842B2 (ko)
KR (1) KR20180114172A (ko)
CN (1) CN109076187A (ko)
AU (1) AU2016396178A1 (ko)
BR (1) BR112018068041A2 (ko)
CA (1) CA3016881A1 (ko)
IL (1) IL261607A (ko)
MX (1) MX2018010785A (ko)
WO (1) WO2017155590A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3345184A1 (en) * 2015-09-02 2018-07-11 THOMSON Licensing Method, apparatus and system for facilitating navigation in an extended scene
US10147191B1 (en) * 2016-07-26 2018-12-04 360fly, Inc. Panoramic video cameras, camera systems, and methods that provide object tracking and object based zoom
CN107888987B (zh) * 2016-09-29 2019-12-06 华为技术有限公司 一种全景视频播放方法及装置
KR102233667B1 (ko) * 2017-07-13 2021-03-31 삼성전자주식회사 네트워크 시스템에서 데이터를 전송하는 방법 및 장치
JP6419278B1 (ja) * 2017-09-19 2018-11-07 キヤノン株式会社 制御装置、制御方法、及びプログラム
US10554953B2 (en) * 2017-12-17 2020-02-04 Google Llc Distortion of video for seek in 360 degree video
EP3716037A1 (en) * 2019-03-28 2020-09-30 ABB Schweiz AG Responsive auto-layouting of industrial process graphics
US10972789B2 (en) * 2019-06-03 2021-04-06 At&T Intellectual Property I, L.P. Methods, systems, and devices for providing service differentiation for different types of frames for video content
US11200918B1 (en) 2020-07-29 2021-12-14 Gopro, Inc. Video framing based on device orientation

Family Cites Families (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5276785A (en) * 1990-08-02 1994-01-04 Xerox Corporation Moving viewpoint with respect to a target in a three-dimensional workspace
US5736982A (en) * 1994-08-03 1998-04-07 Nippon Telegraph And Telephone Corporation Virtual space apparatus with avatars and speech
US5715416A (en) * 1994-09-30 1998-02-03 Baker; Michelle User definable pictorial interface for a accessing information in an electronic file system
GB9800397D0 (en) * 1998-01-09 1998-03-04 Philips Electronics Nv Virtual environment viewpoint control
US6222557B1 (en) * 1998-06-26 2001-04-24 Visual Insights, Inc. Navigation system and method for viewing a 3D data landscape
US6738073B2 (en) * 1999-05-12 2004-05-18 Imove, Inc. Camera system with both a wide angle view and a high resolution view
US6401034B1 (en) * 1999-09-02 2002-06-04 Navigation Technologies Corp. Method and system for finding intermediate destinations with a navigation system
US6556206B1 (en) * 1999-12-09 2003-04-29 Siemens Corporate Research, Inc. Automated viewpoint selection for 3D scenes
US7028269B1 (en) * 2000-01-20 2006-04-11 Koninklijke Philips Electronics N.V. Multi-modal video target acquisition and re-direction system and method
US6587782B1 (en) * 2000-03-14 2003-07-01 Navigation Technologies Corp. Method and system for providing reminders about points of interests while traveling
US6784901B1 (en) * 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
US7865306B2 (en) * 2000-09-28 2011-01-04 Michael Mays Devices, methods, and systems for managing route-related information
JP2002320215A (ja) * 2001-02-16 2002-10-31 Fujitsu Ltd 動画像配信用サーバーコンピュータ、動画像編集方法、動画像受信用クライアントコンピュータ、動画像配信方法、動画像配信用クライアントサーバーシステム、動画像再生処理プログラム及び記録媒体
US6526351B2 (en) * 2001-07-09 2003-02-25 Charles Lamont Whitham Interactive multimedia tour guide
US7190365B2 (en) * 2001-09-06 2007-03-13 Schlumberger Technology Corporation Method for navigating in a multi-scale three-dimensional scene
US6882971B2 (en) * 2002-07-18 2005-04-19 General Instrument Corporation Method and apparatus for improving listener differentiation of talkers during a conference call
US7298930B1 (en) * 2002-11-29 2007-11-20 Ricoh Company, Ltd. Multimodal access of meeting recordings
US6968973B2 (en) * 2003-05-31 2005-11-29 Microsoft Corporation System and process for viewing and navigating through an interactive video tour
US7428000B2 (en) * 2003-06-26 2008-09-23 Microsoft Corp. System and method for distributed meetings
EP1725927A4 (en) * 2004-02-23 2007-12-26 Hillcrest Lab Inc PROCEDURE FOR INCREMENTAL REAL-TIME ZOOMING
US20070182812A1 (en) * 2004-05-19 2007-08-09 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
GB2414369B (en) * 2004-05-21 2007-08-01 Hewlett Packard Development Co Processing audio data
US20050280701A1 (en) * 2004-06-14 2005-12-22 Wardell Patrick J Method and system for associating positional audio to positional video
US7746376B2 (en) * 2004-06-16 2010-06-29 Felipe Mendoza Method and apparatus for accessing multi-dimensional mapping and information
US8207964B1 (en) * 2008-02-22 2012-06-26 Meadow William D Methods and apparatus for generating three-dimensional image data models
US7970150B2 (en) * 2005-04-29 2011-06-28 Lifesize Communications, Inc. Tracking talkers using virtual broadside scan and directed beams
US7840032B2 (en) * 2005-10-04 2010-11-23 Microsoft Corporation Street-side maps and paths
EP1950954B1 (en) * 2005-11-11 2011-04-06 Sony Corporation Image processing device, image processing method, program thereof, recording medium containing the program, and imaging device
US8559646B2 (en) * 2006-12-14 2013-10-15 William G. Gardner Spatial audio teleconferencing
DE202008018626U1 (de) * 2007-05-25 2017-01-31 Google Inc. System zum Betrachten von Panoramabildern
US7990394B2 (en) * 2007-05-25 2011-08-02 Google Inc. Viewing and navigating within panoramic images, and applications thereof
US8686991B2 (en) * 2007-09-26 2014-04-01 Autodesk, Inc. Navigation system for a 3D virtual scene
US10504285B2 (en) * 2007-09-26 2019-12-10 Autodesk, Inc. Navigation system for a 3D virtual scene
US8522289B2 (en) * 2007-09-28 2013-08-27 Yahoo! Inc. Distributed automatic recording of live event
US8174561B2 (en) 2008-03-14 2012-05-08 Sony Ericsson Mobile Communications Ab Device, method and program for creating and displaying composite images generated from images related by capture position
WO2009120303A1 (en) * 2008-03-24 2009-10-01 Google Inc. Panoramic images within driving directions
US8204299B2 (en) * 2008-06-12 2012-06-19 Microsoft Corporation 3D content aggregation built into devices
US20090315766A1 (en) * 2008-06-19 2009-12-24 Microsoft Corporation Source switching for devices supporting dynamic direction information
US8315366B2 (en) * 2008-07-22 2012-11-20 Shoretel, Inc. Speaker identification and representation for a phone
GB0815362D0 (en) * 2008-08-22 2008-10-01 Queen Mary & Westfield College Music collection navigation
US8493408B2 (en) * 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
US8294766B2 (en) 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
US8405623B2 (en) * 2009-03-25 2013-03-26 International Business Machines Corporation Directional audio viewport for the sight impaired in virtual worlds
US20100332324A1 (en) * 2009-06-25 2010-12-30 Microsoft Corporation Portal services based on interactions with points of interest discovered via directional device information
US8363810B2 (en) * 2009-09-08 2013-01-29 Avaya Inc. Method and system for aurally positioning voice signals in a contact center environment
US8566029B1 (en) * 2009-11-12 2013-10-22 Google Inc. Enhanced identification of interesting points-of-interest
US8433512B1 (en) * 2009-11-12 2013-04-30 Google Inc. Enhanced identification of interesting points-of-interest
US8239130B1 (en) * 2009-11-12 2012-08-07 Google Inc. Enhanced identification of interesting points-of-interest
US9766089B2 (en) * 2009-12-14 2017-09-19 Nokia Technologies Oy Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image
CN102640098B (zh) * 2009-12-16 2016-09-07 Abb股份有限公司 用于提供用于监视和控制过程的过程控制系统中的hmi的方法和系统
US8447136B2 (en) * 2010-01-12 2013-05-21 Microsoft Corporation Viewing media in the context of street-level images
US20110279445A1 (en) * 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for presenting location-based content
US8640020B2 (en) * 2010-06-02 2014-01-28 Microsoft Corporation Adjustable and progressive mobile device street view
US8957920B2 (en) * 2010-06-25 2015-02-17 Microsoft Corporation Alternative semantics for zoom operations in a zoomable scene
US9274744B2 (en) * 2010-09-10 2016-03-01 Amazon Technologies, Inc. Relative position-inclusive device interfaces
US8700392B1 (en) * 2010-09-10 2014-04-15 Amazon Technologies, Inc. Speech-inclusive device interfaces
US8705892B2 (en) * 2010-10-26 2014-04-22 3Ditize Sl Generating three-dimensional virtual tours from two-dimensional images
US20120254791A1 (en) * 2011-03-31 2012-10-04 Apple Inc. Interactive menu elements in a virtual three-dimensional space
US9239890B2 (en) 2011-05-31 2016-01-19 Fanhattan, Inc. System and method for carousel context switching
US8825392B2 (en) * 2011-06-30 2014-09-02 Navteq B.V. Map view
US8867886B2 (en) * 2011-08-08 2014-10-21 Roy Feinson Surround video playback
US9274595B2 (en) * 2011-08-26 2016-03-01 Reincloud Corporation Coherent presentation of multiple reality and interaction models
US20130249948A1 (en) * 2011-08-26 2013-09-26 Reincloud Corporation Providing interactive travel content at a display device
US20130222371A1 (en) * 2011-08-26 2013-08-29 Reincloud Corporation Enhancing a sensory perception in a field of view of a real-time source within a display screen through augmented reality
US20140063061A1 (en) * 2011-08-26 2014-03-06 Reincloud Corporation Determining a position of an item in a virtual augmented space
US9514717B2 (en) * 2011-09-26 2016-12-06 Nokia Technology Oy Method and apparatus for rendering items in a user interface
US20130129304A1 (en) * 2011-11-22 2013-05-23 Roy Feinson Variable 3-d surround video playback with virtual panning and smooth transition
US9870429B2 (en) * 2011-11-30 2018-01-16 Nokia Technologies Oy Method and apparatus for web-based augmented reality application viewer
US8855926B1 (en) * 2012-04-27 2014-10-07 Google Inc. Determining user attention
US9746916B2 (en) * 2012-05-11 2017-08-29 Qualcomm Incorporated Audio user interaction recognition and application interface
US20130321461A1 (en) * 2012-05-29 2013-12-05 Google Inc. Method and System for Navigation to Interior View Imagery from Street Level Imagery
JP5975739B2 (ja) * 2012-06-01 2016-08-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
US8880336B2 (en) * 2012-06-05 2014-11-04 Apple Inc. 3D navigation
US10176633B2 (en) * 2012-06-05 2019-01-08 Apple Inc. Integrated mapping and navigation application
US9269178B2 (en) * 2012-06-05 2016-02-23 Apple Inc. Virtual camera for 3D maps
US20130332890A1 (en) * 2012-06-06 2013-12-12 Google Inc. System and method for providing content for a point of interest
WO2014066562A2 (en) * 2012-10-25 2014-05-01 Intel Corporation Route optimization including points of interest
US9127961B2 (en) * 2012-12-06 2015-09-08 Honda Motor Co., Ltd. Methods and systems for use in planning a trip
US9639617B2 (en) * 2013-02-25 2017-05-02 Telenav, Inc. Navigation system with data driven category label creation mechanism and method of operation thereof
US9031783B2 (en) * 2013-02-28 2015-05-12 Blackberry Limited Repositionable graphical current location indicator
US9052199B2 (en) * 2013-03-15 2015-06-09 Google Inc. System and method for indicating user location and facing direction on a digital map
KR102127640B1 (ko) * 2013-03-28 2020-06-30 삼성전자주식회사 휴대 단말 및 보청기와 휴대 단말에서 음원의 위치를 제공하는 방법
US9110573B2 (en) 2013-04-26 2015-08-18 Google Inc. Personalized viewports for interactive digital maps
US10228242B2 (en) 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture
JP6221535B2 (ja) * 2013-09-11 2017-11-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US8823734B1 (en) 2013-10-14 2014-09-02 Google Inc. Indicating availability of indoor content on a digital map
US9189839B1 (en) * 2014-04-24 2015-11-17 Google Inc. Automatically generating panorama tours
JP6002191B2 (ja) * 2014-10-06 2016-10-05 株式会社ユニモト 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
US10151600B2 (en) * 2014-11-25 2018-12-11 Google Llc Systems and methods for controlling viewport movement in view of user context
US10460765B2 (en) * 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US10066949B2 (en) * 2016-06-28 2018-09-04 International Business Machines Corporation Technology for giving users cognitive mapping capability

Also Published As

Publication number Publication date
CN109076187A (zh) 2018-12-21
CA3016881A1 (en) 2017-09-14
JP2019518259A (ja) 2019-06-27
US10824320B2 (en) 2020-11-03
IL261607A (en) 2018-10-31
MX2018010785A (es) 2019-03-28
BR112018068041A2 (pt) 2019-01-08
AU2016396178A1 (en) 2018-10-04
WO2017155590A1 (en) 2017-09-14
US20170255372A1 (en) 2017-09-07
JP6921842B2 (ja) 2021-08-18

Similar Documents

Publication Publication Date Title
KR102505524B1 (ko) 컨텐츠를 표시하기 위한 시스템 및 방법
KR102312473B1 (ko) 미디어 콘텐츠 아이템들 간의 전이를 위한 시스템들 및 방법들
US20180034874A1 (en) Systems and methods for interactive broadcasting
JP6921842B2 (ja) コンテンツを提示するためのシステムおよび方法
US10354694B2 (en) Systems and methods for providing content items associated with objects
US10445614B2 (en) Systems and methods for evaluating content
US10645376B2 (en) Systems and methods for presenting content
US11688072B2 (en) Systems and methods for processing content
US20180302590A1 (en) Systems and methods for presenting content
US20180302591A1 (en) Systems and methods for presenting content
US11036289B2 (en) Systems and methods to present information in a virtual environment
US10484675B2 (en) Systems and methods for presenting content
US11144099B1 (en) Systems and methods for providing content
EP3217267B1 (en) Systems and methods for presenting content
US11166080B2 (en) Systems and methods for presenting content
US20180300747A1 (en) Systems and methods for providing demographic analysis for media content based on user view or activity
US20220107673A1 (en) Systems and methods for providing content
US11321411B1 (en) Systems and methods for providing content
EP3242273B1 (en) Systems and methods for presenting content

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application