KR102267790B1 - 디바이스 움직임에 기초한 미디어 콘텐츠의 처리 - Google Patents

디바이스 움직임에 기초한 미디어 콘텐츠의 처리 Download PDF

Info

Publication number
KR102267790B1
KR102267790B1 KR1020197027917A KR20197027917A KR102267790B1 KR 102267790 B1 KR102267790 B1 KR 102267790B1 KR 1020197027917 A KR1020197027917 A KR 1020197027917A KR 20197027917 A KR20197027917 A KR 20197027917A KR 102267790 B1 KR102267790 B1 KR 102267790B1
Authority
KR
South Korea
Prior art keywords
video
computing device
display
central portion
movement
Prior art date
Application number
KR1020197027917A
Other languages
English (en)
Other versions
KR20190119115A (ko
Inventor
알렉스 뱀버거
매튜 핸오버
나탄 리트케
마이클 브라이언 머레이
Original Assignee
스냅 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스냅 인코포레이티드 filed Critical 스냅 인코포레이티드
Priority to KR1020217018521A priority Critical patent/KR102381774B1/ko
Publication of KR20190119115A publication Critical patent/KR20190119115A/ko
Application granted granted Critical
Publication of KR102267790B1 publication Critical patent/KR102267790B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N5/23216
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

시스템들 및 방법들은 컴퓨팅 디바이스의 디스플레이 상에서 미디어 콘텐츠의 재생 동안 컴퓨팅 디바이스의 움직임을 검출하는 것, 컴퓨팅 디바이스의 하나 이상의 센서로부터 움직임 데이터를 수신하는 것, 움직임 데이터를 분석하여 움직임의 방향을 결정하는 것, 움직임의 방향에 기초하여 미디어 콘텐츠의 디스플레이의 회전을 계산하는 것, 및 미디어 콘텐츠의 디스플레이가 움직임의 방향에 대해 회전하게 하여 움직임의 방향과 연관된 미디어 콘텐츠의 일부분을 디스플레이하는 것을 제공한다.

Description

디바이스 움직임에 기초한 미디어 콘텐츠의 처리
우선권
본 출원은 우선권의 이익을 주장하고, 2017년 2월 27일자로 출원된 미국 특허 가출원 제62/464,183호에 대한 우선권의 이익을 주장하는, 2017년 8월 9일자로 출원된 미국 특허 출원 제15/673,215호의 계속 출원이며, 이 출원은 그 전체가 본 명세서에 참고로 포함된다.
사용자 디바이스들(예를 들어, 모바일 디바이스들, 개인용 컴퓨터들 등) 사이에서 오디오, 이미지들, 및 비디오와 같은 미디어 콘텐츠를 공유하는 것은, 그 미디어 콘텐츠를 수신 디바이스에 의해 소비될 수 있는 포맷으로 변환하고 스마트폰과 같은 모바일 디바이스 상에서 그 미디어 콘텐츠를 디스플레이하는 것을 수반할 수 있다.
첨부된 도면들의 다양한 도면들은 본 개시내용의 예시적인 실시예들을 나타낼 뿐이고 그 범위를 제한하는 것으로서 간주되어서는 안 된다.
도 1은, 일부 예시적인 실시예들에 따른, 네트워크화된 시스템을 예시하는 블록도이다.
도 2는, 일부 예시적인 실시예들에 따른, 카메라 디바이스의 상세사항들을 포함하는 네트워크화된 시스템을 예시하는 블록도이다.
도 3은, 일부 예시적인 실시예들에 따른, 예시적인 스마트 안경을 도시한다.
도 4는, 일부 예시적인 실시예들에 따른, 원형 비디오 포맷의 예시적인 디스플레이를 도시한다.
도 5는, 일부 예시적인 실시예들에 따른, 방법의 양태들을 예시하는 흐름도이다.
도 6은, 일부 예시적인 실시예들에 따른, 예시적인 패럴랙스 영역 다이어그램(parallax area diagram)을 도시한다.
도 7은, 일부 예시적인 실시예들에 따른, 방법의 양태들을 예시하는 흐름도이다.
도 8은, 일부 예시적인 실시예들에 따른, 컴퓨팅 디바이스 상의 예시적인 디스플레이들을 도시한다.
도 9는, 일부 예시적인 실시예들에 따른, 방법의 양태들을 예시하는 흐름도이다.
도 10은, 일부 예시적인 실시예들에 따른, 레드라인 디스플레이(redlined display)의 예를 도시한다.
도 11은, 일부 예시적인 실시예들에 따른, 컴퓨팅 디바이스 상의 예시적인 디스플레이들을 도시한다.
도 12는, 일부 예시적인 실시예들에 따른, 머신 상에 설치될 수 있는 소프트웨어 아키텍처의 예를 도시하는 블록도이다.
도 13은, 예시적인 실시예에 따른, 머신으로 하여금 본 명세서에서 논의되는 방법론들 중 임의의 하나 이상을 수행하게 하기 위해 명령어들의 세트가 실행될 수 있는, 컴퓨터 시스템의 형태의, 머신의 도식적 표현을 예시한다.
본 명세서에 설명된 시스템들 및 방법들은, 메시징 시스템을 통해 디바이스들 사이에 공유되어 디바이스들 상에 디스플레이되도록 미디어 콘텐츠 아이템들을 처리하는 것에 관한 것이다. 예를 들어, 사용자는 카메라 디바이스를 사용하여 비디오를 녹화할 수 있다. 카메라 디바이스는 원형 비디오 포맷(circular video format)으로 비디오를 캡처할 수 있다. 일 예에서, 카메라 디바이스는 전체 115도 시야를 캡처할 수 있는 스마트 안경일 수 있다. 115도 시야는 인간의 눈에 보이는 관점과 유사하고 원형 비디오를 캡처하는 능력을 카메라 디바이스에 제공한다. 사용자는 원형 비디오를 하나 이상의 다른 사용자와 공유하고/하거나 스마트폰과 같은 컴퓨팅 디바이스의 디스플레이 상에서 그 비디오를 보기를 원할 수 있다. 예시적인 실시예들은 사용자가 컴퓨팅 디바이스의 디스플레이에서 원형 비디오 포맷으로 된 비디오를 볼 수 있게 하고, 비디오의 디스플레이를 회전시켜 비디오의 원형 광각 뷰(circular wide angle view)를 이용할 수 있게 하고, 비디오를 풀스크린 모드 및 원형 뷰로 볼 수 있게 한다.
도 1은, 미디어 콘텐츠 아이템들을 처리하고 처리된 미디어 콘텐츠를 포함하는 메시지들을 송수신하도록 구성되는, 일부 예시적인 실시예들에 따른, 네트워크화된 시스템(100)을 예시하는 블록도이다. 하나의 예시적인 실시예에서, 그 시스템은 복수의 사용자로부터 복수의 메시지를 수신하고, 메시지들에 포함된 미디어 콘텐츠를 처리하고, 처리된 미디어 콘텐츠를 갖는 메시지들을 하나 이상의 사용자에게 송신하도록 구성되는 메시징 시스템이다. 시스템(100)은 클라이언트 디바이스(110)와 같은 하나 이상의 클라이언트 디바이스를 포함할 수 있다. 클라이언트 디바이스(110)는 본 명세서에서 사용자 디바이스 또는 컴퓨팅 디바이스로도 지칭될 수 있다. 클라이언트 디바이스(110)는 이동 전화, 데스크톱 컴퓨터, 랩톱, 휴대용 디지털 보조기기(portable digital assistant)(PDA), 스마트폰, 태블릿, 울트라 북, 넷북, 랩톱, 멀티프로세서 시스템, 마이크로프로세서 기반 또는 프로그래밍가능 소비자 가전, 게임 콘솔, 셋톱박스, 차량 내 컴퓨터, 또는 사용자가 네트워크화된 시스템(100)에 액세스하기 위해 활용할 수 있는 임의의 다른 통신 디바이스를 포함할 수 있으며, 이에 제한되지는 않는다.
일부 실시예들에서, 클라이언트 디바이스(110)는 (예를 들어, 사용자 인터페이스들의 형태로) 정보를 디스플레이하는 디스플레이 모듈(도시되지 않음)을 포함할 수 있다. 일부 실시예에서, 디스플레이 모듈 또는 사용자 인터페이스(들)는 비디오(예를 들어, 종래의 비디오 및 원형 비디오 포맷의 비디오), 이미지들(예를 들어, 사진들), 및 그와 유사한 것과 같은 미디어 콘텐츠를 디스플레이하기 위해 사용된다. 추가 실시예들에서, 클라이언트 디바이스(110)는 터치 스크린들, 가속도계들, 자이로스코프들, 카메라들, 마이크로폰들, 글로벌 포지셔닝 시스템(global positioning system)(GPS) 디바이스들 등 중 하나 이상을 포함할 수 있다. 클라이언트 디바이스(110)는 비디오, 이미지들(예를 들어, 사진), 오디오와 같은 콘텐츠 미디어 아이템들을 생성하여 그러한 미디어 콘텐츠 아이템들을 포함하는 메시지들을 다른 사용자들에게 그리고 다른 사용자들로부터 송수신하는 데 사용되는 사용자의 디바이스일 수 있다.
하나 이상의 사용자(106)는 클라이언트 디바이스(110)와 상호작용하는 사람, 머신, 또는 다른 수단일 수 있다. 예시적인 실시예들에서, 사용자(106)는 시스템(100)의 일부가 아닐 수 있지만, 클라이언트 디바이스(110) 또는 다른 수단을 통해 시스템(100)과 상호작용할 수 있다. 예를 들어, 사용자(106)는 클라이언트 디바이스(110)에 입력(예를 들어, 터치 스크린 입력 또는 영숫자 입력)을 제공할 수 있고, 그 입력은 네트워크(104)를 통해 시스템(100)의 다른 엔티티들(예를 들어, 제3자 서버들(130), 서버 시스템(102) 등)에 통신될 수 있다. 이러한 경우에, 시스템(100)의 다른 엔티티들은, 사용자(106)로부터 입력을 수신하는 것에 응답하여, 사용자(106)에게 제시될 정보를 네트워크(104)를 통해 클라이언트 디바이스(110)에 통신할 수 있다. 이러한 방식으로, 사용자(106)는 클라이언트 디바이스(110)를 사용하여 시스템(100)의 다양한 엔티티들과 상호작용할 수 있다.
시스템(100)은 네트워크(104)를 추가로 포함할 수 있다. 네트워크(104)의 하나 이상의 부분은 애드혹 네트워크, 인트라넷, 엑스트라넷, 가상 사설 네트워크(virtual private network)(VPN), 로컬 영역 네트워크(local area network)(LAN), 무선 LAN(wireless LAN)(WLAN), 광역 네트워크(wide area network)(WAN), 무선 WAN(wireless WAN)(WWAN), 메트로폴리탄 영역 네트워크(metropolitan area network)(MAN), 인터넷의 일부분, 공중 교환 전화 네트워크(Public Switched Telephone Network)(PSTN)의 일부분, 셀룰러 전화 네트워크, 무선 네트워크, WiFi 네트워크, WiMax 네트워크, 또 다른 타입의 네트워크, 또는 둘 이상의 그러한 네트워크의 조합일 수 있다.
클라이언트 디바이스(110)는 웹 클라이언트(112)(예를 들어, 워싱턴주 레드몬드의 Microsoft® Corporation에 의해 개발된 Internet Explorer® 브라우저와 같은 브라우저) 또는 하나 이상의 클라이언트 애플리케이션(114)을 통해 시스템(100)의 다른 엔티티들에 의해 제공되는 다양한 데이터 및 애플리케이션들에 액세스할 수 있다. 클라이언트 디바이스(110)는 웹 브라우저, 메시징 애플리케이션, 전자 메일(이메일) 애플리케이션, 전자 상거래 사이트 애플리케이션, 매핑 또는 로케이션 애플리케이션, 미디어 콘텐츠 편집 애플리케이션, 미디어 콘텐츠 뷰잉 애플리케이션, 및 이와 유사한 것과 같은, 그러나 이에 제한되지 않는, 하나 이상의 애플리케이션(114)("앱"으로도 지칭됨)을 포함할 수 있다.
일 예에서, 클라이언트 애플리케이션(114)은 사용자(106)가 사진 또는 비디오를 촬영하고(또는 카메라 디바이스(108)로부터 미디어 콘텐츠를 수신하고), 캡션(caption)을 추가하거나, 다른 방식으로 사진 또는 비디오를 편집하고, 그 다음에 사진 또는 비디오를 다른 사용자에게 송신할 수 있게 하는 메시징 애플리케이션일 수 있다. 클라이언트 애플리케이션(114)은, 사용자(106)가, 클라이언트 디바이스를 통해, 카메라 디바이스(108)를 통해 사용자(106)가 촬영한 사진들 및 비디오를 보는 것, 또는 클라이언트 디바이스(110) 또는 카메라 디바이스(108)를 통해 다른 사용자(106)가 촬영한 사진들 및 비디오(예를 들어, 종래의 비디오 포맷 또는 원형 비디오 포맷으로 됨)를 보는 것을 추가로 허용할 수 있다. 메시지는 단기적(ephemeral)이어서 보고 난 후에 또는 미리 결정된 양의 시간(예를 들어, 10초, 24시간 등) 후에 수신 사용자 디바이스로부터 제거될 수 있다. 메시징 애플리케이션은 사용자(106)가 갤러리(gallery)를 생성하는 것을 추가로 허용할 수 있다. 갤러리는 사용자의 갤러리를 "팔로우하는(following)" 다른 사용자들(예를 들어, 사용자의 갤러리에서의 업데이트들을 보고 수신하기 위해 가입됨)이 볼 수 있는 사진들 및 비디오들과 같은 미디어 콘텐츠의 컬렉션(collection)일 수 있다. 갤러리는 또한 단기적일 수 있다(예를 들어, 24시간 지속, 이벤트의 지속기간 동안(예를 들어, 음악 콘서트, 스포츠 이벤트 등 동안) 지속, 또는 다른 미리 결정된 시간 지속).
단기적 메시지는 메시지 지속기간 파라미터와 연관될 수 있고, 그 값은 단기적 메시지가 클라이언트 애플리케이션(110)에 의해 단기적 메시지의 수신 사용자에게 디스플레이될 시간의 양을 결정한다. 단기적 메시지는 메시지 수신기 식별자 및 메시지 타이머와 추가로 연관될 수 있다. 메시지 타이머는 메시지 수신기 식별자에 의해 식별된 특정 수신 사용자에게 단기적 메시지가 보여지는 시간의 양을 결정하는 것을 담당할 수 있다. 예를 들어, 단기적 메시지는 메시지 지속기간 파라미터의 값에 의해 결정되는 기간 동안만 관련 수신 사용자에게 보여질 수 있다.
다른 예에서, 메시징 애플리케이션은, 사용자(106)가 사진들 및 비디오들을 저장하여 단기적이 아니며 다른 사용자들에게 송신될 수 있는 갤러리를 생성하는 것을 허용할 수 있다. 예를 들어, 최근 휴가로부터의 사진들 및 비디오들을 모아서 친구 및 가족과 공유한다.
일부 실시예들에서, 하나 이상의 애플리케이션(114)은 주어진 하나의 클라이언트 디바이스(110)에 포함될 수 있고, 국부적으로 이용가능하지 않은 데이터 및/또는 처리 능력들(예를 들어, 지불 방법을 검증하기 위한, 사용자(106)를 인증하기 위한, 로케이션 정보에 액세스, 서버 상에 저장된 미디어 콘텐츠에 액세스, 클라이언트 디바이스(110)와 서버 컴퓨터 사이의 미디어 콘텐츠를 동기화, 기타 등등)에 대해, 필요에 따라, 시스템(100)(예를 들어, 서버 시스템(102)) 내의 다른 엔티티들과 통신하도록 구성되는 애플리케이션(114)을 이용하여 사용자 인터페이스 및 기능성들의 적어도 일부를 국부적으로 제공하도록 구성될 수 있다. 반대로, 하나 이상의 애플리케이션(114)은 클라이언트 디바이스(110)에 포함되지 않을 수 있고, 그러면 클라이언트 디바이스(110)는 그것의 웹 브라우저를 사용하여 시스템(100)(예를 들어, 서버 시스템(102))의 다른 엔티티들에서 호스팅되는 하나 이상의 애플리케이션에 액세스할 수 있다.
이미지들 및 비디오와 같은 미디어 콘텐츠는 클라이언트 디바이스를 통해(예를 들어, 클라이언트 디바이스의 카메라를 통해) 및/또는 별개의 카메라 디바이스(108)를 통해 캡처될 수 있다. 카메라 디바이스(108)는 독립형 카메라일 수 있고, 전자-가능형 시계(electronic-enabled watch), 키 포브(key fob), 아이웨어 디바이스(eyewear device), 및 이와 유사한 것과 같은 웨어러블 디바이스일 수 있다. 일 예에서, 카메라 디바이스(108)는 소위 스마트 안경(예를 들어, SNAP SPECTACLES)과 같은 전자 가능형 아이웨어 디바이스이다. 예시적인 전자 가능형 아이웨어가 도 3에 도시되어 있다.
도 3은 하나의 예시적인 실시예에 따른 스마트 안경(300)을 도시한다. 스마트 안경(300)은 하나 이상의 통합된 카메라(예를 들어, 일 예에서 안경류 프레임(glassware frame)의 대향 단부들에 있고, 302 및 304로 도시됨)를 갖고, 카메라(들)의 각자의 렌즈(들)가 전방으로 향하고 투명한 커버링(covering)을 갖는다.
일 예에서, 스마트 안경(300) 또는 다른 카메라 디바이스(108)는 원형 비디오 포맷으로 비디오를 캡처할 수 있다. 예를 들어, 카메라 디바이스(108)는 전체 115도 시야를 캡처하는 원형 광각 렌즈를 포함할 수 있다(예를 들어, 카메라 디바이스(108)의 카메라 센서가 전체 115도 시야를 캡처한다). 115도 시야는 인간의 눈에 보이는 관점과 유사하고 원형 비디오를 캡처하는 능력을 카메라 디바이스(108)에 제공한다.
원형 비디오 포맷으로 비디오를 캡처하는 일 예에서, 카메라 디바이스(108)는 이미지들 및 비디오를 캡처하는 센서(예를 들어, 정사각형 또는 직사각형 센서)를 포함할 수 있다. 카메라 디바이스(108)는 원형 영역 외부의 센서의 부분들을 차단하기 위해 센서의 전방에 인클로저(enclosure)를 추가로 포함할 수 있다(예를 들어, 그래서 광이 원형 영역에만 닿을 것이다). 카메라 렌즈는 인클로저 뒤에 설정될 수 있다. 따라서, 카메라 디바이스(108)는 원형 영역의 원형 비디오만을 캡처할 수 있다. 선택적으로, 카메라 디바이스(108)는 원형 영역의 에지들 주위의 임의의 잡음을 고려하기 위해 각각의 원형 포맷된 비디오를 (예를 들어, 미리 결정된 원형 크기 외부에 있는 주변 픽셀 값들을 0으로 설정하기 위해 프레임별로) 추가로 크롭(crop)할 수 있다. 이러한 방식으로, 카메라 디바이스(108)는 비디오의 캡처 동안 원형 포맷을 최적화할 수 있다. 예를 들어, 비디오 포맷이 원형 비디오를 포함할 수 있기 때문에, 임의의 추가적인 수정 없이 원형 비디오가 내보내질 수 있다. 또한, 펌웨어에서 원형 콘텐츠를 크롭함으로써 달성되는 비디오 압축의 일부 이점들이 존재할 수 있다.
도 1로 돌아가면, 서버 시스템(102)이 네트워크(104)(예를 들어, 인터넷 또는 광역 네트워크(WAN))를 통해 서버측 기능성을 하나 이상의 클라이언트 디바이스(110)에 제공할 수 있다. 서버 시스템(102)은 애플리케이션 프로그래밍 인터페이스(application programming interface)(API) 서버(120), 메시징 애플리케이션 서버(122), 및 미디어 콘텐츠 처리 서버(124)를 포함할 수 있으며, 이것들은 각각 서로 그리고 하나 이상의 데이터 스토리지(들)(126)와 통신가능하게 결합될 수 있다.
서버 시스템(102)은 일부 예시적인 실시예들에 따른 클라우드 컴퓨팅 환경일 수 있다. 서버 시스템(102), 및 그 서버 시스템(102)과 연관된 임의의 서버들은 하나의 예시적인 실시예에서 클라우드 기반 애플리케이션과 연관될 수 있다. 하나 이상의 데이터 스토리지(126)는, 취급되지 않은 미디어 콘텐츠, 사용자들(106)로부터의 원래 미디어 콘텐츠(예를 들어, 고품질 미디어 콘텐츠), 처리된 미디어 콘텐츠(예를 들어, 클라이언트 디바이스들(110)과 공유하고 클라이언트 디바이스들(110) 상에서 보기 위해 포맷된 미디어 콘텐츠), 사용자 정보, 사용자 디바이스 정보 등과 같은 정보를 저장하는 저장 디바이스들일 수 있다. 하나 이상의 데이터 스토리지(126)는 서버 시스템(102) 외부의 클라우드 기반 스토리지(예를 들어, 서버 시스템(102) 외부의 하나 이상의 제3자 엔티티에 의해 호스팅됨)를 포함할 수 있다. 데이터 스토리지들(126)은 데이터베이스들, 블롭 스토리지들(blob storages) 등을 포함할 수 있다.
미디어 콘텐츠 처리 서버(124)는 미디어 콘텐츠 아이템들의 다양한 처리를 수행하는 기능성을 제공할 수 있다. 미디어 콘텐츠 처리 서버(124)는 미디어 콘텐츠를 처리하는 데 사용할 저장된 데이터를 검색하고 처리된 미디어 콘텐츠의 결과들을 저장하기 위해 하나 이상의 데이터 스토리지(126)에 액세스할 수 있다.
메시징 애플리케이션 서버(122)는 클라이언트 디바이스들(110)의 사용자들(106) 사이의 메시지들의 생성 및 전달을 담당할 수 있다. 메시징 애플리케이션 서버(122)는 다수의 메시지 전달 네트워크들 및 플랫폼들 중 어느 하나를 활용하여 메시지들을 사용자들(106)에게 전달할 수 있다. 예를 들어, 메시징 애플리케이션 서버(122)는 전자 메일(이메일), 인스턴트 메시지(instant message)(IM), 단문 메시지 서비스(Short Message Service)(SMS), 텍스트, 팩시밀리, 또는 음성(예를 들어, VoIP(Voice over IP)) 메시지들을 사용하여 유선(예를 들어, 인터넷), POTS(plain old telephone service), 또는 무선 네트워크들(예를 들어, 모바일, 셀룰러, WiFi, LTE(Long Term Evolution), 블루투스)을 통해 메시지들을 전달할 수 있다.
전술한 바와 같이, 사용자(106)는 다양한 미디어 콘텐츠 아이템(예를 들어, 비디오들, 오디오 콘텐츠, 이미지들 등)을 하나 이상의 다른 사용자와 공유하기를 원할 수 있다. 예를 들어, 사용자(106)는 클라이언트 디바이스(110) 또는 다른 디바이스(예를 들어, 카메라 디바이스(108))를 사용하여 휴가 중에 다양한 비디오들 및 사진들을 촬영할 수 있다. 사용자(106)는 휴가에서의 최상의 비디오들 및 사진들을 친구들 및 가족과 공유하기를 원할 수 있다. 사용자(106)는 공유하고자 하는 미디어 콘텐츠 아이템들을 선택하기 위해, 메시징 애플리케이션과 같은, 클라이언트 디바이스(110) 상의 클라이언트 애플리케이션(114)을 활용할 수 있다. 사용자(106)는 또한 클라이언트 애플리케이션(114)을 사용하여 다양한 미디어 콘텐츠 아이템들을 편집할 수 있다. 예를 들어, 사용자(106)는 미디어 콘텐츠 아이템에 텍스트를 추가할 수 있고, 미디어 콘텐츠 아이템에 대한 오버레이(라벨, 그림, 다른 아트워크 등)를 선택할 수 있고, 미디어 콘텐츠 아이템 상에 그림을 그릴 수 있고, 미디어 콘텐츠 아이템을 크롭 또는 변경(예를 들어, 적목 현상 축소, 포커스, 컬러 조정 등)할 수 있고, 기타 등등을 할 수 있다. "취급되지 않은(untreated)" 미디어 콘텐츠 아이템은 클라이언트 애플리케이션(114)을 사용하여 편집되지 않은 미디어 콘텐츠 아이템을 지칭한다.
사용자(106)는 친구 및 가족과 공유하고자 하는 미디어 콘텐츠 아이템들을 클라이언트 애플리케이션(114)을 통해 선택할 수 있다. 일단 미디어 콘텐츠 아이템들을 선택했다면, 미디어 콘텐츠 아이템들을 공유하고자 한다는 것을 표시할 수 있다. 예를 들어, 미디어 콘텐츠 아이템들을 공유하기를 원한다는 것을 표시하기 위해 클라이언트 애플리케이션(114)의 사용자 인터페이스(예를 들어, 메뉴 아이템, 버튼 등) 상에서 옵션을 선택할 수 있다.
사용자(106)는 클라이언트 애플리케이션(114)을 통해 미디어 콘텐츠를 볼 수 있다. 예를 들어, 사용자(106)는 (예를 들어, 클라이언트 디바이스(110)의 카메라를 통해) 클라이언트 디바이스(110) 상에서 캡처한 미디어 콘텐츠를 볼 수 있고, 사용자(106)는 다른 것들에 의해 캡처되어 사용자(106)에게 송신된 미디어 콘텐츠를 볼 수 있고, 사용자(106)는 카메라 디바이스(108)에 의해 캡처된 미디어 콘텐츠를 볼 수 있다.
도 2는, 일부 예시적인 실시예들에 따른, 카메라 디바이스(108)의 상세사항들을 포함하는 네트워크화된 시스템(200)을 도시하는 블록도이다. 특정 실시예들에서, 카메라 디바이스(108)는 위에서 설명된 도 3의 스마트 안경(300)에서 구현될 수 있다.
시스템(200)은 도 1과 관련하여 위에서 설명된 바와 같이, 카메라 디바이스(108), 클라이언트 디바이스(110), 및 서버 시스템(102)을 포함한다. 클라이언트 디바이스(110)는 스마트폰, 태블릿, 패블릿, 랩톱 컴퓨터, 액세스 포인트, 또는 저전력 무선 접속(225)과 고속 무선 접속(237) 둘다를 사용하여 카메라 디바이스(108)와 접속할 수 있는 임의의 다른 그러한 디바이스일 수 있다. 클라이언트 디바이스(110)는 서버 시스템(102) 및 네트워크(104)에 접속된다. 네트워크(104)는 전술한 바와 같이 유선 및 무선 접속들의 임의의 조합을 포함할 수 있다. 서버 시스템(102)은, 위에서 또한 설명된 바와 같이, 서비스 또는 네트워크 컴퓨팅 시스템의 일부로서의 하나 이상의 컴퓨팅 디바이스일 수 있다. 클라이언트 디바이스(110) 및 서버 시스템(102)의 임의의 요소들 및 네트워크(104)는 도 12 및 도 13에서 설명된 소프트웨어 아키텍처(1202) 또는 머신(1300)의 상세사항들을 사용하여 구현될 수 있다.
시스템(200)은 추가적인 주변 디바이스 요소들(219) 및/또는 카메라 디바이스(210)와 통합된 디스플레이(211)를 선택적으로 포함할 수 있다. 이러한 주변 디바이스 요소들(219)은 바이오메트릭 센서들, 추가 센서들, 또는 카메라 디바이스(210)와 통합된 디스플레이 요소들을 포함할 수 있다. 주변 디바이스 요소들(219)의 예들은 도 12 및 도 13과 관련하여 추가로 논의된다. 예를 들어, 주변 디바이스 요소들(219)은, 출력 컴포넌트들(1352), 모션 컴포넌트들(1358), 또는 본 명세서에 설명된 임의의 다른 그러한 요소들을 포함하는 임의의 I/O 컴포넌트들(1350)을 포함할 수 있다.
카메라 디바이스(108)는 카메라(214), 비디오 프로세서(212), 인터페이스(216), 저전력 회로(220), 및 고속 회로(230)를 포함한다. 카메라(214)는 전하 결합 디바이스, 렌즈, 또는 카메라(214)의 일부로서 데이터를 캡처하는 데 사용될 수 있는 임의의 다른 광 캡처 요소들과 같은 디지털 카메라 요소들을 포함한다.
인터페이스(216)는 카메라 디바이스(210)에 제공되는 사용자 커맨드의 임의의 소스를 말한다. 하나의 구현에서, 인터페이스(216)는, 눌러질 때, 인터페이스(216)로부터 저전력 프로세서(222)로 사용자 입력 신호를 전송하는 카메라 상의 물리적 버튼이다. 그러한 카메라 버튼의 누름 다음의 즉시 해제(immediate release)는 단일 이미지를 캡처하라는 요청으로서 저전력 프로세서(222)에 의해 처리될 수 있다. 제1 기간 동안 그러한 카메라 버튼의 누름은, 버튼이 눌러지는 동안 비디오 데이터를 캡처하고, 버튼이 해제될 때 비디오 캡처를 중단하라는 요청으로서 저전력 프로세서(222)에 의해 처리될 수 있으며, 버튼이 눌러진 동안에 캡처된 비디오는 단일 비디오 파일로서 저장된다. 특정 실시예들에서, 저전력 프로세서(222)는 500 밀리초 또는 1초와 같은 버튼의 누름과 해제 사이의 임계 기간을 가질 수 있으며, 그 아래에서 버튼 누름 및 해제는 이미지 요청으로서 처리되고, 그 위에서 버튼 누름 및 해제는 비디오 요청으로서 해석된다. 저전력 프로세서(222)는 비디오 프로세서(212)가 부팅되는 동안 이 결정을 행할 수 있다. 다른 실시예들에서, 인터페이스(216)는 카메라(214)로부터의 데이터에 대한 요청과 연관된 사용자 입력들을 수락할 수 있는 임의의 기계적 스위치 또는 물리적 인터페이스일 수 있다. 다른 실시예들에서, 인터페이스(216)는 소프트웨어 컴포넌트를 가질 수 있거나, 다른 소스로부터 무선으로 수신된 커맨드와 연관될 수 있다.
비디오 프로세서(212)는 카메라(214)로부터 신호들을 수신하고 카메라(214)로부터의 그 신호들을 메모리(234)에 저장하기에 적합한 포맷으로 처리하는 회로를 포함한다. 비디오 프로세서(212)는 저전력 회로(220)의 제어 하에서 파워 온(power on)되어 부팅될 수 있도록 카메라 디바이스(210) 내에 구조화된다. 비디오 프로세서(212)는 추가적으로 저전력 회로(220)에 의해 파워 다운(power down)될 수 있다. 비디오 프로세서(212)와 연관된 다양한 전력 설계 요소들에 따라, 비디오 프로세서(212)는 오프 상태에 있을 때에도 소량의 전력을 여전히 소비할 수 있다. 그러나, 이러한 전력은, 그것이 온 상태에 있을 때 비디오 프로세서(212)에 의해 사용되는 전력에 비해 무시할만한 것이고, 또한 배터리 수명에 무시할만한 영향을 미칠 것이다. "오프" 상태의 디바이스 요소들은 저전력 프로세서(222)가 디바이스들을 파워 온 및 파워 다운할 수 있도록 디바이스 내에 여전히 구성된다. 카메라 디바이스(108)의 동작 동안 "오프" 또는 "파워 다운"이라고 지칭되는 디바이스는 누설 또는 시스템 설계의 다른 양태들로 인해 반드시 제로 전력을 소비하지는 않는다.
하나의 예시적인 실시예에서, 비디오 프로세서(212)는, 마이크로프로세서에 의해 동작하는데 사용되는 휘발성 메모리와 함께, 카메라(214)로부터의 센서 데이터를 처리하기 위해 맞춤화된 마이크로프로세서 집적 회로(IC)를 포함한다. 비디오 프로세서(212)가 데이터를 처리하기 위해 파워 온할 때 소요되는 시간의 양을 감소시키기 위해, 비휘발성 판독 전용 메모리(ROM)가 비디오 프로세서(212)를 동작시키거나 부팅시키기 위한 명령어들을 갖는 IC 상에 통합될 수 있다. 이 ROM은, 부팅 시간에 지연들을 야기하는 추가적인 기능성이 존재하지 않도록, 카메라(214)로부터 센서 데이터를 수집하기 위한 기본적인 기능성을 제공하는 데 필요한 최소 크기와 매칭되도록 최소화될 수 있다. ROM은 비디오 프로세서(212)의 마이크로프로세서의 휘발성 메모리에 대한 직접 메모리 액세스(direct memory access)(DMA)로 구성될 수 있다. DMA는 비디오 프로세서(212)의 메인 제어기의 동작과 독립적으로 ROM으로부터 비디오 프로세서(212)의 시스템 메모리로의 데이터의 메모리-대-메모리 전송(memory-to-memory transfer)을 허용한다. DMA를 이 부트 ROM에 제공하는 것은, 비디오 프로세서(212)의 파워 온으로부터 카메라(214)로부터의 센서 데이터가 처리되어 저장될 때까지의 시간의 양을 추가로 감소시킨다. 특정 실시예들에서, 카메라(214)로부터의 카메라 신호의 최소 처리는 비디오 프로세서(212)에 의해 수행되고, 추가적인 처리는 클라이언트 디바이스(110) 또는 서버 시스템(102) 상에서 동작하는 애플리케이션들에 의해 수행될 수 있다.
저전력 회로(220)는 저전력 프로세서(222) 및 저전력 무선 회로(224)를 포함한다. 저전력 회로(220)의 이러한 요소들은 별개의 요소들로서 구현될 수 있거나 단일의 칩 상의 시스템의 일부로서 단일의 IC 상에 구현될 수 있다. 저전력 프로세서(222)는 카메라 디바이스(108)의 다른 요소들을 관리하기 위한 로직을 포함한다. 전술한 바와 같이, 예를 들어, 저전력 프로세서(222)는 인터페이스(216)로부터 사용자 입력 신호들을 수신할 수 있다. 저전력 프로세서(222)는 또한 저전력 무선 접속(225)을 통해 클라이언트 디바이스(110)로부터 입력 신호들 또는 명령어 통신들을 수신하도록 구성될 수 있다. 이러한 명령어들에 관련된 추가적인 상세사항들이 이하에서 추가로 설명된다. 저전력 무선 회로(224)는 저전력 무선 통신 시스템을 구현하기 위한 회로 요소들을 포함한다. 블루투스™ 로우 에너지라고도 알려진 블루투스™ 스마트는, 저전력 무선 회로(224)를 구현하는 데 사용될 수 있는 저전력 무선 통신 시스템의 하나의 표준 구현이다. 다른 실시예들에서, 다른 저전력 통신 시스템들이 사용될 수 있다.
고속 회로(230)는 고속 프로세서(232), 메모리(234), 및 고속 무선 회로(236)를 포함한다. 고속 프로세서(232)는 카메라 디바이스(210)에 필요한 임의의 일반적인 컴퓨팅 시스템의 고속 통신 및 동작을 관리할 수 있는 임의의 프로세서일 수 있다. 고속 프로세서(232)는 고속 무선 회로(236)를 이용하여 고속 무선 접속(237)에서의 고속 데이터 전송들을 관리하는데 필요한 처리 자원들을 포함한다. 특정 실시예들에서, 고속 프로세서(232)는 LINUX 운영 체제와 같은 운영 체제 또는 도 12의 운영 체제(1204)와 같은 다른 그러한 운영 체제를 실행한다. 임의의 다른 담당들 이외에, 카메라 디바이스(108)에 대한 소프트웨어 아키텍처를 실행하는 고속 프로세서(232)는 고속 무선 회로(236)와의 데이터 전송을 관리하는 데 사용된다. 특정 실시예들에서, 고속 무선 회로(236)는 본 명세서에서 Wi-Fi라고도 지칭되는 IEEE(Institute of Electrical and Electronic Engineers) 802.11 통신 표준들을 구현하도록 구성된다. 다른 실시예들에서, 다른 고속 통신 표준들이 고속 무선 회로(236)에 의해 구현될 수 있다.
메모리(234)는 카메라(214) 및 비디오 프로세서(212)에 의해 생성된 카메라 데이터를 저장할 수 있는 임의의 저장 디바이스를 포함한다. 메모리(234)가 고속 회로(230)와 통합된 것으로서 도시되지만, 다른 실시예들에서, 메모리(234)는 카메라 디바이스(108)와 독립적인 독립형 요소일 수 있다. 특정한 그러한 실시예들에서, 전기 라우팅 라인들은 고속 프로세서(232)를 포함하는 칩을 통해 비디오 프로세서(212) 또는 저전력 프로세서(222)로부터 메모리(234)로의 접속을 제공할 수 있다. 다른 실시예들에서, 고속 프로세서(232)는, 메모리(234)를 수반하는 판독 또는 기입 동작이 필요할 때마다 저전력 프로세서(222)가 고속 프로세서(232)를 부팅하도록, 메모리(234)의 어드레싱(addressing)을 관리할 수 있다.
전술한 바와 같이, 미디어 콘텐츠(예를 들어, 비디오 콘텐츠)는 원형 비디오 포맷으로 캡처될 수 있다. 도 4는 클라이언트 디바이스(110) 상의 원형 비디오 포맷의 예시적인 디스플레이(400)를 도시한다. 이 예에서 알 수 있는 바와 같이, 미디어 콘텐츠(예를 들어, 비디오)의 원형 비디오 포맷(402)은 클라이언트 디바이스(110)의 디스플레이(404)(예를 들어, 스크린)보다 크다. 따라서, 디스플레이(404)에 도시된 바와 같이 풀스크린 모드에 있을 때, 전체 비디오의 일부만이 디스플레이된다. 예시적인 실시예들은, 사용자가 클라이언트 디바이스(110)를 회전시켜, 클라이언트 디바이스(110)의 디스플레이(404) 내의 미디어 콘텐츠가 회전하게 하여 원형 비디오 포맷(402)을 이용할 수 있게 하고 원형 비디오 포맷의 더 많은 영역들을 보거나 노출시킬 수 있게 한다.
도 5는, 원형 비디오 포맷의 미디어 콘텐츠(예를 들어, 비디오 콘텐츠)가 클라이언트 디바이스(110) 상에 디스플레이될 때 재생 거동 및 상호작용들을 위한, 일부 예시적인 실시예들에 따른, 방법(500)의 양태들을 예시하는 흐름도이다. 예시적인 목적으로, 방법(500)은 도 1의 네트워크화된 시스템(100)과 관련하여 설명된다. 방법(500)은 다른 실시예들에서 다른 시스템 구성들로 실시될 수 있다는 것을 이해해야 한다.
동작(502)에서, 컴퓨팅 디바이스(예를 들어, 클라이언트 디바이스(110))가 컴퓨팅 디바이스의 디스플레이 상에서 미디어 콘텐츠(또는 미디어 콘텐츠 스트림)의 재생 동안에 컴퓨팅 디바이스의 움직임을 검출한다. 예를 들어, 사용자(106)가 원형 비디오 포맷으로 캡처된 비디오를 시청하고 있을 수 있다. 사용자(106)는 디바이스를 기울이거나 회전시켜서 원형 비디오 포맷의 다른 영역들을 볼 수 있다. 컴퓨팅 디바이스(예를 들어, 회전 플레이어를 통한)는 컴퓨팅 디바이스의 하나 이상의 센서를 통해 컴퓨팅 디바이스의 움직임을 검출할 수 있다. 예를 들어, 컴퓨팅 디바이스는 가속도계 센서, 자이로스코프 센서, 및/또는 다른 모션 센서(들)를 포함할 수 있다. 가속도계 센서가 컴퓨팅 디바이스의 가속도(예를 들어, 속도 변화율)를 측정한다. 가속도계 센서는 또한 3개의 축을 따라 컴퓨팅 디바이스의 배향(orientation)을 결정하는데 사용된다. 예를 들어, 가속도계로부터의 움직임 데이터는, 특히, 컴퓨팅 디바이스가 세로 또는 가로 모드에 있는지를 알려 주는 데 사용될 수 있다. 자이로스코프 센서가 또한 배향 정보를 제공하고 배향의 임의의 변화들을 측정할 수 있다.
동작(504)에서, 컴퓨팅 디바이스는 컴퓨팅 디바이스의 하나 이상의 센서로부터 움직임 데이터를 수신한다. 일 예에서, 움직임 데이터는 가속도계 센서로부터 수신되고, 움직임 데이터는 중력의 하향 힘에 대한 컴퓨팅 디바이스의 축들의 회전을 포함하는 컴퓨팅 디바이스의 배향을 포함한다. 예를 들어, 컴퓨팅 디바이스의 배향은 컴퓨팅 디바이스의 디스플레이로부터 멀어지는 방향으로 향하는 z-축을 중심으로 하는 컴퓨팅 디바이스의 회전을 포함할 수 있다. 움직임 데이터는 또한/대안적으로 자이로스코프 센서, 중력 센서, 또는 다른 모션 센서 또는 툴로부터 수신될 수 있다.
동작(506)에서, 컴퓨팅 디바이스는 움직임 데이터를 분석하여 움직임의 방향을 결정한다. 예를 들어, 사용자는 컴퓨팅 디바이스를 오른쪽으로 기울일 수 있고 컴퓨팅 디바이스의 회전 플레이어는 사용자가 컴퓨팅 디바이스를 오른쪽으로 기울이고 있고 컴퓨팅 디바이스가 얼마나 많이 오른쪽으로 회전하고 있는지를 검출할 수 있다. 그 후 회전 플레이어는 반대 방향으로 디스플레이하고 있는 미디어 콘텐츠(예를 들어, 비디오)를 회전시켜서, 컴퓨팅 디바이스가 기울어지거나 회전됨에 따라 미디어 콘텐츠가 더 많이 드러나는 것처럼 나타나게 한다. 일 예에서, 컴퓨팅 디바이스는 자이로스코프로부터 컴퓨팅 디바이스가 "Z" 축에서 9도 회전하였다는 것과, 가속도계로부터 사용자가 전화기를 회전시키고 있는 속도와 같은 움직임 데이터를 분석할 수 있다. 컴퓨팅 디바이스는 센서들로부터 이러한 출력들을 분석하여, 컴퓨팅 디바이스가 얼마나 많이 실제로 회전하고 있는지를 결정한다.
동작(508)에서, 컴퓨팅 디바이스는 움직임의 방향에 기초하여 미디어 콘텐츠의 디스플레이의 회전을 계산한다. 예를 들어, 컴퓨팅 디바이스는, 전화기가 "Z" 축에서 20도 회전했다고 결정할 수 있고, 이는 사용자가 컴퓨팅 디바이스를 사용자에 대해 20도 회전시켰다는 것을 의미하고, 그래서 미디어 콘텐츠는 반대 방향으로 20도 이동되어야 한다.
일 예에서, 움직임 데이터는 가속도계 센서 및 자이로스코프 센서로부터 수신된다. 컴퓨팅 디바이스는, 컴퓨팅 디바이스가 사용자에 의해 평평한 배향(flat orientation)으로 유지된다고 결정할 수 있고, 따라서 배향은 모호하다. 이 예에서, 컴퓨팅 디바이스는 자이로스코프 센서로부터의 움직임 데이터에 기초하여 미디어 콘텐츠의 디스플레이의 회전을 계산한다.
다른 예에서, 컴퓨팅 디바이스는, 컴퓨팅 디바이스가 사용자에 의해 거의 평평한 배향으로 유지된다고 결정하고, 따라서, 회전은 가속도계로부터의 측정들의 조합을 사용하여 계산되고, 자이로스코프를 사용하여 회전을 계산한다(예를 들어, 가속도계 센서와 자이로스코프 센서 둘다로부터의 움직임 데이터를 사용하여).
다른 예에서, 컴퓨팅 디바이스는, 컴퓨팅 디바이스가 사용자에 의해 거의 평평한 배향으로 유지된다고 결정하지만, 자이로스코프 센서로부터의 움직임 데이터만을 갖는다(예를 들어, 컴퓨팅 디바이스는 가속도계 센서를 갖지 않을 수 있다). 이 예에서, 미디어 콘텐츠의 디스플레이의 회전은 자이로스코프 센서로부터의 움직임 데이터에 기초하여 계산된다.
동작(510)에서, 컴퓨팅 디바이스는 미디어 콘텐츠의 디스플레이가 움직임의 방향에 대해 회전하게 하여, 움직임의 방향과 연관된 미디어 콘텐츠의 일부분을 디스플레이한다. 일 예에서, 미디어 콘텐츠의 일부분을 디스플레이하는 것은 컴퓨팅 디바이스의 디스플레이 상에서 이전에 볼 수 없었던 미디어 콘텐츠의 일부분을 디스플레이하는 것을 포함한다. 이러한 방식으로, 사용자(106)는 컴퓨팅 디바이스를 회전시켜서 원형 비디오 포맷(402)을 이용하고 원형 비디오 포맷의 더 많은 영역을 보거나 노출시킬 수 있다.
일 예에서, 미디어 콘텐츠는 지상(ground)에 대해 컴퓨팅 디바이스 상의 디스플레이 내에서 회전한다. 즉, 앵커 포인트(anchor point)는 사용자 시작 각도 위치에 기초하여 설정되지 않을 수 있다. 예를 들어, 컴퓨팅 디바이스가 상향 위치로 유지되면, 무게는 컴퓨팅 디바이스의 하부에 있을 것이다. 사용자가 컴퓨팅 디바이스를 뒤집어 놓는 경우, 미디어 콘텐츠가 플립되어서, 무게가 다시 디바이스의 "하부"에 있을 것이다(뒤집어진 것은 사실상 디바이스의 상부이다).
다른 예에서, 컴퓨팅 디바이스가 거의 수평인 경우, 미디어 콘텐츠 회전은 중력 1:1을 추적하지 않고, 대신에 컴퓨팅 디바이스의 자이로스코프 데이터를 추적한다. 이것은 큰 회전 변화들에 매핑되는 작은 컴퓨팅 디바이스 배향 변화들을 피하도록 행해질 수 있다.
다른 예에서, 임의의 미디어 오버레이들(예를 들어, 텍스트, 스티커들, 특수 효과들, 지오-필터(geo-filter) 등) 또는 다른 창작 도구들이 미디어 콘텐츠 회전과 함께 회전할 수 있다. 예를 들어, 사용자가 컴퓨팅 디바이스를 위로 잡고 있는 동안 사용자가 비디오의 하단 우측에 스티커를 두는 경우, 사용자가 컴퓨팅 디바이스를 90도 회전시킬 때, 사용자는 그것이 스크린/디스플레이에서 제거되었기 때문에 더 이상 스티커를 볼 수 없을 것이다. 이러한 방식으로, 미디어 오버레이는, 미디어 콘텐츠가 회전되었을 때에도, 배치되었던 실제 로케이션으로 머무른다.
다른 예에서, 급격한 회전 변화가 검출되면(예를 들어, 사용자가 컴퓨팅 디바이스를 뒤집을 때와 같이), 컴퓨팅 디바이스는 회전을 업데이트하고 전이를 애니메이션화하여, 그것이 매끄러운 전이로 나타나게 해야 한다(예를 들어, 컴퓨팅 디바이스의 회전을 매끄럽게 따르게 해야 한다). 큰 회전 변화들의 경우, 모션은 디바이스의 회전을 향해 천천히 움직이기 때문에 잠시 지연될 수 있다. 일 예에서, 급격한 회전 변화는 10 또는 20도보다 큰 임의의 회전으로 간주될 수 있다.
사용자에 의한 일부 액션은 회전 기능을 일시 정지시킬 수 있다. 예를 들어, 창작 콘텐츠(예를 들어, 미디어 오버레이)를 추가하는 것은 자동으로 회전을 일시 정지시킬 수 있다. 창작 콘텐츠가 미디어 콘텐츠에 추가되거나 배치되었다면, 회전은 자동으로 다시 인에이블될 수 있다.
일 예에서, 컴퓨팅 디바이스가 그의 회전을 측정하는 방식을 갖지 않는 경우, 회전 기능은 디스에이블되고, 미디어 콘텐츠의 디스플레이는 풀스크린 모드로 도시된다.
일부 예시적인 실시예들은 패럴랙스 효과를 포함할 수 있다. 예를 들어, 사용자가 컴퓨팅 디바이스를 약간 기울이면, 사용자가 기울인 방향으로 비디오의 작은 부분이 드러난다. 이러한 방식으로, 사용자가 컴퓨팅 디바이스를 앞뒤로 회전시킬 때, 미디어 콘텐츠의 움직임이 상하 및 좌우 모션으로 이동된다(예를 들어, 슬라이드된다). 이것은 사용자가 주위를 둘러보는 듯한 느낌을 주기 위한 것이다. 일 예에서, 사용자가 아무리 컴퓨팅 디바이스를 기울인다 하더라도, 사용자는 비디오의 에지를 결코 볼 수 없을 것이다. 사용자가 원형 비디오 포맷으로 캡처된 미디어 콘텐츠를 보기 시작할 때, 사용자가 원형 비디오 포맷의 다른 미디어 콘텐츠를 이전에 시청하고 있지 않는 한, 미디어 콘텐츠의 가장 중심이 디스플레이되고, 이 경우에 스크린/디스플레이 상의 비디오의 로케이션은 이전의 비디오로부터 상속된다(inherited).
도 6은 예시적인 패럴랙스 영역 다이어그램(600)을 도시한다. 도 6의 다이어그램(600)은 축척대로 나타낸 것은 아니다. 이 다이어그램(600)은 패럴랙스 영역(604)(예를 들어, 풀스크린 영역)보다 약간 더 작은 컴퓨팅 디바이스 스크린(602) 상의 디스플레이의 영역을 도시한다. 일 예에서, 미디어 콘텐츠(예를 들어, 비디오)의 86%가 패럴랙스 없이 보인다. 미디어 콘텐츠는 원형 비디오 포맷(606)으로 되어 있을 수 있다.
패럴랙스 영역(604)은 컴퓨팅 디바이스 스크린이 주위 유동(flow around)할 수 있는 영역이다. 예를 들어, 패럴랙스 영역(604)은 비디오의 임의의 에지들을 노출시키지 않고 스크린이 비디오에 대해 이동할 수 있는 영역이다. 따라서, 사용자가 컴퓨팅 디바이스를 기울임에 따라, 스크린(602) 상의 디스플레이의 영역은 패럴랙스 영역(604)의 상이한 에지들로 이동(예를 들어, 슬라이드)할 수 있다. 이러한 방식에서 사용자는 비디오를 더 많이 들여다보는(peeking) 것으로 보인다. 이것은 움직임이 좀 더 자연스럽고 더 3차원적으로 느끼게 할 수 있다. 예를 들어, 사용자가 컴퓨팅 디바이스를 오른쪽으로 회전시키는 경우, 사용자는 정상적으로는 보이지 않을 왼쪽의 비디오의 일부를 볼 것이다. 패럴랙스 효과 없이, 비디오는 풀스크린 영역(예를 들어, 패럴랙스 영역(604))을 차지할 것이다.
일 예에서, 미디어 콘텐츠 원의 크기는 컴퓨팅 디바이스의 스크린의 단면에 의해 결정된다(예를 들어, 미디어 콘텐츠 크기는 컴퓨팅 디바이스 스크린 크기에 비례한다). 다른 예에서, 비디오 원의 직경은, 패럴랙스에 대한 반경 증가(608)로서 도시된 바와 같이, 컴퓨팅 디바이스의 스크린의 단면 거리보다 7%(예를 들어, 반경 3.5%) 더 크다. 이 값은 미묘한 경험(subtle experience)을 제공하도록 의도된다.
일 예에서, 패럴랙스 효과에 대한 디바이스 상의 회전은 초당 라디안(radians per second)으로 보고된다. 예를 들어, 컴퓨팅 디바이스 스크린(602)에서의 미디어 콘텐츠는 스크린 상에서 1 라디안 = 2 pts의 레이트(2x 멀티플라이어)로 이동할 수 있다.
다른 예에서, 미디어 콘텐츠의 변환(translation)은 중심으로부터 이동할 때 2차 곡선을 따르고 중심을 향해 이동할 때 선형 곡선을 따른다. 이것은 모션을 더 매끄러운 느낌으로 제공한다. 예를 들어, 중심으로부터 멀어지게 이동하는 것은 천천히 시작하여 빠르게 진행할 것이고, 중심을 향해 이동하는 것은 내내 동일한 속도로 이동할 것이다.
다른 예에서, 패럴랙스 효과에서의 회전은 일부 그룹 진실 또는 중력에 기초하지 않고, 스크린 변환은 임의의 회전 변화에 반응한다. 예를 들어, 사용자가 디바이스를 오른쪽으로 90도 기울이고 나서 약간 왼쪽으로 다시 기울이면, 스크린은 패럴랙스 영역(604)의 오른쪽 에지 상에 있지 않을 것이다.
다른 예에서, 사용자가 컴퓨팅 디바이스를 빠르게 기울일 때와 같이, 패럴랙스로 인한 변환의 급격한 변화가 필요한 경우, 컴퓨팅 디바이스는 급격한 회전 변화에 관해 전술한 바와 같이 변환을 업데이트해야 한다. 일 예에서, 변환의 급격한 변화는 적어도 하나의 축에서의 변환 범위의 1/3보다 큰 임의의 변화이다. 이것이 급격한 모션 변화와 동시에 발생하는 경우, 회전 애니메이션이 사용될 수 있다.
도 7은, 패럴랙스 모션을 검출하고 디스플레이가 그에 따라 슬라이드하게 하는, 일부 예시적인 실시예들에 따른, 방법(700)의 양태들을 예시하는 흐름도이다. 예시적인 목적으로, 방법(700)은 도 1의 네트워크화된 시스템(100)과 관련하여 설명된다. 방법(700)은 다른 실시예들에서 다른 시스템 구성들로 실시될 수 있다는 점이 이해되어야 한다.
동작(702)에서, 컴퓨팅 디바이스(예를 들어, 클라이언트 디바이스(110))가 하나 이상의 센서로부터 움직임 데이터를 수신한다. 일 예에서, 패럴랙스 모션은 자이로스코프 센서를 모니터링함으로써 검출되며, 자이로스코프 센서는 그의 축들에 대한 컴퓨팅 디바이스의 회전 속도를 측정한다. 예를 들어, y-축에 대한 회전은 수평(좌우) 패럴랙스 모션을 제어하고, x-축에 대한 회전은 수직(상하) 패럴랙스 모션을 제어한다. 일 예에서, 패럴랙스 모션은 그것이 원형 비디오 포맷의 마진들로 나가기 쉬워짐에 따라 감속하고, 그것이 다시 중심을 잡으면 일정한 속도로 이동한다.
동작(704)에서, 컴퓨팅 디바이스는 움직임 데이터로부터 패럴랙스 모션을 검출하고, 동작(706)에서, 컴퓨팅 디바이스는 움직임 데이터를 분석하여 컴퓨팅 디바이스의 움직임의 방향을 결정한다. 동작(708)에서, 컴퓨팅 디바이스는 미디어 콘텐츠의 디스플레이가 움직임의 방향의 반대 방향으로 슬라이드하게 한다.
일부 예시적인 실시예들은, 사용자가 풀스크린 모드에서 미디어 콘텐츠를 보는 것과 미디어 콘텐츠를 원으로 보는 것 사이에서 변경하기 위해 미디어 콘텐츠를 원형 비디오 포맷으로 보면서 컴퓨팅 디바이스(예를 들어, 클라이언트 디바이스(110))의 디스플레이 상의 "핀치(pinch)"와 같은 제스처를 컴퓨팅 디바이스 상의 입력으로서 사용할 수 있게 한다. 도 8은 사용자가 디스플레이 상에서 핀치 인(pinch in) 또는 핀치 아웃(pinch out) 하는 것에 기초한 미디어 콘텐츠의 예시적인 디스플레이들(802, 804, 및 806)을 예시한다. 예를 들어, 사용자는 예시적인 디스플레이(802)에 도시된 바와 같이 풀스크린 모드에서 컴퓨팅 디바이스의 디스플레이 상에서 미디어 콘텐츠(예를 들어, 비디오)를 보고 있을 수 있다. 컴퓨팅 디바이스의 디스플레이는 터치 스크린 디스플레이일 수 있고 사용자는 그의 손가락을 사용하여 디스플레이 상에서 핀치 인 할 수 있다. 사용자가 802의 풀스크린 모드에서 핀치 인 하고 놓았을 때, 컴퓨팅 디바이스의 디스플레이는 예시적인 디스플레이(804)에 도시된 바와 같이 원 디스플레이 모드로 변화될 것이다. 사용자가 804에 도시된 바와 같이 원 디스플레이 모드에서 핀치 아웃하고 놓았을 때, 컴퓨팅 가격의 디스플레이는 풀스크린 모드로 예시적 디스플레이(806) 디스플레이에 도시된 바와 같이 변화될 것이다. 일 예에서, 사용자는 핀치 앤드 홀드(pinch and hold)할 수 있고, 미디어 콘텐츠는 사용자가 홀드하고 있는 크기로 계속해서 디스플레이될 것이다. 예를 들어, 사용자는 더 작은 원 크기로 비디오 디스플레이를 핀치 앤드 홀드할 수 있고, 비디오는 사용자가 핀치를 진행할 때까지 그 크기를 계속해서 재생할 것이다.
일 예에서, 원형 비디오 포맷의 미디어 콘텐츠는 디폴트로 풀스크린 모드로 디스플레이될 수 있다. 사용자가 원형 비디오 포맷으로 미디어 콘텐츠의 임의의 풀스크린 모드 디스플레이 상에서 안쪽으로 핀치하면, 미디어 콘텐츠는 작은 원으로 축소되고, 이것은 본 명세서에서 핀치된 모드(pinched mode)로 지칭된다. 사용자가 임의의 핀치된 모드 미디어 콘텐츠 상에서 바깥쪽으로 핀치하면, 미디어 콘텐츠는 풀스크린 모드로 확장한다. 미디어 콘텐츠는, 원형 비디오 포맷이 아닌 미디어 콘텐츠가 디스플레이되거나 사용자가 풀스크린 보기 세션(fullscreen viewing session)을 완료할 때까지 핀치된 모드로 유지될 수 있다. 일 예에서, 미디어 콘텐츠가 핀치된 모드에 있을 때, 원형 비디오 포맷의 전체 뷰가 디스플레이된다. 다른 예에서, 미디어 콘텐츠가 풀스크린 모드에 있을 때, 원형 비디오 포맷의 중심 부분만이 디스플레이된다.
일 예에서, 사용자가 핀치된 모드 크기로 핀치 다운(pinch down)할 때 패럴랙스 효과는 선형적으로 무시된다. 예를 들어, 원 크기가 핀치된 모드 디폴트 크기의 80%가 되도록 사용이 핀치하고 있는 경우, 패럴랙스 효과는 비디오 변환에 대한 정상적인 영향의 20%를 가질 것이다. 일 예에서 사용자가 디폴트 풀스크린 모드 크기를 넘어서 핀치 아웃함으로써 더 강한 효과를 얻을 수 없도록 패럴랙스 효과는 100% 및 0%로 캡핑될(capped) 수 있다.
도 9는, 핀치 제스처를 통해 미디어 콘텐츠의 뷰를 조작하기 위한, 일부 예시적인 실시예들에 따른, 방법(900)의 양태들을 예시하는 흐름도이다. 예시적인 목적으로, 방법(900)은 도 1의 네트워크화된 시스템(100)과 관련하여 설명된다. 방법(900)은 다른 실시예들에서 다른 시스템 구성들로 실시될 수 있다는 점이 이해되어야 한다.
동작(902)에서, 컴퓨팅 디바이스(예를 들어, 클라이언트 디바이스(110))가 핀치 제스처 데이터를 수신한다. 예를 들어, 핀치 제스처를 인식하고 그 핀치 제스처에 관한 데이터를 전송할 수 있는 컴퓨팅 디바이스의 운영 체제에 포함된 도구가 있을 수 있다. 컴퓨팅 디바이스(예를 들어, 클라이언트 애플리케이션(114)을 통한)는 핀치 제스처 데이터를 요청하고 이용가능한 경우 핀치 제스처 데이터를 수신할 수 있다.
동작(904)에서, 컴퓨팅 디바이스는 핀치 제스처 데이터를 분석하여 핀치 스케일 및 핀치 속도를 결정한다. 예를 들어, 핀치 제스처 데이터는 핀치 스케일(예를 들어, 사용자의 손가락이 시작 위치로부터 홀드 또는 해제 위치로 얼마나 멀리 떨어져 이동했는지), 및 핀치 속도(예를 들어, 사용자가 자신의 손가락들을 얼마나 빠르게 확장, 수축, 또는 해제했는지)를 포함할 수 있다. 동작(906)에서, 컴퓨팅 디바이스는 핀치 스케일 및 핀치 속도에 기초하여 미디어 콘텐츠(예를 들어, 비디오) 디스플레이 크기를 계산한다. 예를 들어, 사용자가 풀스크린 모드에서 시작하고 스크린 상에서 더 작게 핀치를 시작하는 경우, 미디어 콘텐츠의 디스플레이는 풀스크린 모드로부터 원 포맷으로 사용자가 핀치하고 있는 크기 및 레이트로 전이할 것이다. 그리고 사용자가 핀치된 모드에 있고 디스플레이 상에서 더 크게 핀치를 시작하는 경우, 더 작은 원에서의 미디어 콘텐츠의 디스플레이는 사용자가 핀치하고 있는 크기 및 레이트로 더 큰 원으로 성장할 것이다. 사용자가 자신의 손가락들을 해제하면, 미디어 콘텐츠 디스플레이 크기는 사용자가 자신의 손가락들을 어디서 해제하는지 및 사용자가 손가락들을 얼마나 빨리 해제하는지에 따라 풀스크린 모드 또는 핀치된 모드로 전이한다.
예를 들어, 사용자가 핀치를 시작하기 전에 풀스크린 모드에 있었고 사용자가 풀스크린 모드 스케일 크기의 60% 내에서 자신의 손가락들을 해제하고, 스케일 속도가 미리 결정된 속도보다 크면(예를 들어, > -1/s), 디스플레이는 풀스크린 모드로 애니메이트된다(예를 들어, 전이한다). 사용자가 미리 결정된 속도보다 작은(예를 들어, < -1/s) 스케일 속도로 자신의 손가락을 해제하면, 디스플레이는 핀치된 모드로 애니메이트된다. 사용자가 핀치된 모드 스케일 크기의 40% 내에서 자신의 손가락을 해제하면, 디스플레이는 핀치된 모드로 애니메이트된다.
다른 예에서, 사용자가 핀치를 시작하기 전에 핀치된 모드에 있었고 사용자가 핀치된 모드 스케일 크기의 40% 내에서 자신의 손가락을 해제하고 스케일 속도가 미리 결정된 속도보다 작다면(예를 들어, < 1/s), 디스플레이는 핀치된 모드로 다시 애니메이트된다. 사용자가 미리 결정된 속도보다 큰(예를 들어, > 1/s) 스케일 속도로 자신의 손가락을 해제하면, 디스플레이는 풀스크린 모드로 애니메이트된다. 사용자가 풀스크린 모드 스케일의 60% 내에서 자신의 손가락을 해제하면, 디스플레이는 풀스크린 모드로 애니메이트된다.
일 예에서, 디스플레이는 사용자가 스프링 애니메이션(spring animation)을 이용하여 자신의 손가락을 해제한 후에 모드들 사이에서 애니메이트된다. 이것은 0.75에서의 댐핑, 및 (iOS에 대한 픽셀들로 변환될 수 있는) 핀치 제스처로부터의 속도의 초기 스프링 속도를 포함할 수 있다. 일 예에서, abs(핀치 속도) > 1인 경우 지속기간은 0.3초일 수 있다. 다른 예에서, abs(핀치 속도) < 1인 경우 0.4초일 수 있다(예를 들어, 애니메이션이 가속화되는 것을 허용하기 위해 약간 더 길 수 있다).
동작(908)에서, 컴퓨팅 디바이스는 미디어 콘텐츠 디스플레이 크기에 기초하여 미디어 콘텐츠가 디스플레이되게 한다.
일 예에서, 사용자가 최소 및 최대 원 크기들을 넘어 핀치하는 경우, 사용자는 고무 밴딩 효과(rubber banding effect)를 볼 수 있다. 컴퓨팅 디바이스는 오버 핀치(over pinch)를 위해 로그 곡선들을 사용할 수 있다. 일 예에서, 로그 베이스(15) 값은 핀치된 모드 상에서 오버 핀치를 위해 사용될 수 있고 로그 베이스(40)는 풀스크린 모드 상에서 오버 핀치를 위해 사용될 수 있다.
예를 들어:
Figure 112019097501017-pct00001
도 10은 컴퓨팅 디바이스의 디스플레이 상에서 원형 비디오 콘텐츠 내에 미디어 콘텐츠를 어떻게 디스플레이할지를 결정하기 위해 사용되는 레드라인 디스플레이(red-lined display)의 예를 도시한다.
전술한 바와 같이, 디스플레이되는 미디어 콘텐츠는 (예를 들어, 갤러리의 일부로서) 복수의 미디어 콘텐츠 아이템 중 하나일 수 있다. 미디어 콘텐츠는 비디오, 이미지(예를 들어, 사진 또는 다른 이미지) 등을 포함할 수 있다. 비디오들은 종래의 비디오 포맷들 및 원형 비디오 포맷을 포함할 수 있다. 갤러리는 상이한 타입들 및 포맷들의 복수의 미디어 콘텐츠 아이템을 포함할 수 있다. 갤러리 내의 미디어 콘텐츠 아이템들의 디스플레이는 갤러리 내의 다음 미디어 콘텐츠 아이템으로 자동으로 전이할 수 있거나, 사용자는 제스처, 컨트롤들, 또는 자신이 갤러리 내의 다음 미디어 콘텐츠 아이템을 보기를 원한다는 것을 표시하기 위한 다른 수단을 통해 다음 미디어 콘텐츠 아이템으로 스킵할 수 있다.
일 예에서, 사용자가 원형 비디오 포맷으로 캡처된 미디어 콘텐츠 아이템을 보고 있고, 미디어 콘텐츠 아이템이 완료되거나 또는 사용자가 갤러리 내의 다음 미디어 콘텐츠 아이템으로 진행하기 위해 탭핑(tap)하거나 또는 다른 방식으로 표시하면, 다음 미디어 콘텐츠 아이템이 또한 원형 비디오 포맷으로 캡처되었다면, 다음 미디어 콘텐츠 아이템은 이전 미디어 콘텐츠 아이템과 동일한 모드에서 사용자에게 디스플레이될 것이다. 예를 들어, 사용자가 이전 미디어 콘텐츠 아이템을 핀치하고 있는 경우, 다음 미디어 콘텐츠 아이템은 사용자가 계속 핀치함에 따라 이전 미디어 콘텐츠 아이템과 정확히 동일한 크기, 회전, 패럴랙스 등으로 동일하게 계속해서 나타날 것이다. 즉, 핀치 제스처는 인터럽트되지 않을 것이다.
다른 예에서, 미디어 콘텐츠 아이템은, 사용자가 풀스크린에서 미디어 콘텐츠 아이템을 보는 것을 완료할 때까지 또는 비-원형 비디오 포맷 미디어 콘텐츠 아이템이 나타나거나 사용자가 다른 스토리 또는 갤러리를 선택할 때까지, 핀치된 모드로 유지된다. 도 11은 갤러리 내의 미디어 콘텐츠 아이템들의 예시적인 흐름을 도시한다. 예를 들어, 사용자가 갤러리 내의 복수의 미디어 콘텐츠 아이템 내의 제1 미디어 콘텐츠 아이템(1102)을 보고 있을 수 있다. 제1 미디어 콘텐츠 아이템(1102)은 종래의 비디오 포맷(예를 들어, 원형 비디오 포맷이 아님)에 있을 수 있다. 사용자는 제2 미디어 콘텐츠 아이템(1104)으로 이동하도록 탭핑할 수 있다. 제2 미디어 콘텐츠 아이템(1104)은 풀스크린 모드로 디스플레이되는 원형 비디오 포맷의 비디오일 수 있다. 사용자는 핀치된 모드(1106)에서 제2 미디어 콘텐츠 아이템을 보기 위해 핀치 인 할 수 있다. 사용자는 또한 원형 비디오 포맷의 비디오일 수도 있는 제3 미디어 콘텐츠 아이템(1108)으로 이동하기 위해 탭핑할 수 있다. 제3 미디어 콘텐츠 아이템(1108)은 또한 핀치된 모드로 디스플레이될 것이다. 사용자는 제4 미디어 콘텐츠 아이템(1110)으로 이동하기 위해 탭핑할 수 있다. 제4 미디어 콘텐츠 아이템(1110)은 종래의 비디오 포맷으로 되어 있을 수 있고, 따라서 정규 풀스크린 모드로 디스플레이된다. 사용자는 원형 비디오 포맷의 비디오일 수 있는 제5 미디어 콘텐츠 아이템(1112)으로 이동하기 위해 탭핑할 수 있다. 제5 미디어 콘텐츠 아이템(1112)은 풀스크린 모드로 디스플레이된다.
다른 예에서, 미디어 콘텐츠 아이템은 전체 보기 세션에 대해 그의 보기 모드를 유지한다. 예를 들어, 사용자가 이전 미디어 콘텐츠 아이템을 보기 위해 다시 탭핑하는 경우, 이전 미디어 콘텐츠 아이템은 보기 세션 동안 사용자가 마지막으로 봤을 때 가시적이었던 어떤 모드(예를 들어, 핀치된 모드 또는 풀스크린 모드)로도 나타난다. 다른 예에서, 사용자가 제1 갤러리에서 핀치된 모드로 미디어 콘텐츠 아이템을 보고 나서 제2 갤러리로 가고, 이어서 제1 갤러리로 돌아가면, 미디어 콘텐츠 아이템은 여전히 핀치된 모드로 디스플레이될 것이다.
다른 예에서, 사용자가 미디어 콘텐츠를 보는 것을 종료하기로 결정하는 경우, 미디어 콘텐츠 아이템이 축소될 수 있고, 미디어 콘텐츠 아이템이 축소됨에 따라 블랙 배경(black background)이 선형적으로 사라진다. 다른 예에서, 사용자는 미디어 콘텐츠 아이템을 로드될 때까지 핀치 인 또는 아웃 하지 않을 수 있다.
도 12는 전술한 디바이스들 중 임의의 하나 이상에 설치될 수 있는 소프트웨어 아키텍처(1202)를 예시하는 블록도(1200)이다. 예를 들어, 다양한 실시예들에서, 클라이언트 디바이스들(110) 및 서버 시스템들(102, 120, 122, 및 124)은 소프트웨어 아키텍처(1202)의 요소들의 일부 또는 전부를 사용하여 구현될 수 있다. 도 12는 소프트웨어 아키텍처의 비제한적인 예에 불과하고, 여기서 설명된 기능을 용이하게 하기 위해 많은 다른 아키텍처가 구현될 수 있다는 것을 잘 알 것이다. 다양한 실시예들에서, 소프트웨어 아키텍처(1202)는 프로세서들(1310), 메모리(1330), 및 I/O 컴포넌트들(1350)을 포함하는 도 13의 머신(1300)과 같은 하드웨어에 의해 구현된다. 이 예에서, 소프트웨어 아키텍처(1202)는 각각의 계층이 특정 기능을 제공할 수 있는 계층들의 스택으로서 개념화될 수 있다. 예를 들어, 소프트웨어 아키텍처(1202)는 운영 체제(1204), 라이브러리들(1206), 프레임워크들(1208), 및 애플리케이션들(1210)과 같은 계층들을 포함한다. 동작적으로, 애플리케이션들(1210)은, 일부 실시예들에 따라, 소프트웨어 스택을 통해 애플리케이션 프로그래밍 인터페이스(API) 호출들(1212)을 불러오고, API 호출들(1212)에 응답하여 메시지들(1214)을 수신한다.
다양한 구현에서, 운영 체제(1204)는 하드웨어 자원들을 관리하고 공통 서비스들을 제공한다. 운영 체제(1204)는, 예를 들어, 커널(kernel)(1220), 서비스들(1222), 및 드라이버들(1224)을 포함한다. 커널(1220)은, 일부 실시예들에 따라, 하드웨어와 다른 소프트웨어 계층들 사이의 추상화 계층의 역할을 한다. 예를 들어, 커널(1220)은 다른 기능 중에서도, 메모리 관리, 프로세서 관리(예를 들어, 스케줄링), 컴포넌트 관리, 네트워킹, 및 보안 설정들을 제공한다. 서비스들(1222)은 다른 소프트웨어 계층들에 대한 다른 공통 서비스들을 제공할 수 있다. 일부 실시예들에 따르면, 드라이버들(1224)은 기저 하드웨어를 제어하거나 그와 인터페이싱하는 것을 담당한다. 예를 들어, 드라이버들(1224)은 디스플레이 드라이버들, 카메라 드라이버들, 블루투스® 또는 블루투스® 로우 에너지 드라이버들, 플래시 메모리 드라이버들, 직렬 통신 드라이버들(예를 들어, 범용 직렬 버스(Universal Serial Bus)(USB) 드라이버들), WI-FI® 드라이버들, 오디오 드라이버들, 전력 관리 드라이버들 등을 포함할 수 있다.
일부 실시예들에서, 라이브러리들(1206)은 애플리케이션들(1210)에 의해 이용되는 저레벨 공통 인프라구조를 제공한다. 라이브러리들(1206)은, 메모리 할당 기능, 문자열 조작 기능, 수학 기능 등과 같은 기능을 제공할 수 있는 시스템 라이브러리들(1230)(예를 들어, C 표준 라이브러리)을 포함할 수 있다. 또한, 라이브러리들(1206)은 미디어 라이브러리들(예를 들어, MPEG4(Moving Picture Experts Group-4), 진보된 비디오 코딩(Advanced Video Coding)(H.264 또는 AVC), MP3(Moving Picture Experts Group Layer-3), 진보된 오디오 코딩(Advanced Audio Coding)(AAC), 적응적 멀티-레이트(Adaptive Multi-Rate)(AMR) 오디오 코덱, 공동 영상 전문가 그룹(Joint Photographic Experts Group)(JPEG 또는 JPG), 또는 이동성 네트워크 그래픽(Portable Network Graphics)(PNG)과 같은 다양한 미디어 포맷들의 제시 및 조작을 지원하는 라이브러리들), 그래픽 라이브러리들(예를 들어, 디스플레이 상의 그래픽 콘텐츠에서 2차원(2D) 및 3차원(3D)으로 렌더링하기 위해 사용되는 OpenGL 프레임워크), 데이터베이스 라이브러리들(예를 들어, 다양한 관계형 데이터베이스 기능들을 제공하는 SQLite), 웹 라이브러리들(예를 들어, 웹 브라우징 기능성을 제공하는 WebKit) 등과 같은 API 라이브러리들(1232)을 포함할 수 있다. 라이브러리들(1206)은 또한, 많은 다른 API를 애플리케이션들(1210)에 제공하는 다양한 다른 라이브러리(1234)를 포함할 수 있다.
프레임워크들(1208)은 일부 실시예들에 따라, 애플리케이션들(1210)에 의해 이용될 수 있는 고레벨 공통 인프라구조를 제공한다. 예를 들어, 프레임워크들(1208)은, 다양한 그래픽 사용자 인터페이스(graphic user interface)(GUI) 기능들, 고레벨 자원 관리, 고레벨 로케이션 서비스들 등을 제공한다. 프레임워크들(1208)은 애플리케이션들(1210)에 의해 이용될 수 있는 광범위한 다른 API들을 제공할 수 있으며, 그 중 일부는 특정 운영 체제(1204) 또는 플랫폼에 특정적일 수 있다.
예시적인 실시예에서, 애플리케이션들(1210)은 홈 애플리케이션(1250), 연락처 애플리케이션(1252), 브라우저 애플리케이션(1254), 북 리더 애플리케이션(1256), 로케이션 애플리케이션(1258), 미디어 애플리케이션(1260), 메시징 애플리케이션(1262), 게임 애플리케이션(1264), 및 제3자 애플리케이션(들)(1266) 및 미디어 콘텐츠 애플리케이션(1267)과 같은 광범위한 다른 애플리케이션들을 포함한다. 일부 실시예들에 따르면, 애플리케이션들(1210)은 프로그램들에 정의된 기능들을 실행하는 프로그램들이다. 객체 지향 프로그래밍 언어(예를 들어, Objective-C, Java, 또는 C++) 또는 절차적 프로그래밍 언어(procedural programming language)(예를 들어, C 또는 어셈블리 언어)와 같은, 다양한 방식으로 구조화된, 애플리케이션들(1210) 중 하나 이상을 생성하기 위해 다양한 프로그래밍 언어들이 이용될 수 있다. 구체적인 예에서, 제3자 애플리케이션(1266)(예를 들어, 특정 플랫폼의 벤더 이외의 엔티티에 의해 ANDROID™ 또는 IOS™ 소프트웨어 개발 키트(SDK)를 사용하여 개발된 애플리케이션)은 IOS™, ANDROID™, WINDOWS® Phone, 또는 다른 모바일 운영 체제와 같은 모바일 운영 체제 상에서 실행되는 모바일 소프트웨어일 수 있다. 이 예에서, 제3자 애플리케이션(1266)은 본 명세서에 설명된 기능을 용이하게 하기 위해 운영 체제(1204)에 의해 제공되는 API 호출들(1212)을 불러올 수 있다.
전술한 바와 같이, 일부 실시예들은 특히 메시징 애플리케이션(1262)을 포함할 수 있다. 특정 실시예들에서, 이것은 서버 시스템(102)과 같은 서버 시스템과의 통신들을 관리하도록 동작하는 독립형 애플리케이션일 수 있다. 다른 실시예들에서, 이 기능은 미디어 콘텐츠 애플리케이션(1267)과 같은 다른 애플리케이션과 통합될 수 있다. 메시징 애플리케이션(1262)은 다양한 미디어 콘텐츠 아이템들을 요청하고 디스플레이할 수 있으며, 사용자가 터치 인터페이스, 키보드를 통해, 또는 머신(1300)의 카메라 디바이스를 이용하여 미디어 콘텐츠 아이템들에 관련된 데이터를 입력하는 능력, I/O 컴포넌트들(1350)을 통한 서버 시스템과의 통신, 및 미디어 콘텐츠 아이템들의 수신 및 메모리(1330) 내의 저장을 제공할 수 있다. 미디어 콘텐츠 아이템들의 제시(presentation) 및 미디어 콘텐츠 아이템들과 연관된 사용자 입력들은 머신(1300) 상에서 동작하는 상이한 프레임워크들(1208), 라이브러리(1206) 요소들, 또는 운영 체제(1204) 요소들을 이용하여 메시징 애플리케이션(1262)에 의해 관리될 수 있다.
도 13은 머신 판독가능 매체(예를 들어, 머신 판독가능 저장 매체)로부터 명령어들을 판독하여 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행할 수 있는, 일부 실시예들에 따른, 머신(1300)의 컴포넌트들을 예시하는 블록도이다. 구체적으로, 도 13은 컴퓨터 시스템의 예시적인 형태로 머신(1300)의 도식적 표현을 도시하며, 그 내에서 머신(1300)으로 하여금 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행하게 하기 위한 명령어들(1316)(예를 들어, 소프트웨어, 프로그램, 애플리케이션(1210), 애플릿, 앱, 또는 다른 실행가능 코드)이 실행될 수 있다. 대안적인 실시예들에서, 머신(1300)은 독립형 디바이스로서 동작하거나 다른 머신들에 결합(예를 들어, 네트워크화)될 수 있다. 네트워크화된 배치에서, 머신(1300)은 서버-클라이언트 네트워크 환경에서의 서버 머신(102, 120, 122, 124 등) 또는 클라이언트 디바이스(110)로서, 또는 피어-투-피어(또는 분산형) 네트워크 환경에서 피어 머신으로서 동작할 수 있다. 머신(1300)은 서버 컴퓨터, 클라이언트 컴퓨터, 개인용 컴퓨터(PC), 태블릿 컴퓨터, 랩톱 컴퓨터, 넷북, 개인용 디지털 보조기기(personal digital assistant)(PDA), 엔터테인먼트 미디어 시스템, 셀룰러 전화기, 스마트폰, 모바일 디바이스, 웨어러블 디바이스(예를 들어, 스마트 시계), 스마트 홈 디바이스(예를 들어, 스마트 어플라이언스), 다른 스마트 디바이스들, 웹 어플라이언스, 네트워크 라우터, 네트워크 스위치, 네트워크 브리지, 또는 머신(1300)에 의해 취해질 액션들을 특정하는 명령어들(1316)을 순차적으로 또는 다른 방식으로 실행할 수 있는 임의의 머신을 포함할 수 있고, 이에 제한되지 않는다. 또한, 단일 머신(1300)만이 예시되지만, 용어 "머신"은 또한 본 명세서에서 논의되는 방법론들 중 임의의 하나 이상을 수행하기 위해 명령어들(1316)을 개별적으로 또는 공동으로 실행하는 머신들(1300)의 컬렉션을 포함하는 것으로 간주되어야 한다.
다양한 실시예에서, 머신(1300)은, 버스(1302)를 통해 서로 통신하도록 구성될 수 있는 프로세서들(1310), 메모리(1330), 및 I/O 컴포넌트들(1350)을 포함한다. 예시적인 실시예에서, 프로세서들(1310)(예를 들어, 중앙 처리 유닛(CPU), 축소 명령어 세트 컴퓨팅(reduced instruction set computing)(RISC) 프로세서, 복잡 명령어 세트 컴퓨팅(complex instruction set computing)(CISC) 프로세서, 그래픽 처리 유닛(graphics processing unit)(GPU), 디지털 신호 프로세서(digital signal processor)(DSP), 주문형 집적 회로(application specific integrated circuit)(ASIC), 무선 주파수 집적 회로(radio-frequency integrated circuit)(RFIC), 다른 프로세서, 또는 이들의 임의의 적절한 조합)은, 예를 들어, 명령어들(1316)을 실행할 수 있는 프로세서(1312) 및 프로세서(1314)를 포함한다. "프로세서"라는 용어는 명령어들(1316)을 동시에 실행할 수 있는 2개 이상의 독립 프로세서(1312, 1314)("코어"라고도 함)를 포함할 수 있는 멀티-코어 프로세서들(1310)을 포함하는 것으로 의도된다. 도 13이 다수의 프로세서(1310)를 도시하지만, 머신(1300)은 단일 코어를 갖는 단일 프로세서(1310), 다수의 코어를 갖는 단일 프로세서(1310)(예를 들어, 멀티-코어 프로세서(1310)), 단일 코어를 갖는 다수의 프로세서(1312, 1314), 다수의 코어를 갖는 다수의 프로세서(1310, 1312), 또는 그의 임의의 조합을 포함할 수 있다.
일부 실시예들에 따르면, 메모리(1330)는, 버스(1302)를 통해 프로세서들(1310)에 액세스할 수 있는, 메인 메모리(1332), 정적 메모리(1334), 및 스토리지 유닛(1336)을 포함한다. 스토리지 유닛(1336)은 본 명세서에 설명된 방법론들 또는 기능들 중 임의의 하나 이상을 구현하는 명령어들(1316)이 저장되는 머신 판독가능 매체(1338)를 포함할 수 있다. 명령어들(1316)은 또한 머신(1300)에 의한 실행 동안, 메인 메모리(1332) 내에, 정적 메모리(1334) 내에, 프로세서들(1310) 중 적어도 하나의 프로세서 내에(예를 들어, 프로세서의 캐시 메모리 내에), 또는 그것들의 임의의 적절한 조합 내에 완전하게 또는 적어도 부분적으로 상주할 수 있다. 따라서, 다양한 실시예에서, 메인 메모리(1332), 정적 메모리(1334), 및 프로세서들(1310)은 머신 판독가능 매체(1338)로서 간주된다.
본 명세서에서 사용될 때, "메모리"라는 용어는, 데이터를 일시적으로 또는 영구적으로 저장할 수 있는 머신 판독가능 매체(1338)를 말하며, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 버퍼 메모리, 플래시 메모리, 및 캐시 메모리를 포함하지만 이것으로 제한되지 않는 것으로 간주된다. 머신 판독가능 매체(1338)가 예시적인 실시예에서 단일 매체인 것으로 도시되어 있지만, 용어 "머신 판독가능 매체"는 명령어들(1316)을 저장할 수 있는 단일 매체 또는 다수의 매체(예를 들어, 중앙집중형 또는 분산형 데이터베이스, 또는 연관된 캐시들 및 서버들)를 포함하는 것으로 간주되어야 한다. 용어 "머신 판독가능 매체"는 또한 머신(예를 들어, 머신(1300))에 의한 실행을 위한 명령어들(예를 들어, 명령어들(1316))을 저장할 수 있는 임의의 매체, 또는 다수의 매체의 조합을 포함하는 것으로 간주되어야 하며, 따라서 명령어들(1316)은, 머신(1300)의 하나 이상의 프로세서(예를 들어, 프로세서들(1310))에 의해 실행될 때, 머신(1300)으로 하여금 본 명세서에서 설명되는 방법론들 중 임의의 하나 이상을 수행하게 한다. 따라서, "머신 판독가능 매체"는 단일 저장 장치 또는 디바이스뿐만 아니라, 다수의 저장 장치 또는 디바이스를 포함하는 "클라우드 기반" 저장 시스템들 또는 저장 네트워크들을 지칭한다. 따라서, "머신 판독가능 매체"라는 용어는, 고체 상태 메모리(예를 들어, 플래시 메모리), 광학 매체, 자기 매체, 다른 비휘발성 메모리(예를 들어, 소거가능한 프로그램가능 판독 전용 메모리(erasable programmable read-only memory)(EPROM)), 또는 그의 임의의 적절한 조합의 형태의 하나 이상의 데이터 저장소를 포함하지만 이에 제한되지 않는 것으로 간주되어야 한다. "머신 판독가능 매체"라는 용어는 구체적으로 비-법정 신호들(non-statutory signals) 자체를 배제한다.
I/O 컴포넌트들(1350)은, 입력을 수신하고, 출력을 제공하며, 출력을 생성하고, 정보를 전송하고, 정보를 교환하며, 측정들을 캡처하는 등을 행하는 다양한 컴포넌트를 포함한다. 일반적으로, I/O 컴포넌트들(1350)은 도 13에 도시되지 않은 많은 다른 컴포넌트를 포함할 수 있다는 것을 알 것이다. I/O 컴포넌트들(1350)은 단지 이하의 논의를 간소화하기 위해 기능성에 따라 그룹화되어 있고, 이러한 그룹화는 어떠한 방식으로든 제한하는 것이 아니다. 다양한 예시적인 실시예에서, I/O 컴포넌트들(1350)은 출력 컴포넌트들(1352) 및 입력 컴포넌트들(1354)을 포함한다. 출력 컴포넌트들(1352)은, 시각 컴포넌트들(예를 들어, 플라즈마 디스플레이 패널(PDP), 발광 다이오드(LED) 디스플레이, 액정 디스플레이(LCD), 프로젝터, 또는 음극선관(cathode ray tube)(CRT)과 같은 디스플레이), 음향 컴포넌트들(예를 들어, 스피커들), 햅틱 컴포넌트들(예를 들어, 진동 모터), 다른 신호 생성기들 등을 포함한다. 입력 컴포넌트들(1354)은 영숫자 입력 컴포넌트들(예를 들어, 키보드, 영숫자 입력을 수신하도록 구성되는 터치 스크린, 광전 키보드(photo-optical keyboard), 또는 다른 영숫자 입력 컴포넌트들), 포인트 기반 입력 컴포넌트들(예를 들어, 마우스, 터치패드, 트랙볼, 조이스틱, 모션 센서, 또는 다른 포인팅 기구들), 촉각 입력 컴포넌트들(예를 들어, 물리적 버튼, 터치들 또는 터치 제스처들의 로케이션 및 힘을 제공하는 터치 스크린, 또는 다른 촉각 입력 컴포넌트들), 오디오 입력 컴포넌트들(예를 들어, 마이크로폰), 및 이와 유사한 것을 포함한다.
일부 추가의 예시적인 실시예들에서, I/O 컴포넌트들(1350)은, 다양한 다른 컴포넌트 중에서, 바이오메트릭 컴포넌트들(1356), 모션 컴포넌트들(1358), 환경 컴포넌트들(1360), 또는 위치 컴포넌트들(1362)을 포함한다. 예를 들어, 바이오메트릭 컴포넌트들(1356)은 표현들(예를 들어, 손 표현들, 얼굴 표정들, 음성 표현들, 신체 제스처들, 또는 눈 추적)을 검출하고, 생체신호들(예를 들어, 혈압, 심박수, 체온, 땀, 또는 뇌파들)을 측정하고, 사람(예를 들어, 음성 식별, 망막 식별, 얼굴 식별, 지문 식별, 또는 뇌전도 기반 식별)을 식별하고, 이와 유사한 것을 하기 위한 컴포넌트들을 포함한다. 모션 컴포넌트들(1358)은 가속도 센서 컴포넌트들(예를 들어, 가속도계), 중력 센서 컴포넌트들, 회전 센서 컴포넌트들(예를 들어, 자이로스코프) 등을 포함한다. 환경 컴포넌트들(1360)은, 예를 들어, 조명 센서 컴포넌트들(예를 들어, 광도계), 온도 센서 컴포넌트들(예를 들어, 주변 온도를 검출하는 하나 이상의 온도계), 습도 센서 컴포넌트들, 압력 센서 컴포넌트들(예를 들어, 기압계), 음향 센서 컴포넌트들(예를 들어, 배경 잡음을 검출하는 하나 이상의 마이크로폰), 근접 센서 컴포넌트들(예를 들어, 근처 물체들을 검출하는 적외선 센서들), 가스 센서 컴포넌트들(예를 들어, 머신 후각 검출 센서들, 안전을 위한 위험 가스들의 농도들을 검출하거나 대기중의 오염물들을 측정하는 가스 검출 센서들), 또는 주변 물리적 환경에 대응하는 표시들, 측정들, 또는 신호들을 제공할 수 있는 다른 컴포넌트들을 포함한다. 위치 컴포넌트들(1362)은, 로케이션 센서 컴포넌트들(예를 들어, 글로벌 포지셔닝 시스템(Global Positioning System)(GPS) 수신기 컴포넌트), 고도 센서 컴포넌트들(예를 들어, 고도계 또는 고도가 도출될 수 있는 기압을 검출하는 기압계), 배향 센서 컴포넌트들(예를 들어, 자력계) 등을 포함한다.
통신은 광범위한 기술들을 이용하여 구현될 수 있다. I/O 컴포넌트들(1350)은 머신(1300)을 결합(coupling)(1382) 및 결합(1372)을 통해 각각 네트워크(1380) 또는 디바이스들(1370)에 결합하도록 동작가능한 통신 컴포넌트들(1364)을 포함할 수 있다. 예를 들어, 통신 컴포넌트들(1364)은 네트워크 인터페이스 컴포넌트, 또는 네트워크(1380)와 인터페이스하기 위한 다른 적합한 디바이스를 포함한다. 추가 예들에서, 통신 컴포넌트들(1364)은 유선 통신 컴포넌트들, 무선 통신 컴포넌트들, 셀룰러 통신 컴포넌트들, 근접장 통신(near field communication)(NFC) 컴포넌트들, 블루투스® 컴포넌트들(예를 들어, 블루투스® 로우 에너지), WI-FI® 컴포넌트들, 및 다른 모달리티들을 통해 통신을 제공하는 다른 통신 컴포넌트들을 포함한다. 디바이스들(1370)은 다른 머신(1300) 또는 임의의 다양한 주변 디바이스들(예를 들어, 범용 직렬 버스(Universal Serial Bus)(USB)를 통해 결합된 주변 디바이스)일 수 있다.
또한, 일부 실시예들에서, 통신 컴포넌트들(1364)은 식별자들을 검출하거나 식별자들을 검출하도록 동작가능한 컴포넌트들을 포함한다. 예를 들어, 통신 컴포넌트들(1364)은 무선 주파수 식별(radio frequency identification)(RFID) 태그 판독기 컴포넌트들, NFC 스마트 태그 검출 컴포넌트들, 광학 판독기 컴포넌트들(예를 들어, UPC(Universal Product Code) 바코드와 같은 1차원 바코드들, QR(Quick Response) 코드, Aztec 코드, Data Matrix, Dataglyph, MaxiCode, PDF417, 울트라 코드, UCC RSS(Uniform Commercial Code Reduced Space Symbology)-2D 바코드들, 및 다른 광학 코드들과 같은 다차원 바코드들을 검출하는 광학 센서), 음향 검출 컴포넌트들(예를 들어, 태깅된 오디오 신호들을 식별하는 마이크로폰들), 또는 그의 임의의 적절한 조합을 포함한다. 또한, 인터넷 프로토콜(IP) 지오-로케이션을 통한 로케이션, WI-FI® 신호 삼각측량을 통한 로케이션, 특정 로케이션을 표시할 수 있는 블루투스® 또는 NFC 비컨 신호를 검출하는 것을 통한 로케이션 등과 같은 다양한 정보가 통신 컴포넌트들(1364)을 통해 도출될 수 있다.
다양한 예시적인 실시예들에서, 네트워크(1380)의 하나 이상의 부분은 애드혹 네트워크, 인트라넷, 엑스트라넷, 가상 사설 네트워크(virtual private network)(VPN), 로컬 영역 네트워크(local area network)(LAN), WLAN(wireless LAN), 광역 네트워크(wide area network)(WAN), WWAN(wireless WAN), 메트로폴리탄 영역 네트워크(metropolitan area network)(MAN), 인터넷, 인터넷의 일부, 공중 교환 전화 네트워크(public switched telephone network)(PSTN)의 일부, POTS(plain old telephone service) 네트워크, 셀룰러 전화 네트워크, 무선 네트워크, WI-FI® 네트워크, 다른 타입의 네트워크, 또는 2개 이상의 이러한 네트워크들의 조합일 수 있다. 예를 들어, 네트워크(1380) 또는 네트워크(1380)의 일부는 무선 또는 셀룰러 네트워크를 포함할 수 있고, 결합(1382)은 코드 분할 다중 액세스(Code Division Multiple Access)(CDMA) 접속, 이동 통신 세계화 시스템(Global System for Mobile communications)(GSM) 접속, 또는 다른 타입의 셀룰러 또는 무선 결합일 수 있다. 이 예에서, 결합(1382)은 1xRTT(Single Carrier Radio Transmission Technology), EVDO(Evolution-Data Optimized) 기술, GPRS(General Packet Radio Service) 기술, EDGE(Enhanced Data rates for GSM Evolution) 기술, 3G를 포함한 3GPP(third Generation Partnership Project), 4세대 무선(4G) 네트워크, UMTS(Universal Mobile Telecommunications System), HSPA(High Speed Packet Access), WiMAX(Worldwide Interoperability for Microwave Access), LTE(Long Term Evolution) 표준, 다양한 표준 설정 기구에 의해 정의된 다른 것들, 다른 장거리 프로토콜들, 또는 다른 데이터 전송 기술과 같은, 다양한 타입의 데이터 전송 기술 중 임의의 것을 구현할 수 있다.
예시적인 실시예들에서, 명령어들(1316)은 네트워크 인터페이스 디바이스(예를 들어, 통신 컴포넌트들(1364)에 포함된 네트워크 인터페이스 컴포넌트)를 통해 전송 매체를 이용하여 그리고 다수의 널리 공지된 전송 프로토콜(예를 들어, 하이퍼텍스트 전송 프로토콜(Hypertext Transfer Protocol)(HTTP)) 중 임의의 하나를 이용하여 네트워크(1380)를 통해 송신 또는 수신된다. 유사하게, 다른 예시적인 실시예들에서, 명령어들(1316)은 디바이스들(1370)에 대한 결합(1372)(예를 들어, 피어-투-피어 결합)을 통해 전송 매체를 사용하여 송신 또는 수신된다. "송신 매체"라는 용어는 머신(1300)에 의한 실행을 위해 명령어들(1316)을 저장, 인코딩, 또는 전달할 수 있는 임의의 무형의 매체를 포함하는 것으로 간주되어야 하고, 그러한 소프트웨어의 통신을 용이하게 하기 위한 디지털 또는 아날로그 통신 신호들 또는 다른 무형의 매체를 포함한다.
또한, 머신 판독가능 매체(1338)는 전파 신호를 구현하지 않는다는 점에서 비일시적(즉, 임의의 일시적 신호를 갖지 않음)이다. 그러나, 머신 판독가능 매체(1338)를 "비일시적"이라고 라벨링하는 것이 매체가 이동할 수 없다는 것을 의미하는 것으로 해석되어서는 안 되고; 매체(1338)는 하나의 물리적 로케이션으로부터 다른 물리적 로케이션으로 운송가능한 것으로 간주되어야 한다. 추가적으로, 머신 판독가능 매체(1338)는 유형(tangible)이기 때문에, 매체(1338)는 머신 판독가능 디바이스인 것으로 간주될 수 있다.
본 명세서의 전반에 걸쳐, 복수의 사례들은 단일 사례로서 설명된 컴포넌트들, 동작들, 또는 구조들을 구현할 수 있다. 하나 이상의 방법의 개별적인 동작들은 별도의 동작들로서 예시되고 설명되지만, 개별적인 동작들 중의 하나 이상은 동시에 수행될 수 있고, 어떤 것도 동작들이 예시된 순서로 수행될 것을 요구하지는 않는다. 예시적인 구성들에서 별도의 컴포넌트들로서 제시된 구조들 및 기능은 조합된 구조 또는 컴포넌트로서 구현될 수 있다. 유사하게, 단일 컴포넌트로서 제시된 구조들 및 기능은 별도의 컴포넌트들로서 구현될 수 있다. 이러한 그리고 다른 변형들, 수정들, 추가들, 및 개선들은 본 명세서에서 발명 요지의 범위 내에 속한다.
발명 주제의 개요가 특정 예시적인 실시예들을 참조하여 설명되었지만, 본 개시내용의 실시예들의 더 넓은 범위를 벗어나지 않고 이러한 실시예들에 대한 다양한 수정들 및 변경들이 이루어질 수 있다.
본 명세서에서 예시된 실시예들은 본 기술분야의 통상의 기술자들이 개시된 교시사항들을 실시하는 것을 가능하게 할 정도로 충분히 상세하게 설명된다. 다른 실시예들이 이용될 수 있고 그로부터 도출될 수 있어서, 이 개시내용의 범위로부터 벗어나지 않으면서 구조적 및 논리적 치환들 및 변경들이 행해질 수 있다. 따라서, 상세한 설명은 제한적인 의미로 해석되어서는 안 되며, 다양한 실시예들의 범위는 오직 첨부된 청구항들과 함께, 그러한 청구항들의 자격이 있는 균등물들의 최대 범위(full range of equivalents)에 의해 정의된다.
본 명세서에서 이용된 바와 같이, 용어 "또는"은 포괄적 또는 배타적 의미의 어느 하나로 해석될 수 있다. 또한, 복수의 사례들은 본 명세서에서 설명된 자원들, 동작들, 또는 구조들에 대하여 단일 사례로서 제공될 수 있다. 추가적으로, 다양한 자원들, 동작들, 모듈들, 엔진들, 및 데이터 저장소들 사이의 경계들은 다소 임의적이고, 특정 동작들은 특정 예시적인 구성들의 컨텍스트에서 예시된다. 기능의 다른 할당들이 구상되고, 본 개시내용의 다양한 실시예들의 범위 내에 속할 수 있다. 일반적으로, 예시적인 구성들에서 별도의 자원들로서 제시된 구조들 및 기능은 조합된 구조 또는 자원으로서 구현될 수 있다. 유사하게, 단일 자원으로서 제시된 구조들 및 기능은 별개의 자원들로서 구현될 수 있다. 이러한 그리고 다른 변형들, 수정들, 추가들, 및 개선들은 첨부된 청구항들에 의해 표시되는 바와 같은 본 개시내용의 실시예들의 범위 내에 속한다. 따라서, 명세서 및 도면들은 한정적인 의미보다는 예시적인 의미로 간주되어야 한다.

Claims (20)

  1. 방법으로서,
    컴퓨팅 디바이스에 의해, 상기 컴퓨팅 디바이스의 디스플레이 상에서 비디오의 중심 부분의 디스플레이 동안 상기 컴퓨팅 디바이스의 움직임을 검출하는 단계;
    컴퓨팅 디바이스에 의해, 상기 컴퓨팅 디바이스의 하나 이상의 센서로부터 움직임 데이터를 수신하는 단계;
    상기 컴퓨팅 디바이스에 의해, 상기 움직임 데이터를 분석하여 움직임의 방향을 결정하는 단계;
    상기 비디오의 상기 중심 부분의 재생 동안 상기 컴퓨팅 디바이스의 상기 움직임의 방향에 기초하여 상기 비디오의 상기 중심 부분의 상기 디스플레이의 회전량을 계산하는 단계; 및
    상기 비디오의 상기 중심 부분의 상기 디스플레이가 상기 컴퓨팅 디바이스의 상기 움직임의 방향과 반대인 방향으로 상기 회전량만큼 슬라이드(slide)하게 하여, 상기 비디오의 에지를 상기 움직임의 방향으로 상기 비디오의 상기 중심 부분보다 적게 드러내는 단계
    를 포함하는 방법.
  2. 제1항에 있어서, 상기 하나 이상의 센서는 가속도계 센서, 자이로스코프 센서, 및 중력 센서 중 적어도 하나를 포함하는, 방법.
  3. 제1항에 있어서, 상기 움직임 데이터는 가속도계 센서로부터 수신되고, 상기 움직임 데이터는 중력의 하향 힘에 대한 상기 컴퓨팅 디바이스의 축들의 회전을 포함하는 상기 컴퓨팅 디바이스의 배향을 포함하는, 방법.
  4. 제3항에 있어서, 상기 컴퓨팅 디바이스의 배향은 상기 컴퓨팅 디바이스의 상기 디스플레이로부터 멀어지는 방향으로 향하는 z-축을 중심으로 하는 상기 컴퓨팅 디바이스의 회전을 추가로 포함하는, 방법.
  5. 제1항에 있어서, 상기 움직임 데이터는 가속도계 센서 및 자이로스코프 센서로부터 수신되고, 상기 방법은:
    상기 컴퓨팅 디바이스가 거의 평평한 배향으로 유지된다고 결정하는 단계; 및
    상기 자이로스코프 센서로부터의 상기 움직임 데이터에 기초하여 상기 비디오의 상기 중심 부분의 상기 디스플레이의 상기 회전량을 계산하거나, 상기 가속도계 센서 및 상기 자이로스코프 센서 둘 다로부터의 상기 움직임 데이터에 기초하여 상기 비디오의 상기 중심 부분의 상기 디스플레이의 상기 회전량을 계산하는 단계
    를 추가로 포함하는, 방법.
  6. 제1항에 있어서, 상기 움직임 데이터는 가속도계로부터 수신되고, 상기 방법은:
    상기 컴퓨팅 디바이스가 거의 평평한 배향으로 유지된다고 결정하는 단계; 및
    자이로스코프 센서로부터의 상기 움직임 데이터에 기초하여 상기 비디오의 상기 중심 부분의 상기 디스플레이의 상기 회전량을 계산하는 단계
    를 추가로 포함하는, 방법.
  7. 제1항에 있어서, 상기 비디오는 원형 광각 렌즈를 사용하여 원형 비디오로서 원래 캡처되었던, 방법.
  8. 제1항에 있어서, 상기 드러난 에지는 상기 컴퓨팅 디바이스의 상기 디스플레이 상에서 이전에 볼 수 없었던 상기 비디오의 일부분인, 방법.
  9. 제1항에 있어서,
    상기 컴퓨팅 디바이스 운영 체제로부터 핀치 제스처 데이터를 수신하는 단계;
    상기 핀치 제스처 데이터를 분석하여 핀치 스케일(pinch scale) 및 핀치 속도(pinch velocity)를 결정하는 단계;
    상기 핀치 스케일 및 핀치 속도에 기초하여 상기 비디오의 디스플레이 크기를 계산하는 단계; 및
    상기 디스플레이 크기에 기초하여 상기 비디오가 디스플레이하게 하는 단계
    를 추가로 포함하는 방법.
  10. 컴퓨팅 디바이스로서,
    프로세서; 및
    상기 프로세서와 결합된 컴퓨터 판독가능 매체
    를 포함하고,
    상기 컴퓨터 판독가능 매체는, 컴퓨팅 디바이스로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능한 명령어들을 저장하고, 상기 동작들은:
    상기 컴퓨팅 디바이스의 디스플레이 상에서 비디오의 중심 부분의 디스플레이 동안 상기 컴퓨팅 디바이스의 움직임을 검출하는 동작;
    상기 컴퓨팅 디바이스의 하나 이상의 센서로부터 움직임 데이터를 수신하는 동작;
    상기 움직임 데이터를 분석하여 움직임의 방향을 결정하는 동작;
    상기 비디오의 상기 중심 부분의 재생 동안 상기 컴퓨팅 디바이스의 상기 움직임의 방향에 기초하여 상기 비디오의 상기 중심 부분의 상기 디스플레이의 회전량을 계산하는 동작; 및
    상기 비디오의 상기 중심 부분의 상기 디스플레이가 상기 컴퓨팅 디바이스의 상기 움직임의 방향과 반대인 방향으로 상기 회전량만큼 슬라이드하게 하여, 상기 비디오의 에지를 상기 움직임의 방향으로 상기 비디오의 상기 중심 부분보다 적게 드러내는 동작
    을 포함하는, 컴퓨팅 디바이스.
  11. 제10항에 있어서, 상기 움직임 데이터는 가속도계 센서로부터 수신되고, 상기 움직임 데이터는 중력의 하향 힘에 대한 상기 컴퓨팅 디바이스의 축들의 회전을 포함하는 상기 컴퓨팅 디바이스의 배향을 포함하고, 상기 컴퓨팅 디바이스의 배향은 상기 컴퓨팅 디바이스의 상기 디스플레이로부터 멀어지는 방향으로 향하는 z-축을 중심으로 하는 상기 컴퓨팅 디바이스의 회전을 추가로 포함하는, 컴퓨팅 디바이스.
  12. 제10항에 있어서, 상기 움직임 데이터는 가속도계 센서 및 자이로스코프 센서로부터 수신되고, 상기 동작들은:
    상기 컴퓨팅 디바이스가 거의 평평한 배향으로 유지된다고 결정하는 동작; 및
    상기 자이로스코프 센서로부터의 상기 움직임 데이터에 기초하여 상기 비디오의 상기 중심 부분의 상기 디스플레이의 상기 회전량을 계산하거나, 상기 가속도계 센서 및 상기 자이로스코프 센서 둘 다로부터의 상기 움직임 데이터에 기초하여 상기 비디오의 상기 중심 부분의 상기 디스플레이의 상기 회전량을 계산하는 동작
    을 추가로 포함하는, 컴퓨팅 디바이스.
  13. 제10항에 있어서, 상기 비디오는 원형 광각 렌즈를 사용하여 원형 비디오로서 원래 캡처되었던, 컴퓨팅 디바이스.
  14. 제10항에 있어서, 상기 동작들은:
    상기 컴퓨팅 디바이스 운영 체제로부터 핀치 제스처 데이터를 수신하는 동작;
    상기 핀치 제스처 데이터를 분석하여 핀치 스케일 및 핀치 속도를 결정하는 동작;
    상기 핀치 스케일 및 핀치 속도에 기초하여 상기 비디오의 디스플레이 크기를 계산하는 동작; 및
    상기 디스플레이 크기에 기초하여 상기 비디오가 디스플레이하게 하는 동작
    을 추가로 포함하는 컴퓨팅 디바이스.
  15. 컴퓨팅 디바이스로 하여금 동작들을 수행하게 하기 위해 적어도 하나의 프로세서에 의해 실행가능한 명령어들을 저장하고 있는 비일시적 컴퓨터 판독가능 매체로서,
    상기 동작들은:
    상기 컴퓨팅 디바이스의 디스플레이 상에서 비디오의 중심 부분의 디스플레이 동안 상기 컴퓨팅 디바이스의 움직임을 검출하는 동작;
    상기 컴퓨팅 디바이스의 하나 이상의 센서로부터 움직임 데이터를 수신하는 동작;
    상기 움직임 데이터를 분석하여 움직임의 방향을 결정하는 동작;
    상기 비디오의 상기 중심 부분의 재생 동안 상기 컴퓨팅 디바이스의 상기 움직임의 방향에 기초하여 상기 비디오의 상기 중심 부분의 상기 디스플레이의 회전량을 계산하는 동작; 및
    상기 비디오의 상기 중심 부분의 상기 디스플레이가 상기 컴퓨팅 디바이스의 상기 움직임의 방향과 반대인 방향으로 상기 회전량만큼 슬라이드하게 하여, 상기 비디오의 에지를 상기 움직임의 방향으로 상기 비디오의 상기 중심 부분보다 적게 드러내는 동작
    을 포함하는, 비일시적 컴퓨터 판독가능 매체.
  16. 제1항에 있어서, 상기 비디오의 상기 중심 부분은 미디어 오버레이를 포함하고, 상기 미디어 오버레이는 상기 비디오의 상기 중심 부분과 함께 슬라이드하는, 방법.
  17. 제1항에 있어서, 상기 비디오의 중심 부분은 상기 비디오의 에지를 향해 밖으로 이동함에 따라 감속하는 레이트로 슬라이드하고, 상기 비디오의 상기 중심 부분을 향해 이동함에 따라 일정한 레이트로 슬라이드하는, 방법.
  18. 제1항에 있어서, 상기 비디오의 상기 중심 부분은 상기 비디오의 중심으로부터 밖으로 슬라드이할 때 2차 곡선을 따라 슬라이드하고, 상기 비디오의 상기 중심을 향해 이동할 때 1차 곡선을 따르는, 방법.
  19. 제1항에 있어서, 상기 비디오의 중심 부분은 지정된 초당 라디안의 레이트로 슬라이드하는, 방법.
  20. 제1항에 있어서, 상기 비디오는 원형 비디오이고, 상기 비디오의 상기 중심 부분의 상기 디스플레이는 미리 정의된 영역의 에지까지 상기 움직임의 방향과 반대인 방향으로 슬라이드하고, 상기 미리 정의된 영역은 상기 컴퓨팅 디바이스의 상기 디스플레이보다 크고 상기 원형 비디오보다 작고, 상기 미리 정의된 영역은 상기 원형 비디오의 직경에 기초하여 결정되는, 방법.
KR1020197027917A 2017-02-27 2018-02-26 디바이스 움직임에 기초한 미디어 콘텐츠의 처리 KR102267790B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020217018521A KR102381774B1 (ko) 2017-02-27 2018-02-26 디바이스 움직임에 기초한 미디어 콘텐츠의 처리

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762464183P 2017-02-27 2017-02-27
US62/464,183 2017-02-27
US15/673,215 2017-08-09
US15/673,215 US10564425B2 (en) 2017-02-27 2017-08-09 Processing a media content based on device movement
PCT/US2018/019732 WO2018157062A1 (en) 2017-02-27 2018-02-26 Processing media content based on device movement

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020217018521A Division KR102381774B1 (ko) 2017-02-27 2018-02-26 디바이스 움직임에 기초한 미디어 콘텐츠의 처리

Publications (2)

Publication Number Publication Date
KR20190119115A KR20190119115A (ko) 2019-10-21
KR102267790B1 true KR102267790B1 (ko) 2021-06-24

Family

ID=63246275

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020197027917A KR102267790B1 (ko) 2017-02-27 2018-02-26 디바이스 움직임에 기초한 미디어 콘텐츠의 처리
KR1020227010414A KR102490918B1 (ko) 2017-02-27 2018-02-26 디바이스 움직임에 기초한 미디어 콘텐츠의 처리
KR1020217018521A KR102381774B1 (ko) 2017-02-27 2018-02-26 디바이스 움직임에 기초한 미디어 콘텐츠의 처리

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020227010414A KR102490918B1 (ko) 2017-02-27 2018-02-26 디바이스 움직임에 기초한 미디어 콘텐츠의 처리
KR1020217018521A KR102381774B1 (ko) 2017-02-27 2018-02-26 디바이스 움직임에 기초한 미디어 콘텐츠의 처리

Country Status (5)

Country Link
US (3) US10564425B2 (ko)
EP (1) EP3586505A1 (ko)
KR (3) KR102267790B1 (ko)
CN (1) CN110546946B (ko)
WO (1) WO2018157062A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11668937B2 (en) 2017-02-27 2023-06-06 Snap Inc. Processing a media content based on device movement

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG11202004992QA (en) * 2017-12-13 2020-06-29 Guangzhou Huya Information Technology Co Ltd Display Method for Live Broadcast Screen of Live Broadcast Room, Storage Device and Computer Device
US11144099B1 (en) * 2018-12-28 2021-10-12 Facebook, Inc. Systems and methods for providing content
EP3716037A1 (en) * 2019-03-28 2020-09-30 ABB Schweiz AG Responsive auto-layouting of industrial process graphics
CN210093262U (zh) * 2019-06-12 2020-02-18 Oppo广东移动通信有限公司 移动终端
JP2023020472A (ja) * 2021-07-30 2023-02-09 セイコーエプソン株式会社 表示装置の制御方法、表示装置、及び制御チップ

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110234475A1 (en) * 2010-03-25 2011-09-29 Hiroshi Endo Head-mounted display device
US20150312404A1 (en) * 2012-06-21 2015-10-29 Cellepathy Ltd. Device context determination
US20170062012A1 (en) * 2015-08-26 2017-03-02 JBF Interlude 2009 LTD - ISRAEL Systems and methods for adaptive and responsive video

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5978773A (en) 1995-06-20 1999-11-02 Neomedia Technologies, Inc. System and method for using an ordinary article of commerce to access a remote computer
EP0814611B1 (de) 1996-06-17 2002-08-28 Siemens Aktiengesellschaft Kommunikationssystem und Verfahren zur Aufnahme und Verwaltung digitaler Bilder
SE511516C2 (sv) * 1997-12-23 1999-10-11 Ericsson Telefon Ab L M Handburen displayenhet och metod att visa skärmbilder
US7173651B1 (en) 1998-06-02 2007-02-06 Knowles Andrew T Apparatus and system for prompt digital photo delivery and archival
US6505123B1 (en) 2000-07-24 2003-01-07 Weatherbank, Inc. Interactive weather advisory system
US7218226B2 (en) * 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US20100098702A1 (en) 2008-09-16 2010-04-22 Longgui Wang Method of treating androgen independent prostate cancer
US7411493B2 (en) 2003-03-01 2008-08-12 User-Centric Ip, L.P. User-centric event reporting
US7535890B2 (en) 2003-12-18 2009-05-19 Ayalogic, Inc. System and method for instant VoIP messaging
US7224326B2 (en) 2004-03-03 2007-05-29 Volo, Llc Virtual reality system
JP4832429B2 (ja) 2004-06-15 2011-12-07 クォンタム セミコンダクター リミテッド ライアビリティ カンパニー 多種類のアスペクト比で機能する画像センサーおよび表示装置
US8332475B2 (en) 2005-08-22 2012-12-11 Triplay Communications Ltd. Messaging system and method
USRE47534E1 (en) 2007-04-23 2019-07-23 Ramot At Tel Aviv University Ltd. System, method and a computer readable medium for providing an output image
US9240056B2 (en) 2008-04-02 2016-01-19 Microsoft Technology Licensing, Llc Video retargeting
US8441441B2 (en) * 2009-01-06 2013-05-14 Qualcomm Incorporated User interface for mobile devices
EP2348383B1 (en) 2009-12-31 2017-07-12 Sony Computer Entertainment Europe Limited System and method of virtual interaction
EP2354893B1 (en) * 2009-12-31 2018-10-24 Sony Interactive Entertainment Europe Limited Reducing inertial-based motion estimation drift of a game input controller with an image-based motion estimation
US9443227B2 (en) 2010-02-16 2016-09-13 Tigertext, Inc. Messaging system apparatuses circuits and methods of operation thereof
US9977472B2 (en) * 2010-03-19 2018-05-22 Nokia Technologies Oy Method and apparatus for displaying relative motion of objects on graphical user interface
US9413477B2 (en) 2010-05-10 2016-08-09 Microsoft Technology Licensing, Llc Screen detector
US9256361B2 (en) * 2011-08-03 2016-02-09 Ebay Inc. Control of search results with multipoint pinch gestures
US9524272B2 (en) * 2012-02-05 2016-12-20 Apple Inc. Navigating among content items in a browser using an array mode
US9438805B2 (en) * 2012-06-08 2016-09-06 Sony Corporation Terminal device and image capturing method
US20140002582A1 (en) 2012-06-29 2014-01-02 Monkeymedia, Inc. Portable proprioceptive peripatetic polylinear video player
GB2506338A (en) 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
CN103959802B (zh) 2012-08-10 2018-01-26 松下电器(美国)知识产权公司 影像提供方法、发送装置以及接收装置
KR101984683B1 (ko) 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
US9516229B2 (en) * 2012-11-27 2016-12-06 Qualcomm Incorporated System and method for adjusting orientation of captured video
KR102109407B1 (ko) * 2013-09-25 2020-05-12 엘지전자 주식회사 스마트 와치 및 제어 방법
US9437038B1 (en) * 2013-09-26 2016-09-06 Amazon Technologies, Inc. Simulating three-dimensional views using depth relationships among planes of content
CA2863124A1 (en) 2014-01-03 2015-07-03 Investel Capital Corporation User content sharing system and method with automated external content integration
US10204658B2 (en) 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
KR20160026482A (ko) * 2014-09-01 2016-03-09 삼성전자주식회사 모바일 디바이스 및 모바일 디바이스에서 이미지를 투사하는 방법
US10228766B2 (en) * 2014-09-12 2019-03-12 Microsoft Technology Licensing, Llc Enhanced Display Rotation
CN107211195B (zh) 2015-02-12 2020-04-24 日商可乐普拉股份有限公司 使用头戴显示器的内容视听用的装置和系统
US10564425B2 (en) 2017-02-27 2020-02-18 Snap Inc. Processing a media content based on device movement

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110234475A1 (en) * 2010-03-25 2011-09-29 Hiroshi Endo Head-mounted display device
US20150312404A1 (en) * 2012-06-21 2015-10-29 Cellepathy Ltd. Device context determination
US20170062012A1 (en) * 2015-08-26 2017-03-02 JBF Interlude 2009 LTD - ISRAEL Systems and methods for adaptive and responsive video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11668937B2 (en) 2017-02-27 2023-06-06 Snap Inc. Processing a media content based on device movement

Also Published As

Publication number Publication date
US20180246329A1 (en) 2018-08-30
WO2018157062A1 (en) 2018-08-30
US10564425B2 (en) 2020-02-18
KR20220045994A (ko) 2022-04-13
EP3586505A1 (en) 2020-01-01
US20210349321A1 (en) 2021-11-11
US11106037B2 (en) 2021-08-31
US20190243144A1 (en) 2019-08-08
KR20210076192A (ko) 2021-06-23
CN110546946A (zh) 2019-12-06
KR102381774B1 (ko) 2022-04-04
CN113132665A (zh) 2021-07-16
KR20190119115A (ko) 2019-10-21
US11668937B2 (en) 2023-06-06
CN110546946B (zh) 2021-05-25
KR102490918B1 (ko) 2023-01-26

Similar Documents

Publication Publication Date Title
KR102267790B1 (ko) 디바이스 움직임에 기초한 미디어 콘텐츠의 처리
KR102039505B1 (ko) 국지적 증강 현실 지속적 스티커 객체
US11985175B2 (en) Virtual interaction session to facilitate time limited augmented reality based communication between multiple users
KR102384579B1 (ko) 메시징 시스템에서 미디어 콘텐츠를 처리하기
US20210306386A1 (en) Virtual interaction session to facilitate augmented reality based communication between multiple users
US20210304450A1 (en) Augmented reality based communication between multiple users
US20220198603A1 (en) Recentering ar/vr content on an eyewear device
EP4268060A1 (en) Recentering ar/vr content on an eyewear device
US20240087257A1 (en) Transferring objects from 2d video to 3d ar
KR20240010012A (ko) 증강 현실 디스플레이 디바이스를 위한 터치패드 탐색
WO2024020389A1 (en) Secure peer-to-peer connections between mobile devices
US11935198B2 (en) Marker-based virtual mailbox for augmented reality experiences
CN113132665B (zh) 基于装置移动处理媒体内容
US11567335B1 (en) Selector input device to target recipients of media content items
WO2023107846A1 (en) Shared augmented reality session creation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant