KR20180111981A - 제한된 상호 작용을 갖는 실시간 콘텐츠 편집 - Google Patents

제한된 상호 작용을 갖는 실시간 콘텐츠 편집 Download PDF

Info

Publication number
KR20180111981A
KR20180111981A KR1020187026120A KR20187026120A KR20180111981A KR 20180111981 A KR20180111981 A KR 20180111981A KR 1020187026120 A KR1020187026120 A KR 1020187026120A KR 20187026120 A KR20187026120 A KR 20187026120A KR 20180111981 A KR20180111981 A KR 20180111981A
Authority
KR
South Korea
Prior art keywords
limited
content
editing
input
real
Prior art date
Application number
KR1020187026120A
Other languages
English (en)
Inventor
저스틴 가락
Original Assignee
저스틴 가락
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 저스틴 가락 filed Critical 저스틴 가락
Publication of KR20180111981A publication Critical patent/KR20180111981A/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • G06K9/00288
    • G06K9/00758
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

제1 실시간 콘텐츠 필터 및 제2 실시간 콘텐츠 필터가 저장되며, 제1 실시간 콘텐츠 필터는 제1 미리 결정된 제한된 입력과 연관되고, 제2 실시간 콘텐츠 필터는 제2 미리 결정된 제한된 입력과 연관되고, 제1 미리 결정된 제한된 입력은 제2 미리 결정된 제한된 입력과 상이하다. 피사체의 콘텐츠가 캡처되며, 콘텐츠는 비디오 콘텐츠를 포함한다. 제1 제한된 입력이 수신된다. 제1 제한된 입력이 제1 미리 결정된 제한된 입력 또는 제2 미리 결정된 제한된 입력 중 어느 것과 매칭되는지가 결정된다. 제1 제한된 입력이 제1 미리 결정된 제한된 입력과 매칭된다는 결정에 응답하여, 제1 실시간 콘텐츠 필터가 선택된다. 콘텐츠가 캡처되는 동안에, 제1 실시간 콘텐츠 필터를 사용하여 콘텐츠가 편집된다.

Description

제한된 상호 작용을 갖는 실시간 콘텐츠 편집
도 1은 제한된 상호 작용을 갖는 실시간 콘텐츠 편집을 제공할 수 있는 환경의 예의 블록도를 도시한다.
도 2는 제한된 상호 작용을 갖는 실시간 콘텐츠 편집을 제공할 수 있는 환경의 동작의 예시적인 방법의 흐름도를 도시한다.
도 3은 제한된 상호 작용 콘텐츠 편집 시스템의 예의 블록도를 도시한다.
도 4는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도를 도시한다.
도 5는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도를 도시한다.
도 6은 무음(silence)의 제한된 편집 액션을 수행하는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도를 도시한다.
도 7은 무음-해제(un-silence)의 제한된 편집 액션을 수행하는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도를 도시한다.
도 8은 삭제의 제한된 편집 액션을 수행하는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도를 도시한다.
도 9는 오디오 이미지의 제한된 편집 액션을 수행하는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도를 도시한다.
도 10은 콘텐츠 저장 및 스트리밍 시스템의 예의 블록도를 도시한다.
도 11은 콘텐츠 저장 및 스트리밍 시스템의 동작의 예시적인 방법의 흐름도를 도시한다.
도 12는 필터 생성 및 저장 시스템의 예의 블록도를 도시한다.
도 13은 필터 생성 및 저장 시스템의 동작의 예시적인 방법의 흐름도를 도시한다.
도 14는 필터 추천 시스템(1402)의 예의 블록도를 도시한다.
도 15는 필터 추천 시스템의 동작의 예시적인 방법의 흐름도를 도시한다.
도 16은 재생 디바이스의 예의 블록도를 도시한다.
도 17은 재생 디바이스의 동작의 예시적인 방법의 흐름도를 도시한다.
도 18은 제한된 편집 인터페이스의 예를 도시한다.
도 19는 제한된 편집 인터페이스의 예를 도시한다.
도 20은 컴퓨터 시스템의 예의 블록도를 도시한다.
도 1은 제한된 상호 작용을 갖는 실시간 콘텐츠 편집을 제공할 수 있는 환경(100)의 예의 블록도를 도시한다. 환경(100)은 컴퓨터 판독 가능 매체(102), 제한된 상호 작용 콘텐츠 편집 시스템(104), 콘텐츠 저장 및 스트리밍 시스템(106), 필터 생성 및 저장 시스템(108), 필터 추천 시스템(110) 및 재생 디바이스들(112-1 내지 112-n)(개별적으로는, 재생 디바이스(112), 집합적으로는, 재생 디바이스들(112))을 포함한다.
도 1의 예에서, 제한된 상호 작용 콘텐츠 편집 시스템(104), 콘텐츠 저장 및 스트리밍 시스템(106), 필터 생성 및 저장 시스템(108), 필터 추천 시스템(110) 및 재생 디바이스들(112)은 컴퓨터 판독 가능 매체(102)에 연결된다. 본 문헌에서 사용됨에 있어서, "컴퓨터 판독 가능 매체"는 법에 명시된(예를 들어, 미국에서는, 35 U.S.C. 101에 의거) 모든 매체들을 포함하며, 구체적으로는 본질적으로 법에 명시되지 않은 모든 매체들을, 컴퓨터 판독 가능 매체를 유효한 것으로 포함하는 청구항에 대해 배제가 필요한 정도로 제외하는 것으로 의도된다. 공지된 법에 명시된 컴퓨터 판독 가능 매체들은 하드웨어(예를 들어, 몇 가지 예를 들자면, 레지스터들, 랜덤 액세스 메모리(random access memory)(RAM), 비휘발성(non-volatile)(NV) 스토리지)를 포함하지만, 하드웨어에 제한될 수도 있고 제한되지 않을 수도 있다. 컴퓨터 판독 가능 매체(102)는 잠재적으로 적용 가능한 다양한 기술들을 나타내는 것으로 의도된다. 예를 들어, 컴퓨터 판독 가능 매체(102)는 네트워크 또는 네트워크의 일부를 형성하는 데 사용될 수 있다. 2개의 컴포넌트가 디바이스 상에 함께 위치되는 경우, 컴퓨터 판독 가능 매체(102)는 버스 또는 다른 데이터 도관 또는 평면을 포함할 수 있다. 제1 컴포넌트가 하나의 디바이스 상에 함께 위치되고, 제2 컴포넌트가 상이한 디바이스 상에 위치되는 경우, 컴퓨터 판독 가능 매체(102)는 무선 또는 유선 백엔드 네트워크 또는 LAN을 포함할 수 있다. 컴퓨터 판독 가능 매체(102)는 또한, 적용 가능한 경우, WAN 또는 다른 네트워크의 관련 부분을 포함할 수 있다.
도 1의 예에서, 컴퓨터 판독 가능 매체(102)는 인터넷과 같이 함께 연결된 여러 컴퓨터 시스템들을 포함하는 네트워크화된 시스템, 또는 버스와 같이 단일 컴퓨터의 컴포넌트들을 연결시키기 위한 디바이스를 포함할 수 있다. 본 문헌에서 사용되는 용어 "인터넷"은 TCP/IP 프로토콜과 같은 특정 프로토콜들, 및 가능하게는 월드 와이드 웹(World Wide Web)(웹)을 구성하는 하이퍼텍스트 마크업 언어(hypertext markup language)(HTML) 문서들을 위한 하이퍼텍스트 전송 프로토콜(hypertext transfer protocol)(HTTP)과 같은 다른 프로토콜들을 사용하는 네트워크들 중의 네트워크를 의미한다. 콘텐츠는 인터넷 "상(on)"에 있는 것으로 참조되는 콘텐츠 서버들에 의해 종종 제공된다. 콘텐츠 서버의 한 타입인 웹 서버는 통상적으로 서버 컴퓨터 시스템으로서 동작하는 적어도 하나의 컴퓨터 시스템이며, 웹의 프로토콜들과 동작하도록 구성되고, 인터넷에 연결된다. 인터넷과 프로토콜들의 물리적 접속들 및 인터넷과 웹의 통신 프로시저들은 관련 기술분야의 통상의 기술자에게 널리 공지되어 있다. 예시적인 목적들을 위해, 컴퓨터 판독 가능 매체(102)는 넓게는, 관련 맥락으로부터 이해되는 바와 같이, 도 1의 예에 예시된 컴포넌트들의 최소 연결 내지 인터넷과 인터넷에 연결된 네트워크들의 모든 컴포넌트 중 임의의 것을 포함하는 것으로 가정된다. 일부 구현들에서, 컴퓨터 판독 가능 매체(102)는 인터넷 서비스 제공자(Internet Service Provider)(ISP)와 같은 서비스 제공자에 의해 관리된다.
다양한 구현들에서, 컴퓨터 판독 가능 매체(102)는 이더넷, 802.11, WiMAX(worldwide interoperability for microwave access), 3G, 4G, CDMA, GSM, LTE, 디지털 가입자 회선(digital subscriber line)(DSL) 등과 같은 기술들을 포함할 수 있다. 컴퓨터 판독 가능 매체(102)는 멀티프로토콜 라벨 스위칭(multiprotocol label switching)(MPLS), 송신 제어 프로토콜/인터넷 프로토콜(transmission control protocol/Internet protocol)(TCP/IP), 사용자 데이터 그램 프로토콜(User Datagram Protocol)(UDP), 하이퍼텍스트 송신 프로토콜(hypertext transport protocol)(HTTP), 단순 메일 전송 프로토콜(simple mail transfer protocol)(SMTP), 파일 전송 프로토콜(file transfer protocol)(FTP) 등과 같은 네트워킹 프로토콜들을 추가로 포함할 수 있다. 컴퓨터 판독 가능 매체(102)를 통해 교환되는 데이터는 하이퍼텍스트 마크업 언어(hypertext markup language)(HTML) 및 확장성 마크업 언어(extensible markup language)(XML)를 포함하는 기술들 및/또는 포맷들을 사용하여 표현될 수 있다. 또한, 모든 또는 일부 링크들은 보안 소켓 계층(secure sockets layer)(SSL), 전송 계층 보안(transport layer security)(TLS) 및 인터넷 프로토콜 보안(Internet Protocol security)(IPsec)과 같은 종래의 암호화 기술들을 사용하여 암호화될 수 있다.
특정 구현에서, 컴퓨터 판독 가능 매체(102)는 적어도 일부 통신을 위해 배선들을 사용하는 유선 네트워크를 포함할 수 있다. 일부 구현들에서, 컴퓨터 판독 가능 매체(102)는 무선 네트워크를 포함한다. 본 문헌에서 사용되는 "무선 네트워크"는 전기 배선들을 사용하지 않고 적어도 부분적으로 통신하는 임의의 컴퓨터 네트워크를 포함할 수 있다. 다양한 구현들에서, 컴퓨터 판독 가능 매체(102)는 이더넷, 802.11, WiMAX(worldwide interoperability for microwave access), 3G, 4G, CDMA, GSM, LTE, 디지털 가입자 회선(DSL) 등과 같은 기술들을 포함한다. 컴퓨터 판독 가능 매체(102)는 멀티프로토콜 라벨 스위칭(MPLS), 송신 제어 프로토콜/인터넷 프로토콜(TCP/IP), 사용자 데이터 그램 프로토콜(UDP), 하이퍼텍스트 송신 프로토콜(HTTP), 단순 메일 전송 프로토콜(SMTP), 파일 전송 프로토콜(FTP) 등과 같은 네트워킹 프로토콜들을 추가로 포함할 수 있다. 컴퓨터 판독 가능 매체(102)를 통해 교환되는 데이터는 하이퍼텍스트 마크업 언어(HTML) 및 확장성 마크업 언어(XML)를 포함하는 기술들 및/또는 포맷들을 사용하여 표현될 수 있다. 또한, 모든 또는 일부 링크들은 보안 소켓 계층(SSL), 전송 계층 보안(TLS) 및 인터넷 프로토콜 보안(IPsec)과 같은 종래의 암호화 기술들을 사용하여 암호화될 수 있다.
특정 구현에서, 컴퓨터 판독 가능 매체(102)의 무선 네트워크는 전기 및 전자 엔지니어 협회(Institute of Electrical and Electronics Engineers)(IEEE)에 의해 특정된 802.11 프로토콜들과 호환 가능하다. 특정 구현에서, 네트워크(130)의 무선 네트워크는 IEEE에 의해 특정된 802.3 프로토콜들과 호환 가능하다. 일부 구현들에서, 컴퓨터 판독 가능 매체(102)의 IEEE 802.3 호환 가능 프로토콜들은 일부 광역 네트워크 애플리케이션들과의 근거리 네트워크 기술을 포함할 수 있다. 물리적 접속들은 통상적으로 다양한 타입들의 구리 또는 섬유 케이블에 의해 노드들 및/또는 인프라스트럭쳐 디바이스들(허브들, 스위치들, 라우터들) 간에 이루어진다. IEEE 802.3 호환 가능 기술은 컴퓨터 판독 가능 매체(102)의 IEEE 802.1 네트워크 아키텍처를 지원할 수 있다.
컴퓨터 판독 가능 매체(102), 제한된 상호 작용 콘텐츠 편집 시스템(104), 콘텐츠 저장 및 스트리밍 시스템(106), 필터 생성 및 저장 시스템(108), 필터 추천 시스템(110) 및 재생 디바이스들(112), 및 본 문헌에서 설명되는 다른 적용 가능한 시스템들 또는 디바이스들은 컴퓨터 시스템, 복수의 컴퓨터 시스템들, 또는 컴퓨터 시스템 또는 복수의 컴퓨터 시스템들의 부분들로서 구현될 수 있다. 일반적으로, 컴퓨터 시스템은 프로세서, 메모리, 비휘발성 스토리지 및 인터페이스를 포함할 것이다. 통상적인 컴퓨터 시스템은 대개 적어도 프로세서, 메모리, 및 메모리를 프로세서에 연결하는 디바이스(예를 들어, 버스)를 포함할 것이다. 프로세서는, 예를 들어, 마이크로프로세서와 같은 범용 중앙 처리 장치(central processing unit)(CPU) 또는 마이크로제어기와 같은 특수 목적 프로세서일 수 있다.
메모리는 비제한적인 예로서 동적 RAM(DRAM) 및 정적 RAM(SRAM)과 같은 랜덤 액세스 메모리(random access memory)(RAM)를 포함할 수 있다. 메모리는 로컬형, 원격형 또는 분산형일 수 있다. 버스는 프로세서를 비휘발성 스토리지에 연결시킬 수도 있다. 비휘발성 스토리지는 종종 자기 플로피 또는 하드 디스크, 자기-광학 디스크, 광학 디스크, CD-ROM, EPROM 또는 EEPROM과 같은 판독 전용 메모리(read-only memory)(ROM), 자기 또는 광학 카드, 또는 많은 양의 데이터를 위한 다른 형태의 스토리지이다. 이 데이터 중 일부는 종종, 컴퓨터 시스템 상에서 소프트웨어를 실행하는 동안에 직접 메모리 액세스 프로세스에 의해 메모리에 기입된다. 비휘발성 스토리지는 로컬형, 원격형 또는 분산형일 수 있다. 시스템들은 메모리에서 사용 가능한 모든 적용 가능한 데이터를 사용하여 생성될 수 있기 때문에, 비휘발성 스토리지는 임의적이다.
소프트웨어는 통상적으로 비휘발성 스토리지에 저장된다. 실제로, 대규모 프로그램들의 경우, 전체 프로그램을 메모리에 저장할 수조차 없을 수 있다. 그럼에도 불구하고, 소프트웨어를 실행하기 위해서는, 필요할 경우, 소프트웨어가 프로세싱에 적절한 컴퓨터 판독 가능 위치로 이동되며, 예시의 목적을 위해, 해당 위치가 본 문헌에서 메모리로서 지칭된다는 것이 이해되어야 한다. 소프트웨어가 실행을 위해 메모리로 이동되는 경우에도, 프로세서는 통상적으로 하드웨어 레지스터들을 사용하여 소프트웨어, 및 이상적으로는 실행 속도를 높이는 역할을 하는 로컬 캐시와 연관된 값들을 저장할 것이다. 본 명세서에서 사용됨에 있어서, 소프트웨어 프로그램이 "컴퓨터 판독 가능 저장 매체에 구현된 것"으로 참조될 때에는, 소프트웨어 프로그램이 적용 가능한 공지된 또는 편리한 위치에(비휘발성 스토리지로부터 하드웨어 레지스터들로) 저장된 것으로 가정된다. 프로그램과 연관된 적어도 하나의 값이 프로세서에 의해 판독 가능한 레지스터에 저장될 때, 프로세서는 "프로그램을 실행하도록 구성된 것"으로 간주된다.
동작의 일례에서, 컴퓨터 시스템은 디스크 운영 시스템과 같은 파일 관리 시스템을 포함하는 소프트웨어 프로그램인 운영 시스템 소프트웨어에 의해 제어될 수 있다. 연관된 파일 관리 시스템 소프트웨어를 갖는 운영 시스템 소프트웨어의 일례는 워싱턴주 레드몬드에 있는 마이크로소프트 코포레이션사의 Windows®로서 공지된 운영 시스템들의 제품군과 이들의 연관된 파일 관리 시스템들이다. 그 연관된 파일 관리 시스템 소프트웨어를 갖는 운영 시스템 소프트웨어의 다른 예는 Linux 운영 시스템 및 그 연관된 파일 관리 시스템이다. 파일 관리 시스템은 통상적으로 비휘발성 스토리지에 저장되며, 프로세서로 하여금 데이터를 입력 및 출력하고 비휘발성 스토리지 상에 파일들을 저장하는 것을 포함하여 메모리에 데이터를 저장하기 위해 운영 시스템에 의해 요구되는 다양한 동작들을 실행하게 한다.
버스는 또한 프로세서를 인터페이스에 연결시킬 수 있다. 인터페이스는 하나 이상의 입력 및/또는 출력(I/O) 디바이스를 포함할 수 있다. I/O 디바이스들은비제한적인 예로서 키보드, 마우스 또는 다른 포인팅 디바이스, 디스크 드라이브들, 프린터들, 스캐너 및 디스플레이 디바이스를 포함하는 다른 I/O 디바이스들을 포함할 수 있다. 디스플레이 디바이스는 비제한적인 예로서 음극선관(cathode ray tube)(CRT), 액정 디스플레이(liquid crystal display)(LCD), 또는 일부 다른 적용 가능한 공지된 또는 편리한 디스플레이 디바이스를 포함할 수 있다. 인터페이스는 모뎀 또는 네트워크 인터페이스 중 하나 이상을 포함할 수 있다. 모뎀 또는 네트워크 인터페이스는 컴퓨터 시스템의 일부로 간주될 수 있다는 것이 이해될 것이다. 인터페이스는 아날로그 모뎀, ISDN 모뎀, 케이블 모뎀, 토큰 링 인터페이스, 이더넷 인터페이스, 위성 송신 인터페이스(예를 들어, "직접 PC"), 또는 컴퓨터 시스템을 다른 컴퓨터 시스템들에 연결시키기 위한 다른 인터페이스들을 포함할 수 있다. 인터페이스들은 컴퓨터 시스템들 및 다른 디바이스들을 네트워크에서 함께 연결되게 할 수 있다.
컴퓨터 시스템들은 클라우드 기반 컴퓨팅 시스템과 호환 가능할 수도 있고, 그 일부로서 또는 이를 통해 구현될 수도 있다. 본 문헌에서 사용됨에 있어서, 클라우드 기반 컴퓨팅 시스템은 최종 사용자 디바이스들에게 가상화된 컴퓨팅 리소스들, 소프트웨어 및/또는 정보를 제공하는 시스템이다. 컴퓨팅 리소스들, 소프트웨어 및/또는 정보는 에지 디바이스들이 네트워크와 같은 통신 인터페이스를 통해 액세스할 수 있는 중앙식 서비스들 및 리소스들을 유지관리함으로써 가상화될 수 있다. "클라우드"는 마케팅 용어일 수 있으며, 본 문헌의 목적상 본 명세서에서 설명되는 네트워크들 중 임의의 것을 포함할 수 있다. 클라우드 기반 컴퓨팅 시스템은 서비스 가입을 수반할 수도 있고 유틸리티 가격 책정 모델을 사용할 수도 있다. 사용자들은 그들의 최종 사용자 디바이스에 위치된 웹 브라우저 또는 다른 컨테이너 애플리케이션을 통해 클라우드 기반 컴퓨팅 시스템의 프로토콜들에 액세스할 수 있다.
컴퓨터 시스템은 엔진, 엔진의 일부로서 또는 다수의 엔진들을 통해 구현될 수 있다. 본 문헌에서 사용됨에 있어서, 엔진은 하나 이상의 프로세서 또는 그 일부를 포함한다. 하나 이상의 프로세서의 일부는 레지스터들의 서브세트와 같이 임의의 주어진 하나 이상의 프로세서를 포함하는 모든 하드웨어보다 적은 하드웨어의 일부 부분, 멀티 스레드 프로세서의 하나 이상의 스레드에 전용되는 프로세서의 일부, 프로세서가 엔진의 기능의 일부를 수행하는 데 전체적으로 또는 부분적으로 전용되는 시간 슬라이스 등을 포함할 수 있다. 이와 같이, 제1 엔진 및 제2 엔진은 하나 이상의 전용 프로세서를 가질 수도 있고, 또는 제1 엔진 및 제2 엔진은 서로 또는 다른 엔진들과 하나 이상의 프로세서를 공유할 수 있다. 구현 특정 또는 다른 고려사항들에 따라, 엔진은 중앙식으로 될 수도 있고 그 기능을 분산시킬 수도 있다. 엔진은 프로세서에 의한 실행을 위해 컴퓨터 판독 가능 매체에 임베딩된 하드웨어, 펌웨어 또는 소프트웨어를 포함할 수 있다. 프로세서는 본 문헌의 도면들을 참조하여 설명되는 것과 같이 구현되는 데이터 구조들 및 방법들을 사용하여 데이터를 새로운 데이터로 변환한다.
본 문헌에서 설명되는 엔진들 또는 본 문헌에서 설명되는 시스템들 및 디바이스들이 구현될 수 있는 엔진들은 클라우드 기반 엔진들일 수 있다. 본 문헌에서 사용됨에 있어서, 클라우드 기반 엔진은 클라우드 기반 컴퓨팅 시스템을 사용하여 애플리케이션들 및/또는 기능들을 실행할 수 있는 엔진이다. 애플리케이션들 및/또는 기능들의 전부 또는 일부들은 다수의 컴퓨팅 디바이스들에 분산될 수 있으며, 단지 하나의 컴퓨팅 디바이스에 제약될 필요는 없다. 일부 실시예들에서, 클라우드 기반 엔진들은 최종 사용자들이 웹 브라우저 또는 컨테이너 애플리케이션을 통해 액세스하는 기능들 및/또는 모듈들을, 최종 사용자의 컴퓨팅 디바이스들 상에 기능들 및/또는 모듈들을 국부적으로 설치하지 않고 실행할 수 있다.
본 문헌에서 사용됨에 있어서, 데이터 저장소들은 테이블들, 콤마로 구분된 값(comma-separated value)(CSV) 파일들, 전통적인 데이터베이스들(예를 들어, SQL) 또는 다른 적용 가능한 공지된 또는 편리한 구성 포맷들을 포함하여 데이터의 임의의 적용 가능한 구성을 갖는 레포지토리들을 포함하도록 의도된다. 데이터 저장소들은, 예를 들어, 특수 목적 머신 상의 물리적 컴퓨터 판독 가능 매체로, 펌웨어로, 하드웨어로, 그 결합으로, 또는 적용 가능한 공지된 또는 편리한 디바이스 또는 시스템으로 구현된 소프트웨어로서 구현될 수 있다. 데이터베이스 인터페이스들과 같은 데이터 저장소 연관 컴포넌트들은 데이터 저장소의 "일부", 일부 다른 시스템 컴포넌트의 일부, 또는 그 결합으로 간주될 수 있지만, 데이터 저장소 연관 컴포넌트들의 물리적 위치 및 다른 특성들은 본 문헌에서 설명되는 기술들의 이해에 중요하지 않다.
데이터 저장소들은 데이터 구조들을 포함할 수 있다. 본 문헌에서 사용됨에 있어서, 데이터 구조는 주어진 콘텍스트 내에서 효율적으로 사용될 수 있도록 컴퓨터에 데이터를 저장하고 구성하는 특정 방식과 연관된다. 데이터 구조들은 일반적으로 어드레스에 의해 특정되는 그 메모리의 임의의 위치에 그 자체로 메모리에 저장되고 프로그램에 의해 조작될 수 있는 비트 스트링으로 데이터를 페치하고 저장하는 컴퓨터의 능력에 기초한다. 따라서, 일부 데이터 구조들은 산술 연산들에 의해 데이터 아이템들의 어드레스들을 계산하는 것에 기초하고, 다른 데이터 구조들은 구조 자체 내에 데이터 아이템들의 어드레스들을 저장하는 것에 기초한다. 많은 데이터 구조들이 두 원리를 모두 사용하며, 이들 원리들은 때로는 간단하지 않은(non-trivial) 방식들로 결합된다. 데이터 구조의 구현은 대개 해당 구조의 인스턴스들을 생성하고 조작하는 프로시저들의 세트를 기입하는 것을 수반한다. 본 문헌에서 설명되는 데이터 저장소들은 클라우드 기반 데이터 저장소들일 수 있다. 클라우드 기반 데이터 저장소는 클라우드 기반 컴퓨팅 시스템들 및 엔진들과 호환 가능한 데이터 저장소이다.
도 1의 예에서, 제한된 상호 작용 콘텐츠 편집 시스템(104)은 실시간으로 콘텐츠(예를 들어, 비디오, 오디오, 이미지들, 사진들 등)를 편집하거나 다른 방식으로 조정하는 기능을 한다. 예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템(104)의 기능은 하나 이상의 모바일 디바이스(예를 들어, 스마트폰, 셀폰, 스마트워치, 스마트글래스, 태블릿 컴퓨터 등)에 의해 수행될 수 있다. 특정 구현에서, 제한된 상호 작용 콘텐츠 편집 시스템(104)은 제한된 상호 작용에 기초하거나 이에 응답하여 동시에 또는 실질적으로 동시에 콘텐츠를 캡처하고 편집한다. 제한된 상호 작용 콘텐츠 편집 시스템(104)의 통상적인 구현들은 재생 디바이스의 기능 또한 포함하지만, 이러한 기능이 요구되는 것은 아니다. 예를 들어, 이벤트(예를 들어, 콘서트, 스포츠 이벤트, 파티 등)의 게스트들에게 제공되는 저비용 또는 소형 폼 팩터 모바일 디바이스들과 같이 특정 상황들에서 축소된 기능을 갖는 제한된 상호 작용 콘텐츠 편집 시스템들을 제공하는 것이 바람직할 수 있다.
본 문헌에서 사용됨에 있어서, 제한된 상호 작용은 제한된 입력 및/또는 제한된 출력을 포함한다. 특정 구현에서, 제한된 입력은 버튼 누르기들, 버튼 홀드들, GUI 선택들, 제스처들(예를 들어, 탭들, 홀드들, 스와이프들, 핀치들 등) 등과 같은 제한된 시퀀스의 입력들을 포함한다. 제한된 시퀀스는 하나의 시퀀스(예를 들어, 단일 제스처)를 포함한다는 것이 이해될 것이다. 예를 들어, 제한된 출력은 디스플레이 특성들(예를 들어, 스크린 치수, 해상도, 밝기, 콘트라스트 등), 오디오 특성들(피델리티, 볼륨, 주파수 등) 등과 같은 하나 이상의 재생 디바이스 특성에 기초하여 제약되는 출력(예를 들어, 편집된 콘텐츠)을 포함한다.
특정 구현에서, 제한된 상호 작용 콘텐츠 편집 시스템(104)은 제한된 상호 작용에 기초하여 하나 이상의 실시간 콘텐츠 필터를 요청, 수신 및 적용(집합적으로, "적용")하는 기능을 한다. 예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템(104)은, 제한된 입력을 수신하는 것에 응답하여, 해당 제한된 입력과 연관된 특정 실시간 콘텐츠 필터를 적용할 수 있다. 일반적으로, 실시간 콘텐츠 필터들은 콘텐츠가 캡처되는 동안에 콘텐츠를 편집하거나 다른 방식으로 조정하는 것을 용이하게 한다. 예를 들어, 실시간 콘텐츠 필터들은, 제한된 상호 작용 콘텐츠 편집 시스템(104)으로 하여금, 캡처되는 콘텐츠 위에 2차 콘텐츠(예를 들어, 그래픽들, 텍스트, 오디오, 비디오, 이미지들 등)를 중첩시키고, 캡처되는 콘텐츠 내의 하나 이상의 피사체(예를 들어, 사람들, 구조들, 지리 형상들, 오디오 트랙들, 비디오 트랙들, 이벤트들 등)의 특성들(예를 들어, 시각적 특성들, 오디오 특성들 등)을 조정하고, 캡처되는 콘텐츠의 콘텐츠 특성들(예를 들어, 디스플레이 특성들, 오디오 특성들 등)을 조정하는 등을 하게 할 수 있다.
특정 구현에서, 제한된 상호 작용 콘텐츠 편집 시스템(104)은 반드시 해당 콘텐츠의 다른 부분들을 조정하지 않고도 콘텐츠의 하나 이상의 부분을 실시간으로 조정한다. 예를 들어, 특정 피사체와 연관된 오디오 특성들은 다른 피사체들과 연관된 오디오 특성들을 조정하지 않고 조정될 수 있다. 이는, 예를 들어, 종래의 시스템들보다 높은 레벨의 편집 세분성을 제공할 수 있다.
도 1의 예에서, 필터링된 콘텐츠 저장 및 스트리밍 시스템(106)은 콘텐츠의 레포지토리를 유지하고 재생(예를 들어, 비디오 재생 및/또는 오디오 재생)을 위해 콘텐츠를 제공하는 기능을 한다. 예를 들어, 시스템(106)은 하나 이상의 모바일 디바이스(예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템(104)의 기능을 수행하는 하나 이상의 모바일 디바이스) 상에서 클라우드 기반 스토리지 플랫폼(예를 들어, AWS)을 사용하여 구현될 수도 있고, 다른 방식으로 구현될 수도 있다. 콘텐츠는 이전에 캡처된 편집 및 미편집 콘텐츠(또는 "레코딩된 콘텐츠")뿐만 아니라, 실시간 편집 및 미편집 콘텐츠(또는 "실시간 콘텐츠")를 포함한다는 것이 이해될 것이다. 보다 구체적으로, 실시간 콘텐츠는 콘텐츠가 캡처되는 동안에 콘텐츠 저장 및 스트리밍 시스템(106)에 의해 수신되는 콘텐츠를 포함한다.
특정 구현에서, 필터링된 콘텐츠 저장 및 스트리밍 시스템(106)은 하나 이상의 콘텐츠 스트림을 통한 재생을 위해 콘텐츠를 제공한다. 콘텐츠 스트림들은 콘텐츠가 편집 및/또는 캡처되는 동안에 재생을 위해 콘텐츠를 제공하는 실시간 콘텐츠 스트림들, 및 재생을 위해 레코딩된 콘텐츠를 제공하는 레코딩된 콘텐츠 스트림들을 포함한다.
도 1의 예에서, 필터 생성 및 저장 시스템(108)은 실시간 콘텐츠 필터들에 대한 생성, 판독, 업데이트 및 삭제(또는 "CRUD") 기능을 제공할 뿐만 아니라, 실시간 콘텐츠 필터들의 레포지토리를 유지한다. 예를 들어, 필터 생성 및 저장 시스템(108)은 하나 이상의 모바일 디바이스(예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템(104)의 기능을 수행하는 하나 이상의 모바일 디바이스) 상에서 클라우드 기반 스토리지 플랫폼(예를 들어, AWS)을 사용하여 구현될 수 있다. 특정 구현에서, 실시간 콘텐츠 필터들은 다음의 필터 속성들 중 일부 또는 전부를 포함한다.
·필터 식별자(Filter Identifier): 실시간 콘텐츠 필터를 고유하게 식별하는 식별자.
·필터 액션(Filter Action)(들): 캡처되는 콘텐츠에 실시간 콘텐츠 필터를 적용함으로써 트리거되는 하나 이상의 편집 액션. 예를 들어, 편집 액션들은 캡처되는 콘텐츠 위에 2차 콘텐츠를 중첩시키는 것, 캡처되는 콘텐츠 내의 하나 이상의 피사체의 특성들을 조정하는 것, 캡처되는 콘텐츠의 콘텐츠 특성들을 조정하는 것 등을 포함할 수 있다.
·제한된 입력(Limited Input): 버튼 누르기들, 버튼 홀드들, 제스처들 등의 제한된 시퀀스와 같이 실시간 콘텐츠 필터와 연관된 제한된 입력.
·제한된 출력(Limited Output): 재생 디바이스 특성들과 같이 실시간 콘텐츠 필터와 연관된 제한된 출력.
·콘텐츠 타입(Content Type): 실시간 콘텐츠 필터로 편집하기에 적절한 콘텐츠의 하나 이상의 타입. 예를 들어, 콘텐츠 타입들은 오디오, 비디오, 이미지들, 사진들 등을 포함할 수 있다.
·카테고리(Category): 실시간 콘텐츠 필터와 연관된 하나 이상의 카테고리. 예를 들어, 카테고리들은 음악, 소설가들, 비평들, 블로거들, 단문 해설자들 등을 포함할 수 있다.
도 1의 예에서, 필터 추천 시스템(110)은 하나 이상의 콘텍스트 관련 실시간 콘텐츠 필터를 식별하는 기능을 한다. 예를 들어, 시스템(110)은 하나 이상의 모바일 디바이스(예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템(104)의 기능을 수행하는 하나 이상의 모바일 디바이스) 상에서 클라우드 기반 스토리지 플랫폼(예를 들어, AWS)을 사용하여 구현될 수도 있고, 다른 방식으로 구현될 수도 있다. 특정 구현에서, 콘텍스트는 콘텐츠 내에서 인식되는 이미지들 및/또는 오디오, 연관된 재생 디바이스들의 재생 디바이스 특성들, 콘텐츠 특성들, 콘텐츠 속성들 등에 기초한다. 예를 들어, 이하에서 추가로 논의되는 바와 같이, 콘텐츠 속성들은 콘텐츠 카테고리(예를 들어, 음악)를 포함할 수 있다. 콘텍스트 관련 실시간 콘텐츠 필터들을 식별하면, 예를 들어, 모든 저장된 실시간 콘텐츠 필터들 중에서 선택하는 것과 반대로, 이들 중 선택한 실시간 콘텐츠 필터들의 제한된 세트를 제공함으로써 동작의 용이성을 증가시킬 수 있다.
도 1의 예에서, 재생 디바이스들(112)은 실시간 및 레코딩된 콘텐츠(집합적으로, "콘텐츠")를 제공하는 기능을 한다. 예를 들어, 재생 디바이스들(112)은 하나 이상의 모바일 디바이스(예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템(104)의 기능을 수행하는 하나 이상의 모바일 디바이스), 데스크탑 컴퓨터들 또는 기타를 포함할 수 있다. 특정 구현에서, 재생 디바이스들(112)은 하나 이상의 실시간 콘텐츠 스트림을 통해 실시간 콘텐츠를 스트리밍하고, 하나 이상의 레코딩된 콘텐츠 스트림을 통해 레코딩된 콘텐츠를 스트리밍하도록 구성된다.
특정 구현에서, 재생 디바이스(112)가 콘텐츠를 제시할 때, 재생 포커스 및 재생 제어의 다수의(예를 들어, 2개의) 영역들이 있다. 예를 들어, 제1 영역(또는, 이미지 영역)은 콘텐츠를 나타내는 이미지일 수 있다. 제2 영역(또는, 오디오 영역)은 콘텐츠의 오디오 부분을 나타내는 고유하게 설계된 그래픽 직사각형 막대일 수 있다. 오디오의 매 10초마다 또는 다른 미리 결정된 시간량마다, 미리 결정된 수의 연관된 이미지들(예를 들어, 하나의 이미지)이 있을 수 있다. 재생 디바이스(112)는 전체 오디오 재생 전반에 걸쳐 이미지를 스크롤링하거나 다른 방식으로 네비게이팅할 수 있지만, 일부 구현들에서, 재생 디바이스(112)는 오디오 재생의 목적지를 제어하지 않는다. 재생 디바이스(112)는 이미지 영역 아래의 직사각형 오디오 박스와 같은 지정된 오디오 부분(예를 들어, 오디오 영역)을 스크롤링하거나 다른 방식으로 네비게이팅함으로써 오디오 재생을 제어할 수 있다. 예를 들어, 오디오 박스는 말칸들에 하나의 레벨의 표현만을 포함할 수 있다.
특정 구현에서는, 재생 디바이스들(112)에 의한 특정 콘텐츠의 재생이 액세스 제어된다. 예를 들어, 특정 콘텐츠는 하나 이상의 액세스 가능성 특성과 연관될 수 있다. 재생 디바이스(112)가 제어된 콘텐츠를 재생하기 위해서는, 연관된 하나 이상의 액세스 가능성 특성을 충족시키는 적절한 크리덴셜(credential)들(예를 들어, 연령, 로그인 크리덴셜들 등)이 제공되어야 한다.
도 2는 제한된 상호 작용을 갖는 실시간 콘텐츠 편집을 제공할 수 있는 환경의 동작의 예시적인 방법의 흐름도(200)를 도시한다. 본 문헌에서 설명되는 이것 및 다른 흐름도들에서, 흐름도는, 예를 들어, 모듈들의 시퀀스를 예시한다. 모듈들은, 적용 가능한 경우, 병렬 실행을 위해 재구성되거나 재정렬될 수 있다는 것이 이해되어야 한다. 또한, 포함되었을 수 있는 일부 모듈들은 명확성을 위해 너무 많은 정보를 제공하지 않도록 제거되었을 수 있으며, 포함된 일부 모듈들은 제거될 수 있지만, 예시의 명확성을 위해 포함되었을 수 있다.
도 2의 예에서, 흐름도(200)는 필터 생성 및 저장 시스템이 복수의 실시간 콘텐츠 필터들을 생성하는 모듈(202)에서 시작한다. 특정 구현에서, 실시간 콘텐츠 필터들은 하나 이상의 필터 속성에 기초하여 생성된다. 예를 들어, 하나 이상의 필터 속성은 GUI로 인터페이스하는 사용자 또는 관리자를 통해 수신될 수 있다.
도 2의 예에서, 흐름도(200)는 필터 생성 및 저장 시스템이 복수의 실시간 콘텐츠 필터들을 저장하는 모듈(204)로 계속된다. 특정 구현에서, 필터 생성 및 저장 시스템은 필터 속성들 중 하나 이상에 기초하여 실시간 콘텐츠 필터들을 필터 생성 및 저장 시스템 데이터 저장소에 저장한다. 예를 들어, 실시간 콘텐츠 필터들은 필터 카테고리 속성에 기초하여 다양한 필터 라이브러리들로 구성될 수 있다.
도 2의 예에서, 흐름도(200)는 제한된 상호 작용 콘텐츠 편집 시스템이 콘텐츠를 캡처하는 모듈(206)로 계속된다. 예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템은 하나 이상의 액션(예를 들어, 말하기, 노래부르기, 이동 등) 등을 수행하는 하나 이상의 피사체의 오디오 및/또는 비디오를 캡처할 수 있다. 특정 구현에서, 콘텐츠 캡처는 제한된 상호 작용 콘텐츠 편집 시스템에 의해 수신된 제한된 입력에 응답하여 개시된다. 예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템과 연관된 카메라, 마이크로폰 또는 다른 콘텐츠 캡처 디바이스는 제한된 입력에 기초하여 콘텐츠를 캡처하도록 트리거될 수 있다. 특정 구현에서, 하나 이상의 재생 디바이스는 콘텐츠가 캡처되는 동안에 콘텐츠를 제시한다.
특정 구현에서, 제한된 상호 작용 콘텐츠 편집 시스템은 콘텐츠 저장 및 스트리밍 시스템으로 콘텐츠를 송신한다. 예를 들어, 콘텐츠를 실시간으로(예를 들어, 콘텐츠가 캡처되는 동안에), 다양한 인터벌들(예를 들어, 10초마다 등) 등으로 송신할 수 있다.
도 2의 예에서, 흐름도(200)는 필터 추천 시스템이 필터 생성 및 저장 시스템에 의해 저장된 복수의 실시간 콘텐츠 필터들로부터 하나 이상의 콘텍스트 관련 실시간 콘텐츠 필터를 식별하는 모듈(208)로 계속된다. 특정 구현에서, 하나 이상의 식별은 캡처되는 콘텐츠 내에서 인식되는 하나 이상의 필터 속성, 이미지 및/또는 오디오, 및 연관된 재생 디바이스들의 특성들에 기초한다. 예를 들어, 콘텐츠가 노래를 부르거나 다르게는 음악을 연주하는 피사체를 포함하는 경우, 필터 추천 시스템은 음악 카테고리와 연관된 실시간 콘텐츠 필터들을 추천할 수 있다. 특정 구현에서, 하나 이상의 실시간 콘텐츠 필터 식별은 제한된 상호 작용 콘텐츠 편집 시스템으로 송신된다.
도 2의 예에서, 흐름도(200)는 제한된 상호 작용 콘텐츠 편집 시스템이 제한된 입력에 기초하여 하나 이상의 실시간 콘텐츠 필터를 선택, 수신 및 적용(집합적으로, "적용")하는 모듈(210)로 계속된다. 특정 구현에서, 제한된 입력의 수신은 제한된 상호 작용 콘텐츠 편집 시스템을 트리거하여 하나 이상의 실시간 콘텐츠 필터(예를 들어, 추천된 실시간 콘텐츠 필터 또는 다른 저장된 실시간 콘텐츠 필터)를 캡처되는 콘텐츠에 적용한다.
도 2의 예에서, 흐름도(200)는 제한된 상호 작용 콘텐츠 편집 시스템이 콘텐츠가 캡처되는 동안에 하나 이상의 선택된 실시간 콘텐츠 필터를 사용하여 콘텐츠의 적어도 일부를 편집하거나 다른 방식으로 조정하는 모듈(212)로 계속된다. 예를 들어, 제1 실시간 콘텐츠 필터는 하나 이상의 오디오 트랙(예를 들어, 노래를 부르는 피사체)의 오디오 특성들을 조정할 수 있고, 제2 실시간 콘텐츠 필터는 비디오 트랙의 일부(예를 들어, 노래를 부르는 피사체의 비디오) 상에 그래픽들을 중첩시킬 수 있고, 제3 실시간 콘텐츠 필터는 비디오 트랙의 해상도 등을 조정할 수 있다.
도 2의 예에서, 흐름도(200)는 콘텐츠 저장 및 스트리밍 시스템이 제한된 상호 작용 콘텐츠 편집 시스템으로부터 콘텐츠를 수신하는 모듈(214)로 계속된다. 특정 구현에서, 수신된 콘텐츠는 콘텐츠를 편집하는 데 사용되는 하나 이상의 필터에 기초하여 저장된다. 예를 들어, 특정 카테고리(예를 들어, 음악)와 연관된 필터로 편집된 콘텐츠는 동일한 특정 카테고리와 연관된 실시간 콘텐츠 필터로 편집된 다른 콘텐츠와 함께 저장될 수 있다.
도 2의 예에서, 흐름도(200)는 콘텐츠 저장 및 스트리밍 시스템이 하나 이상의 재생 디바이스에 의한 프리젠테이션을 위해 콘텐츠를 제공하는 모듈(216)로 계속된다. 특정 구현에서, 콘텐츠 저장 및 스트리밍 시스템은 하나 이상의 콘텐츠 스트림(예를 들어, 실시간 콘텐츠 스트림 또는 레코딩된 콘텐츠 스트림)을 통해 콘텐츠를 재생 디바이스들에 제공한다.
도 2의 예에서, 흐름도(200)는 제한된 상호 작용 콘텐츠 편집 시스템이 콘텐츠의 편집을 수정하는 모듈(218)로 계속된다. 예를 들어, 하나 이상의 실시간 콘텐츠 필터가 제거될 수 있고/있거나, 하나 이상의 상이한 실시간 콘텐츠 필터가 적용될 수 있다. 단계들(208-218)을 참조하도록 한다.
도 3은 제한된 상호 작용 콘텐츠 편집 시스템(302)의 예의 블록도(300)를 도시한다. 도 3의 예에서, 예시적인 제한된 상호 작용 콘텐츠 편집 시스템(302)은 콘텐츠 캡처 엔진(304), 제한된 입력 엔진(306), 실시간 편집 엔진(308), 제한된 편집 엔진(310), 통신 엔진(312) 및 제한된 상호 작용 콘텐츠 편집 시스템 데이터 저장소(314)를 포함한다.
도 3의 예에서, 콘텐츠 캡처 엔진(304)은 하나 이상의 피사체의 콘텐츠를 레코딩하는 기능을 한다. 예를 들어, 콘텐츠 캡처 엔진(304)은 제한된 상호 작용 콘텐츠 편집 시스템(302)과 연관된 하나 이상의 센서(예를 들어, 카메라, 마이크로폰 등)를 활용하여 콘텐츠를 레코딩할 수 있다. 특정 구현에서는, 하나 이상의 센서가 제한된 상호 작용 콘텐츠 편집 시스템(302)의 기능을 수행하는 하나 이상의 디바이스에 포함되지만, 다른 구현들에서는, 그렇지 않을 수도 있다. 예를 들어, 하나 이상의 센서는 제한된 상호 작용 콘텐츠 편집 시스템(302)으로부터 원격에 있을 수 있고, 센서 데이터(예를 들어, 비디오, 오디오, 이미지들, 사진들 등)를 네트워크를 통해 시스템(302)에 전달할 수 있다. 특정 구현에서, 레코딩된 콘텐츠는 제한된 상호 작용 콘텐츠 편집 시스템 데이터 저장소(314)에 (예를 들어, 하나 이상의 다른 시스템으로의 송신을 위해) 적어도 일시적으로 저장된다.
도 3의 예에서, 제한된 입력 엔진(306)은 제한된 입력을 수신하고 프로세싱하는 기능을 한다. 특정 구현에서, 제한된 입력 엔진(306)은 수신된 제한된 시퀀스의 입력들에 기초하여 실시간 편집 요청을 생성하도록 구성된다. 예를 들어, 실시간 편집 요청은 다음 속성들 중 일부 또는 전부를 포함할 수 있다.
·요청 식별자(Request Identifier): 실시간 편집 요청을 고유하게 식별하는 식별자.
·제한된 입력(Limited Input): 버튼 누르기들, 버튼 홀드들, 제스처들 등의 제한된 시퀀스와 같이 요청과 연관된 제한된 입력.
·제한된 출력(Limited Output): 재생 디바이스 특성들과 같이 요청과 연관된 제한된 출력.
·필터 식별자(Filter Identifier): 특정 실시간 콘텐츠 필터를 고유하게 식별하는 식별자.
·필터 이력(Filter History): 제한된 상호 작용 콘텐츠 편집 시스템(302)과 연관된 이전에 적용된 실시간 콘텐츠 필터들의 이력. 특정 구현에서, 필터 이력은 데이터 저장소(314)에 저장될 수 있다.
·필터 선호도들(Filter Preferences): 제한된 상호 작용 콘텐츠 편집 시스템(302)과 연관된 하나 이상의 필터 선호도. 예를 들어, 필터 선호도들은 하나 이상의 필터 카테고리(예를 들어, 음악)에서의 관심 레벨(예를 들어, 하이, 로우, 적용 안함, 항상 적용 등) 또는 다른 필터 속성들을 나타낼 수 있다. 특정 구현에서, 필터 선호도들은 데이터 저장소(314)에 저장된다.
·디폴트 필터들(Default Filters): 제한된 상호 작용 콘텐츠 편집 시스템(302)과 연관된 하나 이상의 디폴트 필터. 특정 구현에서, 디폴트 필터들은 실시간 편집 요청의 필터 식별자 속성에 연관된 필터 식별자들을 포함시킴으로써 자동으로 적용될 수 있다.
특정 구현에서, 제한된 입력 엔진(306)은 필터 생성 및 저장 시스템, 필터 추천 시스템 등을 포함하는 다양한 상이한 시스템들에 의한 수신 및 프로세싱을 위해 실시간 편집 요청을 포맷팅할 수 있다.
도 3의 예에서, 실시간 편집 엔진(308)은 콘텐츠가 캡처되는 동안에 실시간 콘텐츠 필터들을 콘텐츠에 적용하는 기능을 한다. 보다 구체적으로, 엔진(308)은 적용된 실시간 콘텐츠 필터들의 필터 속성들에 기초하여 실시간으로 콘텐츠 또는 콘텐츠의 일부들을 편집한다.
특정 구현에서, 실시간 편집 엔진(308)은 제한된 상호 작용 콘텐츠 편집 시스템 데이터 저장소(314)에 저장된 하나 이상의 제한된 출력 규칙(324)에 기초하여 재생 디바이스 특성들을 식별하도록 구성된다. 예를 들어, 제한된 출력 규칙들(324)은 디스플레이 특성들, 오디오 특성들 등에 대한 값들과 같은 재생 디바이스 특성 값들을 정의할 수 있다. 제한된 출력 규칙(324) 값들 각각은 (예를 들어, 예상 재생 디바이스 특성들에 기초하여 할당된) 디폴트 값들, 실제 값들(예를 들어, 연관된 재생 디바이스들의 특성들) 및/또는 커스터마이징된 값들에 기초할 수 있다. 특정 구현에서는, 콘텐츠를 저장하기 위한 저장 용량을 감소시키거나, 콘텐츠를 송신(예를 들어, 스트리밍)하기 위한 대역폭 사용을 줄이는 등을 위해, 값들이 (예를 들어, 디폴트 값 또는 NULL 값으로부터) 커스터마이징될 수 있다.
도 3의 예에서, 제한된 편집 엔진(310)은 제한된 입력에 기초하여 콘텐츠 또는 콘텐츠의 일부들을 편집하는 기능을 한다. 예를 들어, 제한된 편집 엔진(310)은 제한된 입력에 기초하여 콘텐츠의 일부분들을 무음화(silence), 무음-해제(un-silence)하고/하거나 삭제할 수 있다. 제한된 입력을 수신하기 위한 인터페이스들의 예들은 도 14 및 도 15에 도시되어 있다.
특정 구현에서, 제한된 편집 엔진(310)은 수신된 제한된 입력에 기초하여 하나 이상의 제한된 편집 규칙(316 내지 322)을 식별하고 실행하도록 구성된다. 도 3의 예에서는, 제한된 편집 규칙들(316 내지 322)이 데이터 저장소(314)에 저장되지만, 다른 구현들에서는, 제한된 편집 규칙들(316 내지 322)이 다른 방식으로, 예를 들어, 하나 이상의 연관된 시스템 또는 데이터 저장소에 저장될 수 있다.
특정 구현에서, 제한된 편집 규칙들(316-322)은 제한된 입력에 응답하여 트리거되는 하나 이상의 제한된 편집 액션을 정의한다. 예를 들어, 제한된 편집 규칙들(316-322)은 다음과 같이 정의될 수 있다.
무음의 제한된 편집 규칙들(316)
특정 구현에서, 무음의 제한된 편집 규칙들(316)은, 실행될 때, 제한된 편집 엔진(310)을 트리거하여 레코딩된 콘텐츠에 빈(또는, 공백) 콘텐츠 부분을 삽입한다. 제1 제한된 입력에 응답하여 삽입 시작 지점(예를 들어, 3m:00s 오디오 레코딩 중 시간 1m:30s)이 설정된다(또는, 트리거된다). 예를 들어, 제1 제한된 입력은 도 14에 도시된 인터페이스(1802)와 같이 제한된 입력을 수신하도록 구성된 인터페이스 상의 버튼 또는 아이콘을 홀드하는 것일 수 있다. 제2 제한된 입력에 응답하여 삽입 종료 지점(예를 들어, 3m:00 오디오 레코딩 중 2m:10s)이 설정된다. 예를 들어, 제2 제한된 입력은 제1 제한된 입력에서 홀드된 버튼 또는 아이콘을 해제하는 것일 수 있다. 빈 콘텐츠 부분이 삽입 시작 지점에서 레코딩된 콘텐츠에 삽입되고, 삽입 종료 지점에서 종료된다.
특정 구현에서, 삽입 종료 지점은 실시간으로 도달되는데, 예를 들어, 40초 동안 버튼을 홀드하면 40초의 빈 콘텐츠 부분이 레코딩된 콘텐츠에 삽입된다. 대안적으로 또는 추가적으로, 제3 제한된 입력에 기초하여 삽입 종료 지점에 도달될 수 있다. 예를 들어, 버튼을 홀드하는 동안, 삽입 종료 지점을 설정하는 시간 위치(예를 들어, 2m:10s)를 선택하기 위해 슬라이더(또는 다른 GUI 엘리먼트)가 사용될 수 있다. 선택된 시간 위치에서 버튼을 해제하면 선택된 시간 위치에 삽입 종료 지점이 설정된다. 이는, 예를 들어, 편집 프로세스의 속도를 높이고, 추가 편집 세분성을 제공할 수 있다. 특정 구현에서는, 레코딩된 콘텐츠의 비어있거나, 무음화된 부분의 일부 또는 전부에 추가 콘텐츠가 삽입될 수 있다.
무음-해제의 제한된 편집 규칙들(318)
특정 구현에서, 무음-해제의 제한된 편집 규칙들(318)은, 실행될 때, 제한된 편집 엔진(310)을 트리거하여 무음의 제한된 편집 규칙들(320)의 실행에 의해 트리거된 액션들의 일부 또는 전부를 무음-해제(또는, 실행 취소)한다. 예를 들어, 레코딩된 콘텐츠에 삽입된 빈 콘텐츠 부분의 일부 또는 전부가 제거될 수 있다. 또한, 빈 부분에 이전에 삽입된 콘텐츠가 유사하게 제거될 수 있다. 보다 구체적으로, 제1 제한된 입력에 응답하여 실행 취소 시작 지점(예를 들어, 3m:00s의 오디오 레코딩 중 시간 1m:30s)이 설정(또는, 트리거)된다. 예를 들어, 제1 제한된 입력은 도 14에 도시된 인터페이스(1802)와 같이 제한된 입력을 수신하도록 구성된 인터페이스 상의 버튼 또는 아이콘을 홀드하는 것일 수 있다. 제2 제한된 입력에 응답하여 실행 취소 종료 지점(예를 들어, 3m:00 오디오 레코딩 중 2m:10s)이 설정된다. 예를 들어, 제2 제한된 입력은 제1 제한된 입력에서 홀드된 버튼 또는 아이콘을 해제하는 것일 수 있다. 제2 제한된 입력에 응답하여, 실행 취소 시작 지점에서 시작하여 실행 취소 종료 지점에서 종료하는 특정된 빈 콘텐츠 부분이 레코딩된 콘텐츠로부터 제거된다.
특정 구현에서, 실행 취소 종료 지점은 실시간으로 도달되는데, 예를 들어, 40초 동안 버튼을 홀드하면 레코딩된 콘텐츠에 이전에 삽입된 40초의 빈 콘텐츠 부분이 제거된다. 대안적으로 또는 추가적으로, 제3 제한된 입력에 기초하여 실행 취소 종료 지점에 도달될 수 있다. 예를 들어, 버튼을 홀드하는 동안, 실행 취소 종료 지점을 설정하는 시간 위치(예를 들어, 2m:10s)를 선택하기 위해 슬라이더(또는 다른 GUI 엘리먼트)가 사용될 수 있다. 선택된 시간 위치에서 버튼을 해제하면 선택된 시간 위치에 실행 취소 종료 지점이 설정된다. 이는, 예를 들어, 편집 프로세스의 속도를 높이고, 추가 편집 세분성을 제공할 수 있다.
삭제의 제한된 편집 규칙들(320)
특정 구현에서, 삭제의 제한된 편집 규칙들(320)은, 실행될 때, 제한된 편집 엔진(310)을 트리거하여 제한된 입력에 기초하여 레코딩된 콘텐츠로부터 콘텐츠의 일부를 제거한다. 제1 제한된 입력에 응답하여 삭제 시작 지점(예를 들어, 3m:00s 오디오 레코딩 중 시간 1m:30s)이 설정된다(또는, 트리거된다). 예를 들어, 제1 제한된 입력은 도 14에 도시된 인터페이스(1802)와 같이 제한된 입력을 수신하도록 구성된 인터페이스 상의 버튼 또는 아이콘을 홀드하는 것일 수 있다. 제2 제한된 입력에 응답하여 삭제 종료 지점(예를 들어, 3m:00 오디오 레코딩 중 2m:10s)이 설정된다. 예를 들어, 제2 제한된 입력은 제1 제한된 입력에서 홀드된 버튼 또는 아이콘을 해제하는 것일 수 있다. 삭제 시작 지점에서 시작하여 삭제 종료 지점에서 종료하는 콘테츠의 부분이 레코딩된 콘텐츠로부터 제거된다. 무음과는 달리, 빈 콘텐츠 부분이 삽입되지 않으며, 오히려 콘텐츠는 간단히 제거되고, 콘텐츠의 주위 부분들(즉, 삭제 시작 지점 이전의 콘텐츠 및 삭제 종료 지점 다음의 콘텐츠)이 함께 스플라이싱된다.
특정 구현에서, 삭제 종료 지점은 실시간으로 도달되는데, 예를 들어, 40초 동안 버튼을 홀드하면 40초의 콘텐츠의 부분이 제거된다. 대안적으로 또는 추가적으로, 제3 제한된 입력에 기초하여 삭제 종료 지점에 도달될 수 있다. 예를 들어, 버튼을 홀드하는 동안, 삭제 종료 지점을 설정하는 시간 위치(예를 들어, 2m:10s)를 선택하기 위해 슬라이더(또는 다른 GUI 엘리먼트)가 사용될 수 있다. 선택된 시간 위치에서 버튼을 해제하면 선택된 시간 위치에 삭제 종료 지점이 설정된다. 이는, 예를 들어, 편집 프로세스의 속도를 높이고, 추가 편집 세분성을 제공할 수 있다.
오디오 이미지의 제한된 편집 규칙들(322)
특정 구현에서, 오디오 이미지의 제한된 편집 규칙들(322)은, 실행될 때, 제한된 편집 엔진(310)을 트리거하여 하나 이상의 이미지를 콘텐츠의 특정 부분과 연관(또는, 링크)시킨다. 예를 들어, 하나 이상의 이미지는 미리 결정된 길이(예를 들어, 10초)의 사진 또는 비디오를 포함할 수 있다. 보다 구체적으로, 제1 제한된 입력에 응답하여 오디오 이미지 시작 지점(예를 들어, 3m:00s 오디오 레코딩 중 시간 1m:30s)이 설정된다(또는, 트리거된다). 예를 들어, 제1 제한된 입력은 도 15에 도시된 인터페이스(1902)와 같이 제한된 입력을 수신하도록 구성된 인터페이스 상의 버튼 또는 아이콘을 홀드하는 것일 수 있다. 제2 제한된 입력에 응답하여 오디오 이미지 종료 지점(예를 들어, 3m:00 오디오 레코딩 중 2m:10s)이 설정된다. 예를 들어, 제2 제한된 입력은 제1 제한된 입력에서 홀드된 버튼 또는 아이콘을 해제하는 것일 수 있다. 하나 이상의 이미지는, 하나 이상의 이미지가 콘텐츠의 특정 부분의 재생 동안에 제시되도록 하는, 즉, 오디오 이미지 시작 지점에서 시작하여 오디오 이미지 종료 지점에서 종료하는 콘텐츠의 특정 부분과 연관된다.
특정 구현에서, 오디오 이미지 종료 지점은 실시간으로 도달되는데, 예를 들어, 40초 동안 버튼을 홀드하면 하나 이상의 이미지를 해당 40초의 콘텐츠의 부분에 링크시킨다. 대안적으로 또는 추가적으로, 제3 제한된 입력에 기초하여 오디오 이미지 종료 지점에 도달될 수 있다. 예를 들어, 버튼을 홀드하는 동안, 오디오 이미지 종료 지점을 설정하는 시간 위치(예를 들어, 2m:10s)를 선택하기 위해 슬라이더(또는 다른 GUI 엘리먼트)가 사용될 수 있다. 선택된 시간 위치에서 버튼을 해제하면 선택된 시간 위치에 오디오 이미지 종료 지점이 설정된다. 이는, 예를 들어, 편집 프로세스의 속도를 높이고, 추가 편집 세분성을 제공할 수 있다.
도 3의 예에서, 통신 엔진(312)은 하나 또는 복수의 시스템에 요청들을 전송하고 이로부터 데이터를 수신하는 기능을 한다. 통신 엔진(312)은 네트워크 또는 네트워크의 일부를 통해 시스템에 요청들을 전송하고 이로부터 데이터를 수신할 수 있다. 구현 특정 또는 다른 고려사항들에 따라, 통신 엔진(312)은 그 전부 또는 일부가 무선 접속일 수 있는 접속을 통해 요청들을 전송하고 데이터를 수신할 수 있다. 통신 엔진(312)은 연관된 시스템들로부터 메시지들 및/또는 다른 통신들을 요청하고 수신할 수 있다. 수신된 데이터는 제한된 상호 작용 콘텐츠 데이터 저장소(314)에 저장될 수 있다.
도 3의 예에서, 제한된 상호 작용 콘텐츠 데이터 저장소(314)는 버퍼 또는 캐시로서 추가로 기능한다. 예를 들어, 데이터 저장소(314)는 다른 시스템들로부터 수신된 제한된 입력, 콘텐츠, 통신, 다른 시스템들로 송신될 콘텐츠 및 다른 데이터 등을 저장할 수 있다.
도 4는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도(400)를 도시한다.
도 4의 예에서, 흐름도(400)는 제한된 상호 작용 콘텐츠 편집 시스템이 피사체의 콘텐츠를 캡처하는 모듈(402)에서 시작한다. 특정 구현에서, 콘텐츠 캡처 엔진은 콘텐츠를 캡처한다.
도 4의 예에서, 흐름도(400)는, 제한된 상호 작용 콘텐츠 편집 시스템이 재생 디바이스의 기능을 포함한다고 가정하여, 임의적으로 콘텐츠가 캡처될 때 콘텐츠를 제시하는 모듈(404)로 계속된다. 특정 구현에서, 재생 디바이스는 콘텐츠를 제시한다.
도 4의 예에서, 흐름도(400)는 제한된 상호 작용 콘텐츠 편집 시스템이 제한된 입력을 수신하는 모듈(406)로 계속된다. 특정 구현에서, 제한된 입력은 제한된 입력 엔진에 의해 수신된다.
도 4의 예에서, 흐름도(400)는 제한된 상호 작용 콘텐츠 편집 시스템이 제한된 입력에 기초하여 실시간 편집 요청을 생성하는 모듈(408)로 계속된다. 특정 구현에서, 실시간 편집 요청은 제한된 입력 엔진에 의해 생성된다.
도 4의 예에서, 흐름도(400)는 제한된 상호 작용 콘텐츠 편집 시스템이 실시간 편집 요청에 응답하여 하나 이상의 실시간 콘텐츠 필터를 수신하는 모듈(410)로 계속된다. 특정 구현에서, 통신 엔진은 하나 이상의 실시간 콘텐츠 필터를 수신한다.
도 4의 예에서, 흐름도(400)는 제한된 상호 작용 콘텐츠 편집 시스템이 수신된 하나 이상의 실시간 콘텐츠 필터를 사용하여 실시간으로 콘텐츠를 편집하거나 다른 방식으로 조정하는 모듈(412)로 계속된다. 특정 구현에서, 실시간 콘텐츠 편집 엔진은 수신된 하나 이상의 콘텐츠 필터를 캡처되는 콘텐츠의 하나 이상의 부분에 적용함으로써 콘텐츠를 편집한다. 예를 들어, 제1 실시간 콘텐츠 필터가 음성 변조를 수행하거나 다른 방식으로 보컬 특성들을 조정하기 위해 콘텐츠의 오디오 트랙(예를 들어, 노래를 부르는 사람)에 적용될 수 있고, 제2 실시간 콘텐츠 필터가 하나 이상의 추가 오디오 트랙(예를 들어, 악기들 및/또는 추가 보컬들)을 추가하기 위해 적용될 수 있고, 제3 실시간 콘텐츠 필터가 콘텐츠의 하나 이상의 비디오 부분(또는, 비디오 트랙)에 그래픽들을 중첩시키기 위해 적용될 수 있고, 기타 등등 마찬가지이다.
도 4의 예에서, 흐름도(400)는 제한된 상호 작용 콘텐츠 편집 시스템이 편집된 콘텐츠를 송신하는 모듈(414)로 계속된다. 특정 구현에서, 통신 엔진은 편집된 콘텐츠를 콘텐츠 저장 및 스트리밍 시스템에 송신한다.
도 5는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도(500)를 도시한다.
도 5의 예에서, 흐름도(500)는 제한된 상호 작용 콘텐츠 편집 시스템이 피사체의 콘텐츠를 캡처하는 모듈(502)에서 시작한다. 특정 구현에서, 콘텐츠 캡처 엔진은 콘텐츠를 캡처한다.
도 5의 예에서, 흐름도(500)는 제한된 상호 작용 콘텐츠 편집 시스템이 하나 이상의 디폴트 실시간 필터가 콘텐츠에 적용되어야 하는지를 결정하는 모듈(504)로 계속된다. 특정 구현에서, 디폴트 실시간 콘텐츠 필터들은 임의의 제한되거나 다른 방식의 입력을 수신하지 않고 적용된다. 예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템 데이터 저장소에 저장된 디폴트 필터 규칙들은, 트리거 조건들이 충족될 때, 제한된 상호 작용 코텐츠 편집 시스템으로 하여금 하나 이상의 디폴트 실시간 콘텐츠 필터를 적용하게 하는 트리거 조건들을 정의할 수 있다. 특정 구현에서, 실시간 편집 엔진은 하나 이상의 디폴트 실시간 콘텐츠 필터가 적용되어야 하는지를 결정한다.
도 5의 예에서, 흐름도(500)는, 하나 이상의 디폴트 실시간 콘텐츠 필터가 적용되어야 하는 것으로 결정되는 경우, 제한된 상호 작용 콘텐츠 편집 시스템이 하나 이상의 디폴트 실시간 콘텐츠 필터를 리트리브하는 모듈(506)로 계속된다. 특정 구현에서, 통신 엔진은 하나 이상의 디폴트 실시간 콘텐츠 필터를 리트리브한다.
도 5의 예에서, 흐름도(500)는, 콘텐츠가 캡처되는 동안에(즉, 실시간으로), 제한된 상호 작용 콘텐츠 편집 시스템이 하나 이상의 리트리브된 디폴트 실시간 콘텐츠 필터를 콘텐츠의 적어도 일부에 적용함으로써 콘텐츠를 조정하는 모듈(508)로 계속된다. 특정 구현에서, 실시간 편집 엔진은 하나 이상의 리트리브된 디폴트 실시간 콘텐츠 필터를 적용한다.
도 5의 예에서, 흐름도(500)는 제한된 상호 작용 콘텐츠 편집 시스템이 실시간 콘텐츠 필터 추천을 수신하는 모듈(510)로 계속된다. 특정 구현에서, 실시간 콘텐츠 필터 추천은 실시간 콘텐츠 필터 추천에 의해 생성된 추천 요청에 응답하여 수신될 수 있다. 예를 들어, 추천 요청은 하나 이상의 필터 속성과 매칭되는 실시간 콘텐츠 필터에 대한 요청, 캡처되는 콘텐츠의 콘텍스트와 연관된 실시간 콘텐츠 필터에 대한 요청 등을 포함할 수 있다.
도 5의 예에서, 흐름도(500)는 제한된 상호 작용 콘텐츠 편집 시스템이 제1 제한된 입력을 수신하고 프로세싱하여, 추천된 실시간 콘텐츠 필터들 중 어느 것도 선택하지 않거나 그 중 일부 또는 전부를 선택하는 모듈(512)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제1 제한된 입력을 수신하고 프로세싱한다.
도 5의 예에서, 흐름도(500)는, 제한된 상호 작용 콘텐츠 편집 시스템이 제1 제한된 입력에 기초하여 하나 이상의 추천된 실시간 콘텐츠 필터 중 적어도 일부가 선택되는지를 결정하는 모듈(514)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제1 제한된 입력을 수신하고 프로세싱한다.
도 5의 예에서, 흐름도(500)는, 하나 이상의 추천된 실시간 콘텐츠 필터 중 적어도 일부가 선택되는 경우, 제한된 상호 작용 콘텐츠 편집 시스템이 선택된 실시간 콘텐츠 필터들을 리트리브하는 모듈(516)로 계속된다. 특정 구현에서, 통신 엔진은 선택된 실시간 콘텐츠 필터들을 리트리브한다.
도 5의 예에서, 흐름도(500)는, 콘텐츠가 캡처되는 동안에(즉, 실시간으로), 제한된 상호 작용 콘텐츠 편집 시스템이 선택된 실시간 콘텐츠 필터들을 콘텐츠의 적어도 일부에 적용함으로써 콘텐츠를 조정하는 모듈(518)로 계속된다. 특정 구현에서, 실시간 편집 엔진은 하나 이상의 선택된 실시간 콘텐츠 필터를 적용한다.
도 5의 예에서, 흐름도(500)는, 추천된 실시간 콘텐츠 필터들 중 어느 것도 선택되지 않는 경우, 제한된 상호 작용 콘텐츠 편집 시스템이 제2 제한된 입력을 수신하고 프로세싱하는 모듈(520)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제2 제한된 입력을 수신하고, 제2 제한된 입력에 기초하여, 실시간 편집 요청을 생성한다.
도 5의 예에서, 흐름도(500)는 제한된 상호 작용 콘텐츠 편집 시스템이 제2 제한된 입력에 기초하여 하나 이상의 실시간 콘텐츠 필터를 리트리브하는 모듈(522)로 계속된다. 특정 구현에서, 통신 엔진은 실시간 편집 요청을 송신하고, 실시간 편집 요청에 응답하여, 하나 이상의 실시간 콘텐츠 필터를 수신한다.
도 5의 예에서, 흐름도(500)는, 콘텐츠가 캡처되는 동안에(즉, 실시간으로), 제한된 상호 작용 콘텐츠 편집 시스템이 수신된 하나 이상의 실시간 콘텐츠 필터를 콘텐츠의 적어도 일부에 적용함으로써 콘텐츠를 조정하는 모듈(524)로 계속된다. 특정 구현에서, 실시간 편집 엔진은 수신된 하나 이상의 실시간 콘텐츠 필터를 적용한다.
도 6은 무음의 제한된 편집 액션을 수행하는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도(600)를 도시한다.
도 6의 예에서, 흐름도(600)는, 제한된 상호 작용 콘텐츠 편집 시스템이 재생 디바이스의 기능을 포함한다고 가정하여, 임의적으로 레코딩된 콘텐츠를 제시하는 모듈(602)에서 시작한다. 특정 구현에서, 재생 디바이스는 레코딩된 콘텐츠를 제시한다.
도 6의 예에서, 흐름도(600)는 제한된 상호 작용 콘텐츠 편집 시스템이 제1 제한된 입력(예를 들어, 제1 버튼을 누르기)을 수신하는 모듈(604)로 계속된다. 예를 들어, 버튼은 연관된 제한된 편집 액션(예를 들어, "무음")을 나타낼 수 있다. 특정 구현에서, 제1 제한된 입력은 제한된 입력 엔진에 의해 수신된다.
도 6의 예에서, 흐름도(600)는 제한된 상호 작용 콘텐츠 편집 시스템이 제1 제한된 입력에 기초하여 무음의 제한된 편집 규칙을 선택하는 모듈(606)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 무음의 제한된 편집 규칙을 선택한다.
도 6의 예에서, 흐름도(600)는 제한된 상호 작용 콘텐츠 편집 시스템이 제2 제한된 입력(예를 들어, 제2 버튼을 길게 누르기(pressing and holding))을 수신하는 모듈(608)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제2 제한된 입력을 수신한다. 다양한 구현들에서, 제2 제한된 입력은 제1 제한된 입력(예를 들어, 제1 버튼을 홀드하기)을 포함할 수 있다는 것이 이해될 것이다.
도 6의 예에서, 흐름도(600)는 제한된 상호 작용 콘텐츠 편집 시스템이 제2 제한된 입력에 기초하여 삽입 시작 지점을 설정하는 모듈(610)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 삽입 시작 지점을 설정한다.
도 6의 예에서, 흐름도(600)는 제한된 상호 작용 콘텐츠 편집 시스템이 제3 제한된 입력(예를 들어, 레코딩된 콘텐츠의 상이한 시간 위치로 "빨리 감기"하도록 슬라이더를 이동시키거나, 해당 위치를 다른 방식으로 선택하는 것)을 수신하는 모듈(612)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제3 제한된 입력을 수신한다.
도 6의 예에서, 흐름도(600)는 제한된 상호 작용 콘텐츠 편집 시스템이 제3 제한된 입력에 기초하여 삽입 종료 지점을 설정하는 모듈(614)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 삽입 종료 지점을 설정한다.
도 6의 예에서, 흐름도(600)는 제한된 상호 작용 콘텐츠 편집 시스템이 레코딩된 콘텐츠에 삽입 시작 지점에서 시작하여 삽입 종료 지점에서 종료하는 빈 콘텐츠 부분을 삽입하는 모듈(616)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 레코딩된 콘텐츠에 빈 콘텐츠 부분을 삽입한다.
도 7은 무음-해제의 제한된 편집 액션을 수행하는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도(700)를 도시한다.
도 7의 예에서, 흐름도(700)는, 제한된 상호 작용 콘텐츠 편집 시스템이 재생 디바이스의 기능을 포함한다고 가정하여, 임의적으로 레코딩된 콘텐츠를 제시하는 모듈(702)에서 시작한다. 특정 구현에서, 재생 디바이스는 레코딩된 콘텐츠를 제시한다.
도 7의 예에서, 흐름도(700)는 제한된 상호 작용 콘텐츠 편집 시스템이 제1 제한된 입력(예를 들어, 제1 버튼을 누르기)을 수신하는 모듈(704)로 계속된다. 예를 들어, 버튼은 연관된 제한된 편집 액션(예를 들어, "무음-해제")을 나타낼 수 있다. 특정 구현에서, 제1 제한된 입력은 제한된 입력 엔진에 의해 수신된다.
도 7의 예에서, 흐름도(700)는 제한된 상호 작용 콘텐츠 편집 시스템이 제1 제한된 입력에 기초하여 무음-해제의 제한된 편집 규칙을 선택하는 모듈(706)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 무음-해제의 제한된 편집 규칙을 선택한다.
도 7의 예에서, 흐름도(700)는 제한된 상호 작용 콘텐츠 편집 시스템이 제2 제한된 입력(예를 들어, 제2 버튼을 길게 누르기)을 수신하는 모듈(708)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제2 제한된 입력을 수신한다. 다양한 구현들에서, 제2 제한된 입력은 제1 제한된 입력(예를 들어, 제1 버튼을 홀드하기)을 포함할 수 있다는 것이 이해될 것이다.
도 7의 예에서, 흐름도(700)는 제한된 상호 작용 콘텐츠 편집 시스템이 제2 제한된 입력에 기초하여 실행-취소 시작 지점을 설정하는 모듈(710)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 실행-취소 시작 지점을 설정한다.
도 7의 예에서, 흐름도(700)는 제한된 상호 작용 콘텐츠 편집 시스템이 제3 제한된 입력(예를 들어, 레코딩된 콘텐츠의 상이한 시간 위치로 "빨리 감기"하도록 슬라이더를 이동시키거나, 해당 위치를 다른 방식으로 선택하는 것)을 수신하는 모듈(712)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제2 제한된 입력을 수신한다.
도 7의 예에서, 흐름도(700)는 제한된 상호 작용 콘텐츠 편집 시스템이 제3 제한된 입력에 기초하여 실행-취소 종료 지점을 설정하는 모듈(714)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 실행-취소 종료 지점을 설정한다.
도 7의 예에서, 흐름도(700)는 제한된 상호 작용 콘텐츠 편집 시스템이 레코딩된 콘텐츠로부터 실행-취소 시작 지점에서 시작하여 실행-취소 종료 지점에서 종료하는 빈 콘텐츠 부분을 제거하는 모듈(716)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 레코딩된 콘텐츠로부터 빈 콘텐츠 부분을 제거하며, 레코딩된 콘텐츠의 주위 부분들(즉, 실행-취소 시작 지점 이전 및 실행-취소 종료 지점 다음의 레코딩된 콘텐츠)을 함께 스플라이싱한다.
도 8은 삭제의 제한된 편집 액션을 수행하는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도(800)를 도시한다.
도 8의 예에서, 흐름도(800)는, 제한된 상호 작용 콘텐츠 편집 시스템이 재생 디바이스의 기능을 포함한다고 가정하여, 임의적으로 레코딩된 콘텐츠를 제시하는 모듈(802)에서 시작한다. 특정 구현에서, 재생 디바이스는 레코딩된 콘텐츠를 제시한다.
도 8의 예에서, 흐름도(800)는 제한된 상호 작용 콘텐츠 편집 시스템이 제1 제한된 입력(예를 들어, 제1 버튼을 누르기)을 수신하는 모듈(804)로 계속된다. 예를 들어, 버튼은 연관된 제한된 편집 액션(예를 들어, "삭제")을 나타낼 수 있다. 특정 구현에서, 제1 제한된 입력은 제한된 입력 엔진에 의해 수신된다.
도 8의 예에서, 흐름도(800)는 제한된 상호 작용 콘텐츠 편집 시스템이 제1 제한된 입력에 기초하여 삭제의 제한된 편집 규칙을 선택하는 모듈(806)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 삭제의 제한된 편집 규칙을 선택한다.
도 8의 예에서, 흐름도(800)는 제한된 상호 작용 콘텐츠 편집 시스템이 제2 제한된 입력(예를 들어, 제2 버튼을 길게 누르기)을 수신하는 모듈(808)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제2 제한된 입력을 수신한다. 다양한 구현들에서, 제2 제한된 입력은 제1 제한된 입력(예를 들어, 제1 버튼을 홀드하기)을 포함할 수 있다는 것이 이해될 것이다.
도 8의 예에서, 흐름도(800)는 제한된 상호 작용 콘텐츠 편집 시스템이 제2 제한된 입력에 기초하여 삭제 시작 지점을 설정하는 모듈(810)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 삭제 시작 지점을 설정한다.
도 8의 예에서, 흐름도(800)는 제한된 상호 작용 콘텐츠 편집 시스템이 제3 제한된 입력(예를 들어, 레코딩된 콘텐츠의 상이한 시간 위치로 "빨리 감기"하도록 슬라이더를 이동시키거나, 해당 위치를 다른 방식으로 선택하는 것)을 수신하는 모듈(812)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제2 제한된 입력을 수신한다.
도 8의 예에서, 흐름도(800)는 제한된 상호 작용 콘텐츠 편집 시스템이 제3 제한된 입력에 기초하여 삭제 종료 지점을 설정하는 모듈(814)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 삭제 종료 지점을 설정한다.
도 8의 예에서, 흐름도(800)는 제한된 상호 작용 콘텐츠 편집 시스템이 레코딩된 콘텐츠로부터 삭제 시작 지점에서 시작하여 삭제 종료 지점에서 종료하는 콘텐츠의 특정 부분을 삭제하는 모듈(816)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 레코딩된 콘텐츠로부터 콘텐츠의 특정 부분을 제거한다.
도 8의 예에서, 흐름도(800)는 제한된 상호 작용 콘텐츠 편집 시스템이 콘텐츠의 삭제된 특정 부분 주위의 레코딩된 콘텐츠의 부분들(즉, 삭제 시작 지점 이전 및 삭제 종료 지점 다음의 레코딩된 콘텐츠)을 함께 스플라이싱하는 모듈(818)로 계속된다.
도 9는 오디오 이미지의 제한된 편집 액션을 수행하는 제한된 상호 작용 콘텐츠 편집 시스템의 동작의 예시적인 방법의 흐름도(900)를 도시한다.
도 9의 예에서, 흐름도(900)는, 제한된 상호 작용 콘텐츠 편집 시스템이 재생 디바이스의 기능을 포함한다고 가정하여, 임의적으로 레코딩된 콘텐츠를 제시하는 모듈(902)에서 시작한다. 특정 구현에서, 재생 디바이스는 레코딩된 콘텐츠를 제시한다.
도 9의 예에서, 흐름도(900)는 제한된 상호 작용 콘텐츠 편집 시스템이 제1 제한된 입력(예를 들어, 제1 버튼을 누르기)을 수신하는 모듈(904)로 계속된다. 예를 들어, 버튼은 연관된 제한된 편집 액션(예를 들어, "오디오 이미지")을 나타낼 수 있다. 특정 구현에서, 제1 제한된 입력은 제한된 입력 엔진에 의해 수신된다.
도 9의 예에서, 흐름도(900)는 제한된 상호 작용 콘텐츠 편집 시스템이 제1 제한된 입력에 기초하여 오디오 이미지의 제한된 편집 규칙을 선택하는 모듈(906)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 오디오 이미지의 제한된 편집 규칙을 선택한다.
도 9의 예에서, 흐름도(900)는 제한된 상호 작용 콘텐츠 편집 시스템이 제2 제한된 입력(예를 들어, 제2 버튼을 길게 누르기)을 수신하는 모듈(908)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제2 제한된 입력을 수신한다. 다양한 구현들에서, 제2 제한된 입력은 제1 제한된 입력(예를 들어, 제1 버튼을 홀드하기)을 포함할 수 있다는 것이 이해될 것이다.
도 9의 예에서, 흐름도(900)는 제한된 상호 작용 콘텐츠 편집 시스템이 제2 제한된 입력에 기초하여 오디오 이미지 시작 지점을 설정하는 모듈(910)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 오디오 이미지 시작 지점을 설정한다.
도 9의 예에서, 흐름도(900)는 제한된 상호 작용 콘텐츠 편집 시스템이 제3 제한된 입력(예를 들어, 레코딩된 콘텐츠의 상이한 시간 위치로 "빨리 감기"하도록 슬라이더를 이동시키거나, 해당 위치를 다른 방식으로 선택하는 것)을 수신하는 모듈(912)로 계속된다. 특정 구현에서, 제한된 입력 엔진은 제2 제한된 입력을 수신한다.
도 9의 예에서, 흐름도(900)는 제한된 상호 작용 콘텐츠 편집 시스템이 제3 제한된 입력에 기초하여 오디오 이미지 종료 지점을 설정하는 모듈(914)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 오디오 이미지 종료 지점을 설정한다.
도 9의 예에서, 흐름도(900)는 제한된 상호 작용 콘텐츠 편집 시스템이 (예를 들어, 오디오 이미지 규칙에 의해 정의된) 하나 이상의 이미지를 오디오 이미지 시작 지점에서 시작하여 오디오 이미지 종료 지점에서 종료하는 레코드의 특정 부분에 링크시키는 모듈(916)로 계속된다. 특정 구현에서, 제한된 편집 엔진은 링크를 수행한다.
도 9의 예에서, 흐름도(900)는, 제한된 상호 작용 콘텐츠 편집 시스템이 재생 디바이스의 기능을 포함한다고 가정하여, 제한된 상호 작용 콘텐츠 편집 시스템이 레코딩된 콘텐츠의 특정 부분의 재생 동안에 링크된 하나 이상의 이미지를 임의적으로 제시하는 모듈(918)로 계속된다.
도 10은 콘텐츠 저장 및 스트리밍 시스템(1002)의 예의 블록도(1000)를 도시한다. 도 10의 예에서, 콘텐츠 저장 및 스트리밍 시스템(1002)은 콘텐츠 관리 엔진(1004), 스트리밍 인증 엔진(1006), 실시간 콘텐츠 스트리밍 엔진(1008), 레코딩된 콘텐츠 스트리밍 엔진(1010), 통신 엔진(1012) 및 콘텐츠 저장 및 스트리밍 시스템 데이터 저장소(1014)를 포함한다.
도 10의 예에서, 콘텐츠 관리 엔진(1004)은 콘텐츠 저장 및 스트리밍 시스템 데이터 저장소(1012)에 저장된 실시간 콘텐츠 및 레코딩된 콘텐츠(집합적으로, 콘텐츠)를 생성, 판독, 업데이트, 삭제 또는 다른 방식으로 액세스하는 기능을 한다. 특정 구현에서, 콘텐츠 관리 엔진(1004)은 이들 동작들 중 임의의 것을 (예를 들어, GUI와 상호 작용하는 관리자에 의해) 수동으로 또는 (예를 들어, 콘텐츠 스트림 요청들에 응답하여) 자동으로 수행한다. 특정 구현에서, 콘텐츠는 콘텐츠 속성들과 연관된 콘텐츠 레코드들에 저장된다. 이것은, 예를 들어, 관련 콘텐츠의 위치 찾기, 특정 콘텐츠 또는 콘텐츠의 타입 검색, 콘텍스트 관련 실시간 콘텐츠 필터들의 식별 등에 도움이 될 수 있다. 콘텐츠 속성들은 다음 중 일부 또는 전부를 포함할 수 있다.
·콘텐츠 식별자(Content Identifier): 콘텐츠를 고유하게 식별하는 식별자.
·콘텐츠 타입(Content Type): 콘텐츠와 연관된 하나 이상의 콘텐츠 타입. 콘텐츠 타입들은, 예를 들어, 비디오, 오디오, 이미지들, 사진들 등을 포함할 수 있다.
·콘텐츠 카테고리(Content Category): 콘텐츠와 연관된 하나 이상의 콘텐츠 카테고리. 콘텐츠 카테고리들은, 예를 들어, 음악, 영화, 소설가, 비평, 블로거, 단문 해설자들 등을 포함할 수 있다.
·콘텐츠 디스플레이 특성들(Content Display Characteristics): 콘텐츠와 연관된 하나 이상의 디스플레이 특성.
·콘텐츠 오디오 특성들(Content Audio Characteristics): 콘텐츠와 연관된 하나 이상의 오디오 특성.
·콘텐츠 액세스 가능성(Content Accessibility): 콘텐츠와 연관된 하나 이상의 액세스 가능성 속성. 예를 들어, 콘텐츠의 재생이 시청자의 나이에 기초하여 제약될 수도 있고/있거나, 연관된 콘텐츠를 재생하기 위해 로그인 크리덴셜들을 요구할 수 있다.
·콘텐츠 압축 포맷(Content Compression Format): 콘텐츠와 연관된 압축 포맷(예를 들어, MPEG, MP3, JPEG, GIF 등).
·콘텐츠 지속기간(Content Duration): 콘텐츠의 재생 시간 지속기간.
·콘텐츠 타임스탬프(Content Timestamp): 콘텐츠와 연관된 하나 이상의 타임스탬프, 예를 들어, 캡처 시작 타임스탬프, 편집 시작 타임스탬프, 편집 종료 타임스탬프, 캡처 종료 타임스탬프 등.
·관련 콘텐츠 식별자들(Related Content Identifiers): 관련 콘텐츠를 고유하게 식별하는 하나 이상의 식별자.
·제한된 상호 작용 콘텐츠 편집 시스템 식별자(Limited Interactivity Content Editing System Identifier): 콘텐츠를 캡처하고 편집 한 제한된 상호 작용 콘텐츠 편집 시스템을 고유하게 식별하는 식별자.
도 10의 예에서, 스트리밍 인증 엔진(1006)은 콘텐츠에 대한 액세스를 제어하는 기능을 한다. 특정 구현에서, 액세스는 하나 이상의 콘텐츠 속성에 의해 제어된다. 예를 들어, 특정 콘텐츠의 재생은 연관된 콘텐츠 액세스 가능성 속성에 기초하여 제약될 수 있다.
도 10의 예에서, 실시간 콘텐츠 스트리밍 엔진(1008)은 하나 이상의 재생 디바이스에 실시간 콘텐츠를 제공하는 기능을 한다. 특정 구현에서, 실시간 콘텐츠 스트리밍 엔진(1008)은 하나 이상의 실시간 콘텐츠 스트림을 생성한다. 실시간 콘텐츠 스트리밍(1008) 엔진은 실시간 콘텐츠의 하나 이상의 콘텐츠 속성(예를 들어, 콘텐츠 압축 포맷 속성, 콘텐츠 디스플레이 특성 속성, 콘텐츠 오디오 특성 속성 등) 및 스트리밍 타겟 특성(예를 들어, 재생 디바이스 특성들)에 기초하여 실시간 콘텐츠 스트림들을 포맷팅할 수 있다.
도 10의 예에서, 레코딩된 콘텐츠 스트리밍 엔진(1010)은 레코딩된 콘텐츠를 하나 이상의 재생 디바이스에 제공하는 기능을 한다. 특정 구현에서, 레코딩된 콘텐츠 스트리밍 엔진(1008)은 하나 이상의 레코딩된 콘텐츠 스트림을 생성한다. 레코딩된 콘텐츠 스트리밍(1008) 엔진은 실시간 콘텐츠의 하나 이상의 콘텐츠 속성(예를 들어, 콘텐츠 압축 포맷 속성, 콘텐츠 디스플레이 특성 속성, 콘텐츠 오디오 특성 속성 등) 및 스트리밍 타겟 특성(예를 들어, 재생 디바이스 특성들)에 기초하여 레코딩된 콘텐츠 스트림들을 포맷팅할 수 있다.
도 10의 예에서, 통신 엔진(1012)은 하나 또는 복수의 시스템에 요청들을 전송하고 이로부터 데이터를 수신하는 기능을 한다. 통신 엔진(1012)은 네트워크 또는 네트워크의 일부를 통해 시스템에 요청들을 전송하고 이로부터 데이터를 수신할 수 있다. 구현 특정 또는 다른 고려사항들에 따라, 통신 엔진(1012)은 그 전부 또는 일부가 무선 접속일 수 있는 접속을 통해 요청들을 전송하고 데이터를 수신할 수 있다. 통신 엔진(1012)은 연관된 시스템들로부터 메시지들 및/또는 다른 통신들을 요청하고 수신할 수 있다. 수신된 데이터는 데이터 저장소(1014)에 저장될 수 있다.
도 11은 콘텐츠 저장 및 스트리밍 시스템의 동작의 예시적인 방법의 흐름도(1100)를 도시한다.
도 11의 예에서, 흐름도(1100)는 콘텐츠 저장 및 스트리밍 시스템이 콘텐츠가 캡처되는 동안에 편집된 콘텐츠를 수신하는 모듈(1102)에서 시작한다. 특정 구현에서, 통신 엔진은 편집된 콘텐츠를 수신한다.
도 11의 예에서, 흐름도(1100)는 콘텐츠 저장 및 스트리밍 시스템이 수신된 콘텐츠를 저장하는 모듈(1104)로 계속된다. 특정 구현에서, 콘텐츠 관리 엔진은 수신된 콘텐츠와 연관된 하나 이상의 콘텐츠 속성 및 필터 속성에 기초하여 콘텐츠 저장 및 스트리밍 시스템 데이터 저장소에 수신된 콘텐츠를 저장한다. 예를 들어, 콘텐츠 관리 엔진은 수신된 콘텐츠로부터 콘텐츠 레코드를 생성하고, 수신된 콘텐츠와 연관된 콘텐츠 속성들 및 수신된 콘텐츠를 편집하는 데 사용되는 하나 이상의 필터의 필터 속성들에 기초하여 콘텐츠 레코드 필드들을 채울 수 있다.
도 11의 예에서, 흐름도(1100)는 콘텐츠 저장 및 스트리밍 시스템이 실시간 콘텐츠 스트림 요청을 수신하는 모듈(1106)로 계속된다. 특정 구현에서, 실시간 스트리밍 엔진은 실시간 콘텐츠 스트림 요청을 수신한다.
도 11의 예에서, 흐름도(1100)는 콘텐츠 저장 및 스트리밍 시스템이 실시간 콘텐츠 스트림 요청을 인증하는 모듈(1108)로 계속된다. 특정 구현에서, 스트리밍 인증 엔진은 실시간 콘텐츠 스트림 요청을 인증한다.
도 11의 예에서, 흐름도(1100)는, 실시간 콘텐츠 스트림 요청이 인증되지 않은 경우, 요청이 거부되는 모듈(1110)로 계속된다. 특정 구현에서, 실시간 콘텐츠 스트리밍 엔진은 스트림 거부 메시지를 생성할 수 있고, 통신 엔진은 거부 메시지를 송신할 수 있다.
도 11의 예에서, 흐름도(1100)는, 실시간 콘텐츠 스트림 요청이 인증되는 경우, 콘텐츠 저장 및 스트리밍 시스템이 실시간 콘텐츠 스트림 요청에 기초하여 콘텐츠 저장 및 스트리밍 시스템 데이터 저장소에서 콘텐츠 레코드를 식별하는 모듈(1112)로 계속된다. 특정 구현에서, 콘텐츠 관리 엔진은 콘텐츠 레코드를 식별한다.
도 11의 예에서, 흐름도(1100)는 콘텐츠 저장 및 스트리밍 시스템이 식별된 콘텐츠 레코드의 콘텐츠를 포함하는 실시간 콘텐츠를 포함하는 실시간 콘텐츠 스트림을 생성하는 모듈(1114)로 계속된다. 특정 구현에서, 실시간 콘텐츠 스트리밍 엔진은 실시간 콘텐츠 스트림을 생성한다.
도 11의 예에서, 흐름도(1100)는 콘텐츠 저장 및 스트리밍 시스템이 실시간 콘텐츠 스트림을 송신하는 모듈(1116)로 계속된다. 특정 구현에서, 실시간 콘텐츠 스트리밍 엔진은 실시간 콘텐츠 스트림을 송신한다.
도 12는 필터 생성 및 저장 시스템(1202)의 예의 블록도(1200)를 도시한다. 도 12의 예에서, 필터 생성 및 저장 시스템(1202)은 필터 관리 엔진(1204), 통신 엔진(1206) 및 필터 생성 및 저장 시스템 데이터 저장소(1208)를 포함한다.
도 12의 예에서, 필터 관리 엔진(1204)은 필터 생성 및 저장 데이터 저장소(1208)에 저장된 실시간 콘텐츠 필터들을 생성, 판독, 업데이트, 삭제 또는 다른 방식으로 액세스하는 기능을 한다. 특정 구현에서, 필터 관리 엔진(1204)은 이들 동작들 중 임의의 것을 (예를 들어, GUI와 상호 작용하는 관리자에 의해) 수동으로 또는 (예를 들어, 실시간 편집 요청에 응답하여) 자동으로 수행한다. 특정 구현에서, 실시간 콘텐츠 필터들은 하나 이상의 연관된 필터 속성에 기초하여 필터 레코드들에 저장된다. 이것은, 예를 들어, 실시간 콘텐츠 필터들의 위치 찾기, 특정 실시간 콘텐츠 필터들 또는 실시간 콘텐츠 필터들의 타입 검색, 콘텍스트 관련 실시간 콘텐츠 필터들의 식별 등에 도움이 될 수 있다. 필터 속성들은 다음 중 일부 또는 전부를 포함할 수 있다.
·필터 식별자(Filter Identifier): 실시간 콘텐츠 필터를 고유하게 식별하는 식별자.
·필터 액션(Filter Action)(들): 캡처되는 콘텐츠에 실시간 콘텐츠 필터를 적용함으로써 발생되는 하나 이상의 편집 액션. 예를 들어, 캡처되는 콘텐츠 위에 2차 콘텐츠를 중첩시키는 것, 캡처되는 콘텐츠 내의 하나 이상의 피사체의 특성들을 조정하는 것, 캡처되는 콘텐츠의 콘텐츠 특성들을 조정하는 것 등.
·제한된 입력(Limited Input): 버튼 누르기들, 버튼 홀드들, 제스처들 등의 제한된 시퀀스와 같이 실시간 콘텐츠 필터와 연관된 미리 결정된 제한된 입력.
·제한된 출력(Limited Output): 재생 디바이스 특성들과 같이 실시간 콘텐츠 필터와 연관된 미리 결정된 제한된 출력.
·콘텐츠 타입(Content Type): 실시간 콘텐츠 필터로 편집하기에 적절한 콘텐츠의 하나 이상의 타입. 예를 들어, 콘텐츠 타입들은 오디오, 비디오, 이미지들, 사진들 등을 포함할 수 있다.
·카테고리(Category): 실시간 콘텐츠 필터와 연관된 하나 이상의 카테고리. 예를 들어, 카테고리들은 음악, 소설가들, 비평들, 블로거들, 단문 해설자들 등을 포함할 수 있다.
·디폴트 필터(Default Filter): 실시간 콘텐츠 필터를 나타내는 하나 이상의 식별자가 하나 이상의 연관된 제한된 상호 작용 콘텐츠 편집 시스템들에 대한 디폴트 필터이다. 특정 구현에서, 디폴트 필터는 요청에 포함된 정보에 관계없이 제한된 상호 작용 콘텐츠 편집 시스템(302)에 해당 시스템(302)으로부터 수신되는 수신된 실시간 편집 요청에 응답하여 자동으로 전송될 수 있다.
도 12의 예에서, 통신 엔진(1206)은 하나 또는 복수의 시스템에 요청들을 전송하고 이로부터 데이터를 수신하는 기능을 한다. 통신 엔진(1206)은 네트워크 또는 네트워크의 일부를 통해 시스템에 요청들을 전송하고 이로부터 데이터를 수신할 수 있다. 구현 특정 또는 다른 고려사항들에 따라, 통신 엔진(1206)은 그 전부 또는 일부가 무선 접속일 수 있는 접속을 통해 요청들을 전송하고 데이터를 수신할 수 있다. 통신 엔진(1206)은 연관된 시스템들로부터 메시지들 및/또는 다른 통신들을 요청하고 수신할 수 있다. 수신된 데이터는 데이터 저장소(1208)에 저장될 수 있다.
도 13은 필터 생성 및 저장 시스템의 동작의 예시적인 방법의 흐름도(1300)를 도시한다.
도 13의 예에서, 흐름도(1300)는 필터 생성 및 저장 시스템이 하나 이상의 필터 속성(또는 값)을 수신하는 모듈(1302)에서 시작한다. 특정 구현에서, 필터 관리 엔진은 GUI를 통해 하나 이상의 필터 속성을 수신할 수 있다. 예를 들어, 수신된 필터 속성들은 필터 타입 속성에 대해서는 "음악", 콘텐츠 타입 속성에 대해서는 "오디오", 제한된 입력 속성에 대해서는 "버튼 누르기 + 좌측으로 스와이프 제스처", 필터 액션 속성에 대해서는 음성 변조기, 제한된 출력 속성에 대해서는 "1024x768 해상도", 필터 식별자 속성에 대해서는 랜덤화된 해시 값 등을 포함할 수 있다.
도 13의 예에서, 흐름도(1300)는 필터 생성 및 저장 시스템이 하나 이상의 수신된 필터 속성에 기초하여 새로운 실시간 콘텐츠 필터를 생성하거나, 기존의 실시간 콘텐츠 필터를 업데이트하는(집합적으로, 생성하는) 모듈(1304)로 계속된다. 특정 구현에서, 필터 관리 엔진은 실시간 콘텐츠 필터를 생성한다.
도 13의 예에서, 흐름도(1300)는 필터 생성 및 저장 시스템이 생성된 실시간 콘텐츠 필터를 저장하는 모듈(1306)로 계속된다. 특정 구현에서, 생성된 실시간 콘텐츠 필터는 필터 관리 엔진에 의해 필터 속성들 중 적어도 하나에 기초하여 필터 생성 및 저장 시스템 데이터 저장소에 저장된다. 예를 들어, 생성된 실시간 콘텐츠 필터는 카테고리 필터 속성에 기초하여 복수의 필터 라이브러리들 중 하나에 저장될 수 있다.
도 13의 예에서, 흐름도(1300)는 필터 생성 및 저장 시스템이 실시간 편집 요청을 수신하는 모듈(1308)로 계속된다. 특정 구현에서, 통신 엔진은 실시간 편집 요청을 수신할 수 있고, 필터 관리 엔진은 실시간 편집 요청을 파싱할 수 있다. 예를 들어, 필터 관리 엔진은 실시간 편집 요청을 요청 식별자 속성, 제한된 입력 속성, 제한된 출력 속성 및/또는 필터 식별자 속성과 같은 요청 속성들로 파싱할 수 있다.
도 13의 예에서, 흐름도(1300)는 필터 생성 및 저장 시스템이 실시간 편집 요청이 임의의 실시간 콘텐츠 필터들과 매칭되는지를 결정하는 모듈(1310)로 계속된다. 특정 구현에서, 필터 관리 엔진은 파싱된 요청 속성들 중 하나 이상을 저장된 실시간 콘텐츠 필터들과 연관된 대응하는 필터 속성들과 비교함으로써 결정을 내린다. 예를 들어, 특정 요청 속성(예를 들어, 제한된 입력 속성)이 특정 대응하는 필터 속성(예를 들어, 제한된 입력 속성)과 매칭되는 경우, 및/또는 미리 결정된 임계값 개수(예를 들어, 3개)의 요청 속성들이 대응하는 필터 속성들과 매칭되는 경우, 매칭이 발생할 수 있다.
도 13의 예에서, 흐름도(1300)는, 필터 생성 및 저장 시스템이 매칭되지 않는 것으로 결정되는 경우, 필터 생성 및 저장 시스템이 실시간 편집 요청의 프로세싱을 종료하는 모듈(1312)로 계속된다. 특정 구현에서, 통신 엔진은 종료 메시지를 생성하고 송신할 수 있다.
도 13의 예에서, 흐름도(1300)는, 필터 생성 및 저장 시스템이 매칭이 존재하는 것으로 결정하는 경우, 필터 생성 및 저장 시스템이 하나 이상의 매칭되는 실시간 콘텐츠 필터를 리트리브하는 모듈(1314)로 계속된다. 특정 구현에서, 필터 관리 엔진은 필터 생성 및 저장 시스템 데이터 저장소로부터 매칭되는 실시간 콘텐츠 필터들을 리트리브한다.
도 13의 예에서, 흐름도(1300)는 필터 생성 및 저장 시스템이 매칭되는 하나 이상의 실시간 콘텐츠 필터를 송신하는 모듈(1316)로 계속된다. 특정 구현에서, 통신 엔진은 매칭되는 하나 이상의 실시간 콘텐츠 필터를 송신한다.
도 14는 필터 추천 시스템(1402)의 예의 블록도(1400)를 도시한다. 도 14의 예에서, 필터 추천 시스템(1402)은 실시간 콘텐츠 인식 엔진(1404), 콘텐츠 필터 추천 엔진(1406), 통신 엔진(1408) 및 필터 추천 시스템 데이터 저장소(1410)를 포함한다.
도 14의 예에서, 실시간 콘텐츠 인식 엔진(1404)은 실시간 콘텐츠 내의 하나 이상의 피사체를 식별하는 기능을 한다. 특정 구현에서, 실시간 콘텐츠 인식 엔진(1404)은 하나 이상의 피사체를 식별하기 위해 다양한 이미지 분석들, 오디오 분석들, 모션 캡처 분석들 및 자연 언어 프로세싱 분석들을 수행한다. 예를 들어, 실시간 콘텐츠 인식 엔진(1404)은 캡처되는 콘텐츠 내의 사람, 음성, 건물, 지리적 형상 등을 식별할 수 있다.
도 14의 예에서, 콘텐츠 필터 추천 엔진(1406)은 하나 이상의 콘텍스트 관련 실시간 콘텐츠 필터의 선택을 용이하게 하는 기능을 한다. 특정 구현에서, 콘텐츠 필터 추천 엔진(1406)은 실시간 콘텐츠 내에서 식별된 하나 이상의 피사체에 기초하여 콘텍스트 관련 실시간 콘텐츠 필터들의 선택을 용이하게 할 수 있다. 예를 들어, 오디오 분석은 실시간 콘텐츠가 음악(예를 들어, 노래, 악기들 등)을 포함하는 것으로 결정하고, 음악 카테고리와 연관된 실시간 콘텐츠 필터들을 식별할 수 있다.
특정 구현에서, 콘텐츠 필터 추천 엔진(1406)은 특정 제한된 상호 작용 콘텐츠 편집 시스템들과 연관된 데이터 저장소(1410)에 저장된 실시간 콘텐츠 필터 규칙들을 유지한다. 콘텐츠 필터 추천 엔진(1406)은 규칙들에서 정의된 하나 이상의 추천 트리거 조건의 충족에 기초하여 하나 이상의 실시간 콘텐츠 필터를 식별할 수 있다. 이것은, 예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템이 특정 실시간 콘텐츠 필터들을 특별히 요청할 필요 없이, 콘텐츠 캡처 및 편집 세션들 동안에 특정 실시간 콘텐츠 필터들이 적용되도록 보장하는 것을 도울 수 있다. 예를 들어, 추천 트리거 조건들은 다음 중 일부 또는 전부를 포함할 수 있다.
·음성 인식 트리거(Voice Recognition Trigger): 실시간 콘텐츠 인식 엔진이 콘텐츠가 있는 피사체의 음성을 식별하고, 음성이 트리거 조건과 연관된 음성과 매칭되는 경우, 트리거 조건이 충족된다.
·얼굴 피처 인식 트리거(Facial Feature Recognition Trigger): 실시간 콘텐츠 인식 엔진이 콘텐츠가 있는 피사체의 얼굴 피처를 식별하고, 얼굴 피처가 트리거 조건과 연관된 얼굴 피처와 매칭되는 경우, 트리거 조건이 충족된다.
·커스터마이징된 트리거(Customized Trigger): 제한된 상호 작용 콘텐츠 편집 시스템에 의해 미리 정의된 트리거 조건.
도 14의 예에서, 통신 엔진(1408)은 하나 또는 복수의 시스템에 요청들을 전송하고 이로부터 데이터를 수신하는 기능을 한다. 통신 엔진(1408)은 네트워크 또는 네트워크의 일부를 통해 시스템에 요청들을 전송하고 이로부터 데이터를 수신할 수 있다. 구현 특정 또는 다른 고려사항들에 따라, 통신 엔진(1408)은 그 전부 또는 일부가 무선 접속일 수 있는 접속을 통해 요청들을 전송하고 데이터를 수신할 수 있다. 통신 엔진(1408)은 연관된 시스템들로부터 메시지들 및/또는 다른 통신들을 요청하고 수신할 수 있다. 수신된 데이터는 데이터 저장소(1410)에 저장될 수 있다.
도 15는 필터 추천 시스템의 동작의 예시적인 방법의 흐름도(1500)를 도시한다.
도 15의 예에서, 흐름도(1500)는 필터 추천 시스템이 실시간 편집 요청을 수신하는 모듈(1502)에서 시작한다. 특정 구현에서, 통신 모듈은 실시간 편집 요청을 수신한다.
도 15의 예에서, 흐름도(1500)는 필터 추천 시스템이 실시간 편집 요청을 요청 식별자 속성, 제한된 입력 속성, 제한된 출력 속성 및/또는 필터 식별자 속성과 같은 요청 속성들로 파싱하는 모듈(1504)로 계속된다. 특정 구현에서, 콘텐츠 필터 추천 엔진은 실시간 편집 요청을 파싱할 수 있다.
도 15의 예에서, 흐름도(1500)는 필터 추천 시스템이 실시간 편집 요청과 연관된 실시간 콘텐츠 내의 하나 이상의 피사체를 식별하는 모듈(1506)로 계속된다. 특정 구현에서, 실시간 콘텐츠 인식 엔진은 하나 이상의 피사체를 식별한다.
도 15의 예에서, 흐름도(1500)는 필터 추천 시스템이 요청 속성들 및/또는 식별된 하나 이상의 피사체에 기초하여 하나 이상의 실시간 콘텐츠 필터를 식별하는 모듈(1508)로 계속된다. 예를 들어, 필터 추천 시스템은, 피사체가 음악 트랙을 포함하는 경우, 음악 카테고리와 연관된 하나 이상의 실시간 콘텐츠 필터를 식별할 수 있다.
도 15의 예에서, 흐름도(1500)는 필터 추천 시스템이 하나 이상의 실시간 콘텐츠 필터의 식별을 송신하는 모듈(1510)로 계속된다.
도 16은 재생 디바이스(1602)의 예의 블록도(1600)를 도시한다. 도 16의 예에서, 재생 디바이스(1602)는 콘텐츠 스트림 프리젠테이션 엔진(1604), 통신 엔진(1606) 및 재생 디바이스 데이터 저장소(1608)를 포함한다.
도 16의 예에서, 콘텐츠 스트림 프리젠테이션 엔진(1604)은 실시간 콘텐츠 재생 및 레코딩된 콘텐츠 재생에 대한 요청들을 생성하고, 요청들에 기초하여 실시간 콘텐츠 및 레코딩된 콘텐츠를 제시하는 기능을 한다. 특정 구현에서, 콘텐츠 스트림 프리젠테이션 엔진(1604)은 실시간 콘텐츠 스트림들 및 레코딩된 콘텐츠 스트림들을 수신하고 디스플레이하도록 구성된다. 예를 들어, 스트림들은 연관된 디스플레이 및 스피커들을 통해 제시될 수 있다.
도 16의 예에서, 통신 엔진(1606)은 하나 또는 복수의 시스템에 요청들을 전송하고 이로부터 데이터를 수신하는 기능을 한다. 통신 엔진(1606)은 네트워크 또는 네트워크의 일부를 통해 시스템에 요청들을 전송하고 이로부터 데이터를 수신할 수 있다. 구현 특정 또는 다른 고려사항들에 따라, 통신 엔진(1606)은 그 전부 또는 일부가 무선 접속일 수 있는 접속을 통해 요청들을 전송하고 데이터를 수신할 수 있다. 통신 엔진(1606)은 연관된 시스템들로부터 메시지들 및/또는 다른 통신들을 요청하고 수신할 수 있다. 수신된 데이터는 데이터 저장소(1608)에 저장될 수 있다.
도 16의 예에서, 재생 디바이스 데이터 저장소(1608)는 재생 디바이스 특성들을 저장하는 기능을 한다. 특정 구현에서, 재생 디바이스 특성들은 디스플레이 특성들, 오디오 특성들 등을 포함한다.
도 17은 재생 디바이스의 동작의 예시적인 방법의 흐름도(1700)를 도시한다.
도 17의 예에서, 흐름도(1700)는 재생 디바이스가 실시간 콘텐츠 재생 요청을 생성하는 모듈(1702)에서 시작한다. 특정 구현에서, 콘텐츠 스트림 프리젠테이션 엔진은 요청을 생성한다.
도 17의 예에서, 흐름도(1700)는 재생 디바이스가 실시간 콘텐츠 요청을 송신하는 모듈(1704)로 계속된다. 특정 구현에서, 통신 모듈은 요청을 송신한다.
도 17의 예에서, 흐름도(1700)는 재생 디바이스가 요청에 기초하여 실시간 콘텐츠 스트림을 수신하는 모듈(1706)로 계속된다. 특정 구현에서, 통신 모듈은 요청을 송신한다.
도 17의 예에서, 흐름도(1700)는 재생 디바이스가 실시간 콘텐츠 스트림을 제시하는 모듈(1708)로 계속된다. 특정 구현에서, 콘텐츠 스트림 프리젠테이션 엔진은 실시간 콘텐츠 스트림을 제시한다.
도 18은 제한된 편집 인터페이스(1802)의 예를 도시한다. 예를 들어, 제한된 편집 인터페이스(1802)는 하나 이상의 모바일 디바이스(예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템의 기능을 수행하는 하나 이상의 모바일 디바이스)와 연관된 하나 이상의 그래픽 사용자 인터페이스(graphical user interface)(GUI), 물리적 버튼, 스크롤 휠 등을 포함할 수 있다. 보다 상세하게는, 제한된 편집 인터페이스(1802)는 1차 제한된 편집 인터페이스 윈도우(1804), 2차 제한된 편집 인터페이스 윈도우(1806), 콘텐츠 필터 아이콘들(1808a-b), 제한된 편집 아이콘들(1810a-b) 및 제한된 편집 제어(또는, "레코드") 아이콘(1812)을 포함한다.
특정 구현에서, 1차 제한된 편집 인터페이스 윈도우(1804)는 콘텐츠의 하나 이상의 부분의 편집 또는 재생을 디스플레이하고 제어하도록 구성된 GUI 윈도우를 포함한다. 예를 들어, 윈도우(1804)는 시작 시간 위치 값(예를 들어, 00m:00s), 현재 시간 위치 값(예를 들어, 02m:10s), 및 종료 시간 위치 값(예를 들어, 03m:00s)과 같이 콘텐츠와 연관된 시간 위치 값들을 디스플레이할 수 있다. 윈도우(1804)는 콘텐츠 재생을 제어하기 위한 하나 이상의 피처(예를 들어, 빨리 감기, 되감기, 일시정지, 재생 등)를 추가로 포함할 수 있다. 예를 들어, 하나 이상의 피처는, 예를 들어, 빨리 감기를 하기 위해 슬라이더를 앞으로 이동시키거나, 되감기를 하기 위해 슬라이더를 뒤로 이동시키는 등의 제한된 입력으로 조작될 수 있는 그래픽 스크롤 바를 포함할 수 있다.
특정 구현에서, 2차 제한된 편집 인터페이스 윈도우(1806)는 재생 동안에 콘텐츠의 하나 이상의 부분과 연관된 그래픽들을 디스플레이하도록 구성된 GUI 윈도우를 포함한다. 예를 들어, 윈도우(1806)는 재생 동안에 오디오 콘텐츠의 텍스트를 디스플레이할 수 있다.
특정 구현에서, 콘텐츠 필터 아이콘들(1808a-b)은 제한된 입력에 응답하여 콘텐츠 필터를 선택하도록 구성된다. 예를 들어, 아이콘들(1808a-b) 각각은 특정 콘텐츠 필터, 예를 들어, 오디오 특성들을 변조하기 위한 콘텐츠 필터 등과 연관될 수 있다.
특정 구현에서, 제한된 편집 아이콘들(1810a-b)은 제한된 입력에 응답하여 제한된 편집 규칙(예를 들어, 무음의 제한된 편집 규칙)을 선택하도록 구성된다. 예를 들어, 아이콘들(1810a-b) 각각은 특정 제한된 편집 규칙과 연관될 수 있다.
특정 구현에서, 제한된 편집 제어 아이콘(1812)은 제한된 입력에 응답하여 콘텐츠를 편집하도록 구성된다. 예를 들어, 아이콘(1812)을 홀드하거나 누름으로써, 하나 이상의 선택된 콘텐츠 필터 및/또는 제한된 규칙에 기초하여 콘텐츠를 편집할 수 있다. 제한된 편집 아이콘(1812)은 제한된 편집 인터페이스(1802)의 하나 이상의 다른 피처와 함께 추가적으로 사용될 수 있다. 예를 들어, 제한된 편집 제어 아이콘(1812)을 특정 콘텐츠 시간 위치(예를 들어, 02m:10s)에서 홀드하고 콘텐츠 재생을 상이한 콘텐츠 시간 위치(예를 들어, 02m:45s)로 빨리 감기함으로써, 예를 들어, 하나 이상의 선택된 콘텐츠 필터 및/또는 제한된 규칙에 기초하여 해당 콘텐츠 시간 위치들 사이의 콘텐츠의 부분을 편집할 수 있다.
도 19는 제한된 편집 인터페이스(1902)의 예를 도시한다. 예를 들어, 제한된 편집 인터페이스(1902)는 하나 이상의 모바일 디바이스(예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템의 기능을 수행하는 하나 이상의 모바일 디바이스)와 연관된 하나 이상의 그래픽 사용자 인터페이스(GUI), 물리적 버튼, 스크롤 휠 등을 포함할 수 있다. 보다 상세하게는, 제한된 편집 인터페이스(1902)는 제한된 편집 인터페이스 윈도우(1904), 제한된 편집 제어 윈도우(1906), 콘텐츠 이미지 아이콘들(1906a-f)을 포함한다.
특정 구현에서, 1차 제한된 편집 인터페이스 윈도우(1904)는 콘텐츠의 하나 이상의 부분의 편집 또는 재생을 제어하도록 구성된 GUI 윈도우를 포함한다. 예를 들어, 윈도우(1904)는 시작 시간 위치 값(예를 들어, 00m:00s), 현재 시간 위치 값(예를 들어, 02m:10s), 및 종료 시간 위치 값(예를 들어, 03m:00s)과 같이 콘텐츠와 연관된 시간 위치 값들을 디스플레이할 수 있다. 윈도우(1904)는 콘텐츠 편집 또는 재생을 제어하기 위한 하나 이상의 피처(예를 들어, 빨리 감기, 되감기, 일시정지, 재생 등)를 추가로 포함할 수 있다. 예를 들어, 하나 이상의 피처는, 예를 들어, 빨리 감기를 하기 위해 슬라이더를 앞으로 이동시키거나, 되감기를 하기 위해 슬라이더를 뒤로 이동시키는 등의 제한된 입력으로 조작될 수 있는 그래픽 스크롤 바를 포함할 수 있다.
특정 구현에서, 제한된 편집 제어 윈도우(1906)는 제한된 입력에 응답하여 (예를 들어, 오디오 이미지의 제한된 편집 규칙들에 기초하여) 하나 이상의 이미지를 오디오 콘텐츠와 연관시키도록 구성된다. 예를 들어, 콘텐츠 이미지 아이콘들(1908a-f) 중 하나를 홀드하거나 누름으로써, 해당 콘텐츠 이미지 아이콘과 연관된 하나 이상의 이미지로 하여금 오디오 콘텐츠의 재생 동안에 디스플레이되게 할 수 있다. 제한된 편집 제어 윈도우(1906)는 제한된 편집 인터페이스(1902)의 하나 이상의 다른 피처와 함께 추가적으로 사용될 수 있다. 예를 들어, 콘텐츠 이미지 아이콘들(1906a-f) 중 하나를 특정 콘텐츠 시간 위치(예를 들어, 02m:10s)에서 홀드하고 콘텐츠 재생을 상이한 콘텐츠 시간 위치(예를 들어, 02m:45s)로 빨리 감기함으로써, 콘텐츠 이미지 아이콘과 연관된 하나 이상의 이미지로 하여금 해당 콘텐츠 시간 위치들 사이의 오디오 콘텐츠의 재생 동안에 디스플레이되게 할 수 있다.
도 20은 본 문헌에서 설명된 다양한 구현들에 포함될 수 있는 컴퓨터 시스템(2002)의 예의 블록도(2000)를 도시한다. 예를 들어, 제한된 상호 작용 콘텐츠 편집 시스템(104), 콘텐츠 저장 및 스트리밍 시스템(106), 필터 생성 및 저장 시스템(108), 필터 추천 시스템(110) 및 재생 디바이스들(112)은 각각 컴퓨터 시스템(2000)의 특정 구현들을 포함할 수 있다. 도 20의 예는 무선 클라이언트 또는 워크 스테이션 또는 서버 컴퓨터 시스템과 같은 클라이언트 컴퓨터 시스템으로서 사용될 수 있는 컴퓨터 시스템을 예시하기 위해 의도된다. 도 20의 예에서, 컴퓨터 시스템(2000)은 컴퓨터(2002), I/O 디바이스들(2004) 및 디스플레이 디바이스(2006)를 포함한다. 컴퓨터(2002)는 프로세서(2008), 통신 인터페이스(2010), 메모리(2012), 디스플레이 제어기(2014), 비휘발성 스토리지(2016) 및 I/O 제어기(2018)를 포함한다. 컴퓨터(2002)는 I/O 디바이스들(2004) 및 디스플레이 디바이스(2006)에 연결될 수도 있고 이를 포함할 수도 있다.
컴퓨터(2002)는 모뎀 또는 네트워크 인터페이스를 포함할 수 있는 통신 인터페이스(2010)를 통해 외부 시스템들과 인터페이스한다. 통신 인터페이스(2010)는 컴퓨터 시스템(2000)의 일부 또는 컴퓨터(2002)의 일부로 간주될 수 있다는 것이 이해될 것이다. 통신 인터페이스(2010)는 아날로그 모뎀, ISDN 모뎀, 케이블 모뎀, 토큰 링 인터페이스, 위성 송신 인터페이스(예를 들어, "직접 PC"), 또는 컴퓨터 시스템을 다른 컴퓨터 시스템들에 연결하기 위한 다른 인터페이스들일 수 있다.
프로세서(2008)는, 예를 들어, 인텔 펜티엄 마이크로프로세서 또는 모토로라 파워 PC 마이크로프로세서와 같은 종래의 마이크로프로세서일 수 있다. 메모리(2012)는 버스(2020)에 의해 프로세서(2008)에 연결된다. 메모리(2012)는 동적 랜덤 액세스 메모리(DRAM)일 수 있고, 또한 정적 RAM(SRAM)을 포함할 수도 있다. 버스(2020)는 프로세서(2008)를 메모리(2012)에, 또한 비휘발성 스토리지(2016)에, 디스플레이 제어기(2014)에, 그리고 I/O 제어기(2018)에 연결한다.
I/O 디바이스들(2004)은 키보드, 디스크 드라이브들, 프린터들, 스캐너, 및 마우스 또는 다른 포인팅 디바이스를 포함하는 다른 입력 및 출력 디바이스들을 포함할 수 있다. 디스플레이 제어기(2014)는 통상적인 방식으로, 예를 들어, 음극선관(CRT) 또는 액정 디스플레이(LCD)일 수 있는 디스플레이 디바이스(2006) 상의 디스플레이를 제어할 수 있다. 디스플레이 제어기(2014) 및 I/O 제어기(2018)는 종래의 널리 공지된 기술로 구현될 수 있다.
비휘발성 스토리지(2016)는 종종 자기 하드 디스크, 광학 디스크, 또는 다량의 데이터를 위한 다른 형태의 스토리지이다. 이 데이터 중 일부는 종종, 직접 메모리 액세스 프로세스에 의해, 컴퓨터(2002)에서 소프트웨어의 실행 동안에 메모리(2012)에 기입된다. 본 기술분야의 통상의 기술자는 용어들 "머신 판독 가능 매체" 또는 "컴퓨터 판독 가능 매체"가 프로세서(2008)에 의해 액세스 가능한 임의의 타입의 스토리지 디바이스를 포함하고, 데이터 신호를 인코딩하는 반송파도 포함한다는 것을 바로 인식할 것이다.
도 20에 예시된 컴퓨터 시스템은 상이한 아키텍처들을 갖는 다수의 가능한 컴퓨터 시스템들을 예시하는 데 사용될 수 있다. 예를 들어, 인텔 마이크로프로세서에 기초한 개인용 컴퓨터들은 종종 다수의 버스들을 갖는데, 버스들 중 하나는 주변 장치들에 대한 I/O 버스, 및 프로세서(2008)와 메모리(2012)를 직접 접속하는 버스(종종, 메모리 버스로 지칭됨)일 수 있다. 버스들은 상이한 버스 프로토콜들로 인해 임의의 필요한 변환을 수행하는 브리지 컴포넌트들을 통해 함께 접속된다.
네트워크 컴퓨터들은 본 명세서에 제공된 교시들과 함께 사용될 수 있는 다른 타입의 컴퓨터 시스템이다. 네트워크 컴퓨터들은 대개 하드 디스크 또는 다른 대용량 스토리지를 포함하지 않으며, 실행 가능 프로그램들이 프로세서(2008)에 의한 실행을 위해 네트워크 접속으로부터 메모리(2012)에 로딩된다. 본 기술분야에서 공지된 웹 TV 시스템 또한 컴퓨터 시스템으로 간주되지만, 특정 입력 또는 출력 디바이스들과 같이 도 20에 도시된 피처들 중 일부가 결여될 수 있다. 통상적인 컴퓨터 시스템은 대개 적어도 프로세서, 메모리, 및 메모리를 프로세서에 연결하는 버스를 포함할 것이다.
상세한 설명 중 일부 부분들은 컴퓨터 메모리 내의 데이터 비트들에 대한 연산들의 알고리즘들 및 심벌 표현들의 측면에서 제시된다. 이들 알고리즘 기술들 및 표현들은 데이터 프로세싱 기술분야의 통상의 기술자에 의해 그들의 작업 내용을 해당 기술분야의 다른 통상의 기술자에게 가장 효과적으로 전달하는 데 사용되는 수단이다. 알고리즘은 본 명세서에서, 그리고 일반적으로, 원하는 결과를 이끌어내는 동작들의 일관성 있는 시퀀스인 것으로 생각된다. 동작들은 물리량들에 대한 물리적 조작들을 필요로 하는 것들이다. 대개, 반드시는 아니지만, 이들 양들은 저장, 전송, 조합, 비교 및 다른 방식으로 조작될 수 있는 전기 또는 자기 신호들의 형태를 취한다. 주로, 공통 사용의 이유들로 인해, 이 신호들을 비트들, 값들, 엘리먼트들, 심벌들, 문자들, 용어들, 숫자들 등으로 참조하는 것이 때로는 편리한 것으로 판명되었다.
그러나, 이들 및 유사한 용어들 모두는 적절한 물리량들과 연관되고 이들 양들에 적용되는 편리한 라벨들에 불과하다는 것을 염두에 두어야 한다. 다음의 논의로부터 명백한 바와 같이 달리 구체적으로 명시하지 않는 한, 설명 전반에 걸쳐, "프로세싱" 또는 "컴퓨팅" 또는 "계산" 또는 "결정" 또는 "디스플레이" 등과 같은 용어들을 활용한 논의들은 컴퓨터 시스템의 레지스터들 및 메모리들 내에서 물리적(전자적) 양들로 표현된 데이터를 컴퓨터 시스템 메모리들 또는 레지스터들 또는 다른 이러한 정보 스토리지, 송신 또는 디스플레이 디바이스들 내에서 물리량들로서 유사하게 표현되는 다른 데이터로 조작 및 변환하는 컴퓨터 시스템 또는 유사한 전자 컴퓨팅 디바이스의 액션 및 프로세스들을 지칭한다는 것이 이해될 것이다.
본 문헌에서 설명된 기술들은 동작들을 수행하기 위한 장치에 관한 것이다. 장치는 요구되는 목적들을 위해 특별하게 구성될 수도 있고, 컴퓨터에 저장된 컴퓨터 프로그램에 의해 선택적으로 활성화되거나 재구성되는 범용 컴퓨터를 포함할 수도 있다. 이러한 컴퓨터 프로그램은 판독 전용 메모리(ROM)들, 랜덤 액세스 메모리(RAM)들, EPROM들, EEPROM들, 자기 또는 광학 카드들, 플로피 디스크들, 광학 디스크들, CD-ROM들 및 자기-광학 디스크들을 포함하는 임의의 타입의 디스크, 또는 전자 명령어들을 저장하기에 적절하고 각각이 컴퓨터 시스템 버스에 연결되는 임의의 타입의 매체와 같은 컴퓨터 판독 가능 저장 매체에 저장될 수 있지만, 이에 제한되지 않는다.
설명의 목적상, 상세한 설명의 완전한 이해를 제공하기 위해 다수의 특정 세부 사항들이 제시되었다. 그러나, 본 기술분야의 통상의 기술자에게 본 개시내용의 구현들이 이들 특정 세부 사항들 없이도 실시될 수 있다는 것은 명백할 것이다. 일부 예들에서, 모듈들, 구조들, 프로세스들, 피처들 및 디바이스들은 설명을 모호하게 하지 않도록 블록도 형태로 도시되어 있다. 다른 예들에서, 기능 블록도들 및 흐름도들은 데이터 및 로직 흐름들을 나타내도록 도시되어 있다. 블록도들 및 흐름도들의 컴포넌트들(예를 들어, 단계들, 모듈들, 블록들, 구조들, 디바이스들, 피처들 등)은 본 명세서에서 명시적으로 설명되고 도시된 것과 다른 방식으로 다양하게 조합, 분리, 제거, 재정렬 및 교체될 수 있다.
본 명세서에서 사용된 언어는 주로 읽기 쉽고 교육적인 목적들을 위해 선택되었으며, 본 발명의 대상을 기술하거나 제한하기 위해 선택되지 않았을 수 있다. 그러므로, 범위는 이 상세한 설명에 의해 제한되지 않고, 오히려 본 명세서에 기초한 출원에서 등록되는 임의의 청구범위에 의해 제한되는 것으로 의도된다. 따라서, 구현들의 개시는 본 명세서에서 인용되는 청구 범위에서 설명되는 범위를 예시하기 위해 의도되며, 이를 제한하려는 것은 아니다.

Claims (20)

  1. 방법으로서,
    제1 실시간 콘텐츠 필터 및 제2 실시간 콘텐츠 필터를 저장하는 단계 - 상기 제1 실시간 콘텐츠 필터는 제1 미리 결정된 제한된 입력과 연관되고, 상기 제2 실시간 콘텐츠 필터는 제2 미리 결정된 제한된 입력과 연관되고, 상기 제1 미리 결정된 제한된 입력은 상기 제2 미리 결정된 제한된 입력과 상이함 -;
    피사체의 콘텐츠를 캡처하는 단계;
    제1 제한된 입력을 수신하는 단계;
    상기 제1 제한된 입력을 수신하는 것에 응답하여, 상기 제1 제한된 입력이 상기 제1 미리 결정된 제한된 입력 또는 상기 제2 미리 결정된 제한된 입력 중 어느 것과 매칭되는지를 결정하는 단계;
    상기 제1 제한된 입력이 상기 제1 미리 결정된 제한된 입력과 매칭된다는 결정에 응답하여, 상기 제1 실시간 콘텐츠 필터를 선택하는 단계; 및
    상기 제1 제한된 입력이 상기 제1 미리 결정된 제한된 입력과 매칭된다는 결정에 응답하여, 상기 콘텐츠가 캡처되는 동안에, 상기 제1 실시간 콘텐츠 필터를 사용하여 상기 콘텐츠의 제1 부분을 편집하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    제2 제한된 입력을 수신하는 단계;
    상기 제2 제한된 입력을 수신하는 것에 응답하여, 상기 제2 제한된 입력이 상기 제2 미리 결정된 제한된 입력과 매칭되는지를 결정하는 단계;
    상기 제2 제한된 입력이 상기 제2 미리 결정된 제한된 입력과 매칭된다는 결정에 응답하여, 상기 제2 실시간 콘텐츠 필터를 선택하는 단계; 및
    상기 제2 제한된 입력이 상기 제2 미리 결정된 제한된 입력과 매칭된다는 결정에 응답하여, 상기 콘텐츠가 캡처되는 동안에, 상기 제2 실시간 콘텐츠 필터를 사용하여 상기 콘텐츠의 제2 부분을 편집하는 단계
    를 추가로 포함하는 방법.
  3. 방법으로서,
    제1 제한된 입력을 수신하는 단계;
    상기 제1 제한된 입력에 기초하여, 레코딩된 오디오 콘텐츠와 연관된 제한된 편집 시작 지점을 설정하는 단계;
    제2 제한된 입력을 수신하는 단계;
    상기 제2 제한된 입력에 기초하여, 상기 레코딩된 오디오 콘텐츠와 연관된 제한된 편집 종료 지점을 설정하는 단계; 및
    상기 레코딩된 오디오 콘텐츠의 특정 부분에 대해 제한된 편집 액션을 수행하는 단계 - 상기 레코딩된 콘텐츠의 특정 부분은 상기 제한된 편집 시작 지점 및 상기 제한된 편집 종료 지점에 기초하여 정의됨 -
    를 포함하는 방법.
  4. 제3항에 있어서, 상기 제1 제한된 입력은 그래픽 사용자 인터페이스(graphical user interface)(GUI)의 버튼을 길게 누르는 것(pressing and holding)을 포함하는 방법.
  5. 제4항에 있어서, 상기 제2 제한된 입력은 상기 GUI의 버튼을 해제하는 것을 포함하는 방법.
  6. 제3항에 있어서, 상기 제한된 편집 액션은 무음 편집 액션, 삭제 편집 액션, 또는 오디오 이미지 편집 액션 중 임의의 것을 포함하는 방법.
  7. 제6항에 있어서, 상기 무음 편집 액션은 상기 레코딩된 콘텐츠에 상기 제한된 편집 시작 지점에서 시작하여 상기 제한된 편집 종료 지점에서 종료하는 빈 콘텐츠 부분을 삽입하는 것을 포함하는 방법.
  8. 제6항에 있어서, 상기 삭제 편집 액션은 상기 레코딩된 오디오 콘텐츠로부터 오디오 콘텐츠의 특정 부분을 제거하는 것을 포함하고, 상기 오디오 콘텐츠의 특정 부분은 상기 제한된 편집 시작 지점에서 시작하여 상기 제한된 편집 종료 지점에서 종료하는 방법.
  9. 제6항에 있어서, 상기 오디오 이미지 편집 액션은 상기 레코딩된 오디오 콘텐츠 중 오디오 콘텐츠의 특정 부분에 하나 이상의 이미지를 링크시키는 것을 포함하고, 상기 오디오 콘텐츠의 특정 부분은 상기 제한된 편집 시작 지점에서 시작하여 상기 제한된 편집 종료 지점에서 종료하는 방법.
  10. 제5항에 있어서, 상기 제2 제한된 입력은, 상기 GUI의 버튼을 해제하기 전에, 상기 GUI의 슬라이더를 이동시켜 상기 제한된 편집 종료 지점을 선택하는 것을 추가로 포함하고, 상기 GUI의 버튼을 해제하는 것은 상기 제한된 편집 종료 지점을 상기 선택된 제한된 편집 종료 지점으로 설정하는 것인 방법.
  11. 시스템으로서,
    제1 제한된 입력 및 제2 제한된 입력을 수신하도록 구성된 제한된 입력 엔진; 및
    제한된 편집 엔진
    을 포함하고, 상기 제한된 편집 엔진은,
    레코딩된 오디오 콘텐츠와 연관된 제한된 편집 시작 지점을 설정하고 - 상기 제한된 편집 시작 지점은 상기 제1 제한된 입력에 기초함 -,
    상기 레코딩된 오디오 콘텐츠와 연관된 제한된 편집 종료 지점을 설정하고 - 상기 제한된 편집 종료 지점은 상기 제2 제한된 입력에 기초함 -,
    상기 레코딩된 오디오 콘텐츠의 특정 부분에 대해 제한된 편집 액션을 수행하도록 - 상기 레코딩된 콘텐츠의 특정 부분은 상기 제한된 편집 시작 지점 및 상기 제한된 편집 종료 지점에 기초하여 정의됨 -
    구성되는 시스템.
  12. 제11항에 있어서, 상기 제1 제한된 입력은 그래픽 사용자 인터페이스(GUI)의 버튼을 길게 누르는 것을 포함하는 시스템.
  13. 제12항에 있어서, 상기 제2 제한된 입력은 상기 GUI의 버튼을 해제하는 것을 포함하는 시스템.
  14. 제11항에 있어서, 상기 제한된 편집 액션은 무음 편집 액션, 삭제 편집 액션, 또는 오디오 이미지 편집 액션 중 임의의 것을 포함하는 시스템.
  15. 제11항에 있어서, 상기 무음 편집 액션은 상기 레코딩된 콘텐츠에 상기 제한된 편집 시작 지점에서 시작하여 상기 제한된 편집 종료 지점에서 종료하는 빈 콘텐츠 부분을 삽입하는 것을 포함하는 방법.
  16. 제11항에 있어서, 상기 삭제 편집 액션은 상기 레코딩된 오디오 콘텐츠로부터 오디오 콘텐츠의 특정 부분을 제거하는 것을 포함하고, 상기 오디오 콘텐츠의 특정 부분은 상기 제한된 편집 시작 지점에서 시작하여 상기 제한된 편집 종료 지점에서 종료하는 방법.
  17. 제11항에 있어서, 상기 오디오 이미지 편집 액션은 상기 레코딩된 오디오 콘텐츠 중 오디오 콘텐츠의 특정 부분에 하나 이상의 이미지를 링크시키는 것을 포함하고, 상기 오디오 콘텐츠의 특정 부분은 상기 제한된 편집 시작 지점에서 시작하여 상기 제한된 편집 종료 지점에서 종료하는 방법.
  18. 제12항에 있어서, 상기 제2 제한된 입력은, 상기 GUI의 버튼을 해제하기 전에, 상기 GUI의 슬라이더를 이동시켜 상기 제한된 편집 종료 지점을 선택하는 것을 추가로 포함하고, 상기 GUI의 버튼을 해제하는 것은 상기 제한된 편집 종료 지점을 상기 선택된 제한된 편집 종료 지점으로 설정하는 것인 시스템.
  19. 실행 가능한 명령어들을 포함하는 비일시적 컴퓨터 판독 가능 매체로서 - 상기 명령어들은 방법을 수행하도록 프로세서에 의해 실행 가능함 -, 상기 방법은,
    제1 제한된 입력을 수신하는 단계;
    상기 제1 제한된 입력에 기초하여, 레코딩된 오디오 콘텐츠와 연관된 제한된 편집 시작 지점을 설정하는 단계;
    제2 제한된 입력을 수신하는 단계;
    상기 제2 제한된 입력에 기초하여, 상기 레코딩된 오디오 콘텐츠와 연관된 제한된 편집 종료 지점을 설정하는 단계; 및
    상기 레코딩된 오디오 콘텐츠의 특정 부분에 대해 제한된 편집 액션을 수행하는 단계 - 상기 레코딩된 콘텐츠의 특정 부분은 상기 제한된 편집 시작 지점 및 상기 제한된 편집 종료 지점에 기초하여 정의됨 -
    를 포함하는 비일시적 컴퓨터 판독 가능 매체.
  20. 시스템으로서,
    제1 제한된 입력을 수신하기 위한 수단;
    상기 제1 제한된 입력에 기초하여, 레코딩된 오디오 콘텐츠와 연관된 제한된 편집 시작 지점을 설정하기 위한 수단;
    제2 제한된 입력을 수신하기 위한 수단;
    상기 제2 제한된 입력에 기초하여, 상기 레코딩된 오디오 콘텐츠와 연관된 제한된 편집 종료 지점을 설정하기 위한 수단; 및
    상기 레코딩된 오디오 콘텐츠의 특정 부분에 대해 제한된 편집 액션을 수행하기 위한 수단 - 상기 레코딩된 콘텐츠의 특정 부분은 상기 제한된 편집 시작 지점 및 상기 제한된 편집 종료 지점에 기초하여 정의됨 -
    을 포함하는 시스템.
KR1020187026120A 2016-02-10 2017-02-07 제한된 상호 작용을 갖는 실시간 콘텐츠 편집 KR20180111981A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/040,945 US20170229146A1 (en) 2016-02-10 2016-02-10 Real-time content editing with limited interactivity
US15/040,945 2016-02-10
PCT/US2017/016830 WO2017139267A1 (en) 2016-02-10 2017-02-07 Real-time content editing with limited interactivity

Publications (1)

Publication Number Publication Date
KR20180111981A true KR20180111981A (ko) 2018-10-11

Family

ID=59496265

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187026120A KR20180111981A (ko) 2016-02-10 2017-02-07 제한된 상호 작용을 갖는 실시간 콘텐츠 편집

Country Status (9)

Country Link
US (1) US20170229146A1 (ko)
EP (1) EP3414671A4 (ko)
JP (1) JP2019512144A (ko)
KR (1) KR20180111981A (ko)
CN (1) CN109074347A (ko)
CA (1) CA3014744A1 (ko)
RU (1) RU2018131924A (ko)
WO (1) WO2017139267A1 (ko)
ZA (1) ZA201805446B (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200381017A1 (en) * 2017-11-28 2020-12-03 Justin Garak Flexible content recording slider
US20190206102A1 (en) * 2017-12-29 2019-07-04 Facebook, Inc. Systems and methods for enhancing content
US11762869B1 (en) 2018-09-28 2023-09-19 Splunk Inc. Generating journey flow visualization with node placement based on shortest distance to journey start
US11144185B1 (en) 2018-09-28 2021-10-12 Splunk Inc. Generating and providing concurrent journey visualizations associated with different journey definitions
CN112291615A (zh) * 2020-10-30 2021-01-29 维沃移动通信有限公司 音频输出方法、音频输出装置
US11823713B1 (en) * 2022-10-03 2023-11-21 Bolt-On Ip Solutions, Llc System and method for editing an audio stream

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
JPH11203835A (ja) * 1998-01-16 1999-07-30 Sony Corp 編集装置および方法、並びに提供媒体
JP2001144750A (ja) * 1999-11-12 2001-05-25 Sony Corp 情報処理装置および方法、情報提供装置および方法、並びにプログラム格納媒体
JP2003122604A (ja) * 2001-10-17 2003-04-25 Seiko Epson Corp 動画ファイルのデータ形式のコンバート
US7383515B2 (en) * 2002-07-25 2008-06-03 International Business Machines Corporation Previewing next state based on potential action in current state
JP4005470B2 (ja) * 2002-10-09 2007-11-07 オリンパス株式会社 情報処理装置及び情報処理プログラム
JP4085380B2 (ja) * 2003-04-14 2008-05-14 ソニー株式会社 曲間検出装置、曲間検出方法及び曲間検出プログラム
US7984089B2 (en) * 2004-02-13 2011-07-19 Microsoft Corporation User-defined indexing of multimedia content
US7461004B2 (en) * 2004-05-27 2008-12-02 Intel Corporation Content filtering for a digital audio signal
JP4973431B2 (ja) * 2007-10-09 2012-07-11 富士通株式会社 音声再生プログラム及び音声再生装置
US20090183078A1 (en) * 2008-01-14 2009-07-16 Microsoft Corporation Instant feedback media editing system
KR20100028312A (ko) * 2008-09-04 2010-03-12 삼성전자주식회사 휴대 단말기의 파일 편집 방법 및 장치
WO2010071996A1 (en) * 2008-12-23 2010-07-01 Gary Mark Symons Digital media editing interface
US9852761B2 (en) * 2009-03-16 2017-12-26 Apple Inc. Device, method, and graphical user interface for editing an audio or video attachment in an electronic message
JP5013548B2 (ja) * 2009-07-16 2012-08-29 ソニーモバイルコミュニケーションズ, エービー 情報端末、情報端末の情報提示方法及び情報提示プログラム
CN101996203A (zh) * 2009-08-13 2011-03-30 阿里巴巴集团控股有限公司 一种过滤网页信息的方法和系统
US20120159530A1 (en) * 2010-12-16 2012-06-21 Cisco Technology, Inc. Micro-Filtering of Streaming Entertainment Content Based on Parental Control Setting
JP2012252642A (ja) * 2011-06-06 2012-12-20 Sony Corp 情報処理装置、情報処理方法、及びプログラム
KR101901929B1 (ko) * 2011-12-28 2018-09-27 엘지전자 주식회사 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체
US20130254026A1 (en) * 2012-03-23 2013-09-26 Fujitsu Limited Content filtering based on virtual and real-life activities
US9081491B2 (en) * 2012-03-30 2015-07-14 Corel Corporation Controlling and editing media files with touch gestures over a media viewing area using a touch sensitive device
KR101909030B1 (ko) * 2012-06-08 2018-10-17 엘지전자 주식회사 비디오 편집 방법 및 이를 위한 디지털 디바이스
US20140355960A1 (en) * 2013-05-31 2014-12-04 Microsoft Corporation Touch optimized design for video editing
KR20150142348A (ko) * 2014-06-11 2015-12-22 삼성전자주식회사 사용자 단말 및 이의 제어 방법
US9646646B2 (en) * 2015-07-28 2017-05-09 At&T Intellectual Property I, L.P. Digital video recorder options for editing content

Also Published As

Publication number Publication date
WO2017139267A1 (en) 2017-08-17
CN109074347A (zh) 2018-12-21
RU2018131924A (ru) 2020-03-11
CA3014744A1 (en) 2017-08-17
EP3414671A4 (en) 2019-10-30
RU2018131924A3 (ko) 2020-06-09
JP2019512144A (ja) 2019-05-09
US20170229146A1 (en) 2017-08-10
ZA201805446B (en) 2020-10-28
EP3414671A1 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
JP6496848B2 (ja) 動画コンテンツのハイライト映像を抽出して提供する方法およびシステム
KR20180111981A (ko) 제한된 상호 작용을 갖는 실시간 콘텐츠 편집
US11677806B2 (en) Platform-independent content generation for thin client applications
US9460752B2 (en) Multi-source journal content integration systems and methods
US11036796B2 (en) Video clips generation system
US7603682B1 (en) Digest video browsing based on collaborative information
CN103268207B (zh) 用于渲染在多个窗口上观看的视频的方法和系统
CN108781311B (zh) 用于媒体分发和管理平台的视频播放器框架
US20140279075A1 (en) Interactive advertising
US20170168697A1 (en) Systems and methods for playing videos
US10929460B2 (en) Method and apparatus for storing resource and electronic device
WO2019227429A1 (zh) 多媒体内容生成方法、装置和设备/终端/服务器
CN106844705B (zh) 用于显示多媒体内容的方法和装置
WO2017080200A1 (zh) 一种自定义菜单的实现方法、装置、客户端及服务器
US20190199763A1 (en) Systems and methods for previewing content
CN110110101B (zh) 多媒体内容的推荐方法、装置、终端、服务器及可读介质
CN109255035B (zh) 用于构建知识图谱的方法和装置
CN108833787A (zh) 用于生成短视频的方法和装置
WO2024037557A1 (zh) 特效道具处理方法、装置、电子设备及存储介质
US20200381017A1 (en) Flexible content recording slider
US11711408B2 (en) Content appearance conversion for remote application sharing
CN112016280B (zh) 一种文件编辑方法、装置及计算机可读介质
JP2022082453A (ja) メディア消費ギャップ充填のための方法、コンピュータシステム、およびコンピュータプログラム(パーソナライズされた挿入可能なメディアを使用したギャップ充填)
KR101805302B1 (ko) 멀티미디어 컨텐츠 재생 장치 및 방법
WO2021047534A1 (zh) 用于多媒体处理的方法、装置、电子设备和介质