KR20160056888A - 여러 사용자 주석들을 검색하고 그것들을 콘텐트 내에 오버레이하여 비디오들을 브라우징하기 - Google Patents

여러 사용자 주석들을 검색하고 그것들을 콘텐트 내에 오버레이하여 비디오들을 브라우징하기 Download PDF

Info

Publication number
KR20160056888A
KR20160056888A KR1020167006543A KR20167006543A KR20160056888A KR 20160056888 A KR20160056888 A KR 20160056888A KR 1020167006543 A KR1020167006543 A KR 1020167006543A KR 20167006543 A KR20167006543 A KR 20167006543A KR 20160056888 A KR20160056888 A KR 20160056888A
Authority
KR
South Korea
Prior art keywords
annotation
media content
content
combined
generating
Prior art date
Application number
KR1020167006543A
Other languages
English (en)
Inventor
네일 디. 보스
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20160056888A publication Critical patent/KR20160056888A/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F17/30038
    • G06F17/30817
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/022Electronic editing of analogue information signals, e.g. audio or video signals
    • G11B27/029Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • H04N21/2393Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • H04N5/23245
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Processing (AREA)

Abstract

사용자들이 미디어 콘텐트에 대해 미디어 풍부 주석들을 남기기 위한 방법과 장치. 클라이언트들/미디어-서버 시스템은 콘텐트의 사용자 시청과 관련되는 멀티사용자에 의해 생성되는 콘텐트를 만들기 위해 사용자들이 미디어에 주석들을 첨부하는 것을 허용한다. 미디어는 특정 미디어 콘텐트 시간들에 삽입된다. 미디어와 주석들은 임의의 타입(텍스트, 오디오, 비디오, ...)의 것일 수 있다. 여러 사용자들("주석자들")로부터의 주석들을 검색함으로써 비디오를 조회한다. 주석들과 결합된 비디오의 오버레이를 디스플레이한다. 방법은 적어도 제2 주석을 포함하고, 여기서 주석 달린 미디어를 시청 중인 현재 사용자와 주석자들 사이의 관계(가족, 가까운 친구, ...)에 기초하여 제1 주석은 제2 주석보다 더 높은 우선 순위를 가지고(예를 들어, 더 크게) 디스플레이된다. 키워드들: 비디오-주석이 달린 비디오. 비디오 블로깅.

Description

여러 사용자 주석들을 검색하고 그것들을 콘텐트 내에 오버레이하여 비디오들을 브라우징하기{BROWSING VIDEOS BY SEARCHING MULTIPLE USER COMMENTS AND OVERLAYING THOSE INTO THE CONTENT}
본 명세서는 2013년 9월 16일자로 출원된 미국 가출원 번호 61/878245호 및 2014년 5월 27일자로 출원된 미국 가출원 번호 62/003281호의 우선권을 청구하고, 그들의 전체 내용들이 본 명세서에 참조되어 통합된다.
휴대용 전자 디바이스들이 점점 더 보편화되고 있다. 휴대폰들, 음악 플레이어들, 카메라들, 태블릿들 등과 같은 이러한 디바이스들은 종종 디바이스들의 조합을 포함하고, 따라서 여러 물체들을 가지고 다니는 것을 불필요하게 만든다. 예를 들어, 애플 아이폰 또는 삼성 갤럭시 안드로이드 폰과 같은 현재의 터치 스크린 휴대폰들은 비디오 및 스틸 카메라들, 범지구 위치결정 내비게이션 시스템(global positioning navigation system), 인터넷 브라우저, 텍스트 및 전화, 비디오 및 음악플레이어 등을 포함한다. 이러한 디바이스들은 종종 wifi, 유선, 및 셀룰러, 예컨대 3G와 같은 여러 네트워크들을 통해 데이터를 송신 및 수신할 수 있다.
휴대용 전자 장치들에서의 보조 기능들의 품질이 계속 향상되고 있다. 예를 들어, 초기 "카메라 폰들"은 고정 초점 렌즈들(fixed focus lenses)을 가지며 플래시를 갖지 않는 저해상도 센서들로 이루어졌다. 오늘날, 많은 휴대폰들은 풀 고해상도(full high definition) 비디오 기능들, 편집 및 필터링 도구들, 그뿐만 아니라, 고해상도 디스플레이들을 포함한다. 이러한 향상된 기능들에 의해, 많은 사용자들은 이러한 디바이스들을 그들의 주된 사진 촬영 디바이스들로서 사용하고 있다. 따라서, 훨씬 더 향상된 성능의 전문가급 내장형 사진 촬영 도구들(professional grade embedded photography tools)이 요구되고 있다. 또한, 사용자들은 단지 인쇄된 사진들보다 더 많은 방식들로 그들의 콘텐트를 다른 사용자들과 공유하고 싶어하고 용이하게 그렇게 하고 싶어한다. 이러한 공유의 방법들은 이메일, 텍스트, 또는 소셜 미디어 웹사이트들, 예컨대 Facebook™, Twitter™, 및 YouTube™ 등을 포함할 수 있다. 사용자들은, 예컨대 YouTube™과 같은 비디오 스토리지 사이트 또는 소셜 미디어 사이트에 콘텐트를 업로드할 수 있다.
소셜 미디어를 이용하여, 시청자들은 종종 주석자들이 되고 다른 기여자들에 의해 공유되고 있는 미디어에 관한 주석들 또는 피드백을 제공한다. 실제로, 이 피드백은 소셜 미디어를 바람직하게 만들기 위한 주요 동력원이다. 그러나, 주석이 비디오의 단지 한 부분 또는 비디오 장면의 특정 양태에만 관련될 수 있기 때문에, 시청자가 긴 비디오를 본 후에 비디오 미디어에 관한 주석들은 종종 이해하기 어렵다. 따라서, 미디어 제공자는 주석자가 언급하고 있는 것이 무엇인지 혼동될 수 있다. 또한, 많은 주석들이 제공된다면, 미디어 제공자에게 더 바람직한 주석들이 대용량의 덜 바람직한 주석들 가운데 상실될 수 있다. 따라서, 모바일 전자 디바이스들에 내장된 현재 카메라들에 있어서 이러한 문제들을 극복하는 것이 바람직하다.
사용자들이 미디어 콘텐트에 대한 미디어 풍부 주석들을 남기는 것을 용이하게 하기 위한 방법과 장치. 시스템은 콘텐트의 시청자에 관련되는 멀티사용자에 의해 생성되는 콘텐트를 만들기 위해 사용자들이 비디오 콘텐트를 비디오에 첨부하는 것을 허용한다. 미디어는 미디어 콘텐트 내의 특정 시간들에 삽입될 수 있다. 시청자는 또한 특정 시청자와 더 관련되는 시청 경험을 커스토마이즈하기 위해 공급자에 의해 콘텐트를 소팅할 수 있다.
본 발명의 양태에 따르면, 방법은 제1 미디어 콘텐트에 대한 요청을 수신하는 단계, 상기 제1 미디어 콘텐트에 관련된 제1 주석을 검색하는 단계, 상기 제1 미디어 콘텐트와 상기 제1 주석을 결합된 미디어 콘텐트로 결합하는 단계, 및 상기 결합된 미디어 콘텐트를 송신하는 단계를 포함한다.
본 발명의 다른 양태에 따르면, 방법은 사용자 입력에 응답하여 제1 미디어 콘텐트에 대한 요청을 생성하는 단계, 상기 제1 미디어 콘텐트를 수신하는 단계, 제1 주석을 검색하는 단계 - 상기 제1 주석은 상기 제1 미디어 콘텐트에 관련됨 -, 상기 제1 주석을 수신하는 단계, 상기 제1 미디어 콘텐트와 상기 제1 주석을 결합된 미디어 콘텐트로 결합하는 단계, 및 상기 결합된 미디어 콘텐트를 포함하는 신호를 생성하는 단계를 포함한다.
본 발명의 또 다른 양태에 따르면, 장치는 사용자 입력에 응답하여 제어 신호를 생성하는 인터페이스, 사용자 입력에 응답하여 제1 미디어 콘텐트에 대한 요청을 생성하고, 제1 주석에 대한 요청을 생성하고 - 상기 제1 주석은 상기 제1 미디어 콘텐트에 관련됨 -, 상기 제1 미디어 콘텐트와 상기 제1 주석을 결합된 미디어 콘텐트로 결합하는 프로세서 - 상기 프로세서는 상기 결합된 미디어 콘텐트를 포함하는 신호를 생성하도록 더 운용됨 -, 및 상기 제1 미디어 콘텐트에 대한 상기 요청 및 상기 제1 주석에 대한 상기 요청을 송신하는 송신기, 및 상기 제1 미디어 콘텐트 및 상기 제1 주석을 수신하는 입력을 포함한다.
본 개시 내용의 이러한 및 다른 양태들, 특징들, 및 장점들은 첨부 도면들에 관련하여 읽힐, 바람직한 실시예들의 다음의 상세한 설명에 기술될 것이거나 또는 이로부터 명백해질 것이다.
도면에서, 유사한 참조 번호들은 도들 전체에 걸쳐 유사한 요소들을 나타낸다.
도 1은 모바일 전자 디바이스의 예시적인 실시예의 블록도를 도시한다.
도 2는 본 발명에 따른 활성 디스플레이를 갖는 예시적인 모바일 디바이스 디스플레이를 도시한다.
도 3은 본 개시 내용에 따른 이미지 안정화(stabilization) 및 리프레이밍(reframing)을 위한 예시적인 프로세스를 도시한다.
도 4는 본 발명에 따른 캡처 초기화를 갖는 예시적인 모바일 디바이스 디스플레이를 도시한다.
도 5는 본 개시 내용에 따른 이미지 또는 비디오 캡처를 시작하기 위한 예시적인 프로세스를 도시한다.
도 6은 본 발명에 따른 미디어 콘텐트에 대한 미디어 주석들을 디스플레이하기 위한 예시적인 디스플레이 디바이스를 도시한다.
도 7은 본 발명에 따른 미디어 콘텐트에 대한 미디어 주석들을 디스플레이하기 위한 다른 예시적인 디스플레이 디바이스를 도시한다.
도 8은 본 개시 내용에 따른 미디어 콘텐트에 대한 미디어 주석들을 디스플레이하기 위한 예시적인 타임라인을 도시한다.
도 9는 본 개시 내용에 따른 미디어 콘텐트 내에 미디어 주석들을 생성하기 위한 예시적인 프로세스를 도시한다.
도 10은 본 개시 내용에 따른 미디어 콘텐트 내에 미디어 주석들을 생성하기 위한 다른 예시적인 프로세스를 도시한다.
본 명세서에 기재된 예시들은 본 발명의 바람직한 실시예들을 예시하고, 그러한 예시들은 어떤 방식으로든 본 발명의 범위를 제한하는 것으로 해석되어서는 안 된다.
미디어 콘텐트에 대한 미디어 주석들을 위한 방법과 시스템은 사용자들이 미디어 콘텐트에 대한 미디어 풍부 주석들을 남기는 것을 허용한다. 예술적 비디오 콘텐트 또는 그와 유사한 것을 시청하는 사용자들은 예컨대 팔로우 업 비디오 또는 텍스트 주석과 같은, 피드백을 남기는 방식에 있어서 제한된다. 사용자들은 그들이 모르는 다른 사용자들이 콘텐트에 관해 무엇을 생각하는지에 관심이 없을 수 있다. 친구들이 무엇을 생각하는지 알기 위해 주석들을 통해 검색하는 것은 힘들다. YouTube™와 같은 다른 시스템들은 사용자가 팔로우 업 주석 비디오를 링크하는 것을 허용하거나, 텍스트 주석을 기입하는 것을 허용한다. 시스템은 검토자들의 우선순위화에 대한 어떤 선호도 갖고 있지 않다. 사용자들이 창의적 콘텐트를 시청할 때, 그들은 창의적 방법으로 창의적 노력에 기여하기를 원할 수 있다. 종종 텍스트 주석들은 평균 사용자와는 무관한 주석들 및 스팸과 함께 그대로 컴파일된다. 본 발명의 시스템은 사용자들이 콘텐트의 시청자에 관련되는 멀티사용자 생성 콘텐트를 만들기 위해 비디오에 비디오 콘텐트를 첨부하는 것을 허용한다. 주석들은 콘텐트와 함께 이동하는 비디오에 내장된 텍스트를 포함할 수 있다. 그것은 원래 콘텐트 내에 붙여지거나, 또는 원래 콘텐트의 재생 동안 특정 관련 시간들 동안 미리보기 모드에서 플레이하는 비디오일 수 있다. 주석들은 시청자로부터 일 또는 2 등급 간격까지로 제한될 수 있다. 예를 들어, 직접 친구들, 또는 친구들의 친구들로부터의 주석들만이 시청자에게 보여진다. 주석들과 비디오 주석들은 비디오의 제2 재생 루프에서 보여지도록 선택될 수 있다. 예를 들어, 비디오는 첫 번째에 원래 포맷으로 플레이하고, 그 후 두 번째에 주석들과 비디오 세그먼트들이 디스플레이되도록 플레이한다. 비디오의 후속적 플레이 시에 리플레이되는 제2 레벨의 주석들이 있을 수 있다. 예를 들어, 원래의 제1 재생, 시청자의 제1 등급 친구들의 제2 재생, 시청자의 제2 등급 친구들의 제3 재생 루프, 제4 재생 루프, 비디오 재생에 가장 인기 있는 주석들이 부가된다. 비디오는 저장된 주석들의 버킷들을 포함할 수 있고, 여기서 각각의 버킷은 친구관계의 등급 또는 어떤 다른 주석 엔티티 예컨대, 남자들 또는 여자들, 전문적 대 개인적, 동일 협력 그룹들의 멤버들, 등에 관련될 수 있다. 이 방식으로, 비디오들의 콜렉션들은 다른 사용자들에 의해 협력된다. 사용자들은 허용된다면 콘텐트를 삽입할 수 있거나 콘텐트를 부가할 수 있고, 모든 콘텐트가 공통 버킷에 저장되고, 시청자에게 원활하게 플레이된다.
도 1을 참조하면, 모바일 전자 디바이스의 예시적인 실시예의 블록도가 도시된다. 도시된 모바일 전자 디바이스가 휴대폰(100)이지만, 본 발명은 음악 플레이어들, 카메라들, 태블릿들, 범지구 위치결정 내비게이션 시스템들 등과 같은 임의의 수의 디바이스들에서 동등하게 구현될 수 있다. 휴대폰은 전형적으로 전화 통화 및 텍스트 메시지를 송신 및 수신하고, 셀룰러 네트워크 또는 로컬 무선 네트워크를 통해 인터넷과 인터페이스하며, 사진 및 비디오를 촬영하고, 오디오 및 비디오 콘텐트를 재생하며, 워드 프로세싱, 프로그램들, 또는 비디오 게임들과 같은 애플리케이션들을 실행하는 능력을 포함한다. 많은 휴대폰들은 GPS를 포함하고, 또한 터치 스크린 패널을 사용자 인터페이스의 일부로서 포함한다.
휴대폰은 다른 주요 구성요소들 각각에 결합되어 있는 주 프로세서(main processor)(150)를 포함한다. 주 프로세서 또는 프로세서들은 네트워크 인터페이스들, 카메라(140), 터치 스크린(170), 및 다른 입력/출력(I/O) 인터페이스(180)와 같은 다양한 구성요소들 간에 정보를 라우팅한다. 주 프로세서(150)는 또한 디바이스 상에서 직접 또는 오디오/비디오 인터페이스를 통해 외부 디바이스 상에서 재생하기 위해 오디오 및 비디오 콘텐트를 처리한다. 주 프로세서(150)는 카메라(140), 터치 스크린(170), 및 USB 인터페이스(130)와 같은 다양한 서브 디바이스들을 제어하도록 운용된다. 주 프로세서(150)는 컴퓨터와 유사하게 데이터를 조작하는 데 사용되는 서브루틴들을 휴대폰에서 실행하도록 추가로 운용된다. 예를 들어, 주 프로세서는 카메라 기능(140)에 의해 사진이 촬영된 후에 이미지 파일들을 조작하기 위해 사용될 수 있다. 이러한 조작들은 크로핑(cropping), 압축, 색 및 밝기 조절 등을 포함할 수 있다.
셀 네트워크 인터페이스(110)는 주 프로세서(150)에 의해 제어되고, 셀룰러 무선 네트워크를 통해 정보를 수신 및 전송하기 위해 사용된다. 이 정보는 TDMA(time division multiple access), CDMA(code division multiple access) 또는 OFDM(Orthogonal frequency-division multiplexing)과 같은 다양한 포맷들로 인코딩될 수 있다. 정보가 디바이스로부터 셀 네트워크 인터페이스(110)를 통해 전송 및 수신된다. 이 인터페이스는 정보를 전송을 위해 적절한 포맷으로 인코딩 및 디코딩하기 위해 사용되는 여러 안테나 인코더들, 복조기들 등으로 이루어져 있을 수 있다. 셀 네트워크 인터페이스(110)는 음성 또는 텍스트 송신들을 용이하게 하기 위해, 또는 인터넷으로부터 정보를 수신 및 송신하기 위해 사용될 수 있다. 이 정보는 비디오, 오디오, 및/또는 이미지를 포함할 수 있다.
무선 네트워크 인터페이스(120), 또는 wifi 네트워크 인터페이스는 wifi 네트워크를 통해 정보를 송신 및 수신하기 위해 사용된다. 이 정보는 802.11g, 802.11b, 802.11ac 등과 같은 상이한 wifi 표준들에 따라 다양한 포맷들로 인코딩될 수 있다. 이 인터페이스는 정보를 전송을 위해 적절한 포맷으로 인코딩 및 디코딩하고 정보를 복조를 위해 디코딩하기 위해 사용되는 여러 안테나 인코더들, 복조기들 등으로 이루어져 있을 수 있다. wifi 네트워크 인터페이스(120)는 음성 또는 텍스트 전송을 용이하게 하기 위해, 또는 인터넷으로부터 정보를 수신 및 송신하기 위해 사용될 수 있다. 이 정보는 비디오, 오디오, 및/또는 이미지를 포함할 수 있다.
USB(universal serial bus) 인터페이스(130)는 정보를 유선 링크를 통해, 전형적으로 컴퓨터 또는 다른 USB 가능형 디바이스로, 전송 및 수신하기 위해 사용된다. USB 인터페이스(120)는 정보를 송신 및 수신하기 위해, 인터넷에 연결하기 위해, 음성 및 텍스트 통화들을 송신 및 수신하기 위해 사용될 수 있다. 또한, 이 유선 링크는 USB 가능형 디바이스를 모바일 디바이스들의 셀 네트워크 인터페이스(110) 또는 wifi 네트워크 인터페이스(120)를 사용하여 다른 네트워크에 연결시키기 위해 사용될 수 있다. USB 인터페이스(120)는 구성 정보를 컴퓨터로 전송 및 수신하기 위해 주 프로세서(150)에 의해 사용될 수 있다.
메모리(160) 또는 저장 디바이스는 주 프로세서(150)에 결합될 수 있다. 메모리(160)는 모바일 디바이스의 동작에 관련되고 주 프로세서(150)가 필요로 하는 특정 정보를 저장하기 위해 사용될 수 있다. 메모리(160)는 사용자에 의해 저장 및 검색되는 오디오, 비디오, 사진, 또는 다른 데이터를 저장하기 위해 사용될 수 있다.
입력 출력(I/O) 인터페이스(180)는 전화 통화들, 오디오 녹음 및 재생, 또는 음성 활성화 제어에서 사용하기 위한 버튼들, 스피커/마이크를 포함한다. 모바일 디바이스는 터치 스크린 제어기를 통해 주 프로세서(150)에 결합된 터치 스크린(170)을 포함할 수 있다. 터치 스크린(170)은 용량성 및 저항성 터치 센서 중 하나 이상을 사용하는 단일 터치 또는 다중 터치 스크린일 수 있다. 스마트폰은 또한 온/오프 버튼, 활성화 버튼, 볼륨 컨트롤, 벨소리 컨트롤, 및 다중 버튼 키패드 또는 키보드와 같은, 그러나 이들로 제한되지 않는 부가의 사용자 컨트롤들을 포함할 수 있다.
이제 도 2를 참조하면, 본 발명에 따른, 활성 디스플레이(200)를 갖는 예시적인 모바일 디바이스 디스플레이가 도시된다. 예시적인 모바일 디바이스 애플리케이션은 사용자가 임의의 프레이밍에서 기록하고 촬영 동안 그의 디바이스를 자유롭게 회전시킬 수 있게 하며, 촬영 동안 디바이스의 뷰파인더 상에 오버레이로 최종 출력을 시각화하고, 궁극적으로 최종 출력에서의 그의 배향에 대해 정정하도록 운용된다.
예시적인 실시예에 따르면, 사용자가 촬영을 시작할 때, 그의 현재 배향이 고려되고, 장치의 센서에 기초한 중력 벡터가 수평선을 정렬(register)시키기 위해 사용된다. 디바이스의 화면 및 관련 광 센서가 폭보다 높이가 더 큰 포트레이트(portrait)(210), 또는 디바이스의 화면 및 관련 광 센서가 높이보다 폭이 더 큰 랜드스케이프(landscape)(250)와 같은 각각의 가능한 배향에 대해, 최적의 목표 종횡비가 선택된다. 주어진 (현재) 배향에 대한 원하는 최적의 종횡비를 고려하여 센서의 최대 경계들에 가장 적합한 삽입 직사각형(inset rectangle)(225)이 전체 센서 내에 내접(inscribe)된다. 센서의 경계들(boundaries)은 정정을 위한 '여유 공간(breathing room)'을 제공하기 위해 약간 패딩되어(padded) 있다. 이 삽입 직사각형(225)은 회전(220, 230, 240)을 보상하기 위해 디바이스의 통합된 자이로스코프로부터 샘플링되는 디바이스 자신의 회전의 반대로 본질적으로 회전하는 것에 의해 변환된다. 변환된 내부 직사각형(225)은 전체 센서의 최대 이용가능한 경계들에서 패딩을 뺀 것 내부에 최적으로 내접된다. 디바이스의 현재 대부분인 배향에 따라, 변환된 내부 직사각형(225)의 치수들이 회전의 양에 대해 2개의 최적 종횡비들 사이에서 보간(interpolate)되도록 조절된다.
예를 들어, 포트레이트 배향에 대해 선택된 최적의 종횡비가 정사각형(1:1)이고 랜드스케이프 배향에 대해 선택된 최적의 종횡비가 와이드(wide)(16:9)인 경우, 내접된 직사각형은 하나의 배향에서 다른 배향으로 회전될 때 1:1과 16:9 사이에서 최적으로 보간될 것이다. 내접된 직사각형이 샘플링되고, 그 후 최적의 출력 치수에 맞도록 변환된다. 예를 들어, 최적의 출력 치수가 4:3이고 샘플링된 직사각형이 1:1인 경우, 샘플링된 직사각형이 애스팩트 필(aspect filled)(1:1 영역을 광학적으로 완전히 채우고, 필요에 따라 데이터를 크로핑함)되거나 애스팩트 피트(aspect fit)(1:1 영역 내부에 광학적으로 완전히 맞추고, '레터 박싱(letter boxing)' 또는 '필러 박싱(pillar boxing)'으로 임의의 사용되지 않는 영역을 블랙 아웃(black out)함)될 것이다. 결국, 결과물은 콘텐트 프레이밍(content framing)이 정정 동안 동적으로 제공되는 종횡비에 기초하여 조절되는 고정 애스팩트 자산(fixed aspect asset)이다. 따라서, 예를 들어, 1:1 내지 16:9 콘텐트로 이루어진 16:9 비디오는 광학적으로 채워진 것(260)(16:9 부분들 동안)과 필러 박싱으로 맞춤된 것(250)(1:1 부분들 동안) 사이에서 왔다갔다(oscillate) 할 것이다.
모든 움직임의 총 집계(total aggregate)가 최적의 출력 종횡비의 선택에 고려되고 가중되는(weighed) 부가의 개선들(refinements)이 적절하다. 예를 들어, 사용자가 포트레이트 콘텐트는 소수이고 '대체로 랜드스케이프'인 비디오를 녹화하는 경우, 출력 포맷은 랜드스케이프 종횡비(포트레이트 세그먼트들을 필러 박싱함)일 것이다. 사용자가 대체로 포트레이트인 비디오를 녹화하는 경우, 반대가 적용된다(비디오가 포트레이트일 것이고 출력을 광학적으로 채우며, 출력 직사각형의 경계들을 벗어나는 임의의 랜드스케이프 콘텐트를 크로핑함).
이제 도 3을 참조하면, 본 개시 내용에 따른, 이미지 안정화 및 리프레이밍을 위한 예시적인 프로세스(300)가 도시된다. 카메라의 캡처 모드가 개시되는 것에 응답하여 시스템이 초기화된다. 이 초기화는 하드웨어 또는 소프트웨어 버튼에 따라 또는 사용자 동작에 응답하여 생성되는 다른 제어 신호에 응답하여 개시될 수 있다. 디바이스의 캡처 모드가 개시되면, 사용자 선택들에 응답하여 모바일 디바이스 센서가 선택된다(320). 사용자 선택들은 터치 스크린 디바이스 상에서의 설정을 통해, 메뉴 시스템을 통해, 또는 버튼이 어떻게 작동되는지에 응답하여 행해질 수 있다. 예를 들어, 한번 눌러지는 버튼은 사진 센서를 선택할 수 있는 반면, 계속 누른 채로 있는 버튼은 비디오 센서를 지시할 수 있다. 또한, 버튼을 미리 결정된 시간, 예컨대 3초 동안 누르고 있는 것은 비디오가 선택되었다는 것을 지시할 수 있고 버튼이 재차 작동될 때까지 모바일 디바이스에서의 비디오 녹화가 계속될 것이다.
적절한 캡처 센서가 선택되면, 본 시스템은 그 후 회전 센서에 측정을 요청한다(320). 회전 센서는 모바일 디바이스의 위치의 수평 및/또는 수직 표시를 결정하는 데 사용되는 자이로스코프, 가속도계, 축 배향 센서, 광 센서 등일 수 있다. 측정 센서는 주기적인 측정들을 제어 프로세서로 전송할 수 있고, 그로써 모바일 디바이스의 수직 및/또는 수평 배향을 계속하여 지시할 수 있다. 이와 같이, 디바이스가 회전될 때, 제어 프로세서는 디스플레이를 계속하여 업데이트하고 연속적인 일관성 있는 수평선을 갖는 방식으로 비디오 또는 이미지를 저장할 수 있다.
회전 센서가 모바일 디바이스의 수직 및/또는 수평 배향의 지시를 리턴한 후에, 모바일 디바이스는 비디오 또는 이미지의 캡처된 배향을 지시하는 삽입 직사각형을 디스플레이 상에 묘사한다(340). 모바일 디바이스가 회전될 때, 시스템 프로세서는 삽입 직사각형을 회전 센서로부터 수신되는 회전 측정과 계속 동기화시킨다(350). 사용자는 옵션적으로 선호하는 최종 비디오 또는 이미지 비율, 예컨대 1:1, 9:16, 16:9, 또는 사용자에 의해 결정된 임의의 비율을 지시할 수 있다. 시스템은 또한 모바일 디바이스의 배향에 따라 상이한 비율들에 대한 사용자 선택을 저장할 수 있다. 예를 들어, 사용자는 수직 배향으로 녹화되는 비디오에 대해서는 1:1 비율을 지시할 수 있지만, 수평 배향으로 녹화되는 비디오에 대해서는 16:9 비율을 지시할 수 있다. 이 경우에, 시스템은 모바일 디바이스가 회전될 때 비디오를 연속적으로 또는 증분적으로 리스케일링할 수 있다(360). 이와 같이, 비디오가 1:1 배향으로 시작할 수 있지만, 사용자가 촬영 동안 수직 배향으로부터 수평 배향으로 회전하는 것에 응답하여 점진적으로 리스케일링되어 16:9 배향으로 끝날 수 있을 것이다. 옵션적으로, 사용자는 시작 배향 또는 종료 배향이 비디오의 최종 비율을 결정하는 것을 지시할 수 있다.
이제 도 4를 참조하면, 본 발명에 따른, 캡처 초기화를 갖는 예시적인 모바일 디바이스 디스플레이(400)가 도시된다. 이미지 또는 비디오를 캡처하기 위한 터치 톤 디스플레이(touch tone display)를 나타내는 예시적인 모바일 디바이스가 도시된다. 본 발명의 양태에 따르면, 예시적인 디바이스의 캡처 모드가 다수의 동작들에 응답하여 개시될 수 있다. 캡처 시퀀스를 개시하기 위해 모바일 디바이스의 하드웨어 버튼들(410) 중 임의의 것이 눌러질 수 있다. 대안적으로, 캡처 시퀀스를 개시하기 위해 소프트웨어 버튼(420)이 터치 스크린을 통해 활성화될 수 있다. 소프트웨어 버튼(420)은 터치 스크린 상에 디스플레이되는 이미지(430) 상에 오버레이될 수 있다. 이미지(430)는 이미지 센서에 의해 캡처되는 현재 이미지를 지시하는 뷰파인더로서 작용한다. 캡처되는 이미지 또는 비디오의 종횡비를 지시하기 위해, 앞서 기술된 바와 같은 내접된 직사각형(440)이 또한 이미지에 오버레이될 수 있다.
캡처 시퀀스는 소프트웨어 버튼 또는 하드웨어 버튼과 같은 버튼을 길게 누르는 것에 의해 활성화될 수 있고, 버튼을 해제하는 것에 의해 비활성화될 수 있다. 대안적으로, 캡처 시퀀스는 버튼을 한번 누르는 것에 의해 활성화되고 그 후 버튼을 재차 누르는 것에 의해 비활성화될 수 있다. 상이한 제스처를 통해 타이머에 상관없이 비디오 녹화 모드가 개시될 수 있다. 이 상이한 제스처는 버튼을 두 번 탭핑하는 것, 버튼을 누른 채로 한쪽으로 스와이프(swipe)하는 것 등을 포함할 수 있다.
이제 도 5를 참조하면, 본 개시 내용에 따른, 이미지 또는 비디오 캡처를 개시하기 위한 예시적인 프로세스(500)가 도시된다. 이미지 소프트웨어(imaging software)가 개시되면, 시스템은 이미지 캡처를 개시하라는 지시를 기다린다. 이미지 캡처 지시가 주 프로세서에 의해 수신되면(510), 디바이스는 이미지 센서로부터 송신되는 데이터를 저장하기 시작한다(520). 또한, 시스템은 타이머를 기동시킨다. 그 후 시스템은 이미지 센서로부터의 데이터를 비디오 데이터로서 계속 캡처한다. 캡처가 중단되었다는 것을 지시하는 캡처 지시로부터의 제2 지시에 응답하여(530), 시스템은 이미지 센서로부터의 데이터를 저장하는 것을 중단하고 타이머를 종료시킨다.
그 후 시스템은 타이머 값을 미리 결정된 시간 임계치와 비교한다(540). 미리 결정된 시간 임계치는 예를 들어 1초와 같은, 소프트웨어 공급자에 의해 결정된 디폴트 값일 수 있거나, 또는 사용자에 의해 결정되는 구성가능한 설정치일 수 있다. 타이머 값이 미리 결정된 임계치 미만인 경우(540), 시스템은 정지 이미지가 요망된 것으로 결정하고 비디오 캡처의 첫 번째 프레임을 정지 이미지로서 정지 이미지 포맷, 예컨대 JPEG 등으로 저장한다(560). 시스템은 옵션적으로 다른 프레임을 정지 이미지로서 선택할 수 있다. 타이머 값이 미리 결정된 임계치 초과인 경우(540), 시스템은 비디오 캡처가 요망된 것으로 결정한다. 그 후 시스템은 캡처 데이터를 비디오 파일로서 비디오 파일 포맷, 예컨대 mpeg 등으로 저장한다(550). 그 후 시스템은 초기화 모드로 되돌아가서, 캡처 모드가 다시 개시되기를 기다릴 수 있다. 모바일 디바이스가 정지 이미지 캡처 및 비디오 캡처를 위한 상이한 센서들을 구비하고 있는 경우, 시스템은 옵션적으로 정지 이미지 센서로부터의 정지 이미지를 저장할 수 있고 비디오 이미지 센서로부터의 캡처 데이터를 저장하기 시작할 수 있다. 타이머 값이 미리 결정된 시간 임계치와 비교될 때, 원하는 데이터는 저장되는 반면, 원하지 않는 데이터는 저장되지 않는다. 예를 들어, 타이머 값이 임계 시간 값을 초과하는 경우, 비디오 데이터가 저장되고 이미지 데이터는 폐기된다.
이제 도 6을 참조하면, 본 발명에 따른 미디어 콘텐트(600)에 대한 미디어 주석들을 디스플레이하는 예시적인 디스플레이 디바이스가 도시된다. 이 예시적인 실시예에서는, 비디오 또는 다른 스트리밍 미디어를 재생할 수 있는 컴퓨터 모니터 또는 텔레비전과 같은 디스플레이 디바이스(610)가 나타내어진다. 대안적으로, 디스플레이 디바이스는 모바일 폰, 태블릿, 또는 유사한 디바이스일 수 있다. 설명의 목적을 위해, 비디오의 프레임이 도시된다. 비디오의 프레임에서 보여질 수 있는 바와 같이, 주석 지시자들(620, 630, 640, 650)은 비디오 상에 중첩되는 것으로 나타내어진다. 이러한 주석 지시자들은 주석자의 방향에 따라 나타내어질 수 있다. 예를 들어, 주석자는 이 예에서 야구 선수에 의한 특별한 피치와 같은, 비디오의 특별한 부분에 대해 주석을 달고 싶을 수 있다. 주석자는 주석 지시자의 시작 시간, 종료 시간, 지속기간, 및/또는 미디어 콘텐트 상의 미디어 주석의 특정 위치를 지시하는 것이 가능할 수 있다.
주석들은 원래 미디어 콘텐트(620) 상에 중첩되는 텍스트 주석들일 수 있거나, 추가적 미디어 콘텐트(650)로의 링크들일 수 있거나, 또는 원래 미디어 콘텐트와 동시에 전체 또는 미리보기 모드에서 플레이되는 추가적 미디어 주석들일 수 있다. 예를 들어, 주석자는 원래 미디어 콘텐트에 대한 응답 비디오를 생성하도록 선택할 수 있거나, 또는 원래 미디어 콘텐트에 응답하여 오디오 주석을 기록할 수 있다. 중첩된 주석들을 가진 미디어 콘텐트의 시청자는 클릭 등을 함으로써, 주석들 중 하나를 활성화하도록 선택할 수 있고, 활성화에 응답하여 비디오 응답 콘텐트가 제시될 수 있다. 비디오 응답 콘텐트가 플레이된 후, 시청자는 주석이 활성화되었던 때의 원래 미디어 콘텐트 내의 포인트로 되돌아갈 수 있음으로써, 원래 미디어 콘텐트의 시청을 계속한다. 대안적으로, 미디어 주석들은 원래 미디어 콘텐트 오디오 대신에 플레이되는 오디오 주석일 수 있다. 그러므로, 원래 미디어 비디오의 일부에 걸쳐 주석자가 말하는 것이 들릴 수 있다. 비디오 주석은 활성화되거나 비활성화된 주석 오디오와 함께 더 작은 주석 윈도우에서 플레이되도록 인에이블될 수 있다. 그러므로, 시청자가 원래 콘텐트를 보고 있을 때, 미디어 주석의 화상 내의 화상(PIP) 뷰가 더 작은 주석 윈도우에서 플레이된다.
비디오와 같은, 특별한 미디어 콘텐트에 대해 많은 수의 주석들이 수신될 때, 시청자들의 관점에서 혼동될 수 있거나 또는 시간이 지나치게 소모될 수 있다. 예를 들어, 미디어 주석들이 원래 미디어 콘텐트 내로 통합된다면, 너무 많은 미디어 주석들이 플레이되기 때문에 시청자는 원래 콘텐트의 트랙을 상실할 수 있거나, 또는 원래 미디어 주석의 뷰가 모호해진다. 시청자는 모두로부터의 주석들을 시청하고 싶지 않을 수 있지만, 더 개인적으로 관련된 주석들을 시청하기 위해 기여자들의 특정 그룹들로부터의 주석들만 시청 또는 보고 싶을 수 있다. 어떤 때, 시청자는 가족 및 친구들과 같은, 일 그룹으로부터의 주석들에 관심이 있을 수 있지만, 다른 때, 시청자는 기여자들로부터 공통 협력 그룹들에의 주석들만을 시청하고 싶을 수 있다. 그러므로, 본 시스템은 사용자가 원하는 때에 원하는 주석들을 시청하기 위해 그룹들을 선택하고 우선순위화하는 것을 허용하는 사용자 인터페이스를 포함한다.
미디어 주석 지시자들의 속성들은 사용자와의 관계에 기초하여 스케일링 또는 가중화될 수 있다. 예를 들어, 주석자가 가까운 친구라면, 지시자(620, 650)는 더 두드러지고, 이차 친구, 또는 친구의 친구라면, 주석 지시자(630)는 약간 더 작을 수 있다. 모르는 주석자들 또는 특정 그룹의 멤버들은 훨씬 더 작게 보여질 수 있거나, 또는 비디오(640) 상에 중첩되는 수치로서 보여질 수 있다. 수치 주석을 활성화하는 것은 그 그룹 내의 주석자들에 의한 주석들의 리스트에 시청자를 데려올 수 있다. 주석자들은 시청자에 대한 관계, 원래 콘텐트 생성자에 대한 관계, 특정 그룹 내의 주석자 멤버십에 기초하여, 또는 호감들 또는 긍정적인 참조들 등과 같은 소셜 등급 시스템에 기초하여 더 두드러지게 될 수 있다.
주석들, 예를 들어, 가까운 친구들로부터의 주석들의 수가 증가함에 따라, 지시자의 스케일이 또한 변화될 수 있다. 예를 들어, 단일 미디어 주석이 가까운 친구에 의해 제공되었다면, 주석 지시자는 원래 미디어 콘텐트 프레임 사이즈의 3%를 커버하는 주석 지시자로서 디스플레이될 수 있다. 가까운 친구들에 의해 미리 결정된 개수의 미디어 주석들, 예컨대 4개의 미디어 주석들이 수신되었을 때, 주석 지시자들 각각의 사이즈는 원래 미디어 콘텐트 프레임 사이즈의 1%로 감소된다. 낮은 우선 순위 주석들은 또한 이에 따라 스케일링되고, 아마 어떤 주석 지시자들은 제거되고, 수치 지시자(640)가 증분된다.
이제 도 7을 참조하면, 본 발명의 다른 양태에 따른 미디어 콘텐트(700)에 대한 미디어 주석들을 디스플레이하는 제2 예시적인 디스플레이 디바이스가 도시된다. 이 예시적인 실시예에서, 비디오 또는 다른 스트리밍 미디어를 재생할 수 있는 컴퓨터 모니터 또는 텔레비전과 같은 디스플레이 디바이스(710)가 나타내어진다. 설명의 목적을 위해, 비디오의 프레임이 도시된다. 이 실시예에서, 주석들은 미디어 콘텐트의 외부에 위치될 수 있지만, 전술한 실시예들과 유사한 방식으로 디스플레이될 수 있다. 예를 들어, 원래 미디어 콘텐트가 제1 윈도우에서 플레이되고 있는 동안, 비디오 주석들(720)이 동시에 사이드바 등에서 플레이될 수 있으며, 여기서 주석들은 시청자에게 시청가능 하지만, 원래 미디어 콘텐트의 일부를 커버하지 않는다. 부가적으로, 텍스트 또는 오디오 주석들(730)이 원래 미디어 콘텐트뿐만 아니라 추가적 주석들(740)에 대한 지시자와 함께 디스플레이될 수 있다. 전술한 바와 같이, 주석들의 타이밍은 주석자의 명령어들에 따라 시간이 정해질 수 있거나, 또는 원래 미디어 콘텐트의 전체 길이 동안 디스플레이될 수 있다.
주석들은 비디오 내의 특별한 포인트에 주석자에 의해 위치된다. 주석자는 주석에 관련된 비디오 내의 관심 대상을 식별할 수 있다. 예를 들어, 주석자는 이 예시적인 실시예에서 투수의 투구 자세가 좋다고 지시할 수 있다. 이 텍스트의 분석은 원래 미디어 콘텐트의 그 부분이 야구에 관련되거나, 또는 더 구체적으로는, 야구공을 던지는 것과 관련된다고 결정하는 데 사용될 수 있다. 텍스트의 분석은 비디오에 관한 감정 데이터를 구할 수 있다. 예를 들어, 비디오의 호감 부분들과 섹션들이 호감의 주석들로부터 결정될 수 있고, 비디오의 비호감 부분들은 비호감의 주석들로부터 결정될 수 있다. 그러므로, 콘텐트 제공자는 긍정적인 주석들과 연관된 원래 미디어 콘텐트의 부분들에 기초하여 원래 미디어 콘텐트의 미리보기들 또는 광고들을 생성하고 싶을 수 있다.
이제 도 8을 참조하면, 본 발명에 따른 미디어 콘텐트 재생의 예시적인 재생 타임라인들(700)이 도시된다. 원래 미디어 콘텐트 타임라인(810)은 T-0초부터 T=60초까지, 60초 동안 중단 없이 계속되는 것으로 나타내어진다. 미디어 주석들(821, 823, 825)은 시작 시간과 지속기간을 나타내며 타임라인 아래에 나타내어진다. 주석 C1(821)에 대한 T=10초와 같은 시작 시간이 주석자에 의해 선택되고, 주석의 지속기간은 디폴트 지속기간, 예컨대 10초일 수 있거나, 또는 원래 미디어 콘텐트에 응답하여 주석자에 의해 옵션적으로 선택될 수 있다. 마찬가지로 주석 C2(823)는 T=20초의 선택된 시작 시간을 가지고, 주석 C3(825)은 T=40초의 선택된 시작 시간을 갖는다. 상부 타임라인(810)은 원래 콘텐트의 실행 시간과, 주석들 C1, C2, C3(821, 823, 825)이 디스플레이될 시간을 나타낸다.
옵션으로, 시청자는 원래 콘텐트의 재생 내로 일부 주석들을 통합시켜 디스플레이하기로 선택할 수 있다. 통합된 미디어 타임라인(830)은 재생 내로 통합된 주석들 C1, C2, 및 C3과 원래 미디어 콘텐트의 재생 타임라인을 나타낸다. 그러므로, 이 예시적인 실시예에서, 시청자는 원래 콘텐트를 처음 10초 동안 볼 수 있고, 그 후 미디어 주석 C1이 시청자에게 디스플레이된다. 주석 C1이 종료한 후, 원래 미디어 콘텐트의 재생이 다른 10초 동안 재개된다. 그 후 미디어 주석 C2가 시청자에게 디스플레이된다. 미디어 주석 C2가 완료될 때, 원래 미디어 콘텐트의 재생이 다른 20초 동안 재개되고 그 후 미디어 주석 C3이 플레이된다. 미디어 주석 C3이 종결된 후, 원래 미디어 콘텐트의 나머지가 다른 20초 동안 재개된다.
이제 도 9를 참조하면, 본 개시 내용에 따른 미디어 콘텐트(900)에 미디어 주석들을 생성하기 위한 예시적인 프로세스가 도시된다. 예시적인 프로세스들은 IP 네트워크 상의 서버, 케이블, 위성, 셀룰러, 또는 파이버 송신 네트워크의 헤드 엔드에 의해, 또는 방송 신호 공급자에 의해 수행될 수 있다. 시스템은 전술한 방식으로 미디어 콘텐트와 주석들 양쪽을 갖는 결합된 미디어 파일을 운반하도록 운용된다.
프로세스는 우선 제1 미디어 콘텐트(910)에 대한 요청을 수신하도록 운용된다. 제1 미디어 콘텐트는 비디오 파일, 오디오 파일, 또는 멀티미디어 제시일 수 있다. 요청은 방송 채널들 또는 그와 유사한 것을 통하여 모바일 네트워크, 인터넷을 통해 수신될 수 있다. 요청은 사용자가 제1 미디어 콘텐트를 시청하기 위해 요청하는 경우 사용자 입력에 응답하여 생성될 수 있다.
제1 미디어 콘텐트에 대한 요청을 수신하면, 시스템은 우선 제1 미디어 콘텐트가 이용가능한지 결정한다. 제1 미디어 콘텐트가 이용가능하다고 결정되면, 시스템은 제1 미디어 콘텐트(920)에 관련된 주석들을 검색한다. 이러한 주석들은 이전에 콘텐트를 시청했던 주석자들에 의해 생성되었을 수 있다. 주석들은 텍스트, 오디오 파일들, 비디오 파일들, 또는 멀티미디어 제시들일 수 있다. 주석이 존재한다고 시스템이 결정하면(930), 주석 또는 주석들은 제1 미디어 콘텐트와 결합되고, 요청한 디바이스(950)에 송신된다. 주석들과 제1 미디어 콘텐트는 콘텐트와 함께 저장된 메타데이터, 예컨대 시작 시간, 위치, 기타 등등에 부분적으로 응답하여 결합된다. 주석들이 발견되지 않는다면, 시스템은 제1 미디어 콘텐트를 요청한 디바이스(935)에 송신한다.
이제 도 10을 참조하면, 본 개시 내용에 따른 미디어 콘텐트(1000) 내에 미디어 주석들을 생성하는 제2 예시적인 프로세스가 도시된다. 예시적인 프로세스들은 양방향 통신에 의해 네트워크, 예컨대 셀룰러, 텔레비전, 케이블, 파이버, 또는 방송 네트워크를 통해 연결된 텔레비전 수신기, 컴퓨터, 태블릿, 모바일 디바이스, 또는 임의의 다른 미디어 플레이어 상의 서버에 의해 수행될 수 있다. 시스템은 전술한 방식으로 배열된 미디어 콘텐트와 주석들 양쪽을 갖는 결합된 미디어 파일을 생성하도록 운용된다.
시스템은 사용자 입력(1010)에 응답하여 제1 미디어 콘텐트에 대한 요청을 수신하도록 운용된다. 이 사용자 입력은 터치 스크린, 버튼, 키보드, 또는 다른 사용자 인터페이스를 통해 수신될 수 있다. 요청에 응답하여, 시스템은 제1 미디어 콘텐트(1020)에 대한 요청을 서버 또는 그와 유사한 것에 송신한다. 시스템은 제1 미디어 콘텐트를 수신 및 저장하도록 구비된다. 그 후 시스템은 상기 제1 미디어 콘텐트(1030)에 관련된 주석들을 찾기 위해 데이터베이스 또는 그와 유사한 것을 검색한다. 이 검색은 로컬 메모리, 로컬 데이터베이스, 원격 데이터베이스, 또는 원격 데이터 저장 호스트를 검색함으로써 수행될 수 있다. 검색은 대안적으로 원격 디바이스로부터의 주석들을 요청함으로써 수행될 수 있고, 여기서 원격 디바이스는 주석들을 검색하고, 임의의 주석들이 이용가능하다면 적어도 하나의 주석을 제공한다. 시스템은 제1 미디어 콘텐트에 관련된 임의의 주석들을 요청하여 수신하고 주석들을 메모리에 저장하도록 더 운용된다.
주석들이 이용가능하다고 시스템이 결정하면(1032), 시스템은 데이터 서버 또는 그와 유사한 것으로부터의 주석들을 네트워크를 통해 요청한다. 그 후 시스템은 제1 미디어 콘텐트와 적어도 하나의 주석을 결합된 미디어 콘텐트로 결합한다(1040). 그 후 결합된 미디어 콘텐트를 포함하는 디스플레이(1050)에 적합한 시스템에 의해 신호가 생성된다. 시스템은 결합된 미디어 콘텐트를 디스플레이하도록 운용될 수 있거나, 또는 결합된 미디어 콘텐트는 사용자에게의 디스플레이를 위해 다른 디바이스에 송신될 수 있다. 주석들이 이용가능하지 않다면(1032), 디바이스는 제1 미디어 콘텐트를 포함하는 신호를 생성하도록 운용된다. 시스템은 제1 미디어 콘텐트를 디스플레이하도록 운용될 수 있거나, 또는 제1 미디어 콘텐트는 사용자에게의 디스플레이를 위해 다른 디바이스로 송신될 수 있다. 부가적으로, 시스템은 여러 주석들과 제1 미디어 콘텐트를 단일의 결합된 미디어 콘텐트로 결합할 수 있다.
상기에서 나타내어지고 논의된 요소들은 하드웨어, 소프트웨어, 또는 그들의 조합들의 다양한 형태들로 구현될 수 있다는 것을 이해해야 한다. 바람직하게, 이러한 요소들은 프로세서, 메모리, 및 입력/출력 인터페이스들을 포함할 수 있는 하나 이상의 적절히 프로그램된 범용 디바이스들 상에서 하드웨어와 소프트웨어의 조합으로 구현된다. 본 설명은 본 개시 내용의 원리들을 설명한다. 따라서, 통상의 기술자가, 본 명세서에 명확히 기술되거나 나타내어지진 않았어도, 본 개시 내용의 원리들을 구현하며 그 범위 내에 포함되는 다양한 구성들을 안출할 수 있을 것임을 이해할 것이다. 본 명세서에서 인용되는 모든 예들 및 조건부 언어는 본 개시 내용의 원리들, 및 기술을 발전시키기 위해 발명자에 의해 기여된 개념들을 독자가 이해하는 데 도움을 주도록 정보 제공 목적을 위해 의도된 것이고, 그러한 구체적으로 인용된 예들 및 조건들로 제한되지 않고서 해석되어야 한다. 게다가, 본 개시 내용의 원리들, 양태들, 및 실시예들은 물론 그 구체적인 예들을 인용하는 본 명세서의 모든 서술들은 본 개시 내용의 구조적 및 기능적 등가물들 양쪽을 포괄하도록 의도된다. 부가적으로, 그러한 등가물들은 현재 공지된 등가물들뿐만 아니라 미래에 개발되는 등가물들, 즉, 구조에 상관없이, 동일 기능을 수행하는, 개발되는 임의의 요소들 양쪽을 포함하도록 의도된다. 따라서, 예를 들어, 통상의 기술자는 본 명세서에 제시된 블록도들이 본 개시 내용의 원리들을 구현하는 예시적인 회로의 개념도들을 나타낸다는 것을 이해할 것이다. 유사하게, 임의의 플로우차트, 흐름도, 상태 천이도, 의사코드 등은, 실질적으로 컴퓨터 판독가능 매체에 표현될 수 있어서, 컴퓨터, 또는 프로세서가 명시적으로 나타내어지든지 아니든지 간에, 그러한 컴퓨터 또는 프로세서에 의해 실행될 수 있는 다양한 프로세스들을 나타낸다는 것을 이해할 것이다.

Claims (41)

  1. 방법으로서,
    제1 미디어 콘텐트에 대한 요청을 수신하는 단계;
    상기 제1 미디어 콘텐트에 관련된 제1 주석을 검색하는 단계;
    상기 제1 미디어 콘텐트와 상기 제1 주석을 결합된 미디어 콘텐트로 결합하는 단계; 및
    상기 결합된 미디어 콘텐트를 송신하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 제1 주석은 제2 미디어 콘텐트이고, 상기 결합된 미디어 콘텐트는 상기 제1 미디어 콘텐트 위에 동시에 디스플레이되는 상기 제2 미디어 콘텐트를 포함하는, 방법.
  3. 제1항에 있어서,
    상기 제1 주석은 시작 시간 및 지속기간을 포함하는 메타데이터를 포함하고, 상기 시작 시간은 상기 제1 미디어 콘텐트 내의 시간과 일치하는, 방법.
  4. 제1항에 있어서,
    상기 제1 주석은 상기 주석을 생성하는 주석자에 의해 결정되는 시간에 그리고 지속기간 동안, 디스플레이되는, 방법.
  5. 제1항에 있어서,
    제2 주석을 더 포함하고,
    상기 제1 주석을 생성하는 제1 주석자와 상기 제1 미디어 콘텐트를 생성하는 사용자 사이의 제1 관계, 및 상기 제2 주석을 생성하는 제2 주석자와 상기 제1 미디어 콘텐트를 생성하는 상기 사용자 사이의 제2 관계에 응답하여, 상기 제1 주석은 상기 제2 주석보다 더 크게 디스플레이되는, 방법.
  6. 제1항에 있어서,
    상기 제1 주석은 상기 결합된 미디어 콘텐트 내의 링크로서 디스플레이되고, 상기 링크는 상기 제1 미디어 콘텐트에 관련된 제2 미디어 콘텐트에 연결하는, 방법.
  7. 제1항에 있어서,
    상기 제1 주석은 오디오 콘텐트이고, 상기 오디오 콘텐트는 상기 제1 미디어 콘텐트의 오디오 부분 대신에 플레이되는, 방법.
  8. 제1항에 있어서,
    상기 제1 주석은 상기 결합된 미디어 콘텐트 내의 이미지로서 디스플레이되고, 상기 이미지는 상기 제1 미디어 콘텐트에 관련된 제2 미디어 콘텐트로의 하이퍼링크를 포함하는, 방법.
  9. 제1항에 있어서,
    제2 주석을 더 포함하고, 상기 제1 주석은 이미지로서 디스플레이되고, 상기 제2 주석은 텍스트 스트링으로서 디스플레이되는, 방법.
  10. 제1항에 있어서,
    상기 결합된 미디어 콘텐트 내의 상기 제1 주석의 위치는 사용자 입력에 응답하여 결정되는, 방법.
  11. 방법으로서,
    사용자 입력에 응답하여 제1 미디어 콘텐트에 대한 요청을 생성하는 단계;
    상기 제1 미디어 콘텐트를 수신하는 단계;
    제1 주석을 검색하는 단계 - 상기 제1 주석은 상기 제1 미디어 콘텐트에 관련됨 -;
    상기 제1 주석을 수신하는 단계;
    상기 제1 미디어 콘텐트와 상기 제1 주석을 결합된 미디어 콘텐트로 결합하는 단계; 및
    상기 결합된 미디어 콘텐트를 포함하는 신호를 생성하는 단계를 포함하는, 방법.
  12. 제11항에 있어서,
    상기 제1 주석은 제2 미디어 콘텐트이고, 상기 결합된 미디어 콘텐트는 상기 제1 미디어 콘텐트 위에 동시에 플레이되는 상기 제2 미디어 콘텐트를 포함하는, 방법.
  13. 제11항에 있어서,
    상기 제1 주석은 시작 시간 및 지속기간을 포함하는 메타데이터를 포함하고, 상기 시작 시간은 상기 제1 미디어 콘텐트 내의 시간과 일치하는, 방법.
  14. 제11항에 있어서,
    상기 제1 주석은 상기 주석을 생성하는 주석자에 의해 결정되는 시간에 그리고 지속기간 동안, 디스플레이되는, 방법.
  15. 제11항에 있어서,
    제2 주석을 더 포함하고,
    상기 제1 주석을 생성하는 제1 주석자와 상기 제1 미디어 콘텐트를 생성하는 사용자 사이의 제1 관계, 및 상기 제2 주석을 생성하는 제2 주석자와 상기 제1 미디어 콘텐트를 생성하는 상기 사용자 사이의 제2 관계에 응답하여, 상기 제1 주석은 상기 제2 주석보다 더 크게 묘사되는, 방법.
  16. 제11항에 있어서,
    상기 제1 주석은 상기 결합된 미디어 콘텐트 내의 링크로서 묘사되고, 상기 링크는 상기 제1 미디어 콘텐트에 관련된 제2 미디어 콘텐트에 연결하는, 방법.
  17. 제11항에 있어서,
    상기 제1 주석은 오디오 콘텐트이고, 상기 오디오 콘텐트는 상기 제1 미디어 콘텐트의 오디오 부분 대신에 플레이되는, 방법.
  18. 제11항에 있어서,
    상기 제1 주석은 상기 결합된 미디어 콘텐트 내의 이미지로서 디스플레이되고, 상기 이미지는 상기 제1 미디어 콘텐트에 관련된 제2 미디어 콘텐트로의 하이퍼링크를 포함하는, 방법.
  19. 제11항에 있어서,
    제2 주석을 더 포함하고, 상기 제1 주석은 이미지로서 묘사되고, 상기 제2 주석은 텍스트 스트링으로서 묘사되는, 방법.
  20. 제11항에 있어서,
    상기 결합된 미디어 콘텐트 내의 상기 제1 주석의 위치는 사용자 입력에 응답하여 결정되는, 방법.
  21. 장치로서,
    제1 미디어 콘텐트에 대한 요청을 수신하는 입력;
    상기 제1 미디어 콘텐트에 관련된 제1 주석을 저장하는 메모리;
    상기 제1 미디어 콘텐트와 상기 제1 주석을 결합된 미디어 콘텐트로 결합하기 위해, 상기 제1 미디어 콘텐트와 상기 제1 주석 사이의 관계를 결정하도록 운용되는 프로세서; 및
    상기 결합된 미디어 콘텐트를 송신하는 송신기를 포함하는, 장치.
  22. 제21항에 있어서,
    상기 제1 주석은 제2 미디어 콘텐트이고, 상기 결합된 미디어 콘텐트는 상기 제1 미디어 콘텐트 위에 동시에 묘사되는 상기 제2 미디어 콘텐트를 포함하는, 장치.
  23. 제21항에 있어서,
    상기 제1 주석은 시작 시간 및 지속기간을 포함하는 메타데이터를 포함하고, 상기 시작 시간은 상기 제1 미디어 콘텐트 내의 시간과 일치하는, 장치.
  24. 제21항에 있어서,
    상기 제1 주석은 상기 주석을 생성하는 주석자에 의해 결정되는 시간에 그리고 지속기간 동안, 묘사되는, 장치.
  25. 제21항에 있어서,
    상기 메모리는 제2 주석을 저장하도록 더 운용되고,
    상기 프로세서는 상기 제2 주석을 상기 결합된 미디어 콘텐트 내로 결합하도록 더 운용되고,
    상기 제1 주석을 생성하는 제1 주석자와 상기 제1 미디어 콘텐트를 생성하는 사용자 사이의 제1 관계, 및 상기 제2 주석을 생성하는 제2 주석자와 상기 제1 미디어 콘텐트를 생성하는 상기 사용자 사이의 제2 관계에 응답하여, 상기 제1 주석은 상기 제2 주석보다 더 크게 묘사되는, 장치.
  26. 제21항에 있어서,
    상기 제1 주석은 상기 결합된 미디어 콘텐트 내의 링크로서 묘사되고, 상기 링크는 상기 제1 미디어 콘텐트에 관련된 제2 미디어 콘텐트에 연결하는, 장치.
  27. 제21항에 있어서,
    상기 제1 주석은 오디오 콘텐트이고, 상기 오디오 콘텐트는 상기 제1 미디어 콘텐트의 오디오 부분 대신에 플레이되는, 장치.
  28. 제21항에 있어서,
    상기 제1 주석은 상기 결합된 미디어 콘텐트 내의 이미지로서 묘사되고, 상기 이미지는 상기 제1 미디어 콘텐트에 관련된 제2 미디어 콘텐트에 대한 요청을 생성하기 위해 선택될 수 있는, 장치.
  29. 제21항에 있어서,
    제2 주석을 더 포함하고,
    상기 제1 주석은 이미지로서 디스플레이되고, 상기 제2 주석은 텍스트 스트링으로서 디스플레이되는, 장치.
  30. 제21항에 있어서,
    상기 결합된 미디어 콘텐트 내의 상기 제1 주석의 위치는 사용자 입력에 응답하여 결정되는, 장치.
  31. 장치로서,
    사용자 입력에 응답하여 제어 신호를 생성하는 인터페이스;
    사용자 입력에 응답하여 제1 미디어 콘텐트에 대한 요청을 생성하고, 제1 주석에 대한 요청을 생성하고 - 상기 제1 주석은 상기 제1 미디어 콘텐트에 관련됨 -, 상기 제1 미디어 콘텐트와 상기 제1 주석을 결합된 미디어 콘텐트로 결합하는 프로세서 - 상기 프로세서는 상기 결합된 미디어 콘텐트를 포함하는 신호를 생성하도록 더 운용됨 -; 및
    상기 제1 미디어 콘텐트에 대한 상기 요청 및 상기 제1 주석에 대한 상기 요청을 송신하는 송신기; 및
    상기 제1 미디어 콘텐트 및 상기 제1 주석을 수신하는 입력을 포함하는, 장치.
  32. 제31항에 있어서,
    상기 결합된 미디어 콘텐트를 디스플레이하는 디스플레이를 더 포함하는, 장치.
  33. 제31항에 있어서,
    상기 제1 주석은 제2 미디어 콘텐트이고, 상기 결합된 미디어 콘텐트는 상기 제1 미디어 콘텐트 위에 동시에 플레이되는 상기 제2 미디어 콘텐트를 포함하는, 장치.
  34. 제31항에 있어서,
    상기 제1 주석은 시작 시간 및 지속기간을 포함하는 메타데이터를 포함하고, 상기 시작 시간은 상기 제1 미디어 콘텐트 내의 시간과 일치하는, 장치.
  35. 제31항에 있어서,
    상기 제1 주석은 상기 주석을 생성하는 주석자에 의해 결정되는 시간에 그리고 지속기간 동안, 디스플레이되는, 장치.
  36. 제31항에 있어서,
    제2 주석을 더 포함하고,
    상기 제1 주석을 생성하는 제1 주석자와 상기 제1 미디어 콘텐트를 생성하는 사용자 사이의 제1 관계, 및 상기 제2 주석을 생성하는 제2 주석자와 상기 제1 미디어 콘텐트를 생성하는 상기 사용자 사이의 제2 관계에 응답하여, 상기 제1 주석은 상기 제2 주석보다 더 크게 묘사되는, 장치.
  37. 제31항에 있어서,
    상기 제1 주석은 상기 결합된 미디어 콘텐트 내의 링크로서 묘사되고, 상기 링크는 상기 제1 미디어 콘텐트에 관련된 제2 미디어 콘텐트에 연결하는, 장치.
  38. 제31항에 있어서,
    상기 제1 주석은 오디오 콘텐트이고, 상기 오디오 콘텐트는 상기 제1 미디어 콘텐트의 오디오 부분 대신에 플레이되는, 장치.
  39. 제31항에 있어서,
    상기 제1 주석은 상기 결합된 미디어 콘텐트 내의 이미지로서 디스플레이되고, 상기 이미지는 상기 제1 미디어 콘텐트에 관련된 제2 미디어 콘텐트로의 하이퍼링크를 포함하는, 장치.
  40. 제31항에 있어서,
    제2 주석을 더 포함하고, 상기 제1 주석은 이미지로서 묘사되고, 상기 제2 주석은 텍스트 스트링으로서 묘사되는, 장치.
  41. 제31항에 있어서,
    상기 결합된 미디어 콘텐트 내의 상기 제1 주석의 위치는 사용자 입력에 응답하여 결정되는, 장치.
KR1020167006543A 2013-09-16 2014-08-27 여러 사용자 주석들을 검색하고 그것들을 콘텐트 내에 오버레이하여 비디오들을 브라우징하기 KR20160056888A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361878245P 2013-09-16 2013-09-16
US61/878,245 2013-09-16
US201462003281P 2014-05-27 2014-05-27
US62/003,281 2014-05-27
PCT/US2014/052870 WO2015038338A1 (en) 2013-09-16 2014-08-27 Browsing videos by searching multiple user comments and overlaying those into the content

Publications (1)

Publication Number Publication Date
KR20160056888A true KR20160056888A (ko) 2016-05-20

Family

ID=51539355

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020167006543A KR20160056888A (ko) 2013-09-16 2014-08-27 여러 사용자 주석들을 검색하고 그것들을 콘텐트 내에 오버레이하여 비디오들을 브라우징하기
KR1020167006818A KR20160058103A (ko) 2013-09-16 2014-08-28 이미지들의 그룹에 대한 텍스트 칼라를 생성하는 방법 및 장치
KR1020167006896A KR20160055813A (ko) 2013-09-16 2014-08-29 스마트폰/카메라상에서 터치스크린을 통하여 비디오 편집을 하기 위한 제스처에 기초하여 상호작용하는 그래픽 사용자 인터페이스

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020167006818A KR20160058103A (ko) 2013-09-16 2014-08-28 이미지들의 그룹에 대한 텍스트 칼라를 생성하는 방법 및 장치
KR1020167006896A KR20160055813A (ko) 2013-09-16 2014-08-29 스마트폰/카메라상에서 터치스크린을 통하여 비디오 편집을 하기 위한 제스처에 기초하여 상호작용하는 그래픽 사용자 인터페이스

Country Status (6)

Country Link
US (3) US20160227285A1 (ko)
EP (3) EP3047396A1 (ko)
JP (4) JP2016538657A (ko)
KR (3) KR20160056888A (ko)
CN (3) CN105580013A (ko)
WO (4) WO2015038338A1 (ko)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9237386B2 (en) 2012-08-31 2016-01-12 Google Inc. Aiding discovery of program content by providing deeplinks into most interesting moments via social media
US9401947B1 (en) * 2013-02-08 2016-07-26 Google Inc. Methods, systems, and media for presenting comments based on correlation with content
KR20160056888A (ko) * 2013-09-16 2016-05-20 톰슨 라이센싱 여러 사용자 주석들을 검색하고 그것들을 콘텐트 내에 오버레이하여 비디오들을 브라우징하기
US9942464B2 (en) * 2014-05-27 2018-04-10 Thomson Licensing Methods and systems for media capture and seamless display of sequential images using a touch sensitive device
US20150348325A1 (en) * 2014-05-27 2015-12-03 Thomson Licensing Method and system for stabilization and reframing
EP3206408B1 (en) * 2014-10-10 2020-12-30 Sony Corporation Encoding device and method, playback device and method, and program
KR20170093848A (ko) * 2014-12-12 2017-08-16 나그라비젼 에스에이 사용자 인터페이스의 색상 관리용 그래픽 프로세서 및 사용자 인터페이스의 색상 관리 방법
US10109092B1 (en) * 2015-03-24 2018-10-23 Imagical LLC Automated text layout, color and other stylization on an image or video, and the tracking and application of user color preferences
CN104935980B (zh) * 2015-05-04 2019-03-15 腾讯科技(北京)有限公司 互动信息处理方法、客户端及服务平台
CN104936035B (zh) 2015-06-19 2018-04-17 腾讯科技(北京)有限公司 一种弹幕处理方法及系统
US10671234B2 (en) * 2015-06-24 2020-06-02 Spotify Ab Method and an electronic device for performing playback of streamed media including related media content
CN104980809B (zh) * 2015-06-30 2019-03-12 北京奇艺世纪科技有限公司 一种弹幕处理方法和装置
CN105893012A (zh) * 2015-12-01 2016-08-24 乐视网信息技术(北京)股份有限公司 用于在安卓系统中生成视频截图的方法和装置
CN106940621B (zh) * 2016-01-05 2020-03-03 腾讯科技(深圳)有限公司 图片处理的方法和装置
CN105635822A (zh) * 2016-01-07 2016-06-01 天脉聚源(北京)科技有限公司 一种视频弹幕处理方法及装置
US10622021B2 (en) * 2016-02-19 2020-04-14 Avcr Bilgi Teknolojileri A.S Method and system for video editing
US9940007B2 (en) 2016-02-24 2018-04-10 International Business Machines Corporation Shortening multimedia content
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
CN106227737B (zh) * 2016-07-11 2019-12-03 北京创意魔方广告有限公司 快速生成广告图片平台
KR102630191B1 (ko) * 2016-08-18 2024-01-29 삼성전자 주식회사 전자 장치 및 전자 장치 제어 방법
WO2018093372A1 (en) * 2016-11-17 2018-05-24 Google Llc Media rendering with orientation metadata
US10652618B2 (en) * 2017-02-16 2020-05-12 Facebook, Inc. Transmitting video clips of viewers' reactions during a broadcast of a live video stream
CN106878632B (zh) * 2017-02-28 2020-07-10 北京知慧教育科技有限公司 一种视频数据的处理方法和装置
CN107172444B (zh) * 2017-03-30 2019-07-09 武汉斗鱼网络科技有限公司 一种网络直播重连方法及系统
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
CN107818785A (zh) * 2017-09-26 2018-03-20 平安普惠企业管理有限公司 一种从多媒体文件中提取信息的方法及终端设备
US10587919B2 (en) 2017-09-29 2020-03-10 International Business Machines Corporation Cognitive digital video filtering based on user preferences
US11363352B2 (en) 2017-09-29 2022-06-14 International Business Machines Corporation Video content relationship mapping
CN108600851B (zh) * 2018-03-26 2019-05-07 掌阅科技股份有限公司 用于电子书的直播方法、电子设备及计算机存储介质
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
CN108804184B (zh) * 2018-05-29 2021-10-01 维沃移动通信有限公司 一种显示控制方法及终端设备
CN108829845A (zh) * 2018-06-20 2018-11-16 北京奇艺世纪科技有限公司 一种音频文件播放方法、装置及电子设备
US10650861B2 (en) * 2018-06-22 2020-05-12 Tildawatch, Inc. Video summarization and collaboration systems and methods
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
CN109143628B (zh) * 2018-09-14 2021-09-28 武汉帆茂电子科技有限公司 一种在液晶模组实时显示Flick,Vcom数值的装置及方法
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
CN109408748A (zh) * 2018-10-15 2019-03-01 北京字节跳动网络技术有限公司 用于处理信息的方法和装置
CN109344318B (zh) * 2018-10-15 2020-05-15 北京字节跳动网络技术有限公司 用于处理信息的方法和装置
US11678031B2 (en) * 2019-04-19 2023-06-13 Microsoft Technology Licensing, Llc Authoring comments including typed hyperlinks that reference video content
US11785194B2 (en) 2019-04-19 2023-10-10 Microsoft Technology Licensing, Llc Contextually-aware control of a user interface displaying a video and related user text
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN110366002B (zh) * 2019-06-14 2022-03-11 北京字节跳动网络技术有限公司 视频文件合成方法、系统、介质和电子设备
US11336832B1 (en) * 2019-08-30 2022-05-17 Gopro, Inc. Systems and methods for horizon leveling videos
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
CN111601150A (zh) * 2020-06-05 2020-08-28 百度在线网络技术(北京)有限公司 视频的处理方法和装置
CN111752440A (zh) * 2020-06-29 2020-10-09 北京字节跳动网络技术有限公司 一种多媒体内容展示方法及装置
CN111787223B (zh) * 2020-06-30 2021-07-16 维沃移动通信有限公司 视频拍摄方法、装置和电子设备
CN111857517B (zh) * 2020-07-28 2022-05-17 腾讯科技(深圳)有限公司 视频的信息处理方法、装置、电子设备及存储介质
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN112328136B (zh) * 2020-11-27 2023-09-19 腾讯科技(深圳)有限公司 评论信息的显示方法、装置、设备及存储介质
CN114615510B (zh) * 2020-12-08 2024-04-02 抖音视界有限公司 直播界面显示方法及设备
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
CN114666648B (zh) * 2022-03-30 2023-04-28 阿里巴巴(中国)有限公司 视频播放方法及电子设备

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR910006465B1 (ko) * 1988-12-31 1991-08-26 삼성전자 주식회사 영상신호와 보색관계를 가지는 문자를 영상신호에 삽입하는 문자 합성장치
US6711291B1 (en) * 1999-09-17 2004-03-23 Eastman Kodak Company Method for automatic text placement in digital images
US20040128317A1 (en) * 2000-07-24 2004-07-01 Sanghoon Sull Methods and apparatuses for viewing, browsing, navigating and bookmarking videos and displaying images
WO2002008948A2 (en) * 2000-07-24 2002-01-31 Vivcom, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
JP2002049907A (ja) * 2000-08-03 2002-02-15 Canon Inc デジタルアルバム作成装置およびデジタルアルバム作成方法
KR20020026111A (ko) * 2000-09-30 2002-04-06 구자홍 디지털 방송 수신기의 자동 온스크린 디스플레이 색상변경방법
US7774817B2 (en) * 2001-01-31 2010-08-10 Microsoft Corporation Meta data enhanced television programming
US7050109B2 (en) * 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
KR100828354B1 (ko) * 2003-08-20 2008-05-08 삼성전자주식회사 자막 위치 제어 장치 및 방법
JP4704224B2 (ja) * 2005-03-04 2011-06-15 富士フイルム株式会社 アルバム作成装置、アルバム作成方法、及びプログラム
WO2007105918A1 (en) * 2006-03-15 2007-09-20 Ktf Technologies, Inc. Apparatuses for overlaying images, portable devices having the same and methods of overlaying images
US7735101B2 (en) * 2006-03-28 2010-06-08 Cisco Technology, Inc. System allowing users to embed comments at specific points in time into media presentation
US7646392B2 (en) * 2006-05-03 2010-01-12 Research In Motion Limited Dynamic theme color palette generation
FR2910769B1 (fr) * 2006-12-21 2009-03-06 Thomson Licensing Sas Procede de creation d'un resume d'un document audiovisuel comportant un sommaire et des reportages, et recepteur mettant en oeuvre le procede
JP4673862B2 (ja) * 2007-03-02 2011-04-20 株式会社ドワンゴ コメント配信システム、コメント配信サーバ、端末装置、コメント配信方法、及びプログラム
TR200709081A2 (tr) * 2007-12-28 2009-07-21 Vestel Elektron�K Sanay� Ve T�Caret A.�. Görüntü sistemleri için dinamik renkli kullanıcı.
JP5151753B2 (ja) * 2008-07-10 2013-02-27 株式会社Jvcケンウッド ファイル検索装置、ファイル検索方法および音楽再生装置ならびにプログラム
JP5346941B2 (ja) * 2008-09-16 2013-11-20 パナソニック株式会社 データ表示装置、集積回路、データ表示方法、データ表示プログラム及び記録媒体
WO2010095783A1 (ko) * 2009-02-23 2010-08-26 한국과학기술원 터치 스크린 제어 방법 및 이를 이용하는 터치 스크린 장치
CN102369501A (zh) * 2009-02-23 2012-03-07 胜利电子株式会社 触摸屏控制方法及触摸屏装置
US8860865B2 (en) * 2009-03-02 2014-10-14 Burning Moon, Llc Assisted video creation utilizing a camera
WO2010114528A1 (en) * 2009-03-31 2010-10-07 Hewlett-Packard Development Company, L.P. Background and foreground color pair
US20100306232A1 (en) * 2009-05-28 2010-12-02 Harris Corporation Multimedia system providing database of shared text comment data indexed to video source data and related methods
US20100303365A1 (en) * 2009-05-29 2010-12-02 Min Zhang Methods and apparatus to monitor a multimedia presentation including multiple content windows
US20100318520A1 (en) * 2009-06-01 2010-12-16 Telecordia Technologies, Inc. System and method for processing commentary that is related to content
CA2771379C (en) * 2009-07-16 2019-05-21 Bluefin Labs, Inc. Estimating and displaying social interest in time-based media
CN101667188A (zh) * 2009-07-24 2010-03-10 刘雪英 一种在博客上实现音频视频留言和评论的方法和系统
US8780134B2 (en) * 2009-09-30 2014-07-15 Nokia Corporation Access to control of multiple editing effects
US20110090155A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
US8436821B1 (en) * 2009-11-20 2013-05-07 Adobe Systems Incorporated System and method for developing and classifying touch gestures
US9628673B2 (en) * 2010-04-28 2017-04-18 Microsoft Technology Licensing, Llc Near-lossless video summarization
US20110280476A1 (en) * 2010-05-13 2011-11-17 Kelly Berger System and method for automatically laying out photos and coloring design elements within a photo story
US8811948B2 (en) * 2010-07-09 2014-08-19 Microsoft Corporation Above-lock camera access
US8588548B2 (en) * 2010-07-29 2013-11-19 Kodak Alaris Inc. Method for forming a composite image
WO2012065037A1 (en) * 2010-11-12 2012-05-18 Colormodules Inc. Method and system for color matching and color recommendation
US20120127198A1 (en) * 2010-11-22 2012-05-24 Microsoft Corporation Selection of foreground characteristics based on background
CN102547433A (zh) * 2010-12-07 2012-07-04 华录文化产业有限公司 一种基于播放时间点的互动评论方法和装置
CN102693242B (zh) * 2011-03-25 2015-05-13 开心人网络科技(北京)有限公司 一种网络评论信息的共享方法和系统
CN102780921B (zh) * 2011-05-10 2015-04-29 华为终端有限公司 在观看节目时获取评论信息的方法、系统和装置
US9066145B2 (en) * 2011-06-30 2015-06-23 Hulu, LLC Commenting correlated to temporal point of video data
WO2013027304A1 (ja) * 2011-08-25 2013-02-28 パナソニック株式会社 情報提示制御装置及び情報提示制御方法
US9354763B2 (en) * 2011-09-26 2016-05-31 The University Of North Carolina At Charlotte Multi-modal collaborative web-based video annotation system
US20130091522A1 (en) * 2011-10-05 2013-04-11 Sony Corporation, A Japanese Corporation Method to display additional information on screen
JP5845801B2 (ja) * 2011-10-18 2016-01-20 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
CN102523492B (zh) * 2011-11-18 2015-04-22 深圳创维-Rgb电子有限公司 一种互动评论系统的评论方法、电视机及移动终端
US20130145248A1 (en) * 2011-12-05 2013-06-06 Sony Corporation System and method for presenting comments with media
US20130204833A1 (en) * 2012-02-02 2013-08-08 Bo PANG Personalized recommendation of user comments
JP2015084004A (ja) * 2012-02-10 2015-04-30 パナソニック株式会社 通信装置
US9131192B2 (en) * 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
US9041727B2 (en) * 2012-03-06 2015-05-26 Apple Inc. User interface tools for selectively applying effects to image
US9363220B2 (en) * 2012-03-06 2016-06-07 Apple Inc. Context-sensitive help for image viewing and editing application
CN102722580A (zh) * 2012-06-07 2012-10-10 杭州电子科技大学 一种下载视频网站动态生成视频评论的方法
WO2014013689A1 (ja) * 2012-07-20 2014-01-23 パナソニック株式会社 コメント付き動画像生成装置およびコメント付き動画像生成方法
US9397844B2 (en) * 2012-09-11 2016-07-19 Apple Inc. Automated graphical user-interface layout
CN102905170B (zh) * 2012-10-08 2015-05-13 北京导视互动网络技术有限公司 视频的弹幕方法及系统
CN103034722B (zh) * 2012-12-13 2016-03-30 合一网络技术(北京)有限公司 一种网络视频评论聚合装置及方法
US20140188997A1 (en) * 2012-12-31 2014-07-03 Henry Will Schneiderman Creating and Sharing Inline Media Commentary Within a Network
KR20160056888A (ko) * 2013-09-16 2016-05-20 톰슨 라이센싱 여러 사용자 주석들을 검색하고 그것들을 콘텐트 내에 오버레이하여 비디오들을 브라우징하기

Also Published As

Publication number Publication date
EP3047644B1 (en) 2018-08-08
WO2015038351A1 (en) 2015-03-19
EP3047644A1 (en) 2016-07-27
JP2016538657A (ja) 2016-12-08
JP2016537744A (ja) 2016-12-01
EP3047362A1 (en) 2016-07-27
KR20160055813A (ko) 2016-05-18
JP2019194904A (ja) 2019-11-07
EP3047362B1 (en) 2019-04-17
KR20160058103A (ko) 2016-05-24
WO2015038351A8 (en) 2016-07-21
WO2015038338A1 (en) 2015-03-19
EP3047362B8 (en) 2019-06-12
CN105874780B (zh) 2019-04-09
CN105874780A (zh) 2016-08-17
WO2015038356A1 (en) 2015-03-19
WO2015038356A9 (en) 2015-07-23
US20160232696A1 (en) 2016-08-11
EP3047396A1 (en) 2016-07-27
CN105706437A (zh) 2016-06-22
WO2015038342A1 (en) 2015-03-19
US20160283097A1 (en) 2016-09-29
JP2016539430A (ja) 2016-12-15
CN105580013A (zh) 2016-05-11
US20160227285A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
KR20160056888A (ko) 여러 사용자 주석들을 검색하고 그것들을 콘텐트 내에 오버레이하여 비디오들을 브라우징하기
US9942464B2 (en) Methods and systems for media capture and seamless display of sequential images using a touch sensitive device
JP5020135B2 (ja) 携帯端末装置およびコンピュータプログラム
US20150348325A1 (en) Method and system for stabilization and reframing
KR101643238B1 (ko) 공유된 장치 및 개인용 장치를 이용한 개인맞춤화된 사용자 기능의 협력적 제공
US20110126105A1 (en) Information processing apparatus, bookmark setting method, and program
EP3149617B1 (en) Method and camera for combining still- and moving- images into a video.
US10642403B2 (en) Method and apparatus for camera control using a virtual button and gestures
US20150347561A1 (en) Methods and systems for media collaboration groups
US20150347463A1 (en) Methods and systems for image based searching
RU2632215C2 (ru) Способ и система для стабилизации и центрирования изображения
US20150348587A1 (en) Method and apparatus for weighted media content reduction
JP2007243605A (ja) 通信装置、通信方法及びプログラム
KR20150064613A (ko) 영상 표시 기기 및 그의 동작 방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid