KR20090040758A - 영상 태깅 방법 및 이를 사용하는 영상 재생 장치. - Google Patents
영상 태깅 방법 및 이를 사용하는 영상 재생 장치. Download PDFInfo
- Publication number
- KR20090040758A KR20090040758A KR1020070106253A KR20070106253A KR20090040758A KR 20090040758 A KR20090040758 A KR 20090040758A KR 1020070106253 A KR1020070106253 A KR 1020070106253A KR 20070106253 A KR20070106253 A KR 20070106253A KR 20090040758 A KR20090040758 A KR 20090040758A
- Authority
- KR
- South Korea
- Prior art keywords
- tagging
- key
- character
- scene
- module
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000013507 mapping Methods 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 description 11
- 230000008901 benefit Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
- G06F16/745—Browsing; Visualisation therefor the internal structure of a single video sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/835—Generation of protective data, e.g. certificates
- H04N21/8352—Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
- H04N21/8405—Generation or processing of descriptive data, e.g. content descriptors represented by keywords
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
- H04N9/8227—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/4221—Dedicated function buttons, e.g. for the control of an EPG, subtitles, aspect ratio, picture-in-picture or teletext
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computer Security & Cryptography (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
영상 태깅 방법 및 이를 사용하는 영상 재생 장치가 제공된다. 본 발명의 실시예에 따른 영상 재생 장치는, 영상을 재생하는 재생 모듈과, 재생된 영상의 등장인물의 얼굴을 인식하는 얼굴 인식 모듈과, 등장인물이 등장하는 장면을 태깅하는 태깅키 입력을 수신하여 태깅키와 등장인물의 얼굴이 인식된 장면을 매핑하는 태그 모듈과, 매핑 결과를 저장하는 저장 모듈을 포함한다.
태그(tag), 태깅(tagging), 영상 태깅, 멀티미디어 태깅
Description
본 발명은 영상 태깅 방법 및 이를 사용하는 영상 재생 장치에 관한 것으로, 보다 상세하게는 등장인물에 따라 간편하게 영상을 태깅하고 검색하는 영상 태깅 방법 및 이를 사용하는 영상 재생 장치에 관한 것이다.
태그(Tag)란 정보에 연관되거나 지정된 키워드를 의미하는 것으로서, 아이템을 설명하고 키워드 기반의 분류와 정보 검색을 가능하게 하는 것을 의미한다.
태그는 보통 저자나 창작자 또는 소비자, 사용자들에 의하여 형식에 얽매이지 않고 개인적으로 선택된다. 태그는 일반적으로 컴퓨터 파일, 웹 페이지, 디지털 이미지, 인터넷 북마크 등과 같은 리소스에 사용된다.
최근 웹 2.0 이나 시맨틱 웹(Semantic Web)의 이론에 의하여 태깅(Tagging)은 중요한 요소로 대두되고 있다.
컴퓨터 환경에서 입력되는 태그 정보들은 텍스트 기반의 명시적인 어휘들을 활용할 수 있고, 원하는 순간 접근할 수 있는 경로도 많다. 그러나, TV와 같은 동영상 관련 기기의 경우 컴퓨터와는 달리, 사용자의 명확한 의도를 전달할 수 있는 입력 장치가 없고, 제공되는 입력 장치를 활용하는데도 한계가 있으며, 무엇보다도 사용자가 직접 참여하도록 하게 하는 심성 모델(mental model)이 거의 없다. 또한, 이를 위한 사용 환경이나 기능도 제대로 갖춰져 있지 않다. 이로 인해, 사용자가 원하는 태그 정보를 입력하는데 무리가 있다. 따라서, IPTV, DVD, 다운로드한 동영상, 직접 촬영한 영상 등 손쉽게 영상 컨텐츠를 구할 수는 있지만 원하는 부분을 찾아서 보기에는 어려운 문제점이 있었다.
본 발명은 상기한 문제점을 개선하기 위해 고안된 것으로, 본 발명이 해결하고자 하는 과제는 동영상의 태깅을 등장인물 별로 손쉽게 하도록 하는 영상 태깅 방법 및 이를 사용하는 영상 재생 장치를 제공하는 것이다.
본 발명의 또 다른 과제는 태깅된 동영상을 등장인물 별로 간편하게 검색하는 영상 태깅 방법 및 이를 사용하는 영상 재생 장치를 제공하는 것이다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 영상 재생 장치는, 영상을 재생하는 재생 모듈과, 재생된 영상의 등장인물의 얼굴을 인식하는 얼굴 인식 모듈과, 등장인물이 등장하는 장면을 태깅하는 태깅키 입력을 수신하여 태깅키와 등장인물의 얼굴이 인식된 장면을 매핑하는 태그 모듈과, 매핑 결과를 저장하는 저장 모듈을 포함한다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 영상 태깅 방법은, 영상을 재생하며 재생된 영상의 등장인물의 얼굴을 인식하는 단계와, 등장인물이 등장하는 장면을 태깅하는 태깅키 입력을 수신하여 태깅키와 등장인물의 얼굴이 인식된 장면을 매핑하는 단계와, 매핑 결과를 저장하는 단계를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 영상 태깅 방법 및 이를 사용하는 영상 재생 장치에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 다양하고 방대한 동영상 컨텐츠로부터 사용자의 선호도와 의도에 따라 원하는 동영상 태깅하고 검색을 할 수 있도록 해줄 수 있다는 것으로써, 이러한 검색 방식이 제품에 적용될 경우, 차별화된 특징은 물론 동영상 관련 기기에서의 가장 중요한 검색에 대한 새로운 방식을 제공해 줄 수 있는 장점이 있다.
둘째, IPTV와 같은 양방향성을 가질 수 있는 TV에서 컨텐츠 제공자는 사용자의 선호도나 취향을 직접적으로 수집할 수 있고, 이를 통해 사용자 개인에 맞는 맞 춤형 컨텐츠 제공이나 서비스 제공이 가능한 장점도 있다. 즉, 방송을 소비하는 상황에서의 사용자 입력은 해당 컨텐츠에 대한 정보와 함께 사용자가 선호하는 내용들을 추론할 수 있기 때문에 개인화된 맞춤형 서비스가 가능할 것으로 예상된다. 여기서 컨텐츠에 대한 정보로는 방송 프로그램 명, 장르, 시간대, 출연 배우 등을 포함될 수 있으며, 시스템 자체적으로도 이러한 정보를 기록 보관함으로써, 맞춤형 추천 서비스나 컨텐츠 제공이 가능할 것으로 예상된다.
셋째, 컨텐츠 제공자는 동영상이나 방송의 내용을 쉽게 파악할 수 있도록 요약 영상을 생성, 제공해줄 수 있고, 제품에 적용되는 기술 구현이 용이하기 때문에 부가적인 비용이 추가되지 않아도 가능한 장점도 있다.
넷째, 사용자 측면에서 출연자의 얼굴을 통해 요약 영상을 볼 수 있기 때문에 출연자와 전체 적인 내용의 흐름을 쉽게 파악할 수 있는 장점도 있다.
다섯째, 사용자의 의도를 명확하게 반영할 수 있는 개인용 컴퓨터와 같은 태깅 방식을 확보할 수 있다는 것이고, 이를 통해 AV 제품군에도 적용할 수 있으며, 웹과 연동된 서비스도 가능한 장점도 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발 명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 본 발명의 실시예들에 의하여 영상 태깅 방법 및 이를 사용하는 영상 재생 장치를 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
도 1은 본 발명의 일 실시예에 따른 영상 재생 장치를 나타내는 도면이다.
본 발명의 일 실시예 따른 영상 재생 장치(100)는 재생 모듈(120), 얼굴 인식 모듈(130), 태그 모듈(110) 및 저장 모듈(140)을 포함한다.
영상 재생 장치(100)는 디지털 TV 또는 IPTV의 셋톱박스(Set-Top Box) 및 DVD 등 비디오 재생 장치 등 다양한 장치가 될 수 있다. 또한, 휴대폰, PMP, PDA 등 휴대용 장치가 될 수 있다.
재생 모듈(120)은 영상 재생 장치(100)의 종류에 따라, 영상 신호를 수신하고 디스플레이 장치(180)에서 재생 할 수 있도록 변환하여 영상을 재생하거나, 저장된 영상 파일을 변환하여 재생 한다.
얼굴 인식 모듈(130)은 재생 모듈(120)이 재생중인 장면에서 등장인물의 얼 굴(185)을 인식한다. 얼굴 인식 모듈(130)은 기존의 얼굴 검출 및 인식 알고리즘을 사용하여 영상에 나타난 등장인물의 얼굴(185)을 인식한다.
태그 모듈(110)은 동영상의 등장인물을 태깅하는 입력 장치(170)의 태깅키 입력을 전송받는다. 태그 모듈(110)은 입력된 태깅키와 얼굴 인식 모듈(130)이 등장인물의 얼굴(185)을 인식한 영상을 매핑한다.
사용자가 태깅을 원하는 등장인물이 등장하는 경우 입력 장치(170)의 태깅키를 입력한다. 입력 장치(170)는 일반적으로 동영상 재생 장치(100)를 컨트롤하는 리모컨 등이 될 수 있다.
입력 장치(170)는 크게 일반 모드, 태깅 모드, 검색 모드로 구분될 수 있으며, 이를 위한 특정 버튼을 제공할 수도 있고, 소프트웨어적으로 메뉴를 제공할 수 있다. 태깅 모드의 경우, 리모컨의 숫자 버튼이나 칼라 버튼 등이 태깅을 할 수 있는 버튼으로 활용 가능하고, 검색 모드의 경우에는 반대로 검색을 위한 쿼리(query)가 될 수 있다. 이와 달리, 별도의 모드를 두지 않고, 일반 상황에서도 칼라버튼을 이용해 태깅을 할 수 있고, 태깅 후에는 검색 버튼 또는 메뉴를 제공하여 검색 기능을 수행할 수 있다.
태깅키는 입력 장치(170)의 숫자키(172) 또는 컬러키(173)를 사용한다. 등장인물이 4명 이하인 경우 컬러키(173)를 이용하며, 등장인물이 많은 경우 숫자키(172)를 이용하여 태깅을 한다. 컬러키(173)는 일반적으로 표준화된 리모컨의 빨강, 노랑, 파랑 및 녹색 키이다.
본 발명의 일 실시예에 따르면, 사용자는 디스플레이 장치(180)에 태깅을 원 하는 등장인물 등장하는 경우 입력 장치(170)의 컬러키(173)를 누르고, 태그 모듈(110)은 컬러키(173) 입력을 전송 받는다. 다른 실시예에 따르면, 태그 모듈(110)은 숫자키(172) 입력을 전송 받는다.
본 발명의 일 실시예에 따르면, 입력된 컬러키(173)를 등장인물의 얼굴(185)이 인식된 장면에 매핑한다. 다른 실시예에 따르면, 입력된 숫자키(172)와 등장인물의 얼굴(185)이 인식된 장면에 매핑한다.
사용자가 동일한 등장인물에 대하여 서로 다른 태깅키를 입력하거나, 서로 다른 등장인물에 대하여 동일한 태깅키를 입력하는 경우, 태그 모듈(110)은 중복된 태그 입력임을 알리고 알맞은 태깅키 입력을 유도하는 것이 바람직하다.
태그 모듈(110)은 사용자의 태깅키 입력이 없을 때에도 얼굴 인식 모듈(130)이 인식한 등장인물에 태깅키가 매핑되어 있는 경우 자동으로 태깅을 수행한다. 자동화된 태깅이 이뤄지는 초반에는 결과값들의 정확도가 떨어질 수 있지만, 시간이 지날 수도 성능과 결과는 향상될 것이고, 이는 한번 수행하면 하나의 프로그램이나 시리즈물처럼 여러 개의 프로그램에도 적용할 수 있으며, 등장인물은 같으나 프로그램이 달라서 태깅키가 달라질 수도 있다.
자동으로 태깅 작업이 수행될 때는 화면 상에 사람이 등장하는 영상만을 활용하게 되며, 영상 내에 사람이 존재할지라도 얼굴 인식 모듈(130)이 얼굴을 인식하기 어려울 경우에는 제외한다. 따라서, 사용자는 등장인물이 등장할 때마다 매번 태깅키를 누를 필요는 없으나, 헤어스타일이 바뀌었을 경우나 입고 있던 옷의 변화가 클 때 태깅키를 눌러주는 것이 바람직하다.
태그 모듈(110)은 사용자가 태깅된 등장인물이 등장한 영상을 검색하는 경우 검색하여 그 결과를 표시한다. 이에 대한 자세한 설명은 도 3 및 도 4를 참조하여 후술하기로 한다.
저장 모듈(140)은 태깅키와 등장인물의 얼굴이 인식된 영상이 매핑된 결과를 저장한다. 저장 모듈(140)은 영상 재생 장치(100)내에 저장하거나, 원격지의 서버에 전송하여 저장한다. 저장 모듈(140)은 매핑된 결과인 태깅키, 입력 시간, 프로그램 정보 등을 저장하며. 입력시 태깅된 장면 자체도 저장할 수 있다.
저장 모듈(140)은 사용자가 태깅된 등장인물이 등장한 영상을 검색하는 경우, 저장된 매핑 결과로부터 검색결과를 도출하여 태그 모듈(110)에 전달한다. 저장 모듈(140)은 저장 및 검색이 용이하도록 일반적인 데이터베이스(DB) 시스템으로 구성되는 것이 바람직하다.
저장 모듈(140)인 원격지의 서버에 매핑된 결과를 저장하는 경우, 이는 양방향성을 갖는 TV나 서비스에서 개인화된 맞춤 서비스를 제공하는데 활용될 수 있다. 사용자의 리모컨 입력을 통해 사용자가 선호하는 프로그램을 명확하게 파악할 수 있으며, 선호하는 배우도 파악할 수 있고, 어느 시간대와 요일, 장르 등을 선호하는지도 파악 가능하다. 이를 통해 개인에게 맞는 컨텐츠나 서비스를 제공할 수 있다.
상술한 동영상 재생 장치(100)는 디스플레이 장치(180)와 일체의 하드웨어로 구성될 수 있으며, 입력 장치(170)와 일체의 하드웨어로 구성될 수도 있다.
이 때, 본 실시예에서 사용되는 '모듈'이라는 용어는 소프트웨어 또는 FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 모듈들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
도 2는 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물과 컬러키(173)의 매핑을 나타내는 도면이다.
사용자가 방송 또는 동영상을 시청하는 동안 등장인물들이 등장하는 상황에서 사용자는 입력 장치(170)의 태깅키를 입력하는데, 컬러키(173)가 될 수도 있고, 특정 태깅 모드를 지원한다면 숫자키(172)를 입력할 수도 있다. 여기서 태깅키를 입력한다는 것은 등장인물에 대해 입력 장치(170)의 특정 버튼이나 키 값을 할당한다는 의미이다.
도 2를 참조하면, 예로써 A, B, C, D라는 배우들이 출연하는 방송에서 A 배 우가 나오는 장면에서는 빨간색 키를, B 배우가 나오는 경우에는 녹색 키를, C 배우가 등장하는 경우에는 파란색 키를, D 배우가 등장할 경우에는 노란색 키를 각각 입력한다. 한 명 이상의 배우가 출현할 때는 입력하지 않거나 배우들에 해당하는 키들을 입력할 수도 있다.
상술한 바와 같이 등장인물이 나타나는 시점에서 사용자는 입력 장치(170)의 태깅키를 입력하고, 영상 재생 장치(100)는 이를 기록함에 있어서 해당 등장인물과 입력된 태깅키를 데이터베이스에 저장한다. 여기서 해당 등장인물이라 함은 영상 재생 장치(100)가 사용자의 태깅키 입력 시점의 영상 화면을 입력 데이터로 활용하여, 얼굴인식 기술을 적용하고, 일정 시간/횟수 이상의 입력을 통해 얼굴인식의 성능과 결과도가 높일 수 있다. 이를 통해, 인식된 결과값들을 입력된 태깅키와 방송 프로그램 정보들과 함께 데이터베이스에 저장 보관한다.
사용자는 자신이 선호하는 출연자나 방송 프로에 대해서만 태깅키 입력을 수행할 것이고, 태깅키 입력은 프로그램마다 수행할 수 있으며 달라질 수 있다. 따라서, 위의 A라는 배우가 여러 개의 방송에 겹치기 출연할 지라도 각각 다른 태깅키를 할당할 수도 있고, 동일한 태깅키를 할당할 수도 있다.
도 2에서와 같이 출연 배우가 여러 명이면 각각에 해당하는 컬러키를 할당할 수 있다. 만약, 방송 내의 출연자가 여러 명이거나 사용자가 태깅하고자 하는 배우가 여러 명일 경우에는 이를 보완할 수 있는 태깅 모드를 추가하여 숫자 버튼을 활용할 수도 있다.
단, 사용자의 버튼 입력 시점의 영상에 인물이 없는 경우에는 무시할 수 있 다. 또한, 드라마와 같이 등장인물이 고정되어 있으며 여러 편의 시리즈인 경우에는 미리 등장인물과 컬러키를 셋팅해 줄 수도 있다.
도 3은 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물에 따른 검색 결과를 나타내는 도면이다.
사용자나 시스템에 의해 수동 또는 자동으로 태깅된 결과들을 이용하여, 사용자는 검색 기능을 수행할 수 있는데, 검색된 결과는 태깅키에 매핑된 등장인물이 있는 장면에 한해서이다.
사용자가 검색키를 입력하는 등 검색 명령을 수행하는 경우, 매핑된 등장인물과 태깅된 장면들이 도 3과 같이 나타난다. 사용자에게는 해당 장면들이 보여지고, 사용자는 이로부터 원하는 장면을 선택 재생할 수 있다.
검색 결과가 보여지는 화면은 GUI에 따라 달라질 수 있으나, 검색결과를 화면에 썸네일처럼 보여줄 수 있는 GUI가 제공되는 것이 바람직하며, 검색 결과 전체를 화면에 한꺼번에 표시할 필요는 없다.
특정 영상 소스 별로 검색할 수 있으며, 경우에 따라서는 태깅키를 눌러 매핑된 등장인물이 등장하는 복수의 영상 소스를 검색하여 나타낼 수도 있다.
도 4는 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물 별 영상 요약을 수행하는 도면이다.
검색을 통해 선호하는 등장인물이나 영상의 원하는 위치를 찾아갈 수 있고, 결과를 통해 사용자는 해당 영상을 요약해서 볼 수 있다. 검색 결과 화면에서 요약해서 보는 기능을 바로 제공하거나, 요약해서 보기를 검색과 같이 수행함으로써 바 로 영상을 요약할 수 있다. 여기서 영상을 요약해보는 필터의 기준은 사용자가 태깅키에 매핑 할당한 등장인물들이 될 것이며, 이는 사용자의 명확한 의도와 선호도가 반영되었다고 볼 수 있다.
도 4의 (a)에서와 같이 검색 결과에서 특정 등장 인물을 태깅키 입력 등을 통해 선택하게 되면 도 4의 (b)와 같이 해당 등장 인물이 등장한 장면만을 재생하여 영상을 요약할 수 있다.
도 5는 본 발명의 일 실시예에 따른 영상 태깅 방법을 나타내는 순서도이다.
영상을 재생하며 등장인물의 얼굴을 인식한다(S210). 영상 재생 장치(100)가 디지털 TV 또는 IPTV의 셋톱박스(Set-Top Box) 등일 경우 영상 재생 장치(100)의 재생 모듈(120)은 영상 신호를 수신하여 디스플레이 장치(180)에서 재생 할 수 있도록 변환하여 영상을 재생한다. 또한, 영상 재생 장치(100)가 DVD 등 비디오 재생 장치이거나 휴대폰, PMP, PDA 등 휴대용 장치인 경우 영상 재생 장치(100)의 재생 모듈(120)은 저장된 영상 파일을 변환하여 재생 한다.
재생시 얼굴 인식 모듈(130)은 재생 모듈(120)이 재생중인 장면에서 등장인물의 얼굴(185)을 인식한다. 얼굴 인식 모듈(130)은 기존의 얼굴 검출 및 인식 알고리즘을 사용하여 영상에 나타난 등장인물의 얼굴(185)을 인식한다.
사용자가 태깅하고 싶은 등장인물에 따라 태깅키를 입력하면, 영상 재생 장치(100)는 입력된 태깅키와 영상을 매핑한다(S220). 본 발명의 일 실시예에 따르면, 사용자는 디스플레이 장치(180)에 태깅을 원하는 등장인물 등장하는 경우 입력 장치(170)의 컬러키(173)를 누르고, 태그 모듈(110)은 컬러키(173) 입력을 전송 받 는다. 다른 실시예에 따르면, 태그 모듈(110)은 숫자키(172) 입력을 전송 받는다.
태깅키 입력을 전송 받으면, 태그 모듈(110)은 입력된 태깅키와 얼굴 인식 모듈(130)이 등장인물의 얼굴(185)을 인식한 영상을 매핑한다.
중복된 태그 입력인지 판단한다(S230). 태그 모듈(110)은 얼굴 인식 모듈(130)이 인식한 등장인물의 얼굴과 기 저장된 매핑값을 바탕으로 사용자가 동일한 등장인물에 대하여 서로 다른 태깅키를 입력하거나, 서로 다른 등장인물에 대하여 동일한 태깅키를 입력하였는지 판단한다.
중복된 태그 입력인 경우 중복 입력임을 알리고 다른 태깅키 입력을 유도한다(S240). 사용자가 동일한 등장인물에 대하여 서로 다른 태깅키를 입력하거나, 서로 다른 등장인물에 대하여 동일한 태깅키를 입력하는 경우, 태그 모듈(110)은 중복된 태그 입력임을 알리고 알맞은 태깅키 입력을 유도한다.
중복된 태그 입력이 아닌 경우, 매핑된 결과를 저장한다(S250). 저장 모듈(140)은 태깅키와 등장인물의 얼굴이 인식된 영상이 매핑된 결과를 저장한다. 저장 모듈(140)은 영상 재생 장치(100)내에 저장하거나, 원격지의 서버에 전송하여 저장한다. 저장 모듈(140)은 매핑된 결과인 태깅키, 입력 시간, 프로그램 정보 등을 저장하며. 입력시 캡처한 영상 자체도 저장할 수 있다.
등장인물별 자동 태깅이 수행된다(S260). 태그 모듈(110)은 사용자의 태깅키 입력이 없을 때에도 얼굴 인식 모듈(130)이 인식한 등장인물에 태깅키가 매핑되어 있는 경우 자동으로 태깅을 수행한다. 자동화된 태깅이 이뤄지는 초반에는 결과값들의 정확도가 떨어질 수 있지만, 시간이 지날 수도 성능과 결과는 향상될 것이고, 이는 한번 수행하면 하나의 프로그램이나 시리즈물처럼 여러 개의 프로그램에도 적용할 수 있으며, 등장인물은 같으나 프로그램이 달라서 태깅키가 달라질 수도 있다.
자동으로 태깅 작업이 수행될 때는 화면 상에 사람이 등장하는 영상만을 활용하게 되며, 영상내에 사람이 존재할지라도 얼굴 인식 모듈(130)이 얼굴을 인식하기 어려울 경우에는 제외한다.
자동으로 태깅된 결과 역시 저장 모듈(140)에 의하여 저장된다.
도 6은 본 발명의 일 실시예에 따른 영상 태깅 방법에서 검색 방법을 나타내는 순서도이다.
태깅된 영상을 검색한다(S310). 사용자가 검색키를 입력하는 등 검색 명령을 수행하는 경우, 저장 모듈(140)은 사용자가 태깅된 등장인물이 등장한 영상을 검색하는 경우, 저장된 매핑 결과로부터 검색결과를 도출하여 태그 모듈(110)에 전달한다.
검색 결과를 화면에 표시한다(S320). 태그 모듈(110)은 저장 모듈(140)로부터 전달받은 검색 결과를 표시한다. 검색 결과가 보여지는 화면은 GUI에 따라 달라질 수 있으나, 검색결과를 화면에 썸네일처럼 보여줄 수 있는 GUI가 제공되는 것이 바람직하며, 검색 결과 전체를 화면에 한꺼번에 표시할 필요는 없다. 특정 영상 소스 별로 검색할 수 있으며, 경우에 따라서는 태깅키를 눌러 매핑된 등장인물이 등장하는 복수의 영상 소스를 검색하여 나타낼 수도 있다.
요약 영상을 보고 싶은 등장인물을 선택한다(S330). 사용자는 특정 등장 인 물을 태깅키 입력 등을 통해 선택한다. 사용자가 등장인물을 선택하면, 태그 모듈(110)은 선택된 특정 등장 인물에 대한 영상 정보 또는 캡처한 영상을 저장 모듈(140)에 요청한다.
선택된 등장인물이 등장한 장면을 재생한다(S340). 저장 모듈(140)이 추출한 선택된 등장인물이 등장한 장면을 재생 모듈(120)이 재생한다. 이를 통하여 등장 인물이 등장한 장면만을 재생하여 영상을 요약할 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
도 1은 본 발명의 일 실시예에 따른 영상 재생 장치를 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물과 컬러키의 매핑을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물에 따른 검색 결과를 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물 별 영상 요약을 수행하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 영상 태깅 방법을 나타내는 순서도이다.
도 6은 본 발명의 일 실시예에 따른 영상 태깅 방법에서 검색 방법을 나타내는 순서도이다.
<도면의 주요 부분에 대한 부호의 설명>
100: 영상 재생 장치 110: 태그 모듈
120: 재생 모듈 130: 얼굴 인식 모듈
140: 저장 모듈 170: 입력 장치
172: 숫자키 173: 컬러키
180: 디스플레이 장치
Claims (23)
- 영상을 재생하는 재생 모듈;상기 재생된 영상의 등장인물의 얼굴을 인식하는 얼굴 인식 모듈;상기 등장인물이 등장하는 장면을 태깅하는 태깅키 입력을 수신하여 상기 태깅키와 상기 등장인물의 얼굴이 인식된 장면을 매핑하는 태그 모듈; 및상기 매핑 결과를 저장하는 저장 모듈을 포함하는 영상 재생 장치.
- 제 1 항에 있어서,상기 태깅키는 입력 수단의 복수의 컬러키인 영상 재생 장치.
- 제 1 항에 있어서,상기 태깅키는 입력 수단의 숫자키인 영상 재생 장치.
- 제 2 항에 있어서,상기 컬러키는 빨강, 노랑, 파랑 및 녹색 키인 영상 재생 장치.
- 제 1 항에 있어서,상기 태그 모듈은 상기 저장된 매핑 결과를 바탕으로 상기 얼굴 인식 모듈이 얼굴을 인식한 장면을 자동으로 태깅하는 영상 재생 장치.
- 제 1 항에 있어서,상기 태그 모듈은 상기 저장된 매핑 결과를 검색하여 표시하는 영상 재생 장치.
- 제 6 항에 있어서,상기 검색 결과는 상기 태깅된 장면을 썸네일로 표시하는 영상 재생 장치.
- 제 6 항에 있어서,상기 검색 결과에서 상기 태깅키가 입력되는 경우 상기 태깅키에 매핑된 등장인물이 등장한 상기 태깅된 장면만을 연속적으로 재생하는 영상 재생 장치.
- 제 6 항에 있어서,상기 검색은 상기 매핑키를 눌러 상기 등장인물에 따라 검색하는 영상 재생 장치.
- 제 1 항에 있어서,상기 저장 모듈은 상기 태깅키, 상기 태깅키 입력 시간, 상기 태깅되는 영상의 프로그램 정보 및 상기 태깅된 장면 중 적어도 어느 하나를 저장하는 영상 재생 장치.
- 제 1 항에 있어서,상기 저장된 매칭 결과는 상기 영상 제공자가 개인화 맞춤 서비스를 제공하는데 활용되는 영상 재생 장치.
- 제 1 항에 있어서,상기 태그 모듈은 상기 태깅키가 중복되어 입력되었는지 판단하는 영상 재생 장치.
- 영상을 재생하며 상기 재생된 영상의 등장인물의 얼굴을 인식하는 단계;상기 등장인물이 등장하는 장면을 태깅하는 태깅키 입력을 수신하여 상기 태깅키와 상기 등장인물의 얼굴이 인식된 장면을 매핑하는 단계; 및상기 매핑 결과를 저장하는 단계를 포함하는 영상 태깅 방법.
- 제 13 항에 있어서,상기 저장된 매핑 결과를 바탕으로 상기 얼굴을 인식한 장면을 자동으로 태깅하는 단계를 더 포함하는 영상 태깅 방법.
- 제 13 항에 있어서,상기 태깅키가 중복으로 입력되었는지 판단하는 단계를 더 포함하는 영상 태 깅 방법.
- 제 13 항에 있어서,상기 태깅키는 입력 수단의 복수의 컬러키인 영상 태깅 방법.
- 제 13 항에 있어서,상기 태깅키는 입력 수단의 숫자키인 영상 태깅 방법.
- 제 16 항에 있어서,상기 컬러키는 빨강, 노랑, 파랑 및 녹색 키인 영상 태깅 방법.
- 제 13 항에 있어서,상기 매핑 결과 저장은 상기 태깅키, 상기 태깅키 입력 시간, 상기 태깅되는 영상의 프로그램 정보 및 상기 태깅된 장면 중 적어도 어느 하나를 저장하는 영상 태깅 방법.
- 제 13 항에 있어서,상기 저장된 매핑 결과를 검색하여 표시하는 단계를 더 포함하는 영상 태깅 방법.
- 제 20 항에 있어서,상기 검색 결과는 상기 태깅된 장면을 썸네일로 표시하는 영상 태깅 방법.
- 제 20 항에 있어서,상기 검색은 상기 매핑키를 눌러 상기 등장인물에 따라 검색하는 영상 태깅 방법.
- 제 20 항에 있어서,상기 검색 결과에서 상기 태깅키가 입력되는 경우 상기 태깅키에 매핑된 등장인물이 등장한 상기 태깅된 장면만을 연속적으로 재생하는 단계를 더 포함하는 영상 태깅 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070106253A KR101382499B1 (ko) | 2007-10-22 | 2007-10-22 | 영상 태깅 방법 및 이를 사용하는 영상 재생 장치. |
US12/255,239 US20090103887A1 (en) | 2007-10-22 | 2008-10-21 | Video tagging method and video apparatus using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070106253A KR101382499B1 (ko) | 2007-10-22 | 2007-10-22 | 영상 태깅 방법 및 이를 사용하는 영상 재생 장치. |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090040758A true KR20090040758A (ko) | 2009-04-27 |
KR101382499B1 KR101382499B1 (ko) | 2014-04-21 |
Family
ID=40563588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070106253A KR101382499B1 (ko) | 2007-10-22 | 2007-10-22 | 영상 태깅 방법 및 이를 사용하는 영상 재생 장치. |
Country Status (2)
Country | Link |
---|---|
US (1) | US20090103887A1 (ko) |
KR (1) | KR101382499B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110036462A (ko) * | 2009-10-01 | 2011-04-07 | 엘지전자 주식회사 | 이동 단말기 및 그의 태그 편집 방법 |
KR20110062991A (ko) * | 2009-12-04 | 2011-06-10 | 삼성전자주식회사 | 피사체 인식을 알리는 디지털 촬영 장치, 상기 디지털 촬영 장치의 제어 방법 |
KR20190106547A (ko) * | 2018-03-09 | 2019-09-18 | 에스케이브로드밴드주식회사 | 영상제작지원장치 및 그 동작 방법 |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1586045A1 (en) | 2002-12-27 | 2005-10-19 | Nielsen Media Research, Inc. | Methods and apparatus for transcoding metadata |
US8325999B2 (en) * | 2009-06-08 | 2012-12-04 | Microsoft Corporation | Assisted face recognition tagging |
DE102009060687A1 (de) * | 2009-11-04 | 2011-05-05 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zum rechnergestützten Annotieren von Multimediadaten |
US20160182971A1 (en) | 2009-12-31 | 2016-06-23 | Flickintel, Llc | Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game |
US8751942B2 (en) | 2011-09-27 | 2014-06-10 | Flickintel, Llc | Method, system and processor-readable media for bidirectional communications and data sharing between wireless hand held devices and multimedia display systems |
US9465451B2 (en) | 2009-12-31 | 2016-10-11 | Flick Intelligence, LLC | Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game |
US9508387B2 (en) * | 2009-12-31 | 2016-11-29 | Flick Intelligence, LLC | Flick intel annotation methods and systems |
US8818025B2 (en) * | 2010-08-23 | 2014-08-26 | Nokia Corporation | Method and apparatus for recognizing objects in media content |
US9111255B2 (en) * | 2010-08-31 | 2015-08-18 | Nokia Technologies Oy | Methods, apparatuses and computer program products for determining shared friends of individuals |
SG180025A1 (en) * | 2010-10-11 | 2012-05-30 | Creative Tech Ltd | An apparatus and method for controlling playback of videos grouped in a plurality of playlists |
US8774533B2 (en) * | 2010-10-12 | 2014-07-08 | Hewlett-Packard Development Company, L.P. | Quantifying social affinity from a plurality of images |
US8726161B2 (en) | 2010-10-19 | 2014-05-13 | Apple Inc. | Visual presentation composition |
US20120131624A1 (en) * | 2010-11-23 | 2012-05-24 | Roku, Inc. | Apparatus and Method for Multi-User Construction of Tagged Video Data |
US9251854B2 (en) | 2011-02-18 | 2016-02-02 | Google Inc. | Facial detection, recognition and bookmarking in videos |
US9380356B2 (en) * | 2011-04-12 | 2016-06-28 | The Nielsen Company (Us), Llc | Methods and apparatus to generate a tag for media content |
WO2012146822A1 (en) * | 2011-04-28 | 2012-11-01 | Nokia Corporation | Method, apparatus and computer program product for displaying media content |
US9210208B2 (en) | 2011-06-21 | 2015-12-08 | The Nielsen Company (Us), Llc | Monitoring streaming media content |
US9209978B2 (en) | 2012-05-15 | 2015-12-08 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US20130007807A1 (en) * | 2011-06-30 | 2013-01-03 | Delia Grenville | Blended search for next generation television |
CN102368269A (zh) * | 2011-10-25 | 2012-03-07 | 华为终端有限公司 | 建立关联关系的方法及装置 |
US8789120B2 (en) * | 2012-03-21 | 2014-07-22 | Sony Corporation | Temporal video tagging and distribution |
SE537206C2 (sv) * | 2012-04-11 | 2015-03-03 | Vidispine Ab | Metod och system för sökningar i digitalt innehåll |
EP2680164A1 (en) * | 2012-06-28 | 2014-01-01 | Alcatel-Lucent | Content data interaction |
US8948568B2 (en) | 2012-07-31 | 2015-02-03 | Google Inc. | Customized video |
TW201421994A (zh) * | 2012-11-21 | 2014-06-01 | Hon Hai Prec Ind Co Ltd | 視頻內容搜索系統及方法 |
US9313544B2 (en) | 2013-02-14 | 2016-04-12 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
CN104461222B (zh) * | 2013-09-16 | 2019-02-05 | 联想(北京)有限公司 | 一种信息处理的方法和电子设备 |
US10229323B2 (en) * | 2013-10-30 | 2019-03-12 | Yulong Computer Telecommunications Scientific (Shenzhen) Co., Ltd. | Terminal and method for managing video file |
US9600494B2 (en) | 2014-01-24 | 2017-03-21 | Cisco Technology, Inc. | Line rate visual analytics on edge devices |
CN104038848A (zh) * | 2014-05-30 | 2014-09-10 | 无锡天脉聚源传媒科技有限公司 | 一种视频处理方法及装置 |
CN104038705B (zh) * | 2014-05-30 | 2018-08-24 | 无锡天脉聚源传媒科技有限公司 | 视频制作方法和装置 |
US20170164056A1 (en) * | 2014-06-25 | 2017-06-08 | Thomson Licensing | Annotation method and corresponding device, computer program product and storage medium |
EP3591651A1 (en) | 2014-08-14 | 2020-01-08 | Samsung Electronics Co., Ltd. | Method and apparatus for providing image contents |
CN104184923B (zh) * | 2014-08-27 | 2018-01-09 | 天津三星电子有限公司 | 用于视频中检索人物信息的系统和方法 |
US20160259856A1 (en) * | 2015-03-03 | 2016-09-08 | International Business Machines Corporation | Consolidating and formatting search results |
US9762965B2 (en) | 2015-05-29 | 2017-09-12 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
CN106713973A (zh) * | 2015-07-13 | 2017-05-24 | 中兴通讯股份有限公司 | 搜索节目的方法及装置 |
US9934424B2 (en) * | 2015-10-05 | 2018-04-03 | International Business Machines Corporation | Automated relationship categorizer and visualizer |
SG10201912947XA (en) | 2015-10-21 | 2020-02-27 | 15 Seconds Of Fame Inc | Methods and apparatus for false positive minimization in facial recognition applications |
US10452874B2 (en) | 2016-03-04 | 2019-10-22 | Disney Enterprises, Inc. | System and method for identifying and tagging assets within an AV file |
US10204417B2 (en) * | 2016-05-10 | 2019-02-12 | International Business Machines Corporation | Interactive video generation |
US10353945B2 (en) * | 2016-06-30 | 2019-07-16 | Disney Enterprises, Inc. | Systems and methods for streaming media contents based on attribute tags |
CN106851407A (zh) * | 2017-01-24 | 2017-06-13 | 维沃移动通信有限公司 | 一种视频播放进度的控制方法及终端 |
CN107770590B (zh) * | 2017-09-15 | 2018-12-07 | 广州广府通信息科技有限公司 | 一种通过数据采集来自适应选择信息输入方式的方法 |
CN109756781A (zh) * | 2017-11-06 | 2019-05-14 | 阿里巴巴集团控股有限公司 | 数据处理和视频中图像定位方法和装置 |
CN108228776B (zh) * | 2017-12-28 | 2020-07-07 | Oppo广东移动通信有限公司 | 数据处理方法、装置、存储介质及电子设备 |
US20190294886A1 (en) * | 2018-03-23 | 2019-09-26 | Hcl Technologies Limited | System and method for segregating multimedia frames associated with a character |
CN108769801B (zh) | 2018-05-28 | 2019-03-29 | 广州虎牙信息科技有限公司 | 短视频的合成方法、装置、设备及存储介质 |
US10936856B2 (en) | 2018-08-31 | 2021-03-02 | 15 Seconds of Fame, Inc. | Methods and apparatus for reducing false positives in facial recognition |
KR102604937B1 (ko) | 2018-12-05 | 2023-11-23 | 삼성전자주식회사 | 캐릭터를 포함하는 동영상을 생성하기 위한 전자 장치 및 그에 관한 방법 |
US11010596B2 (en) | 2019-03-07 | 2021-05-18 | 15 Seconds of Fame, Inc. | Apparatus and methods for facial recognition systems to identify proximity-based connections |
KR102656963B1 (ko) * | 2019-04-03 | 2024-04-16 | 삼성전자 주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
CN110545475B (zh) * | 2019-08-26 | 2022-03-04 | 北京奇艺世纪科技有限公司 | 一种视频播放方法、装置及电子设备 |
US11341351B2 (en) | 2020-01-03 | 2022-05-24 | 15 Seconds of Fame, Inc. | Methods and apparatus for facial recognition on a user device |
WO2022007545A1 (zh) * | 2020-07-06 | 2022-01-13 | 聚好看科技股份有限公司 | 一种视频集锦的生成方法及显示设备 |
US20230283849A1 (en) * | 2022-03-04 | 2023-09-07 | Disney Enterprises, Inc. | Content navigation and personalization |
US11770567B1 (en) * | 2023-01-23 | 2023-09-26 | Adrennial Inc. | Content distribution platform for upload and linking content to products and services |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100636910B1 (ko) * | 1998-07-28 | 2007-01-31 | 엘지전자 주식회사 | 동영상검색시스템 |
US6639998B1 (en) * | 1999-01-11 | 2003-10-28 | Lg Electronics Inc. | Method of detecting a specific object in an image signal |
EP1635243B1 (en) * | 1999-01-29 | 2011-05-18 | LG Electronics Inc. | Method of searching or browsing multimedia data |
US6975346B2 (en) * | 2002-06-27 | 2005-12-13 | International Business Machines Corporation | Method for suspect identification using scanning of surveillance media |
DE102004027406A1 (de) * | 2004-06-04 | 2006-02-02 | Betty Technology Ag | Vorrichtung und Verfahren zur Übertragung von Daten über eine Telefonleitung |
US7813557B1 (en) * | 2006-01-26 | 2010-10-12 | Adobe Systems Incorporated | Tagging detected objects |
US20090129740A1 (en) * | 2006-03-28 | 2009-05-21 | O'brien Christopher J | System for individual and group editing of networked time-based media |
JP2008017042A (ja) * | 2006-07-04 | 2008-01-24 | Sony Corp | 情報処理装置および方法、並びにプログラム |
WO2008007907A1 (en) * | 2006-07-14 | 2008-01-17 | Dong Soo Son | A system for providing the interactive moving picture contents and the method thereof |
-
2007
- 2007-10-22 KR KR1020070106253A patent/KR101382499B1/ko not_active IP Right Cessation
-
2008
- 2008-10-21 US US12/255,239 patent/US20090103887A1/en not_active Abandoned
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110036462A (ko) * | 2009-10-01 | 2011-04-07 | 엘지전자 주식회사 | 이동 단말기 및 그의 태그 편집 방법 |
KR20110062991A (ko) * | 2009-12-04 | 2011-06-10 | 삼성전자주식회사 | 피사체 인식을 알리는 디지털 촬영 장치, 상기 디지털 촬영 장치의 제어 방법 |
KR20190106547A (ko) * | 2018-03-09 | 2019-09-18 | 에스케이브로드밴드주식회사 | 영상제작지원장치 및 그 동작 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR101382499B1 (ko) | 2014-04-21 |
US20090103887A1 (en) | 2009-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101382499B1 (ko) | 영상 태깅 방법 및 이를 사용하는 영상 재생 장치. | |
CA2924065C (en) | Content based video content segmentation | |
US7979879B2 (en) | Video contents display system, video contents display method, and program for the same | |
US9100701B2 (en) | Enhanced video systems and methods | |
CN101996048B (zh) | 娱乐媒体可视化及交互方法 | |
JP4652462B2 (ja) | メタデータ処理方法 | |
US9396213B2 (en) | Method for providing keywords, and video apparatus applying the same | |
JP5135024B2 (ja) | コンテンツのシーン出現を通知する装置、方法およびプログラム | |
US20070223871A1 (en) | Method of Generating a Content Item Having a Specific Emotional Influence on a User | |
US20070101266A1 (en) | Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing | |
KR20100116412A (ko) | 동영상 장면 기반 광고정보 제공장치 및 방법 | |
JP2008028985A (ja) | コンテンツ視聴支援回路およびコンテンツ視聴支援装置 | |
KR20090089878A (ko) | 개요 및 리포트를 이미 포함하는 시청각 도큐먼트의 새로운 개요를 생성하기 위한 방법 및 상기 방법을 구현할 수 있는 수신기 | |
JP4732418B2 (ja) | メタデータ処理方法 | |
WO2014103374A1 (ja) | 情報管理装置、サーバ及び制御方法 | |
JPH1139343A (ja) | 映像検索装置 | |
US20080016068A1 (en) | Media-personality information search system, media-personality information acquiring apparatus, media-personality information search apparatus, and method and program therefor | |
JP5343658B2 (ja) | 録画再生装置及びコンテンツ検索プログラム | |
JP2008205820A (ja) | コンテンツ表示装置、コンテンツ表示方法、プログラム及び記憶媒体 | |
KR100937416B1 (ko) | Pvr 장치 및 방법 | |
JP5266981B2 (ja) | 電子機器、情報処理方法及びプログラム | |
US20160127807A1 (en) | Dynamically determined audiovisual content guidebook | |
US20140189769A1 (en) | Information management device, server, and control method | |
JP2008099012A (ja) | コンテンツ再生システム及びコンテンツ蓄積システム | |
JP4652389B2 (ja) | メタデータ処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |