KR20090040758A - 영상 태깅 방법 및 이를 사용하는 영상 재생 장치. - Google Patents

영상 태깅 방법 및 이를 사용하는 영상 재생 장치. Download PDF

Info

Publication number
KR20090040758A
KR20090040758A KR1020070106253A KR20070106253A KR20090040758A KR 20090040758 A KR20090040758 A KR 20090040758A KR 1020070106253 A KR1020070106253 A KR 1020070106253A KR 20070106253 A KR20070106253 A KR 20070106253A KR 20090040758 A KR20090040758 A KR 20090040758A
Authority
KR
South Korea
Prior art keywords
tagging
key
character
scene
module
Prior art date
Application number
KR1020070106253A
Other languages
English (en)
Other versions
KR101382499B1 (ko
Inventor
최승억
김신애
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070106253A priority Critical patent/KR101382499B1/ko
Priority to US12/255,239 priority patent/US20090103887A1/en
Publication of KR20090040758A publication Critical patent/KR20090040758A/ko
Application granted granted Critical
Publication of KR101382499B1 publication Critical patent/KR101382499B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/745Browsing; Visualisation therefor the internal structure of a single video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8352Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • H04N21/8405Generation or processing of descriptive data, e.g. content descriptors represented by keywords
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4221Dedicated function buttons, e.g. for the control of an EPG, subtitles, aspect ratio, picture-in-picture or teletext

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

영상 태깅 방법 및 이를 사용하는 영상 재생 장치가 제공된다. 본 발명의 실시예에 따른 영상 재생 장치는, 영상을 재생하는 재생 모듈과, 재생된 영상의 등장인물의 얼굴을 인식하는 얼굴 인식 모듈과, 등장인물이 등장하는 장면을 태깅하는 태깅키 입력을 수신하여 태깅키와 등장인물의 얼굴이 인식된 장면을 매핑하는 태그 모듈과, 매핑 결과를 저장하는 저장 모듈을 포함한다.
태그(tag), 태깅(tagging), 영상 태깅, 멀티미디어 태깅

Description

영상 태깅 방법 및 이를 사용하는 영상 재생 장치. {Method for tagging video and apparatus for video player using the same}
본 발명은 영상 태깅 방법 및 이를 사용하는 영상 재생 장치에 관한 것으로, 보다 상세하게는 등장인물에 따라 간편하게 영상을 태깅하고 검색하는 영상 태깅 방법 및 이를 사용하는 영상 재생 장치에 관한 것이다.
태그(Tag)란 정보에 연관되거나 지정된 키워드를 의미하는 것으로서, 아이템을 설명하고 키워드 기반의 분류와 정보 검색을 가능하게 하는 것을 의미한다.
태그는 보통 저자나 창작자 또는 소비자, 사용자들에 의하여 형식에 얽매이지 않고 개인적으로 선택된다. 태그는 일반적으로 컴퓨터 파일, 웹 페이지, 디지털 이미지, 인터넷 북마크 등과 같은 리소스에 사용된다.
최근 웹 2.0 이나 시맨틱 웹(Semantic Web)의 이론에 의하여 태깅(Tagging)은 중요한 요소로 대두되고 있다.
컴퓨터 환경에서 입력되는 태그 정보들은 텍스트 기반의 명시적인 어휘들을 활용할 수 있고, 원하는 순간 접근할 수 있는 경로도 많다. 그러나, TV와 같은 동영상 관련 기기의 경우 컴퓨터와는 달리, 사용자의 명확한 의도를 전달할 수 있는 입력 장치가 없고, 제공되는 입력 장치를 활용하는데도 한계가 있으며, 무엇보다도 사용자가 직접 참여하도록 하게 하는 심성 모델(mental model)이 거의 없다. 또한, 이를 위한 사용 환경이나 기능도 제대로 갖춰져 있지 않다. 이로 인해, 사용자가 원하는 태그 정보를 입력하는데 무리가 있다. 따라서, IPTV, DVD, 다운로드한 동영상, 직접 촬영한 영상 등 손쉽게 영상 컨텐츠를 구할 수는 있지만 원하는 부분을 찾아서 보기에는 어려운 문제점이 있었다.
본 발명은 상기한 문제점을 개선하기 위해 고안된 것으로, 본 발명이 해결하고자 하는 과제는 동영상의 태깅을 등장인물 별로 손쉽게 하도록 하는 영상 태깅 방법 및 이를 사용하는 영상 재생 장치를 제공하는 것이다.
본 발명의 또 다른 과제는 태깅된 동영상을 등장인물 별로 간편하게 검색하는 영상 태깅 방법 및 이를 사용하는 영상 재생 장치를 제공하는 것이다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 영상 재생 장치는, 영상을 재생하는 재생 모듈과, 재생된 영상의 등장인물의 얼굴을 인식하는 얼굴 인식 모듈과, 등장인물이 등장하는 장면을 태깅하는 태깅키 입력을 수신하여 태깅키와 등장인물의 얼굴이 인식된 장면을 매핑하는 태그 모듈과, 매핑 결과를 저장하는 저장 모듈을 포함한다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 영상 태깅 방법은, 영상을 재생하며 재생된 영상의 등장인물의 얼굴을 인식하는 단계와, 등장인물이 등장하는 장면을 태깅하는 태깅키 입력을 수신하여 태깅키와 등장인물의 얼굴이 인식된 장면을 매핑하는 단계와, 매핑 결과를 저장하는 단계를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 영상 태깅 방법 및 이를 사용하는 영상 재생 장치에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 다양하고 방대한 동영상 컨텐츠로부터 사용자의 선호도와 의도에 따라 원하는 동영상 태깅하고 검색을 할 수 있도록 해줄 수 있다는 것으로써, 이러한 검색 방식이 제품에 적용될 경우, 차별화된 특징은 물론 동영상 관련 기기에서의 가장 중요한 검색에 대한 새로운 방식을 제공해 줄 수 있는 장점이 있다.
둘째, IPTV와 같은 양방향성을 가질 수 있는 TV에서 컨텐츠 제공자는 사용자의 선호도나 취향을 직접적으로 수집할 수 있고, 이를 통해 사용자 개인에 맞는 맞 춤형 컨텐츠 제공이나 서비스 제공이 가능한 장점도 있다. 즉, 방송을 소비하는 상황에서의 사용자 입력은 해당 컨텐츠에 대한 정보와 함께 사용자가 선호하는 내용들을 추론할 수 있기 때문에 개인화된 맞춤형 서비스가 가능할 것으로 예상된다. 여기서 컨텐츠에 대한 정보로는 방송 프로그램 명, 장르, 시간대, 출연 배우 등을 포함될 수 있으며, 시스템 자체적으로도 이러한 정보를 기록 보관함으로써, 맞춤형 추천 서비스나 컨텐츠 제공이 가능할 것으로 예상된다.
셋째, 컨텐츠 제공자는 동영상이나 방송의 내용을 쉽게 파악할 수 있도록 요약 영상을 생성, 제공해줄 수 있고, 제품에 적용되는 기술 구현이 용이하기 때문에 부가적인 비용이 추가되지 않아도 가능한 장점도 있다.
넷째, 사용자 측면에서 출연자의 얼굴을 통해 요약 영상을 볼 수 있기 때문에 출연자와 전체 적인 내용의 흐름을 쉽게 파악할 수 있는 장점도 있다.
다섯째, 사용자의 의도를 명확하게 반영할 수 있는 개인용 컴퓨터와 같은 태깅 방식을 확보할 수 있다는 것이고, 이를 통해 AV 제품군에도 적용할 수 있으며, 웹과 연동된 서비스도 가능한 장점도 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발 명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 본 발명의 실시예들에 의하여 영상 태깅 방법 및 이를 사용하는 영상 재생 장치를 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
도 1은 본 발명의 일 실시예에 따른 영상 재생 장치를 나타내는 도면이다.
본 발명의 일 실시예 따른 영상 재생 장치(100)는 재생 모듈(120), 얼굴 인식 모듈(130), 태그 모듈(110) 및 저장 모듈(140)을 포함한다.
영상 재생 장치(100)는 디지털 TV 또는 IPTV의 셋톱박스(Set-Top Box) 및 DVD 등 비디오 재생 장치 등 다양한 장치가 될 수 있다. 또한, 휴대폰, PMP, PDA 등 휴대용 장치가 될 수 있다.
재생 모듈(120)은 영상 재생 장치(100)의 종류에 따라, 영상 신호를 수신하고 디스플레이 장치(180)에서 재생 할 수 있도록 변환하여 영상을 재생하거나, 저장된 영상 파일을 변환하여 재생 한다.
얼굴 인식 모듈(130)은 재생 모듈(120)이 재생중인 장면에서 등장인물의 얼 굴(185)을 인식한다. 얼굴 인식 모듈(130)은 기존의 얼굴 검출 및 인식 알고리즘을 사용하여 영상에 나타난 등장인물의 얼굴(185)을 인식한다.
태그 모듈(110)은 동영상의 등장인물을 태깅하는 입력 장치(170)의 태깅키 입력을 전송받는다. 태그 모듈(110)은 입력된 태깅키와 얼굴 인식 모듈(130)이 등장인물의 얼굴(185)을 인식한 영상을 매핑한다.
사용자가 태깅을 원하는 등장인물이 등장하는 경우 입력 장치(170)의 태깅키를 입력한다. 입력 장치(170)는 일반적으로 동영상 재생 장치(100)를 컨트롤하는 리모컨 등이 될 수 있다.
입력 장치(170)는 크게 일반 모드, 태깅 모드, 검색 모드로 구분될 수 있으며, 이를 위한 특정 버튼을 제공할 수도 있고, 소프트웨어적으로 메뉴를 제공할 수 있다. 태깅 모드의 경우, 리모컨의 숫자 버튼이나 칼라 버튼 등이 태깅을 할 수 있는 버튼으로 활용 가능하고, 검색 모드의 경우에는 반대로 검색을 위한 쿼리(query)가 될 수 있다. 이와 달리, 별도의 모드를 두지 않고, 일반 상황에서도 칼라버튼을 이용해 태깅을 할 수 있고, 태깅 후에는 검색 버튼 또는 메뉴를 제공하여 검색 기능을 수행할 수 있다.
태깅키는 입력 장치(170)의 숫자키(172) 또는 컬러키(173)를 사용한다. 등장인물이 4명 이하인 경우 컬러키(173)를 이용하며, 등장인물이 많은 경우 숫자키(172)를 이용하여 태깅을 한다. 컬러키(173)는 일반적으로 표준화된 리모컨의 빨강, 노랑, 파랑 및 녹색 키이다.
본 발명의 일 실시예에 따르면, 사용자는 디스플레이 장치(180)에 태깅을 원 하는 등장인물 등장하는 경우 입력 장치(170)의 컬러키(173)를 누르고, 태그 모듈(110)은 컬러키(173) 입력을 전송 받는다. 다른 실시예에 따르면, 태그 모듈(110)은 숫자키(172) 입력을 전송 받는다.
본 발명의 일 실시예에 따르면, 입력된 컬러키(173)를 등장인물의 얼굴(185)이 인식된 장면에 매핑한다. 다른 실시예에 따르면, 입력된 숫자키(172)와 등장인물의 얼굴(185)이 인식된 장면에 매핑한다.
사용자가 동일한 등장인물에 대하여 서로 다른 태깅키를 입력하거나, 서로 다른 등장인물에 대하여 동일한 태깅키를 입력하는 경우, 태그 모듈(110)은 중복된 태그 입력임을 알리고 알맞은 태깅키 입력을 유도하는 것이 바람직하다.
태그 모듈(110)은 사용자의 태깅키 입력이 없을 때에도 얼굴 인식 모듈(130)이 인식한 등장인물에 태깅키가 매핑되어 있는 경우 자동으로 태깅을 수행한다. 자동화된 태깅이 이뤄지는 초반에는 결과값들의 정확도가 떨어질 수 있지만, 시간이 지날 수도 성능과 결과는 향상될 것이고, 이는 한번 수행하면 하나의 프로그램이나 시리즈물처럼 여러 개의 프로그램에도 적용할 수 있으며, 등장인물은 같으나 프로그램이 달라서 태깅키가 달라질 수도 있다.
자동으로 태깅 작업이 수행될 때는 화면 상에 사람이 등장하는 영상만을 활용하게 되며, 영상 내에 사람이 존재할지라도 얼굴 인식 모듈(130)이 얼굴을 인식하기 어려울 경우에는 제외한다. 따라서, 사용자는 등장인물이 등장할 때마다 매번 태깅키를 누를 필요는 없으나, 헤어스타일이 바뀌었을 경우나 입고 있던 옷의 변화가 클 때 태깅키를 눌러주는 것이 바람직하다.
태그 모듈(110)은 사용자가 태깅된 등장인물이 등장한 영상을 검색하는 경우 검색하여 그 결과를 표시한다. 이에 대한 자세한 설명은 도 3 및 도 4를 참조하여 후술하기로 한다.
저장 모듈(140)은 태깅키와 등장인물의 얼굴이 인식된 영상이 매핑된 결과를 저장한다. 저장 모듈(140)은 영상 재생 장치(100)내에 저장하거나, 원격지의 서버에 전송하여 저장한다. 저장 모듈(140)은 매핑된 결과인 태깅키, 입력 시간, 프로그램 정보 등을 저장하며. 입력시 태깅된 장면 자체도 저장할 수 있다.
저장 모듈(140)은 사용자가 태깅된 등장인물이 등장한 영상을 검색하는 경우, 저장된 매핑 결과로부터 검색결과를 도출하여 태그 모듈(110)에 전달한다. 저장 모듈(140)은 저장 및 검색이 용이하도록 일반적인 데이터베이스(DB) 시스템으로 구성되는 것이 바람직하다.
저장 모듈(140)인 원격지의 서버에 매핑된 결과를 저장하는 경우, 이는 양방향성을 갖는 TV나 서비스에서 개인화된 맞춤 서비스를 제공하는데 활용될 수 있다. 사용자의 리모컨 입력을 통해 사용자가 선호하는 프로그램을 명확하게 파악할 수 있으며, 선호하는 배우도 파악할 수 있고, 어느 시간대와 요일, 장르 등을 선호하는지도 파악 가능하다. 이를 통해 개인에게 맞는 컨텐츠나 서비스를 제공할 수 있다.
상술한 동영상 재생 장치(100)는 디스플레이 장치(180)와 일체의 하드웨어로 구성될 수 있으며, 입력 장치(170)와 일체의 하드웨어로 구성될 수도 있다.
이 때, 본 실시예에서 사용되는 '모듈'이라는 용어는 소프트웨어 또는 FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 모듈들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
도 2는 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물과 컬러키(173)의 매핑을 나타내는 도면이다.
사용자가 방송 또는 동영상을 시청하는 동안 등장인물들이 등장하는 상황에서 사용자는 입력 장치(170)의 태깅키를 입력하는데, 컬러키(173)가 될 수도 있고, 특정 태깅 모드를 지원한다면 숫자키(172)를 입력할 수도 있다. 여기서 태깅키를 입력한다는 것은 등장인물에 대해 입력 장치(170)의 특정 버튼이나 키 값을 할당한다는 의미이다.
도 2를 참조하면, 예로써 A, B, C, D라는 배우들이 출연하는 방송에서 A 배 우가 나오는 장면에서는 빨간색 키를, B 배우가 나오는 경우에는 녹색 키를, C 배우가 등장하는 경우에는 파란색 키를, D 배우가 등장할 경우에는 노란색 키를 각각 입력한다. 한 명 이상의 배우가 출현할 때는 입력하지 않거나 배우들에 해당하는 키들을 입력할 수도 있다.
상술한 바와 같이 등장인물이 나타나는 시점에서 사용자는 입력 장치(170)의 태깅키를 입력하고, 영상 재생 장치(100)는 이를 기록함에 있어서 해당 등장인물과 입력된 태깅키를 데이터베이스에 저장한다. 여기서 해당 등장인물이라 함은 영상 재생 장치(100)가 사용자의 태깅키 입력 시점의 영상 화면을 입력 데이터로 활용하여, 얼굴인식 기술을 적용하고, 일정 시간/횟수 이상의 입력을 통해 얼굴인식의 성능과 결과도가 높일 수 있다. 이를 통해, 인식된 결과값들을 입력된 태깅키와 방송 프로그램 정보들과 함께 데이터베이스에 저장 보관한다.
사용자는 자신이 선호하는 출연자나 방송 프로에 대해서만 태깅키 입력을 수행할 것이고, 태깅키 입력은 프로그램마다 수행할 수 있으며 달라질 수 있다. 따라서, 위의 A라는 배우가 여러 개의 방송에 겹치기 출연할 지라도 각각 다른 태깅키를 할당할 수도 있고, 동일한 태깅키를 할당할 수도 있다.
도 2에서와 같이 출연 배우가 여러 명이면 각각에 해당하는 컬러키를 할당할 수 있다. 만약, 방송 내의 출연자가 여러 명이거나 사용자가 태깅하고자 하는 배우가 여러 명일 경우에는 이를 보완할 수 있는 태깅 모드를 추가하여 숫자 버튼을 활용할 수도 있다.
단, 사용자의 버튼 입력 시점의 영상에 인물이 없는 경우에는 무시할 수 있 다. 또한, 드라마와 같이 등장인물이 고정되어 있으며 여러 편의 시리즈인 경우에는 미리 등장인물과 컬러키를 셋팅해 줄 수도 있다.
도 3은 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물에 따른 검색 결과를 나타내는 도면이다.
사용자나 시스템에 의해 수동 또는 자동으로 태깅된 결과들을 이용하여, 사용자는 검색 기능을 수행할 수 있는데, 검색된 결과는 태깅키에 매핑된 등장인물이 있는 장면에 한해서이다.
사용자가 검색키를 입력하는 등 검색 명령을 수행하는 경우, 매핑된 등장인물과 태깅된 장면들이 도 3과 같이 나타난다. 사용자에게는 해당 장면들이 보여지고, 사용자는 이로부터 원하는 장면을 선택 재생할 수 있다.
검색 결과가 보여지는 화면은 GUI에 따라 달라질 수 있으나, 검색결과를 화면에 썸네일처럼 보여줄 수 있는 GUI가 제공되는 것이 바람직하며, 검색 결과 전체를 화면에 한꺼번에 표시할 필요는 없다.
특정 영상 소스 별로 검색할 수 있으며, 경우에 따라서는 태깅키를 눌러 매핑된 등장인물이 등장하는 복수의 영상 소스를 검색하여 나타낼 수도 있다.
도 4는 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물 별 영상 요약을 수행하는 도면이다.
검색을 통해 선호하는 등장인물이나 영상의 원하는 위치를 찾아갈 수 있고, 결과를 통해 사용자는 해당 영상을 요약해서 볼 수 있다. 검색 결과 화면에서 요약해서 보는 기능을 바로 제공하거나, 요약해서 보기를 검색과 같이 수행함으로써 바 로 영상을 요약할 수 있다. 여기서 영상을 요약해보는 필터의 기준은 사용자가 태깅키에 매핑 할당한 등장인물들이 될 것이며, 이는 사용자의 명확한 의도와 선호도가 반영되었다고 볼 수 있다.
도 4의 (a)에서와 같이 검색 결과에서 특정 등장 인물을 태깅키 입력 등을 통해 선택하게 되면 도 4의 (b)와 같이 해당 등장 인물이 등장한 장면만을 재생하여 영상을 요약할 수 있다.
도 5는 본 발명의 일 실시예에 따른 영상 태깅 방법을 나타내는 순서도이다.
영상을 재생하며 등장인물의 얼굴을 인식한다(S210). 영상 재생 장치(100)가 디지털 TV 또는 IPTV의 셋톱박스(Set-Top Box) 등일 경우 영상 재생 장치(100)의 재생 모듈(120)은 영상 신호를 수신하여 디스플레이 장치(180)에서 재생 할 수 있도록 변환하여 영상을 재생한다. 또한, 영상 재생 장치(100)가 DVD 등 비디오 재생 장치이거나 휴대폰, PMP, PDA 등 휴대용 장치인 경우 영상 재생 장치(100)의 재생 모듈(120)은 저장된 영상 파일을 변환하여 재생 한다.
재생시 얼굴 인식 모듈(130)은 재생 모듈(120)이 재생중인 장면에서 등장인물의 얼굴(185)을 인식한다. 얼굴 인식 모듈(130)은 기존의 얼굴 검출 및 인식 알고리즘을 사용하여 영상에 나타난 등장인물의 얼굴(185)을 인식한다.
사용자가 태깅하고 싶은 등장인물에 따라 태깅키를 입력하면, 영상 재생 장치(100)는 입력된 태깅키와 영상을 매핑한다(S220). 본 발명의 일 실시예에 따르면, 사용자는 디스플레이 장치(180)에 태깅을 원하는 등장인물 등장하는 경우 입력 장치(170)의 컬러키(173)를 누르고, 태그 모듈(110)은 컬러키(173) 입력을 전송 받 는다. 다른 실시예에 따르면, 태그 모듈(110)은 숫자키(172) 입력을 전송 받는다.
태깅키 입력을 전송 받으면, 태그 모듈(110)은 입력된 태깅키와 얼굴 인식 모듈(130)이 등장인물의 얼굴(185)을 인식한 영상을 매핑한다.
중복된 태그 입력인지 판단한다(S230). 태그 모듈(110)은 얼굴 인식 모듈(130)이 인식한 등장인물의 얼굴과 기 저장된 매핑값을 바탕으로 사용자가 동일한 등장인물에 대하여 서로 다른 태깅키를 입력하거나, 서로 다른 등장인물에 대하여 동일한 태깅키를 입력하였는지 판단한다.
중복된 태그 입력인 경우 중복 입력임을 알리고 다른 태깅키 입력을 유도한다(S240). 사용자가 동일한 등장인물에 대하여 서로 다른 태깅키를 입력하거나, 서로 다른 등장인물에 대하여 동일한 태깅키를 입력하는 경우, 태그 모듈(110)은 중복된 태그 입력임을 알리고 알맞은 태깅키 입력을 유도한다.
중복된 태그 입력이 아닌 경우, 매핑된 결과를 저장한다(S250). 저장 모듈(140)은 태깅키와 등장인물의 얼굴이 인식된 영상이 매핑된 결과를 저장한다. 저장 모듈(140)은 영상 재생 장치(100)내에 저장하거나, 원격지의 서버에 전송하여 저장한다. 저장 모듈(140)은 매핑된 결과인 태깅키, 입력 시간, 프로그램 정보 등을 저장하며. 입력시 캡처한 영상 자체도 저장할 수 있다.
등장인물별 자동 태깅이 수행된다(S260). 태그 모듈(110)은 사용자의 태깅키 입력이 없을 때에도 얼굴 인식 모듈(130)이 인식한 등장인물에 태깅키가 매핑되어 있는 경우 자동으로 태깅을 수행한다. 자동화된 태깅이 이뤄지는 초반에는 결과값들의 정확도가 떨어질 수 있지만, 시간이 지날 수도 성능과 결과는 향상될 것이고, 이는 한번 수행하면 하나의 프로그램이나 시리즈물처럼 여러 개의 프로그램에도 적용할 수 있으며, 등장인물은 같으나 프로그램이 달라서 태깅키가 달라질 수도 있다.
자동으로 태깅 작업이 수행될 때는 화면 상에 사람이 등장하는 영상만을 활용하게 되며, 영상내에 사람이 존재할지라도 얼굴 인식 모듈(130)이 얼굴을 인식하기 어려울 경우에는 제외한다.
자동으로 태깅된 결과 역시 저장 모듈(140)에 의하여 저장된다.
도 6은 본 발명의 일 실시예에 따른 영상 태깅 방법에서 검색 방법을 나타내는 순서도이다.
태깅된 영상을 검색한다(S310). 사용자가 검색키를 입력하는 등 검색 명령을 수행하는 경우, 저장 모듈(140)은 사용자가 태깅된 등장인물이 등장한 영상을 검색하는 경우, 저장된 매핑 결과로부터 검색결과를 도출하여 태그 모듈(110)에 전달한다.
검색 결과를 화면에 표시한다(S320). 태그 모듈(110)은 저장 모듈(140)로부터 전달받은 검색 결과를 표시한다. 검색 결과가 보여지는 화면은 GUI에 따라 달라질 수 있으나, 검색결과를 화면에 썸네일처럼 보여줄 수 있는 GUI가 제공되는 것이 바람직하며, 검색 결과 전체를 화면에 한꺼번에 표시할 필요는 없다. 특정 영상 소스 별로 검색할 수 있으며, 경우에 따라서는 태깅키를 눌러 매핑된 등장인물이 등장하는 복수의 영상 소스를 검색하여 나타낼 수도 있다.
요약 영상을 보고 싶은 등장인물을 선택한다(S330). 사용자는 특정 등장 인 물을 태깅키 입력 등을 통해 선택한다. 사용자가 등장인물을 선택하면, 태그 모듈(110)은 선택된 특정 등장 인물에 대한 영상 정보 또는 캡처한 영상을 저장 모듈(140)에 요청한다.
선택된 등장인물이 등장한 장면을 재생한다(S340). 저장 모듈(140)이 추출한 선택된 등장인물이 등장한 장면을 재생 모듈(120)이 재생한다. 이를 통하여 등장 인물이 등장한 장면만을 재생하여 영상을 요약할 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
도 1은 본 발명의 일 실시예에 따른 영상 재생 장치를 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물과 컬러키의 매핑을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물에 따른 검색 결과를 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 동영상 재생 장치에서 등장인물 별 영상 요약을 수행하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 영상 태깅 방법을 나타내는 순서도이다.
도 6은 본 발명의 일 실시예에 따른 영상 태깅 방법에서 검색 방법을 나타내는 순서도이다.
<도면의 주요 부분에 대한 부호의 설명>
100: 영상 재생 장치 110: 태그 모듈
120: 재생 모듈 130: 얼굴 인식 모듈
140: 저장 모듈 170: 입력 장치
172: 숫자키 173: 컬러키
180: 디스플레이 장치

Claims (23)

  1. 영상을 재생하는 재생 모듈;
    상기 재생된 영상의 등장인물의 얼굴을 인식하는 얼굴 인식 모듈;
    상기 등장인물이 등장하는 장면을 태깅하는 태깅키 입력을 수신하여 상기 태깅키와 상기 등장인물의 얼굴이 인식된 장면을 매핑하는 태그 모듈; 및
    상기 매핑 결과를 저장하는 저장 모듈을 포함하는 영상 재생 장치.
  2. 제 1 항에 있어서,
    상기 태깅키는 입력 수단의 복수의 컬러키인 영상 재생 장치.
  3. 제 1 항에 있어서,
    상기 태깅키는 입력 수단의 숫자키인 영상 재생 장치.
  4. 제 2 항에 있어서,
    상기 컬러키는 빨강, 노랑, 파랑 및 녹색 키인 영상 재생 장치.
  5. 제 1 항에 있어서,
    상기 태그 모듈은 상기 저장된 매핑 결과를 바탕으로 상기 얼굴 인식 모듈이 얼굴을 인식한 장면을 자동으로 태깅하는 영상 재생 장치.
  6. 제 1 항에 있어서,
    상기 태그 모듈은 상기 저장된 매핑 결과를 검색하여 표시하는 영상 재생 장치.
  7. 제 6 항에 있어서,
    상기 검색 결과는 상기 태깅된 장면을 썸네일로 표시하는 영상 재생 장치.
  8. 제 6 항에 있어서,
    상기 검색 결과에서 상기 태깅키가 입력되는 경우 상기 태깅키에 매핑된 등장인물이 등장한 상기 태깅된 장면만을 연속적으로 재생하는 영상 재생 장치.
  9. 제 6 항에 있어서,
    상기 검색은 상기 매핑키를 눌러 상기 등장인물에 따라 검색하는 영상 재생 장치.
  10. 제 1 항에 있어서,
    상기 저장 모듈은 상기 태깅키, 상기 태깅키 입력 시간, 상기 태깅되는 영상의 프로그램 정보 및 상기 태깅된 장면 중 적어도 어느 하나를 저장하는 영상 재생 장치.
  11. 제 1 항에 있어서,
    상기 저장된 매칭 결과는 상기 영상 제공자가 개인화 맞춤 서비스를 제공하는데 활용되는 영상 재생 장치.
  12. 제 1 항에 있어서,
    상기 태그 모듈은 상기 태깅키가 중복되어 입력되었는지 판단하는 영상 재생 장치.
  13. 영상을 재생하며 상기 재생된 영상의 등장인물의 얼굴을 인식하는 단계;
    상기 등장인물이 등장하는 장면을 태깅하는 태깅키 입력을 수신하여 상기 태깅키와 상기 등장인물의 얼굴이 인식된 장면을 매핑하는 단계; 및
    상기 매핑 결과를 저장하는 단계를 포함하는 영상 태깅 방법.
  14. 제 13 항에 있어서,
    상기 저장된 매핑 결과를 바탕으로 상기 얼굴을 인식한 장면을 자동으로 태깅하는 단계를 더 포함하는 영상 태깅 방법.
  15. 제 13 항에 있어서,
    상기 태깅키가 중복으로 입력되었는지 판단하는 단계를 더 포함하는 영상 태 깅 방법.
  16. 제 13 항에 있어서,
    상기 태깅키는 입력 수단의 복수의 컬러키인 영상 태깅 방법.
  17. 제 13 항에 있어서,
    상기 태깅키는 입력 수단의 숫자키인 영상 태깅 방법.
  18. 제 16 항에 있어서,
    상기 컬러키는 빨강, 노랑, 파랑 및 녹색 키인 영상 태깅 방법.
  19. 제 13 항에 있어서,
    상기 매핑 결과 저장은 상기 태깅키, 상기 태깅키 입력 시간, 상기 태깅되는 영상의 프로그램 정보 및 상기 태깅된 장면 중 적어도 어느 하나를 저장하는 영상 태깅 방법.
  20. 제 13 항에 있어서,
    상기 저장된 매핑 결과를 검색하여 표시하는 단계를 더 포함하는 영상 태깅 방법.
  21. 제 20 항에 있어서,
    상기 검색 결과는 상기 태깅된 장면을 썸네일로 표시하는 영상 태깅 방법.
  22. 제 20 항에 있어서,
    상기 검색은 상기 매핑키를 눌러 상기 등장인물에 따라 검색하는 영상 태깅 방법.
  23. 제 20 항에 있어서,
    상기 검색 결과에서 상기 태깅키가 입력되는 경우 상기 태깅키에 매핑된 등장인물이 등장한 상기 태깅된 장면만을 연속적으로 재생하는 단계를 더 포함하는 영상 태깅 방법.
KR1020070106253A 2007-10-22 2007-10-22 영상 태깅 방법 및 이를 사용하는 영상 재생 장치. KR101382499B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070106253A KR101382499B1 (ko) 2007-10-22 2007-10-22 영상 태깅 방법 및 이를 사용하는 영상 재생 장치.
US12/255,239 US20090103887A1 (en) 2007-10-22 2008-10-21 Video tagging method and video apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070106253A KR101382499B1 (ko) 2007-10-22 2007-10-22 영상 태깅 방법 및 이를 사용하는 영상 재생 장치.

Publications (2)

Publication Number Publication Date
KR20090040758A true KR20090040758A (ko) 2009-04-27
KR101382499B1 KR101382499B1 (ko) 2014-04-21

Family

ID=40563588

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070106253A KR101382499B1 (ko) 2007-10-22 2007-10-22 영상 태깅 방법 및 이를 사용하는 영상 재생 장치.

Country Status (2)

Country Link
US (1) US20090103887A1 (ko)
KR (1) KR101382499B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110036462A (ko) * 2009-10-01 2011-04-07 엘지전자 주식회사 이동 단말기 및 그의 태그 편집 방법
KR20110062991A (ko) * 2009-12-04 2011-06-10 삼성전자주식회사 피사체 인식을 알리는 디지털 촬영 장치, 상기 디지털 촬영 장치의 제어 방법
KR20190106547A (ko) * 2018-03-09 2019-09-18 에스케이브로드밴드주식회사 영상제작지원장치 및 그 동작 방법

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1586045A1 (en) 2002-12-27 2005-10-19 Nielsen Media Research, Inc. Methods and apparatus for transcoding metadata
US8325999B2 (en) * 2009-06-08 2012-12-04 Microsoft Corporation Assisted face recognition tagging
DE102009060687A1 (de) * 2009-11-04 2011-05-05 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum rechnergestützten Annotieren von Multimediadaten
US20160182971A1 (en) 2009-12-31 2016-06-23 Flickintel, Llc Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game
US8751942B2 (en) 2011-09-27 2014-06-10 Flickintel, Llc Method, system and processor-readable media for bidirectional communications and data sharing between wireless hand held devices and multimedia display systems
US9465451B2 (en) 2009-12-31 2016-10-11 Flick Intelligence, LLC Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game
US9508387B2 (en) * 2009-12-31 2016-11-29 Flick Intelligence, LLC Flick intel annotation methods and systems
US8818025B2 (en) * 2010-08-23 2014-08-26 Nokia Corporation Method and apparatus for recognizing objects in media content
US9111255B2 (en) * 2010-08-31 2015-08-18 Nokia Technologies Oy Methods, apparatuses and computer program products for determining shared friends of individuals
SG180025A1 (en) * 2010-10-11 2012-05-30 Creative Tech Ltd An apparatus and method for controlling playback of videos grouped in a plurality of playlists
US8774533B2 (en) * 2010-10-12 2014-07-08 Hewlett-Packard Development Company, L.P. Quantifying social affinity from a plurality of images
US8726161B2 (en) 2010-10-19 2014-05-13 Apple Inc. Visual presentation composition
US20120131624A1 (en) * 2010-11-23 2012-05-24 Roku, Inc. Apparatus and Method for Multi-User Construction of Tagged Video Data
US9251854B2 (en) 2011-02-18 2016-02-02 Google Inc. Facial detection, recognition and bookmarking in videos
US9380356B2 (en) * 2011-04-12 2016-06-28 The Nielsen Company (Us), Llc Methods and apparatus to generate a tag for media content
WO2012146822A1 (en) * 2011-04-28 2012-11-01 Nokia Corporation Method, apparatus and computer program product for displaying media content
US9210208B2 (en) 2011-06-21 2015-12-08 The Nielsen Company (Us), Llc Monitoring streaming media content
US9209978B2 (en) 2012-05-15 2015-12-08 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US20130007807A1 (en) * 2011-06-30 2013-01-03 Delia Grenville Blended search for next generation television
CN102368269A (zh) * 2011-10-25 2012-03-07 华为终端有限公司 建立关联关系的方法及装置
US8789120B2 (en) * 2012-03-21 2014-07-22 Sony Corporation Temporal video tagging and distribution
SE537206C2 (sv) * 2012-04-11 2015-03-03 Vidispine Ab Metod och system för sökningar i digitalt innehåll
EP2680164A1 (en) * 2012-06-28 2014-01-01 Alcatel-Lucent Content data interaction
US8948568B2 (en) 2012-07-31 2015-02-03 Google Inc. Customized video
TW201421994A (zh) * 2012-11-21 2014-06-01 Hon Hai Prec Ind Co Ltd 視頻內容搜索系統及方法
US9313544B2 (en) 2013-02-14 2016-04-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
CN104461222B (zh) * 2013-09-16 2019-02-05 联想(北京)有限公司 一种信息处理的方法和电子设备
US10229323B2 (en) * 2013-10-30 2019-03-12 Yulong Computer Telecommunications Scientific (Shenzhen) Co., Ltd. Terminal and method for managing video file
US9600494B2 (en) 2014-01-24 2017-03-21 Cisco Technology, Inc. Line rate visual analytics on edge devices
CN104038848A (zh) * 2014-05-30 2014-09-10 无锡天脉聚源传媒科技有限公司 一种视频处理方法及装置
CN104038705B (zh) * 2014-05-30 2018-08-24 无锡天脉聚源传媒科技有限公司 视频制作方法和装置
US20170164056A1 (en) * 2014-06-25 2017-06-08 Thomson Licensing Annotation method and corresponding device, computer program product and storage medium
EP3591651A1 (en) 2014-08-14 2020-01-08 Samsung Electronics Co., Ltd. Method and apparatus for providing image contents
CN104184923B (zh) * 2014-08-27 2018-01-09 天津三星电子有限公司 用于视频中检索人物信息的系统和方法
US20160259856A1 (en) * 2015-03-03 2016-09-08 International Business Machines Corporation Consolidating and formatting search results
US9762965B2 (en) 2015-05-29 2017-09-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
CN106713973A (zh) * 2015-07-13 2017-05-24 中兴通讯股份有限公司 搜索节目的方法及装置
US9934424B2 (en) * 2015-10-05 2018-04-03 International Business Machines Corporation Automated relationship categorizer and visualizer
SG10201912947XA (en) 2015-10-21 2020-02-27 15 Seconds Of Fame Inc Methods and apparatus for false positive minimization in facial recognition applications
US10452874B2 (en) 2016-03-04 2019-10-22 Disney Enterprises, Inc. System and method for identifying and tagging assets within an AV file
US10204417B2 (en) * 2016-05-10 2019-02-12 International Business Machines Corporation Interactive video generation
US10353945B2 (en) * 2016-06-30 2019-07-16 Disney Enterprises, Inc. Systems and methods for streaming media contents based on attribute tags
CN106851407A (zh) * 2017-01-24 2017-06-13 维沃移动通信有限公司 一种视频播放进度的控制方法及终端
CN107770590B (zh) * 2017-09-15 2018-12-07 广州广府通信息科技有限公司 一种通过数据采集来自适应选择信息输入方式的方法
CN109756781A (zh) * 2017-11-06 2019-05-14 阿里巴巴集团控股有限公司 数据处理和视频中图像定位方法和装置
CN108228776B (zh) * 2017-12-28 2020-07-07 Oppo广东移动通信有限公司 数据处理方法、装置、存储介质及电子设备
US20190294886A1 (en) * 2018-03-23 2019-09-26 Hcl Technologies Limited System and method for segregating multimedia frames associated with a character
CN108769801B (zh) 2018-05-28 2019-03-29 广州虎牙信息科技有限公司 短视频的合成方法、装置、设备及存储介质
US10936856B2 (en) 2018-08-31 2021-03-02 15 Seconds of Fame, Inc. Methods and apparatus for reducing false positives in facial recognition
KR102604937B1 (ko) 2018-12-05 2023-11-23 삼성전자주식회사 캐릭터를 포함하는 동영상을 생성하기 위한 전자 장치 및 그에 관한 방법
US11010596B2 (en) 2019-03-07 2021-05-18 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition systems to identify proximity-based connections
KR102656963B1 (ko) * 2019-04-03 2024-04-16 삼성전자 주식회사 전자 장치 및 전자 장치의 제어 방법
CN110545475B (zh) * 2019-08-26 2022-03-04 北京奇艺世纪科技有限公司 一种视频播放方法、装置及电子设备
US11341351B2 (en) 2020-01-03 2022-05-24 15 Seconds of Fame, Inc. Methods and apparatus for facial recognition on a user device
WO2022007545A1 (zh) * 2020-07-06 2022-01-13 聚好看科技股份有限公司 一种视频集锦的生成方法及显示设备
US20230283849A1 (en) * 2022-03-04 2023-09-07 Disney Enterprises, Inc. Content navigation and personalization
US11770567B1 (en) * 2023-01-23 2023-09-26 Adrennial Inc. Content distribution platform for upload and linking content to products and services

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100636910B1 (ko) * 1998-07-28 2007-01-31 엘지전자 주식회사 동영상검색시스템
US6639998B1 (en) * 1999-01-11 2003-10-28 Lg Electronics Inc. Method of detecting a specific object in an image signal
EP1635243B1 (en) * 1999-01-29 2011-05-18 LG Electronics Inc. Method of searching or browsing multimedia data
US6975346B2 (en) * 2002-06-27 2005-12-13 International Business Machines Corporation Method for suspect identification using scanning of surveillance media
DE102004027406A1 (de) * 2004-06-04 2006-02-02 Betty Technology Ag Vorrichtung und Verfahren zur Übertragung von Daten über eine Telefonleitung
US7813557B1 (en) * 2006-01-26 2010-10-12 Adobe Systems Incorporated Tagging detected objects
US20090129740A1 (en) * 2006-03-28 2009-05-21 O'brien Christopher J System for individual and group editing of networked time-based media
JP2008017042A (ja) * 2006-07-04 2008-01-24 Sony Corp 情報処理装置および方法、並びにプログラム
WO2008007907A1 (en) * 2006-07-14 2008-01-17 Dong Soo Son A system for providing the interactive moving picture contents and the method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110036462A (ko) * 2009-10-01 2011-04-07 엘지전자 주식회사 이동 단말기 및 그의 태그 편집 방법
KR20110062991A (ko) * 2009-12-04 2011-06-10 삼성전자주식회사 피사체 인식을 알리는 디지털 촬영 장치, 상기 디지털 촬영 장치의 제어 방법
KR20190106547A (ko) * 2018-03-09 2019-09-18 에스케이브로드밴드주식회사 영상제작지원장치 및 그 동작 방법

Also Published As

Publication number Publication date
KR101382499B1 (ko) 2014-04-21
US20090103887A1 (en) 2009-04-23

Similar Documents

Publication Publication Date Title
KR101382499B1 (ko) 영상 태깅 방법 및 이를 사용하는 영상 재생 장치.
CA2924065C (en) Content based video content segmentation
US7979879B2 (en) Video contents display system, video contents display method, and program for the same
US9100701B2 (en) Enhanced video systems and methods
CN101996048B (zh) 娱乐媒体可视化及交互方法
JP4652462B2 (ja) メタデータ処理方法
US9396213B2 (en) Method for providing keywords, and video apparatus applying the same
JP5135024B2 (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
US20070223871A1 (en) Method of Generating a Content Item Having a Specific Emotional Influence on a User
US20070101266A1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
KR20100116412A (ko) 동영상 장면 기반 광고정보 제공장치 및 방법
JP2008028985A (ja) コンテンツ視聴支援回路およびコンテンツ視聴支援装置
KR20090089878A (ko) 개요 및 리포트를 이미 포함하는 시청각 도큐먼트의 새로운 개요를 생성하기 위한 방법 및 상기 방법을 구현할 수 있는 수신기
JP4732418B2 (ja) メタデータ処理方法
WO2014103374A1 (ja) 情報管理装置、サーバ及び制御方法
JPH1139343A (ja) 映像検索装置
US20080016068A1 (en) Media-personality information search system, media-personality information acquiring apparatus, media-personality information search apparatus, and method and program therefor
JP5343658B2 (ja) 録画再生装置及びコンテンツ検索プログラム
JP2008205820A (ja) コンテンツ表示装置、コンテンツ表示方法、プログラム及び記憶媒体
KR100937416B1 (ko) Pvr 장치 및 방법
JP5266981B2 (ja) 電子機器、情報処理方法及びプログラム
US20160127807A1 (en) Dynamically determined audiovisual content guidebook
US20140189769A1 (en) Information management device, server, and control method
JP2008099012A (ja) コンテンツ再生システム及びコンテンツ蓄積システム
JP4652389B2 (ja) メタデータ処理方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee