KR101391599B1 - 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 방법및 그 장치 - Google Patents
컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 방법및 그 장치 Download PDFInfo
- Publication number
- KR101391599B1 KR101391599B1 KR1020070089970A KR20070089970A KR101391599B1 KR 101391599 B1 KR101391599 B1 KR 101391599B1 KR 1020070089970 A KR1020070089970 A KR 1020070089970A KR 20070089970 A KR20070089970 A KR 20070089970A KR 101391599 B1 KR101391599 B1 KR 101391599B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- relationship
- characters
- content
- generating
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Abstract
본 발명은 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성 방법에 관한 것으로, 컨텐트로부터 추출된 텍스트들을 소정의 단위로 분할하고, 분할된 텍스트들을 등장 인물간의 관계를 나타내는 복수개의 카테고리 및 각각의 카테고리에 속하는 키워드들이 정의된 관계 키워드 정보와 대비하여 등장 인물간의 관계를 결정한 후, 그 결정에 따라 등장 인물간의 관계에 대한 정보를 생성함으로써, 사용자가 컨텐트의 내용을 빠른 시간 내에 파악할 수 있게 해준다.
Description
본 발명은 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 방법 및 그 장치에 관한 것이다.
최근 인터넷, 모바일 기기, TV 등 다양한 매체에서 멀티미디어 서비스가 가능해지면서,멀티미디어 컨텐트의 보급도 기하급수적으로 늘어가고 있다. 이와 같이 많은 수의 멀티미디어 컨텐트가 보급되면서, 멀티미디어 컨텐트들의 내용을 빠른시간 내에 파악할 수 있게 해주는 기술에 대한 수요가 증가하고 있다.
컨텐트가 비디오 파일인 경우에는 이와 같이 컨텐트의 내용을 빠른시간 내에 파악할 수 있게 해주는 방법 중 하나로서 소정의 기준에 따라 특정 장면만을 선택하여 그 선택된 장면만을 사용자에게 출력하는 방법이 있다.
예컨대, 축구 경기에 관한 비디오 파일의 경우에는 소정의 기준 이상의 소음이 발생하는 장면만을 선택하여 축구 경기에 대한 요약 정보로서 사용자에게 제공할 수 있다. 즉, 상기 방법은 축구 경기에서는 위기 상황 또는 득점이 발생한 상황 등 중요한 상황에서 축구를 관람하는 관중들이 환호성을 지르게 된다는 특징을 이용하여, 이와 같이 소음이 커지게 되는 상황을 중요 장면으로 판단하여 사용자에게 제공하게 되는 것이다.
또한, 컨텐트가 비디오 파일인 경우에 화면의 변화(예를 들면, 색상의 변화, 움직임의 변화 등)가 많은 부분은 샘플링율을 높이고 변화가 적은 부분은 샘플링율을 낮춰 전체 비디오 파일의 변화 상황을 빨리 재생시키는 방법이 있다.
하지만, 이와 같은 방법들은 컨텐트가 드라마, 영화와 같은 스토리 중심 비디오인 경우에는 사용할 수 없다. 왜냐하면 이와 같은 방법으로는 전체 스토리가 어떻게 전개되었는지에 대한 요약은 불가능하기 때문이다.
한편, 이와 같이 컨텐트가 드라마, 영화와 같은 스토리 중심의 비디오인 경우 또는 컨텐트가 전자책인 경우 등에는 컨텐트에서의 등장 인물간의 관계가 컨텐트의 내용을 이해하는데 큰 도움을 줄 수 있다.
하지만, 종래에는 이와 같이 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하여, 사용자에게 제공할 수 있는 방법이 제안되지 않았다.
본 발명의 목적은 사용자가 컨텐트의 내용을 빠른 시간 내에 파악할 수 있도록 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하기 위한 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 방법 및 그 장치를 제공하는 것이다.
상기 목적을 달성하기 위한 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 방법은 상기 컨텐트로부터 추출된 텍스트들을 소정의 단위로 분할하는 단계; 상기 분할된 텍스트들을 상기 등장 인물간의 관계를 나타내는 복수개의 카테고리 및 상기 각각의 카테고리에 속하는 키워드들이 정의된 관계 키워드 정보와 대비하여 상기 등장 인물간의 관계를 결정하는 단계; 및 상기 결정에 따라 상기 등장 인물간의 관계에 대한 정보를 생성하는 단계를 포함한다.
바람직하게는 상기 결정하는 단계는 상기 관계 키워드 정보에 기초하여, 상기 분할된 텍스트들을 상기 복수개의 카테고리 각각에 대응시키는 단계; 상기 복수개의 카테고리 각각에 대응되는 상기 분할된 텍스트들의 개수를 판단하는 단계; 및
상기 판단 결과, 가장 많은 개수의 분할된 텍스트들과 대응되는 카테고리에 의하여 표현되는 관계를 상기 등장 인물간의 관계로 결정하는 단계를 포함한다.
바람직하게는 상기 분할된 텍스트들 중 부가 정보를 포함하고 있는 분할된 텍스트를 상기 부가정보에 정의된 내용에 기초하여 상기 카테고리에 대응시키는 것을 특징으로 한다.
바람직하게는 상기 분할하는 단계는 상기 컨텐트로부터 추출된 텍스트를 단어 단위 또는 관용어구 단위로 분할하는 것을 특징으로 한다.
바람직하게는 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 방법은 상기 컨텐트의 메타데이터로부터 상기 컨텐트에서의 등장 인물의 이름, 직함, 호칭, 별명, 특징, 사진, 음성 등에 대한 정보 중 적어도 하나를 추출하는 단계를 더 포함하고, 상기 등장 인물간의 관계를 결정하는 단계는 상기 메타데이터로부터 추출된 정보를 이용하여 상기 등장 인물간의 관계를 결정하는 것을 특징으로 한다.
바람직하게는 상기 등장 인물간의 관계에 대한 정보를 생성하는 단계는 상기 메타데이터로부터 추출된 정보를 이용하여 상기 등장 인물간의 관계에 대한 정보를 생성하는 것을 특징으로 한다.
바람직하게는 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 방법은 상기 등장 인물간의 관계 정보 생성에 이용될 적어도 하나의 등장 인물을 선택하는 단계를 더 포함하고, 상기 등장 인물간의 관계에 대한 정보를 생성하는 단계는 상기 선택된 등장 인물간의 관계에 대한 정보를 생성하는 것을 특징으로 한다.
바람직하게는 상기 등장 인물간의 관계에 대한 정보를 생성하는 단계는 소정의 시간 간격을 기준으로 또는 소정의 등장 인물을 중심으로 상기 등장 인물간의 관계에 대한 정보를 생성하는 것을 특징으로 한다.
바람직하게는 상기 관계 키워드 정보의 복수개의 카테고리 각각은 상기 등장 인물 간의 지위 관계 또는 감정의 종류 중 적어도 하나의 기준에 따라 구분되는 것을 특징으로 한다.
바람직하게는 상기 컨텐트는 비디오 파일, 오디오 파일 및 전자 책 중 하나인 것을 특징으로 한다.
또한, 상기 목적을 달성하기 위한 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 장치는 상기 컨텐트로부터 추출된 텍스트들을 소정의 단위로 분할하는 텍스트 분할부; 상기 분할된 텍스트들을 상기 등장 인물간의 관계를 나타내는 복수개의 카테고리 및 상기 각각의 카테고리에 속하는 키워드들이 정의된 관계 키워드 정보와 대비하여 상기 등장 인물간의 관계를 결정하는 관계 결정부; 및 상기 결정에 따라 상기 등장 인물간의 관계에 대한 정보를 생성하는 정보 생성부를 포함한다.
바람직하게는 상기 관계 결정부는 상기 관계 키워드 정보에 기초하여, 상기 분할된 텍스트들을 상기 복수개의 카테고리 각각에 대응시키는 대응부;
상기 복수개의 카테고리 각각에 대응되는 상기 분할된 텍스트들의 개수를 판단하는 판단부; 및 상기 판단 결과, 가장 많은 개수의 분할된 텍스트들과 대응되는 카테고리에 의하여 표현되는 관계를 상기 등장 인물간의 관계로 결정하는 결정부를 포함한다.
바람직하게는 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 장치는 상기 컨텐트의 메타데이터로부터 상기 컨텐트에서의 등장 인물의 이름, 사진, 성격 중 적어도 하나를 추출하는 데이터 추출부를 더 포함하고,
상기 정보 생성부는 상기 메타데이터로부터 추출된 상기 컨텐트에서의 등장 인물의 이름, 사진, 성격 중 적어도 하나를 이용하여 상기 등장 인물간의 관계에 대한 정보를 생성하는 것을 특징으로 하는 관계 정보 생성 장치.
또한, 본 발명은 상기 목적을 달성하기 위하여 상기 컨텐트로부터 추출된 텍스트들을 소정의 단위로 분할하는 단계; 상기 분할된 텍스트들을 상기 등장 인물간의 관계를 나타내는 복수개의 카테고리 및 상기 각각의 카테고리에 속하는 키워드들이 정의된 관계 키워드 정보와 대비하여 상기 등장 인물간의 관계를 결정하는 단계; 및 상기 결정에 따라 상기 등장 인물간의 관계에 대한 정보를 생성하는 단계를 포함하는 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.
본 발명은 컨텐트로부터 추출된 텍스트들을 소정의 단위로 분할하고, 분할된 텍스트들을 등장 인물간의 관계를 나타내는 복수개의 카테고리 및 각각의 카테고리에 속하는 키워드들이 정의된 관계 키워드 정보와 대비하여 등장 인물간의 관계를 결정한 후, 그 결정에 따라 등장 인물간의 관계에 대한 정보를 생성함으로써, 사용자가 컨텐트의 내용을 빠른 시간 내에 파악할 수 있도록 하는 효과가 있다.
이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세히 설명한다.
도 1은 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생 성하는 장치의 일 실시예를 도시한 도면이다.
도 1을 참조하면 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 장치는 텍스트 분할부(110), 관계 결정부(120) 및 정보 생성부(130)를 포함한다.
텍스트 분할부(110)는 컨텐트로부터 추출된 텍스트들을 소정의 단위로 분할한다.
여기서, 컨텐트는 비디오 파일, 오디오 파일 및 전자 책 중 하나일 수 있으나 이에 한정되지는 않으며, 텍스트를 포함하는 모든 종류의 컨텐트가 상기 컨텐트의 범위에 포함될 수 있다.
예컨대, 컨텐트가 비디오 파일인 경우에는 텍스트 분할부(110)는 그 비디오 파일에 대응되는 자막 파일을 추출하고, 그 추출된 자막 파일을 소정의 단위로 분할할 수 있다.
이때, 텍스트 분할부(110)는 컨텐트로부터 추출된 자막을 단어 단위 또는 관용어구 단위로 분할할 수 있다.
예컨대, '철수는 아버지를 사랑한다.'라는 자막이 있었다면, 텍스트 분할부(110)는 '철수는', '아버지를', '사랑한다'와 같이 세 개의 부분으로 자막을 분할할 수 있다.
또 하나의 예로서, '철수는 우물 안의 개구리야'라는 표현이 있다면, 텍스트 분할부(110)는 '철수는', '우물', '안의', '개구리야'와 같이 단어 단위로 분할하는 것이 아니라, '우물 안의 개구리'가 관용어구이므로, '철수는'과 '우물 안의 개 구리야'로 분할하게 된다.
관계 결정부(120)는 텍스트 분할부(110)에 의하여 분할된 텍스트들을 컨텐트에서의 등장 인물간의 관계를 나타내는 복수개의 카테고리 및 각각의 카테고리에 속하는 키워드들이 정의된 관계 키워드 정보와 대비하여 컨텐트에서의 등장 인물간의 관계를 결정한다.
도 2는 본 발명에 따른 관계 결정부의 일 실시예를 도시한 도면이다.
도 2를 참조하면, 본 발명에 따른 관계 결정부는 대응부(122), 판단부(124) 및 결정부(126)를 포함한다.
대응부(122)는 관계 키워드 정보에 기초하여, 텍스트 분할부(110)에 의하여 분할된 분할된 텍스트들을 관계 키워드 정보의 복수개의 카테고리 각각에 대응시킨다.
도 3은 본 발명에 따른 관계 키워드 정보의 일 실시예를 도시한 도면이다.
도 3을 참조하면, 관계 키워드 정보는 카테고리(310)과 그에 대응되는 키워드(320)로 구성되어 있다. 도 3의 예에서는 관계 키워드 정보의 카테고리가 호의(312), 적대(314) 및 사랑(316)의 세 부분으로 구성되어 있지만, 관계 키워드 정보의 카테고리는 이와 같은 세 가지의 카테고리의 예로 한정되지 않는다.
또한, 도 3의 예에서는 카테고리(312, 314, 316)가 감정의 종류에 따라 구분되었지만, 등장 인물 간의 지위 관계에 따라 구분될 수도 있다.
각각의 카테고리(312, 314, 316)에는 각각의 카테고리에 속하는 키워드들이 정의되어 있다.
예컨대, 호의(312)라는 카테고리에는 '착한', '다정한', '친절한' 등의 키워드들이 정의되어 있을 수 있고, 적대(314)라는 카테고리에는 '나쁜', '싫어하는', '야비한' 등의 키워드들이 정의되어 있을 수 있으며, 사랑(316)이라는 카테고리에는 '설레는', '사랑스러운', '그리운' 등의 키워드들이 정의되어 있을 수 있다.
또한, 도 3에는 도시되어 있지 않지만, 관계 키워드 정보의 카테고리에는 연인이라는 카테고리가 포함될 수도 있고, 이 경우에 연인이라는 카테고리에는 연인 사이에 부르는 호칭인 '달링', '자기', '허니' 등의 키워드들이 정의될 수 있다.
다만, 키워드들은 이와 같이 단어 형태로 구성될 수도 있지만, 구현예에 따라서는 관용어구 형태로 포함될 수도 있다.
이와 같은 관계 키워드 정보는 외부로부터 수신될 수도 있고, 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 장치에 데이터베이스 형태로 저장되어 있을 수도 있다.
대응부(122)는 도 3의 예에서 텍스트 분할부(110)에 의하여 분할된 텍스트들을 관계 키워드 정보의 카테고리들(312, 314, 316)에 정의된 키워드들과 비교하여, 호의(312), 적대(314) 및 사랑(316) 중에 적어도 하나의 카테고리에 대응시키게 된다. 이와같이 분할된 텍스트들은 반드시 하나의 카테고리에만 대응되는 것이 아니라 하나 이상의 카테고리에 대응될 수도 있다.
한편, 대응부(122)는 텍스트 분할부(110)에 의하여 분할된 텍스트 중 부가 정보를 포함하고 있는 분할된 텍스트가 있는 경우에는 그 부가정보에 정의된 내용에 기초하여 관계 키워드 정보의 카테고리에 대응시킬 수 있다.
예컨대, 친구간에 대화 중에 친근감을 표시하기 위해 욕설이 사용된 경우에는, 두 친구간의 관계가 호의적인 관계임에도 불구하고 대응부(122)는 그 욕설이 포함된 텍스트를 적대(314) 카테고리에 대응시키게 되는 문제가 발생할 수 있다.
이와 같은 문제를 방지하기 위해, 이와 같은 욕설이 포함된 텍스트에 대하여 그 텍스트가 친근감을 표시하는 용어라는 부가 정보가 추가될 수 있다.
대응부(122)는 이와 같이 텍스트에 포함된 부가 정보를 판독하여, 그 부가정보에 정의된 내용에 따라 그 텍스트를 관계 키워드 정보의 카테고리 중에 하나에 대응시키게 된다.
이와 같은 부가 정보는 사용자에게 보여주기 위해 생성된 정보가 아니라, 텍스트를 카테고리에 대응시키기 위한 정보이므로, 숨김글과 같이 사용자에게 보여지지 않도록 구성될 수 있다.
판단부(124)는 관계 키워드 정보의 카테고리 각각에 대응되는 분할된 텍스트들의 개수를 판단한다.
예컨대, 도 3의 예에서 대응부(122)가 분할된 텍스트들을 각각의 카테고리에 대응시킨 후, 그 대응된 결과에 기초하여 판단부(124)는 호의(312) 카테고리에 대응되는 분할된 텍스트의 개수가 72개, 적대(314) 카테고리에 대응되는 분할된 텍스트의 개수가 5개, 사랑(316) 카테고리에 대응되는 분할된 텍스트의 개수가 34개라고 판단할 수 있다.
결정부(126)는 판단부(124)의 판단 결과, 가장 많은 개수의 분할된 텍스트들과 대응되는 카테고리에 의하여 표현되는 관계를 등장 인물간의 관계로 결정한다.
예컨대, 판단부(124)의 판단 결과, 호의(312) 카테고리에 대응되는 분할된 텍스트의 개수가 72개, 적대(314) 카테고리에 대응되는 분할된 텍스트의 개수가 5개, 사랑(316) 카테고리에 대응되는 분할된 텍스트의 개수가 34개라면, 결정부(126)는 가장 많은 개수의 분할된 텍스트들과 대응되는 카테고리인 호의(312) 카테고리를 등장 인물간의 관계로 결정하게 된다. 즉, 이에 따라 등장 인물간의 관계는 호의를 가진 관계로 결정된다.
이와 같이 관계 결정부(120)에 의하여 등장 인물간의 관계가 결정되면, 정보 생성부(130)는 그 결정에 따라 등장 인물간의 관계에 대한 정보를 생성한다.
이때, 정보 생성부(130)는 소정의 시간 간격을 기준으로 또는 소정의 등장 인물을 중심으로 등장 인물간의 관계에 대한 정보를 생성할 수 있다.
도 4는 본 발명에 따른 등장 인물간의 관계에 대한 정보의 일 실시예를 설명하기 위하여 도시한 도면이다.
도 4는 드라마 주몽의 등장인물인 '소서노'와 '주몽'과의 관계를 소정의 시간 간격을 기준으로 하여 등장 인물간의 관계에 대한 정보로서 생성한 것이다. 도 4의 예는 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 장치가 등장 인물간의 관계 정보를 생성하는 프로세스를 시작하기 전에, 사용자가 등장 인물 중에서 '소서노'와 '주몽'을 선택하고, 그 선택에 따라 본 발명에 따른 정보 생성부(130)가 '소서노'와 '주몽'에 대한 관계 정보를 생성한 예이다.
바람직하게는 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 장치는 등장 인물간의 관계 정보 생성에 이용될 적어도 하나의 등장 인물을 선택하기 위한 등장 인물 선택부(미도시)를 더 포함할 수 있다.
도 4를 참조하면, 두 인물은 t0에서 t1까지의 시간까지는 '연인' 관계였다가, t1에서 t2까지의 시간까지는 '적'의 관계가 된다.
전술한 바와 같이, 이와 같은 등장 인물간의 관계는 등장 인물 간의 지위 관계 뿐만 아니라, 감정의 종류에 따라 표현될 수도 있다. 예컨대, 두 인물은 t0에서 t1까지의 시간까지는 사랑하는 관계로 표시될 수 있고, t1에서 t2까지의 시간까지는 적대적인 관계로 표시될 수 있다.
이와 같이 본 발명은 소정의 시간 간격을 기준으로 등장 인물간의 관계에 대한 정보를 생성함으로써, 보다 짧은 시간에 컨텐트의 내용을 용이하게 파악할 수 있게 해준다.
한편, 정보 생성부(130)는 등장 인물간의 관계에 대한 정보를 생성할 때, 분할된 텍스트 외에도 컨텐트의 메타데이터를 이용하여 보다 풍부하게 등장 인물간의 관계에 대한 정보를 구성할 수도 있다.
예컨대, 도 4는 정보 생성부(130)가 컨텐트의 메타데이터로부터 얻어진 등장 인물인 '소서노'와 '주몽'의 사진을 이용하여 등장 인물간의 관계에 대한 정보를 구성한 예이다.
이와 같이 정보 생성부(130)는 분할된 텍스트만으로는 얻을 수 없는 정보들이 메타데이터로부터 추출되면, 그 추출된 컨텐트에서의 정보들, 예컨대 등장 인물의 이름, 직함, 호칭, 별명, 특징, 사진, 음성 중 적어도 하나를 이용하여 등장 인물간의 관계에 대한 정보를 보다 풍부하게 구성할 수 있다.
바람직하게는 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 장치는 컨텐트의 메타데이터로부터 컨텐트에서의 등장 인물의 이름, 직함, 호칭, 별명, 특징, 사진, 음성 중 적어도 하나를 추출하는 정보 추출부(미도시)를 더 포함할 수 있다.
한편, 본 발명에 따른 관계 결정부(120)도 텍스트 분할부(110)에 의하여 분할된 텍스트뿐만 아니라 정보 추출부에 의하여 추출된 정보를 등장 인물간의 관계를 결정하는 데 이용할 수 있다.
예컨대, 정보 추출부는 등장 인물을 구분하기 위한 정보로서 등장인물의 이름, 직함, 호칭, 별명, 특징, 사진, 음성 등에 대한 정보를 추출할 수 있는데, 이와 같이 추출된 정보는 텍스트 분할부(110)에 의하여 분할된 텍스트만을 통하여서는 알 수 없는 정보들을 제공해줄 수도 있다.
일 실시예로서, 컨텐트가 비디오 파일인 경우에 등장 인물 중 한 사람이 상대방의 이름을 말하지 않고, "당신"이라는 대명사를 이용하여 상대방과 대화할 수 있다. 이 경우에 본 발명에 따른 관계 결정부(120)는 대사를 분석하는 것 만으로는 "당신"이 누구를 지칭하는 것인지를 알 수 없어, 그 대명사가 포함된 문장을 이용하여 등장 인물간의 관계 정보를 생성하기 힘들어진다.
하지만, 이 경우에 정보 추출부를 통하여 메타데이터로부터 추출된 등장인물의 사진이 있다면, 관계 결정부(120)는 그 사진과 그 '대명사'가 포함된 대사에 대응되는 화면에서의 화자 및 그 대화 상대방의 얼굴을 분석하여 누가 누구에게 한 대사인지를 특정할 수 있어, 그 두 인물간의 대사를 분석함으로써 두 인물간의 관 계 정보를 생성할 수 있게 된다. 또한, 관계 결정부(120)는 정보 추출부가 메타데이터로부터 등장 인물의 음성을 추출하면, 그 음성을 이용하여 등장 인물간의 관계 정보를 생성할 수도 있다.
한편, 이와 같이 등장 인물을 구분하기 위한 정보는 소정의 인덱스를 이용하여 분류되어질 수 있다. 예컨대, "소서노"라는 등장 인물이 있다면, 그 소서노를 구분하기 위한 정보는 C1이라는 인덱스로 구분되고, "주몽"이라는 등장인물은 C2라는 인덱스로 구분될 수 있다. 이때, C1, C2에는 각 인덱스에 대응되는 등장인물의 이름, 직함, 호칭, 별명, 특징, 사진, 음성 등에 대한 정보가 포함될 수 있으며, 이와 같이 인덱스를 이용하는 이유는 관계 결정부(120)에서 등장 인물을 구분하기 위한 정보의 처리를 보다 수월하게 하기 위함이다.
도 5는 본 발명에 따른 등장 인물간의 관계에 대한 정보의 제2 실시예를 설명하기 위하여 도시한 도면이다.
도 5는 제3자의 입장에서 본 등장 인물간의 관계에 대한 정보를 도시한 도면이다. 도 5를 참조하면, 아버지는 어머니와의 관계에서는 부부이고, 딸과의 관계에서는 부녀이며, 아들과의 관계에서는 부자 관계가 된다.
도 5의 경우는 등장 인물 선택부를 통하여 관계 정보를 생성할 등장 인물을 선택하지 않은 경우로서 이와 같은 경우에는 제3자의 입장에서 컨텐트의 모든 등장 인물들간의 관계에 대한 정보를 생성하게 된다.
다만, 도 5의 경우에도 사용자가 아버지의 입장에서 등장 인물간의 관계를 표시하기를 원하는 경우에 등장 인물 선택부를 통하여 아버지를 선택하면 아버지를 중심으로 등장 인물간의 관계를 표시할 수도 있다. 또한, 등장 인물 선택부를 통하여 아버지, 어머니 및 아들을 선택하게 되면, 이 세 사람간의 관계를 표시할 수도 있다.
한편, 이와 같이 생성된 등장 인물간의 관계에 대한 정보는 사용자가 임의로 저장하여 이용하거나, 제3자에게 배포할 수도 있다.
도 6은 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 방법에 대한 일실시예에 대한 흐름도이다.
단계 610에서는, 컨텐트로부터 추출된 텍스트들을 소정의 단위로 분할한다.
단계 620에서는, 분할된 텍스트들을 등장 인물간의 관계를 나타내는 복수개의 카테고리 및 각각의 카테고리에 속하는 키워드들이 정의된 관계 키워드 정보와 대비하여 등장 인물간의 관계를 결정한다.
단계 630에서는, 그 결정에 따라 등장 인물간의 관계에 대한 정보를 생성한다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
도 1은 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 장치의 일 실시예를 도시한 도면이다.
도 2는 본 발명에 따른 관계 결정부의 일 실시예를 도시한 도면이다.
도 3은 본 발명에 따른 관계 키워드 정보의 일 실시예를 도시한 도면이다.
도 4는 본 발명에 따른 등장 인물간의 관계에 대한 정보의 일 실시예를 설명하기 위하여 도시한 도면이다.
도 5는 본 발명에 따른 등장 인물간의 관계에 대한 정보의 제2 실시예를 설명하기 위하여 도시한 도면이다
도 6은 본 발명에 따른 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 방법에 대한 일 실시예에 대한 흐름도이다.
Claims (21)
- 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 방법에 있어서,상기 컨텐트로부터 추출된 텍스트들을 소정의 단위로 분할하는 단계;상기 분할된 텍스트들을 상기 등장 인물간의 관계를 나타내는 복수개의 카테고리 및 상기 복수개의 카테고리 각각에 속하는 키워드들이 정의된 관계 키워드 정보와 대비하여 상기 등장 인물간의 관계를 결정하는 단계; 및상기 결정에 따라 상기 등장 인물간의 관계에 대한 정보를 생성하는 단계를 포함하고상기 결정하는 단계는상기 관계 키워드 정보에 기초하여, 상기 분할된 텍스트들을 상기 복수개의 카테고리 각각에 대응시키는 단계상기 복수개의 카테고리 각각에 대응되는 상기 분할된 텍스트들의 개수를 판단하는 단계;및상기 판단하는 단계가 수행된 결과에 기초하여 가장 많은 개수의 상기 분할된 텍스트들과 대응되는 카테고리에 의하여 표현되는 관계를 상기 등장 인물간의 관계로 결정하는 단계를 포함하는 것을 특징으로 하는 관계 정보 생성 방법.
- 삭제
- 제1항에 있어서,상기 대응시키는 단계는상기 분할된 텍스트들 중 부가 정보를 포함하고 있는 분할된 텍스트를 상기 부가정보에 정의된 내용에 기초하여 상기 카테고리에 대응시키는 것을 특징으로 하는 관계 정보 생성 방법.
- 제1항에 있어서상기 분할하는 단계는상기 컨텐트로부터 추출된 텍스트를 단어 단위 또는 관용어구 단위로 분할하는 것을 특징으로 하는 관계 정보 생성 방법
- 제1항에 있어서,상기 컨텐트의 메타데이터로부터 상기 컨텐트에서의 등장 인물의 이름, 직함, 호칭, 별명, 특징, 사진, 음성에 대한 정보 중 적어도 하나를 추출하는 단계를 더 포함하고,상기 등장 인물간의 관계를 결정하는 단계는 상기 메타데이터로부터 추출된 정보를 이용하여 상기 등장 인물간의 관계를 결정하는 것을 특징으로 하는 관계 정보 생성 방법.
- 제5항에 있어서,상기 등장 인물간의 관계에 대한 정보를 생성하는 단계는상기 메타데이터로부터 추출된 정보를 이용하여 상기 등장 인물간의 관계에 대한 정보를 생성하는 것을 특징으로 하는 관계 정보 생성 방법.
- 제1항에 있어서,상기 등장 인물간의 관계 정보 생성에 이용될 적어도 하나의 등장 인물을 선택하는 단계를 더 포함하고,상기 등장 인물간의 관계에 대한 정보를 생성하는 단계는 상기 선택된 등장 인물간의 관계에 대한 정보를 생성하는 것을 특징으로 하는 관계 정보 생성 방법.
- 제1항에 있어서,상기 등장 인물간의 관계에 대한 정보를 생성하는 단계는소정의 시간 간격을 기준으로 또는 소정의 등장 인물을 중심으로 상기 등장 인물간의 관계에 대한 정보를 생성하는 것을 특징으로 하는 관계 정보 생성 방법
- 제1항에 있어서,상기 관계 키워드 정보의 복수개의 카테고리 각각은상기 등장 인물 간의 지위 관계 또는 감정의 종류 중 적어도 하나의 기준에 따라 구분되는 것을 특징으로 하는 관계 정보 생성 방법.
- 제1항에 있어서,상기 컨텐트는 비디오 파일, 오디오 파일 및 전자 책 중 하나인 것을 특징으로 하는 관계 정보 생성 방법.
- 컨텐트에서의 등장 인물간의 관계에 대한 정보를 생성하는 장치에 있어서,상기 컨텐트로부터 추출된 텍스트들을 소정의 단위로 분할하는 텍스트 분할부;상기 분할된 텍스트들을 상기 등장 인물간의 관계를 나타내는 복수개의 카테고리 및 상기 복수개의 카테고리 각각에 속하는 키워드들이 정의된 관계 키워드 정보와 대비하여 상기 등장 인물간의 관계를 결정하는 관계 결정부; 및상기 결정에 따라 상기 등장 인물간의 관계에 대한 정보를 생성하는 정보 생성부를 포함하고상기 관계 결정부는상기 관계 키워드 정보에 기초하여, 상기 분할된 텍스트들을 상기 복수개의 카테고리 각각에 대응시키는 대응부;상기 복수개의 카테고리 각각에 대응되는 상기 분할된 텍스트들의 개수를 판단하는 판단부; 및상기 판단부의 판단 결과, 가장 많은 개수의 상기 분할된 텍스트들과 대응되는 카테고리에 의하여 표현되는 관계를 상기 등장 인물간의 관계로 결정하는 결정부를 포함하는 것을 특징으로 하는 관계 정보 생성 장치.
- 삭제
- 제11항에 있어서,상기 대응부는상기 분할된 텍스트 중 부가 정보를 포함하고 있는 분할된 텍스트를 상기 부가정보에 정의된 내용에 기초하여 상기 카테고리에 대응시키는 것을 특징으로 하는 관계 정보 생성 장치.
- 제11항에 있어서상기 텍스트 분할부는상기 컨텐트로부터 추출된 텍스트를 단어 단위 또는 관용어구 단위로 분할하는 것을 특징으로 하는 관계 정보 생성 장치.
- 제11항에 있어서,상기 컨텐트의 메타데이터로부터 상기 컨텐트에서의 등장 인물의 이름, 직함, 호칭, 별명, 특징, 사진, 음성에 대한 정보 중 적어도 하나를 추출하는 정보 추출부를 더 포함하고,상기 관계 결정부는 상기 메타데이터로부터 추출된 정보를 이용하여 상기 등장 인물간의 관계를 결정하는 것을 특징으로 하는 관계 정보 생성 장치.
- 제15항에 있어서,상기 정보 생성부는상기 메타데이터로부터 추출된 정보를 이용하여 상기 등장 인물간의 관계에 대한 정보를 생성하는 것을 특징으로 하는 관계 정보 생성 장치.
- 제11항에 있어서,상기 등장 인물간의 관계 정보 생성에 이용될 적어도 하나의 등장 인물을 선택하기 위한 등장 인물 선택부를 더 포함하고,상기 정보 생성부는 상기 선택된 등장 인물간의 관계에 대한 정보를 생성하는 것을 특징으로 하는 관계 정보 생성 장치.
- 제11항에 있어서,상기 정보 생성부는소정의 시간 간격을 기준으로 또는 소정의 등장 인물을 중심으로 상기 등장 인물간의 관계에 대한 정보를 생성하는 것을 특징으로 하는 관계 정보 생성 장치.
- 제11항에 있어서,상기 관계 키워드 정보의 복수개의 카테고리 각각은상기 등장 인물 간의 지위 관계 또는 감정의 종류 중 적어도 하나의 기준에 따라 구분되는 것을 특징으로 하는 관계 정보 생성 장치.
- 제11항에 있어서,상기 컨텐트는 비디오 파일, 오디오 파일 및 전자 책 중 하나인 것을 특징으로 하는 관계 정보 생성 장치.
- 제1항 및 제 3항 내지 제10항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070089970A KR101391599B1 (ko) | 2007-09-05 | 2007-09-05 | 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 방법및 그 장치 |
US12/106,435 US8321203B2 (en) | 2007-09-05 | 2008-04-21 | Apparatus and method of generating information on relationship between characters in content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070089970A KR101391599B1 (ko) | 2007-09-05 | 2007-09-05 | 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 방법및 그 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090024969A KR20090024969A (ko) | 2009-03-10 |
KR101391599B1 true KR101391599B1 (ko) | 2014-05-09 |
Family
ID=40408842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070089970A KR101391599B1 (ko) | 2007-09-05 | 2007-09-05 | 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 방법및 그 장치 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8321203B2 (ko) |
KR (1) | KR101391599B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017122872A1 (ko) * | 2016-01-15 | 2017-07-20 | 단국대학교 산학협력단 | 전자 출판물에 대한 정보를 생성하는 장치 및 방법 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112012007316B1 (pt) | 2009-09-30 | 2021-09-28 | Evan V. Chrapko | Método e sistemas para determinar a conectividade de rede |
US20110099164A1 (en) | 2009-10-23 | 2011-04-28 | Haim Zvi Melman | Apparatus and method for search and retrieval of documents and advertising targeting |
US20120005616A1 (en) * | 2010-06-30 | 2012-01-05 | Oto Technologies, Llc | Methods and systems for providing information about a narrative |
US9645986B2 (en) | 2011-02-24 | 2017-05-09 | Google Inc. | Method, medium, and system for creating an electronic book with an umbrella policy |
USD761840S1 (en) | 2011-06-28 | 2016-07-19 | Google Inc. | Display screen or portion thereof with an animated graphical user interface of a programmed computer system |
US9141404B2 (en) | 2011-10-24 | 2015-09-22 | Google Inc. | Extensible framework for ereader tools |
KR20130123038A (ko) * | 2012-05-02 | 2013-11-12 | 한국전자통신연구원 | 자동 번역을 위한 존대 표현 생성 장치 및 그 방법 |
US9069744B2 (en) | 2012-05-15 | 2015-06-30 | Google Inc. | Extensible framework for ereader tools, including named entity information |
US9323733B1 (en) | 2013-06-05 | 2016-04-26 | Google Inc. | Indexed electronic book annotations |
US9998799B2 (en) | 2014-08-16 | 2018-06-12 | Sony Corporation | Scene-by-scene plot context for cognitively impaired |
US20160117311A1 (en) * | 2014-10-22 | 2016-04-28 | Thomson Licensing | Method and Device for Performing Story Analysis |
EP3121734A1 (en) * | 2015-07-24 | 2017-01-25 | Thomson Licensing | A method and device for performing story analysis |
US10395175B1 (en) * | 2014-12-12 | 2019-08-27 | Amazon Technologies, Inc. | Determination and presentment of relationships in content |
US9578043B2 (en) | 2015-03-20 | 2017-02-21 | Ashif Mawji | Calculating a trust score |
KR101708444B1 (ko) * | 2015-11-16 | 2017-02-22 | 주식회사 위버플 | 키워드 및 자산 가격 관련성 평가 방법 및 그 장치 |
US20170235792A1 (en) | 2016-02-17 | 2017-08-17 | Www.Trustscience.Com Inc. | Searching for entities based on trust score and geography |
US9679254B1 (en) | 2016-02-29 | 2017-06-13 | Www.Trustscience.Com Inc. | Extrapolating trends in trust scores |
US9721296B1 (en) | 2016-03-24 | 2017-08-01 | Www.Trustscience.Com Inc. | Learning an entity's trust model and risk tolerance to calculate a risk score |
US10180969B2 (en) * | 2017-03-22 | 2019-01-15 | Www.Trustscience.Com Inc. | Entity resolution and identity management in big, noisy, and/or unstructured data |
KR101898648B1 (ko) | 2018-01-02 | 2018-09-13 | 단국대학교 산학협력단 | 영상 등장 인물들 사이의 상호 작용 그룹 탐지를 위한 장치 및 방법 |
US10264330B1 (en) | 2018-01-03 | 2019-04-16 | Sony Corporation | Scene-by-scene plot context for cognitively impaired |
US11328012B2 (en) | 2018-12-03 | 2022-05-10 | International Business Machines Corporation | Visualization of dynamic relationships in a storyline |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020051077A1 (en) * | 2000-07-19 | 2002-05-02 | Shih-Ping Liou | Videoabstracts: a system for generating video summaries |
US20030154084A1 (en) | 2002-02-14 | 2003-08-14 | Koninklijke Philips Electronics N.V. | Method and system for person identification using video-speech matching |
US20050097621A1 (en) | 2003-11-03 | 2005-05-05 | Wallace Michael W. | Method and apparatus for synopsizing program content during presentation |
US20060129927A1 (en) * | 2004-12-02 | 2006-06-15 | Nec Corporation | HTML e-mail creation system, communication apparatus, HTML e-mail creation method, and recording medium |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5182708A (en) * | 1990-12-11 | 1993-01-26 | Ricoh Corporation | Method and apparatus for classifying text |
US5576954A (en) * | 1993-11-05 | 1996-11-19 | University Of Central Florida | Process for determination of text relevancy |
US20010049596A1 (en) * | 2000-05-30 | 2001-12-06 | Adam Lavine | Text to animation process |
US7607083B2 (en) * | 2000-12-12 | 2009-10-20 | Nec Corporation | Test summarization using relevance measures and latent semantic analysis |
GB2399427A (en) * | 2003-03-12 | 2004-09-15 | Canon Kk | Apparatus for and method of summarising text |
KR100642888B1 (ko) | 2004-10-19 | 2006-11-08 | 한국과학기술원 | 스토리 이해 가능한 서사 구조 중심의 비디오 요약생성방법 및 그 방법을 구현하기 위한 프로그램이 저장된기록매체 |
US20100049703A1 (en) * | 2005-06-02 | 2010-02-25 | Enrico Coiera | Method for summarising knowledge from a text |
KR100729184B1 (ko) | 2005-07-25 | 2007-06-19 | 주식회사 엠파스 | 연상 키워드를 이용한 관계 정보 검색 방법 및 장치 |
-
2007
- 2007-09-05 KR KR1020070089970A patent/KR101391599B1/ko not_active IP Right Cessation
-
2008
- 2008-04-21 US US12/106,435 patent/US8321203B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020051077A1 (en) * | 2000-07-19 | 2002-05-02 | Shih-Ping Liou | Videoabstracts: a system for generating video summaries |
US20030154084A1 (en) | 2002-02-14 | 2003-08-14 | Koninklijke Philips Electronics N.V. | Method and system for person identification using video-speech matching |
US20050097621A1 (en) | 2003-11-03 | 2005-05-05 | Wallace Michael W. | Method and apparatus for synopsizing program content during presentation |
US20060129927A1 (en) * | 2004-12-02 | 2006-06-15 | Nec Corporation | HTML e-mail creation system, communication apparatus, HTML e-mail creation method, and recording medium |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017122872A1 (ko) * | 2016-01-15 | 2017-07-20 | 단국대학교 산학협력단 | 전자 출판물에 대한 정보를 생성하는 장치 및 방법 |
KR101781597B1 (ko) * | 2016-01-15 | 2017-09-25 | 단국대학교 산학협력단 | 전자 출판물에 대한 정보를 생성하는 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20090024969A (ko) | 2009-03-10 |
US20090063157A1 (en) | 2009-03-05 |
US8321203B2 (en) | 2012-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101391599B1 (ko) | 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 방법및 그 장치 | |
US8204317B2 (en) | Method and device for automatic generation of summary of a plurality of images | |
US20140164507A1 (en) | Media content portions recommended | |
US20070223871A1 (en) | Method of Generating a Content Item Having a Specific Emotional Influence on a User | |
US20070136755A1 (en) | Video content viewing support system and method | |
JP5488475B2 (ja) | トピック遷移解析システム、トピック遷移解析方法およびプログラム | |
JP5106455B2 (ja) | コンテンツ推薦装置及びコンテンツ推薦方法 | |
CN101422041A (zh) | 基于因特网搜索的电视 | |
JP2011515896A (ja) | ビデオインターバルへの注釈 | |
US20090132074A1 (en) | Automatic segment extraction system for extracting segment in music piece, automatic segment extraction method, and automatic segment extraction program | |
JP2008529337A (ja) | マルチメディアプレゼンテーション生成 | |
JPWO2008136466A1 (ja) | 動画編集装置 | |
JP4064902B2 (ja) | メタ情報生成方法、メタ情報生成装置、検索方法および検索装置 | |
TWI301268B (en) | Storage medium including meta information for search and device and method of playing back the storage medium | |
JP2006343941A (ja) | コンテンツ検索・再生方法、装置、プログラム、及び記録媒体 | |
US20080016068A1 (en) | Media-personality information search system, media-personality information acquiring apparatus, media-personality information search apparatus, and method and program therefor | |
KR101424625B1 (ko) | 챕터 작성 장치, 챕터 작성 방법 및, 챕터 작성 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체 | |
KR102252522B1 (ko) | 내용 기반 동영상 목차 자동생성 방법 및 시스템 | |
JP2011164865A (ja) | 画像選定装置、画像選定方法および画像選定プログラム | |
WO2006030995A9 (en) | Index-based authoring and editing system for video contents | |
JP6129977B2 (ja) | アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラム | |
Romão et al. | Designing a system for the automatic generation of sport video summaries | |
JP4731522B2 (ja) | 特徴量生成装置、要約映像検出装置、及びプログラム | |
Watts | Resurrection, revelation, reception: Rescuing John From Cincinnati from the HBO narrative | |
JP5765264B2 (ja) | チャプター作成装置、チャプター作成方法、及びチャプター作成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170330 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180329 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |