KR102535121B1 - 컨텐츠의 태그정보 생성 장치 및 방법 - Google Patents

컨텐츠의 태그정보 생성 장치 및 방법 Download PDF

Info

Publication number
KR102535121B1
KR102535121B1 KR1020170166027A KR20170166027A KR102535121B1 KR 102535121 B1 KR102535121 B1 KR 102535121B1 KR 1020170166027 A KR1020170166027 A KR 1020170166027A KR 20170166027 A KR20170166027 A KR 20170166027A KR 102535121 B1 KR102535121 B1 KR 102535121B1
Authority
KR
South Korea
Prior art keywords
information
script
scene
text
video content
Prior art date
Application number
KR1020170166027A
Other languages
English (en)
Other versions
KR20190066367A (ko
Inventor
이호재
한민호
김선중
박종현
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170166027A priority Critical patent/KR102535121B1/ko
Publication of KR20190066367A publication Critical patent/KR20190066367A/ko
Application granted granted Critical
Publication of KR102535121B1 publication Critical patent/KR102535121B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

태깅정보 생성 장치 및 방법 개시된다. 본 개시의 일 실시 예에 따른 태깅정보 생성 장치는 영상 콘텐츠에 대응되는 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나를 식별하는 대본정보 분석부와, 상기 영상 콘텐츠에 포함된 적어도 하나의 장면 영상 콘텐츠에 대한 자막정보를 확인하는 자막정보 확인부와, 상기 적어도 하나의 장면 영상 콘텐츠의 자막정보와, 상기 영상 콘텐츠에 대응되는 대본정보 사이의 시간정보를 동기화하는 대본/자막 동기화부와, 상기 시간정보가 동기화된 자막정보와 대본정보에 기초하여, 상기 적어도 하나의 장면 영상 콘텐츠에, 상기 대본정보를 기반으로 하는 태깅정보를 결합하는 태깅정보 결합부를 포함할 수 있다.

Description

컨텐츠의 태그정보 생성 장치 및 방법{APPARATUS FOR GENERATING TAG INFORMATION OF CONTENTS AND METHOD FOR THE SAME}
본 개시는 영상 컨텐츠 생성 기술에 관한 것이며, 보다 구체적으로는 영상 컨텐츠에 태그 정보를 결합하는 방법 및 장치에 대한 것이다.
정보통신 기술의 발달에 따라, 영상 콘텐츠가 지상파 방송, IPTV, 모바일 앱 등의 다양한 매체를 통해 사용자에게 제공될 수 있는 환경이 구축되었다.
TV 드라마, 예능 프로그램, 영화와 같이 영상 콘텐츠 전체를 모두 시청하는 사람도 있지만, 전체 재생 시간이 1시간 내지 2시간으로 이루어져 있으므로, 시간적 제약에 의해 영상 콘텐츠 전체를 시청하지 못하는 사용자가 존재한다. 이와 같이, 시간적 제약으로 인해 영상 콘텐츠 전체를 시청하지 못하는 사용자는 하이라이트 장면의 영상을 포함하는 요약 콘텐츠를 이용 또는 시청하고 있다.
일반적으로 이러한 요약 콘텐츠는 영상 콘텐츠를 생성 및 제공하는 원 제작자와 다른 2차 제작자에 의해 생성된다. 2차 제작자는 주관적인 견해를 바탕으로 하이라이트 장면으로 생각되는 적어도 하나의 장면을 발췌 및 편집하여 요약 콘텐츠를 수동으로 구성하고 있다.
이러한 종래의 요약 콘텐츠 생성 방법은 2차 제작자에 의해 수동으로 진행되므로, 편집 과정에서 오류가 발생될 수 있으며, 주관적인 견해에 의해 원 제작자가 의도하지 않는 정보가 포함되는 등의 문제가 발생될 수 있다.
본 개시의 기술적 과제는 콘텐츠를 제공하는 원 제작자의 의도가 반영될 수 있는 하이라이트 장면을 자동으로 검출할 수 있는 컨텐츠의 태그정보 생성 장치 및 방법을 제공하는 것이다.
또한, 본 개시의 다른 기술적 과제는 콘텐츠를 제공하는 원 제작자의 의도가 반영될 수 있는 하이라이트 장면을 자동으로 검출하는데 필요한 태그 정보를 영상 콘텐츠의 기초가 되는 대본으로부터 검출할 수 있는 컨텐츠의 태그정보 생성 장치 및 방법을 제공하는 것이다.
또한, 본 개시의 또 다른 기술적 과제는 콘텐츠를 제공하는 원 제작자의 의도가 정확하게 반영된 요약 콘텐츠를 생성하는 장치 및 방법을 제공하는 것이다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따르면 태깅정보 생성 장치가 제공될 수 있다. 상기 장치는 전자 장치에 있어서, 영상 콘텐츠에 대응되는 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나를 식별하는 대본정보 분석부와, 상기 영상 콘텐츠에 포함된 적어도 하나의 장면 영상 콘텐츠에 대한 자막정보를 확인하는 자막정보 확인부와, 상기 적어도 하나의 장면 영상 콘텐츠의 자막정보와, 상기 영상 콘텐츠에 대응되는 대본정보 사이의 시간정보를 동기화하는 대본/자막 동기화부와, 상기 시간정보가 동기화된 자막정보와 대본정보에 기초하여, 상기 적어도 하나의 장면 영상 콘텐츠에, 상기 대본정보를 기반으로 하는 태깅정보를 결합하는 태깅정보 결합부를 포함할 수 있다.
본 개시의 다른 양상에 따르면 태깅정보 생성 방법이 제공될 수 있다. 상기 방법은 전자 장치가 태깅정보를 생성하는 방법에 있어서, 영상 콘텐츠에 대응되는 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나를 식별하는 과정과, 상기 영상 콘텐츠에 포함된 적어도 하나의 장면 영상 콘텐츠에 대한 자막정보를 확인하는 과정과, 상기 적어도 하나의 장면 영상 콘텐츠의 자막정보와, 상기 영상 콘텐츠에 대응되는 대본정보 사이의 시간정보를 동기화하는 과정과, 상기 시간정보가 동기화된 자막정보와 대본정보에 기초하여, 상기 적어도 하나의 장면 영상 콘텐츠에, 상기 대본정보를 기반으로 하는 태깅정보를 결합하는 과정을 포함할 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시에 따르면, 콘텐츠를 제공하는 원 제작자의 의도가 반영될 수 있는 하이라이트 장면을 자동으로 검출할 수 있는 컨텐츠의 태그정보 생성 장치 및 방법이 제공될 수 있다.
또한, 본 개시에 따르면, 원 제작자의 의도가 반영될 수 있는 하이라이트 장면을 자동으로 검출하는데 필요한 태그 정보를 영상 콘텐츠의 기초가 되는 대본으로부터 검출할 수 있는 컨텐츠의 태그정보 생성 장치 및 방법이 제공될 수 있다.
나아가, 본 개시에 따르면, 원본 콘텐츠를 제공하는 원 제작자의 의도가 정확하게 반영된 요약 콘텐츠를 생성하는 장치 및 방법이 제공될 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시예에 따른 태깅정보 생성 장치의 구성을 도시하는 블록도이다.
도 2a 및 도 2b는 본 개시의 일 실시예에 따른 태깅정보 생성 장치에 구비되는 대본정보 분석부에서 대본정보를 분석하는 동작을 예시하는 도면이다.
도 3은 본 개시의 일 실시예에 따른 태깅정보 생성 장치에 구비되는 대본/자막 동기화부에서 자막정보와 대본정보를 동기화하는 동작을 예시하는 도면이다.
도 4는본 개시의 일 실시예에 따른 태깅정보 생성 방법의 순서를 도시하는 흐름도이다.
도 5는 본 개시의 일 실시예에 따른 불변 생체정보 및 가변 생체정보를 이용한 인증 방법 및 장치를 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다.
이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.
본 개시의 실시 예에서, 영상 콘텐츠는 복수의 장면 단위에 대한 영상(이하, '장면 영상 콘텐츠'라 함)을 포함하는 콘텐츠일 수 있으며, 장면 영상 콘텐츠는 적어도 하나의 이미지 또는 동영상을 포함할 수 있다.
본 개시의 실시 예에서, 대본정보는 영상 콘텐츠를 생성하는데 기초가되는 대본을 포함할 수 있으며, 텍스트 포맷을 포함할 수 있다.
또한, 영상 콘텐츠에 사용되는 대본에 기초하여, 대본정보는 지문정보, 대사정보, 및 나레이션 정보를 포함할 수 있으며, 영상 콘텐츠에 포함되는 장면을 식별하는 정보로서 장면 식별자를 더 포함할 수 있다.
지문정보는, 장면에 포함되는 인물의 행동, 심리, 공간 등을 묘사하는 지시문을 포함할 수 있다. 예를 들어, 지문정보는, 시간(낮인지 밤인지 새벽인지), 장소(시골인지 도시인지), 분위기(스산한지 밝은지), 등장인물의 동선 등을 묘사하는 정보, 등장인물의 말투, 행동, 표정 등을 묘사하는 정보를 포함할 수 있다.
대사정보는 등장인물이 주고받는 말, 이야기 등에 대한 정보를 포함할 수 있고, 나레이션 정보는 독백, 해설 등에 대한 정보를 포함할 수 있다.
한편, 장면 영상의 일부 영역에는 자막이 함께 표시될 수 있는데, 장면 영상 콘텐츠는 이러한 자막을 표시하기 위한 정보로서 자막정보를 포함할 수 있다. 자막정보는 장면 영상에 표시되는 자막의 기초가 되는 자막 텍스트, 장면 영상 내에서 자막이 표시되는 영역을 지시하는 자막 위치정보, 자막이 표시되는 시점을 지시하는 자막 시간정보를 포함할 수 있다.
도 1은 본 개시의 일 실시예에 따른 태깅정보 생성 장치의 구성을 도시하는 블록도이다.
본 개시의 일 실시예에 따른 태깅정보 생성 장치(10)는 대본정보 분석부(11), 자막정보 확인부(13), 대본/자막 동기화부(15), 및 태깅정보 결합부(17)를 포함할 수 있다.
대본정보 분석부(11)는 영상 콘텐츠에 대응되는 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나를 식별할 수 있다.
대본정보 분석부(11)는 대본정보에 포함된 텍스트를 검출할 수 있으며, 검출된 텍스트의 특성을 확인하고, 확인된 특성을 기반으로 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나를 식별할 수 있다.
나아가, 대본정보 분석부(11)는 대본정보에 포함된 텍스트로부터, 장면 식별자를 더 식별할 수 있다. 그리고, 대본정보 분석부(11)는 장면 식별자를 기준으로, 장면 단위를 구분할 수 있으며, 장면 단위별로, 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 등을 분리하여 관리할 수 있다.
구체적으로, 대본정보 분석부(11)는 텍스트 특성 확인부(11a)와, 대본정보 결정부(11b)를 포함할 수 있다.
텍스트 특성 확인부(11a)는 대본정보에 포함된 상기 텍스트의 특성으로서, 텍스트의 정렬 위치, 텍스트의 크기, 텍스트의 폰트 종류, 및 텍스트 효과 종류 중 적어도 하나를 검출할 수 있다.
텍스트의 정렬 위치는 대본정보에 포함된 상기 텍스트가 왼쪽(또는 오른쪽) 기준으로 정렬되어 있는지, 중앙 부분에 정렬되어 있는지 등을 나타내는 정보일 수 있다. 텍스트의 크기는 텍스트 글꼴 크기를 수치화하여 나타낼 수 있으며, 텍스트의 폰트 종류(예, 굴림체, 바탕체, 명조체, 고딕체 등)는 각 폰트가 가지는 특성을 기반으로 확인할 수 있다. 텍스트 효과 종류는 텍스트에 적용된 효과를 지시하는 것으로서, 기울임 효과, 밑줄 효과, 굵은 글씨체 효과 등을 포함할 수 있다.
대본정보 결정부(11b)는 확인된 텍스트의 특성에 기초하여, 상기 대본정보에 포함된 텍스트를 상기 지문정보, 대사정보, 나레이션 정보, 장면 식별자 등을 분류할 수 있다. 예컨대, 대본정보 결정부(11b)는 다량의 대본정보의 학습을 통해 상기 대본정보에 포함된 텍스트를 상기 지문정보, 대사정보, 나레이션 정보, 장면 식별자 등을 분류할 수 있다. 이때, 대본정보 결정부(11b)는 상기 대본정보에 포함된 텍스트의 특성을 입력으로 하고, 상기 대본정보에 포함된 상기 지문정보, 대사정보, 나레이션 정보, 장면 식별자 등을 출력으로 하는 신경망을 구축할 수 있다. 그리고, 대본정보 결정부(11b)는 이와 같이 구축된 신경망을 통해 영상 콘텐츠의 대본정보에 대한 상기 지문정보, 대사정보, 나레이션 정보, 장면 식별자 등을 분류할 수 있다.
한편, 영상 콘텐츠의 생성 또는 부호화 처리 과정에서, 영상 콘텐츠와 관련된 정보가 수록될 수 있으며, 특히, 영상을 식별할 수 있는 영상 식별자(예, 영상명), 영상 콘텐츠에 포함되는 장면 영상 콘텐츠를 실별할 수 있는 장면 영상 식별자, 장면 영상에 포함된 프레임에 대한 정보(예, 프레임 식별자, 시간 정보), 자막정보 등이 수록될 수 있다.
이에 기초하여, 자막정보 확인부(13)는 상기 영상 콘텐츠에 포함된 적어도 하나의 장면 영상 콘텐츠에 대한 자막정보를 확인할 수 있다. 그리고, 자막정보 확인부(13)는 자막정보와 함께, 상기 자막정보에 대응되는 정보, 예를 들어, 영상을 식별할 수 있는 영상 식별자(예, 영상명), 영상 콘텐츠에 포함되는 장면 영상 콘텐츠를 실별할 수 있는 장면 영상 식별자, 장면 영상에 포함된 프레임에 대한 정보(예, 프레임 식별자, 시간 정보) 등을 확인할 수 있다.
대본/자막 동기화부(15)는 상기 적어도 하나의 장면 영상 콘텐츠의 자막정보와, 상기 영상 콘텐츠에 대응되는 대본정보 사이의 시간정보를 동기화할 수 있다. 전술한 바와 같이, 대본정보는 지문정보, 대사정보, 나레이션 정보 등을 포함할 수 있는데, 대본/자막 동기화부(15)는 자막정보와, 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보를 사용하여 시간 동기화를 수행할 수 있다.
구체적으로, 대본/자막 동기화부(15)는 유사도 확인부(15a)와 동기화 처리부(15b)를 포함할 수 있다.
유사도 확인부(15a)는 상기 자막정보와, 상기 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보 사이의 유사도(Similarity)를 확인할 수 있다.
예컨대, 자막정보는 장면 영상에 표시되는 자막의 기초가 되는 자막 텍스트, 장면 영상 내에서 자막이 표시되는 영역을 지시하는 자막 위치정보, 자막이 표시되는 시점을 지시하는 자막 시간정보 등을 포함할 수 있는데, 유사도 확인부(15a)는 자막정보에 포함된 자막 텍스트와, 지문정보, 대사정보, 나레이션 정보 등에 대응되는 텍스트 사이의 유사도를 확인할 수 있다.
나아가, 유사도 확인부(15a)는 편집거리 알고리즘을 이용하여 유사도(Similarity)를 확인할 수 있다.
동기화 처리부(15b)는 유사도 확인부(15a)에서 확인된 유사도에 기초하여, 상기 적어도 하나의 장면 영상 콘텐츠의 시간 정보를, 상기 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나에 결합하여 시간정보를 동기화할 수 있다.
동기화 처리부(15b)는 유사도 확인부(15a)에서 확인된 상기 자막정보와, 상기 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보 사이의 유사도가 미리 정해진 값을 초과할 경우, 미리 정해진 값을 초과하는 유사도를 구비하는 해당 정보(즉, 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보)를 확인할 수 있다. 그리고, 동기화 처리부(15b)는 자막정보에 포함된 자막 시간정보를 확인하고, 확인된 자막 시간정보에 맞게, 상기 미리 정해진 값을 초과하는 유사도를 구비하는 해당 정보(즉, 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보)를 동기화할 수 이다.
태깅정보 결합부(17)는 자막정보와 시간 동기화된 정보(즉, 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보)에 대응되는 텍스트를 사용하여, 장면 영상 콘텐츠에 태그 정보를 결합할 수 있다. 즉, 태깅정보 결합부(17)는, 상기 자막정보에 대응되는 장면영상 콘텐츠에, 시간 동기화된 정보(즉, 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보)에 대응되는 텍스트를 태그 정보로서 부착할 수 있다.
나아가, 태깅정보 생성 장치(10)는 상기 대본정보를 기반으로 하는 태깅정보가 결합된, 상기 적어도 하나의 장면 영상 콘텐츠를 포함하는 요약 영상 콘텐츠를 생성하는 요약 영상 콘텐츠 생성부(19)를 더 포함할 수 있다.
도 2a 및 도 2b는 본 개시의 일 실시예에 따른 태깅정보 생성 장치에 구비되는 대본정보 분석부에서 대본정보를 분석하는 동작을 예시하는 도면이다.
이하, 도 2a 및 도 2b를 참조하여, 대본정보 분석부(11)의 구체적인 동작을 예시한다.
우선, 텍스트 특성 확인부(11a)는 대본정보(200)에 포함된 상기 텍스트의 특성으로서, 텍스트의 정렬 위치, 텍스트의 크기, 텍스트의 폰트 종류, 및 텍스트 효과 종류 등을 검출할 수 있다.
예를 들어, 텍스트 특성 확인부(11a)는 대본정보(200)에 포함된 상기 텍스트의 특성이 다음과 같음을 확인할 수 있다.
제1영역(201)의 텍스트: 정렬 위치는 왼쪽 정렬, 글꼴의 크기가 15, 텍스트의 폰트 종류가 바탕체, 텍스트 효과 종류가 굵은 글씨체 효과, 정렬 위치는 왼쪽 정렬
제2영역(202)의 텍스트: 정렬 위치는 왼쪽 정렬, 글꼴의 크기가 10, 텍스트의 폰트 종류가 바탕체, 텍스트 효과 종류가 기본 글씨체 효과
제3영역(203)의 텍스트: 정렬 위치는 왼쪽 정렬, 글꼴의 크기가 15, 텍스트의 폰트 종류가 바탕체, 텍스트 효과 종류가 굵은 글씨체 효과
제4영역(204)의 텍스트: 정렬 위치는 왼쪽 정렬 및 하이픈('-') 삽입 정렬, 글꼴의 크기가 10, 텍스트의 폰트 종류가 굴림체, 텍스트 효과 종류가 기본 글씨체 효과
제5영역(205)의 텍스트: 정렬 위치는 왼쪽 정렬, 글꼴의 크기가 10, 텍스트의 폰트 종류가 바탕체, 텍스트 효과 종류가 기본 글씨체 효과
제6영역(206)의 텍스트: 정렬 위치는 중앙 정렬, 글꼴의 크기가 12, 텍스트의 폰트 종류가 바탕체, 텍스트 효과 종류가 굵은 글씨체 효과
제7영역(207)의 텍스트: 정렬 위치는 왼쪽 정렬, 글꼴의 크기가 10, 텍스트의 폰트 종류가 바탕체, 텍스트 효과 종류가 기본 글씨체 효과
제8영역(208)의 텍스트: 정렬 위치는 중앙 정렬, 글꼴의 크기가 12, 텍스트의 폰트 종류가 바탕체, 텍스트 효과 종류가 굵은 글씨체 효과
제9영역(209)의 텍스트: 정렬 위치는 왼쪽 정렬, 글꼴의 크기가 10, 텍스트의 폰트 종류가 바탕체, 텍스트 효과 종류가 기본 글씨체 효과
제10영역(210)의 텍스트: 정렬 위치는 왼쪽 정렬 및 하이픈('-') 삽입 정렬, 글꼴의 크기가 10, 텍스트의 폰트 종류가 굴림체, 텍스트 효과 종류가 기본 글씨체 효과
제11영역(211)의 텍스트: 정렬 위치는 왼쪽 정렬, 글꼴의 크기가 10, 텍스트의 폰트 종류가 바탕체, 텍스트 효과 종류가 기본 글씨체 효과
제12영역(212)의 텍스트: 정렬 위치는 중앙 정렬, 글꼴의 크기가 12, 텍스트의 폰트 종류가 바탕체, 텍스트 효과 종류가 굵은 글씨체 효과
대본정보 결정부(11b)는 다량의 대본정보의 학습을 통해 구축된 신경망을 통해, 대본정보(200)에 포함된 상기 텍스트의 특성을 입력으로 사용하여 도 2a에서 예시된 영역의 텍스트를 다음과 같이, 분류할 수 있다.
- 장면 식별자: 제1영역(201), 제3영역(203)
- 장면 정보: 제4영역(204), 제10영역(210)
- 지문정보: 제2영역(202), 제5영역(205), 제7영역(207), 제9영역(209), 제11영역(211)
- 대사정보: 제6영역(206), 제8영역(208), 제12영역(212)
대본정보 결정부(11b)는 장면 식별자를 사용하여 장면 단위로, 대본정보에 대한 상기 지문정보, 대사정보, 나레이션 정보, 장면 식별자 등을 분류할 수 있다. 예를 들어, 장면 식별자를 사용하여 제1장면 단위(221)와 제2장면 단위(222)로 구분할 수 있다.
예를 들어, 대본정보 결정부(11b)는 제1장면 단위(221)에는 장면 식별자로서 제1영역(201)과, 지문정보로서 제2영역(202)이 포함되고, 제2장면 단위(221)에는 장면 식별자로서 제3영역(203)과, 장면 정보로서 제4영역(204) 및 제10영역(210)과, 지문정보로서 제5영역(205), 제7영역(207), 제9영역(209), 및 제11영역(211)과, 대사정보로서 제6영역(206), 제8영역(208), 제12영역(212)가 포함되는 것으로 분류할 수 있다.
도 3은 본 개시의 일 실시예에 따른 태깅정보 생성 장치에 구비되는 대본/자막 동기화부에서 자막정보와 대본정보를 동기화하는 동작을 예시하는 도면이다.
이하, 도3을 참조하여, 전술한 대본/자막 동기화부(15)의 구체적인 동작을 예시한다.
자막정보는 장면 영상에 표시되는 자막의 기초가 되는 자막 텍스트(301)를 포함할 수 있는데, 유사도 확인부(15a)는 자막정보에 포함된 자막 텍스트(301)와, 대본정보에 포함된 대사정보(302)를 확인할 수 있다. 그리고, 유사도 확인부(15a)는 자막정보에 포함된 자막 텍스트(301)와, 대본정보에 포함된 대사정보(302) 사이의 유사도를 확인할 수 있다.
동기화 처리부(15b)는 유사도 확인부(15a)에서 확인된 상기 자막 텍스트(301)와, 상기 대본정보에 포함된 대사정보(302) 사이의 유사도가 미리 정해진 값을 초과하는지 여부를 확인할 수 있다.
상기 자막 텍스트(301)와, 상기 대사정보(302) 사이의 유사도가 미리 정해진 값을 초과하는 경우, 동기화 처리부(15b)는 자막정보에 포함된 상기 자막 텍스트(301)의 자막 시간정보(305)를 확인하고, 확인된 자막 시간정보(305)에 맞게, 상기 대사정보(302)를 동기화할 수 이다.
도 4는 본 개시의 일 실시예에 따른 태깅정보 생성 방법의 순서를 도시하는 흐름도이다.
태깅정보 생성 방법은 전술한 태깅정보 생성 장치에 의해 수행될 수 있다.
S401 단계에서, 태깅정보 생성 장치는 대본정보에 포함된 텍스트를 검출할 수 있으며, 검출된 텍스트의 특성을 확인하고, 확인된 특성을 기반으로 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나를 식별할 수 있다.
나아가, 태깅정보 생성 장치는 대본정보에 포함된 텍스트로부터, 장면 식별자를 더 식별할 수 있다. 그리고, 태깅정보 생성 장치는 장면 식별자를 기준으로, 장면 단위를 구분할 수 있으며, 장면 단위별로, 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 등을 분리하여 관리할 수 있다.
구체적으로, S401 단계에서, 태깅정보 생성 장치는 대본정보에 포함된 상기 텍스트의 특성으로서, 텍스트의 정렬 위치, 텍스트의 크기, 텍스트의 폰트 종류, 및 텍스트 효과 종류 중 적어도 하나를 검출할 수 있다.
텍스트의 정렬 위치는 대본정보에 포함된 상기 텍스트가 왼쪽(또는 오른쪽) 기준으로 정렬되어 있는지, 중앙 부분에 정렬되어 있는지 등을 나타내는 정보일 수 있다. 텍스트의 크기는 텍스트 글꼴 크기를 수치화하여 나타낼 수 있으며, 텍스트의 폰트 종류(예, 굴림체, 바탕체, 명조체, 고딕체 등)는 각 폰트가 가지는 특성을 기반으로 확인할 수 있다. 텍스트 효과 종류는 텍스트에 적용된 효과를 지시하는 것으로서, 기울임 효과, 밑줄 효과, 굵은 글씨체 효과 등을 포함할 수 있다.
또한, S401 단계에서, 태깅정보 생성 장치는 대본정보 결정부(11b)는 확인된 텍스트의 특성에 기초하여, 상기 대본정보에 포함된 텍스트를 상기 지문정보, 대사정보, 나레이션 정보, 장면 식별자 등을 분류하는 신경망을 구축할 수 있다. 이에 기초하여, 태깅정보 생성 장치는 전술한 신경망에 상기 대본정보에 포함된 텍스트의 특성을 입력하고, 그 결과로서 상기 대본정보에 포함된 상기 지문정보, 대사정보, 나레이션 정보, 장면 식별자 등이 분류도니 정보를 출력할 수 있다.
한편, 영상 콘텐츠의 생성 또는 부호화 처리 과정에서, 영상 콘텐츠와 관련된 정보가 수록될 수 있으며, 특히, 영상을 식별할 수 있는 영상 식별자(예, 영상명), 영상 콘텐츠에 포함되는 장면 영상 콘텐츠를 실별할 수 있는 장면 영상 식별자, 장면 영상에 포함된 프레임에 대한 정보(예, 프레임 식별자, 시간 정보), 자막정보 등이 수록될 수 있다.
이에 기초하여, S402 단계에서, 태깅정보 생성 장치는 상기 영상 콘텐츠에 포함된 적어도 하나의 장면 영상 콘텐츠에 대한 자막정보를 확인할 수 있다. 그리고, 태깅정보 생성 장치는 자막정보와 함께, 상기 자막정보에 대응되는 정보, 예를 들어, 영상을 식별할 수 있는 영상 식별자(예, 영상명), 영상 콘텐츠에 포함되는 장면 영상 콘텐츠를 실별할 수 있는 장면 영상 식별자, 장면 영상에 포함된 프레임에 대한 정보(예, 프레임 식별자, 시간 정보) 등을 확인할 수 있다.
S403 단계에서, 태깅정보 생성 장치는 상기 적어도 하나의 장면 영상 콘텐츠의 자막정보와, 상기 영상 콘텐츠에 대응되는 대본정보 사이의 시간정보를 동기화할 수 있다. 전술한 바와 같이, 대본정보는 지문정보, 대사정보, 나레이션 정보 등을 포함할 수 있는데, 태깅정보 생성 장치는 자막정보와, 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보를 사용하여 시간 동기화를 수행할 수 있다.
구체적으로, S403 단계에서, 태깅정보 생성 장치는 상기 자막정보와, 상기 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보 사이의 유사도(Similarity)를 확인할 수 있다.
예컨대, 자막정보는 장면 영상에 표시되는 자막의 기초가 되는 자막 텍스트, 장면 영상 내에서 자막이 표시되는 영역을 지시하는 자막 위치정보, 자막이 표시되는 시점을 지시하는 자막 시간정보 등을 포함할 수 있는데, 태깅정보 생성 장치는 자막정보에 포함된 자막 텍스트와, 지문정보, 대사정보, 나레이션 정보 등에 대응되는 텍스트 사이의 유사도를 확인할 수 있다.
나아가, 태깅정보 생성 장치는 편집거리 알고리즘을 이용하여 유사도(Similarity)를 확인할 수 있다.
그리고, S403 단계에서, 태깅정보 생성 장치는 확인된 유사도에 기초하여, 상기 적어도 하나의 장면 영상 콘텐츠의 시간 정보를, 상기 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나에 결합하여 시간정보를 동기화할 수 있다.
태깅정보 생성 장치는 확인된 상기 자막정보와, 상기 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보 사이의 유사도가 미리 정해진 값을 초과할 경우, 미리 정해진 값을 초과하는 유사도를 구비하는 해당 정보(즉, 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보)를 확인할 수 있다. 그리고, 태깅정보 생성 장치는 자막정보에 포함된 자막 시간정보를 확인하고, 확인된 자막 시간정보에 맞게, 상기 미리 정해진 값을 초과하는 유사도를 구비하는 해당 정보(즉, 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보)를 동기화할 수 이다.
S404 단계에서, 태깅정보 생성 장치는 자막정보와 시간 동기화된 정보(즉, 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보)에 대응되는 텍스트를 사용하여, 장면 영상 콘텐츠에 태그 정보를 결합할 수 있다. 즉, 태깅정보 결합부(17)는, 상기 자막정보에 대응되는 장면영상 콘텐츠에, 시간 동기화된 정보(즉, 대본정보에 포함된 지문정보, 대사정보, 나레이션 정보 중 하나의 정보)에 대응되는 텍스트를 태그 정보로서 부착할 수 있다.
나아가, 태깅정보 생성 장치는 상기 대본정보를 기반으로 하는 태깅정보가 결합된, 상기 적어도 하나의 장면 영상 콘텐츠를 포함하는 요약 영상을 생성하는 과정을 더 수행할 수 있다.
도 5는 본 개시의 일 실시예에 따른 불변 생체정보 및 가변 생체정보를 이용한 인증 방법 및 장치를 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
도 5를 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.

Claims (14)

  1. 전자 장치에 있어서,
    영상 콘텐츠에 대응되는 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나를 식별하는 대본정보 분석부와,
    상기 영상 콘텐츠에 포함된 적어도 하나의 장면 영상 콘텐츠에 대한 자막정보를 확인하는 자막정보 확인부와,
    상기 적어도 하나의 장면 영상 콘텐츠의 자막정보와, 상기 영상 콘텐츠에 대응되는 대본정보 사이의 시간정보를 동기화하는 대본/자막 동기화부와,
    상기 시간정보가 동기화된 자막정보와 대본정보에 기초하여, 상기 적어도 하나의 장면 영상 콘텐츠에, 상기 대본정보를 기반으로 하는 태깅정보를 결합하는 태깅정보 결합부를 포함하며,
    상기 대본정보 분석부는,
    상기 대본정보에 포함된 텍스트로부터 장면 식별자를 식별하고, 상기 식별된 장면 식별자를 기준으로 장면 단위를 구분하며, 상기 구분된 장면 단위 별로 상기 대본 정보에 포함된 지문정보, 대사정보 및 나레이션 정보 중 적어도 하나를 분리하여 관리하는 태깅정보 생성 장치.
  2. 제1항에 있어서,
    상기 대본/자막 동기화부는,
    상기 적어도 하나의 장면 영상 콘텐츠에 포함된 자막정보와, 상기 영상 콘텐츠에 대응되는 대본정보 사이의 유사도를 확인하는 유사도 확인부를 포함하는 것을 특징으로 하는 태깅정보 생성 장치.
  3. 제2항에 있어서,
    상기 유사도 확인부는,
    상기 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나와, 상기 자막정보 사이의 유사도를 확인하는 것을 특징으로 하는 태깅정보 생성 장치.
  4. 제2항에 있어서,
    상기 대본/자막 동기화부는,
    상기 영상 콘텐츠에 대응되는 대본정보 사이의 유사도에 기초하여, 상기 적어도 하나의 장면 영상 콘텐츠의 시간 정보를, 상기 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나에 결합하여 시간정보를 동기화하는 동기화 처리부를 포함하는 것을 특징으로 하는 태깅정보 생성 장치.
  5. 제1항에 있어서,
    상기 대본정보 분석부는,
    상기 대본정보에 포함된 텍스트의 특성을 확인하는 텍스트 특성 확인부와,
    상기 확인된 텍스트의 특성에 기초하여, 상기 대본정보에 포함된 텍스트를 상기 지문정보, 대사정보, 및 나레이션 정보로 분류하는 대본정보 결정부를 포함하는 것을 특징으로 하는 태깅정보 생성 장치.
  6. 제5항에 있어서,
    상기 텍스트의 특성은,
    텍스트의 정렬 위치, 텍스트의 크기, 텍스트의 폰트 종류, 및 텍스트 효과 종류 중 적어도 하나를 포함하는 것 특징으로 하는 태깅정보 생성 장치.
  7. 제1항에 있어서,
    상기 대본정보를 기반으로 하는 태깅정보가 결합된, 상기 적어도 하나의 장면 영상 콘텐츠를 포함하는 요약 영상을 생성하는 요약 영상 생성부를 더 포함하는 태깅정보 생성 장치.
  8. 전자 장치가 태깅정보를 생성하는 방법에 있어서,
    영상 콘텐츠에 대응되는 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나를 식별하는 과정과,
    상기 영상 콘텐츠에 포함된 적어도 하나의 장면 영상 콘텐츠에 대한 자막정보를 확인하는 과정과,
    상기 적어도 하나의 장면 영상 콘텐츠의 자막정보와, 상기 영상 콘텐츠에 대응되는 대본정보 사이의 시간정보를 동기화하는 과정과,
    상기 시간정보가 동기화된 자막정보와 대본정보에 기초하여, 상기 적어도 하나의 장면 영상 콘텐츠에, 상기 대본정보를 기반으로 하는 태깅정보를 결합하는 과정을 포함하며,
    상기 적어도 하나를 식별하는 과정은,
    상기 대본정보에 포함된 텍스트로부터 장면 식별자를 식별하고, 상기 식별된 장면 식별자를 기준으로 장면 단위를 구분하며, 상기 구분된 장면 단위 별로 상기 대본 정보에 포함된 지문정보, 대사정보 및 나레이션 정보 중 적어도 하나를 분리하여 관리하는 태깅정보 생성 방법.
  9. 제8항에 있어서,
    상기 자막정보와, 대본정보 사이의 시간정보를 동기화하는 과정은,
    상기 적어도 하나의 장면 영상 콘텐츠에 포함된 자막정보와, 상기 영상 콘텐츠에 대응되는 대본정보 사이의 유사도를 확인하는 과정을 포함하되,
    상기 자막정보와, 상기 대본정보 사이의 유사도를 확인하는 과정은,
    상기 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나와, 상기 자막정보 사이의 유사도를 확인하는 것을 특징으로 하는 태깅정보 생성 방법.
  10. 제9항에 있어서,
    상기 자막정보와, 대본정보 사이의 시간정보를 동기화하는 과정은,
    상기 영상 콘텐츠에 대응되는 대본정보 사이의 유사도에 기초하여, 상기 적어도 하나의 장면 영상 콘텐츠의 시간 정보를, 상기 대본정보에 포함된 지문정보, 대사정보, 및 나레이션 정보 중 적어도 하나에 결합하여 시간정보를 동기화하는 과정을 포함하는 것을 특징으로 하는 태깅정보 생성 방법.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
KR1020170166027A 2017-12-05 2017-12-05 컨텐츠의 태그정보 생성 장치 및 방법 KR102535121B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170166027A KR102535121B1 (ko) 2017-12-05 2017-12-05 컨텐츠의 태그정보 생성 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170166027A KR102535121B1 (ko) 2017-12-05 2017-12-05 컨텐츠의 태그정보 생성 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190066367A KR20190066367A (ko) 2019-06-13
KR102535121B1 true KR102535121B1 (ko) 2023-05-22

Family

ID=66847852

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170166027A KR102535121B1 (ko) 2017-12-05 2017-12-05 컨텐츠의 태그정보 생성 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102535121B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167452A (ja) * 2003-12-01 2005-06-23 Nippon Telegr & Teleph Corp <Ntt> 映像シーン区間情報抽出方法,映像シーン区間情報抽出装置,映像シーン区間情報抽出プログラムおよびそのプログラムを記録した記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110014403A (ko) * 2009-08-05 2011-02-11 주식회사 케이티 동영상 장면 별 키워드 정보 생성 시스템 및 방법
KR101956373B1 (ko) * 2012-11-12 2019-03-08 한국전자통신연구원 요약 정보 생성 방법, 장치 및 서버
KR20150096204A (ko) * 2014-02-14 2015-08-24 서울대학교산학협력단 멀티미디어 분류, 분석, 그리고 태깅을 위한 대본과 영상 동기화 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167452A (ja) * 2003-12-01 2005-06-23 Nippon Telegr & Teleph Corp <Ntt> 映像シーン区間情報抽出方法,映像シーン区間情報抽出装置,映像シーン区間情報抽出プログラムおよびそのプログラムを記録した記録媒体

Also Published As

Publication number Publication date
KR20190066367A (ko) 2019-06-13

Similar Documents

Publication Publication Date Title
CN108833973B (zh) 视频特征的提取方法、装置和计算机设备
US10304458B1 (en) Systems and methods for transcribing videos using speaker identification
US9841826B2 (en) Automatic test system and test method for computer, record medium, and program product
WO2021175019A1 (zh) 音视频录制引导方法、装置、计算机设备及存储介质
US9721178B2 (en) Automatic extraction of closed caption data from frames of an audio video (AV) stream using image clipping
CN109309844B (zh) 视频台词处理方法、视频客户端及服务器
CN113052169A (zh) 视频字幕识别方法、装置、介质及电子设备
WO2016119370A1 (zh) 一种实现录音的方法、装置和移动终端
US10769247B2 (en) System and method for interacting with information posted in the media
US10721545B2 (en) Method and device for combining videos
US10289677B2 (en) Systems and methods for using a program schedule to facilitate modifying closed-captioning text
US20190171760A1 (en) System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information
CN112995749B (zh) 视频字幕的处理方法、装置、设备和存储介质
US9542976B2 (en) Synchronizing videos with frame-based metadata using video content
WO2022228235A1 (zh) 生成视频语料的方法、装置及相关设备
US20150111189A1 (en) System and method for browsing multimedia file
KR102535121B1 (ko) 컨텐츠의 태그정보 생성 장치 및 방법
CN113301382A (zh) 视频处理方法、设备、介质及程序产品
KR20150096204A (ko) 멀티미디어 분류, 분석, 그리고 태깅을 위한 대본과 영상 동기화 장치 및 방법
KR101018361B1 (ko) 인쇄물 기반의 증강현실을 위한 페이지 레이아웃 저작 방법및 시스템, 인쇄물 기반의 증강현실 방법 및 시스템
US20130251334A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium storing information processing program
CN113923479A (zh) 音视频剪辑方法和装置
KR20210081308A (ko) 비디오를 처리하는 방법, 장치, 전자 기기 및 저장 매체
US9900665B2 (en) Caption rendering automation test framework
US11523188B2 (en) Systems and methods for intelligent media content segmentation and analysis

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant