KR20190137359A - 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버 - Google Patents

동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버 Download PDF

Info

Publication number
KR20190137359A
KR20190137359A KR1020180063439A KR20180063439A KR20190137359A KR 20190137359 A KR20190137359 A KR 20190137359A KR 1020180063439 A KR1020180063439 A KR 1020180063439A KR 20180063439 A KR20180063439 A KR 20180063439A KR 20190137359 A KR20190137359 A KR 20190137359A
Authority
KR
South Korea
Prior art keywords
video
string
keyword
unit section
unit
Prior art date
Application number
KR1020180063439A
Other languages
English (en)
Other versions
KR102080315B1 (ko
Inventor
김진중
우성섭
Original Assignee
네이버 주식회사
라인 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사, 라인 가부시키가이샤 filed Critical 네이버 주식회사
Priority to KR1020180063439A priority Critical patent/KR102080315B1/ko
Priority to JP2019102475A priority patent/JP6824332B2/ja
Publication of KR20190137359A publication Critical patent/KR20190137359A/ko
Application granted granted Critical
Publication of KR102080315B1 publication Critical patent/KR102080315B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • G06F17/28
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)

Abstract

본 출원은 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버에 관한 것으로서, 본 발명의 동영상 서비스 제공 방법은, 동영상 내에 포함된 음성의 특성 변화를 기준으로, 상기 동영상을 복수의 단위구간으로 분리하는 단위구간 분리단계; 상기 단위구간에 포함된 음성을 인식하여, 상기 음성에 대응하는 스크립트 문자열을 생성하는 스크립트 문자열 생성단계; 상기 단위구간에 포함된 자막 이미지를 인식하여, 상기 자막 이미지에 대응하는 자막 문자열을 생성하는 자막 문자열 생성단계; 및 상기 스크립트 문자열 및 자막 문자열에 자연어 처리(Natural Language Processing)를 적용하여, 상기 단위구간에 대응하는 키워드를 생성하는 키워드 생성 단계를 포함할 수 있다.

Description

동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버 {Method for providing vedio service and service server using the same}
본 출원은 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버에 관한 것으로서, 동영상을 의미기반으로 분리하여 각 단위구간에 대한 키워드를 자동으로 생성할 수 있는 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버에 관한 것이다.
최근 인터넷 기술의 발달에 따라, 인터넷을 통하여 동영상을 제공하는 동영상 서비스 등이 널리 활용되고 있다. 사용자가 인터넷을 통하여 동영상을 시청하고자 하는 경우, 인터넷 상에서 제공되는 수많은 동영상들 중에서 원하는 동영상을 검색할 필요가 있으며, 효과적인 동영상 검색을 위한 다양한 동영상 검색 방법 등이 제시되어 왔다.
다만, 최근에는 사용자가 동영상 전체가 아니라 동영상 내의 일부분에 대해 관심을 가지고, 그 부분만을 시청하고자 하는 경우가 증가하고 있다. 예를들어, 축구 중계를 시청하고자 하는 사용자는, 축구 중계 프로그램 전체를 시청하기 보다는 특정 선수가 골을 넣는 장면만을 시청하고자 할 수 있다. 그러나, 일반적인 동영상 검색 방법은 축구 중계 전체를 그 검색의 대상으로 하므로, 사용자가 원하는 동영상의 일부 장면 등을 검색하는 것이 어려웠다.
한국 등록특허 제10-0721409호
본 출원은, 동영상을 의미기반으로 분리하여, 각 단위구간에 대한 키워드를 자동으로 생성할 수 있는 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버를 제공하고자 한다.
본 출원은, 동영상 내의 음성의 특성 변화를 기반으로 동영상을 복수의 단위구간으로 분리할 수 있는 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버를 제공하고자 한다.
본 출원은, 동영상을 분리한 각각의 단위구간에 음성인식 및 자막인식을 적용하여, 단위구간의 내용에 따른 키워드를 자동으로 생성할 수 있는 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버를 제공하고자 한다.
본 출원은, 기계학습을 이용한 자연어 처리를 적용하여, 동영상의 각 단위구간의 내용에 따른 키워드를 자동으로 생성할 수 있는 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버를 제공하고자 한다.
본 발명의 일 실시예에 의한 동영상 서비스 제공 방법은, 서비스 서버가 단말장치로 동영상을 제공하는 동영상 서비스 제공 방법에 관한 것으로서, 동영상 내에 포함된 음성의 특성 변화를 기준으로, 상기 동영상을 복수의 단위구간으로 분리하는 단위구간 분리단계; 상기 단위구간에 포함된 음성을 인식하여, 상기 음성에 대응하는 스크립트 문자열을 생성하는 스크립트 문자열 생성단계; 상기 단위구간에 포함된 자막 이미지를 인식하여, 상기 자막 이미지에 대응하는 자막 문자열을 생성하는 자막 문자열 생성단계; 및 상기 스크립트 문자열 및 자막 문자열에 자연어 처리(Natural Language Processing)를 적용하여, 상기 단위구간에 대응하는 키워드를 생성하는 키워드 생성 단계를 포함할 수 있다.
본 발명의 일 실시예에 의한 서비스 서버는, 동영상 내에 포함된 음성의 특성 변화를 기준으로, 상기 동영상을 복수의 단위구간으로 분리하는 단위구간 분리부; 상기 단위구간에 포함된 음성을 인식하여, 상기 음성에 대응하는 스크립트 문자열을 생성하는 스크립트 문자열 생성부; 상기 단위구간에 포함된 자막 이미지를 인식하여, 상기 자막 이미지에 대응하는 자막 문자열을 생성하는 자막 문자열 생성부; 및 상기 스크립트 문자열 및 자막 문자열에 자연어 처리(Natural Language Processing)를 적용하여, 상기 단위구간에 대응하는 키워드를 생성하는 키워드 생성부를 포함할 수 있다.
본 발명의 다른 실시예에 의한 서비스 서버는, 프로세서; 및 상기 프로세서에 커플링된 메모리를 포함하는 것으로서, 상기 메모리는 상기 프로세서에 의하여 실행되도록 구성되는 하나 이상의 모듈을 포함하고, 상기 하나 이상의 모듈은, 동영상 내에 포함된 음성의 특성 변화를 기준으로, 상기 동영상을 복수의 단위구간으로 분리하고, 상기 단위구간에 포함된 음성을 인식하여, 상기 음성에 대응하는 스크립트 문자열을 생성하며, 상기 단위구간에 포함된 자막 이미지를 인식하여, 상기 자막 이미지에 대응하는 자막 문자열을 생성하고, 상기 스크립트 문자열 및 자막 문자열에 자연어 처리(Natural Language Processing)를 적용하여, 상기 단위구간에 대응하는 키워드를 생성하는, 명령어를 포함할 수 있다.
덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 의한 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버에 의하면, 동영상 내의 음성의 특성 변화를 기반으로 동영상을 분리하므로, 문맥이나 의미의 손상없이 동영상을 분리하는 것이 가능하다.
본 발명의 일 실시예에 의한 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버에 의하면, 음성인식 및 자막인식을 적용하여 단위구간 내에 포함된 내용을 추출하고, 이후 이를 이용하여 각각의 단위구간에 대한 키워드를 설정하므로, 단위구간의 내용에 따른 키워드를 설정하는 것이 가능하다.
본 발명의 일 실시예에 의한 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버에 의하면, 사용자는 내용을 기반으로 동영상에 포함된 특정 장면을 검색할 수 있으며, 특정 주제나 내용을 기반으로 요약동영상을 생성하는 것이 가능하다.
다만, 본 발명의 실시예들에 따른 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버가 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도1은 본 발명의 일 실시예에 의한 동영상 서비스 제공 시스템을 나타내는 개략도이다.
도2 및 도3은 본 발명의 일 실시예에 의한 서비스 서버를 나타내는 블록도이다.
도4는 본 발명의 일 실시예에 의한 동영상의 단위구간 분리를 나타내는 개략도이다.
도5는 본 발명의 일 실시예에 의한 스크립트 문자열 및 자막 문자열 생성을 나타내는 개략도이다.
도6은 본 발명의 일 실시예에 의한 자막 이미지의 검출을 나타내는 개략도이다.
도7은 본 발명의 다른 실시예에 의한 동영상 서비스 제공 방법을 나타내는 순서도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 즉, 본 발명에서 사용되는 '부'라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.
또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도1은 본 발명의 일 실시예에 의한 동영상 서비스 제공 시스템을 나타내는 개략도이다.
도1을 참조하면, 본 발명의 일 실시예에 의한 동영상 서비스 제공 시스템은, 단말장치(1) 및 서비스 서버(100)를 포함할 수 있다.
이하, 도1을 참조하여 본 발명의 일 실시예에 의한 동영상 서비스 제공 시스템을 설명한다.
단말장치(1)는 네트워크를 통하여 서비스 서버(100)와 통신을 수행할 수 있으며, 서비스 서버(100)가 제공하는 동영상 서비스를 제공받을 수 있다. 단말장치(1)는 동영상 등의 컨텐츠를 사용자에게 시각적 또는 청각적으로 제공하기 위한 디스플레이부, 스피커 등을 포함할 수 있으며, 사용자의 입력을 인가받는 입력부, 적어도 하나의 프로그램이 저장된 메모리 및 프로세서를 포함할 수 있다.
단말장치(1)는 스마트폰, 태블릿 PC 등의 이동 단말기 또는 데스크탑 등의 고정형 장치일 수 있으며, 실시예에 따라서는 휴대폰, 스마트 폰(Smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 단말장치(1)에 해당할 수 있다.
단말장치(1)와 서비스 서버(100)를 연결하는 네트워크는, 유선 네트워크와 무선 네트워크를 포함할 수 있으며, 구체적으로, 근거리 네트워크(LAN: Local Area Network), 도시권 네트워크(MAN: Metropolitan Area Network), 광역 네트워크(WAN: Wide Area Network) 등 다양한 네트워크를 포함할 수 있다. 또한, 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)을 포함할 수도 있다. 다만, 본 발명에 따른 네트워크는 상기 열거된 네트워크에 국한되지 않으며, 공지의 무선 데이터 네트워크, 공지의 전화 네트워크, 공지의 유선 또는 무선 텔레비전 네트워크 등을 포함할 수 있다.
서비스 서버(100)는 네트워크를 통하여 단말장치(1)에게 동영상 서비스를 제공할 수 있다. 서비스 서버(100)에는 단말장치(1)에 제공가능한 복수의 동영상 컨텐츠들이 저장되어 있을 수 있으며, 단말장치(1)의 요청에 따라 단말장치(1)로 동영상을 제공할 수 있다. 예를들어, 서비스 서버(100)는 동영상 등의 컨텐츠를 실시간으로 스트리밍(streaming)하거나, 해당 컨텐츠를 다운로드(download) 받도록 제공할 수 있다.
서비스 서버(100)는 동영상 서비스를 제공할 때, 동영상에 대한 메타 정보를 더 포함하여 제공할 수 있다. 즉, 동영상 자체에 대한 메타정보를 설정하여 사용자에게 동영상의 등장 인물, 줄거리, 장르 등 추가적인 정보를 제공할 수 있으며, 이를 활용하여 사용자에게 동영상 검색이나 추천 서비스 등을 제공하는 것도 가능하다.
여기서, 본 발명의 일 실시예에 의한 서비스 서버(100)는, 동영상 자체에 대한 메타 정보를 설정하는 것 이외에, 동영상 내에 포함된 내용에 대한 메타 정보를 설정하는 것도 가능하다. 즉, 서비스 서버(100)는, 동영상을 의미기반의 단위구간으로 분리한 후, 각각의 단위구간에 대한 키워드를 설정함으로써, 전체 동영상 중에서 사용자가 원하는 구간만을 탐색하도록 제공할 수 있다. 또한, 동일한 키워드를 가지는 단위구간들을 취합하여 전체 동영상을 축약한 요약 동영상을 사용자에게 제공하는 것도 가능하다.
도2는 본 발명의 일 실시예에 의한 서비스 서버를 나타내는 블록도이다.
도2를 참조하면 본 발명의 일 실시예에 의한 서비스 서버(100)는, 단위구간 분리부(110), 스크립트 문자열 생성부(120), 자막 문자열 생성부(130), 키워드 생성부(140), 검색부(150) 및 요약동영상 생성부(160)를 포함할 수 있다.
이하, 도2를 참조하여 본 발명의 일 실시예에 의한 서비스 서버(100)를 설명한다.
단위구간 분리부(110)는 동영상을 복수의 단위구간으로 분리할 수 있다. 즉, 단위구간 분리부(110)는 대상이 되는 동영상을 로드할 수 있으며, 로드된 동영상 내에 포함된 음성의 특성 변화를 기준으로 복수의 단위구간으로 분리할 수 있다. 여기서, 음성의 특성 변화는 음량 또는 음질의 변화일 수 있으며, 실시예에 따라서는 음의 높낮이, 음색 등의 변화도 포함할 수 있다.
구체적으로, 단위구간 분리부(110)는 음성의 특성 변화를 확인하기 위하여, 동영상 내의 음량을 추적할 수 있다. 예를들어, 음량은 동영상 내의 일정구간 동안에는 특정 범위 내에서 유지되다가, 갑자기 특정 범위를 벗어나서 급격히 높아지거나 낮아질 수 있다. 이때, 단위구간 분리부(110)는 동영상 내의 음량을 추적하여, 음량의 변화가 발생한 동영상 내의 지점을 감지할 수 있다. 즉, 단위구간 분리부(110)는 음량의 변화량을 이용하여 상기 음량의 급격한 상승지점이나 하강지점을 감지할 수 있다.
여기서, 음량의 변화량은 동영상 내 일정구간 동안의 음량의 평균값이나, 해당구간 내에 나타난 음량의 최대값 또는 최소값을 기준으로 계산할 수 있다. 즉, 단위구간 분리부(110)는 측정한 음량을 평균값 등의 기준과 비교하여 얼마나 변화하였는지 계산할 수 있으며, 음량의 변화량이 일정한 임계치(threshold) 이상으로 증가한 지점을 상승지점, 감소한 지점을 하강지점으로 설정할 수 있다. 이때, 상승지점, 하강지점을 설정하기 위한 임계치는 각각 상이하게 설정될 수 있으며, 상기 임계치는 각각의 동영상마다 상이하게 설정될 수 있다.
단위구간 분리부(110)는 해당 상승지점 또는 하강지점을 기준으로 동영상을 복수의 단위구간으로 분리할 수 있으며, 이를 통하여, 야구에서 타자의 홈런시 함성소리를 이용하여 홈런장면을 감지하거나, 뉴스에서 앵커가 말을 하다가 다음 뉴스로 넘어가기 위해 잠시 쉬는 부분 등을 감지할 수 있다.
또한, 실시예에 따라서는, 단위구간 분리부(110)가 동영상 내에 포함된 음성의 특성 변화를 확인하기 위하여, 동영상 내의 음질을 파악할 수 있다. 예를들어, 단위구간 분리부(110)는 동영상 내의 음질이 깨끗하다가 갑자기 노이즈가 많이 포함되는 부분을 감지할 수 있으며, 감지된 부분을 기준으로 단위구간을 분리할 수 있다. 즉, 단위구간 분리부(110)는 뉴스에서 앵커들이 말을 하다가 현장의 아나운서에게 마이크를 넘길 때 발생하는 음질의 변화 등을 감지한 후, 이를 기준으로 동영상을 분리하는 것도 가능하다.
추가적으로, 동영상 내에 복수의 화자가 존재하는 경우, 단위구간 분리부(110)는 음색을 이용하여 각각의 화자들을 구분한 후 화자별로 단위구간을 분리하는 것도 가능하다. 이외에도, 단위구간 분리부(110)는 다양한 방법으로 음성의 특성변화를 감지하고 그에 따라 단위구간을 분리할 수 있다.
한편, 뉴스 동영상의 경우, 앵커는 원고(script)를 일정한 속도로 읽어 내려갈 수 있으며, 하나의 문단이 끝나면 잠시 끊었다가 다음 문단을 계속하여 읽을 수 있다. 즉, 동영상 내의 화자가 읽는 각각의 문단은 화자의 음량의 변화량을 기준으로 구별하는 것이 가능하다. 동일한 문단 내에는 동일한 주제의 내용이 포함되는 것이 일반적이므로, 이를 기준으로 동영상을 구분하면 동영상을 의미기반으로 분리할 수 있다. 또한, 정해진 원고(script)가 없는 동영상 등의 경우에도, 동영상 내의 화자가 말하는 문맥을 유지하기 위해서는, 화자의 음량의 변화량을 기준으로 동영상을 구분하는 것이 유리하다. 따라서, 단위구간 분리부(110)에서는 동영상 내 포함된 음성의 음량 변화를 기준으로, 동영상을 복수의 단위구간으로 분리할 수 있다.
예를들어, 도4에 도시한 바와 같이, 뉴스 동영상(V) 내의 앵커의 음량 변화량을 이용하면, 전체 동영상을 앵커가 발화하는 구간(A)과 발화를 중단한 정지구간(B)으로 구분할 수 있다. 여기서, 앵커의 음량의 변화량을 기준으로 동영상을 분리하므로, 하나의 단위구간 내에 복수의 화면 전환이 일어날 수 있음을 확인할 수 있다.
한편, 앵커가 발화하는 구간(A)이 각각의 단위구간에 해당하므로, 발화를 중단한 정지구간(B)을 편집점(Cutting point)으로 설정하여 각각의 단위구간을 분리할 수 있다. 여기서, 정지구간(B)은 음량이 설정값 미만으로 감소하고, 설정값 미만으로 감소한 음량이 기준시간 이상 유지되는 구간으로 설정할 수 있다. 정지구간(B)의 길이는 각각의 동영상마다 상이하게 설정될 수 있다.
따라서, 단위구간 분리부(110)는 음성의 특성변화를 이용하여, 동영상 내에 포함된 정지구간(B)을 판별할 수 있으며, 이를 이용하여 복수의 단위구간으로 분리할 수 있다.
스크립트 문자열 생성부(120)는 단위구간에 포함된 음성을 인식하여, 음성에 대응하는 스크립트 문자열을 생성할 수 있다. 동영상을 복수의 단위구간으로 분리한 이후에는, 각각의 단위구간 내에 포함된 내용을 인식할 필요가 있다. 이를 위하여, 스크립트 문자열 생성부(120)는 화자가 발화한 음성을 인식하여 이를 문자로 변환하고, 변환된 문자들을 결합하여 스크립트 문자열로 생성할 수 있다.
실시예에 따라서는, 서비스 서버(100) 내에 별도의 음성인식장치가 구비되어 있을 수 있으며, 스크립트 문자열 생성부(120)는 음성인식장치를 이용하여 음성을 문자로 변환할 수 있다. 예를들어, 단위구간에 포함된 음성을 전기적 신호인 음성패턴으로 표현할 수 있으며, 음성모델 데이터베이스 등에는 각각의 문자에 대응하는 표준음성패턴이 저장되어 있을 수 있다. 이 경우, 음성인식장치는 입력되는 음성패턴들을 음성모델 데이터베이스에 저장된 표준음성패턴과 비교할 수 있으며, 각각의 음성패턴에 대응하는 표준음성패턴을 추출할 수 있다. 이후, 추출한 표준음성패턴을 대응하는 문자로 변환할 수 있으며, 변환된 문자들을 결합하여 스크립트 문자열을 생성할 수 있다. 즉, 도5에 도시한 바와 같이, 스크립트 문자열 생성부(120)는 동영상 내에서 화자가 발화한 음성을 인식하여 스크립트 문자열(S1)로 생성할 수 있다.
다만, 스크립트 문자열 생성부(120)가 음성을 문자로 변환하는 방식은 이에 한정되는 것은 아니며, 스크립트 문자열 생성부(120)는 이외에도 다양한 방식으로 동영상에 포함된 음성을 문자로 변환할 수 있다.
자막 문자열 생성부(130)는 단위구간에 포함된 자막 이미지를 인식하여, 자막 이미지에 대응하는 자막 문자열을 생성할 수 있다. 동영상 내에는 화자가 말하는 내용이나, 동영상에서 전달하고자 하는 내용을 강조하기 위하여, 자막 이미지가 포함될 수 있다. 예를들어, 도5에 도시한 바와 같이, 뉴스 동영상의 경우에도, 뉴스의 주된 내용을 요약하여 전달하기 위해 자막 이미지(C)가 포함될 수 있다.
이와 같이 자막 이미지에는 동영상의 내용이 요약되어 표시되므로, 각각의 단위구간의 내용을 확인하기 위하여, 자막 이미지에 포함된 문자를 인식할 필요가 있다. 다만, 자막 이미지는 문자가 아니라 형상으로 인식되므로, 자막 이미지에 포함된 문자를 인식하기 위해서는 문자인식 알고리즘 등을 적용할 필요가 있다.
실시예에 따라서는 서비스 서버(100) 내에 별도의 문자인식장치가 구비되어 있을 수 있으며, 자막 문자열 생성부(130)는 문자인식장치를 이용하여 자막 이미지를 문자로 변환할 수 있다. 예를들어, 단위구간에 포함된 자막 이미지를 스캔하여 자막 이미지에 대한 픽셀값의 분포를 전기적 신호인 형상패턴으로 표현할 수 있으며, 문자모델 데이터베이스 등에는 각각의 문자에 대응하는 표준형상패턴이 저장되어 있을 수 있다. 이 경우, 문자인식장치는 입력되는 형상패턴을 문자모델 데이터베이스에 저장된 표준형상패턴과 비교할 수 있으며, 각각의 형상패턴에 대응하는 표준형상패턴을 추출할 수 있다. 이후, 추출한 표준형상패턴에 대응하는 문자로 각각 변환하여 자막 문자열을 생성할 수 있다. 즉, 도5에 도시한 바와 같이, 동영상 프레임(f) 내의 자막 이미지(C)에 포함된 형상을 문자로 변환하여 자막 문자열(S2)로 추출할 수 있다.
한편, 자막 문자열 생성부(130)가 자막 이미지로부터 자막 문자열을 추출하기 위해서는, 단위구간 내에 자막 이미지의 존재여부와, 자막 이미지의 동영상 프레임 내의 위치를 판별할 필요가 있다. 즉, 자막 이미지가 포함된 동영상 프레임에 한하여 문자인식을 수행하고, 동영상 프레임 내에 자막 이미지가 위치하는 영역에 한정하여 문자인식을 수행하도록 하여, 보다 효율적인 문자인식이 수행되도록 할 수 있다. 또한, 이를 통하여 동영상 프레임 내에 포함된 자막 이미지가 아닌 다른 문자를 변환하는 등의 문제를 방지할 수 있다. 따라서, 자막 문자열 생성부(130)에서는 자막 문자열을 생성하기 전에, 먼저 단위구간 내 자막 이미지를 포함하는 동영상 프레임을 검출하고, 동영상 프레임 내에 포함된 자막 이미지의 위치를 특정할 수 있다.
구체적으로, 자막 문자열 생성부(130)는 단위구간에 포함된 각각의 동영상 프레임에 복수의 랜드마크를 설정할 수 있다. 즉, 도6에 도시한 바와 같이, 동영상 프레임 내에 랜드마크(L)들이 균일하게 위치하도록 설정할 수 있으며, 각각의 랜드마크(L)에서 색상 또는 휘도 등을 측정할 수 있다. 구체적으로, 랜드마크(L)의 위치에 대응하는 픽셀로부터 각각의 픽셀의 색상, 휘도 등을 입력받을 수 있다.
이후, 랜드마크에서 측정한 색상 또는 휘도 등이 자막 이미지에 대응하는 기준 색상 또는 기준 휘도에 해당하면, 해당 동영상 프레임 내에 자막 이미지가 위치하는 것으로 판별할 수 있다. 도6에 도시한 바와 같이, 자막 이미지(C)는 원본영상(D)을 덮는 형태로 표시될 수 있으며, 자막 이미지(C)는 기준 색상과 기준 휘도를 가지도록 설정될 수 있다. 여기서, 자막 이미지(C)의 기준 색상, 기준 휘도는, 원본영상(D)과는 구별되는 특징적인 색상이나 휘도를 가지도록 설정되므로, 자막 문자열 생성부(130)는 색상이나 휘도를 이용하여 자막 이미지를 구별하는 것이 가능하다.
또한, 자막 문자열 생성부(130)는 동영상 프레임 상에 균일하게 분포하는 복수의 랜드마크 중에서, 자막 이미지에 대응하는 기준 색상 또는 기준 휘도가 측정된 랜드마크들을 추출할 수 있으며, 추출된 랜드마크를 이용하여 자막 이미지의 위치 또는 크기를 특정할 수 있다. 즉, 각각의 랜드마크들의 동영상 프레임내 설정좌표 등이 미리 설정되어 있을 수 있으며, 자막 문자열 생성부(130)는 자막 이미지를 검출한 랜드마크들의 설정좌표를 이용하여, 해당 자막 이미지의 위치와 크기를 특정할 수 있다. 이 경우, 자막 문자열 생성부(130)는 문자인식을 상기 특정된 자막 이미지 영역 내에서만 수행하도록 제어할 수 있다. 즉, 전체 동영상 프레임 중에서 문자인식을 수행하는 영역을 특정할 수 있으므로, 보다 효율적인 문자인식이 가능하다.
한편, 자막 문자열 생성부(130)는 동영상 제작자로부터 각각의 동영상에서 사용한 자막 이미지의 기준색상이나 기준휘도, 동영상 프레임 내 위치나 크기 등의 특징정보를 제공받을 수 있으며, 자막 이미지 추출시 이를 활용할 수 있다. 예를들어, 자막 이미지의 위치나 크기 등에 대한 특징정보를 수신하는 경우에는, 랜드마크를 동영상 프레임 전체에 균일하게 설정하지 않고, 자막 이미지가 위치할 것으로 설정된 영역 내로 한정하여 설정할 수 있다.
키워드 생성부(140)는 스크립트 문자열 및 자막 문자열에 자연어 처리(Natural Language Processing)을 적용하여, 단위구간에 대응하는 키워드를 생성할 수 있다. 즉, 사용자가 단위구간의 내용을 확인한 후 그에 대응하여 키워드나 주석 등을 설정하는 것이 아니라, 각각의 단위구간에 대한 의미기반의 키워드를 자동으로 설정하는 것이 가능하다. 여기서, 스크립트 문자열 및 자막 문자열에 적용하는 자연어 처리에는 다양한 방법 등이 적용될 수 있으며, 실시예에 따라서는 word2vec, LDA(Latent Dirichlet Allocation) 등의 기계학습(machine learning)을 적용할 수 있다.
일 실시예에 의하면, 키워드 생성부(140)는 word2vec를 이용하여 워드 임베딩(word embedding)한 word2vec 모델을 구현할 수 있으며, 자막 문자열 또는 스크립트 문자열에서 추출한 단어들을 word2vec 모델에 대한 입력단어로 설정하여, 입력단어에 대응하는 연관단어들을 추출할 수 있다. 이후, 추출한 연관단어들을 해당 단위구간에 대한 키워드로 설정할 수 있다.
예를들어, 서비스 서버(100)에서 제공하는 동영상이 뉴스 동영상인 경우에는, 최근 5년동안의 뉴스 기사 등을 word2vec를 이용하여 워드 임베딩하는 방식으로 word2vec 모델을 구현할 수 있다. Word2vec의 경우 각각의 단어들을 벡터 공간에 임베딩하여 단어를 벡터로 표현하는 것으로서, 서로 연관되는 단어들은 공간 상에 인접하게 배치되는 특징이 있다. 즉, word2vec 모델이 학습하는 복수의 샘플들에서 각각의 단어들이 서로 인접하게 나타나는 빈도가 높을수록, 벡터 공간 상에 인접하게 표시될 수 있다. 예를들어, 샘플에 사용된 기존의 뉴스 기사에서 "북한"과 관련하여 "핵"이 자주 언급되면, "북한"과 "핵"에 대응하는 벡터들은 서로 인접하게 임베딩될 수 있으며, 이들은 서로 연관이 있는 것으로 판별할 수 있다.
다만, 스크립트 문자열에는 다수의 단어들이 포함되므로, 스크립트 문자열에 포함된 각각의 단어들에 대응하여 추출되는 연관단어들을 모두 키워드로 설정하기에는 키워드가 지나치게 많아질 수 있다. 이를 방지하기 위하여, 키워드 생성부(140)는 연관단어와 입력단어를 비교하여 유사도가 높은 연관단어만을 키워드로 설정할 수 있다.
구체적으로, 키워드 생성부(140)는 word2vec 모델에 입력한 입력단어에 대응하는 입력단어 벡터와, 연관단어에 대응하는 연관단어 벡터 사이의 유사도를 계산하여, 유사도가 높은 연관단어만을 추출하여 키워드로 설정할 수 있다.
워드 임베딩을 통하여 각각의 단어들은 공간상에 벡터화하여 분포될 수 있으며, 학습한 샘플에서 서로 유사하거나 관련있는 것으로 설정된 단어들은 벡터 공간 상에 인접한 위치에 위치하게 된다. 따라서, 입력단어 벡터와 연관단어 벡터들 사이의 유사도를 계산하여, 입력단어와 연관단어들 사이의 관계를 파악하는 것이 가능하다. 여기서, 벡터들 사이의 유사도는 코사인 유사도(cosine similarity)를 이용하여 계산할 수 있으나, 이에 한정되는 것은 아니며 벡터들 사이의 유사도를 계산할 수 있는 것이면 어떠한 것도 적용가능하다.
키워드 생성부(140)는 입력 벡터와의 유사도가 제한값 이상인 연관단어 벡터를 추출할 수 있으며, 추출된 연관단어 벡터에 대응하는 연관단어를 키워드로 설정할 수 있다. 즉, 유사도가 제한값 이상인 연관단어벡터에 해당하는 연관단어들만을 키워드로 설정할 수 있다. 또한, 실시예에 따라서는, 입력 벡터와의 유사도가 높은 순서에 따라 기 설정된 개수의 연관단어 벡터를 추출할 수 있으며, 추출된 기 설정된 개수의 연관단어 벡터에 대응하는 연관단어들을 키워드로 설정하는 것도 가능하다. 예를들어, 가장 유사도가 큰 연관단어 벡터 10개를 추출하고, 추출된 10개의 연관단어를 키워드로 설정할 수 있다.
추가적으로, 키워드 생성부(140)가 실시간 검색어 정보를 이용하여, 키워드를 설정하는 실시예도 가능하다. 실시간 검색어 정보는, 포털 사이트 등에서 제공하는 검색 서비스에서 사용되는 검색어 중에서, 실시간으로 검색량이 급증한 검색어들에 대한 정보일 수 있다. 실시간 검색어 정보에 포함된 각각의 검색어들은 현재 이슈가 되고 있는 주제에 관한 것이므로, 키워드 생성부(140)는 실시간 검색어와 관련되는 단어를 우선적으로 키워드로 설정할 수 있다. 실시간 검색어 정보는 서비스 서버(100)가 외부로부터 수신하여 키워드 생성부(140)로 제공될 수 있다.
구체적으로, 키워드 생성부(140)는 word2vec 모델에서 추출한 연관단어들 중에서, 실시간 검색어 정보에 포함된 검색어에 대응하는 연관단어를 추출하고, 추출된 연관단어에 대하여는 유사도 계산시 가중치를 부가할 수 있다. 즉, 상대적으로 유사도가 낮은 경우에도, 실시간 검색어 정보에 대응하는 연관단어에 대하여는 가중치에 의하여 키워드로 설정될 수 있다. 이때, 검색어들의 실시간 검색순위에 따라, 검색어에 대응하는 연관단어에 제공하는 가중치를 차등하여 부여하는 것도 가능하다. 예를들어, 실시간 검색어 1위에 해당하는 검색어와 5위에 해당하는 검색어에 대하여 가중치를 상이하게 설정할 수 있다.
키워드 설정시 실시간 검색어 정보를 활용하는 경우에는, 키워드 생성부(140)가 각각의 단위구간에 대하여 설정하는 키워드를 매번 상이하게 설정할 수 있다. 즉, 사용자의 흥미나 수요를 반영하여 키워드를 설정할 수 있으며, 이를 통하여 이슈가 되고 있는 내용과 관련된 단위구간을 사용자가 용이하게 검색할 수 있도록 제공할 수 있다.
한편, 실시예에 따라서는, 키워드 생성부(140)가 LDA(Latent Dirichlet Allocation)를 이용하여 키워드를 설정하는 것도 가능하다. 즉, LDA로 학습한 기계학습 모델에 스크립트 문자열 및 자막 문자열을 적용하여 단위 구간에 대응하는 주제어를 추출할 수 있으며, 이후, 추출된 주제어를 해당 단위구간의 키워드로 설정할 수 있다.
LDA는 토픽 모델(topic model)의 하나로, 다수의 문서 집합을 이용하여 각 문서에 어떤 주제들이 존재하는지 분류할 수 있는 비지도학습 알고리즘에 해당한다. LDA를 이용하여 모델링을 하면, 특정 주제에 해당하는 단어들과, 특정 문서에 포함된 주제들을 결과물로 얻을 수 있다.
예를들어, 서비스 서버(100)에서 제공하는 동영상이 뉴스 동영상인 경우에는, 최근 5년동안의 뉴스 기사 등을 LDA를 이용하여 학습시켜 기계학습 모델을 구현할 수 있다. 이 경우, 각각의 기사들에 포함된 주제들을 나타내는 주제어와, 각각의 주제어에 대응하는 단어들의 집합을 추출할 수 있다. 예를들어, 한반도 비핵화에 대한 기사에 대하여, "북한", "정치", "비핵화"의 주제를 포함하는 것으로 분류할 수 있으며, "비핵화" 주제와 관련하여 "남북", "북핵", "정상회담" 등의 단어가 해당 주제에 포함되는 것으로 설정할 수 있다. 따라서, 뉴스 동영상 중 어느 하나의 단위구간에서 추출한 스크립트 문자열과 자막 문자열을 기계학습 모델에 입력하면, 입력한 스크립트 문자열과 자막 문자열에 포함된 단어들이 어떠한 주제어에 해당하는 단어들인지 확인할 수 있으며, 이를 통하여 해당 뉴스 동영상 내에 어떤 주제어에 대응하는 내용들이 포함되어 있지는 파악할 수 있다. 이후, 키워드 생성부(140)는 기계학습 모델을 통하여 추출된 주제어를, 해당 단위구간에 대한 키워드로 설정할 수 있다.
또한, 실시예에 따라서는, 키워드 생성부(140)가 전체 동영상에 대한 키워드를 생성하는 것도 가능하다. 구체적으로, 동영상 내에 포함되는 각각의 단위구간에 설정된 키워드에 자연어 처리(Natural Language Processing)를 적용하여, 해당 동영상에 대응하는 키워드를 생성하도록 할 수 있다. 여기서, 자연어 처리 기법에는 word2vec, LDA(Latent Dirichlet Allocation) 등의 기계학습(machine learning) 등이 적용될 수 있다. 즉, 해당 동영상 전체의 내용에 대한 키워드를 설정하는 것이 사용자의 편의상 유리하므로, 키워드 생성부(140)는 해당 동영상에 대한 키워드도 생성할 수 있다. 이때, 동영상의 내용을 반영하기 위하여, 각각의 단위구간에 대한 키워드들을 이용하여, 해당 동영상의 키워드를 생성할 수 있다.
검색부(150)는 사용자로부터 입력받은 키워드에 대응하는 단위구간을 검색하고, 검색된 단위구간을 사용자에게 제공할 수 있다. 각각의 단위구간에는 키워드가 설정되어 있으므로, 검색부(150)는 특정 내용을 포함하는 단위구간을 검색하여 사용자에게 제공할 수 있다. 또한, 검색부(150)는 동영상에서 분리된 단위구간 별로 검색이 가능하므로, 사용자가 원하는 단위구간만을 제공하는 것이 가능하다. 즉, 검색부(150)에 의하면, 동영상 서비스 제공시 사용자 편의성을 크게 향상시키는 것이 가능하다.
요약동영상생성부(160)는 동일한 동영상에 대하여, 기준 키워드에 대응하는 단위구간을 추출하고, 추출된 단위구간들을 결합하여 해당 동영상에 대한 요약동영상을 생성할 수 있다. 여기서, 기준 키워드는 관리자 등에 의하여 미리 설정되거나, 사용자로부터 입력받을 수 있다.
예를들어, 축구 중계동영상의 경우, 기준 키워드를 "골", "득점" 등으로 설정하면 단위구간 중에서 득점 장면만을 추출하여 골장면모음 요약동영상을 생성할 수 있으며, 기준 키워드를 특정선수의 이름으로 설정하면 해당 선수가 공을 터치하는 단위구간만을 추출하여 해당 선수에 대한 하이라이트 요약동영상을 생성할 수 있다. 또한, 뉴스 동영상의 경우, 기준 키워드를 "경제"로 설정하여 경제분야에 대한 요약동영상을 생성하거나, "가상화폐" 등 특정한 이슈에 대한 뉴스를 취합하여 하나의 요약동영상으로 생성하는 것도 가능하다. 즉, 동영상에 대한 별도의 편집작업 등을 수행할 필요없이, 용이하게 요약동영상을 생성하여 사용자에게 제공할 수 있다.
한편, 본 발명의 일 실시예에 의한 서비스 서버(100)는, 도3에 도시한 바와 같이, 프로세서(10), 메모리(40) 등의 물리적인 구성을 포함하는 것일 수 있으며, 메모리(40) 내에는 프로세서(10)에 의하여 실행되도록 구성되는 하나 이상의 모듈이 포함될 수 있다. 구체적으로, 하나 이상의 모듈에는, 단위구간 분리모듈, 스크립트 문자열 생성모듈, 자막 문자열 생성모듈, 키워드 생성 모듈, 검색 모듈 및 요약동영상생성 모듈 등이 포함될 수 있다.
프로세서(10)는, 다양한 소프트웨어 프로그램과, 메모리(40)에 저장되어 있는 명령어 집합을 실행하여 여러 기능을 수행하고 데이터를 처리하는 기능을 수행할 수 있다. 주변인터페이스부(30)는, 컴퓨터 장치의 입출력 주변 장치를 프로세서(10), 메모리(40)에 연결할 수 있으며, 메모리 제어기(20)는 프로세서(10)나 컴퓨터 장치의 구성요소가 메모리(40)에 접근하는 경우에, 메모리 액세스를 제어하는 기능을 수행할 수 있다. 실시예에 따라서는, 프로세서(10), 메모리 제어기(20) 및 주변인터페이스부(30)를 단일 칩 상에 구현하거나, 별개의 칩으로 구현할 수 있다.
메모리(40)는 고속 랜덤 액세스 메모리, 하나 이상의 자기 디스크 저장 장치, 플래시 메모리 장치와 같은 불휘발성 메모리 등을 포함할 수 있다. 또한, 메모리(40)는 프로세서(10)로부터 떨어져 위치하는 저장장치나, 인터넷 등의 통신 네트워크를 통하여 엑세스되는 네트워크 부착형 저장장치 등을 더 포함할 수 있다.
한편, 도3에 도시한 바와 같이, 본 발명의 일 실시예에 의한 서비스 서버(100)는, 메모리(40)에 운영체제를 비롯하여, 응용프로그램에 해당하는 단위구간 분리모듈, 스크립트 문자열 생성모듈, 자막 문자열 생성모듈, 키워드 생성 모듈, 검색 모듈 및 요약동영상생성 모듈 등을 포함할 수 있다. 여기서, 각각의 모듈들은 상술한 기능을 수행하기 위한 명령어의 집합으로, 메모리(40)에 저장될 수 있다.
따라서, 본 발명의 일 실시예에 의한 서비스 서버(100)는, 프로세서(10)가 메모리(40)에 액세스하여 각각의 모듈에 대응하는 명령어를 실행할 수 있다. 다만, 단위구간 분리모듈, 스크립트 문자열 생성모듈, 자막 문자열 생성모듈, 키워드 생성 모듈, 검색 모듈 및 요약동영상생성 모듈은, 상술한 단위구간 분리부, 스크립트 문자열 생성부, 자막 문자열 생성부, 키워드 생성부, 검색부 및 요약동영상 생성부에 각각 대응하므로 여기서는 자세한 설명을 생략한다.
도7은 본 발명의 일 실시예에 의한 동영상 서비스 제공 방법을 나타내는 순서도이다.
도7을 참조하면, 본 발명의 일 실시예에 의한 동영상 서비스 제공방법은, 단위구간 분리단계(S10), 스크립트 문자열 생성단계(S20), 자막 문자열 생성단계(S30), 키워드 생성 단계(S40), 검색 단계(S50) 및 요약동영상 생성 단계(S60)를 포함할 수 있다. 여기서, 본 발명의 일 실시예에 의한 동영상 서비스 제공방법은 서비스 서버에 의하여 실행될 수 있다.
이하, 도7을 참조하여 본 발명의 일 실시예에 의한 동영상 서비스 제공 방법을 설명한다.
단위구간 분리단계(S10)에서는, 동영상 내에 포함된 음성의 특성 변화를 기준으로 복수의 단위구간으로 분리할 수 있다. 여기서, 음성의 특성변화에는 음량 또는 음질의 변화를 포함할 수 있다. 구체적으로, 음성의 특성 변화를 이용하여 동영상 내 화자(話者)의 발화가 중단되는 정지구간을 추출할 수 있으며, 정지구간을 편집점(cutting point)으로 설정하여 동영상을 분리할 수 있다. 예를들어, 정지구간을 음량이 설정값 미만으로 감소하고, 설정값 미만으로 감소한 음량이 기준시간 이상 유지되는 구간으로 설정할 수 있다. 즉, 문맥 등을 고려할 때, 동영상 내의 화자가 말을 멈출때까지를 하나의 구간으로 설정할 수 있으며, 이를 위하여 단위구간 분리시 음량의 변화량을 이용할 수 있다.
스크립트 문자열 생성단계(S20)에서는, 단위구간에 포함된 음성을 인식하여, 음성에 대응하는 스크립트 문자열을 생성할 수 있다. 동영상을 복수의 단위구간으로 분리한 이후에는, 각각의 단위구간 내에 포함된 내용을 인식할 필요가 있다. 이를 위하여, 화자가 발화한 음성을 인식하여 이를 문자로 변환하고, 변환된 문자들을 결합하여 스크립트 문자열로 생성할 수 있다.
실시예에 따라서는, 음성인식장치가 구비되어 있을 수 있으며, 음성인식장치를 이용하여 음성을 문자로 변환할 수 있다. 예를들어, 단위구간에 포함된 음성을 전기적 신호인 음성패턴으로 표현할 수 있으며, 음성모델 데이터베이스 등에는 각각의 문자에 대응하는 표준음성패턴이 저장되어 있을 수 있다. 이 경우, 음성인식장치는 입력되는 음성패턴들을 음성모델 데이터베이스에 저장된 표준음성패턴과 비교할 수 있으며, 각각의 음성패턴에 대응하는 표준음성패턴을 추출할 수 있다. 이후, 추출한 표준음성패턴을 대응하는 문자로 변환할 수 있으며, 변환된 문자들을 결합하여 스크립트 문자열을 생성할 수 있다.
자막 문자열 생성단계(S30)에서는, 단위구간에 포함된 자막 이미지를 인식하여, 자막 이미지에 대응하는 자막 문자열을 생성할 수 있다. 자막 이미지에는 동영상의 내용이 요약되어 표시될 수 있으므로, 자막 이미지에 포함된 문자를 인식할 필요가 있다. 다만, 자막 이미지는 문자가 아니라 형상으로 인식되므로, 자막 이미지에 포함된 문자를 인식하기 위해서는 문자인식 알고리즘 등을 적용할 필요가 있다. 여기서, 자막 문자열 생성단계(S30)는 스크립트 문자열 생성단계(S20)와 동시에 실행될 수 있으나, 이에 한정되는 것은 아니다.
실시예에 따라서는 별도의 문자인식장치가 구비되어 있을 수 있으며, 문자인식장치를 이용하여 자막 이미지를 문자로 변환할 수 있다. 예를들어, 단위구간에 포함된 자막 이미지를 스캔하여 자막 이미지에 대한 픽셀값의 분포를 전기적 신호인 형상패턴으로 표현할 수 있으며, 문자모델 데이터베이스 등에는 각각의 문자에 대응하는 표준형상패턴이 저장되어 있을 수 있다. 이 경우, 문자인식장치는 입력되는 형상패턴을 문자모델 데이터베이스에 저장된 표준형상패턴과 비교할 수 있으며, 각각의 형상패턴에 대응하는 표준형상패턴을 추출할 수 있다. 이후, 추출한 표준형상패턴에 대응하는 문자로 각각 변환하여 자막 문자열을 생성할 수 있다.
한편, 자막 이미지로부터 자막 문자열을 추출하기 위해서는, 단위구간 내에 자막 이미지의 존재여부와, 자막 이미지의 동영상 프레임 내의 위치를 판별할 필요가 있다. 즉, 자막 문자열을 생성하기 전에, 먼저 단위구간 내 자막 이미지를 포함하는 동영상 프레임을 검출하고, 동영상 프레임 내에 포함된 자막 이미지의 위치를 특정할 수 있다. 구체적으로, 자막 문자열 생성단계(S30)에서는, 단위구간에 포함되는 동영상 프레임 내에 복수의 랜드마크를 설정하고, 랜드마크에서 색상 또는 휘도를 측정하는 방식으로 자막 이미지를 검출할 수 있다. 또한, 자막 이미지의 위치는, 랜드마크들을 동영상 프레임 상에 균일하게 분포시킨 후, 자막 이미지에 대응하는 기준 색상 또는 기준 휘도가 측정된 랜드마크들을 추출하여 특정할 수 있다.
키워드 생성단계(S40)에서는 스크립트 문자열 및 자막 문자열에 자연어 처리(Natural Language Processing)을 적용하여, 단위구간에 대응하는 키워드를 생성할 수 있다. 즉, 사용자가 단위구간의 내용을 확인한 후 그에 대응하여 키워드나 주석 등을 설정하는 것이 아니라, 각각의 단위구간에 대한 의미기반의 키워드를 자동으로 설정하는 것이 가능하다. 여기서, 스크립트 문자열 및 자막 문자열에 적용하는 자연어 처리에는 다양한 방법 등이 적용될 수 있으며, 실시예에 따라서는 word2vec, LDA(Latent Dirichlet Allocation) 등의 기계학습(machine learning)을 적용할 수 있다.
일 실시예에 의하면, 키워드 생성단계(S40)에서는 word2vec를 이용하여 워드 임베딩(word embedding)한 word2vec 모델을 구현할 수 있으며, 자막 문자열 또는 스크립트 문자열에서 추출한 단어들을 word2vec 모델에 대한 입력단어로 설정하여, 입력단어에 대응하는 연관단어들을 추출할 수 있다. 이후, 추출한 연관단어들을 해당 단위구간에 대한 키워드로 설정할 수 있다.
여기서, 키워드 생성단계(S40)는 연관단어와 입력단어를 비교하여 유사도가 높은 연관단어만을 키워드로 설정하도록 제한할 수 있다. 구체적으로, word2vec 모델에 입력한 입력단어에 대응하는 입력단어 벡터와, 연관단어에 대응하는 연관단어 벡터 사이의 유사도를 계산하여, 유사도가 높은 연관단어만을 추출하여 키워드로 설정할 수 있다.
각각의 단어들은 워드 임베딩을 통하여 공간상에 벡터화하여 분포될 수 있으며, 학습한 샘플에서 서로 유사하거나 관련있는 것으로 설정된 단어들은 벡터 공간 상에 인접한 위치에 위치하게 된다. 따라서, 입력단어 벡터와 연관단어 벡터들 사이의 유사도를 계산하여, 입력단어와 연관단어들 사이의 관계를 파악하는 것이 가능하다. 여기서, 벡터들 사이의 유사도는 코사인 유사도(cosine similarity)를 이용하여 계산할 수 있다.
구체적으로, 입력 벡터와의 유사도가 제한값 이상인 연관단어 벡터를 추출할 수 있으며, 추출된 연관단어 벡터에 대응하는 연관단어를 키워드로 설정할 수 있다. 즉, 유사도가 제한값 이상인 연관단어벡터에 해당하는 연관단어들만을 키워드로 설정할 수 있다. 또한, 실시예에 따라서는, 입력 벡터와의 유사도가 높은 순서에 따라 기 설정된 개수의 연관단어 벡터를 추출할 수 있으며, 추출된 기 설정된 개수의 연관단어 벡터에 대응하는 연관단어들을 키워드로 설정하는 것도 가능하다. 예를들어, 가장 유사도가 큰 연관단어 벡터 10개를 추출하고, 추출된 10개의 연관단어를 키워드로 설정할 수 있다.
추가적으로, 키워드 생성단계(S40)에서는 실시간 검색어 정보를 이용하여, 키워드를 설정하는 실시예도 가능하다. 예를들어, word2vec 모델에서 추출한 연관단어들 중에서, 실시간 검색어 정보에 포함된 검색어에 대응하는 연관단어를 추출할 수 있으며, 추출된 연관단어에 대하여는 유사도 계산시 가중치를 부가할 수 있다. 즉, 상대적으로 유사도가 낮은 경우에도, 실시간 검색어 정보에 대응하는 연관단어에 대하여는 가중치에 의하여 키워드로 설정될 수 있다. 이때, 검색어들의 실시간 검색순위에 따라, 검색어에 대응하는 연관단어에 제공하는 가중치를 차등하여 부여하는 것도 가능하다.
한편, 실시예에 따라서는, 키워드 생성단계(S40)에서 LDA(Latent Dirichlet Allocation)를 이용하여 키워드를 설정하는 것도 가능하다. 즉, LDA로 학습한 기계학습 모델에 스크립트 문자열 및 자막 문자열을 적용하여 단위 구간에 대응하는 주제어를 추출할 수 있으며, 이후, 추출된 주제어를 해당 단위구간의 키워드로 설정할 수 있다. 다만, 앞서 LDA를 이용하여 학습한 기계학습 모델을 이용하여 키워드를 설정하는 내용은 설명하였으므로, 여기서는 구체적인 내용을 생략한다.
또한, 실시예에 따라서는, 키워드 생성단계(S40)에서 전체 동영상에 대한 키워드를 생성하는 것도 가능하다. 즉, 동영상 내에 포함되는 각각의 단위구간에 설정된 키워드에 자연어 처리(Natural Language Processing)를 적용하여, 해당 동영상에 대응하는 키워드를 생성하도록 할 수 있다. 여기서, 자연어 처리 기법에는 word2vec, LDA(Latent Dirichlet Allocation) 등의 기계학습(machine learning) 등이 적용될 수 있다.
검색단계(S50)에서는, 사용자로부터 입력받은 키워드에 대응하는 단위구간을 검색하고, 검색된 단위구간을 사용자에게 제공할 수 있다. 각각의 단위구간에는 키워드가 설정되어 있으므로, 특정 내용을 포함하는 단위구간을 검색하여 사용자에게 제공할 수 있다. 또한, 동영상에서 분리된 단위구간 별로 검색이 가능하므로, 사용자가 원하는 단위구간만을 제공하는 것이 가능하다. 즉, 동영상 서비스 제공시 사용자 편의성을 크게 향상시키는 것이 가능하다.
요약동영상 생성단계(S60)에서는, 동일한 동영상에 대하여, 기준 키워드에 대응하는 단위구간을 추출하고, 추출된 단위구간들을 결합하여 해당 동영상에 대한 요약동영상을 생성할 수 있다. 여기서, 기준 키워드는 관리자 등에 의하여 미리 설정되거나, 사용자로부터 입력받을 수 있다. 즉, 동영상에 대한 별도의 편집작업 등을 수행할 필요없이, 용이하게 요약동영상을 생성하여 사용자에게 제공할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.
1: 단말장치 100: 서비스 서버
10: 프로세서 20: 메모리 제어부
30: 주변인터페이스부 40: 메모리
110: 단위구간 분리부 120: 스크립트 문자열 생성부
130: 자막 문자열 생성부 140: 키워드 생성부
150: 검색부 160: 요약동영상 생성부

Claims (18)

  1. 서비스 서버가 단말장치로 동영상을 제공하는 동영상 서비스 제공 방법에 있어서,
    동영상 내에 포함된 음성의 특성 변화를 기준으로, 상기 동영상을 복수의 단위구간으로 분리하는 단위구간 분리단계;
    상기 단위구간에 포함된 음성을 인식하여, 상기 음성에 대응하는 스크립트 문자열을 생성하는 스크립트 문자열 생성단계;
    상기 단위구간에 포함된 자막 이미지를 인식하여, 상기 자막 이미지에 대응하는 자막 문자열을 생성하는 자막 문자열 생성단계; 및
    상기 스크립트 문자열 및 자막 문자열에 자연어 처리(Natural Language Processing)를 적용하여, 상기 단위구간에 대응하는 키워드를 생성하는 키워드 생성 단계를 포함하는 동영상 서비스 제공 방법.
  2. 제1항에 있어서, 상기 단위구간 분리단계는
    상기 음성의 특성 변화를 이용하여 동영상 내 화자(話者)의 발화가 중단되는 정지구간을 추출하고, 상기 정지구간을 편집점(cutting point)으로 설정하여 상기 동영상을 분리하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  3. 제2항에 있어서, 상기 단위구간 분리단계는
    상기 음성의 음량이 설정값 미만으로 감소하고, 상기 설정값 미만의 음량이 기준시간 이상 유지되면, 상기 정지구간으로 판별하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  4. 제1항에 있어서, 상기 스크립트 문자열 생성단계는
    음성인식장치를 이용하여, 상기 음성으로부터 추출한 음성패턴을 대응하는 문자로 변환하고, 상기 변환된 문자들을 결합하여 상기 스크립트 문자열을 생성하는 것을 특징으로 하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  5. 제1항에 있어서, 상기 자막 문자열 생성단계는
    문자인식장치를 이용하여, 상기 자막 이미지로부터 추출한 형상패턴을 대응하는 문자로 변환하고, 상기 변환된 문자들을 결합하여 상기 자막 문자열을 생성하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  6. 제1항에 있어서, 상기 자막 문자열 생성 단계는
    상기 단위구간에 포함되는 동영상 프레임 내에 복수의 랜드마크를 설정하고, 상기 랜드마크에서 측정한 색상 또는 휘도를 이용하여 상기 자막 이미지를 검출하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  7. 제6항에 있어서, 상기 자막 문자열 생성 단계는
    상기 동영상 프레임 상에 균일하게 분포하는 복수의 랜드마크 중에서, 상기 자막 이미지에 대응하는 기준 색상 또는 기준 휘도가 측정된 랜드마크들을 추출하고, 상기 추출된 랜드마크를 이용하여 상기 자막 이미지의 위치를 특정하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  8. 제1항에 있어서, 상기 키워드 생성단계는
    word2vec를 이용하여 워드 임베딩(word embedding)한 word2vec 모델에 상기 자막 문자열 또는 스크립트 문자열에서 추출한 입력 단어들을 입력하여 대응하는 연관단어들을 추출하고, 상기 연관단어를 상기 키워드로 설정하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  9. 제8항에 있어서, 상기 키워드 생성단계는
    상기 word2vec 모델에 입력한 상기 입력단어에 대응하는 입력단어 벡터와 상기 연관단어에 대응하는 연관단어 벡터 사이의 유사도를 계산하는 단계;
    상기 유사도가 제한값 이상인 연관단어 벡터 또는 상기 유사도가 높은 순서에 따라 선택되는 기 설정된 개수의 연관단어 벡터를 추출하는 단계; 및
    상기 추출된 연관단어 벡터에 대응하는 연관단어를 상기 키워드로 설정하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  10. 제9항에 있어서, 상기 유사도를 계산하는 단계는
    실시간 검색어 정보에 포함된 검색어에 대응하는 연관단어를 추출하고, 상기 추출된 연관단어는 상기 유사도 계산시 가중치를 부가하는 것을 특징으로 하는 동영상 서비스 제공방법.
  11. 제10항에 있어서, 상기 키워드 생성단계는
    상기 검색어들의 실시간 검색순위에 따라, 상기 검색어에 대응하는 연관단어에 제공하는 가중치를 차등하여 부여하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  12. 제1항에 있어서, 상기 키워드 생성 단계는
    LDA(Latent Dirichlet Allocation)를 이용하여 학습한 기계학습 모델에 상기 스크립트 문자열 및 자막 문자열을 적용하여 상기 단위 구간에 대응하는 주제어를 추출하고, 상기 주제어를 상기 키워드로 설정하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  13. 제1항에 있어서, 상기 키워드 생성 단계는
    상기 단위구간에 대응하는 키워드에 자연어 처리(Natural Language Processing)를 적용하여, 상기 동영상에 대응하는 키워드를 생성하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  14. 제1항에 있어서,
    사용자로부터 입력받은 키워드에 대응하는 단위구간을 검색하고, 상기 검색된 단위구간을 사용자에게 제공하는 검색단계를 더 포함하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  15. 제1항에 있어서,
    동일한 동영상에 대하여, 기준 키워드에 대응하는 단위구간을 추출하고, 상기 추출된 단위구간들을 결합하여 요약동영상을 생성하는 요약동영상 생성단계를 더 포함하는 것을 특징으로 하는 동영상 서비스 제공 방법.
  16. 하드웨어와 결합되어 제1항 내지 제15항 중 어느 한 항의 동영상 서비스 제공 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  17. 동영상 내에 포함된 음성의 특성 변화를 기준으로, 상기 동영상을 복수의 단위구간으로 분리하는 단위구간 분리부;
    상기 단위구간에 포함된 음성을 인식하여, 상기 음성에 대응하는 스크립트 문자열을 생성하는 스크립트 문자열 생성부;
    상기 단위구간에 포함된 자막 이미지를 인식하여, 상기 자막 이미지에 대응하는 자막 문자열을 생성하는 자막 문자열 생성부; 및
    상기 스크립트 문자열 및 자막 문자열에 자연어 처리(Natural Language Processing)를 적용하여, 상기 단위구간에 대응하는 키워드를 생성하는 키워드 생성부를 포함하는 서비스 서버.
  18. 프로세서; 및
    상기 프로세서에 커플링된 메모리를 포함하는 것으로서,
    상기 메모리는 상기 프로세서에 의하여 실행되도록 구성되는 하나 이상의 모듈을 포함하고,
    상기 하나 이상의 모듈은,
    동영상 내에 포함된 음성의 특성 변화를 기준으로, 상기 동영상을 복수의 단위구간으로 분리하고,
    상기 단위구간에 포함된 음성을 인식하여, 상기 음성에 대응하는 스크립트 문자열을 생성하며,
    상기 단위구간에 포함된 자막 이미지를 인식하여, 상기 자막 이미지에 대응하는 자막 문자열을 생성하고,
    상기 스크립트 문자열 및 자막 문자열에 자연어 처리(Natural Language Processing)를 적용하여, 상기 단위구간에 대응하는 키워드를 생성하는,
    명령어를 포함하는 서비스 서버.
KR1020180063439A 2018-06-01 2018-06-01 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버 KR102080315B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180063439A KR102080315B1 (ko) 2018-06-01 2018-06-01 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버
JP2019102475A JP6824332B2 (ja) 2018-06-01 2019-05-31 動画サービス提供方法およびこれを用いるサービスサーバ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180063439A KR102080315B1 (ko) 2018-06-01 2018-06-01 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버

Publications (2)

Publication Number Publication Date
KR20190137359A true KR20190137359A (ko) 2019-12-11
KR102080315B1 KR102080315B1 (ko) 2020-02-24

Family

ID=68846812

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180063439A KR102080315B1 (ko) 2018-06-01 2018-06-01 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버

Country Status (2)

Country Link
JP (1) JP6824332B2 (ko)
KR (1) KR102080315B1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102177768B1 (ko) * 2020-01-23 2020-11-11 장형순 클라우드 기반 음성결합을 이용한 맞춤형 동영상 제작 서비스 제공 시스템
KR102190658B1 (ko) * 2020-07-27 2020-12-14 (주)하이퍼월 텍스트에 기반하여 비디오를 검색하기 위한 전자 장치 및 방법
WO2021221490A1 (en) * 2020-04-30 2021-11-04 Samsung Electronics Co., Ltd. System and method for robust image-query understanding based on contextual features
KR102350359B1 (ko) * 2021-06-18 2022-01-12 노마드웍스 주식회사 음성 인식 알고리즘을 이용한 영상 편집 방법
KR20220091928A (ko) * 2020-12-24 2022-07-01 주식회사 소셜임팩트 음성인식서버, 번역서버와 집단지성을 이용한 동영상의 자막 제공 방법 및 그를 이용한 시스템
KR20220138145A (ko) * 2021-04-05 2022-10-12 한밭대학교 산학협력단 동영상 검토 시스템, 방법 그리고 프로그램
WO2022270660A1 (ko) * 2021-06-25 2022-12-29 주식회사 딥하이 딥러닝 기반의 중심 오브젝트 기반 비디오 스트림 처리 방법 및 그 시스템
WO2022270659A1 (ko) * 2021-06-25 2022-12-29 주식회사 딥하이 딥러닝 기반의 비디오 스트림 처리 방법 및 그 시스템
WO2023003141A3 (ko) * 2021-07-20 2023-03-16 임욱빈 인터랙티브 자연어 처리 기반의 동영상 생성 장치 및 방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261928B1 (ko) * 2019-12-20 2021-06-04 조문옥 기계학습이 완료된 사물 인식 모델을 통해 동영상에 대한 상황 정보 판단이 가능한 동영상 정보 판단장치
CN113722540A (zh) * 2020-05-25 2021-11-30 中国移动通信集团重庆有限公司 基于视频字幕的知识图谱构建方法、装置及计算设备
WO2022065537A1 (ko) * 2020-09-23 2022-03-31 주식회사 파이프랩스 자막 동기화를 제공하는 영상 재생 장치 및 그 동작 방법
KR102413514B1 (ko) * 2020-10-12 2022-06-24 금오공과대학교 산학협력단 주제 도메인에 기초한 음성 데이터 세트 구축 방법
KR20220114379A (ko) 2021-02-08 2022-08-17 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7369739B2 (ja) * 2021-06-28 2023-10-26 エヌ・ティ・ティ・コミュニケーションズ株式会社 動画要約装置、動画要約方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100650407B1 (ko) * 2005-11-15 2006-11-29 삼성전자주식회사 멀티 모달 기반의 고속 비디오 요약 생성 방법 및 그 장치
KR100721409B1 (ko) 2005-12-20 2007-05-23 엔에이치엔(주) 동영상 장면 검색 방법 및 이를 이용한 장면 검색 시스템
JP2008148077A (ja) * 2006-12-12 2008-06-26 Hitachi Ltd 動画再生装置
KR20090019582A (ko) * 2007-08-21 2009-02-25 삼성전자주식회사 하이라이트 추출 장치 및 그 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005033619A (ja) * 2003-07-08 2005-02-03 Matsushita Electric Ind Co Ltd コンテンツ管理装置およびコンテンツ管理方法
JP4774087B2 (ja) * 2008-08-20 2011-09-14 ヤフー株式会社 動画評価方法、装置及びプログラム
CN103678335B (zh) * 2012-09-05 2017-12-08 阿里巴巴集团控股有限公司 商品标识标签的方法、装置及商品导航的方法
JP6460347B2 (ja) * 2016-03-01 2019-01-30 京セラドキュメントソリューションズ株式会社 動画生成装置、動画生成プログラムおよび動画生成方法
JP6951712B2 (ja) * 2016-09-30 2021-10-20 株式会社Nextremer 対話装置、対話システム、対話方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100650407B1 (ko) * 2005-11-15 2006-11-29 삼성전자주식회사 멀티 모달 기반의 고속 비디오 요약 생성 방법 및 그 장치
KR100721409B1 (ko) 2005-12-20 2007-05-23 엔에이치엔(주) 동영상 장면 검색 방법 및 이를 이용한 장면 검색 시스템
JP2008148077A (ja) * 2006-12-12 2008-06-26 Hitachi Ltd 動画再生装置
KR20090019582A (ko) * 2007-08-21 2009-02-25 삼성전자주식회사 하이라이트 추출 장치 및 그 방법

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102177768B1 (ko) * 2020-01-23 2020-11-11 장형순 클라우드 기반 음성결합을 이용한 맞춤형 동영상 제작 서비스 제공 시스템
WO2021149929A1 (ko) * 2020-01-23 2021-07-29 장형순 클라우드 기반 음성결합을 이용한 맞춤형 동영상 제작 서비스 제공 시스템
EP4096231A4 (en) * 2020-01-23 2023-05-31 Hyung Soon Jang SYSTEM FOR DELIVERING CUSTOMIZED VIDEO PRODUCTION SERVICES USING CLOUD-BASED LANGUAGE COMBINATION
WO2021221490A1 (en) * 2020-04-30 2021-11-04 Samsung Electronics Co., Ltd. System and method for robust image-query understanding based on contextual features
KR102190658B1 (ko) * 2020-07-27 2020-12-14 (주)하이퍼월 텍스트에 기반하여 비디오를 검색하기 위한 전자 장치 및 방법
KR20220091928A (ko) * 2020-12-24 2022-07-01 주식회사 소셜임팩트 음성인식서버, 번역서버와 집단지성을 이용한 동영상의 자막 제공 방법 및 그를 이용한 시스템
KR20220138145A (ko) * 2021-04-05 2022-10-12 한밭대학교 산학협력단 동영상 검토 시스템, 방법 그리고 프로그램
KR102350359B1 (ko) * 2021-06-18 2022-01-12 노마드웍스 주식회사 음성 인식 알고리즘을 이용한 영상 편집 방법
WO2022270660A1 (ko) * 2021-06-25 2022-12-29 주식회사 딥하이 딥러닝 기반의 중심 오브젝트 기반 비디오 스트림 처리 방법 및 그 시스템
WO2022270659A1 (ko) * 2021-06-25 2022-12-29 주식회사 딥하이 딥러닝 기반의 비디오 스트림 처리 방법 및 그 시스템
WO2023003141A3 (ko) * 2021-07-20 2023-03-16 임욱빈 인터랙티브 자연어 처리 기반의 동영상 생성 장치 및 방법

Also Published As

Publication number Publication date
KR102080315B1 (ko) 2020-02-24
JP2019212308A (ja) 2019-12-12
JP6824332B2 (ja) 2021-02-03

Similar Documents

Publication Publication Date Title
KR102080315B1 (ko) 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버
US8750681B2 (en) Electronic apparatus, content recommendation method, and program therefor
US11350178B2 (en) Content providing server, content providing terminal and content providing method
US8938393B2 (en) Extended videolens media engine for audio recognition
CN113709561B (zh) 视频剪辑方法、装置、设备及存储介质
KR102197098B1 (ko) 콘텐츠 추천 방법 및 장치
JP4920395B2 (ja) 動画要約自動作成装置、方法、及びコンピュータ・プログラム
US8521007B2 (en) Information processing method, information processing device, scene metadata extraction device, loss recovery information generation device, and programs
KR20140108180A (ko) 멀티미디어 컨텐츠에 접속하기 위한 시스템 및 방법
CN114465737B (zh) 一种数据处理方法、装置、计算机设备及存储介质
CN112040263A (zh) 视频处理方法、视频播放方法、装置、存储介质和设备
US9426411B2 (en) Method and apparatus for generating summarized information, and server for the same
EP3523718B1 (en) Creating a cinematic storytelling experience using network-addressable devices
KR102550305B1 (ko) 머신 러닝 기반의 영상 자동 편집 방법 및 시스템
JP2008070958A (ja) 情報処理装置および方法、並びに、プログラム
JP2005532763A (ja) 圧縮ビデオをセグメント化する方法
CN114996506A (zh) 语料生成方法、装置、电子设备和计算机可读存储介质
CN116708055A (zh) 智能多媒体视听图像处理方法、系统及存储介质
JP6322125B2 (ja) 音声認識装置、音声認識方法および音声認識プログラム
CN114495946A (zh) 声纹聚类方法、电子设备和存储介质
KR102156912B1 (ko) 동영상 내 포함된 음원에 대한 검색 서비스 제공 방법 및 이를 이용하는 서버
CN114065785B (zh) 实时在线通讯翻译方法及系统
JP6069077B2 (ja) 中継区間抽出装置、及びプログラム
JP2013114507A (ja) 情報処理装置、画像選択方法およびプログラム
KR102086784B1 (ko) 음성 명령 인식을 위한 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant