KR102199446B1 - 영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법 - Google Patents

영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법 Download PDF

Info

Publication number
KR102199446B1
KR102199446B1 KR1020180099343A KR20180099343A KR102199446B1 KR 102199446 B1 KR102199446 B1 KR 102199446B1 KR 1020180099343 A KR1020180099343 A KR 1020180099343A KR 20180099343 A KR20180099343 A KR 20180099343A KR 102199446 B1 KR102199446 B1 KR 102199446B1
Authority
KR
South Korea
Prior art keywords
video
scene
recognition
keyword
clip
Prior art date
Application number
KR1020180099343A
Other languages
English (en)
Other versions
KR20200023013A (ko
Inventor
이혜정
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020180099343A priority Critical patent/KR102199446B1/ko
Publication of KR20200023013A publication Critical patent/KR20200023013A/ko
Application granted granted Critical
Publication of KR102199446B1 publication Critical patent/KR102199446B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/41Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명의 실시 예에 따른 영상 서비스 장치는 영상 클립을 저장하는 메모리 및 상기 메모리에 기능적으로 연결되는 프로세서를 포함할 수 있다. 상기 프로세서는 상기 메모리에 저장된 영상 클립을 획득하고, 상기 영상 클립을 장면 단위로 분할하고, 상기 영상 클립의 분할된 적어도 하나의 장면에 대하여 적어도 하나의 인식 동작을 수행하여 후보 키워드를 추출하고, 상기 추출된 후보 키워드들을 토대로 상기 영상 클립에 대한 대표 키워드를 선정하도록 설정될 수 있다.

Description

영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법{Video Service device for supporting search of video clip and Method thereof}
본 발명은 영상 컨텐츠 검색에 관한 것으로, 특히 영상 컨텐츠의 대표 키워드를 추출하여 영상 컨텐츠와 매핑한 후 해당 영상 컨텐츠를 용이하게 검색할 수 있도록 하는 영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법에 관한 것이다.
최근에는 컨텐츠를 소비하는 형태가 점점 Text에서, Image나 Video로 급격히 전이되고 있으며, 특히, 영상 (또는 비디오 또는 동영상) 컨텐츠 정보의 소비가 급격히 증가하고 있다. 또한 종래 영상 컨텐츠는 단순히 미디어 소비 측면에서의 도구였다면, 현재에 이르러서는 영상 컨텐츠가 소통과 정보 검색을 위한 도구로도 활용되고 있는 상황이다.
한편, 영상 컨텐츠는 범람하고 있으나, 바쁜 생활 환경으로 인하여 1 ~ 2시간 분량의 영상 컨텐츠를 시청하거나 다시보기 등의 관람이 어려워지고 있다. 이에, 최근에는 전체 컨텐츠를 다시보기 보다는 긴 시간(예: 1 ~ 2시간) 분량의 컨텐츠의 핵심 부분을 2~3분 정도로 짧게 추출하여 제공하는 컨텐츠가 대두되고 있다. 이러한 소비 경향을 맞추기 위하여, 방송국에서는 방송 컨텐츠를 서비스할 때, 1~2시간짜리 전체 영상 외에 해당 영상을 3~5분 내외로 추출해 낸 Short Clip 영상을 제작하여 제공하고 있다.
한편, 원본 미디어 영상의 경우, 컨텐츠 제작자가 작업한 기본 메타 데이터가 비교적 풍부하고 정확하게 갖추어져 있는 편이나 (등장 인물, 촬영지, 시놉시스(줄거리), 장르 등), 원본 영상을 2~3분 내외로 재편집 한 Short Clip 영상은 해당 클립 내 등장인물, 클립의 줄거리, 배경 등에 대한 메타 데이터 확보가 어려운 상황이다. 또한, Short Clip 영상은 메타데이터를 추출해내기 위한 원본 정보의 확보가 불가능한 문제가 있다. 또한, UGC의 경우 전문 제작자가 아닌 일반 User가 제작하게 되면, 동영상에 대한 제목이나 상세 설명 등에 대한 Meta 입력을 제대로 되지 않은 경우가 많다.
이에, 풀 영상 및 클립 영상을 포함한 영상 컨텐츠 스트리밍 서비스를 제공하는 경우 컨텐츠에 대한 주요 키워드 정보(영상 정보를 압축해서 제공하며 검색 또는 추천 등에 활용되는 해시태그 #)를 사람이 직접 수작업하여 제공함에 따라, 정보의 부정확성이 높고, 정보 제공 효율이 무척 낮은 문제점이 있다.
한국공개특허 제10-1640317호, 2016년 07월 11일 등록 (명칭: 오디오 및 비디오 데이터를 포함하는 영상의 저장 및 검색 장치와 저장 및 검색 방법)
본 발명은 상술한 요구를 충족하기 위한 것으로, 영화 또는 방송 등의 영상 컨텐츠 혹은 UGC 컨텐츠를 설명해주는 대표 키워드 (해시태그)를 인식 기술 기반으로 자동 생성할 수 있는 영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법을 제공한다.
또한, 본 발명은 시청자에게 해당 방송 클립 컨텐츠의 요약 정보를 제공하고, 나아가 방송 클립 컨텐츠 단위를 효과적으로 검색하고 추천할 수 있도록 하는 영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법을 제공한다.
본 발명의 실시 예에 따른 영상 서비스 장치는 영상 클립을 저장하는 메모리 및 상기 메모리에 기능적으로 연결되는 프로세서를 포함할 수 있다. 상기 프로세서는 상기 메모리에 저장된 영상 클립을 획득하고, 상기 영상 클립을 장면 단위로 분할하고, 상기 영상 클립의 분할된 장면들 또는 적어도 하나의 장면에 대하여 적어도 하나의 인식 동작을 수행하여 적어도 하나의 후보 키워드를 추출하고, 상기 적어도 하나의 후보 키워드를 토대로 상기 영상 클립에 대한 대표 키워드를 선정하도록 설정될 수 있다.
또는, 상기 적어도 하나의 후보 키워드는 상기 적어도 하나의 장면에 적용된 그래픽 자막들을 통해 추출될 수 있다.
상기 적어도 하나의 후보 키워드는 상기 적어도 하나의 장면에 포함된 프레임별로 추출된 Feature Vector와 상기 영상 클립의 원본 Video Feature Vector (Global Feature)의 복합 적용에 따라 추출될 수 있다.
상기 적어도 하나의 후보 키워드는 스코어 모델을 통하여 우선 순위가 할당될 수 있다.
특히, 상기 프로세서는 최우선순위를 상기 영상 클립에 대한 대표 키워드로 선정하도록 설정될 수 있다.
한편, 상기 프로세서는 얼굴 인식, 시간 또는 계절 인식, 장소 인식, 대사 인식, 음악 인식, 상황 또는 이벤트 인식 중 적어도 하나의 인식 동작을 수행하도록 설정될 수 있다.
본 발명의 실시 예에 따른 영상 컨텐츠 검색 지원 방법은 영상 서비스 장치가, 키워드 선정이 필요한 영상 클립을 획득하는 단계, 상기 영상 클립을 장면 단위로 분할하는 단계, 상기 영상 클립의 분할된 적어도 하나의 장면에 대하여 적어도 하나의 인식 동작을 수행하여 적어도 하나의 후보 키워드를 추출하는 단계, 상기 적어도 하나의 후보 키워드를 토대로 상기 영상 클립에 대한 대표 키워드를 선정하는 단계를 포함할 수 있다.
상기 영상 컨텐츠 검색 지원 방법에서 상기 영상 클립은 원본 동영상의 일부 적어도 하나의 장면을 편집하여 마련되어 수분 내지 수십분의 재생 시간 길이를 가지는 영상 컨텐츠를 포함할 수 있다.
본 발명은 2~3분 분량의 영상 클립 컨텐츠나 UGC 뿐만 아니라, 일정 시간 길이를 가지는 영상 컨텐츠에 대하여 영상 인식, 자막 인식, 음성 인식 등의 인식 기술을 활용하여 장면 단위로 장면 메타 정보(예: 후보 키워드)를 자동 생성하고, 이를 분석하여 영상 컨텐츠를 대표하는 키워드를 자동 선별해 낼 수 있어, 보다 정확한 키워드 선정 및 작업 효율을 제공할 수 있다.
도 1은 본 발명의 실시 예에 따른 네트워크 환경의 한 예를 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 영상 서비스 장치의 개략적인 형태를 나타낸 도면이다.
도 3은 본 발명의 실시 예에 따른 영상 서비스 장치의 프로세서의 한 예를 나타낸 도면이다.
도 4는 본 발명의 장면 메타 추출기의 한 예를 나타낸 도면이다.
도 5는 본 발명의 실시 예에 따른 장면 인식 방법의 한 예를 나타낸 도면이다.
도 6은 본 발명의 실시 예에 따른 영상 컨텐츠 검색 지원과 관련한 키워드 맵 생성 방법의 한 예를 나타낸 도면이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
도 1은 본 발명의 실시 예에 따른 네트워크 환경의 한 예를 나타낸 도면이다.
도 1을 참조하면, 본 발명의 실시 예에 따른 네트워크 환경(10)은 네트워크(50), 외부 서버 장치(300), 영상 서비스 장치(200) 및 단말(100)을 포함할 수 있다.
상술한 본 발명의 네트Ÿp 환경은 미디어 특히 (동)영상 컨텐츠에 담긴 정보를 분석하여 대표 키워드를 제공하는 것으로, 영상 컨텐츠를 효과적으로 설명 및 표현하기 위한 키워드 정보를 자동 생성하고, 상기 키워드 정보를 기반으로 영상의 요약 설명, 검색 및 추천 등 다양한 방면에 활용할 수 있도록 지원한다. 특히, 본 발명은 영상 컨텐츠를 장면별로 분할 하고, 분할된 장면별로 이미지 인식 및 음성인식(또는 자막 인식, OCR 인식 등)을 통해 획득된 상세 메타데이터 또는 컨텍스트 정보를 기반으로 해당 영상을 특징 짓는 소수의 핵심 키워드를 선별해 내는 방법을 제공한다. 이러한 본 발명은 종래 단순 얼굴인식기술을 활용한 장면별 배우 얼굴 인식 과정에서 발생하는 배우 관련 단순 정보 제공(예: 특정 배우가 출연하는 장면 (시점)에 대한 정보 제공)의 한계를 벗어나, 영상을 특징짓는 대표 키워드 정보를 산출할 수 있도록 지원한다.
상기 네트워크(50)는, 인터넷 망과 같은 IP 기반의 유선 통신망뿐만 아니라, LTE(Long term evolution) 망, WCDMA 망과 같은 이동통신망, Wi-Fi망과 같은 다양한 종류의 무선망, 및 이들의 조합으로 이루어질 수 있다. 즉, 본 발명에 따른 영상 컨텐츠 검색 지원과 관련한 네트워크 환경(10)은, 유무선 통신망에 구별 없이 모두 적용될 수 있다. 구체적으로 상기 네트워크(50)는 영상 서비스 장치(200)와 단말(100) 간의 통신 채널을 형성할 수 있다. 또는, 네트워크(50)는 영상 서비스 장치(200)와 외부 서버 장치(300) 간의 통신 채널을 형성할 수 있다. 예를 들어, 상기 네트워크(50)는 영상 서비스 장치(200), 외부 서버 장치(300), 또는 단말(100)이 운용할 수 있는 3G, 4G, 5G 무선 이동 통신 방식 중 적어도 하나의 방식을 지원할 수 있다. 또는, 상기 네트워크(50)는 유선 기반으로 상기 영상 서비스 장치(200)와 외부 서버 장치(300) 간의 통신 채널 또는 단말(100)과 상기 영상 서비스 장치(200) 간의 통신 채널을 형성할 수 있다. 이러한 네트워크(50)는 현재 개발되어 상용화되었거나 향후 개발되어 상용화될 각종 유선망, 무선망 및 이들의 결합망을 포함하는 개념으로 해석되어야 한다.
상기 단말(100)은 네트워크(50)를 통하여 영상 서비스 장치(200)에 접속할 수 있다. 상기 단말(100)은 영상 서비스 장치(200)가 제공하는 다양한 영상 컨텐츠를 검색하고, 시청하거나 다운로드 받을 수 있는 소비자 역할을 수행할 수 있다. 이와 관련하여, 단말(100)은 영상 서비스 장치(200) 접속을 위한 단말 통신 회로, 영상 서비스 장치(200)로부터 수신된 영상 컨텐츠를 검색할 수 있는 웹 페이지를 출력할 수 있는 디스플레이, 영상 컨텐츠 검색과 관련한 입력 신호를 생성할 수 있는 입력부, 수신된 영상을 임시 또는 반영구 저장할 수 있는 메모리, 상술한 구성들 예컨대, 단말 통신 회로, 디스플레이, 입력부, 메모리 등을 제어할 수 있는 제어부를 포함할 수 있다. 한편, 본 발명의 단말(100)은 영상 서비스 장치(200)에 자신이 제작한 영상 컨텐츠(예: Short clip 영상)를 업로드할 수는 공급자 역할을 수행할 수도 있다. 이때, 단말(100)은 기 저장된 장시간(예: 수십분에서 수시간 사이의 영상) 영상 컨텐츠로부터 생성된 Short clip 영상을 제작할 수 있는 편집 기능을 제공할 수 있다.
상기 외부 서버 장치(300)는 적어도 하나의 영상 컨텐츠를 저장하고, 영상 서비스 장치(200) 요청에 따라 상기 적어도 하나의 영상 컨텐츠를 제공할 수 있다. 또는, 상기 외부 서버 장치(300)는 영상 서비스 장치(200)가 일정 시간 길이를 가지는 영상 컨텐츠(예: Short Clip 영상, 이하 “영상 클립”)에 대응하는 키워드 정보를 생성하는 동안 필요한 다양한 알고리즘 또는 다양한 메타 후보 정보 등을 제공할 수 있다. 또는, 외부 서버 장치(300)는 영상 클립의 장면 분석에 필요한 다양한 알고리즘 및 데이터(예: 얼굴 인식 알고리즘 및 얼굴 인식 DB, 오디오 인식 알고리즘 및 오디오 인식 DB, 배경 분석 알고리즘 및 배경 DB 등, 장소 분석 알고리즘 및 장소 DB, 음악 인식 알고리즘 및 음악 DB)를 저장하고, 영상 서비스 장치(200)에 제공할 수 있다. 한편, 상기 외부 서버 장치(300)는 영상 서비스 장치(200) 내에 포함될 수도 있다.
상기 영상 서비스 장치(200)는 외부 서버 장치(300) 또는 단말(100)로부터 적어도 하나의 영상 클립을 수신하여 저장할 수 있다. 또는, 영상 서비스 장치(200)는 별도의 데이터 수신 경로(예: 입력 인터페이스 또는 메모리 장치 연결 등)를 통해 적어도 하나의 영상 클립을 수신하여 저장할 수 있다. 상기 영상 서비스 장치(200)는 수신된 영상 클립에 대하여 장면별로 분할하고, 분할된 장면에 대하여 다양한 인식 모듈을 적용하여, 다양한 메타 정보(예: 후보 키워드)를 획득하고, 획득된 메타 정보를 해당 영상 클립에 대응하여 분석함으로써, 해당 영상 클립을 대표할 수 있는 대표 키워드를 적어도 하나 선정할 수 있다. 상기 영상 서비스 장치(200)는 선정된 키워드를 해당 영상 클립에 매핑하여 저장할 수 있다. 이때, 영상 서비스 장치(200)는 영상 클립에 대하여 선정된 키워드로 검색할 수 있도록 선정된 키워드를 해당 영상 클립의 해쉬 태그로 저장 관리할 수 있다.
도 2는 본 발명의 실시 예에 따른 영상 서비스 장치의 개략적인 형태를 나타낸 도면이다.
도 2를 참조하면, 본 발명의 영상 서비스 장치(200)는 통신 회로(210), 메모리(230) 및 프로세서(250)를 포함할 수 있다.
상기 통신 회로(210)는 영상 서비스 장치(200)의 통신 채널을 형성할 수 있다. 예컨대, 일정 주기로 또는 관리자 요청에 따라, 통신 회로(210)는 외부 서버 장치(300)와 통신 채널을 형성하고, 외부 서버 장치(300)로부터 적어도 하나의 영상 클립을 수신할 수 있다. 상기 통신 회로(210)는 메모리(230)에 저장된 영상 클립(231)을 분석하는 과정에서 영상 클립(231)에 포함된 적어도 하나의 장면들에 대한 외부 데이터 수집을 위하여 외부 서버 장치(300)와 통신 채널을 형성할 수도 있다. 한편, 통신 회로(210)는 예컨대, 네트워크(50)를 통한 단말(100)의 접속을 지원하는 통신 채널을 형성할 수 있다. 이때, 통신 회로(210)는 접속된 단말(100)에 검색어 입력이 가능한 화면을 제공하고, 단말(100)로부터 특정 영상 클립(231)을 검색하는 검색어(또는 키워드)를 수신할 수 있다. 통신 회로(210)는 프로세서(250) 제어에 대응하여 단말(100)이 제공한 키워드에 대응되는 영상 클립(231)을 단말(100)에 제공할 수 있다.
상기 메모리(230)는 적어도 하나의 영상 클립(231), 메타 DB(233), 키워드 맵(235)을 저장할 수 있다. 상기 영상 클립(231)은 외부 서버 장치(300) 또는 단말(100)로부터 수신될 수 있다. 또는, 영상 클립(231)은 영상 서비스 장치(200) 자체적으로 제작되어 저장될 수도 있다. 상기 영상 클립(231)은 예컨대, 장시간 영상 컨텐츠로부터 생성된 상대적으로 짧은 재생 시간(예: 수분에서 수십분, 또는 수시간)을 가지는 숏 영상 컨텐츠를 포함할 수 있다. 예컨대, 상기 영상 클립(231)은 앞서 언급한 Short Clip 영상 또는 UGC 영상 등을 포함할 수 있다. 또는, 상기 영상 클립(231)은 메타 정보가 지정된 양 이하의 크기를 가지는 영상 컨텐츠를 포함할 수 있다. 상기 메모리(230)는 복수개의 영상 클립(231)들이 저장 관리될 수 있다. 상기 영상 클립(231)에는 다양한 인식 모듈에 의하여 인식되고, 인식에 따른 결과물 즉 메타 정보를 토대로 선정된 적어도 하나의 키워드가 할당될 수 있다. 상기 키워드는 상기 영상 클립(231)을 검색하는데 이용될 수 있다.
상기 영상 클립(231)은 적어도 하나의 장면들을 포함할 수 있다. 상기 적어도 하나의 장면은 예컨대, 영상을 구성하는 복수개의 프레임들이거나 또는 복수개의 프레임들 중 I(Intra)-프레임들일 수 있다. 또는, 상기 장면은 배경화면이 일정 영역 이상 변하지 않는 복수개의 프레임들을 포함할 수 있다. 이에 따라, 영상 클립(231)에서 적어도 하나의 사람 또는 동물 또는 사물 등이 객체가 배치되고, 그러한 객체가 일정 움직임을 보이더라도 배경 화면이 일정 영역 이상 유지되는 경우 하나의 장면으로 처리될 수 있다.
상기 메타 DB(233)는 다양한 인식 모듈에 의해 인식된 상기 영상 클립(231)에 대한 메타 정보들을 저장할 수 있다. 상기 영상 클립(231)에 대한 메타 정보들은 상기 영상 클립(231)의 키워드 선정에 이용될 수 있다. 또한, 상기 메타 DB(233)는 상기 영상 클립(231)에 할당될 적어도 하나의 키워드 정보들을 저장할 수 있다. 각각의 키워드들은 적어도 하나의 메타 정보들에 매핑될 수 있다. 이에 따라, 프로세서(250)는 영상 클립(231)에 대한 인식 과정에서 획득된 메타 정보들을 토대로 적어도 하나의 키워드들을 산출하고, 산출된 키워드들의 등장 시점, 등장 횟수 또는 중요도 등을 기반으로 대표 키워드를 선정할 수 있다. 상기 메타 DB(233)에 저장되는 다양한 메타 정보들과 키워드 등은 외부 서버 장치(300)가 제공한 정보에 의해 갱신될 수 있다.
상기 키워드 맵(235)은 상기 영상 클립(231)의 식별 정보와 상기 식별 정보에 매핑된 적어도 하나의 키워드를 매핑한 정보를 포함할 수 있다. 또한, 상기 키워드 맵(235)은 특정 영상 클립(231)의 식별 정보와 해당 영상 클립을 대표하는 대표 키워드 정보를 매핑한 정보를 포함할 수 있다. 상기 키워드 맵(235)은 새로운 영상 클립(231)이 수신된 후, 인식 및 키워드 산출 과정이 수행됨에 따라 갱신될 수 있다.
상기 프로세서(250)는 영상 서비스 장치(200)의 키워드 선정 및 영상 클립(231) 검색 기능을 제공할 수 있다. 이와 관련하여, 프로세서(250)는 일정 주기 또는 관리자 요청 또는 외부 서버 장치(300) 요청에 대응하여 외부 서버 장치(300) 또는 단말(100)로부터 적어도 하나의 영상 클립을 수신하여 메모리(230)에 저장할 수 있다. 상기 프로세서(250)는 새로운 영상 클립이 메모리(230)에 저장되거나 또는 지정된 시간이 도래하면, 메모리(230)에 저장된 영상 클립(231)에 대한 키워드 선정 작업을 수행할 수 있다. 키워드 선정 작업에서, 상기 메모리(230)는 영상 클립(231)에 대한 장면 분할, 분할 장면들에 대한 다양한 인식 처리, 인식 처리에 따라 획득된 메타 정보들을 분류와 분석, 분석 결과에 따라 대응되는 적어도 하나의 키워드 또는 대표 키워드 선정을 수행할 수 있다. 상기 프로세서(250)는 선정된 대표 키워드를 해당 영상 클립(231)의 해쉬 태그로 저장 관리함으로써, 영상 클립(231)에 대한 검색 기능을 제공할 수 있다.
도 3은 본 발명의 실시 예에 따른 영상 서비스 장치의 프로세서의 한 예를 나타낸 도면이다.
도 3을 참조하면, 상기 프로세서(250)는 장면 메타 추출기(251), 영상 통합 메타 추출기(253), 외부 데이터 추출기(255), 분석기(257), 및 키워드 선정부(259)를 포함할 수 있다. 이러한, 본 발명의 프로세서(250)는 영상 인식 기술을 기반으로 하여 영상 클립의 대표 키워드를 자동 생성할 수 있다. 또는 상기 프로세서(250)는 영상 클립의 내용을 설명하는 요약 정보를 자동 생성할 수 있다. 예를 들어, 상기 프로세서(250)는 1개의 영상 클립 파일에 대해 Multi-Label Classification Task(해당 비디오를 설명하는 주요 키워드 정보를 다수 제공하는 기능)를 제공할 수 있다. 이 동작에서, 상기 프로세서(250)는 다양한 영상 인식 기술로 장면 단위로 추출한 수만 단위의 Meta 중에서 유의미하거나 중요도가 높은 키워드를 선별해서 list up하고, 일정 개수의 키워드를 제공할 수 있다.
상기 장면 메타 추출기(251)는 장면 Meta를 자동 인식하는 인식기(또는 인식 모듈, 또는 인식 프로세서)로서, 6하 원칙에 따라 영상 컨텐츠의 정보를 잘 설명해 낼 수 있는 Meta 정보를 영상 인식 기술을 활용하여 생성할 수 있다. 예컨대, 장면 메타 추출기(251)는 얼굴인식 기술을 통해 화면 속에 누가 등장하고 있는 지를 자동 생성 하고, 장소 인식 기술을 통해 스토리가 펼쳐지고 있는 배경 장소 정보를 생성할 수 있으며, 상황 인식 기술을 통해 영상 컨텐츠 내에서 진행되고 있는 상황/이벤트 정보를 생성할 수 있다. 또한, 장면 메타 추출기(251)는 객체 인식 기술을 통해 영상 컨텐츠 내에 등장하는 주요 객체 정보를 생성할 수 있으며, 음성인식 (대사인식) 및 자막인식 기술을 통해 대사와 화면에 쓰여져 있는 자막을 분석하여 추가적인 Meta를 추출할 수 있다. 추가적으로, 상기 장면 메타 추출기(251)는 화면에 미디어 제작자가 삽입한 그래픽 처리된 특수 자막을 인식(OCR(Optical Character Recognition) 인식 기술을 이용)하여 특수 자막 정보를 생성할 수 있다. 예를 들면, 장면 메타 추출기(251)는 예능 컨텐츠와 같이 특수 자막으로 적용된 특수 지명 정보들 #파리 상제리제 거리 #뉴욕 타임스퀘어 등과 같은 상세 지명 정보를 추출할 수 있다. 상술한 바와 같이, 상기 장면 메타 추출기(251)는 영상 클립을 장면 단위로 구분하고, 장면 단위(또는 이미지 단위 혹은 국소 단위)별로 분할한 구간에서 추출한 메타 데이터들을 기반으로 각 장면 단위 지역적 특성 (Local Feature)을 추출할 수 있다.
상기 영상 통합 메타 추출기(253)는 영상 클립의 전체 Meta를 인식할 수 있다. 이러한 영상 통합 메타 추출기(253)는 Frame Image 단위의 정보를 보는 것이 아니라, 전체 Video를 단일 Feature Vector로 만들어 분류할 수 있다. 즉, 영상 통합 메타 추출기(253)는 영상 전체의 내용을 종합적으로 파악하여 장르를 특정짓거나, 대표성을 띄는 하나의 키워드를 추출할 수 있다. 예를 들면, 영상 통합 메타 추출기(253)는 Music Video를 다량으로 학습하고, 영상 클립이 음악 영상과 관련된 경우, Music Video로 키워드를 분류해 낼 수 있다. 또는, 영상 통합 메타 추출기(253)는 축구 영상을 다량으로 학습하고, 축구 관련 영상 클립의 키워드를 축구로서 분류할 수 있다. 여기서, 상기 영상 통합 메타 추출기(253)는 영상 컨텐츠를 일괄 분류하여 지도 학습으로 접근하는 방식 (Video Feature Vector), 영상 컨텐츠의 프레임 별로 추출한 Vector를 연결하고 이를 분류하여 접근하는 방식 (Aggregate Vector), 및 배경음악/대사와 같이 영상 전체에 걸쳐 연속성을 갖는 데이터를 활용하는 방식 등을 복합적으로 운용하여 분류 결과의 정확도와 다양성을 높일 수 있다. 상술한 바와 같이, 영상 통합 메타 추출기(253)는 동영상 파일 전체적인 특성을 파악하는 것으로 전체적인 특성 (Global Feature)을 요약하여 추출할 수 있다. 예컨대, 상기 영상 통합 메타 추출기(253)는 영상 클립에 대해 Genre 에 해당하는 키워드나, 영상 컨텐츠의 앞뒤 프레임 간의 관계, 이미지와 오디오 파일의 복합적인 관계를 종합하여 영상 클립에 대한 포괄적인 키워드를 분류해 낼 수 있다.
상기 외부 데이터 추출기(255)는 Web Crawler 등을 통해 외부 데이터 베이스(예: 외부 서버 장치(300)의 데이터베이스)에서 데이터를 수집하는 구성으로서, 영화 또는 방송사 등의 홈페이지, 전문가 평점 사이트, 블로그 등 다양한 정보 소스의 데이터를 분석할 수 있다. 외부 데이터 추출기(255)가 수집한 데이터는 Text 형태의 데이터로서, Topic Model과 형태소 분석기를 거쳐 명사 또는 형용사 형태의 키워드 후보 데이터로 변형 될 수 있다.
상기 분석기(257)는 추출한 영상 클립의 Frame 별 Meta(장면 메타 추출기(251)가 추출한 데이터)와 Video 통합 Meta(영상 통합 메타 추출기(253)가 추출한 데이터)에 대응하는 Model을 생성하고, 해당 모델에 대응하는 키워드를 매핑(분류)하여, 다수의 Keyword List 후보군을 생성할 수 있다. 한편, 키워드 리스트 후보군에 포함된 값들이 영상 클립을 특징 짓는 대표 키워드에 비하여 방대한 양이어서, 분석기(257)는 키워드 리스트 후보군에 포함된 값들 중에서 중요하고 의미있는 키워드를 추출하는 Scoring Modeling을 수행할 수 있다. Scoring Model에서는 앞서 추출된 Keyword들에서 우선 순위를 판별해내며, 이를 위해 Score Factor들을 사용할 수 있다. 스코어 팩터는 빈도 스코어, 신뢰 스코어, 동시 등장 스코어 및 특별 스코어를 포함할 수 있다. 빈도 스코어(Frequency Score)는 각각의 Meta 들이 영상에서 등장한 빈도를 포함할 수 있다. 예컨대, 장면에 등장한 인물이 배우 “정우성”이라고 인식된 경우, 정우성이 등장 및 인식된 프레임 개수가 빈도 스코어가 될 수 있다. 신뢰 스코어(Confidence Score)는 각각의 Meta 들이 인식기에서 추출될 때의 신뢰도 점수가 될 수 있다. 예컨대, 신뢰 스코어는 영상 클립의 특정 장면이 번지점프 장면이라고 인식된 경우, 해당 특정 장면이 번지점프 장면이 맞을 신뢰도 값이 될 수 있다. 동시 등장 스코어(Co-Occurrence Score)는 인식된 Meta 값과 외부 Crawling을 통해 수집된 Data에서 특정 키워드가 동시에 등장하는 경우, 동시 등장으로 인해 우선 순위를 상향 조정하는 점수를 포함할 수 있다. 특별 스코어(Specialty Score)는 키스신, 웨딩신과 같이 서비스 기획자의 의도에 따라 우선순위를 조정하고 싶은 키워드의 경우 Score를 높게 할당하기 위한 스코어이다. 이러한 특별 스코어는 기획자의 의도 및 Genre에 따라 점수를 부여하는 로직을 변경할 수 있다.
상기 키워드 선정부(259)는 상술한 과정을 거쳐 분석기(257)를 통해 출력된 키워드들의 최종 점수를 확인하고, 최종 점수에 따라 영상 클립에 대한 대표 키워드를 선정할 수 있다. 또는, 키워드 선정부(259)는 키워드 후보군 리스트에 포함된 후보 키워드들의 점수에 따라 영상 클립에 대한 적어도 하나의 주변 키워드를 선정할 수도 있다. 예컨대, 키워드 선정부(259)는 가장 높은 점수를 가지는 키워드를 대표 키워드로 선정하고, 차순위 또는 차차순위의 점수를 가지는 적어도 하나의 키워드를 주변 키워드로 선정할 수 있다. 상기 키워드 선정부(259)는 키워드 선정이 완료되면 키워드 맵(235)을 갱신할 수 있다. 예컨대, 키워드 선정부(259)는 특정 영상 클립에 산출된 대표 키워드 또는 적어도 하나의 주변 키워드를 매핑한 매핑 값을 키워드 맵(235)에 새로 기입할 수 있다.
상술한 실시예들은 다양한 형태로 변형될 수 있으며, 예컨대, 상기 프로세서(250)는 영상 클립의 특성 또는 장르에 따라 인식부, Score Model, 외부 데이터 추출기 등을 다양하게 구성할 수 있다. 또한, 프로세서(250)에서 운용되는 인식 엔진(또는 인식 알고리즘 또는 인식 모듈 등)도 다양하게 조합될 수 있으며, Score Model 에서 반영하는 요소 및 로직도 조정될 수 있다.
또한, 상기 프로세서(250)는 영상 클립에 대한 데이터 처리 속도와 정확도, 효용성 등의 Trade-off를 고려하여, 영상 클립의 프레임별 인식 과정에서 모든 프레임을 다 인식할 지, 또는 일정 프레임마다 Skip 하며 처리할 지 등에 대한 조건 등이 달라질 수 있다.
도 4는 본 발명의 장면 메타 추출기의 한 예를 나타낸 도면이다.
도 4를 참조하면, 장면 메타 추출기(251)는 얼굴 분석기(251a), 상황 분석기(251b) 및 OCR 인식기(251C)를 포함할 수 있다.
상기 장면 메타 추출기(251)는 Scene (또는 장면) 분할에 기반하여 분할된 Scene 별로 영상 인식을 통해 키워드를 추출할 수 있다. 이때 동영상의 경우 스토리라인을 기반으로 한 Scene 에서 인물, 장소, 이벤트, 객체와 관련된 내용은 여러 Frame 에 걸쳐 일정 기간 반복적으로 촬영되어 등장하는 속성이 있기 때문에, 상기 장면 메타 추출기(251)는 Frame 별로 각각의 인식 엔진을 교차 통과하여 처리할 수 있다.
상기 얼굴 분석기(251a)는 장면에 포함된 사람의 얼굴을 분석하여, 어떠한 배우의 얼굴인지 등에 관한 메타 정보를 추출할 수 있다. 얼굴 분석기(251a)는 장면에 복수의 사람이 포함된 경우, 복수의 사람들에 대한 메타 정보(예: 이름 정보)를 추출할 수 있다.
상기 상황 분석기(251b)는 장면에 포함된 배경 예컨대, 장소를 인식하거나, 시간 또는 계절적 배경 등을 인식하고, 인식 결과에 대응하는 메타 정보를 추출할 수 있다. 또는, 상황 분석기(251b)는 장면의 상황을 인식하고, 인식된 상황(예: 운전 상황, 운동 상황, 결혼 상황, 총격전 등)에 대한 메타 정보를 추출할 수 있다. 또한, 상황 분석기(251b)는 장면에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체에 대응하는 메타 정보(예: 책상, 의자, 산, 강, 바다 등)를 추출할 수 있다.
상기 OCR 인식기(251C)는 장면에 기입된 특수 자막 정보를 추출할 수 있다.
상술한 장면 메타 추출기(251)는 영상 클립의 특정 장면에 포함된 복수의 프레임들을 타임스탬프 단위로 구분하고 상술한 분석기들을 순차적으로 적용할 수 있다. 예를 들면, 장면이 수백 프레임으로 구성된 경우, 장면 메타 추출기(251)는 timestamp 1에 해당하는 프레임에 대해 얼굴 분석기(251a)를 이용하여 얼굴 인식을 통해 해당 장면에 등장한 인물을 인식하고, timestamp 2에 해당하는 프레임에 대해서는, 상황 분석기(251b)를 이용하여 시간 인식을 통해 해당 장면의 시간/계절적 배경을 인식할 수 있다. 장면 메타 추출기(251)는 timestamp 3에 대응하는 프레임 대해서는 상황 분석기(251b)를 이용하여 장소 인식을 통해 해당 장면에 등장한 장소를 인식하고, timestamp 4에 해당하는 프레임에 대해서는 상황 분석기(251b)를 이용하여 상황 인식을 통해 해당 장면에 등장한 상황을 인식하며, timestamp 5에 해당하는 프레임에 대해서는 상황 분석기(251b)를 이용하여 객체 인식을 통해 해당 장면에 등장한 주요 객체를 인식할 수 있다. 상기 장면 메타 추출기(251)는 상술한 동작에서 이용되는 인식 엔진 별로 교차 처리할 수 있다. 예를 들어, 하나의 Scene 이 3분짜리이고 timestamp를 1초 간격으로 처리한다고 가정하면, 장면 메타 추출기(251)는 얼굴 인식, 시간 인식, 장소 인식, 상황 인식 및 객체 인식을 각각 36번 처리 하고, 처리 결과를 제공할 수 있다. 여기서, 영상 클립의 영상 길이 및 timestamp 단위 시간 간격은 조정될 수 있다. 예를 들어, 관리자 요청에 의하여, 또는 영상 클립에 대한 키워드 정책에 따라 타임스탬프 간격을 더욱 좁게 처리하여 상대적으로 많은 키워드를 추출하거나, 타임스탬프 간격을 더 늘려서 일부 키워드만을 추출할 수도 있다. 이 경우, 특정 timestamp 에서는 해당 정보를 놓칠 수 있지만, 반복적으로 처리 하며 각각의 키워드 정보를 추출해 내게 되며, 또한 동일 정보가 여러 번 나오는 경우 선별/정제 해야 되는 후처리 시간을 효율화 할 수 있다.
상술한 장면 메타 추출기(251)에서 처리하는 메타 정보는 6하 원칙의 내용을 포함할 수 있다.
예컨대, 누가(Who)에 대한 부분은 해당 방송 컨텐츠에 어떤 배우/유명인이 등장하고 있는 지에 관한 것으로, 얼굴 인식 기능을 유명인 DB 기반으로 학습/생성하여 적용 시 해결할 수 있다. 얼굴 인식 엔진을 통과 시, 상기 장면 메타 추출기(251)는 기존에 유명인 DB에 등록된 배우/예능인의 경우 자동 인식을 통해 인물에 관한 키워드 (해시태그)를 생성할 수 있다.
언제 (When)에 대한 부분은 해당 방송 컨텐츠가 촬영된 시간이나 계절 정보에 관한 것으로, 시간/계절 정보를 유추할 수 있는 특정 개체를 인식 하여 시간/계절 정보를 추출할 수 있다. 예를 들어, 장면 메타 추출기(251)는 화면에서 벚꽃을 인식하면 # 봄이라고 판단하고, 겨울 패딩이나 눈오는 장면을 인식하면 #겨울 #설경으로 판단하고, 단풍이나 코스모스를 인식하면 #가을로 판단할 수 있다.
어디서 (Where)에 해당하는 부분은 해당 방송 컨텐츠가 촬영된 장소 정보에 관한 것으로, 주요 장소를 나타내는 건축물, 랜드마크 등을 인식 하여 장소 정보를 판단해 낼 수 있다. 예를 들어, 장면 메타 추출기(251)는 교회/성당, 원형 경기장, 공항과 같은 주요 시설물을 인식하거나, 혹은 에펠탑, 청와대, 첨성대 등과 같은 주요 랜드마크를 인식 하여 지명 정보를 제공할 수 있다.
무엇을 (What)에 해당하는 부분은 해당 방송 컨텐츠에서 어떠한 상황이 벌어지고 있는 지에 관련한 것으로, 스포츠/취미 활동 관련 액티비티를 하고 있거나, 생일파티/결혼식/환갑잔치 등의 이벤트를 하고 있는 상황을 포함할 수 있다. 장면 메타 추출기(251)는 스포츠/취미를 특징 짓는 도구 객체를 인식하거나, 이벤트를 특징 짓는 객체를 인식하여 판단 “무엇을”에 대한 메타 정보를 제공할 수 있다. 예를 들어, 장면 메타 추출기(251)는 야구 배트/야구장을 인식하면 #야구, 낚싯대와 미끼를 인식하면 #낚시, 풍선과 생일 케익을 인식하면 #생일파티, 웨딩 드레스와 결혼식장을 인식하면 #결혼식 등의 메타 정보를 제공할 수 있다.
상기 장면 메타 추출기(251)는 OCR 인식기(251C)를 이용하여 좀 더 풍성하고 정확한 키워드를 생성할 수 있다. 예를 들어, 화면에는 미디어 제작자가 삽입한 그래픽 처리된 특수 자막을 인식하여 활용될 수 있다. 이 경우, 장면 메타 추출기(251)는 OCR 인식기(251C)를 이용하여 텍스트 데이터가 아닌 그래픽 데이터로 인식되는 특수 자막을 인식할 수 있다.
다른 예시로서, 장면 메타 추출기(251)는 Scene의 구분 없이, 임의로 Frame을 Skip 하면서 상술한 인식 엔진들(예: 얼굴 인식, 시간 인식, 장소 인식, 상황 인식, 및 객체 인식)을 교차 처리할 수 있다. 하나의 Scene 안에서도 각각의 인식 엔진이 수회 이상 multiple로 영상 처리를 하고 있기 때문에, Scene 간의 구분이 전체 키워드 추출에 크게 영향을 주지 않을 수도 있다. 이에 따라, 임의의 프레임 스킵 과정은 Scene 구분 알고리즘의 성능으로 인해 전체 키워드 추출에 영향을 주게 되는 부분을 상쇄할 수 있다. 장면 메타 추출기(251)는 Scene의 구분 없이, 전체 영상 클립을 임의의 time 간격으로 frame skip을 해가며 각각의 인식 엔진을 통과한 메타 정보를 추출한 후, 이를 기반으로 영상 클립을 대표로 하는 키워드를 추출할 수 있다. 상기 장면 메타 추출기(251)는 장면별 분석에 따라 추출된 키워드와 임의의 스킵 정책에 따라 선택된 프레임 분석을 기반으로 추출된 키워드를 상호 비교하고, 비교 결과에 따라 대표 키워드를 선택할 수 있도록 지원할 수도 있다.
도 5는 본 발명의 실시 예에 따른 장면 인식 방법의 한 예를 나타낸 도면이다.
도 5를 참조하면, 본 발명의 실시 예에 따른 장면 인식 방법과 관련하여, 영상 서비스 장치(200)의 프로세서(250)는 501 단계에서 영상 클립(231)을 획득할 수 있다. 예컨대, 프로세서(250)는 키워드 선정이 필요한 영상 클립(231)을 메모리(230)로부터 읽어올 수 있다.
503 단계에서, 프로세서(250)는 영상 클립(231)을 이미지 변환할 수 있다. 예컨대, 프로세서(250)는 동영상 구조를 가지는 영상 클립(231)을 프레임 단위로 볼 수 있도록 변환할 수 있다.
505 단계에서, 프로세서(250)는 변환된 영상 클립을 장면 번환(Scene) 단위로 분할할 수 있다. 즉, 프로세서(250)는 장면이 전환되는 시점을 인식하고, 해당 시점을 기준으로 프레임들을 장면 단위로 분할할 수 있다. 예를 들어, 프로세서(250)는 장면 변화에 사용에 사용되는 인트라 프레임을 비교하고, 일정 데이터 이상 변경된 경우, 해당 시점을 장면 분할 시점으로 인식할 수 있다.
507 단계에서, 프로세서(250)는 장면별로, 얼굴 인식을 수행할 수 있다. 예컨대, 프로세서(250)는 등장 인물의 얼굴을 인식하고, 인식 결과(예: 등장 인물에 대응하는 배우의 이름)를 추출할 수 있다.
509 단계에서, 프로세서(250)는 해당 장면의 시간 및 계절 인식을 수행할 수 있다. 예를 들어, 프로세서(250)는 장면에 적용된 조도를 통하여 낮 또는 밤을 구분하거나, 눈, 비 등을 기준으로 시간 및 계절을 인식하고, 인식 결과를 추출할 수 있다.
511 단계에서, 프로세서(250)는 장면별 장소/명소 인식을 수행할 수 있다. 예를 들어, 프로세서(250)는 장면에 포함된 구조물이나 배경에 보이는 자연 경관 등을 이용하여 장소 또는 명소 인식을 수행할 수 있다. 또는, 프로세서(250)는 자막이나, 대사 등을 통해서 장면의 장소 또는 명소 인식을 수행할 수도 있다.
513 단계에서, 프로세서(250)는 장면별 액티비티 또는 이벤트를 인식할 수 있다. 예컨대, 프로세서(250)는 등장인물의 행동이나 모습 등을 토대로, 결혼식, 스포츠, 게임 등 다양한 액티비티 또는 이벤트 등을 포함하는 상황 인식을 수행할 수 있다.
515 단계에서, 프로세서(250)는 동일한 장면(Scene) 내 마지막 프레임인지 확인할 수 있다. 프로세서(250)는 마지막 프레임이 아닌 경우, 507 단계 이전으로 분기하여 다른 프레임에 대해서 이하 동작을 재수행할 수 있다.
517 단계에서, 프로세서(250)는 동일한 장면 내 마지막 프레임인 경우, 프로세서(250)는 인식 결과를 모아서, 해당 장면에 대한 키워드로 매핑할 수 있다.
519 단계에서, 프로세서(250)는 해당 영상 내 마지막 프레임인지 확인하고, 마지막 프레임이 아닌 경우, 이전 단계 예컨대, 507 단계 이전으로 분기하여 이하 동작을 재수행할 수 있다. 마지막 프레임인 경우, 영상 클립(231)에 대한 장면 인식을 종료할 수 있다.
한편, 상술한 설명에서, 507 단계 내지 513 단계의 순서는 변동될 수 있다. 또한, 507 단계 내지 513 단계에서 수행되는 장면 인식 과정은 장면에 포함된 각각의 프레임들에 대해서 수행될 수도 있고, 하나의 인식 과정당 하나의 프레임이 할당될 수도 있다. 또는, 복수의 프레임들에 대해 하나의 인식 과정이 수행될 수도 있다. 또는, 한 장면 내에 포함된 복수의 프레임들을 샘플링한 후, 샘플링된 프레임들에 대하여 상술한 507 단계 내지 517 단계의 인식 과정들이 단일 또는 복합적으로 적용될 수도 있다.
도 6은 본 발명의 실시 예에 따른 영상 컨텐츠 검색 지원과 관련한 키워드 맵 생성 방법의 한 예를 나타낸 도면이다.
도 6을 참조하면, 영상 컨텐츠 검색 지원과 관련한 키워드 맵 생성 방법과 관련하여, 601 단계에서, 프로세서(250)는 601 단계에서, 프로세서(250)는 영상 클립(231)을 획득할 수 있다. 예를 들어, 외부 서버 장치(300)로부터 키워드 선정이 필요한 영상 클립(231)을 수신하거나, 메모리(230)에 저장된 영상 클립(231)을 획득할 수 있다.
603 단계에서, 프로세서(250)는 동영상 원본 파일의 벡터 변환을 처리할 수 있다. 605 단계에서, 프로세서(250)는 video feature vector 분석을 수행할 수 있다. 상기 video feature vector 분석 방식은 영상 컨텐츠를 일괄 분류하여 지도 학습으로 접근하는 방식이 될 수 있다.
607 단계에서, 프로세서(250)는 Aggregated meta 분석을 수행할 수 있다. 상기 Aggregated meta 분석 방식은 영상 컨텐츠의 프레임 별로 추출한 Vector를 연결하고 이를 분류하여 접근하는 방식이 될 수 있다. 609 단계에서, 프로세서(250)는 Music 인식을 수행할 수 있다. Music 인식은 영상 클립 전체에 적용된 음악 또는 특정 장면에 적용된 적어도 하나의 음악을 인식할 수 있다. 611 단계에서, 프로세서(250)는 대사 인식을 처리할 수 있다. 대사 인식 과정에서 프로세서(250)는 대사에 포함된 명사 또는 형용사 등을 추출할 수 있다. 상기 프로세서(250)의 영상 클립(231)에 대한 인식은 별도의 순서를 가지지 않고 병렬적으로 수행될 수도 있다. 예컨대, 프로세서(250)는 video feature vector 분석, Aggregated meta 분석, Music 분석, 대사 인식 등을 순서에 관계 없이 또는 상술한 순서 이외의 다른 순서에 따라 수행할 수도 있다.
한편, 602 단계에서, 프로세서(250)는 앞서 도 5에서 설명한 바와 같이 이미지 변환을 처리하고, 604 단계에서, 프로세서(250)는 얼굴 인식을 처리할 수 있다. 606 단계에서, 프로세서(250)는 상황/이벤트 인식을 수행하고, 608 단계에서, 프로세서(250)는 장소/명소 인식을 수행할 수 있다. 610 단계에서, 프로세서(250)는 대사/자막 인식을 수행할 수 있다. 612 단계에서, 프로세서(250)는 해당 영상 내 마지막 프레임인지 확인하고, 마지막 프레임이 아닌 경우 604 단계 이전으로 분기하여 이하 동작을 재수행할 수 있다. 상기 프로세서(250)는 상술한 다양한 인식 과정을 순서에 관계 없이 또는 상술한 순서 이외의 다른 순서에 따라 수행할 수도 있다. 612 단계에서, 현재 인식을 수행하는 프레임이
마지막 프레임인 경우, 613 단계에서, 프로세서(250)는 스코어링 모델(Scoring Model)을 기반으로 추출된 메타 정보들에 대한 또는 키워드 후보 리스트에 포함된 후보 키워드들에 대한 점수를 부여하고, 점수 비교를 통해 대표 키워드를 추출할 수 있다.
본 발명은 동영상 클립에 대한 대표 키워드 정보를 생성함으로써, 대표 키워드 정보 산출을 위한 인건비를 절약할 수 있으며 효율적인 작업을 수행할 수 있다. 또한, 본 발명은 영상 인식 기술을 통해 (동)영상 클립 컨텐츠의 키워드 생성을 거의 실시간 처리할 수 있도록 지원한다. 또한, 본 발명은 특정 영상의 Multi-Label을 영상 인식기를 통해 추출한 후, 각각의 Label (키워드) 정보의 출현 빈도, 인식 정확도 등을 조합하여, 대표 키워드를 추출하거나, 장르 분석 등의 부가 Value 도출에도 활용할 수 있다. 또한, 본 발명은 특정 키워드에 대한 학습 데이터 베이스 수집을 용이하게 할 수 있다. 본 발명은 등장인물, 시간/계절, 장소, 상황 별 키워드 정보를 기반으로 영상 컨텐츠(영상 클립 또는 동영상 클립)에서 학습 데이터 베이스를 추출하여 활용할 수 있다. 예를 들어, 본 발명은 결혼식 장면에 대한 동영상을 수집하여 결혼식 상황을 학습하고자 할 때, 영상 클립에 대한 다양한 태그 정보를 확보하고, 이를 다시 영상 인식 엔진의 학습 DB 확보에 활용할 수 있다.
본 발명에 따른 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 다른 유형의 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 본 발명에 따른 장치의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.
아울러, 본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.
본 명세서에서 설명한 주제의 특정한 실시형태를 설명하였다. 기타의 실시형태들은 이하의 청구항의 범위 내에 속한다. 예컨대, 청구항에서 인용된 동작들은 상이한 순서로 수행되면서도 여전히 바람직한 결과를 성취할 수 있다. 일 예로서, 첨부도면에 도시한 프로세스는 바람직한 결과를 얻기 위하여 반드시 그 특정한 도시된 순서나 순차적인 순서를 요구하지 않는다. 특정한 구현예에서, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다.
본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.
따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.
본 발명은 통신 분야에 적용되는 것으로서, 특히, 영상 컨텐츠 검색 기술과 관련된다.
특히, 본 발명은 다양한 영상 클립에 대한 대표 키워드 선정을 하면서도 다양한 인식 모듈을 이용하여 영상 클립과 관련성이 높은 키워드를 대표 키워드를 선정함으로써, 효율적인 키워드 선정 작업을 제공할 수 있으며, 영상 클립 검색의 정확도를 높일 수 있다.
10: 네트워크 환경
100: 단말
200: 영상 서비스 장치
210: 통신 회로
230: 메모리
250: 프로세서
251: 장면 메타 추출기
253: 영상 통합 메타 추출기
255: 외부 데이터 추출기
257: 분석기
259: 키워드 선정부
251a: 얼굴 분석기
251b: 상황 분석기
251c: OCR 분석기
300: 외부 서버 장치

Claims (8)

  1. 영상 클립을 저장하는 메모리;
    상기 메모리에 기능적으로 연결되는 프로세서를 포함하고,
    상기 프로세서는
    상기 메모리에 저장된 영상 클립을 획득하고,
    상기 영상 클립을 장면 단위로 분할하고,
    상기 영상 클립 및 상기 영상 클립의 분할된 적어도 하나의 장면에 대하여 적어도 하나의 인식 동작을 수행하여 후보 키워드를 각각 추출하고,
    상기 영상 클립 및 상기 장면으로부터 각각 추출된 적어도 하나의 후보 키워드를 토대로 상기 영상 클립에 대한 대표 키워드를 선정하도록 설정된 것을 특징으로 하는 영상 서비스 장치.
  2. 제1항에 있어서,
    상기 적어도 하나의 후보 키워드는
    상기 적어도 하나의 장면에 적용된 그래픽 자막들로부터 추출되는 것을 특징으로 하는 영상 서비스 장치.
  3. 제1항에 있어서,
    상기 적어도 하나의 후보 키워드는
    상기 적어도 하나의 장면에 포함된 프레임별로 추출된 Feature Vector와 상기 영상 클립의 원본 Video Feature Vector (Global Feature)의 복합적 적용에 따라 추출되는 것을 특징으로 하는 영상 서비스 장치.
  4. 제1항에 있어서,
    상기 적어도 하나의 후보 키워드는
    스코어 모델을 통하여 우선 순위가 할당되는 것을 특징으로 하는 영상 서비스 장치.
  5. 제4항에 있어서,
    상기 프로세서는
    최우선순위를 상기 영상 클립에 대한 대표 키워드로 선정하도록 설정된 것을 특징으로 하는 영상 서비스 장치.
  6. 제1항에 있어서,
    상기 프로세서는
    얼굴 인식, 시간 또는 계절 인식, 장소 인식, 대사 인식, 음악 인식, 상황 또는 이벤트 인식 중 적어도 하나의 인식 동작을 수행하도록 설정된 것을 특징으로 하는 영상 서비스 장치.
  7. 영상 서비스 장치가,
    키워드 선정이 필요한 영상 클립을 획득하는 단계;
    상기 영상 클립을 장면 단위로 분할하는 단계;
    상기 영상 클립 및 상기 영상 클립의 분할된 적어도 하나의 장면에 대하여 적어도 하나의 인식 동작을 수행하여 적어도 하나의 후보 키워드를 추출하는 단계;
    상기 영상 클립 및 상기 장면으로부터 각각 추출된 적어도 하나의 후보 키워드를 토대로 상기 영상 클립에 대한 대표 키워드를 선정하는 단계;를 포함하는 것을 특징으로 하는 영상 컨텐츠 검색 지원 방법.
  8. ◈청구항 8은(는) 설정등록료 납부시 포기되었습니다.◈
    제7항에 있어서,
    상기 영상 클립은
    원본 동영상의 일부 적어도 하나의 장면을 편집하여 마련되어 수분 내지 수십분의 재생 시간 길이를 가지는 영상 컨텐츠를 포함하는 것을 특징으로 하는 영상 컨텐츠 검색 지원 방법.
KR1020180099343A 2018-08-24 2018-08-24 영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법 KR102199446B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180099343A KR102199446B1 (ko) 2018-08-24 2018-08-24 영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180099343A KR102199446B1 (ko) 2018-08-24 2018-08-24 영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법

Publications (2)

Publication Number Publication Date
KR20200023013A KR20200023013A (ko) 2020-03-04
KR102199446B1 true KR102199446B1 (ko) 2021-01-06

Family

ID=69783489

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180099343A KR102199446B1 (ko) 2018-08-24 2018-08-24 영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법

Country Status (1)

Country Link
KR (1) KR102199446B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114254660A (zh) * 2020-09-22 2022-03-29 北京三星通信技术研究有限公司 多模态翻译方法、装置、电子设备及计算机可读存储介质
CN112380922B (zh) * 2020-10-23 2024-03-22 岭东核电有限公司 复盘视频帧确定方法、装置、计算机设备和存储介质
KR102564174B1 (ko) * 2021-06-25 2023-08-09 주식회사 딥하이 딥러닝 기반의 비디오 스트림 처리 방법 및 그 시스템
KR20230000633A (ko) * 2021-06-25 2023-01-03 주식회사 딥하이 딥러닝 기반의 중심 오브젝트 기반 비디오 스트림 처리 방법 및 그 시스템
KR102570134B1 (ko) * 2022-11-28 2023-08-28 앞으로아카데미 주식회사 숏폼 클립 생성 방법 및 시스템
KR102583308B1 (ko) * 2023-02-20 2023-09-27 (주)어반유니온 숏폼 컨텐츠를 이용한 패션 분석을 위한 서비스 제공 장치 및 방법
KR102602936B1 (ko) * 2023-07-14 2023-11-16 (주)엔아이지씨 인공 지능을 통해 수집한 데이터를 기반으로 숏폼을 자동으로 생성하는 전자 장치 및 이를 이용한 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110014403A (ko) * 2009-08-05 2011-02-11 주식회사 케이티 동영상 장면 별 키워드 정보 생성 시스템 및 방법
KR101640317B1 (ko) 2014-11-20 2016-07-19 소프트온넷(주) 오디오 및 비디오 데이터를 포함하는 영상의 저장 및 검색 장치와 저장 및 검색 방법
KR101780412B1 (ko) * 2016-01-29 2017-10-10 (주) 다이퀘스트 비디오 콘텐츠의 장면 단위 키워드 추출장치 및 이를 위한 키워드 가중치 산출장치

Also Published As

Publication number Publication date
KR20200023013A (ko) 2020-03-04

Similar Documents

Publication Publication Date Title
KR102199446B1 (ko) 영상 컨텐츠 검색을 지원하는 영상 서비스 장치 및 영상 컨텐츠 검색 지원 방법
US10474717B2 (en) Live video streaming services with machine-learning based highlight replays
CN106162223B (zh) 一种新闻视频切分方法和装置
US8938393B2 (en) Extended videolens media engine for audio recognition
US9594959B2 (en) Videolens media engine
CA2924065C (en) Content based video content segmentation
WO2019228267A1 (zh) 短视频的合成方法、装置、设备及存储介质
WO2012020667A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
CN105224581B (zh) 在播放音乐时呈现图片的方法和装置
US20090079840A1 (en) Method for intelligently creating, consuming, and sharing video content on mobile devices
CN108235141A (zh) 直播视频转碎片化点播的方法、装置、服务器和存储介质
JP2011217209A (ja) 電子機器、コンテンツ推薦方法及びプログラム
Takahashi et al. Video summarization for large sports video archives
JP2012038240A (ja) 情報処理装置、情報処理方法、及び、プログラム
CN109408672B (zh) 一种文章生成方法、装置、服务器及存储介质
WO2014103123A1 (ja) ダイジェストを生成するための装置、方法、及びプログラム
CN111279709A (zh) 提供视频推荐
Berrani et al. Constraint satisfaction programming for video summarization
CN114845149A (zh) 视频片段的剪辑方法、视频推荐方法、装置、设备及介质
KR102036383B1 (ko) 콘텐츠 생성 방법 및 그 장치
Otani et al. Textual description-based video summarization for video blogs
TWI823018B (zh) 建立影片圖譜的方法
Zavesky et al. Searching visual semantic spaces with concept filters
US20150032718A1 (en) Method and system for searches in digital content
WO2018042959A1 (ja) 動画データ解析装置及び動画データ解析方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant