KR101789221B1 - 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램 - Google Patents
동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램 Download PDFInfo
- Publication number
- KR101789221B1 KR101789221B1 KR1020150101106A KR20150101106A KR101789221B1 KR 101789221 B1 KR101789221 B1 KR 101789221B1 KR 1020150101106 A KR1020150101106 A KR 1020150101106A KR 20150101106 A KR20150101106 A KR 20150101106A KR 101789221 B1 KR101789221 B1 KR 101789221B1
- Authority
- KR
- South Korea
- Prior art keywords
- caption
- signal
- moving picture
- time
- display
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4886—Data services, e.g. news ticker for displaying a ticker, e.g. scrolling banner for news, stock exchange, weather data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/242—Synchronization processes, e.g. processing of PCR [Program Clock References]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/262—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
- H04N21/26208—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists the scheduling operation being performed under constraints
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43074—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/278—Subtitling
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
본 발명의 일 실시예는 입력부에 의해, 제1 데이터를 송신하라는 송신 요청 신호를 입력 받는 단계; 제어부에 의해, 상기 송신 요청 신호가 제한 조건에 부합하는지 확인하는 단계; 상기 송신 요청 신호가 상기 제한 조건에 부합하는 경우, 상기 제어부에 의해, 상기 제1 데이터를 저장하는 단계; 상기 제어부에 의해, 상기 제한 조건의 만료 여부를 확인하는 단계; 상기 제한 조건이 만료된 경우, 출력부에 의해, 상기 제1 데이터의 재송신 여부에 대한 입력을 요청하는 입력 요청 신호를 출력하는 단계; 상기 제1 데이터의 재송신에 대한 승낙 신호가 입력된 경우, 통신부에 의해, 상기 저장된 제1 데이터를 송신하는 단계; 및 상기 제1 데이터의 재송신에 대한 거부 신호가 입력된 경우, 상기 제어부에 의해, 상기 저장된 제1 데이터를 삭제하는 단계;를 포함하는, 동영상 제공 방법을 개시한다.
Description
본 발명의 실시예들은 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램에 관한 것이다.
영상 처리 기술 및 전자 통신 기술이 발전함에 따라, 동영상을 제공하고자 하는 사람은 전자 장치를 이용하여 인터넷 등의 통신망을 통한 방송을 진행할 수 있게 되었고, 동영상을 시청하고자 하는 사람 또한 통신망을 통하여 동영상을 시청할 수 있게 되었다.
다만, 대부분의 동영상은 특정한 언어를 통한 대화 또는 텍스트를 포함하고 있고, 해당 언어를 이해할 수 있는 사람만이 해당 동영상을 완전하게 즐길 수 있다. 이미 제작된 동영상의 경우에는 추후 제작한 자막을 동영상에 포함시켜서 함께 재생할 수 있지만, 라이브 방송으로 제공되는 동영상에 대해서는 자막을 제공하는 데에 어려움이 있다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명의 실시예들은 원본 동영상을 일정 시간만큼 지연시켜서 시청자 단말기에게 제공하고, 해당 지연된 시간 동안 자막입력자 단말기로부터 자막을 입력 받아서 해당 자막을 시청자 단말기로 제공할 수 있는 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램을 제공하고자 한다.
본 발명의 실시예들은 시청자 단말기에게 제공한 동영상 상에서 올바른 타이밍에 자막이 표시될 수 있도록, 자막과 함께 해당 자막을 표시할 타이밍에 대한 정보를 시청자 단말기로 제공할 수 있는 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램을 제공하고자 한다.
본 발명의 일 실시예는 동영상을 제공하는 방법에 있어서, 통신부에 의해, 원본 동영상의 정보를 포함하는 원본 동영상 신호를 수신하는 단계; 제어부에 의해, 상기 원본 동영상을 제1 시간만큼 지연시킨 딜레이 동영상의 정보를 포함하는 딜레이 동영상 신호를 생성하는 단계; 상기 통신부에 의해, 상기 원본 동영상 신호를 자막입력자 단말기로 송신하는 단계; 상기 통신부에 의해, 상기 자막입력자 단말기로부터 상기 원본 동영상에 대한 자막의 정보를 포함하는 자막 신호, 및 상기 자막의 표시를 지연시키기 위한 정보를 포함하는 딜레이 신호를 수신하는 단계; 상기 제어부에 의해, 상기 딜레이 신호를 기초로, 상기 딜레이 동영상 상에서 상기 자막이 표시될 시각을 나타내는 표시 시각 신호를 생성하는 단계; 상기 통신부에 의해, 상기 딜레이 동영상 신호를 시청자 단말기로 송신하는 단계; 및 상기 통신부에 의해, 상기 표시 시각 신호 및 상기 자막 신호를 상기 시청자 단말기로 송신하는 단계;를 포함하는, 동영상 제공 방법을 개시한다.
본 발명의 다른 실시예는 통신부에 의해, 원본 동영상의 정보를 포함하는 원본 동영상 신호를 서버로부터 수신하는 단계; 출력부에 의해, 상기 원본 동영상을 출력하는 단계; 입력부에 의해, 상기 원본 동영상에 대한 자막을 입력 받는 단계; 제어부에 의해, 상기 원본 동영상에 대한 자막의 정보를 포함하는 자막 신호를 생성하고, 상기 자막의 표시를 지연시키기 위한 정보를 포함하는 딜레이 신호를 생성하는 단계; 및 상기 통신부에 의해, 상기 자막 신호 및 상기 딜레이 신호를 상기 서버로 송신하는 단계;를 포함하는 동영상 제공 방법을 개시한다.
이러한 일반적이고 구체적인 측면이 시스템, 방법, 컴퓨터 프로그램, 또는 어떠한 시스템, 방법, 컴퓨터 프로그램의 조합을 사용하여 실시될 수 있다.
본 발명의 다른 실시예는 원본 동영상의 정보를 포함하는 원본 동영상 신호를 수신하고, 상기 원본 동영상 신호를 자막입력자 단말기로 송신하고, 상기 자막입력자 단말기로부터 상기 원본 동영상에 대한 자막의 정보를 포함하는 자막 신호, 및 상기 자막의 표시를 지연시키기 위한 정보를 포함하는 딜레이 신호를 수신하는 통신부; 및 상기 원본 동영상을 제1 시간만큼 지연시킨 딜레이 동영상의 정보를 포함하는 딜레이 동영상 신호를 생성하고, 상기 딜레이 신호를 기초로, 상기 딜레이 동영상 상에서 상기 자막이 표시될 시각을 나타내는 표시 시각 신호를 생성하는 제어부;를 포함하고, 상기 통신부는, 상기 딜레이 동영상 신호, 상기 표시 시각 신호, 및 상기 자막 신호를 시청자 단말기로 송신하는, 동영상 제공 장치를 개시한다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
이와 같은 본 발명에 의해서, 원본 동영상을 일정 시간만큼 지연시켜서 시청자 단말기에게 제공하고, 해당 지연된 시간 동안 자막입력자 단말기로부터 자막을 입력 받아서 해당 자막을 시청자 단말기로 제공할 수 있는 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램을 제공할 수 있다.
또한, 시청자 단말기에게 제공한 동영상 상에서 올바른 타이밍에 자막이 표시될 수 있도록, 자막과 함께 해당 자막을 표시할 타이밍에 대한 정보를 시청자 단말기로 제공할 수 있는 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 동영상 제공 시스템의 구성을 개략적으로 도시한 도면이다.
도 2는 도 1의 동영상 제공 장치의 내부 구성의 예시를 개략적으로 도시한 블록도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 자막입력자 단말기의 내부 구성의 예시를 개략적으로 도시한 블록도이다.
도 5 내지 도 21은 본 발명의 일 실시예에 따른 동영상 제공 방법의 예시를 개략적으로 도시한 흐름도이다.
도 2는 도 1의 동영상 제공 장치의 내부 구성의 예시를 개략적으로 도시한 블록도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 자막입력자 단말기의 내부 구성의 예시를 개략적으로 도시한 블록도이다.
도 5 내지 도 21은 본 발명의 일 실시예에 따른 동영상 제공 방법의 예시를 개략적으로 도시한 흐름도이다.
본 발명의 실시예들은 다양한 변환을 가할 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 실시예들의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 내용들을 참조하면 명확해질 것이다. 그러나 본 실시예들은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
이하, 첨부된 도면을 참조하여 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하의 실시예에서 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다.
이하의 실시예에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 실시예에서 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 이하의 실시예는 반드시 도시된 바에 한정되지 않는다.
한편, 본 명세서에서 동영상은, 시청각적 정보를 포함할 수 있다. 즉, 동영상은 동영상에 등장하는 실존 인물, 가상 인물, 주변 사물, 또는 배경 등에 의해서 발생하는 소리(예컨대, 목소리)의 정보를 포함할 수 있다. 이러한 동영상에는 영화, 뉴스, 드라마, 만화 등이 포함될 수 있고, 인터넷 등의 통신망을 통하여 제공되는 다양한 종류의 개인 방송 영상 또한 포함될 수 있다. 본 명세서에서 동영상은 일정 시간에 걸쳐서 표시되는 정지 영상을 포함할 수 있다.
또한, 본 명세서에서 자막은, 동영상에서 표현되는 다양한 시청각적 종류의 정보를 시각적인 형태로 표시한 기호일 수 있다. 예를 들어, 동영상에서 표현되는 다양한 종류의 정보에는 동영상에 등장하는 실존 인물, 가상 인물, 주변 사물, 또는 배경 등에 의해서 발생하는 소리가 포함될 수 있고, 움직임, 형태, 색상, 냄새, 또는 내레이션 등의 정보 또한 포함될 수 있다. 자막은 이러한 정보를 나타내는 문자, 문장 부호, 도형, 그림, 또는 사진 등을 포함하는 시각적 기호일 수 있다. 이에 더하여, 본 명세서에서 자막은 그 명칭에도 불구하고, 동영상에서 표현되는 다양한 시청각적 종류의 정보를 청각적인 형태로 표현한 소리일 수 있다. 예를 들어, 동영상에 출연한 인물 또는 내레이터가 제1 언어를 사용하여 대사를 수행하는 경우, 해당 대사에 대한 내용이 제2 언어로 번역된 음성이 자막일 수 있다. 이 때, 제2 언어로 번역된 음성은 번역을 수행하는 자연인의 음성일 수도 있고, 음성 생성 프로그램에 의하여 생성된 음성일 수도 있다.
도 1은 본 발명의 일 실시예에 따른 동영상 제공 시스템의 구성을 개략적으로 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 동영상 제공 시스템(10)은 동영상 제공 장치(100)를 포함할 수 있다. 또한, 동영상 제공 시스템(10)은 동영상공급자 단말기(200), 자막입력자 단말기(300), 시청자 단말기(400), 및 통신망(500)을 더 포함할 수 있다.
본 발명의 일 실시예에 따른 동영상 제공 시스템(10)은, 동영상공급자 단말기(200)로부터 공급되는 동영상을 시청자 단말기(400)로 제공할 수 있다. 또한, 자막입력자 단말기(300)로부터 생성된 자막을 시청자 단말기(400)로 제공할 수 있다.
동영상 제공 장치(100)는 이러한 동영상 제공 시스템(10)에 의한 동영상 제공 서비스를 수행하기 위한 장치일 수 있다. 즉, 동영상 제공 장치(100)는 동영상공급자 단말기(200)로부터 공급되는 동영상의 정보를 포함하는 동영상 신호를 수신할 수 있다. 또한, 동영상 제공 장치(100)는 해당 동영상 신호를 자막입력자 단말기(300)로 제공하여, 자막입력자 단말기(300)의 사용자가 동영상에 대한 자막을 입력할 기회를 제공할 수 있다. 또한, 동영상 제공 장치(100)는 자막입력자 단말기(300)로부터 자막의 정보를 포함하는 자막 신호를 수신할 수 있다. 동영상 제공 장치(100)는 동영상 및 해당 동영상에 대한 자막이 시청자 단말기(400) 상에서 재생될 수 있게 하는 다양한 신호를 시청자 단말기(400)로 제공할 수 있다. 이러한 동영상 제공 장치(100)는 동영상 제공 서비스를 수행하기 위한 데이터(예컨대, 동영상 및 자막)가 저장되는 서버일 수 있다. 이 때, 동영상 제공 장치(100)는 접속량 혹은 데이터 양에 따라 복수의 서버들로 구성될 수 있다.
이러한 동영상 제공 장치(100)는 동영상 제공 서비스를 제공하는 외에도 일반적인 검색 서비스 및 기타 사용자의 편의를 증진시키는 다양한 서비스를 제공하는 서버일 수도 있다. 즉, 동영상 제공 장치(100)는 동영상 제공 서비스 외에도 검색, 이메일, 블로그, 소셜 네트워크 서비스(social network service), 뉴스, 쇼핑 정보 제공과 같은 다양한 서비스들을 제공할 수 있다.
또는, 동영상 제공 장치(100)는 검색, 이메일, 뉴스, 쇼핑과 같은 포털(portal) 서비스를 제공하는 서버에 연결되어, 포털(portal) 서비스에 정보 제공을 요청하는 단말기로 포털(portal) 서비스가 제공하는 웹 페이지를 제공하는 서버일 수 있다. 여기서 동영상 제공 장치(100)와 포털 서비스 제공 서버는 물리적으로 분리된 별도의 서버일 수도 있고, 개념적으로만 분리된 동일한 서버일 수도 있다.
이러한 동영상 제공 장치(100)는 통신부(110) 및 제어부(120)를 포함할 수 있다.
통신부(110)는 동영상공급자 단말기(200)가 공급하기 희망하는 동영상과 관련된 신호를 수신할 수 있다. 또한, 통신부(110)는 자막입력자 단말기(300)로 동영상과 관련된 신호를 제공할 수 있고, 자막입력자 단말기(300)로부터 해당 동영상에 대한 자막 신호를 수신할 수 있다. 또한, 통신부(110)는 시청자 단말기(400)로 동영상과 관련된 신호 및 자막 신호를 제공할 수 있다.
이러한 통신부(110)는 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등일 수 있으나, 이에 한정되는 것은 아니다.
제어부(120)는 통상적으로 동영상 제공 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(120)는 통신부(110)의 신호 송수신 동작을 제어하여 통신부(110)의 신호 송수신을 허가하거나 금지시킬 수 있다.
이러한 제어부(120)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
한편, 도 2를 참조하면, 동영상 제공 장치(100)는 통신부(110) 및 제어부(120) 외에 메모리(130), 프로그램 저장부(140), 및 데이터베이스(150)를 더 포함할 수 있다.
메모리(130)는 제어부(120)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 여기서, 메모리(130)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
프로그램 저장부(140)는 동영상 제공 서비스를 수행하기 위해 필수적이거나 보조적인 다양한 작업들을 수행하기 위한 소프트웨어들을 탑재하는 구성 요소일 수 있다.
데이터베이스(150)는 동영상공급자 단말기(200), 자막입력자 단말기(300), 시청자 단말기(400), 또는 기타 전자 장치들로부터 수신한 데이터를 저장할 수 있다. 통신부(110)는 동영상공급자 단말기(200), 자막입력자 단말기(300), 또는 시청자 단말기(400)로부터 특정 데이터의 정보를 포함하는 신호를 수신할 수 있고, 데이터베이스(150)는 해당 데이터를 저장할 수 있다. 또한, 통신부(110)는 동영상공급자 단말기(200), 자막입력자 단말기(300), 또는 시청자 단말기(400)로부터 특정 데이터를 제공해달라는 요청 신호를 수신할 수 있고, 제어부(120)는 데이터베이스(150)에 저장된 데이터 중에서 해당 요청 신호에 대응하는 데이터를 선정할 수 있다. 통신부(110)는 요청 신호를 송신한 전자 장치에게 선정된 데이터를 제공할 수 있다.
다시 도 1을 참조하면, 동영상공급자 단말기(200)는 동영상 제공 시스템(10) 내에서 동영상을 공급하는 장치일 수 있다. 이 때, 동영상공급자 단말기(200)가 공급하는 동영상은 동영상공급자 단말기(200)에서 직접 제작된 동영상일 수도 있고, 외부 소스로부터 동영상공급자 단말기(200)가 수신한 동영상일 수도 있다. 동영상공급자 단말기(200)가 공급한 동영상의 정보를 포함하는 동영상 신호는 통신망(500)을 통하여 동영상 제공 장치(100)로 전달될 수 있다.
자막입력자 단말기(300)는 동영상공급자 단말기(200)에 의해 공급된 동영상에 대한 자막을 생성할 수 있다. 이 때, 자막입력자 단말기(300)에서 생성된 자막은, 자막입력자 단말기(300)의 사용자에 의해 입력된 자막일 수 있다. 또는, 자막입력자 단말기(300)에서 생성된 자막은, 자막입력자 단말기(300) 내부 또는 외부의 자동 번역 컴퓨터 프로그램 또는 음성 인식 컴퓨터 프로그램에 의해서 자동으로 생성된 자막일 수도 있다. 하나의 동영상 제공 시스템(10) 내에 포함되는 자막입력자 단말기(300)는 복수일 수 있다. 즉, 하나의 동영상 제공 시스템(10)에는 제1 자막입력자 단말기(300a) 및 제2 자막입력자 단말기(300b)가 포함될 수 있고, 자막입력자 단말기(300)들 각각이 하나의 동영상에 대한 자막을 각각 생성할 수 있다.
시청자 단말기(400)는 동영상공급자 단말기(200)에 의해 공급된 동영상 및 자막입력자 단말기(300)에서 생성된 자막이 표시되는 장치일 수 있다. 즉, 시청자 단말기(400)는 동영상의 정보를 포함하는 동영상 신호 및 자막의 정보를 포함하는 자막 신호를 수신할 수 있고, 해당 신호들을 이용하여 시청자 단말기(400)의 사용자에게 동영상 및 자막을 제공할 수 있다. 하나의 동영상 제공 시스템(10) 내에 포함되는 시청자 단말기(400)는 복수일 수 있다. 즉, 하나의 동영상 제공 시스템(10)에는 제1 시청자 단말기(400a) 및 제2 시청자 단말기(400b)가 포함될 수 있고, 시청자 단말기(400)들 각각은 서로 같거나 다른 동영상을 재생할 수 있으며, 동일한 동영상에 대해서 서로 같거나 다른 자막을 표시할 수 있다.
이 때, 시청자 단말기(400)에서 표시되는 자막은 시각적 기호로 작성된 문자일 수 있으나, 상기 언급된 내용과 같이, 청각적인 형태로 표현된 소리일 수도 있다. 즉, 자막입력자 단말기(300)에서 음성 정보를 포함하는 자막 신호가 생성된 경우, 시청자 단말기(400)는 동영상 제공 장치(100)로부터 해당 신호를 수신하여, 해당 음성이 시청자 단말기(400)의 음향부를 통하여 출력되도록 할 수 있다. 이 때 청각적인 형태로 표현된 소리는 자막입력자 단말기(300)의 사용자가 더빙한 음성일 수 있다.
동영상공급자 단말기(200), 자막입력자 단말기(300), 및 시청자 단말기(400)는 유무선 통신 환경에서 타 장치와 데이터를 송수신할 수 있는 전자 장치는 제한 없이 차용될 수 있다. 구체적으로, 동영상공급자 단말기(200), 자막입력자 단말기(300), 및 시청자 단말기(400) 각각은 데스크 탑(desk top), 노트북(notebook) PC, 태블릿(tablet) PC, 스마트폰(smartphone), 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 웨어러블 장치 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 본 발명이 이에 한정되는 것은 아니다. 또한, 동영상공급자 단말기(200), 자막입력자 단말기(300), 및 시청자 단말기(400) 각각은 전자 칠판, 터치 테이블 등과 같이 터치 입력을 수신할 수 있는 다양한 장치를 포함할 수 있고, 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 악세서리일 수 있으나, 본 발명이 이에 한정되는 것은 아니다.
통신망(500)은 동영상 제공 장치(100)를 동영상공급자 단말기(200), 자막입력자 단말기(300), 및 시청자 단말기(400) 각각과 전자적으로 연결하는 역할을 수행할 수 있다. 즉, 통신망(500)은 유무선 통신 환경에서 타 장치와 데이터를 송수신할 수 있는 전자 장치들 간의 연결 통로를 의미할 수 있다. 통신망(500)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 자막입력자 단말기의 내부 구성의 예시를 개략적으로 도시한 블록도이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 자막입력자 단말기(300)는 통신부(310), 입력부(320), 출력부(330), 및 제어부(340)를 포함할 수 있다.
통신부(310)는 동영상과 관련된 신호를 동영상 제공 장치(100)로부터 수신할 수 있다. 또한, 통신부(310)는 자막의 정보를 포함하는 자막 신호를 동영상 제공 장치(100)로 제공할 수 있다.
이러한 통신부(310)는 블루투스 통신부, BLE 통신부, 근거리 무선 통신부, WLAN 통신부, 지그비 통신부, 적외선 통신부, WFD 통신부, UWB 통신부, Ant+ 통신부 등일 수 있으나, 이에 한정되는 것은 아니다.
입력부(320)는 자막입력자 단말기(300)의 사용자로부터 다양한 요청을 입력 받을 수 있다. 예를 들어, 입력부(320)는 자막입력자 단말기(300)의 사용자로부터 동영상을 수신하라는 요청, 수신된 동영상을 재생하라는 요청, 자막 신호를 송신하라는 요청을 입력 받을 수 있다. 또한, 입력부(320)는 자막입력자 단말기(300)의 사용자가 입력하는 자막 정보를 입력 받을 수 있다. 입력부(320)는 사용자의 음성 입력, 사용자의 문자 입력, 사용자가 버튼을 누르는 입력, 또는 사용자의 터치 입력을 수신할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
출력부(330)는 자막입력자 단말기(300)의 사용자에게 정보를 전달하기 위한 신호를 다양한 형태로 출력할 수 있다. 예를 들어, 출력부(330)는 수신된 동영상의 영상 정보 및 소리에 대한 정보를 시청각적으로 출력할 수 있다.
한편, 도 4를 참조하면, 출력부(330)는 표시부(331) 및 음향부(332)를 포함할 수 있다. 또한, 자막입력자 단말기(300)는 통신부(310), 입력부(320), 출력부(330), 및 제어부(340) 외에 메모리(350) 및 프로그램 저장부(360)를 더 포함할 수 있다.
표시부(331)는 동영상 신호에 포함된 정보 중 시각적으로 표시되도록 의도된 정보를 표시할 수 있다. 예를 들어, 표시부(331)는 표시부(331)의 적어도 일부의 영역에 동영상 신호에 포함된 영상 정보를 출력할 수 있다.
표시부(331)는 액정 표시(liquid crystal display), 박막 트랜지스터 액정 표시(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 표시(flexible display), 3차원 표시(3D display), 및 전기영동 표시(electrophoretic display) 중 적어도 하나를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 또한, 자막입력자 단말기(300)의 구현 형태에 따라, 자막입력자 단말기(300)는 표시부(331)를 2개 이상 포함할 수도 있다.
음향부(332)는 동영상 신호에 포함된 정보 중 청각적인 형태로 전달되도록 의도된 정보를 출력할 수 있다. 예를 들어, 음향부(332)는 동영상 신호에 포함된 소리에 대한 정보를 출력할 수 있다. 음향부(332)는 알림의 종류에 따라서 서로 다른 길이, 주파수, 강도, 높낮이, 또는 맵시를 가진 소리를 출력할 수 있다.
음향부(332)는 튜너, 이퀄라이저, 헤드폰, 이어폰, 및 다양한 형태의 스피커 중 적어도 하나를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 즉, 음향부(332)는 전기적 또는 기계적 방법을 통하여 소리를 발생시킬 수 있는 다양한 종류의 장치일 수 있다.
메모리(350)는 제어부(340)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 여기서, 메모리(350)는 자기 저장 매체 또는 플래시 저장 매체를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 프로그램 저장부(360)는 동영상 제공 서비스를 수행하기 위해 필수적이거나 보조적인 다양한 작업들을 수행하기 위한 소프트웨어들을 탑재하는 구성 요소일 수 있다.
도 5 내지 도 21은 본 발명의 일 실시예에 따른 동영상 제공 방법의 예시를 개략적으로 도시한 흐름도이다. 이하에서 도 5 내지 도 19를 참조하여 전술한 바와 같은 동영상 제공 장치(100)를 이용한 동영상 제공 방법을 설명하고, 이어서 도 20 및 도 21을 참조하여 전술한 바와 같은 자막입력자 단말기(300)를 이용한 동영상의 자막 제공 방법을 설명한다.
먼저 도 5을 참조하면, 동영상 제공 장치(100)는 원본 동영상 신호를 수신하는 단계(S100 단계)를 수행할 수 있다. 이 때, 원본 동영상 신호는 원본 동영상에 대한 정보를 포함할 수 있다. 즉, 원본 동영상 신호는 원본 동영상을 재생하는데 필요한 다양한 정보를 포함하는 신호일 수 있다. 다양한 정보는, 예를 들어, 동영상의 전체 프레임들 중 적어도 일부의 프레임에 대한 영상 정보, 동영상 재생 도중에 출력되는 소리에 대한 음향 정보, 동영상 코덱에 대한 정보 등을 포함할 수 있다. 동영상 제공 장치(100)는 이러한 원본 동영상 신호를 동영상공급자 단말기(200)로부터 수신할 수 있다. 이러한 원본 동영상 신호의 수신은 동영상 제공 장치(100)의 통신부(110)에 의해 수행될 수 있다.
이 후, 동영상 제공 장치(100)는 딜레이 동영상 신호를 생성하는 단계(S200 단계)를 수행할 수 있다. 딜레이 동영상 신호는 딜레이 동영상에 대한 정보를 포함할 수 있다. 이 때, 딜레이 동영상은 원본 동영상을 제1 시간만큼 지연시킨 동영상일 수 있다. 딜레이 동영상 신호는 원본 동영상 신호와 별도로 새롭게 생성된 신호일 수도 있고, 단순히 원본 동영상 신호를 일시적으로 저장하였다가, 제1 시간이 경과한 이후에 제공하는 신호일 수도 있다. 즉, 동영상 제공 장치(100)가 딜레이 동영상 신호를 생성한다는 말의 의미는, 원본 동영상 신호로부터 재생 시간이 제1 시간만큼 지연된 새로운 동영상을 생성하여 해당 새로운 동영상의 정보를 포함하는 신호를 생성하는 것일 수도 있고, 원본 동영상 신호를 단순히 제1 시간 동안 저장하여 지연시키는 동작에서의 딜레이 동작을 의미할 수도 있다.
여기서 제1 시간은 동영상 제공 장치(100)의 관리자 또는 동영상공급자 단말기(200)의 사용자 등이 임의로 설정한 시간일 수 있다. 이러한 제1 시간은 동영상 제공 장치(100)가 시청자 단말기(400)로 동영상과 자막을 함께 제공하기 위한 여유 시간일 수 있다. 구체적으로, 제1 시간은 동영상 제공 장치(100)가 원본 동영상 신호를 자막입력자 단말기(300)로 송신하는 과정에 소요되는 시간, 자막입력자 단말기(300)가 자막을 생성하는 과정에 소요되는 시간, 동영상 제공 장치(100)가 자막 신호를 자막입력자 단말기(300)로부터 수신 받는 과정에 소요되는 시간 등을 위한 여유 시간일 수 있다. 이러한 딜레이 동영상 신호의 생성은 동영상 제공 장치(100)의 제어부(120)에 의해 수행될 수 있다.
또한, 동영상 제공 장치(100)는 원본 동영상 신호를 자막입력자 단말기(300)로 송신하는 단계(S300 단계)를 수행할 수 있다. 이 때, 동영상 제공 장치(100)는 동영상공급자 단말기(200)로부터 수신한 원본 동영상 신호를 그대로 송신할 수도 있고, 제1 시간보다 짧은 시간을 지연시켜서 송신할 수도 있다. 또는, 동영상 제공 장치(100)는 동영상공급자 단말기(200)로부터 수신한 원본 동영상 신호에서 원본 동영상을 추출하여 추출한 정보를 포함하는 신호를 새로이 생성하여 송신할 수도 있다. 즉, 동영상공급자 단말기(200)로부터 수신한 원본 동영상 신호에 의한 동영상의 해상도, 초당 프레임 수, 코덱 등은, 자막입력자 단말기(300)로 송신하는 원본 동영상 신호에 의한 동영상의 해상도, 초당 프레임 수, 코덱 등과 서로 상이할 수도 있고 동일할 수도 있다. 이러한 원본 동영상 신호의 송신은 동영상 제공 장치(100)의 통신부(110)에 의해 수행될 수 있다.
이 후, 동영상 제공 장치(100)는 자막 신호 및 딜레이 신호를 자막입력자 단말기(300)로부터 수신하는 단계(S400 단계)를 수행할 수 있다. 자막 신호는 자막입력자 단말기(300)에서 생성한 자막의 정보를 포함하는 신호일 수 있고, 해당 자막은 원본 동영상의 내용과 관련이 있는 자막일 수 있다. 딜레이 신호는 자막의 표시를 지연시키기 위한 정보를 포함하는 신호일 수 있다. 구체적으로, 자막입력자 단말기(300)의 사용자는 원본 동영상을 직접 시청하면서 해당 동영상의 일부 내용에 대한 자막을 직접 작성할 수 있다. 이 때, 자막입력자 단말기(300)의 사용자가 동영상의 일부 내용을 시청한 후, 해당 내용을 자막으로 만들어내기까지 시간이 소요될 수 있다. 예를 들어, 사용자가 '안녕하세요'라는 한국말을 듣고 이로부터 'hello'라는 영어로 자막을 작성하는 경우, '안녕하세요'를 청취하는 시간, '안녕하세요'를 영어로 어떻게 번역할지 생각하는 시간, 및 생각한 내용인 'hello'를 타이핑하는 시간이나 음성으로 말하는 시간 등이 소요될 수 있다. 그 결과, 동영상 제공 장치(100)가 자막 신호를 수신한 시점을 기준으로 하여 동영상에 자막을 표시하는 경우, 영상과 자막의 싱크로가 맞지 않는 문제가 발생할 수 있다. 딜레이 신호는 자막입력자 단말기(300)의 사용자에 의해 발생하는 지연 시간들에 대한 정보를 포함할 수 있다. 이러한 자막 신호 및 딜레이 신호의 수신은 동영상 제공 장치(100)의 통신부(110)에 의해 수행될 수 있다. 딜레이 신호가 포함하는 정보에 대한 구체적인 예시는 도 6 및 도 7를 통하여 설명하기로 한다.
이 후, 동영상 제공 장치(100)는 표시 시각 신호를 생성하는 단계(S500 단계)를 수행할 수 있다. 동영상 제공 장치(100)는 딜레이 신호를 기초로 하여 표시 시각 신호를 생성할 수 있고, 이러한 표시 시각 신호는 딜레이 동영상 상에서 자막이 표시될 시각을 나타내는 신호일 수 있다. 구체적으로, 상기한 바와 같이 딜레이 신호는 자막입력자 단말기(300)의 사용자에 의해 발생하는 지연 시간들에 대한 정보를 포함하는 신호일 수 있고, 동영상 제공 장치(100)는 해당 정보를 이용하여 실제로 자막이 표시될 시각을 결정할 수 있다. 이러한 표시 시각 신호의 생성은 동영상 제공 장치(100)의 제어부(120)에 의해 수행될 수 있다. 표시 시각 신호를 생성하는 구체적인 예시는 도 6 내지 도 8을 통하여 설명하기로 한다.
한편, 동영상 제공 장치(100)는 딜레이 동영상 신호를 시청자 단말기(400)로 송신하는 단계(S600 단계)를 수행할 수 있다. 이러한 딜레이 동영상 신호의 송신은 동영상 제공 장치(100)의 통신부(110)에 의해 수행될 수 있다.
또한, 동영상 제공 장치(100)는 자막 신호 및 표시 시각 신호를 시청자 단말기(400)로 송신하는 단계(S700 단계)를 수행할 수 있다. 이러한 자막 신호 및 표시 시각 신호의 송신은 동영상 제공 장치(100)의 통신부(110)에 의해 수행될 수 있다.
상기한 S600 단계 및 S700 단계에 의하여, 동영상 제공 장치(100)는 시청자 단말기(400)가 동영상을 재생하면서, 해당 동영상에 대응하는 자막을 표시할 수 있도록 할 수 있다. 이 때, 동영상 제공 장치(100)는 해당 동영상에서 해당 자막이 언제 표시되어야 하는지에 대한 표시 시각 신호를 함께 제공함으로써, 시청자 단말기(400)가 동영상 제공 장치(100)에 의해 의도된 타이밍에 자막을 표시할 수 있도록 할 수 있다.
도 5에서는 S300 단계가 S200 단계 이후에 수행되는 것으로 도시되어 있으나 본 발명은 이에 한정되지 않고, S300 단계가 S200 단계의 이전에 수행될 수도 있고, S200 단계와 동시에 수행될 수도 있다. 또한, S600 단계 및 S700 단계는 그 순서를 바꿔서 수행될 수도 있고, 동시에 수행될 수도 있다.
선택적으로, 도 6에 도시된 실시예에 따르면, 동영상 제공 방법의 S500 단계는 제1 시각을 계산하고 표시 시각 신호를 생성하는 단계(S510 단계)를 포함할 수 있다. 구체적으로, 자막입력자 단말기(300)로부터 수신한 딜레이 신호가 제2 시간의 정보를 포함하는 신호일 수 있다. 제2 시간은 자막입력자 단말기(300)의 사용자가 직접 지정한 시간으로, 해당 사용자 스스로가 시청한 내용을 자막으로 생성하는 과정에 소요된 지연 시간을 나타낸 것일 수 있다. 이 경우, 동영상 제공 장치(100)는 자막입력자 단말기(300)가 자막 신호를 송신한 시각 또는 자막입력자 단말기(300)가 송신한 자막 신호를 동영상 제공 장치(100)가 수신한 시각에서부터, 상기한 제1 시간에서 상기한 제2 시간을 뺀 길이의 시간만큼 지연된 제1 시각을 계산할 수 있다.
이하에서, 논리적인 동작의 순서대로 제1 시각의 계산 과정을 설명한다. 먼저, 동영상 제공 장치(100)는 자막 신호가 완성된 시각에서 제1 시간을 지연시킬 수 있다. 이러한 동작의 의미는, 동영상 제공 장치(100)가 시청자 단말기(400)로 제공하는 동영상이 제1 시간만큼 지연된 것이기 때문에, 자막입력자 단말기(300) 및 시청자 단말기(400) 간의 동영상의 시간 차이를 보정하기 위한 것일 수 있다. 이 후, 동영상 제공 장치(100)는 제2 시간만큼 앞당겨진 시간을 계산할 수 있다. 이러한 동작의 의미는, 자막입력자 단말기(300)의 사용자가 자막을 생성하는 과정에 소요된 지연 시간에 의한 시간 차이를 보정하기 위한 것일 수 있다.
상기한 S510 단계에 의하여, 동영상 제공 장치(100)는 딜레이 동영상과 자막의 싱크로를 맞출 수 있는 자막 표시 시각인 제1 시각을 계산할 수 있고, 해당 시각을 나타내는 표시 시각 신호를 생성할 수 있다.
선택적으로, 도 7에 도시된 실시예에 따르면, 동영상 제공 방법의 S400 단계는 입력 시작 시각 신호를 수신하는 단계(S410 단계)를 포함할 수 있고, S500 단계는 제2 시각을 계산하고 표시 시각 신호를 생성하는 단계(S520 단계)를 포함할 수 있다. 구체적으로, 자막입력자 단말기(300)로부터 수신한 딜레이 신호가 제2 시간의 정보를 포함하는 신호일 수 있다. 또한, 자막입력자 단말기(300)의 사용자가 자막을 입력하기 시작하는 순간, 자막입력자 단말기(300)는 자막을 입력하기 시작했다는 정보를 포함하는 입력 시작 시각 신호를 동영상 제공 장치(100)로 송신할 수 있다. 이 때의 제2 시간은 자막입력자 단말기(300)의 사용자가 직접 지정한 시간으로, 해당 사용자 스스로가 동영상의 특정 부분의 시청을 시작한 순간에서부터 자막의 입력을 시작하기까지 소요된 지연 시간을 표시할 것일 수 있다. 시청한 내용을 자막으로 생성하는 과정에 소요된 지연 시간을 나타낸 것일 수 있다. 이 경우, 동영상 제공 장치(100)는 자막입력자 단말기(300)가 자막 신호를 송신한 시각 또는 자막입력자 단말기(300)가 송신한 자막 신호를 동영상 제공 장치(100)가 수신한 시각에서부터, 상기한 제1 시간에서 상기한 제2 시간을 뺀 길이의 시간만큼 지연된 제2 시각을 계산할 수 있다.
이하에서, 논리적인 동작의 순서대로 제2 시각의 계산 과정을 설명한다. 먼저, 동영상 제공 장치(100)는 자막 신호가 완성된 시각에서 제1 시간을 지연시킬 수 있다. 이러한 동작의 의미는, 동영상 제공 장치(100)가 시청자 단말기(400)로 제공하는 동영상이 제1 시간만큼 지연된 것이기 때문에, 자막입력자 단말기(300) 및 시청자 단말기(400) 간의 동영상의 시간 차이를 보정하기 위한 것일 수 있다. 이 후, 동영상 제공 장치(100)는 제2 시간만큼 앞당겨진 시간을 계산할 수 있다. 이러한 동작의 의미는, 자막입력자 단말기(300)의 사용자가 시청을 시작한 순간에서부터 자막의 입력을 시작하기까지 소요된 지연 시간에 의한 시간 차이를 보정하기 위한 것일 수 있다.
상기한 S410 단계 및 S520 단계에 의하여, 동영상 제공 장치(100)는 딜레이 동영상과 자막의 싱크로를 맞출 수 있는 자막 표시 시각인 제2 시각을 계산할 수 있고, 해당 시각을 나타내는 표시 시각 신호를 생성할 수 있다.
선택적으로, 도 8에 도시된 실시예에 따르면, 동영상 제공 방법의 S500 단계는 자막의 특징을 기초로 자막 표시 시각을 결정하여 표시 시각 신호를 생성하는 단계(S530 단계)를 포함할 수 있다. 이 때, 자막의 특징에는 자막의 길이, 자막의 언어, 자막에 포함된 알파벳들 또는 단어들의 종류가 포함될 수 있다. 즉, 동영상 제공 장치(100)는 자막의 길이와 같은 자막의 특징을 바탕으로 하여, 자막입력자 단말기(300)의 사용자가 해당 자막을 입력하는데 소요되었을 예상 시간을 예상할 수 있다. 이 후, 동영상 제공 장치(100)는 자막입력자 단말기(300)가 자막 신호를 송신한 시각 또는 자막입력자 단말기(300)가 송신한 자막 신호를 동영상 제공 장치(100)가 수신한 시각에서부터, 또는 자막입력자 단말기(300) 상에 자막이 입력되기 시작한 시각에서부터, 상기한 제1 시간에서 상기한 예상 시간을 뺀 길이의 시간만큼 지연된 시각을 계산할 수 있다.
상기한 S530 단계에 의하여, 동영상 제공 장치(100)는 딜레이 동영상과 자막의 싱크로를 맞출 수 있는 자막 표시 시각을 계산할 수 있고, 해당 시각을 나타내는 표시 시각 신호를 생성할 수 있다.
선택적으로, 도 9에 도시된 실시예에 따르면, 동영상 제공 방법의 S700 단계는 유지 시간 신호를 시청자 단말기(400)로 송신하는 단계(S710 단계)를 포함할 수 있다. 구체적으로, 유지 시간 신호는 자막의 표시를 유지할 표시 유지 시간의 정보를 포함하는 신호일 수 있다. 즉, 동영상 제공 장치(100)는 시청자 단말기(400)로 제공하는 자막이 시청자 단말기(400) 상에서 어느 정도 길이의 기간 동안 표시되어야 하는지 나타내는 신호를 시청자 단말기(400)로 제공할 수 있다.
이 때 선택적으로, 유지 시간 신호는 동영상 제공 장치(100)가 자막입력자 단말기(300)로부터 수신한 신호일 수 있다. 즉, 도 10에 도시된 실시예에 따르면, 동영상 제공 방법의 S400 단계는 유지 시간 신호를 수신하는 단계(S420 단계)를 포함할 수 있다. 즉, 자막입력자 단말기(300)의 사용자는 자신이 입력한 자막이 어느 정도의 시간 동안 표시되어야 하는지 스스로 결정할 수 있다. 예를 들어, 자막이 'hello'와 같이 비교적 짧은 길이인 경우 자막입력자 단말기(300)의 사용자는 자막 유지 시간을 비교적 짧은 시간으로 결정할 수 있고, 자막이 상대적으로 긴 문장인 경우 자막입력자 단말기(300)의 사용자는 자막 유지 시간을 비교적 긴 시간으로 결정할 수 있다. 동영상 제공 장치(100)는 해당 자막 유지 시간의 정보를 포함하는 유지 시간 신호를 수신할 수 있고, 해당 신호를 자막 신호와 함께 시청자 단말기(400)로 송신할 수 있다.
또한 선택적으로, 유지 시간 신호는 동영상 제공 장치(100)에서 직접 생성한 신호일 수 있다. 즉, 도 11에 도시된 실시예에 따르면, S700 단계 이전, 동영상 제공 방법은 자막의 특징을 기초로 유지 시간 신호를 생성하는 단계(S690 단계)를 더 포함할 수 있다. 이 때, 자막의 특징에는 자막의 길이, 자막의 언어, 자막에 포함된 알파벳들 또는 단어들의 종류가 포함될 수 있다. 즉, 동영상 제공 장치(100)는 자막의 길이와 같은 자막의 특징을 바탕으로 하여 시청자 단말기(400)의 사용자가 동영상 시청 시 해당 자막을 읽는데 소요될 시간을 예측할 수 있다. 동영상 제공 장치(100)는 해당 예측된 시간을 바탕으로 하여 자막 유지 시간을 결정할 수 있고, 해당 자막 유지 시간의 정보를 포함하는 유지 시간 신호를 생성하여 자막 신호와 함께 시청자 단말기(400)로 송신할 수 있다. 이러한 유지 시간 신호의 생성은 동영상 제공 장치(100)의 제어부(120)에 의해 수행될 수 있다.
상기한 S710 단계에 의하여, 동영상 제공 장치(100)는 각각의 자막을 얼마나 긴 시간 동안 동영상에 표시하는 것이 좋은지에 대한 정보를 시청자 단말기(400)로 제공할 수 있다.
한편, 시청자 단말기(400)는 각각의 자막을 유지 시간 신호에 따른 자막 유지 시간 동안 디스플레이부에 표시할 수 있다. 이 때, 만약 제1 자막에 대한 자막 유지 시간이 경과하기 전에 제2 자막을 표시하여야 하는 경우, 시청자 단말기(400)는 제1 자막을 조기에 삭제하고 제2 자막을 표시할 수도 있고, 제1 자막의 위치를 이동시킨 후 제2 자막을 표시할 수도 있고, 제2 자막을 제1 자막과 겹치지 않는 위치에 표시할 수도 있다.
선택적으로, 도 12에 도시된 실시예에 따르면, 동영상 제공 방법의 S700 단계는 표시 위치 신호를 시청자 단말기(400)로 송신하는 단계(S720 단계)를 포함할 수 있다. 구체적으로, 표시 위치 신호는 시청자 단말기(400)의 디스플레이부 상에서 또는 동영상 상에서 자막이 표시될 위치에 대한 정보를 포함하는 신호일 수 있다. 예를 들어, 표시 위치 신호는 시청자 단말기(400)의 디스플레이부의 하단부에 자막이 표시되도록 위치를 지정하는 신호일 수도 있고, 동영상의 특정한 위치에 말풍선 형태로 자막이 표시되도록 위치를 지정하는 신호일 수도 있다. 즉, 동영상 제공 장치(100)는 시청자 단말기(400)로 제공하는 자막이 시청자 단말기(400) 상에서 어떤 위치에 표시되어야 하는지 나타내는 표시 위치 신호를 시청자 단말기(400)로 제공할 수 있다.
이 때 선택적으로, 표시 위치 신호는 동영상 제공 장치(100)에서 직접 생성한 신호일 수 있다. 즉, 도 13에 도시된 실시예에 따르면, S700 단계 이전, 동영상 제공 방법은 자막입력자 단말기(300)에 대응하여 표시 위치 신호를 생성하는 단계(S695 단계)를 더 포함할 수 있다. 이 때, 동영상 제공 장치(100)는 자막입력자 단말기(300)의 종류에 기초하여 자막의 표시 위치를 결정할 수 있다. 예를 들어, 동영상 제공 장치(100)로 제1 자막입력자 단말기(300a) 및 제2 자막입력자 단말기(300b) 각각이 자막을 송신하는 경우, 동영상 제공 장치(100)는 제1 자막입력자 단말기(300a)로부터 수신한 자막은 시청자 단말기(400)의 디스플레이부의 좌측에 표시되도록 표시 위치를 결정할 수 있고, 제2 자막입력자 단말기(300b)로부터 수신한 자막은 시청자 단말기(400)의 디스플레이부의 우측에 표시되도록 그 위치를 결정할 수 있다. 동영상 제공 장치(100)는 해당 자막 표시 위치의 정보를 포함하는 표시 위치 신호를 생성하여 자막 신호와 함께 시청자 단말기(400)로 송신할 수 있다. 이러한 표시 위치 신호의 생성은 동영상 제공 장치(100)의 제어부(120)에 의해 수행될 수 있다.
또한 선택적으로, 표시 위치 신호는 동영상 제공 장치(100)가 자막입력자 단말기(300)로부터 수신한 신호일 수 있다. 즉, 도 14에 도시된 실시예에 따르면, 동영상 제공 방법의 S400 단계는 표시 위치 신호를 수신하는 단계(S430 단계)를 포함할 수 있다. 즉, 자막입력자 단말기(300)의 사용자는 자신이 입력한 자막이 동영상에서 어떤 위치에 표시되어야 하는지 스스로 결정할 수 있다. 예를 들어, 자막이 동영상에서 우측에 앉아있는 사람의 대사에 대한 것인 경우 자막입력자 단말기(300)는 해당 자막의 표시 위치를 우측으로 결정하여, 해당 자막에 대응하는 말을 어떤 사람이 한 것인지 나타낼 수 있다. 동영상 제공 장치(100)는 해당 자막 표시 위치의 정보를 포함하는 표시 위치 신호를 수신할 수 있고, 해당 신호를 자막 신호와 함께 시청자 단말기(400)로 송신할 수 있다.
상기한 S720 단계에 의하여, 동영상 제공 장치(100)는 각각의 자막이 어떤 위치에 표시되는 것이 좋은지에 대한 정보를 시청자 단말기(400)로 제공할 수 있다.
선택적으로, 도 15에 도시된 실시예에 따르면, 동영상 제공 방법의 S300 단계는 원본 동영상 신호를 제1 및 제2 자막입력자 단말기(300a 및 300b)로 송신하는 단계(S310 단계)를 포함할 수 있고, S400 단계는 제1 및 제2 자막 신호 각각을 제1 및 제2 자막입력자 단말기(300a 및 300b) 각각으로부터 수신하는 단계(S440 단계)를 포함할 수 있고, S700 단계는 제1 및 제2 자막 신호 중 적어도 하나를 시청자 단말기(400)로 송신하는 단계를 포함할 수 있다.
즉, 하나의 동영상 제공 장치(100)와 동영상 신호 및 자막 신호를 송수신하는 자막입력자 단말기(300)가 복수일 수 있다. 또한, 동영상 제공 장치(100)는 제1 및 제2 자막 신호 중 적어도 하나를 시청자 단말기로 송신할 수 있다.
이 때 선택적으로, 동영상 제공 장치(100)는 다양한 조건을 고려하여 제1 및 제2 자막 신호 중 적어도 하나를 시청자 단말기(400)로 송신할 수 있다. 즉, 도 16에 도시된 실시예에 따르면, 동영상 제공 방법의 S730 단계는 다양한 조건을 고려하여 제1 및 제2 자막 신호 중 적어도 하나를 송신하는 단계(S731 단계)를 포함할 수 있다.
동영상 제공 장치(100)가 고려하는 다양한 조건에는 시청자 단말기(400)로부터의 요청, 시청자 단말기(400)가 존재하는 위치의 국적 정보, 해당 국적의 사용 언어 정보, 시청자 단말기(400)로부터의 특정 자막 신호의 지정 여부, 시청자 단말기(400)로부터의 특정 자막 신호 수신 거부 여부, 자막입력자 단말기(300)의 요청 등이 포함될 수 있다. 즉, 예를 들어, 동영상 제공 장치(100)는 제1 시청자 단말기(400a)가 중국에 존재하는 전자 장치일 경우, 중국어로 작성된 자막 신호 만을 제1 시청자 단말기(400a)로 송신할 수 있다. 다른 예시로, 제2 시청자 단말기(400b)로부터 제1 자막 신호에 대한 수신 거부 요청이 존재하는 경우, 동영상 제공 장치(100)는 제2 자막 신호 만을 제2 시청자 단말기(400b)로 송신할 수 있다.
이 때, 동영상 제공 장치(100)는 시청자 단말기(400)가 특정 자막 신호를 지정하거나 거부할 때 고려할 수 있는 정보를 시청자 단말기(400)로 제공할 수 있다. 이러한 정보에는 다른 시청자 단말기(400)의 특정 자막 선택 정보, 다른 시청자 단말기(400)의 특정 자막 추천 정보, 동영상공급자 단말기(200)의 특정 자막 추천 정보, 또는 자막입력자 단말기(300)로부터 직접 제공되는 정보 등이 포함될 수 있다. 예를 들어, 동영상 제공 장치(100)는, 제1 시청자 단말기(400a)가 제1 자막 신호를 선택하였다는 정보, 제1 자막 신호를 추천하였다는 정보, 또는 동영상공급자 단말기(200)가 제2 자막 신호를 비추천하였다는 정보 등을 제2 시청자 단말기(400b)로 제공할 수 있다. 다른 예시로, 동영상 제공 장치(100)는, 자막입력자 단말기(300)가 스스로 제공하는 자신의 자막에 대한 정보(예컨대, 자신이 입력한 자막에는 비속어가 포함될 수 있다는 정보, 또는 자신은 자막을 처음으로 작성해본다는 정보)를 제2 시청자 단말기(400b)로 제공할 수 있다.
한편, 동영상 제공 장치(100)는 복수의 자막 신호를 시청자 단말기(400)로 송신할 수 있고, 시청자 단말기(400) 측에서 특정 자막 신호를 선택하고 해당 신호에 포함되는 자막 만을 표시할 수도 있다. 나아가, 동영상 제공 장치(100)에 기 설정된 조건에 따라서, 동영상 제공 장치(100)는 시청자 단말기(400)로부터의 요청에 관계없이 특정한 자막 신호의 송신을 차단할 수도 있고, 각각의 시청자 단말기(400)들에게 임의로 선택된 자막 신호를 제공할 수도 있다.
또한 선택적으로, 도 17에 도시된 실시예에 따르면, 동영상 제공 방법의 S700 단계는 제1 자막 글꼴 신호를 시청자 단말기(400)로 송신하는 단계(S740 단계) 및 제2 자막 글꼴 신호를 시청자 단말기(400)로 송신하는 단계(S750 단계)를 포함할 수 있다. 구체적으로, 동영상 제공 장치(100)는 제1 자막을 제1 글자 크기, 제1 글자 색상, 또는 제1 폰트로 표시하라는 정보가 포함된 제1 자막 글꼴 신호를 제1 자막 신호와 함께 시청자 단말기(400)로 송신할 수 있다. 마찬가지로, 동영상 제공 장치(100)는 제2 자막을 제2 글자 크기, 제2 글자 색상, 또는 제2 폰트로 표시하라는 정보가 포함된 제2 자막 글꼴 신호를 제2 자막 신호와 함께 시청자 단말기(400)로 송신할 수 있다. 일반적으로, 자막의 글자 크기, 색상, 폰트 등은 동영상을 시청하는 사람의 단말기, 즉 시청자 단말기(400)에서 스스로 결정할 수 있다. 다만, 동영상 제공 장치(100)는 제1 자막입력자 단말기(300a)로부터 수신한 제1 자막 및 제2 자막입력자 단말기(300b)로부터 수신한 제2 자막이 서로 구분되어 시청자 단말기(400) 상에 표시될 수 있도록 하기 위하여, 제1 및 제2 자막 각각의 글꼴의 정보를 포함하는 자막 글꼴 신호를 시청자 단말기(400)로 송신할 수 있다. 이 때, 제1 및 제2 자막 글꼴 신호는 동영상 제공 장치(100)가 직접 생성한 신호일 수도 있고, 제1 및 제2 자막 글꼴 신호 각각을 제1 및 제2 자막입력자 단말기(300a 및 300b) 각각으로부터 수신한 신호일 수도 있다. 한편, 동영상 제공 장치(100)는 시청자 단말기(400)로 별도의 자막 글꼴 신호를 송신하지 않을 수도 있고, 시청자 단말기(400) 측에서 각각의 자막의 글꼴을 직접 결정하여 표시할 수도 있다.
선택적으로, 도 18에 도시된 실시예에 따르면, 동영상 제공 방법은 S700 단계 이후에 피드백 신호를 수신하는 단계(S800 단계)를 더 포함할 수 있다. 즉, 동영상 제공 장치(100)는 시청자 단말기(400)로부터 피드백 신호를 수신할 수 있다. 해당 피드백 신호는 제공된 자막에 대한 평가를 포함할 수 있다. 구체적으로, 동영상 제공 장치(100)는 시청자 단말기(400)로부터 자막의 번역이 올바르지 않다는 피드백, 자막과 동영상 간에 싱크로가 잘 맞지 않는다는 피드백, 또는 자막이 좋다는 피드백 등 다양한 종류의 피드백에 대한 정보를 포함하는 피드백 신호를 수신할 수 있다. 피드백 신호의 수신은 동영상 제공 장치(100)의 통신부(110)에 의해 수행될 수 있다.
또한 선택적으로, 도 19에 도시된 실시예에 따르면 동영상 제공 장치(100)는 피드백 신호를 자막입력자 단말기(300)로 송신할 수 있다. 즉, 동영상 제공 방법은 S800 단계 이후, 피드백 신호를 자막입력자 단말기(300)로 송신하는 단계(S900 단계)를 더 포함할 수 있다. 피드백 신호의 송신은 동영상 제공 장치(100)의 통신부(110)에 의해 수행될 수 있다.
상기한 S800 단계에 의하여, 동영상 제공 장치(100)는 현재 동영상 제공 시스템(10) 전체에 대한 시청자들의 피드백을 얻을 수 있다. 또한, 상기한 S900 단계에 의하여, 동영상 제공 장치(100)는 자막입력자 단말기(300)의 사용자에게도 자신의 자막에 대해 시청자들이 어떤 피드백을 하였는지에 대한 정보를 얻을 수 있다.
한편, 도 20을 참조하면, 자막입력자 단말기(300)는 원본 동영상 신호를 동영상 제공 장치(100)로부터 수신하는 단계(S1100 단계)를 수행할 수 있다. 이러한 원본 동영상 신호의 수신은 자막입력자 단말기(300)의 통신부(310)에 의해 수행될 수 있다.
이 후, 자막입력자 단말기(300)는 원본 동영상을 출력하는 단계(S1200 단계)를 수행할 수 있다. 즉, 자막입력자 단말기(300)의 사용자가 원본 동영상을 직접 시청하면서 자막을 작성할 수 있도록 하기 위하여, 자막입력자 단말기(300)는 원본 동영상을 재생할 수 있다. 이러한 원본 동영상의 출력은 자막입력자 단말기(300)의 출력부(330)에 의해 수행될 수 있다.
이 후, 자막입력자 단말기(300)는 자막을 입력 받는 단계(S1300 단계)를 수행할 수 있다. 이 때, 자막입력자 단말기(300)의 사용자는 키보드, 터치 패드 등의 입력 장치를 통하여 자막을 입력할 수도 있고, 마이크를 통하여 음성으로 자막을 입력할 수도 있고, 기 설정된 관용구 또는 기 작성된 자막으로부터 적어도 일부의 문자를 선택하여 해당 문자를 입력하고자 하는 자막의 적어도 일부로 입력할 수도 있다.
또한, 자막입력자 단말기(300)는, 자막입력자 단말기(300) 내부 또는 외부의 자동 번역 컴퓨터 프로그램에 의해서 자동으로 생성된 자막을 입력 받을 수도 있다. 즉, 자막입력자 단말기(300)는, 자연인인 자막입력자 단말기(300)의 사용자가 직접 입력한 자막이 아닌, 컴퓨터 알고리즘에 의해서 자동으로 생성된 자막을 입력 받을 수도 있다. 또한, '자막을 입력 받는다'는 표현에도 불구하고, S1300 단계에서 자막입력자 단말기(300)는 자막입력자 단말기(300) 내부에 설치된 자동 번역 컴퓨터 프로그램 또는 음성 인식 컴퓨터 프로그램을 이용하여 자막을 자동적으로 생성할 수도 있다. 이러한 자막을 입력 받는 동작은 자막입력자 단말기(300)의 입력부(320)에 의해 수행될 수 있다.
이 후, 자막입력자 단말기(300)는 자막 신호 및 딜레이 신호를 생성하는 단계(S1400 단계)를 수행할 수 있다. 자막입력자 단말기(300)는 사용자로부터 입력 받은 자막의 정보를 포함하는 자막 신호를 생성할 수 있다. 이 때, 자막 신호는 동영상 제공 장치(100) 또는 시청자 단말기(400)가 해석할 수 있는 프로그래밍 언어로 작성된 신호일 수 있다. 또한, 자막 신호는 자막입력자 단말기(300)의 통신부(310)를 통하여 송신될 수 있고, 동영상 제공 장치(100)의 통신부(110)가 수신할 수 있는 형태로 생성된 전자 신호일 수 있다. 앞서 설명된 바와 같이, 딜레이 신호는 자막의 표시를 지연시키기 위한 정보를 포함하는 신호일 수 있다. 이러한 자막 신호 및 딜레이 신호의 생성은 자막입력자 단말기(300)의 제어부(340)에 의해 수행될 수 있다.
이 후, 자막입력자 단말기(300)는 자막 신호 및 딜레이 신호를 동영상 제공 장치(100)로 송신할 수 있다. 이러한 자막 신호 및 딜레이 신호의 송신은 자막입력자 단말기(300)의 통신부(310)에 의해 수행될 수 있다.
선택적으로, 도 21에 도시된 실시예에 따르면, 동영상 제공 방법의 S1300 단계는 자막의 표시를 제2 시간만큼 지연시키라는 요청을 입력 받는 단계(S1310 단계)를 포함할 수 있고, S1400 단계는 제2 시간에 대한 정보를 포함하여 딜레이 신호를 생성하는 단계(S1410 단계)를 포함할 수 있다. 구체적으로, 자막입력자 단말기(300)의 사용자는, 자신이 자막을 입력하는 과정에서 소요된 시간, 즉 제2 시간을 예상할 수 있다. 이 경우, 자막입력자 단말기(300)는 사용자로부터 자막을 제2 시간만큼 지연시켜서 표시하라는 요청을 입력 받을 수 있다. 이 후, 자막입력자 단말기(300)는 제2 시간에 대한 정보를 포함하여 딜레이 신호를 생성할 수 있다.
이러한 본 발명의 동영상 제공 방법을 통하여, 원본 동영상을 일정 시간만큼 지연시켜서 시청자 단말기에게 제공하고, 해당 지연된 시간 동안 자막입력자 단말기로부터 자막을 입력 받아서 해당 자막을 시청자 단말기로 제공할 수 있다. 또한, 본 발명의 동영상 제공 방법을 통하여, 시청자 단말기에게 제공한 동영상 상에서 올바른 타이밍에 자막이 표시될 수 있도록, 자막과 함께 해당 자막을 표시할 타이밍에 대한 정보를 시청자 단말기로 제공할 수 있다.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), ROM, RAM 및 플래시 메모리 등을 포함하여, 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, '필수적인', '중요하게' 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.
10: 동영상 제공 시스템
100: 동영상 제공 장치
110: 통신부
120: 제어부
200: 동영상공급자 단말기
300: 자막입력자 단말기
310: 통신부
320: 입력부
330: 출력부
340: 제어부
400: 시청자 단말기
500: 통신망
100: 동영상 제공 장치
110: 통신부
120: 제어부
200: 동영상공급자 단말기
300: 자막입력자 단말기
310: 통신부
320: 입력부
330: 출력부
340: 제어부
400: 시청자 단말기
500: 통신망
Claims (20)
- 동영상을 제공하는 방법에 있어서,
통신부에 의해, 원본 동영상의 정보를 포함하는 원본 동영상 신호를 수신하는 단계;
제어부에 의해, 상기 원본 동영상을 제1 시간만큼 지연시킨 딜레이 동영상의 정보를 포함하는 딜레이 동영상 신호를 생성하는 단계;
상기 통신부에 의해, 상기 원본 동영상 신호를 자막입력자 단말기로 송신하는 단계;
상기 통신부에 의해, 상기 자막입력자 단말기로부터 상기 원본 동영상에 대한 자막의 정보를 포함하는 자막 신호, 및 상기 자막의 표시를 지연시키기 위한 정보를 포함하는 딜레이 신호를 수신하는 단계;
상기 제어부에 의해, 상기 딜레이 신호를 기초로, 상기 딜레이 동영상 상에서 상기 자막이 표시될 시각을 나타내는 표시 시각 신호를 생성하는 단계;
상기 제어부에 의해, 상기 자막의 길이, 언어, 및 포함된 단어 중 적어도 하나에 근거하여 동영상 시청자가 상기 자막을 읽는데 소요될 시간을 예측하고, 예측한 상기 소요될 시간에 따라서 상기 자막의 표시를 유지할 유지 기간을 결정하고, 결정한 유지 기간에 대한 정보를 포함하는 유지 기간 신호를 생성하는 단계;
상기 통신부에 의해, 상기 딜레이 동영상 신호를 시청자 단말기로 송신하는 단계; 및
상기 통신부에 의해, 상기 표시 시각 신호, 상기 유지 기간 신호, 및 상기 자막 신호를 상기 시청자 단말기로 송신하는 단계;를 포함하는, 동영상 제공 방법. - 제1 항에 있어서,
상기 딜레이 신호는 상기 자막의 표시를 지연시키기 위한 제2 시간의 정보를 포함하는 신호이고,
상기 표시 시각 신호를 생성하는 단계는,
상기 제어부에 의해, 상기 자막입력자 단말기가 상기 자막 신호를 송신한 시각에서부터, 상기 제1 시간에서 상기 제2 시간을 뺀 길이의 시간만큼 지연된 제1 시각을 계산하고, 상기 자막이 상기 제1 시각에 상기 딜레이 동영상 상에 표시될 수 있도록 상기 표시 시각 신호를 생성하는 단계;를 포함하는, 동영상 제공 방법. - 제1 항에 있어서,
상기 딜레이 신호는 상기 자막의 표시를 지연시키기 위한 제2 시간의 정보를 포함하는 신호이고,
상기 딜레이 신호를 수신하는 단계는,
상기 통신부에 의해, 상기 자막입력자 단말기 상에서 상기 자막이 입력되기 시작한 입력 시작 시각을 나타내는 입력 시작 시각 신호를 수신하는 단계;를 포함하고,
상기 표시 시각 신호를 생성하는 단계는,
상기 제어부에 의해, 상기 입력 시작 시각에서부터, 상기 제1 시간에서 상기 제2 시간을 뺀 길이의 시간만큼 지연된 제2 시각을 계산하고, 상기 자막이 상기 제2 시각에 상기 딜레이 동영상 상에 표시될 수 있도록 상기 표시 시각 신호를 생성하는 단계;를 포함하는, 동영상 제공 방법. - 제1 항에 있어서,
상기 딜레이 신호는 상기 자막의 특징의 정보를 포함하는 신호이고,
상기 표시 시각 신호를 생성하는 단계는,
상기 제어부에 의해, 상기 자막의 특징을 기초로 상기 자막이 표시될 시각을 결정하여 표시 시각 신호를 생성하는 단계;를 포함하는, 동영상 제공 방법. - 삭제
- 제1 항에 있어서,
상기 딜레이 신호를 수신하는 단계는,
상기 통신부에 의해, 상기 자막입력자 단말기로부터 상기 유지 기간 신호를 수신하는 단계;를 포함하는, 동영상 제공 방법. - 삭제
- 제1 항에 있어서,
상기 자막 신호를 상기 시청자 단말기로 송신하는 단계는,
상기 통신부에 의해, 상기 자막이 표시될 위치에 대한 정보를 포함하는 표시 위치 신호를 상기 시청자 단말기로 송신하는 단계;를 포함하는, 동영상 제공 방법. - 제8 항에 있어서,
상기 자막 신호를 상기 시청자 단말기로 송신하는 단계 이전,
상기 제어부에 의해, 상기 자막 신호를 송신한 상기 자막입력자 단말기에 대응하여 상기 자막이 표시될 위치를 결정하여 상기 표시 위치 신호를 생성하는 단계;를 더 포함하는, 동영상 제공 방법. - 제8 항에 있어서,
상기 딜레이 신호를 수신하는 단계는,
상기 통신부에 의해, 상기 자막입력자 단말기로부터 상기 표시 위치 신호를 수신하는 단계;를 포함하는, 동영상 제공 방법. - 제1 항에 있어서,
상기 자막입력자 단말기로 송신하는 단계는,
상기 통신부에 의해, 상기 원본 동영상 신호를 제1 자막입력자 단말기 및 제2 자막입력자 단말기로 송신하는 단계;를 포함하고,
상기 딜레이 신호를 수신하는 단계는,
상기 통신부에 의해, 상기 제1 자막입력자 단말기로부터 제1 자막의 정보를 포함하는 제1 자막 신호를 수신하고, 상기 제2 자막입력자 단말기로부터 제2 자막의 정보를 포함하는 제2 자막 신호를 수신하는 단계;를 포함하고,
상기 자막 신호를 상기 시청자 단말기로 송신하는 단계는,
상기 통신부에 의해, 상기 시청자 단말기로 상기 제1 자막 신호 및 상기 제2 자막 신호 중 적어도 하나를 송신하는 단계;를 포함하는, 동영상 제공 방법. - 제11 항에 있어서,
상기 제1 자막 신호 및 상기 제2 자막 신호 중 적어도 하나를 송신하는 단계는,
상기 통신부에 의해, 상기 시청자 단말기의 특성, 상기 시청자 단말기로부터의 요청, 및 상기 원본 동영상 신호를 송신한 동영상제공자 단말기의 요청 중 적어도 하나에 따라 상기 제1 자막 신호 및 상기 제2 자막 신호 중 적어도 하나를 상기 시청자 단말기로 송신하는 단계;를 포함하는, 동영상 제공 방법. - 제11 항에 있어서,
상기 자막 신호를 상기 시청자 단말기로 송신하는 단계는,
상기 통신부에 의해, 상기 제1 자막을 제1 글자 크기, 제1 글자 색상, 또는 제1 폰트로 표시하라는 제1 자막 글꼴 신호를 상기 제1 자막 신호와 함께 송신하는 단계; 및
상기 통신부에 의해, 상기 제2 자막을 제2 글자 크기, 제2 글자 색상, 또는 제2 폰트로 표시하라는 제2 자막 글꼴 신호를 상기 제2 자막 신호와 함께 송신하는 단계;를 포함하는, 동영상 제공 방법. - 제1 항에 있어서,
상기 자막 신호를 상기 시청자 단말기로 송신하는 단계 이후,
상기 통신부에 의해, 상기 시청자 단말기로부터 상기 자막에 대한 피드백의 정보를 포함하는 피드백 신호를 수신하는 단계;를 더 포함하는, 동영상 제공 방법. - 제14 항에 있어서,
피드백 신호를 수신하는 단계 이후,
상기 통신부에 의해, 상기 피드백 신호를 상기 자막입력자 단말기로 송신하는 단계;를 더 포함하는, 동영상 제공 방법. - 통신부에 의해, 원본 동영상의 정보를 포함하는 원본 동영상 신호를 서버로부터 수신하는 단계;
출력부에 의해, 상기 원본 동영상을 출력하는 단계;
입력부에 의해, 상기 원본 동영상에 대한 자막을 입력 받는 단계;
제어부에 의해, 상기 원본 동영상에 대한 자막의 정보를 포함하는 자막 신호를 생성하고, 상기 자막의 표시를 지연시키기 위한 정보를 포함하는 딜레이 신호를 생성하는 단계;
상기 제어부에 의해, 상기 자막의 길이, 언어, 및 포함된 단어 중 적어도 하나에 근거하여 동영상 시청자가 상기 자막을 읽는데 소요될 시간을 예측하고, 예측한 상기 소요될 시간에 따라서 상기 자막의 표시를 유지할 유지 기간을 결정하고, 결정한 유지 기간에 대한 정보를 포함하는 유지 기간 신호를 생성하는 단계; 및
상기 통신부에 의해, 상기 자막 신호, 상기 유지 기간 신호, 및 상기 딜레이 신호를 상기 서버로 송신하는 단계;를 포함하는 동영상 제공 방법. - 제16 항에 있어서,
상기 자막을 입력 받는 단계는,
상기 입력부에 의해, 상기 자막의 표시를 제2 시간만큼 지연시키라는 요청을 입력 받는 단계;를 더 포함하고,
상기 딜레이 신호를 생성하는 단계는,
상기 제2 시간에 대한 정보를 포함하여 상기 딜레이 신호를 생성하는 단계;를 더 포함하는, 동영상 제공 방법. - 컴퓨터를 이용하여 제1 항 내지 제4 항, 제6 항, 제8 항 내지 제17 항의 방법 중 어느 하나의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
- 원본 동영상의 정보를 포함하는 원본 동영상 신호를 수신하고, 상기 원본 동영상 신호를 자막입력자 단말기로 송신하고, 상기 자막입력자 단말기로부터 상기 원본 동영상에 대한 자막의 정보를 포함하는 자막 신호, 및 상기 자막의 표시를 지연시키기 위한 정보를 포함하는 딜레이 신호를 수신하는 통신부; 및
상기 원본 동영상을 제1 시간만큼 지연시킨 딜레이 동영상의 정보를 포함하는 딜레이 동영상 신호를 생성하고, 상기 딜레이 신호를 기초로, 상기 딜레이 동영상 상에서 상기 자막이 표시될 시각을 나타내는 표시 시각 신호를 생성하고, 상기 자막의 길이, 언어, 및 포함된 단어 중 적어도 하나에 근거하여 동영상 시청자가 상기 자막을 읽는데 소요될 시간을 예측하고, 예측한 상기 소요될 시간에 따라서 상기 자막의 표시를 유지할 유지 기간을 결정하고, 결정한 유지 기간에 대한 정보를 포함하는 유지 기간 신호를 생성하는 는 제어부;를 포함하고,
상기 통신부는, 상기 딜레이 동영상 신호, 상기 표시 시각 신호, 상기 유지 기간 신호, 및 상기 자막 신호를 시청자 단말기로 송신하는, 동영상 제공 장치. - 제19 항에 있어서,
상기 딜레이 신호는 상기 자막의 표시를 지연시키기 위한 제2 시간의 정보를 포함하는 신호이고,
상기 제어부는, 상기 자막입력자 단말기가 상기 자막 신호를 송신한 시각에서부터, 상기 제1 시간에서 상기 제2 시간을 뺀 길이의 시간만큼 지연된 제1 시각을 계산하고, 상기 자막이 상기 제1 시각에 상기 딜레이 동영상 상에 표시될 수 있도록 상기 표시 시각 신호를 생성하는, 동영상 제공 장치.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150101106A KR101789221B1 (ko) | 2015-07-16 | 2015-07-16 | 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램 |
JP2018521804A JP6530139B2 (ja) | 2015-07-16 | 2016-06-09 | 動画提供装置、動画提供方法及びそのコンピュータプログラム |
PCT/KR2016/006099 WO2017010690A1 (ko) | 2015-07-16 | 2016-06-09 | 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램 |
CN201680041973.7A CN108028966B (zh) | 2015-07-16 | 2016-06-09 | 视频提供装置、视频提供方法及计算机程序 |
US15/872,670 US10595067B2 (en) | 2015-07-16 | 2018-01-16 | Video providing apparatus, video providing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150101106A KR101789221B1 (ko) | 2015-07-16 | 2015-07-16 | 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170134253A Division KR101832464B1 (ko) | 2017-10-16 | 2017-10-16 | 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170009295A KR20170009295A (ko) | 2017-01-25 |
KR101789221B1 true KR101789221B1 (ko) | 2017-10-23 |
Family
ID=57757065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150101106A KR101789221B1 (ko) | 2015-07-16 | 2015-07-16 | 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10595067B2 (ko) |
JP (1) | JP6530139B2 (ko) |
KR (1) | KR101789221B1 (ko) |
CN (1) | CN108028966B (ko) |
WO (1) | WO2017010690A1 (ko) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109600680B (zh) * | 2018-08-15 | 2019-06-28 | 上海极链网络科技有限公司 | 重复场景图像分组方法 |
CN109309777B (zh) * | 2018-08-15 | 2019-05-10 | 上海极链网络科技有限公司 | 重复场景图像分组平台 |
CN111818279A (zh) * | 2019-04-12 | 2020-10-23 | 阿里巴巴集团控股有限公司 | 字幕的生成方法、展示方法及交互方法 |
KR102373517B1 (ko) * | 2021-03-24 | 2022-03-11 | (주)익산하이테크 | 동영상 제공 시스템, 및 컴퓨터 프로그램 |
KR20230069016A (ko) | 2021-11-11 | 2023-05-18 | 김유식 | 영상 제공 장치 및 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100523761B1 (ko) * | 2004-06-23 | 2005-10-24 | (주) 마이더스 코리아 | 다중 입출력 지원 실시간 콘텐츠 제작 및 인터넷 방송 데이터 편집장치 및 방법 |
KR101192207B1 (ko) * | 2012-03-05 | 2012-10-17 | 전정환 | 온라인 생방송을 위한 실시간 다국어 자막 서비스 시스템 및 그 방법 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08322046A (ja) * | 1995-03-20 | 1996-12-03 | Sony Corp | データ符号化/復号化方法および装置、および符号化データ記録媒体 |
CN1163890C (zh) * | 1995-03-23 | 2004-08-25 | 索尼公司 | 字幕数据编码/解码的方法和装置 |
CN1156811C (zh) * | 1999-05-14 | 2004-07-07 | 英业达股份有限公司 | 伴随发音显示字幕的方法及其装置 |
JP2002305481A (ja) * | 2001-04-06 | 2002-10-18 | Asutemu:Kk | 字幕作成システム |
KR20010099414A (ko) | 2001-09-26 | 2001-11-09 | 최문현 | 인터넷동영상서비스방법 |
KR20020005523A (ko) * | 2001-10-08 | 2002-01-17 | 노영훈 | 자막 출력 기능을 갖는 오디오 플레이어 장치 |
JP2006324779A (ja) * | 2005-05-17 | 2006-11-30 | Sony Corp | 字幕配信システム、字幕送信装置、字幕合成装置及び字幕配信方法 |
JP4158937B2 (ja) * | 2006-03-24 | 2008-10-01 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 字幕修正装置 |
JP2007324872A (ja) * | 2006-05-31 | 2007-12-13 | Tv Asahi Data Vision Corp | 字幕付き映像信号の遅延制御装置及び遅延制御プログラム |
US20080175564A1 (en) * | 2007-01-19 | 2008-07-24 | Chi-Chun Lin | System and method for presenting supplementary program data utilizing pre-processing scheme |
JP4634410B2 (ja) * | 2007-03-16 | 2011-02-16 | 日本電信電話株式会社 | 映像再生装置,映像再生方法および字幕重畳装置 |
US7992183B1 (en) * | 2007-11-09 | 2011-08-02 | Google Inc. | Enabling users to create, to edit and/or to rate online video captions over the web |
JP5274179B2 (ja) * | 2008-09-25 | 2013-08-28 | 日本テレビ放送網株式会社 | 字幕放送システム及び字幕放送方法 |
US8330864B2 (en) * | 2008-11-02 | 2012-12-11 | Xorbit, Inc. | Multi-lingual transmission and delay of closed caption content through a delivery system |
US8154580B2 (en) * | 2008-11-21 | 2012-04-10 | Creative Technology Ltd | System and method for facilitating user communication from a location |
CN102333201B (zh) * | 2010-07-13 | 2013-11-06 | 华为终端有限公司 | 远程呈现的字幕传输方法、终端及系统 |
US20130169867A1 (en) * | 2010-09-01 | 2013-07-04 | Junko Suginaka | Video output device, remote control terminal, and program |
JP2012105234A (ja) * | 2010-11-15 | 2012-05-31 | Kddi Corp | 字幕生成配信システム、字幕生成配信方法およびプログラム |
JP2012181358A (ja) | 2011-03-01 | 2012-09-20 | Nec Corp | テキスト表示時間決定装置、テキスト表示システム、方法およびプログラム |
US8620139B2 (en) * | 2011-04-29 | 2013-12-31 | Microsoft Corporation | Utilizing subtitles in multiple languages to facilitate second-language learning |
US8914276B2 (en) | 2011-06-08 | 2014-12-16 | Microsoft Corporation | Dynamic video caption translation player |
JP5903924B2 (ja) * | 2012-02-17 | 2016-04-13 | ソニー株式会社 | 受信装置および字幕処理方法 |
CN102802044A (zh) * | 2012-06-29 | 2012-11-28 | 华为终端有限公司 | 视频处理方法、终端及字幕服务器 |
WO2014113071A1 (en) * | 2013-01-15 | 2014-07-24 | Viki, Inc. | System and method for captioning media |
KR101498933B1 (ko) * | 2013-08-07 | 2015-03-04 | 김미경 | 시각화를 통해 편의성이 극대화된 로그인형 자막제작 평가 확산 시스템 |
CN104093037B (zh) * | 2014-06-10 | 2016-05-04 | 腾讯科技(深圳)有限公司 | 字幕校正方法和装置 |
EP3236659B1 (en) * | 2014-12-19 | 2020-11-04 | Sony Corporation | Transmission device, transmission method, reception device, and reception method |
-
2015
- 2015-07-16 KR KR1020150101106A patent/KR101789221B1/ko active IP Right Grant
-
2016
- 2016-06-09 JP JP2018521804A patent/JP6530139B2/ja active Active
- 2016-06-09 CN CN201680041973.7A patent/CN108028966B/zh active Active
- 2016-06-09 WO PCT/KR2016/006099 patent/WO2017010690A1/ko active Application Filing
-
2018
- 2018-01-16 US US15/872,670 patent/US10595067B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100523761B1 (ko) * | 2004-06-23 | 2005-10-24 | (주) 마이더스 코리아 | 다중 입출력 지원 실시간 콘텐츠 제작 및 인터넷 방송 데이터 편집장치 및 방법 |
KR101192207B1 (ko) * | 2012-03-05 | 2012-10-17 | 전정환 | 온라인 생방송을 위한 실시간 다국어 자막 서비스 시스템 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN108028966A (zh) | 2018-05-11 |
JP2018528730A (ja) | 2018-09-27 |
CN108028966B (zh) | 2021-06-08 |
US20180160157A1 (en) | 2018-06-07 |
JP6530139B2 (ja) | 2019-06-12 |
WO2017010690A1 (ko) | 2017-01-19 |
KR20170009295A (ko) | 2017-01-25 |
US10595067B2 (en) | 2020-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108600773B (zh) | 字幕数据推送方法、字幕展示方法、装置、设备及介质 | |
US10971188B2 (en) | Apparatus and method for editing content | |
KR101789221B1 (ko) | 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램 | |
TWI578775B (zh) | 用於電視使用者互動之智能自動助手 | |
US9257089B2 (en) | Augmented reality presentations | |
US20150356997A1 (en) | Method and device of playing multimedia and medium | |
US10466955B1 (en) | Crowdsourced audio normalization for presenting media content | |
US9558784B1 (en) | Intelligent video navigation techniques | |
US10205794B2 (en) | Enhancing digital media with supplemental contextually relevant content | |
US9564177B1 (en) | Intelligent video navigation techniques | |
KR20130078663A (ko) | 영상 데이터에 동기화된 텍스트 데이터 설정 방법 및 장치 | |
WO2014154097A1 (en) | Automatic page content reading-aloud method and device thereof | |
JP2010021632A (ja) | コンテンツ情報再生装置、コンテンツ情報再生システム、コンテンツ情報再生方法、コンテンツ情報再生プログラム、その記録媒体、および情報処理装置 | |
JP6271194B2 (ja) | 携帯デバイスへのセカンドスクリーン情報の提供方法 | |
US11665406B2 (en) | Verbal queries relative to video content | |
JP2016091057A (ja) | 電子機器 | |
KR101832464B1 (ko) | 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램 | |
US11825170B2 (en) | Apparatus and associated methods for presentation of comments | |
US20240038271A1 (en) | System and method for generating video in target language | |
US20140297285A1 (en) | Automatic page content reading-aloud method and device thereof | |
KR101619150B1 (ko) | 스마트 기기를 이용한 외국인의 타국어로 제작된 영화관 상영 디지털 영상 콘텐츠 간편 시청 시스템 및 그 방법 | |
CN116257159A (zh) | 多媒体内容的分享方法、装置、设备、介质及程序产品 | |
KR20140122807A (ko) | 외국어 학습 데이터 제공 장치 및 제공 방법 | |
KR20110065276A (ko) | 비교 영상을 이용한 발음 학습 방법 및 장치 | |
KR102373517B1 (ko) | 동영상 제공 시스템, 및 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |