JP2004215126A - Multilanguage adaptive moving picture delivery system - Google Patents

Multilanguage adaptive moving picture delivery system Download PDF

Info

Publication number
JP2004215126A
JP2004215126A JP2003001712A JP2003001712A JP2004215126A JP 2004215126 A JP2004215126 A JP 2004215126A JP 2003001712 A JP2003001712 A JP 2003001712A JP 2003001712 A JP2003001712 A JP 2003001712A JP 2004215126 A JP2004215126 A JP 2004215126A
Authority
JP
Japan
Prior art keywords
file
video
language
moving image
client terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003001712A
Other languages
Japanese (ja)
Inventor
Koji Toda
浩二 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CYBER BUSINESS CORP
Original Assignee
CYBER BUSINESS CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CYBER BUSINESS CORP filed Critical CYBER BUSINESS CORP
Priority to JP2003001712A priority Critical patent/JP2004215126A/en
Publication of JP2004215126A publication Critical patent/JP2004215126A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system which enables delivery of a moving picture selected by a user, by easily adding voice or subtitle text in an arbitrary language. <P>SOLUTION: A multilanguage adaptive moving picture delivery system 10 comprises a center server 12, a delivery server 14, and a client PC 16. The center server 12 comprises a moving picture file storage part 30; a voice file storage part 32, which stores voice files by the language; a subtitles text file storage part 34 which stores subtitles text files by language; a means of promoting the selection of a moving picture file, by sending a list to the client PC 16; a means of promoting selection of a specific language, by sending a form for selecting a language for a voice file and a subtitles file corresponding to the moving picture; and a means of streaming delivery of the moving picture file, the voice file, and the subtitles text file to the client PC 16 via the delivery server 14, when the information on specifying the language is sent. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は多言語対応型動画配信システムに係り、特に、動画データを任意の言語による音声データ及び字幕テキストデータと共に通信ネットワーク(インターネット等)経由で多数のクライアント端末にストリーミング配信するシステムに関する。
【0002】
【従来の技術】
近年、ADSLやFTTHといった高速大容量の通信回線が普及した結果、一般ユーザがインターネット経由で映画など比較的長時間に亘る動画データの配信を受け、自宅のパソコン上で視聴することが可能となった。
この場合、ストリーミング配信技術を用いることにより、ユーザは動画ファイルのダウンロードが完了するまで待つことなく、動画データの受信と同時に再生させることができる。また、ストリーミング配信は、一般に再生と同時に動画データが消去され、クライアント端末側にコピーが残らないため、動画の著作権保護にも資する方式といえる。
【0003】
【発明が解決しようとする課題】
ところで、外国製の動画ファイルを日本人向けに配信する場合、通常はオリジナルの動画データに日本語の吹き替え用音声あるいは字幕用テキストを合成させた動画ファイルを準備する必要がある。
しかしながら、この動画を日本人以外の中国人やブラジル人、韓国人等に視聴させるとなると、それぞれの言語に対応した吹き替え用音声や字幕用テキストを合成させた動画ファイルを個別に制作する必要があり、そのために煩雑な編集作業を強いられることとなる。
また、ボリュームの大きな動画ファイルを言語別に用意して各ユーザに配信するとなると、その分記憶媒体の容量が増大し、コスト高となる。
【0004】
この発明は、従来の動画配信システムが抱えていた上記の問題点を解決するために案出されたものであり、ユーザが選択した動画に対し任意の言語による吹き替え音声あるいは字幕テキストを簡単に付加して配信することができるシステムの実現を目的としている。
【0005】
【課題を解決するための手段】
上記の目的を達成するため、請求項1に記載の多言語対応型動画配信システムは、インターネット等の通信ネットワークを介してクライアント端末(パソコンや携帯情報端末、携帯電話等)と接続されるサーバを備えた動画配信システムであって、上記サーバは、複数の動画ファイルを蓄積しておく記憶手段と、各動画ファイル毎に準備された言語別の音声ファイルを蓄積しておく記憶手段と、各動画ファイル毎に準備された言語別の字幕テキストファイルを蓄積しておく記憶手段と、クライアント端末に対して動画ファイルのリストを送信し、特定の動画ファイルの選択を促す手段と、クライアント端末から動画ファイルを特定する情報が送信された場合に、当該動画ファイルに対応した音声ファイル及び字幕ファイルの言語を記述したフォームを送信し、特定の言語の選択を促す手段と、クライアント端末から言語を特定する情報が送信された場合に、該当の動画ファイル、音声ファイル、字幕テキストファイルの所在情報(URL等)を通知する手段と、クライアント端末から上記動画ファイル、音声ファイル、字幕テキストファイルの配信要求が送信された場合に、各ファイルのデータを当該クライアント端末に対してストリーミング配信する手段とを備えたことを特徴としている。
【0006】
このように、動画ファイル毎に異なる言語による音声ファイルと字幕テキストファイルをサーバ側に複数用意しておき、ユーザが選択した動画ファイル、音声ファイル、字幕ファイルをクライアント端末にストリーミング配信することにより、ユーザは動画ファイルを任意の音声及び字幕の組み合わせで視聴することが可能となる。このため、特に語学教材として高い効果が期待できる。
しかも、動画ファイルと音声ファイル、及び字幕ファイルが分離しているため、異なる言語の組み合わせ毎に動画ファイルを編集し直す手間が省けると共に、容量の嵩張る動画ファイルを言語毎に準備し、記憶装置に蓄積しておく必要がなくなる。
【0007】
請求項2に記載の多言語対応型動画配信システムは、上記サーバが、上記動画ファイルの再生経過時間と、当該動画ファイルに対応した字幕テキストファイルに含まれる文字列との対応関係を記述した同期制御ファイルを備えており、上記クライアント端末に動画データを配信するに際し、上記同期制御ファイルに従って字幕テキストデータを配信する手段を備えたことを特徴としている。
この結果、動画ファイルと字幕テキストファイルを別々にクライアント端末に配信しても、動画の内容と字幕テキストとを確実に一致させることが可能となる。
【0008】
【発明の実施の形態】
図1は、この発明に係る多言語対応型動画配信システム10の基本構成を示す概念図であり、センターサーバ12と、ストリーミング配信サーバ14と、ユーザのクライアントPC16とから構成される。
クライアントPC16は、インターネット18を介してセンターサーバ12にネットワーク接続されており、Webブラウザ・プログラムと、ストリーミングデータの受信及び再生用のプレーヤ・プログラムとがセットアップされている。このプレーヤ・プログラムとして、例えばRealPlayer(登録商標)や、Windows (登録商標)Media Playerなどがある。
図1においては1台のクライアントPC16のみが描かれているが、実際には多数のクライアントPC16がセンターサーバ12にアクセス可能となされている。
【0009】
センターサーバ12は、Webサーバ機能、認証サーバ機能、データベースサーバ機能、アプリケーションサーバ機能等を備えており、実際には複数のコンピュータをネットワーク接続することによって構成されている。
配信サーバ14には、動画ファイルや音声ファイル、テキストファイルをクライアントPCにストリーミング配信するためのプログラムがセットアップされている。このプログラムとして、例えばRealServer(登録商標)やWindows (登録商標)Media サービスなどが該当する。
もちろん、センターサーバ12側にストリーミング配信サーバ機能を持たせることにより、配信サーバ14の設置を省略することもできる。逆に、必要に応じて複数の配信サーバを設置することもできる。
【0010】
図2は、この動画配信システム10の機能構成を示すブロック図であり、センターサーバ12は、ユーザ対応部20と、制御ファイル処理部22と、ファイル転送部24と、Webファイル蓄積部26と、コンテンツデータベース28と、動画ファイル蓄積部30と、音声ファイル蓄積部32と、字幕ファイル蓄積部34とを備えている。
上記ユーザ対応部20、制御ファイル処理部22、及びファイル転送部24は、センターサーバ12を構成するコンピュータのCPUが、OS及びアプリケーションプログラムに従って必要な処理を実行することで実現される。
また、上記Webファイル蓄積部26、コンテンツデータベース28、動画ファイル蓄積部30、音声ファイル蓄積部32、及び字幕ファイル蓄積部34は、同コンピュータのハードディスク内に格納されている。
【0011】
上記動画ファイル蓄積部30には、多数の動画ファイルがエンコードされた状態で格納されている。
上記音声ファイル蓄積部32には、各動画ファイルに対応した各国語の音声ファイルがエンコードされた状態で格納されている。
上記テキスト蓄積部34には、各動画ファイルに対応した各国語の字幕用テキストファイルがエンコードされた状態で格納されている。
上記コンテンツデータベース28には、各動画ファイルと音声ファイル、字幕用テキストファイルとの対応関係が記述されている。
【0012】
このシステム10は、配信サーバ14からクライアントPC16に対し、一つの動画ファイルと、何れかの言語による音声ファイル、及び何れかの言語による字幕テキストファイルをストリーミング配信し、クライアントPC16上のプレーヤ・プログラムによって各データを同期させた状態で再生・表示することを前提としている。
この場合、動画データに背景用音声データを多重化させた音声付きの動画ファイルを用い、これと共に特定言語の台詞用音声ファイル及び字幕用テキストデータを配信することができる。
あるいは、音声を含まない純粋の動画データと共に、背景用音声データ、特定言語の台詞用音声データ、及び字幕用テキストデータを、それぞれクライアントPC16に配信することもできる。
さらには、純粋の動画データ、背景用音声データと特定言語の台詞用音声データを多重化させた音声データ、及び特定言語の字幕用テキストデータをクライアントPC16に配信することもできる。
【0013】
つぎに、図3のフローチャートに従い、この動画配信システム10における処理手順を説明する。
まず、ユーザはクライアントPC16からインターネット18経由でセンターサーバ12のWebサイトにアクセスし、サービスメニューの中から「シネマ多言語学習サービス」を選択する。
これを受けたユーザ対応部20は、コンテンツデータベース28内に格納されたデータを参照し、現時点でユーザに提供可能な動画(映画)ファイルのリストを生成すると共に、クライアントPC16に送信する。
これに対し、ユーザがリストに掲げられた特定の動画タイトルをクリックして選択すると(S10)、ユーザ対応部20から図4に示す言語選択用フォーム40が送信され、動画の音声及び字幕の言語を選択することをユーザに求める(S12)。
【0014】
これに対しユーザは、任意の言語の組み合わせを選択する。
例えば、字幕言語として「日本語」にチェックを入れると共に、音声言語として「英語」にチェックを入れ、再生ボタン42をクリックすると、再生ウィンドウ44において動画のサンプル映像が再生される。また、再生ウィンドウの下方に日本語の字幕テキストが表示されると同時に、クライアントPC16のスピーカを通じて英語による台詞音声が再生される。
【0015】
言語の組み合わせを確認した上でユーザが「OK」ボタンをクリックすると(S14)、制御ファイル処理部22はユーザの選択情報に従ってメタファイルを生成し、ユーザ対応部20を介してクライアントPC16に送信する(S16)。このメタファイルには、プレーヤ・プログラム起動用のコマンドと、ストリーミング配信用のURL(Uniform Resource Locator)が記述されている。
同時に、制御ファイル処理部22は、ユーザが選択した動画ファイル、音声ファイル(英語)、字幕テキストファイル(日本語)の格納場所及びファイル名が記述された配信制御ファイル(SMILファイル等)を生成し、ファイル転送部24を介して配信サーバ14に送信する(S18)。
また、制御ファイル処理部22は、動画を構成するフレームと字幕テキストとの同期をとるための同期制御ファイル(RealTextファイル等)をコンテンツデータベース28から読み出し、ファイル転送部24を介して配信サーバ14に送信する(S20)。
【0016】
これを受けた配信サーバ14は、センターサーバ12に対して必要なファイルの転送を要求する(S22)。
また、センターサーバ12のファイル転送部24を通じて動画ファイル、音声ファイル、及び字幕テキストファイルが送信されると(S24)、配信サーバ14はこれらのファイルを所定のディレクトリに格納する(S26)。
【0017】
一方、クライアントPC16においては、Webブラウザがメタファイルに記述されたコマンドに従って動画再生用プレーヤを起動させ(S30)、ストリーミング配信用のURLをプレーヤに渡す。
これを受けたプレーヤは、インターネット18経由で配信サーバ14にアクセスし、必要な動画データ、音声データ、及びテキストデータのストリーミング配信を要求する(S32)。
これに対し配信サーバ14は、該当の動画ファイル、音声ファイル、テキストファイルを、所定のストリーミングプロトコルに従ってクライアントPC16のプレーヤにストリーミング配信する。
この結果、クライアントPC16のディスプレイ上に動画及び日本語の字幕が再生・表示されると共に、スピーカを通じて英語の音声が再生される。
【0018】
配信サーバ14は、動画データ及び字幕用テキストデータをクライアントPC16に配信するに際し、上記の同期制御ファイルを参照することにより、動画のフレームと字幕テキストとの対応関係を維持することができる。
すなわち、同期制御ファイルには、図5に示すように、動画再生の経過時間と字幕テキストとの対応関係が記述されており、配信サーバ14はこの経過時間にしたがって対応のテキストデータを送出することにより、図6に示すように、動画の各フレームと字幕テキストとの同期を取ることが可能となる。
因みに、動画の再生ウィンドウ中における字幕テキストの配置は、上記の配信制御ファイル(SMILファイル)において設定されている。
【0019】
映画やテレビドラマのように、最初から背景用音声と台詞用音声とが分離された状態で録音されている場合には、台詞用音声を各国語の吹き替え音声に簡単に差し替えることができる。
これに対し、劇場で演劇の動画と音声を記録した場合には、背景音声と台詞音声とが混じった状態で録音されることとなる。
この場合には、人間の声に相当する周波数帯のみを自動的に検出し、ディジタル処理によって台詞音声を分離・消去すると共に、声優を使って他言語で録音した台詞音声を準備すればよい。
【0020】
上記にあっては、センターサーバ12側に動画ファイル蓄積部30、音声ファイル蓄積部32、及び字幕ファイル蓄積部34を設け、ユーザの選択情報に基づいて必要なファイルを配信サーバ14に転送する例を示したが、配信サーバ14側に動画ファイル蓄積部30、音声ファイル蓄積部32、字幕ファイル蓄積部34を設けておくこともできる。
この場合、センターサーバ12からユーザのクライアントPC16に対して必要ファイルのURLが通知され、これに基づいてクライアントPC16から配信サーバ14に対して配信要求が送信された時点で、配信サーバ14は該当のファイルをストリーミング配信することとなる。
【0021】
【発明の効果】
請求項1に記載した多言語対応型動画配信システムにあっては、動画ファイル毎に異なる言語による音声ファイルと字幕テキストファイルをサーバ側に複数用意しておき、ユーザが選択した動画ファイル、音声ファイル、字幕ファイルをクライアント端末にストリーミング配信することにより、ユーザは動画ファイルを任意の音声及び字幕の組み合わせで視聴することが可能となる。
しかも、動画ファイルと音声ファイル、及び字幕ファイルが分離しているため、異なる言語の組み合わせ毎に動画ファイルを編集し直す手間が省けると共に、容量の嵩張る動画ファイルを言語毎に準備し、記憶装置に蓄積しておく必要がなくなる。
【0022】
また、請求項2に記載の多言語対応型動画配信システムにあっては、上記サーバが、上記動画ファイルの再生経過時間と、当該動画ファイルに対応した字幕テキストファイルに含まれる文字列との対応関係を記述した同期制御ファイルを備えており、上記クライアント端末に動画データを配信するに際し、上記同期制御ファイルに従って字幕テキストデータを配信する手段を備えたため、動画ファイルと字幕テキストファイルを別々にクライアント端末に配信しても、動画の内容と字幕テキストとを確実に一致させることが可能となる。
【図面の簡単な説明】
【図1】この発明に係る多言語対応型動画配信システムの基本構成を示す概念図である。
【図2】この動画配信システムの機能構成を示すブロック図である。
【図3】この動画配信システムにおける処理手順を示すフローチャートである。
【図4】言語選択用フォームを示すレイアウト図である。
【図5】同期制御ファイルの記述例を示す説明図である。
【図6】動画の各フレームと字幕テキストとの同期要領を示す説明図である。
【符号の説明】
10 多言語対応型動画配信システム
12 センターサーバ
14 ストリーミング配信サーバ
16 クライアントPC
18 インターネット
20 ユーザ対応部
22 制御ファイル処理部
24 ファイル転送部
26 Webファイル蓄積部
28 コンテンツデータベース
30 動画ファイル蓄積部
32 音声ファイル蓄積部
34 字幕ファイル蓄積部
40 言語選択用フォーム
42 再生ボタン
44 再生ウィンドウ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a multilingual video distribution system, and more particularly to a system for streaming video data to a number of client terminals via a communication network (such as the Internet) together with audio data and caption text data in an arbitrary language.
[0002]
[Prior art]
In recent years, as high-speed and large-capacity communication lines such as ADSL and FTTH have become widespread, it has become possible for general users to receive video data such as movies over a relatively long period of time via the Internet and view them on a personal computer at home. Was.
In this case, by using the streaming distribution technique, the user can play back the video data simultaneously with the reception of the video data without waiting until the download of the video file is completed. Streaming distribution is generally a method that also contributes to copyright protection of moving images, since moving image data is erased at the same time as reproduction, and no copy remains on the client terminal side.
[0003]
[Problems to be solved by the invention]
By the way, when distributing a foreign-made video file to Japanese, it is usually necessary to prepare a video file in which original video data is combined with Japanese dubbed audio or subtitle text.
However, if this video is to be viewed by non-Japanese Chinese, Brazilian, Korean, etc., it will be necessary to individually create a video file that combines voice-over audio and subtitle text for each language. There is a need for complicated editing work.
In addition, when a large-volume moving image file is prepared for each language and distributed to each user, the capacity of the storage medium increases accordingly, and the cost increases.
[0004]
The present invention was devised in order to solve the above-mentioned problems of the conventional moving image distribution system, and easily adds a voice-over sound or subtitle text in an arbitrary language to a moving image selected by a user. It is intended to realize a system that can distribute the data.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a multilingual video distribution system according to claim 1 includes a server connected to a client terminal (a personal computer, a personal digital assistant, a mobile phone, or the like) via a communication network such as the Internet. A moving image distribution system comprising: a storage unit that stores a plurality of moving image files; a storage unit that stores an audio file for each language prepared for each moving image file; Storage means for storing subtitle text files prepared for each language prepared for each file; means for transmitting a list of video files to the client terminal to prompt selection of a specific video file; When the information for identifying the video file is transmitted, a file describing the language of the audio file and subtitle file corresponding to the video file is transmitted. Means for prompting the user to select a specific language, and, when information for specifying the language is transmitted from the client terminal, the location information (URL, etc.) of the corresponding moving image file, audio file, or subtitle text file is transmitted. Notifying means, and means for, when a distribution request for the moving image file, audio file, and subtitle text file is transmitted from the client terminal, performing streaming distribution of data of each file to the client terminal. And
[0006]
As described above, a plurality of audio files and subtitle text files in different languages are prepared for each moving image file on the server side, and the moving image file, the audio file, and the subtitle file selected by the user are streamed to the client terminal. Allows a user to view a moving image file with any combination of audio and subtitles. Therefore, a high effect can be expected especially as a language teaching material.
In addition, since the video file, the audio file, and the subtitle file are separated, it is not necessary to re-edit the video file for each combination of different languages, and a large-capacity video file is prepared for each language and stored in the storage device. There is no need to store them.
[0007]
3. The multilingual video distribution system according to claim 2, wherein the server describes a correspondence between the elapsed playback time of the video file and a character string included in a subtitle text file corresponding to the video file. A control file; and a means for distributing caption text data in accordance with the synchronization control file when distributing moving image data to the client terminal.
As a result, even if the moving image file and the subtitle text file are separately delivered to the client terminal, the contents of the moving image and the subtitle text can be reliably matched.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a conceptual diagram showing a basic configuration of a multilingual video distribution system 10 according to the present invention, and includes a center server 12, a streaming distribution server 14, and a client PC 16 of a user.
The client PC 16 is network-connected to the center server 12 via the Internet 18, and a Web browser program and a player program for receiving and reproducing streaming data are set up. The player program includes, for example, RealPlayer (registered trademark) and Windows (registered trademark) Media Player.
Although only one client PC 16 is illustrated in FIG. 1, many client PCs 16 can actually access the center server 12.
[0009]
The center server 12 has a Web server function, an authentication server function, a database server function, an application server function, and the like, and is actually configured by connecting a plurality of computers to a network.
The distribution server 14 is set up with a program for streaming distribution of moving image files, audio files, and text files to the client PC. The program corresponds to, for example, RealServer (registered trademark) or Windows (registered trademark) Media service.
Of course, by providing the center server 12 with the streaming distribution server function, the distribution server 14 can be omitted. Conversely, a plurality of distribution servers can be installed as needed.
[0010]
FIG. 2 is a block diagram illustrating a functional configuration of the moving image distribution system 10. The center server 12 includes a user corresponding unit 20, a control file processing unit 22, a file transfer unit 24, a Web file storage unit 26, A content database 28, a moving image file storage unit 30, an audio file storage unit 32, and a subtitle file storage unit 34 are provided.
The user corresponding unit 20, the control file processing unit 22, and the file transfer unit 24 are realized by a CPU of a computer constituting the center server 12 executing necessary processing according to an OS and an application program.
The Web file storage unit 26, the content database 28, the moving image file storage unit 30, the audio file storage unit 32, and the subtitle file storage unit 34 are stored in the hard disk of the computer.
[0011]
The moving image file storage unit 30 stores a large number of moving image files in an encoded state.
The audio file storage unit 32 stores encoded audio files in various languages corresponding to the respective moving image files.
The text storage unit 34 stores encoded subtitle text files in various languages corresponding to the respective moving image files.
The content database 28 describes the correspondence between each moving image file, audio file, and subtitle text file.
[0012]
The system 10 distributes one moving image file, an audio file in any language, and a subtitle text file in any language from the distribution server 14 to the client PC 16 by streaming, and the player program on the client PC 16 It is assumed that each data is reproduced and displayed in a synchronized state.
In this case, a moving image file with sound obtained by multiplexing moving image data with background sound data can be used, and a speech sound file for a specific language and text data for subtitles can be delivered together with the moving image file.
Alternatively, background audio data, speech audio data in a specific language, and subtitle text data can be distributed to the client PC 16 together with pure video data that does not include audio.
Furthermore, pure moving image data, audio data obtained by multiplexing background audio data and speech audio data in a specific language, and subtitle text data in a specific language can be delivered to the client PC 16.
[0013]
Next, the processing procedure in the moving image distribution system 10 will be described with reference to the flowchart of FIG.
First, the user accesses the Web site of the center server 12 from the client PC 16 via the Internet 18 and selects “Cinema Multilingual Learning Service” from the service menu.
Receiving this, the user corresponding unit 20 refers to the data stored in the content database 28, generates a list of moving image (movie) files that can be provided to the user at the present time, and transmits the list to the client PC 16.
On the other hand, when the user clicks and selects a specific moving image title listed in the list (S10), a language selection form 40 shown in FIG. 4 is transmitted from the user corresponding unit 20, and the audio and subtitle languages of the moving image are transmitted. Is requested to the user (S12).
[0014]
On the other hand, the user selects an arbitrary combination of languages.
For example, when “Japanese” is checked as the subtitle language, and “English” is checked as the audio language, and when the play button 42 is clicked, a sample video of the moving image is played in the play window 44. At the same time as the Japanese subtitle text is displayed below the playback window, the dialogue voice in English is played through the speaker of the client PC 16.
[0015]
When the user clicks the "OK" button after confirming the language combination (S14), the control file processing unit 22 generates a metafile according to the user's selection information and transmits the metafile to the client PC 16 via the user corresponding unit 20. (S16). In this metafile, a command for starting a player program and a URL (Uniform Resource Locator) for streaming distribution are described.
At the same time, the control file processing unit 22 generates a distribution control file (SMIL file or the like) in which storage locations and file names of the moving image file, audio file (English), and subtitle text file (Japanese) selected by the user are described. Is transmitted to the distribution server 14 via the file transfer unit 24 (S18).
Further, the control file processing unit 22 reads a synchronization control file (RealText file or the like) for synchronizing a frame constituting the moving image with the subtitle text from the content database 28 and sends the synchronization control file to the distribution server 14 via the file transfer unit 24. It is transmitted (S20).
[0016]
Upon receiving this, the distribution server 14 requests the center server 12 to transfer necessary files (S22).
When the moving image file, the audio file, and the subtitle text file are transmitted through the file transfer unit 24 of the center server 12 (S24), the distribution server 14 stores these files in a predetermined directory (S26).
[0017]
On the other hand, in the client PC 16, the Web browser activates the player for moving image reproduction according to the command described in the metafile (S30), and passes the URL for streaming distribution to the player.
The player receiving the request accesses the distribution server 14 via the Internet 18 and requests streaming distribution of necessary moving image data, audio data, and text data (S32).
On the other hand, the distribution server 14 distributes the relevant moving image file, audio file, and text file to the player of the client PC 16 by streaming according to a predetermined streaming protocol.
As a result, the moving image and the Japanese subtitles are reproduced and displayed on the display of the client PC 16, and the English audio is reproduced through the speaker.
[0018]
When distributing the moving image data and the subtitle text data to the client PC 16, the distribution server 14 can maintain the correspondence between the moving image frame and the subtitle text by referring to the synchronization control file.
That is, as shown in FIG. 5, the correspondence between the elapsed time of video playback and the subtitle text is described in the synchronization control file, and the distribution server 14 transmits the corresponding text data according to the elapsed time. Accordingly, as shown in FIG. 6, it is possible to synchronize each frame of the moving image with the subtitle text.
Incidentally, the arrangement of the subtitle text in the moving image playback window is set in the distribution control file (SMIL file) described above.
[0019]
When a background sound and a speech sound are recorded in a state separated from the beginning, as in a movie or a TV drama, the speech sound can be easily replaced with a dubbed sound in each language.
On the other hand, when a moving image and a sound of a play are recorded in a theater, the sound is recorded in a state where the background sound and the speech sound are mixed.
In this case, only the frequency band corresponding to the human voice is automatically detected, and the speech voice is separated and deleted by digital processing, and the speech voice recorded in another language using the voice actor may be prepared.
[0020]
In the above example, the moving image file storage unit 30, the audio file storage unit 32, and the subtitle file storage unit 34 are provided on the center server 12 side, and necessary files are transferred to the distribution server 14 based on user selection information. However, the moving image file storage unit 30, the audio file storage unit 32, and the subtitle file storage unit 34 may be provided on the distribution server 14 side.
In this case, the URL of the required file is notified from the center server 12 to the user's client PC 16, and based on the URL, the client PC 16 transmits a distribution request to the distribution server 14. The file will be streamed.
[0021]
【The invention's effect】
In the multilingual video distribution system according to claim 1, a plurality of audio files and subtitle text files in different languages are prepared on the server side for each video file, and the video file and the audio file selected by the user are prepared. By streaming the subtitle file to the client terminal, the user can view the moving image file with any combination of audio and subtitle.
In addition, since the video file, the audio file, and the subtitle file are separated, it is not necessary to re-edit the video file for each combination of different languages, and a large-capacity video file is prepared for each language and stored in the storage device. There is no need to store them.
[0022]
In addition, in the multilingual-compatible moving image distribution system according to claim 2, the server determines a correspondence between a reproduction elapsed time of the moving image file and a character string included in a subtitle text file corresponding to the moving image file. A synchronization control file describing the relationship, and a means for distributing subtitle text data according to the synchronization control file when distributing video data to the client terminal. , It is possible to reliably match the content of the moving image with the caption text.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram showing a basic configuration of a multilingual video distribution system according to the present invention.
FIG. 2 is a block diagram showing a functional configuration of the moving image distribution system.
FIG. 3 is a flowchart showing a processing procedure in the moving image distribution system.
FIG. 4 is a layout diagram showing a language selection form.
FIG. 5 is an explanatory diagram showing a description example of a synchronization control file.
FIG. 6 is an explanatory diagram showing a procedure for synchronizing each frame of a moving image with subtitle text.
[Explanation of symbols]
10 Multilingual video distribution system 12 Center server 14 Streaming distribution server 16 Client PC
18 Internet 20 User support unit 22 Control file processing unit 24 File transfer unit 26 Web file storage unit 28 Content database 30 Video file storage unit 32 Audio file storage unit 34 Subtitle file storage unit 40 Language selection form 42 Play button 44 Play window

Claims (2)

通信ネットワークを介してクライアント端末と接続されるサーバを備えた動画配信システムであって、
上記サーバは、
複数の動画ファイルを蓄積しておく記憶手段と、
各動画ファイル毎に準備された言語別の音声ファイルを蓄積しておく記憶手段と、
各動画ファイル毎に準備された言語別の字幕テキストファイルを蓄積しておく記憶手段と、
クライアント端末に対して動画ファイルのリストを送信し、特定の動画ファイルの選択を促す手段と、
クライアント端末から動画ファイルを特定する情報が送信された場合に、当該動画ファイルに対応した音声ファイル及び字幕ファイルの言語を記述したフォームを送信し、特定の言語の選択を促す手段と、
クライアント端末から言語を特定する情報が送信された場合に、該当の動画ファイル、音声ファイル、字幕テキストファイルの所在情報を通知する手段と、
クライアント端末から上記動画ファイル、音声ファイル、字幕テキストファイルの配信要求が送信された場合に、各ファイルのデータを当該クライアント端末に対してストリーミング配信する手段と、
を備えたことを特徴とする多言語対応型動画配信システム。
A video distribution system including a server connected to a client terminal via a communication network,
The above server,
Storage means for storing a plurality of video files;
Storage means for storing language-specific audio files prepared for each video file;
Storage means for storing a subtitle text file prepared for each language prepared for each video file,
A means to send a list of video files to the client terminal and to select a specific video file,
Means for transmitting a form describing the language of the audio file and subtitle file corresponding to the video file when information for specifying the video file is transmitted from the client terminal, and prompting the user to select a specific language;
Means for notifying the location information of the corresponding video file, audio file, or subtitle text file when information specifying the language is transmitted from the client terminal;
Means for streaming distribution of data of each file to the client terminal when a distribution request for the moving image file, audio file, and subtitle text file is transmitted from the client terminal;
A multi-language compatible video distribution system characterized by comprising:
上記サーバは、上記動画ファイルの再生経過時間と、当該動画ファイルに対応した字幕テキストファイルに含まれる文字列との対応関係を記述した同期制御ファイルを備えており、
上記クライアント端末に動画データを配信するに際し、上記同期制御ファイルに従って字幕テキストデータを配信する手段を備えたことを特徴とする請求項1に記載の多言語対応型動画配信システム。
The server includes a synchronization control file that describes a correspondence relationship between a playback elapsed time of the video file and a character string included in a subtitle text file corresponding to the video file,
2. The multilingual video distribution system according to claim 1, further comprising means for distributing subtitle text data according to the synchronization control file when distributing the video data to the client terminal.
JP2003001712A 2003-01-08 2003-01-08 Multilanguage adaptive moving picture delivery system Pending JP2004215126A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003001712A JP2004215126A (en) 2003-01-08 2003-01-08 Multilanguage adaptive moving picture delivery system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003001712A JP2004215126A (en) 2003-01-08 2003-01-08 Multilanguage adaptive moving picture delivery system

Publications (1)

Publication Number Publication Date
JP2004215126A true JP2004215126A (en) 2004-07-29

Family

ID=32819660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003001712A Pending JP2004215126A (en) 2003-01-08 2003-01-08 Multilanguage adaptive moving picture delivery system

Country Status (1)

Country Link
JP (1) JP2004215126A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236002A (en) * 2005-02-24 2006-09-07 Kobe Steel Ltd Content distribution device, content distribution program and content distribution method
JP2007135197A (en) * 2005-11-10 2007-05-31 Internatl Business Mach Corp <Ibm> Method for creating alternative voice through closed caption data
JP2008153867A (en) * 2006-12-15 2008-07-03 Toshiba Corp Video server and material management method thereof
JP2008219267A (en) * 2007-03-01 2008-09-18 Canon Inc Information distribution device, information distributing method and information distribution program
JP2008236257A (en) * 2007-03-19 2008-10-02 Toshiba Corp Video server device
JP2013516849A (en) * 2010-01-05 2013-05-13 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド System and method for providing media guidance application functionality using a wireless communication device
JP2014007561A (en) * 2012-06-25 2014-01-16 Toshiaki Ueno Content browsing device and content providing system
JP2014200002A (en) * 2013-03-29 2014-10-23 Kddi株式会社 Caption distribution system and caption image reproduction apparatus
JP2014212460A (en) * 2013-04-19 2014-11-13 株式会社アステム Video output device, caption server device, video output method, and program
JP2014212459A (en) * 2013-04-19 2014-11-13 株式会社アステム Video output device, caption server device, video output method, and program
US9201627B2 (en) 2010-01-05 2015-12-01 Rovi Guides, Inc. Systems and methods for transferring content between user equipment and a wireless communications device
US9414120B2 (en) 2008-06-13 2016-08-09 Rovi Guides, Inc. Systems and methods for displaying media content and media guidance information
JP2016208364A (en) * 2015-04-24 2016-12-08 凸版印刷株式会社 Content reproduction system, content reproduction device, content related information distribution device, content reproduction method, and content reproduction program
JP2016538755A (en) * 2013-10-10 2016-12-08 ベルンド コルツ、 How to play and separately store audio and video tracks on the Internet
JP2017059176A (en) * 2015-09-18 2017-03-23 東京書籍株式会社 Content providing system, content server, terminal device, content providing method, and program
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
JP2017188891A (en) * 2016-03-31 2017-10-12 株式会社インフォシティ Broadcast service retransmission system and viewing portable terminal
US10085072B2 (en) 2009-09-23 2018-09-25 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
CN112584078A (en) * 2019-09-27 2021-03-30 深圳市万普拉斯科技有限公司 Video call method, video call device, computer equipment and storage medium
JP2021510047A (en) * 2018-05-29 2021-04-08 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. Synchronous playback method of media files, equipment and storage media

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236002A (en) * 2005-02-24 2006-09-07 Kobe Steel Ltd Content distribution device, content distribution program and content distribution method
JP2007135197A (en) * 2005-11-10 2007-05-31 Internatl Business Mach Corp <Ibm> Method for creating alternative voice through closed caption data
JP2008153867A (en) * 2006-12-15 2008-07-03 Toshiba Corp Video server and material management method thereof
JP2008219267A (en) * 2007-03-01 2008-09-18 Canon Inc Information distribution device, information distributing method and information distribution program
US8619851B2 (en) 2007-03-01 2013-12-31 Canon Kabushiki Kaisha Information distribution apparatus, information distribution method, and information distribution program
JP2008236257A (en) * 2007-03-19 2008-10-02 Toshiba Corp Video server device
US9414120B2 (en) 2008-06-13 2016-08-09 Rovi Guides, Inc. Systems and methods for displaying media content and media guidance information
US10085072B2 (en) 2009-09-23 2018-09-25 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
JP2015233319A (en) * 2010-01-05 2015-12-24 ロヴィ ガイズ, インコーポレイテッド System and method for providing media guidance application functionality by using radio communication device
JP2018029382A (en) * 2010-01-05 2018-02-22 ロヴィ ガイズ, インコーポレイテッド System and method for providing media guidance application functionality by using radio communication device
US9201627B2 (en) 2010-01-05 2015-12-01 Rovi Guides, Inc. Systems and methods for transferring content between user equipment and a wireless communications device
JP2013516849A (en) * 2010-01-05 2013-05-13 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド System and method for providing media guidance application functionality using a wireless communication device
JP2014007561A (en) * 2012-06-25 2014-01-16 Toshiaki Ueno Content browsing device and content providing system
JP2014200002A (en) * 2013-03-29 2014-10-23 Kddi株式会社 Caption distribution system and caption image reproduction apparatus
JP2014212459A (en) * 2013-04-19 2014-11-13 株式会社アステム Video output device, caption server device, video output method, and program
JP2014212460A (en) * 2013-04-19 2014-11-13 株式会社アステム Video output device, caption server device, video output method, and program
JP2016538755A (en) * 2013-10-10 2016-12-08 ベルンド コルツ、 How to play and separately store audio and video tracks on the Internet
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
JP2016208364A (en) * 2015-04-24 2016-12-08 凸版印刷株式会社 Content reproduction system, content reproduction device, content related information distribution device, content reproduction method, and content reproduction program
JP2017059176A (en) * 2015-09-18 2017-03-23 東京書籍株式会社 Content providing system, content server, terminal device, content providing method, and program
JP2017188891A (en) * 2016-03-31 2017-10-12 株式会社インフォシティ Broadcast service retransmission system and viewing portable terminal
JP2021510047A (en) * 2018-05-29 2021-04-08 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. Synchronous playback method of media files, equipment and storage media
CN112584078A (en) * 2019-09-27 2021-03-30 深圳市万普拉斯科技有限公司 Video call method, video call device, computer equipment and storage medium
CN112584078B (en) * 2019-09-27 2022-03-18 深圳市万普拉斯科技有限公司 Video call method, video call device, computer equipment and storage medium

Similar Documents

Publication Publication Date Title
JP2004215126A (en) Multilanguage adaptive moving picture delivery system
US9301000B2 (en) Method for providing a content-sharing service, and a device therefor
US9398064B2 (en) Method of streaming media to heterogeneous client devices
CA2884407C (en) System and method for broadcasting interactive content
CA2623835C (en) Content delivery system and method, and server apparatus and receiving apparatus used in this content delivery system
US20090003592A1 (en) Content delivery system, delivery server, terminal, and content delivery method
US20110258295A1 (en) Information processing terminal and method thereof
JP2007174642A (en) Method and device for switching content player during streaming playback
KR102499231B1 (en) Receiving device, sending device and data processing method
KR20030094602A (en) Method for reproducing a chatting data in interactive optical disc player, and method for providing a chatting data in contents provide server
KR102085192B1 (en) Rendering time control
KR102630037B1 (en) Information processing device, information processing method, transmission device, and transmission method
JP2009130866A (en) Media playback system and method
JP2007274105A (en) Remote operation method, communication system, mobile communication terminal, and remote server
KR101482736B1 (en) Broadcast receiver to provide a list of recorded files to external devices, Method for providing recorded files, and System using the same
US20120023164A1 (en) Network control device, network control system, network control method, and program
WO2012025971A1 (en) Content conversion device, content conversion method, content conversion program, and content delivery system
WO2016174959A1 (en) Reception device, transmission device, and data processing method
WO2019188485A1 (en) Information processing device, information processing device, and program
CN106453255B (en) Method, UPnP device and system for realizing service continuous playing
JP5071626B2 (en) Video content file and server device
JP2008060945A (en) Distribution system and method
JP6817351B2 (en) Server equipment, service methods, and programs
JP2004112086A (en) Method and apparatus for accessing, and streaming media storage server
JP2008011429A (en) Content processing method and content processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090407