JP2010157961A - Caption creation system and program - Google Patents

Caption creation system and program Download PDF

Info

Publication number
JP2010157961A
JP2010157961A JP2009000151A JP2009000151A JP2010157961A JP 2010157961 A JP2010157961 A JP 2010157961A JP 2009000151 A JP2009000151 A JP 2009000151A JP 2009000151 A JP2009000151 A JP 2009000151A JP 2010157961 A JP2010157961 A JP 2010157961A
Authority
JP
Japan
Prior art keywords
subtitle
caption
setting box
data
subtitles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009000151A
Other languages
Japanese (ja)
Inventor
Tadashi Fukuda
正 福田
Eiji Yoshikawa
栄治 吉川
Ichiro Hashiba
一郎 橋場
Kazuaki Saka
和明 坂
Ryohei Kosuge
量平 小菅
Toshiyuki Inoko
寿之 猪子
Original Assignee
Kadokawa Marketing Co Ltd
株式会社角川マーケティング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kadokawa Marketing Co Ltd, 株式会社角川マーケティング filed Critical Kadokawa Marketing Co Ltd
Priority to JP2009000151A priority Critical patent/JP2010157961A/en
Publication of JP2010157961A publication Critical patent/JP2010157961A/en
Granted legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily create a caption while enjoying it. <P>SOLUTION: A caption creation system comprises: a motion picture playback region R1 for playing back and displaying motion picture data; a time-line display area TL for displaying a time-line of the motion picture data being played back in the motion picture playback region R1; and a caption editing region R6 for registering a caption to a caption setting box BX allocated inside the time-line display area. A period of time to display the caption registered to the caption setting box is specified from front and rear end positions of a time of the time-line display area, and information specifying the period of time for display is stored in a caption data storage section in association with the registered caption. By allocating the caption setting box inside the time-line display area, it can be easily determined whether or not the period of time playing back the caption is appropriate. One caption data item can be created by a plurality of persons, so that it is enough for each person to register only a part of caption comprehensible for the person, and it is possible to be participated in caption creation at ease with a sense of play. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、字幕作成システム及びプログラムに関する。   The present invention relates to a caption creation system and program.
近年、映画や放送番組などの映像コンテンツのデジタル化が急速に進み、デジタル化された映像コンテンツが、デジタル放送やインターネット配信で視聴者に届けられるようになってきた。また、インターネットの普及に伴い、インターネット上に多数の動画共有サイトが存在し、その動画共有サイトにアップロードした動画(映像コンテンツ)を、他のユーザが自己の端末(パーソナルコンピュータ:パソコン)上で視聴することができるようになっている。この種の放送或いは配信される映像コンテンツ等のコンテンツは、予め動画データと副次データとが一体となって作成されたコンテンツが使用されている。副次データとしては、たとえば、動画データに対応する字幕スーパ等がある。   In recent years, video content such as movies and broadcast programs has been rapidly digitized, and digitized video content has been delivered to viewers through digital broadcasting and Internet distribution. In addition, with the spread of the Internet, there are many video sharing sites on the Internet, and other users can watch videos (video content) uploaded to the video sharing sites on their terminals (personal computers: personal computers). Can be done. For this type of content such as broadcast or distributed video content, content previously created by integrating moving image data and subsidiary data is used. As the secondary data, for example, there is a caption super corresponding to moving image data.
このように動画データと、字幕スーパ等の副次データと、が一体となっているコンテンツでは、動画データと字幕スーパとを重畳させて1本の映像マスタを作成する。この映像マスタに取り込まれた副次データ(字幕スーパ)は画像データとして扱われる。したがって、一旦映像マスタを作成した後、字幕スーパ等の副次データの内容の修正を行う場合、非常に煩雑となる。つまり、例えば字幕スーパの手直しが発生すると、元の字幕スーパのデータを読み出し、必要箇所を修正し、修正後の字幕スーパを再度動画データと重畳して映像マスタを再度作成することになる。   As described above, in the content in which the moving image data and the subsidiary data such as caption super are integrated, the moving image data and the caption super are superimposed to create one video master. The subsidiary data (caption super) captured by the video master is handled as image data. Accordingly, once the video master is created, the contents of the subsidiary data such as subtitle super are corrected. In other words, for example, when the reworking of the subtitle super occurs, the original subtitle super data is read out, the necessary portion is corrected, and the corrected subtitle super is superimposed on the moving image data again to create the video master again.
また、字幕スーパは、その映像コンテンツを視聴する人が理解できる言語で記載される必要があるため、世界各国に配信する場合、字幕スーパも各国ごとに編訳したものを用意する必要がある。そして、各言語の字幕スーパを、それぞれ動画データに重畳し、言語ごとの映像コンテンツ(映像マスタ)を作成し、管理・配信することになる。   Also, since the caption super is required to be described in a language that can be understood by the viewer of the video content, it is necessary to prepare a caption super that is translated for each country when it is distributed around the world. Then, the subtitle super of each language is superimposed on the moving image data, and video content (video master) for each language is created, managed, and distributed.
よって、仮に10種類の字幕スーパを用意した場合(同一言語で複数個用意した場合も含む)、10種類の映像コンテンツが作成されることになり、各映像コンテンツ内に、字幕スーパに比べてその容量が遙かに大きい動画データを含むことになる。この10個の動画データの内容はいずれも同一であるにもかかわらず、それぞれの映像コンテンツ内に同一の動画データを含むことになり、記憶容量も多く必要となる問題があるばかりでなく、動画データの修正を行った場合、各言語用の映像コンテンツ内における動画データ部分の同一性が担保できなくなるおそれもある。   Therefore, if 10 types of subtitle super are prepared (including the case where a plurality of subtitles are prepared in the same language), 10 types of video content will be created. It will contain video data with much larger capacity. Although the contents of the ten moving image data are all the same, the same moving image data is included in each video content, and there is a problem that a large storage capacity is required. When the data is corrected, there is a possibility that the identity of the moving image data portion in the video content for each language cannot be secured.
そこで、係る問題を解決するため、たとえば、特許文献1に開示された技術が提案されている。この特許文献1に開示された発明は、字幕スーパ等の副次データに、動画データと同期をとるための同期データ(動画データの再生開始ポイントと再生終了ポイントとして動画データを構成する所定のフレームを特定するためコード)を格納し、その副次データと動画データを別々のファイルとして保存し、再生時には、その同期をとるためのデータに基づき動画データと字幕スーパとをそれぞれの再生タイミングを合わせて再生する。これにより、その映像コンテンツを視聴しようとする利用者端末上では、同期データで特定される動画データの再生中は、それに関連づけられた副次データである字幕スーパが再生されることになる。   In order to solve the problem, for example, a technique disclosed in Patent Document 1 has been proposed. The invention disclosed in Patent Document 1 is based on secondary data such as subtitle super, synchronization data for synchronizing with moving image data (predetermined frames constituting moving image data as a reproduction start point and a reproduction end point of moving image data). Code) to store the secondary data and video data as separate files, and at the time of playback, match the playback timing of the video data and subtitle super on the basis of the data for synchronization To play. As a result, on the user terminal that intends to view the video content, during playback of the moving image data specified by the synchronization data, the caption super, which is secondary data associated therewith, is played back.
よって、この特許文献1に開示された発明では、字幕スーパの内容を修正する場合、該当する字幕スーパのファイルのみを変更するだけでよく、動画データに対する再度の重畳処理などを行う必要が無いので、作業が簡単に行える。また、動画データも1つのみ記憶しておけばよいので、記憶容量の削減を図ると共に並びに管理も用意になる。   Therefore, in the invention disclosed in Patent Document 1, when the content of subtitle super is corrected, it is only necessary to change the file of the corresponding subtitle super, and it is not necessary to perform the superimposing process again on the video data. , Work is easy. Further, since only one moving image data needs to be stored, the storage capacity is reduced and management is also prepared.
しかしながら、上記の従来技術は、動画データ(映像コンテンツ)を配信しようする人(依頼者)が、翻訳者等の副次データを作成する人に対して依頼をし、作成した副次データのファイルを動画データと共に配信するシステムを想定し、構築されている。従って、依頼者にとっても、副次データである字幕スーパを作成する翻訳者は、限られた特定の人であることが前提となっている。つまり、副次データが字幕スーパの場合、特定の1人または複数の人によって1または複数の字幕スーパのファイルを作成し、その作成した字幕スーパのファイルを所定のサーバ(動画データを登録したサーバと同じである必要はない)に登録し、インターネット等を介してユーザにかかる字幕スーパ付の動画データを配信するのに適したものである。このように、字幕スーパを作成するのが特定の限られた人であるので、特許文献1の技術でも問題はなかった。   However, in the above prior art, a person (requester) who wants to distribute moving image data (video content) makes a request to a person who creates subsidiary data such as a translator, and the created subsidiary data file Is assumed to be a system that distributes video together with video data. Therefore, it is assumed that the translator who creates the subtitle super data that is the secondary data is also a limited specific person. That is, when the subsidiary data is subtitle super, one or a plurality of subtitle super files are created by a specific person or a plurality of persons, and the subtitle super file thus created is stored on a predetermined server (a server on which video data is registered). It is suitable for distributing moving image data with subtitle supervision to the user via the Internet or the like. As described above, since a limited number of people create a caption subtitle, the technique of Patent Document 1 has no problem.
しかし、上記の特許文献1に開示された発明では、字幕スーパを構成するための副次データは、動画データをその先頭から再生しながら、翻訳文を作成し、動画データとの同期をとるための同期データ(字幕スーパを再生(表示)している区間を特定するための動画データの開始フレームと終了フレームを特定するコマンド等)を作成した翻訳文である字幕に関連づけて順次登録していく仕組みを採っているので、作成時の融通性に欠けると共に、同期データの登録等、ある程度、動画データ・映像コンテンツに対する専門知識等が必要となり、操作性も悪いという課題がある。   However, in the invention disclosed in Patent Document 1 described above, the secondary data for constructing the caption subtitle is for reproducing the moving image data from its head, creating a translation, and synchronizing with the moving image data. Are sequentially registered in association with subtitles, which are translated sentences, for which synchronized data (commands for specifying start and end frames of video data for specifying the section in which subtitle super is being played (displayed)) is created Since the system is adopted, there is a problem in that it lacks flexibility at the time of creation, and requires specialized knowledge on moving image data / video content to some extent, such as registration of synchronization data, and has poor operability.
さらに、一旦、サイト上に字幕スーパを含む映像コンテンツをアップロードした後で、その字幕スーパの内容の一部を修正(追加・削除を含む)するようなシステムを考えた場合、特許文献1に開示された技術だけでは対応できないとい課題があった。   Furthermore, when a system that once uploads video content including subtitle super on the site and then corrects (including addition / deletion) a part of the content of the subtitle super is disclosed in Patent Document 1 There was a problem that it was not possible to cope with the technology alone.
さらにまた、特許文献1に開示された技術は、従前の字幕スーパ等の副次データと動画データを一体化することはなく、別々のファイルに格納する点では相違するものの、動画データと、それについての副次データ(字幕スーパ)を事前に作成し、それを公開し、配信するものである点では、従前の配信サービスと同じであった。   Furthermore, the technique disclosed in Patent Document 1 does not integrate the secondary data such as the conventional subtitle super and the moving image data, and is different in that it is stored in separate files. It was the same as the previous distribution service in that the secondary data (subtitle super) was created in advance, released, and distributed.
これに対し、本発明は、新たなインターネット等を利用したサービスとして、字幕スーパに表示する翻訳文の作成者として、不特定の一般のユーザ(会員登録等により、ある程度制限することは可能)を利用し、その一般のユーザが、自己がわかる部分(作成したい部分)についての映像データに対する翻訳文(字幕スーパ)を作成していくことで、最終的に当該動画データについての字幕スーパが完成するというように不特定の一般ユーザが共同して字幕スーパを作成してくようなシステムを考案した。しかし、係るシステムを実現するためには上記の特許文献1の技術では十分でないという課題がある   On the other hand, the present invention provides an unspecified general user (can be limited to some extent by member registration, etc.) as a creator of a translation to be displayed on the caption super as a service using a new Internet or the like. When a general user uses it to create a translation (subtitle super) for the video data for the part that he / she knows (the part he wants to create), the subtitle super for the video data is finally completed. In this way, we devised a system in which unspecified general users collaborate to create subtitle super. However, there is a problem that the technique of Patent Document 1 is not sufficient to realize such a system.
上記の課題を解決するために、本発明は、(1)動画データを再生表示する動画表示部(実施形態の「動画再生領域R1」に対応)と、その動画表示部に再生中の動画データのタイムラインを表示するタイムライン表示エリアと、そのタイムライン表示エリア内に、字幕設定ボックスを割り付ける手段と、その割り付けられた字幕設定ボックスに字幕を登録するテキスト入力手段(実施形態の「字幕編集領域R6」に対応)と、前記タイムライン表示エリアの時間の流れ方向における字幕設定ボックスの両端位置から、その字幕設定ボックスに登録された字幕を表示する期間を特定し、その表示する期間を特定する情報(時間やフレーム等)と、前記登録された字幕を関連づけて字幕用データ記憶部に格納する手段と、を備えた。   In order to solve the above problems, the present invention provides (1) a moving image display unit for reproducing and displaying moving image data (corresponding to “moving image reproduction region R1” in the embodiment), and moving image data being reproduced on the moving image display unit A timeline display area for displaying the timeline, means for assigning a subtitle setting box in the timeline display area, and text input means for registering subtitles in the assigned subtitle setting box ("Subtitle Editing" in the embodiment) And a period for displaying the subtitle registered in the subtitle setting box from the both end positions of the subtitle setting box in the time flow direction of the timeline display area, and specifying the display period Information (time, frame, etc.) to be associated with the registered subtitles and stored in the subtitle data storage unit.
タイムライン表示エリアは、再生中の動画データのタイムラインを表示するもので、現在再生している部分が、スケール線(実施形態のSK)で示されたり、インジケータのように帯状に伸びる先端部分で示されたりするものである。そして、そのタイムライン表示エリア内に、字幕を作成する部分に字幕設定ボックスを設定し、そこに字幕を登録するようにした。そして、その登録した字幕を再生する期間は、字幕設定ボックスの両端位置により自動的に設定される。よって、ユーザは、タイムライン表示エリア内における字幕設定ボックスの両端位置から、直感的にそこに登録された字幕が表示される期間を認識することができる。また、その字幕設定ボックスの設定は、たとえば、動画表示部に描画されている動画を確認し、ある字幕を表示させようとする動画(フレーム)が表示されている最初と最後を指定すること等で行える。この最初と最後の指定は、タイムライン表示エリア内の該当位置をクリック等で指定することなどで行える。つまり、字幕を再生する期間を字幕設定ボックスにより特定するようにしたので、その設定や、期間の認識(確認)を容易に行うことができる。   The timeline display area displays the timeline of the moving image data being played back, and the currently playing portion is indicated by a scale line (SK in the embodiment) or a tip portion extending like a band like an indicator It is shown by. Then, in the timeline display area, a subtitle setting box is set in a portion where the subtitle is created, and the subtitle is registered there. The period for reproducing the registered subtitle is automatically set according to the positions of both ends of the subtitle setting box. Therefore, the user can intuitively recognize the period during which the subtitle registered therein is displayed from the both end positions of the subtitle setting box in the timeline display area. In addition, the setting of the caption setting box is, for example, confirming the movie drawn on the movie display unit, and specifying the beginning and end of the movie (frame) for which a certain caption is displayed is displayed. You can do it. This first and last designation can be made by clicking the corresponding position in the timeline display area. That is, since the subtitle setting period is specified by the subtitle setting box, the setting and the period recognition (confirmation) can be easily performed.
また、字幕設定ボックスは、任意の位置に設定できるので、ユーザは、字幕を登録した期間のみ字幕設定ボックスを設定すればよい。つまり、動画データの全期間にわたり、字幕を設定する必要はなく、自分のわかる部分、作成したい部分のみを部分的に作成し登録することができるので、字幕作成が容易に行える。この字幕作成システムは、インターネットなどの通信・ネットワークを利用し、遠隔地にいるユーザが、上記の機能を備えたサーバにアクセスし、字幕を作成することができる。   Further, since the subtitle setting box can be set at an arbitrary position, the user only needs to set the subtitle setting box during the period in which the subtitle is registered. That is, it is not necessary to set subtitles over the entire period of the moving image data, and only a part that can be understood and a part that is desired to be created can be partially created and registered, so that subtitles can be easily created. In this caption creation system, a user in a remote place can access a server having the above functions and create captions using a communication / network such as the Internet.
(2)テキスト入力手段により入力された字幕は、対応する字幕設定ボックスに表示するようにするとよい。このようにすると、字幕設定ボックスを設定しただけで、字幕の登録が行われていない(忘れている)箇所を容易に見つけることができる。さらに、字幕設定ボックスの長さは、そこに登録された字幕の表示期間の長さに対応するので、短い字幕設定ボックスには、登録する文字数も少なくする必要がある。そこで、ユーザは、字幕設定ボックスの長短から、登録できる有効な文字数(字幕を再生したときに視聴者が読み取り、理解できる文字数)の多少を認識することができ、たとえば、多くの字幕を登録して文字がそのボックスからはみ出たり、ボックスいっぱいになったりするような場合には、文字数が多すぎるので、減らした方がよいことを理解することができる。   (2) Subtitles input by the text input means may be displayed in the corresponding subtitle setting box. In this way, it is possible to easily find a place where subtitles are not registered (forgotten) simply by setting the subtitle setting box. Furthermore, since the length of the caption setting box corresponds to the length of the display period of the caption registered therein, it is necessary to reduce the number of characters to be registered in the short caption setting box. Therefore, the user can recognize the number of valid characters that can be registered (the number of characters that the viewer can read and understand when playing subtitles) from the length of the subtitle setting box. For example, the user can register many subtitles. If the character goes out of the box or fills the box, you can understand that it is better to reduce it because there are too many characters.
(3)編集機能として、前記字幕設定ボックスの両端に位置を変更する機能と、登録した字幕を変更する機能の少なくとも一方を備えるとよい。   (3) As an editing function, it is good to provide at least one of the function which changes a position to the both ends of the said subtitle setting box, and the function which changes the registered subtitle.
(4)前記字幕用データ記憶部に格納した前記動画データについての前記字幕とそれを表示する期間を特定する情報を読み出し、前記タイムライン表示エリア内に前記字幕設定ボックスを表示すると共に、その字幕設定ボックスに字幕が登録されている場合にはその字幕設定ボックス内に字幕を表示する機能と、前記字幕を登録した人以外の他人が、前記タイムライン表示エリア内に新たに字幕設定ボックスを追加する機能と、前記字幕設定ボックス(追加したもの・既存のもの)に対して字幕を登録する機能と、を備えると好ましい。このようにすると、複数の人で1つの字幕を作成することができ、よりよい字幕を簡単に構築していくことができる。また、最初の公開時は、動画データのみ或いは字幕スーパが一部のみ存在する字幕付きの動画データとしては不完全なコンテンツであっても、複数の人が字幕作成に参加することで、徐々に完成に近づいていくといったサービスを提供することができ、各ユーザも遊び感覚で字幕の作成に携わることができ、また、得意な部分のみ字幕の作成を担当すればよく、気軽に参加することができる。   (4) Reading the caption for the moving image data stored in the caption data storage unit and information for specifying a period for displaying the caption, displaying the caption setting box in the timeline display area, and displaying the caption When subtitles are registered in the setting box, a function for displaying subtitles in the subtitle setting box and a person other than the person who registered the subtitles add a new subtitle setting box in the timeline display area And a function for registering subtitles in the subtitle setting box (added / existing one). In this way, a single caption can be created by a plurality of people, and a better caption can be easily constructed. In addition, at the time of the first release, even if it is content that is incomplete as video data with only subtitles or subtitle super, it is gradually It is possible to provide services such as getting closer to completion, and each user can be involved in creating subtitles as if they were playing. it can.
(5)前記動画データについての前記字幕とそれを表示する期間を特定する情報を読み出し、別の字幕用データのファイルとして保存する機能(コピー機能)を備えると好ましい。このようにすると、すでに作成された字幕の一部を利用し別の字幕を作成することができるので、作成の負担が軽減する。また、異なる言語に翻訳するような場合、設定済みの字幕設定ボックスを利用することで、その字幕設定ボックスの設定作業にかかる負担を省略することができる。そして、作成済みの字幕設定ボックスをみることで、その長短並びに設定位置からそれが適切か否かを容易に判断でき、修正することで、自分の感覚にあった字幕を作成することができる。また、動画の一部に字幕が作成されている字幕用データを利用することで、残りの部分の字幕を作成して自分用の字幕用データを作成することができる。よって、新たに最初から作成する場合に比べて、作業負担が軽減する。   (5) It is preferable to provide a function (copy function) for reading out the caption for the moving image data and information for specifying a period for displaying the caption and storing the information as a file for another caption data. In this way, another subtitle can be created using a part of the already created subtitle, so the burden of creation is reduced. Further, when translating into different languages, the burden of setting work for the subtitle setting box can be omitted by using the set subtitle setting box. Then, by looking at the created caption setting box, it is possible to easily determine whether or not it is appropriate from the length and the setting position, and by modifying it, it is possible to create a caption suitable for one's own sense. In addition, by using subtitle data in which subtitles are created in a part of the moving image, it is possible to create subtitle data for the user by creating the remaining subtitles. Therefore, the work load is reduced as compared with the case of newly creating from the beginning.
(6)前記動画データを再生して出力する音声に対して音声認識処理を行い、会話の区切りを検出し、その区切りに基づいて前記字幕設定ボックスの割り付けを行うようにすると好ましい。このようにすると、とりあえず動画データの全体にわたり、字幕設定ボックスの割り付けが行えるので、字幕設定ボックスの割り付けの作業負担が軽減する。もちろん、設定された字幕設定ボックスのすべてに字幕を登録しなくてもよく、自分のわかる箇所、作成したい部分のみ字幕を登録すればよいのは上記の各発明と同様である。また、設定済みの字幕設定ボックスを修正する機能を備えることで、自動設定後に微調整をすることができる。   (6) It is preferable to perform a speech recognition process on the sound output by reproducing the moving image data, detect a conversation break, and assign the caption setting box based on the break. In this way, since the subtitle setting box can be allocated over the entire moving image data for the time being, the work burden of subtitle setting box allocation is reduced. Of course, it is not necessary to register the subtitles in all the set subtitle setting boxes, and it is only necessary to register the subtitles only in the parts that the user can understand and the parts that he / she wants to create. Further, by providing a function for correcting the set caption setting box, fine adjustment can be performed after automatic setting.
(7)前記音声認識処理を行い求めたテキストデータを、前記字幕設定ボックスの字幕として登録する機能を備えるとよい。このようにすると、動画データで再生するのと同じ言語のテキストからなる字幕が登録されるので、別の言語の字幕作成の際の翻訳処理の参考になるので好ましい。   (7) It is preferable to provide a function of registering text data obtained by performing the voice recognition processing as a caption in the caption setting box. This is preferable because subtitles made up of text in the same language as that reproduced with moving image data are registered, which is useful for translation processing when creating subtitles in another language.
(8)本発明のプログラムは、コンピュータを、動画データを再生表示する動画表示手段、その動画表示部に再生中の動画データのタイムラインを表示するタイムライン表示エリア、そのタイムライン表示エリア内に、字幕設定ボックスを割り付ける手段、その割り付けられた字幕設定ボックスに字幕を登録するテキスト入力手段、前記タイムライン表示エリアの時間の流れ方向における字幕設定ボックスの両端位置から、その字幕設定ボックスに登録された字幕を表示する期間を特定し、その表示する期間を特定する情報と、前記登録された字幕を関連づけて字幕用データ記憶部に格納する手段として機能させるためのプログラムである。   (8) A program according to the present invention includes a moving image display means for reproducing and displaying moving image data, a time line display area for displaying a time line of moving image data being reproduced on the moving image display portion, and the time line display area. , Means for assigning a subtitle setting box, text input means for registering subtitles in the assigned subtitle setting box, and registered in the subtitle setting box from both end positions of the subtitle setting box in the time flow direction of the timeline display area. This is a program for specifying a period for displaying a closed caption, and for functioning as a means for associating the information for specifying the displayed period with the registered caption and storing it in the caption data storage unit.
本発明は、字幕設定ボックスを用い、タイムライン表示エリア内に字幕設定ボックスを割り付けることで、字幕を再生している期間が適切か否かを容易に判断でき、字幕設定ボックスを適切に設定することができるので字幕の作成が容易に行えるようになる。また、1つの字幕用データを、複数の人で作成できるようにした場合、各人は、わかる部分の字幕を登録すればよく、遊び感覚で気軽に字幕作成に参加できる。   The present invention uses a subtitle setting box and assigns the subtitle setting box in the timeline display area, so that it is possible to easily determine whether or not the subtitle playback period is appropriate, and to set the subtitle setting box appropriately. This makes it easy to create subtitles. In addition, when a single subtitle data can be created by a plurality of people, each person can register a subtitle of an understandable part and can easily participate in subtitle creation as if it were a play.
本システムの好適な一実施形態を示す図である。It is a figure showing one suitable embodiment of this system. 字幕付の動画の表示例を示す図である。It is a figure which shows the example of a display of the moving image with a caption. 字幕が付与されていない場合の「元動画詳細」タブを選択した場合の表示画面の一例を示す図である。It is a figure which shows an example of the display screen at the time of selecting the "original moving image detail" tab in case the subtitle is not provided. 字幕が付与されていない場合の「この動画の他の字幕」タブを選択した場合の表示画面の一例を示す図である。It is a figure which shows an example of the display screen at the time of selecting the "other subtitles of this moving image" tab when the subtitle is not provided. 字幕付与画面の一例を示す図であるIt is a figure which shows an example of a caption provision screen. 字幕説明入力画面の一例を示す図である。It is a figure which shows an example of a caption description input screen. 「字幕説明」タブを選択した場合の表示画面の一例を示す図である。It is a figure which shows an example of the display screen at the time of selecting the "subtitle description" tab. 「字幕内容」タブを選択した場合の表示画面の一例を示す図である。It is a figure which shows an example of the display screen at the time of selecting a "subtitle content" tab. 「この動画の他の字幕」タブを選択した場合の表示画面の一例を示す図である。It is a figure which shows an example of the display screen at the time of selecting the "other subtitles of this moving image" tab.
以下、図面を用いて本発明の好適な実施形態を説明する。本発明では、インターネット等の通信・ネットワークを利用し、一般の人が参加し、共同作業により字幕スーパを構成する翻訳文等を作成することができるものである。図1に示すように、各ユーザが使用する利用者端末1は、インターネット2を介して字幕作成提供サーバ10にアクセス可能となっている。また、このインターネット2には、各種の動画データサーバ3も接続されている。この動画データサーバ3と、字幕作成提供サーバ10とは、物理的に同一のもので構成されていても良いし、別のものでも良い。動画データサーバ3は、各種の動画共有サイトのサーバでもよいし、その他の動画データを格納しているサーバでもよい。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the present invention, it is possible to use a communication / network such as the Internet to create a translated sentence or the like that constitutes a caption superuser through collaborative work with participation of ordinary people. As shown in FIG. 1, a user terminal 1 used by each user can access a subtitle creation and provision server 10 via the Internet 2. Various video data servers 3 are also connected to the Internet 2. The moving image data server 3 and the caption creation / providing server 10 may be configured by physically the same server or different servers. The moving image data server 3 may be a server of various moving image sharing sites or a server storing other moving image data.
字幕作成提供サーバ10は、インターネット2に接続してデータの送受を行うための通信インタフェース11と、所定の処理を実行する制御部12と、作成した字幕用のデータを格納する字幕用データ記憶部13と、を備えている。さらにこの字幕作成提供サーバ10は、配信する動画(映像)データを記憶する動画データ記憶部を備えていても良い。各処理部の具体的な機能については後述する。   The subtitle creation and provision server 10 includes a communication interface 11 for connecting to the Internet 2 to transmit and receive data, a control unit 12 that executes predetermined processing, and a subtitle data storage unit that stores the generated subtitle data. 13. Further, the subtitle creation and provision server 10 may include a moving image data storage unit that stores moving image (video) data to be distributed. Specific functions of each processing unit will be described later.
ユーザは、利用者端末1を操作し、インターネット2を介して字幕作成提供サーバ10にアクセスし、動画データサーバ3に格納されている映像データに対して付与する字幕スーパ用のデータを入力する。この入力された字幕スーパ用のデータは、字幕用データ記憶部13に格納される。そして、たとえば、字幕作成提供サーバ10が、利用者端末1から字幕付の動画(映像コンテンツ)の視聴要求を受けると、視聴要求された映像コンテンツの動画データが格納された動画データサーバ3を認識し、その格納された動画データを利用者端末1に配信すると共に、それに同期させて字幕用データ記憶部13に格納された字幕スーパを利用者端末1に配信する。これにより、利用者端末1の表示装置の表示画面には、図2に示すように、動画再生領域R1に動画データを再生表示し、その動画再生領域R1の下に用意した副次データ表示領域R2に読み出した字幕(テキストデータ)を表示する。なお、この動画データと字幕とを同期して再生・描画出力する機能は、特許文献1に開示された技術を用いることができるので、その詳細な説明を省略する。   The user operates the user terminal 1, accesses the subtitle creation and provision server 10 via the Internet 2, and inputs subtitle super data to be given to the video data stored in the video data server 3. The input subtitle super data is stored in the subtitle data storage unit 13. For example, when the caption creation providing server 10 receives a viewing request for a moving image (video content) with caption from the user terminal 1, the moving image data server 3 storing the moving image data of the requested video content is recognized. Then, the stored moving image data is distributed to the user terminal 1, and the subtitle super stored in the subtitle data storage unit 13 is distributed to the user terminal 1 in synchronization therewith. Thereby, on the display screen of the display device of the user terminal 1, as shown in FIG. 2, the moving image data is reproduced and displayed in the moving image reproduction region R1, and the secondary data display region prepared under the moving image reproduction region R1. The read subtitle (text data) is displayed in R2. In addition, since the technique disclosed in Patent Document 1 can be used for the function of reproducing / drawing and outputting the moving image data and subtitles in synchronization, detailed description thereof will be omitted.
次に、具体的な字幕用のデータの入力のための各処理等を説明しつつ、制御部12の機能を説明する。まず、この字幕作成提供サーバ10は、字幕付きの動画を提供する動画提供(再生)サイト内における一つの機能としての字幕作成提供機能を実現するためのものである。そこで、字幕を作成しようとするユーザは、まず、係るサイトにアクセスし、表示されたリストの中から、自分が字幕を作成しようとする動画を選択する。なお、リストに表示する動画データは、字幕作成提供サーバ10内の記憶部(動画データ記憶部)に格納されたものでも良いし、動画データサーバ3等の別のサーバに格納されたものでも良い。なお、係る処理対象となる動画データの一覧リストの表示や、その表示されたものから選択されたものを呼び出して、利用者端末1の表示装置の表示画面に表示する技術は、従来公知のものを用いることができるので、その詳細な説明を省略する。   Next, the functions of the control unit 12 will be described while describing each process for inputting specific subtitle data. First, the subtitle creation and provision server 10 is for realizing a subtitle creation and provision function as one function in a video providing (playback) site that provides a video with subtitles. Therefore, a user who wants to create subtitles first accesses such a site, and selects a video for which he / she wants to create subtitles from the displayed list. Note that the moving image data to be displayed in the list may be stored in a storage unit (moving image data storage unit) in the subtitle creation and provision server 10, or may be stored in another server such as the moving image data server 3. . A technique for displaying a list of moving image data to be processed or displaying a list selected from the displayed data and displaying it on the display screen of the display device of the user terminal 1 is conventionally known. The detailed description thereof will be omitted.
このようにして字幕を作成する処理対象の動画が選択されたならば、利用者端末1の表示仮面には、たとえば図3に示すような表示レイアウトの画面が描画される。すなわち、左上には、動画(映像)を再生する動画再生領域R1が用意され、その動画再生領域R1の下に、字幕を再生するための副次データ表示領域R2が用意される。副次データ表示領域R2には、動画再生領域R1にて再生中の動画データに関連づけられた字幕が存在している場合には、再生中の動画に対応する字幕(テキスト)が出力される。新規登録の場合には、関連づけられた字幕がないので、図に示すように「この動画の字幕を新しく作成」と記載された新規作成ボタン領域B2が用意されており、この新規作成ボタン領域B2をクリックすると、字幕付与画面へ遷移する。   If a processing target moving image for creating captions is selected in this way, a screen having a display layout as shown in FIG. 3 is drawn on the display mask of the user terminal 1, for example. That is, a moving image reproduction area R1 for reproducing a moving image (video) is prepared in the upper left, and a secondary data display area R2 for reproducing subtitles is prepared under the moving image reproduction area R1. If there is a subtitle associated with the moving image data being reproduced in the moving image reproduction region R1 in the subsidiary data display region R2, the subtitle (text) corresponding to the moving image being reproduced is output. In the case of new registration, since there is no associated subtitle, a new creation button area B2 in which "Create a new caption for this video" is prepared as shown in the figure, and this new creation button area B2 Click to go to the caption assignment screen.
この副次データ表示領域R2の下には、細長な再生操作ボタン表示領域R3が用意される。再生操作ボタン表示領域R3は、左端に設けられた動作ボタン(図では、“三角形のマーク”)B1をクリックすることとで、動画再生領域R1に描画される動画の再生・一時停止を指示することができる。また、再生操作ボタン表示領域R3に示されるインジケータ部分IBは、動画再生領域R1に描画する動画データのダウンロード状況を示すものである。また、ポインティングデバイスを操作し、このインジケータ部分IBの適宜位置をポインタでクリック等することで、そのクリックした位置に対応する部分からの動画再生を行う。これらの機能も、一般的な公知の技術であるので、その内部処理を含めた具体的な説明を省略する。   Below this secondary data display area R2, a narrow reproduction operation button display area R3 is prepared. The reproduction operation button display area R3 instructs to play / pause the moving picture drawn in the moving picture reproduction area R1 by clicking the operation button ("triangle mark" in the figure) B1 provided at the left end. be able to. The indicator portion IB shown in the playback operation button display area R3 indicates the download status of the video data to be drawn in the video playback area R1. Further, by operating the pointing device and clicking an appropriate position of the indicator portion IB with a pointer, a moving image is reproduced from the portion corresponding to the clicked position. Since these functions are also generally known techniques, a specific description including the internal processing is omitted.
動画再生領域R1の右側には、関連情報表示領域R4が用意されている。この関連情報表示領域R4は、図示するように上端に用意された4つのタブのうち選択された他部についての情報が表示される。4つのタブは、「字幕説明」,「字幕内容」,「この動画の他の字幕」,「元動画詳細」である。なお、各タブが選択された場合に、関連情報表示領域R4に表示される情報は、適宜後述する。また、字幕が付与されていない場合には、字幕について提示する情報がないので、「字幕説明」のタブ並びに「字幕内容」のタブは非アクティブになり、係るタブがクリックして選択することができないようになっている。   A related information display area R4 is prepared on the right side of the moving image reproduction area R1. In the related information display area R4, information about the other part selected from the four tabs prepared at the upper end as shown in the figure is displayed. The four tabs are “subtitle description”, “subtitle content”, “other subtitles of this video”, and “original video details”. Note that information displayed in the related information display area R4 when each tab is selected will be described later as appropriate. In addition, when no subtitle is given, there is no information to be presented about the subtitle, so the “Subtitle Description” tab and the “Subtitle Content” tab are inactive, and the tab can be selected by clicking. I can't do it.
まず、図3に示すように、元動画詳細タブが選択された場合の関連情報表示領域R4には、字幕を作成する対象となる動画について、元々付記されていた説明文が表示される。つまり、所定のサーバに動画データを登録するに際し、動画データのみ登録するのではなく、その動画の内容を説明・解説するための説明文を関連づけて登録することが多々あり、制御部12は、係る説明文が登録されている場合に当該説明文を読み出し、この関連情報表示領域R4に表示するのである。従って、係る説明文がない場合には、ブランク表示となる。   First, as shown in FIG. 3, in the related information display area R4 when the original moving image detail tab is selected, the explanatory text originally added to the moving image for which the caption is to be created is displayed. That is, when registering moving image data in a predetermined server, not only moving image data is registered, but there are many cases where an explanatory text for explaining / explaining the content of the moving image is associated and registered. When such an explanatory text is registered, the explanatory text is read and displayed in the related information display area R4. Accordingly, when there is no such explanatory text, the display is blank.
また、字幕が付与されていない場合に「この動画の他の字幕」タブが選択された場合、図4に示すような表示が行われる。すなわち、選択している動画データに字幕が付与されていない場合、制御部12は、関連情報表示領域R4内に「この動画にはまだ、字幕はありません」とのメッセージとともに、図に示すように「この動画の字幕を新しく作成」と記載された新規作成ボタン領域B2′を表示する。そして、この新規作成ボタン領域B2′をクリックすると、字幕付与画面へ遷移する。   Further, when the “other subtitles of this moving image” tab is selected when no subtitles are given, the display as shown in FIG. 4 is performed. That is, when no caption is added to the selected video data, the control unit 12 displays a message “There is no caption for this video yet” in the related information display area R4 as shown in the figure. A new creation button area B2 ′ in which “Create a new caption for this moving image” is displayed. Then, when this new creation button area B2 ′ is clicked, a transition is made to the caption provision screen.
さらに、制御部12は、字幕用データ記憶部13をアクセスし、選択されている動画と同じ部分を含む動画或いは関連する動画について付与された他の字幕データをサーチし、検出された場合には、その結果を関連情報表示領域R4の下側に「おすすめ字幕付動画」としてリスト表示する。このリスト表示する際の表示情報は、動画を表す代表図(最初のフレーム等)と、タイトル等のテキスト情報がある。また、このリストアップされた字幕のついた動画をクリックすると、制御部12は、その動画データと字幕の同期をとって再生する。   Further, the control unit 12 accesses the subtitle data storage unit 13 and searches for other subtitle data provided for a moving image including the same part as the selected moving image or a related moving image. The result is displayed as a list with “recommended subtitled video” below the related information display area R4. Display information for displaying the list includes a representative diagram (first frame or the like) representing a moving image and text information such as a title. When the video with the subtitles listed is clicked, the control unit 12 reproduces the video data in synchronism with the subtitles.
新規作成ボタン領域B2或いはB2′がクリックされたことを認識すると、制御部12は、字幕付与画面に遷移する。この字幕付与画面は、図5に示すように、動画再生領域R1,副次データ表示領域R2,再生操作ボタン表示領域R3並びに関連情報表示領域R4の下方に、字幕エリア設定領域R5と、字幕編集領域R6とを配置したレイアウトを採る。   When recognizing that the newly created button area B2 or B2 ′ has been clicked, the control unit 12 transitions to a caption providing screen. As shown in FIG. 5, the subtitle assignment screen includes a subtitle area setting area R5 and a subtitle editing area below the moving image reproduction area R1, the secondary data display area R2, the reproduction operation button display area R3, and the related information display area R4. A layout in which the region R6 is arranged is taken.
字幕エリア設定領域R5は、現在再生している部分を含む拡大タイムライン表示エリアTLと、その拡大タイムライン表示エリアTLの下端に配置し、動画全体における現在再生(表示)しているフレーム位置を特定するためのインジケータIを備える。拡大タイムライン表示エリアTLは、字幕エリア設定領域R5の右端に用意したスライダSを上下移動させることで、字幕エリア設定領域R5の表示エリアの拡大/縮小を行う。本実施形態では、この拡大タイムライン表示エリアTL内に、そのタイムラインに合わせて字幕設定ボックス(字幕入力エリア)BXを設定可能としている。この字幕設定ボックスBXは、設定された字幕を表示している期間(タイミング)を規定するためのもので、その字幕設定ボックスBXの四角い枠(箱)の前端位置から後端位置までに対応する時間中、その字幕設定ボックスBXに登録された字幕(テキスト)を表示し続ける。   The caption area setting area R5 is arranged at the lower end of the enlarged timeline display area TL including the currently reproduced portion and the enlarged timeline display area TL, and the currently reproduced (displayed) frame position in the entire moving image. An indicator I for specifying is provided. The enlarged timeline display area TL enlarges / reduces the display area of the subtitle area setting area R5 by moving the slider S prepared at the right end of the subtitle area setting area R5 up and down. In the present embodiment, a caption setting box (caption input area) BX can be set in the enlarged timeline display area TL according to the timeline. This subtitle setting box BX is for defining the period (timing) during which the set subtitle is displayed, and corresponds to the square frame (box) of the subtitle setting box BX from the front end position to the rear end position. During the time, the subtitle (text) registered in the subtitle setting box BX is continuously displayed.
この字幕設定ボックスBXの指定(設定)は、ポインティングデバイスを操作し、拡大タイムライン表示エリアTL内の所望位置をクリック(たとえば、ポインティングデバイスの左クリック)することで、前端位置が設定され、その状態(ポインティングデバイスのボタンを押した状態まま)でポインティングデバイスを移動し、所望の位置で当該ボタンを離すことで、その離した位置で後端位置が設定される。もちろん、その他の方法により字幕設定ボックスBXの前後の位置を特定するようにしてもよい。いずれの場合も、ユーザがポインティングデバイスの操作により、拡大タイムライン表示エリアTL内の所望の位置を指定することで字幕設定ボックスBXの前後端位置を指定できるようにすると、指定が直感的に簡単に行えるので好ましい。   This subtitle setting box BX is specified (set) by operating the pointing device and clicking the desired position in the enlarged timeline display area TL (for example, left clicking on the pointing device) to set the front end position. When the pointing device is moved in a state (while the button of the pointing device is being pressed) and the button is released at a desired position, the rear end position is set at the released position. Of course, the positions before and after the caption setting box BX may be specified by other methods. In any case, if the user can designate the front and rear end positions of the caption setting box BX by designating a desired position in the enlarged timeline display area TL by operating the pointing device, the designation is easy and intuitive. This is preferable.
さらに、拡大タイムライン表示エリアTL内には、動画再生領域R1に現在再生されている動画のフレーム部分がスケール線SKとして表示されているので、その動画再生領域R1で再生されている動画をみながらスケール線SKを確認することで、字幕設定ボックスBXの前後端位置を特定するのが容易に行える。   Furthermore, in the enlarged timeline display area TL, the frame portion of the moving image currently being reproduced in the moving image reproduction region R1 is displayed as the scale line SK. Therefore, the moving image reproduced in the moving image reproduction region R1 is viewed. However, by confirming the scale line SK, the front and rear end positions of the caption setting box BX can be easily specified.
そして、このようにして字幕設定ボックスBXの前後端位置を設定したならば、制御部12は、その前後端位置の時間データ(動画の再生開始からの経過時間)を認識するとともに、それに対応する動画データのフレームを特定する。そして、それらのデータを字幕設定ボックスBXと関連づけて記憶する。具体的には、字幕設定ボックスBXを特定するレコード番号(たとえば、作成順に割り当てられる)と、その字幕の再生開始時間/終了時間等を関連づけて、動画データ記憶部13に格納する。また、このデータには、実際の字幕として再生するテキストデータ(後述する処理により指定)も関連付けて登録することになる。   Then, when the front and rear end positions of the caption setting box BX are set in this way, the control unit 12 recognizes time data (elapsed time from the start of reproduction of the moving image) of the front and rear end positions and responds to the time data. Identify the frame of the video data. These data are stored in association with the caption setting box BX. Specifically, a record number (for example, assigned in the order of creation) for specifying the caption setting box BX and the reproduction start time / end time of the caption are associated with each other and stored in the moving image data storage unit 13. In addition, text data to be reproduced as actual subtitles (specified by processing to be described later) is also registered in association with this data.
また、本実施形態では、字幕設定ボックスBXの指定は、拡大タイムライン表示エリアTL内の任意の位置に対して、任意の大きさで指定できる。そして、字幕は、その字幕設定ボックスBXが設定された箇所に対して行える。従って、図示するように、前後に間隔があいた穴あき状態で字幕設定ボックスBXを設定することができる。また、このように穴あきとなり、字幕設定ボックスBXが設定されていない空白部分をクリックすると、そこに新たな字幕設定ボックスBXを設定する機能を設けても良い。この場合の前後端位置は、前後の字幕設定ボックスBXとの境界とすることができる。   In the present embodiment, the designation of the caption setting box BX can be designated with an arbitrary size with respect to an arbitrary position in the enlarged timeline display area TL. Subtitles can be made at locations where the subtitle setting box BX is set. Therefore, as shown in the figure, the subtitle setting box BX can be set in a perforated state with a space in the front and rear. Moreover, a function may be provided in which a new subtitle setting box BX is set there by clicking on a blank portion that is perforated and does not have the subtitle setting box BX set therein. The front and rear end positions in this case can be the boundary with the front and rear caption setting boxes BX.
上記のように、穴あきで字幕設定ボックスを設定することが許容されているので、ユーザは、自己が作成したい部分の字幕について、その字幕データを登録することができる。これにより、ユーザは、動画データのすべての部分について字幕を作成する必要がなくなるので、作業負担が軽減する。また、残りの部分についての字幕については、この作成した字幕データに追加、あるいはその字幕データを引用(コピー)して別途作成することができる。この場合、追加部分の字幕については、他の人が行うこともできるので、ユーザは、気軽に字幕の作成を行うことができ、しかも、複数の参加者により徐々に字幕スーパが完成していく新しいサービスを提供することができる。   As described above, since it is permitted to set a subtitle setting box with a hole, the user can register the subtitle data for the subtitle of the portion he / she wants to create. This eliminates the need for the user to create subtitles for all parts of the moving image data, thus reducing the work load. In addition, subtitles for the remaining part can be created separately by adding to the created subtitle data or by quoting (copying) the subtitle data. In this case, since the subtitles of the additional part can be performed by other people, the user can easily create subtitles, and the subtitle super is gradually completed by a plurality of participants. New services can be provided.
実際の字幕スーパとして描画する字幕(テキストデータ)の入力は、字幕編集領域R6を利用して行う。すなわち、字幕編集領域R6に、テキストデータを入力すると、1または複数の字幕設定ボックスBXのうち、アクティブとなっている1つの字幕設定ボックスBXに対する字幕データの登録が行われる。ここで、アクティブとなる字幕設定ボックスBXは、たとえば、上述したように新たに字幕設定ボックスBXを設定した場合、その字幕設定ボックスBXがアクティブとされる。また、すでに設定済みの字幕設定ボックスBXをクリックして選択すると、その字幕設定ボックスBXがアクティブになる。なお、このように字幕設定ボックスBXをクリックすると、制御部12は、タイムライン上におけるそのクリックした位置に対応するフレームを動画再生領域R1に描画するとともに、カーソル線SKを拡大タイムライン表示エリアTL内のクリックした位置に描画する。このような制御を行うことで、現在入力しようとする字幕のテキストデータに対応する動画を見ながら字幕の入力作業を行える。   The input of subtitles (text data) to be drawn as an actual subtitle super is performed using the subtitle editing area R6. That is, when text data is input to the caption editing area R6, the caption data is registered for one active caption setting box BX among one or more caption setting boxes BX. Here, for the caption setting box BX that becomes active, for example, when the caption setting box BX is newly set as described above, the caption setting box BX is activated. Further, when the already-set subtitle setting box BX is clicked and selected, the subtitle setting box BX becomes active. When the subtitle setting box BX is clicked in this way, the control unit 12 draws a frame corresponding to the clicked position on the timeline in the moving image reproduction region R1, and also displays the cursor line SK in the enlarged timeline display area TL. Draw at the clicked position. By performing such control, the subtitle input operation can be performed while watching the moving image corresponding to the text data of the subtitle to be currently input.
そして、字幕編集領域R6にテキストデータが入力されると、制御部12は、その入力されたテキストデータを、現在アクティブの字幕設定ボックスBXに関連づけて字幕用データ記憶部13に登録すると共に、拡大タイムライン表示エリアTL内のアクティブの字幕設定ボックスBXと、副次データ表示領域R2と、関連情報表示領域R4のそれぞれの所定位置に当該テキストデータを描画する。関連情報表示領域R4には、字幕設定ボックスBXごとに対応した四角い字幕データ表示枠が用意され、その字幕データ表示枠内に、テキストデータとそれを描画する時間(開始時間と終了時間)を描画するようになる。また、この字幕データ表示枠の右端には、“削除”ボタンが用意され、制御部12は、この“削除”ボタンがクリックされたことを認識すると、対応する字幕設定ボックスBXに関するデータを一括して削除する処理を行う。   When text data is input to the caption editing area R6, the control unit 12 registers the input text data in the caption data storage unit 13 in association with the currently active caption setting box BX, and expands the text data. The text data is drawn at predetermined positions in the active caption setting box BX, the secondary data display area R2, and the related information display area R4 in the timeline display area TL. In the related information display area R4, a square subtitle data display frame corresponding to each subtitle setting box BX is prepared, and text data and a time (start time and end time) for drawing the text data are drawn in the subtitle data display frame. To come. In addition, a “delete” button is prepared at the right end of the subtitle data display frame, and when the control unit 12 recognizes that the “delete” button has been clicked, data related to the corresponding subtitle setting box BX are collectively displayed. To delete.
従って、字幕の登録が進むと、関連情報表示領域R4には、図5に示すように、タイムラインごとに字幕データ表示枠を並べて表示されるし、拡大タイムライン表示エリアTL内にもタイムラインごとに並んで字幕に表示するテキストデータが表示される。そして、拡大タイムライン表示エリアTLは、現在動画再生領域R1にて再生されている部分が表示されるが、関連情報表示領域R4に出力されている字幕データ表示枠は、その領域の右端に設けられたスライダを上下することで、現在再生されていない部分の字幕をみることもできるので、現在の字幕の作成の参考になる。さらに、拡大タイムライン表示エリアTL内の字幕設定ボックスBXのうち、空白のただの箱のものが存在する場合、字幕スーパを表示する枠を確保したものの、具体的な字幕が未入力であることを意味する。よって、設定した字幕設定ボックスBXに空欄のものがないことを確認することで、字幕の登録のし忘れを抑制できる。もちろん、一旦字幕を入力した字幕設定ボックスBXを選択すると、入力済みの字幕(テキストデータ)が字幕編集領域R6に出力されるので、その出力されたテキストに対し、追加・削除・変更等の編集処理を行うことで、入力済みのデータを変更できる。   Therefore, when registration of subtitles proceeds, as shown in FIG. 5, subtitle data display frames are displayed side by side for each timeline in the related information display area R4, and the timeline is also displayed in the enlarged timeline display area TL. Text data to be displayed in the subtitles are displayed side by side. In the enlarged timeline display area TL, the part currently reproduced in the moving image reproduction area R1 is displayed, but the caption data display frame output in the related information display area R4 is provided at the right end of the area. By moving the slider up and down, you can see the part of the subtitle that is not currently being played back, which is helpful for creating the current subtitle. Furthermore, when there is a blank box among the subtitle setting boxes BX in the enlarged timeline display area TL, a specific subtitle is not input although a frame for displaying the subtitle super is secured. Means. Therefore, confirming that there is no blank in the set caption setting box BX can suppress forgetting to register the caption. Of course, once the subtitle setting box BX with the subtitles input is selected, the input subtitles (text data) are output to the subtitle editing area R6, so that the output text can be edited such as addition / deletion / change. By performing the processing, the input data can be changed.
さらに文字装飾用パレットPが用意されており、字幕編集領域R6内に入力された文字を指定すると共に、文字装飾用パレットPの所定のボタンをクリックすることで、指定した文字ごとに装飾(色・大きさ等の変更・設定)をすることができる。   In addition, a character decoration palette P is prepared. A character input in the subtitle editing area R6 is designated, and a predetermined button for the character decoration palette P is clicked to decorate the character (color).・ Change and set the size.
上記の字幕の入力処理(STEP1)が終了すると、字幕情報入力処理(STEP2)に移行する。この字幕情報入力処理への移行は、図5に示すように、字幕入力画面の下方に、「STEP2字幕情報入力へ」と描画したボタンB3を用意し、それをクリックすることで、図6に示す「字幕情報入力処理画面」に遷移するようにすることで実現している。もちろん、所定のコマンド入力や、メニューリストから選択すること等の方法によっても切り替えることができる。   When the subtitle input process (STEP 1) ends, the process proceeds to a subtitle information input process (STEP 2). As shown in FIG. 5, the transition to the subtitle information input process is as shown in FIG. 6 by preparing a button B3 drawn “STEP2 input subtitle information” at the bottom of the subtitle input screen and clicking it. This is realized by making a transition to the “subtitle information input processing screen” shown. Of course, it can also be switched by a method such as a predetermined command input or selection from a menu list.
図6に示すように、字幕情報入力処理では、先の入力処理で入力した字幕についての情報、つまり、「字幕タイトル」,「字幕説明」,「字幕言語」,「ニックネーム」,「ロックの有無」,「パスワード」である。「字幕タイトル」は、自己が作成した字幕を特定・識別するためのタイトルである。「字幕説明」は、字幕を紹介するための文章である。「字幕言語」はプルダウンメニューでリストアップされたものの中から選択する。「ニックネーム」は、ネット上で公開されるユーザの名前を登録する。作成された字幕の配信の際には、その作成者の名前(ここで登録した「ニックネーム」)も合わせて公開するようにしたので、第三者は、誰が作成した字幕であるかがわかる。これにより、ニックネームを検索キーにすることで、第三者は、お気に入りの作者の字幕を簡単に見つけ、視聴したり、別の字幕データを作成するに際し参考・利用したりすることができる。   As shown in FIG. 6, in the subtitle information input process, information about the subtitles input in the previous input process, that is, “subtitle title”, “subtitle description”, “subtitle language”, “nickname”, “lock presence / absence” "Password". The “subtitle title” is a title for identifying and identifying the subtitle created by itself. “Subtitle explanation” is a sentence for introducing subtitles. "Subtitle language" is selected from those listed in the pull-down menu. “Nickname” registers the name of the user to be disclosed on the net. When the created subtitles are distributed, the name of the creator (“nickname” registered here) is also disclosed so that the third party can know who created the subtitles. Thus, by using the nickname as a search key, a third party can easily find and watch subtitles of his / her favorite author, and reference / use it when creating other subtitle data.
「ロック/ロックフリー」は、いずれかをクリックして選択する。「ロック」が選択された場合、作成した字幕データに対する第三者の編集が不許可となる。一方「ロックフリー」が選択された場合、字幕データに対する第三者の編集が許可される。つまり、登録した字幕データを読み出し、拡大タイムライン表示エリア内における未設定部分のタイムライン中に字幕設定ボックスBXを新たに追加設定したり、既存の(設定済み)の字幕設定ボックスBXを選択し、作成された字幕を編集したりすることができる。また、「パスワード」を付けることで、仮にロックフリーとした場合でも、そのパスワードを知っている限られた人のみが編集することができるようにする機能も備えている。   “Lock / Unlock” is selected by clicking one of them. When “lock” is selected, third-party editing of the created caption data is not permitted. On the other hand, when “lock free” is selected, third-party editing of subtitle data is permitted. In other words, the registered subtitle data is read, and a new subtitle setting box BX is additionally set during the timeline of the unset portion in the enlarged timeline display area, or an existing (set) subtitle setting box BX is selected. You can edit the created subtitles. In addition, by attaching a “password”, a function is also provided so that only a limited number of people who know the password can edit it even if it is unlocked.
そして、字幕情報入力処理画面の下方に設けた、「決定」ボタンをクリックすることで、登録された各データの内容が確定され、字幕用データ記憶部13に登録される。これにより、一連の字幕登録処理(STEP1&2)が完了し、最初に選択した動画データに対して字幕が付与されることになる。   Then, by clicking a “decision” button provided at the bottom of the caption information input processing screen, the contents of each registered data are confirmed and registered in the caption data storage unit 13. As a result, a series of caption registration processing (STEP 1 & 2) is completed, and captions are assigned to the first selected moving image data.
よって、この字幕データの付与に伴い、この動画データが選択された場合には、関連情報表示領域R4に用意された上述した4つのタブ(「字幕説明」,「字幕内容」,「この動画の他の字幕」,「元動画詳細」)が全て選択可能となる。   Therefore, when this moving image data is selected with the addition of the caption data, the above-described four tabs (“Subtitle Description”, “Subtitle Content”, “ “Other subtitles” and “Original video details”) can all be selected.
そして、「字幕説明」タブが選択された場合には、図7に示すように、関連情報表示領域R4には、字幕説明、つまり、付与された字幕そのもののディスクリプションが描画される。つまり、制御部12は、字幕情報入力処理画面で入力され、字幕用データ記憶部13に格納された「字幕タイトル」と「字幕説明」のデータを読み出し、出力する。また、「ロック/ロックフリー」のいずれかを認識し、その状態も合わせて出力する。図7の例では、「ロックフリー」であるので、その説明(編集可能なこと)を合わせて報知している。さらに、「字幕説明」タブで表示される関連情報表示領域R4には、「字幕編集」ボタンB6が用意されており、この「字幕編集」ボタンB6がクリックされると、図5に示した字幕入力画面に遷移し、字幕の入力(編集)ができる。なお、「ロック」状態になっている場合には、作成者以外のユーザが見ている場合、この「字幕編集」ボタンがクリックできないように制御すると良い。   Then, when the “Subtitle Description” tab is selected, as shown in FIG. 7, the related information display area R4 draws the caption description, that is, the description of the assigned caption itself. That is, the control unit 12 reads and outputs the “subtitle title” and “subtitle description” data input on the subtitle information input processing screen and stored in the subtitle data storage unit 13. In addition, it recognizes either “lock / lock free” and also outputs the status. In the example of FIG. 7, since it is “lock free”, the description (that it can be edited) is also notified. Further, in the related information display area R4 displayed in the “Subtitle Description” tab, a “Subtitle Edit” button B6 is prepared. When this “Subtitle Edit” button B6 is clicked, the subtitles shown in FIG. Transit to the input screen and input (edit) subtitles. In the “locked” state, when a user other than the creator is watching, the “subtitle editing” button may be controlled so that it cannot be clicked.
また、「字幕内容」タグが選択された場合には、制御部12は、選択された動画データに関連づけられている字幕を読み出し、図8に示すように、タイムラインごとの字幕を再生順に並べて表示する。また、合わせて動画再生領域R1に動画データを再生すると、制御部12は、再生中の字幕について、バックの色を変える。   When the “subtitle content” tag is selected, the control unit 12 reads the subtitles associated with the selected moving image data, and arranges the subtitles for each timeline in the order of reproduction as shown in FIG. indicate. In addition, when moving image data is reproduced in the moving image reproduction area R1, the control unit 12 changes the background color of the subtitle being reproduced.
さらに、字幕データが付与された動画について、「この動画の他の字幕」タグを選択した場合、図9に示すように、関連情報表示領域R4には、同一の動画について付与されている字幕データのリストが表示される。この表示されたリストの中から、任意のものをクリックすると、動画とともにそのクリックされた他の字幕が再生される。   Further, when the “other subtitles of this video” tag is selected for the video with subtitle data attached, the subtitle data provided for the same video is displayed in the related information display area R4 as shown in FIG. A list of will be displayed. When an arbitrary one is clicked from the displayed list, the clicked subtitle is reproduced together with the moving image.
また、上述したように、最初に字幕データを作成した人と別の人がロックフリーの字幕データを読み出し、更新することで、複数の人が共同して1つの字幕データを作成することもできるし、読み出した字幕データを利用し、その読み出した人が新たな字幕データを作成し別のファイルとして登録することもできる。つまり、字幕用データ記憶部13に登録された字幕データをコピーし、適宜修正したものを新たな字幕用データとして登録することになる。この場合に、基となった読み出した字幕データの作者(ニックネーム)も関連づけて登録され、再生する際には、コピー元の作者名もあわせて表示するようにしている。本実施形態では、動画再生領域R1の上に、「この字幕は、「○○○○」からコピーして編集されました」とのメッセージを描画するようにし、「○○○○」の所にニックネームをはめ込み描画するようにしている。   In addition, as described above, a person different from the person who first created the caption data reads out and updates the lock-free caption data, so that a plurality of persons can jointly create one caption data. Then, using the read subtitle data, the read person can create new subtitle data and register it as another file. That is, the subtitle data registered in the subtitle data storage unit 13 is copied, and appropriately corrected data is registered as new subtitle data. In this case, the author (nickname) of the read subtitle data that is the base is also registered in association with it, and when reproducing, the author name of the copy source is also displayed. In the present embodiment, a message “This subtitle was copied and edited from“ XXXXX ”” is drawn on the video playback area R1, and the location of “XXXXXX” is drawn. The nickname is inserted in the drawing.
本実施形態の字幕作成提供サーバ10を利用することで、以下に示すサービス(システム)を提供することができる。すなわち、動画(映像コンテンツ)の公開時は、動画データのみ或いは字幕スーパが一部のみ存在するといった、字幕の不完全なコンテンツの状態で公開していたり、そもそも、動画共有サイトのように、字幕がない状態で配信されていたりした動画データに対し、動画データの提供者とは別の不特定の一人または複数のユーザが、その後に字幕を付与することができる。そして、そのようにして付与された字幕と動画データとを同期をとりながら配信するサービスにより、第三者は、字幕付きの動画データを視聴することができる。   By using the caption creation / providing server 10 of the present embodiment, the following service (system) can be provided. In other words, when publishing a video (video content), it is published in the state of incomplete subtitle content such as only video data or only a part of subtitle super, or in the first place, as with video sharing sites One or a plurality of unspecified users other than the video data provider can subsequently add subtitles to the video data distributed in the absence of video. A third party can view moving image data with subtitles by a service that distributes the subtitles and moving image data provided in this manner while synchronizing them.
また、字幕を作成する処理に着目すると、本実施形態は、インターネット等を利用した新たなサービスとして、字幕スーパに表示する字幕の作成者として、不特定の一般のユーザ(会員登録等により、ある程度制限することは可能)を利用し、その一般のユーザが、自己がわかる部分(作成したい部分)についての動画データに対する字幕を作成していくことで、最終的に当該動画データについての字幕スーパが完成するというように不特定の一般ユーザが共同して字幕スーパを作成してくことができる。   Focusing on the process of creating subtitles, the present embodiment is a new service using the Internet and the like, as a creator of subtitles displayed on the subtitle supermarket. The general user can create subtitles for the video data for the part that he can understand (the part he wants to create), so that the subtitle super for the video data is finally Unfinished general users can collaborate to create a subtitle super.
また、上記のコピーによる新たな字幕用データを作成する機能を用いることで、翻訳による別の言語を用いた字幕を作成するのが容易に行える。つまり、字幕は、動画データ中の音の発生にあわせて字幕スーパを描画することになる。よって、言語が異なったとしても、ある字幕を再生しているタイムラインは等しくなる。従って、同じ元動画データに対する字幕用データでは、ある言語で作成した字幕設定ボックスBXは、別の字幕用データでも同じに利用できる。そこで、作成済みの字幕を読み出し、そこで設定されている字幕設定ボックスBXを利用し、その字幕設定ボックスBX内に所定の言語からなる翻訳文からなる字幕を順次登録し、別のファイルとして格納するとで、別の言語からなる字幕を作成できる。この場合、字幕の作成処理としては、字幕設定ボックスBXの設定処理は省略できるので、作業性が向上する。しかも、それぞれ設定した字幕が、どのタイムラインで描画されるかは、拡大タイムライン表示エリアTL内にそれぞれタイムラインで割り付けられた字幕設定ボックスBXをみることで、別の人が設定した字幕設定ボックスが正しいか否か(そのまま使えるか否か)を簡単に理解することができる。しかも、表示している時間は、字幕設定ボックスBXの長さに比例するので、それも視覚的に直感的に適しているか否かの判断が行える。このように、簡単にその適否の判断が行えるので、他人が設定した字幕設定ボックスも容易に利用することができる。そして、適していないと判断した場合には、字幕設定ボックスBXの前端位置あるいは後端位置のいずれか一方あるいは両方の位置を修正すればよい。   In addition, by using the above function for creating new caption data by copying, it is possible to easily create captions using another language by translation. That is, subtitles are drawn in accordance with the occurrence of sound in the video data. Therefore, even if the languages are different, the timelines playing a certain subtitle are the same. Therefore, in the subtitle data for the same original moving image data, the subtitle setting box BX created in a certain language can be used in the same way for other subtitle data. Therefore, when the subtitles that have been created are read out, the subtitle setting box BX that is set there is used, subtitles composed of translated sentences in a predetermined language are sequentially registered in the subtitle setting box BX, and stored as a separate file Now you can create subtitles in different languages. In this case, as subtitle creation processing, setting processing of the subtitle setting box BX can be omitted, so that workability is improved. In addition, the timeline in which each set subtitle is drawn is determined by subtitle setting set by another person by looking at the subtitle setting box BX allocated in the timeline in the enlarged timeline display area TL. You can easily understand whether the box is correct (can be used as it is). Moreover, since the displayed time is proportional to the length of the caption setting box BX, it can be determined whether or not it is also visually suitable. As described above, since the suitability can be easily determined, a caption setting box set by another person can be easily used. If it is determined that the subtitle setting box BX is not suitable, one or both of the front end position and the rear end position of the subtitle setting box BX may be corrected.
また、上記の通り、字幕設定ボックスBXの長さが、そのまま描画している時間に比例する。従って、字幕設定ボックスBXが短い場合、そこに登録した字幕は、短時間で消えてしまう。従って、係る場合にあまり文字数が多いと、視聴者は字幕の全部を読み切る前に当該字幕が消えてしまうおそれがある。そこで係る事態の発生を防止するため、字幕設定ボックスBXの長さ(表示時間)に応じて、登録できる文字数に制限を設けると良い。また、文字数に制限を設けないとしても、字幕設定ボックスBXの長さが短いと、字幕編集領域R6に多数の文字を入力した場合に、対応する字幕設定ボックスBXにその入力した文字のすべてが表示されない状態となる。従って、入力した文字を対応する字幕設定ボックスBX内に表示するようにしたので、再生している(描画している)時間に対して文字数が多すぎないかの確認も、簡単に行える。   Further, as described above, the length of the caption setting box BX is proportional to the drawing time as it is. Therefore, when the subtitle setting box BX is short, the subtitle registered there disappears in a short time. Therefore, if the number of characters is too large in such a case, the viewer may lose the subtitle before reading the entire subtitle. Therefore, in order to prevent the occurrence of such a situation, it is preferable to limit the number of characters that can be registered according to the length (display time) of the caption setting box BX. Even if there is no restriction on the number of characters, if the length of the subtitle setting box BX is short, when a large number of characters are input in the subtitle editing area R6, all the input characters are displayed in the corresponding subtitle setting box BX. It will not be displayed. Therefore, since the input characters are displayed in the corresponding subtitle setting box BX, it is possible to easily check whether the number of characters is too large for the reproduction (drawing) time.
また、字幕は、翻訳文つまり動画データが発生している音声の言語と別の言語で記載したテキストデータにかぎることはなく、音声と同じ言語からなるテキストデータでも良い。すなわち、動画データの音声が日本語で、字幕も日本語とした利用形態もあり得る。従って、動画データを再生すると共に、音声認識処理をし、会話ごとに字幕設定ボックスBXを設定すると共に、設定した字幕設定ボックスBXに認識処理をした結果得られたテキストデータを登録する機能を備えると良い。このようにすると、実際に動画データの再生中に、音声を発している部分ごとに字幕設定ボックスBXが割り付けられるので、係る字幕設定ボックスの割り付けが簡単かつ正確に行えるので好ましい。そして、実際に発生している文章が、自動的に登録されるので、翻訳文を作成する人は、その音声認識された元となる言語を見ながら翻訳できるので、実際に発生される音声のみから翻訳を行うものに比べて、作業性がより向上する。   The subtitle is not limited to text data described in a language different from the language of the voice in which the translated text, that is, the moving image data is generated, and may be text data in the same language as the voice. That is, there may be a usage form in which the audio of the moving image data is Japanese and the subtitles are also Japanese. Accordingly, it has a function of reproducing moving image data, performing voice recognition processing, setting a caption setting box BX for each conversation, and registering text data obtained as a result of the recognition processing in the set caption setting box BX. And good. This is preferable because the subtitle setting box BX is allocated to each portion that is producing sound during the actual reproduction of the moving image data, and therefore the subtitle setting box can be allocated easily and accurately. And since the sentences that actually occur are automatically registered, the person who creates the translation can translate while looking at the original language that is recognized by the voice, so only the voice that is actually generated Compared with the one that translates from, workability is improved.
1 利用者端末
2 インターネット
3 動画データサーバ
10 字幕作成提供サーバ
11 通信インタフェース
12 制御部
13 字幕用データ記憶部
DESCRIPTION OF SYMBOLS 1 User terminal 2 Internet 3 Movie data server 10 Subtitle creation providing server 11 Communication interface 12 Control unit 13 Subtitle data storage unit
再公表02/037841号公報Republished 02/037841

Claims (8)

  1. 動画データを再生表示する動画表示部と、
    その動画表示部に再生中の動画データのタイムラインを表示するタイムライン表示エリアと、
    そのタイムライン表示エリア内に、字幕設定ボックスを割り付ける手段と、
    その割り付けられた字幕設定ボックスに字幕を登録するテキスト入力手段と、
    前記タイムライン表示エリアの時間の流れ方向における字幕設定ボックスの両端位置から、その字幕設定ボックスに登録された字幕を表示する期間を特定し、その表示する期間を特定する情報と、前記登録された字幕を関連づけて字幕用データ記憶部に格納する手段と、
    を備えたことを特徴とする字幕作成システム。
    A video display section for reproducing and displaying the video data;
    A timeline display area for displaying the timeline of the video data being played in the video display section,
    In the timeline display area, a means for assigning a caption setting box,
    Text input means for registering subtitles in the assigned subtitle setting box;
    The period for displaying the subtitle registered in the subtitle setting box is specified from both end positions of the subtitle setting box in the time flow direction of the timeline display area, the information for specifying the display period, and the registered Means for associating subtitles and storing them in a subtitle data storage unit;
    A subtitle creation system characterized by comprising:
  2. テキスト入力手段により入力された字幕は、対応する字幕設定ボックスに表示するようにしたことを特徴とする請求項1に記載の字幕作成システム。   2. The caption generation system according to claim 1, wherein the caption input by the text input means is displayed in a corresponding caption setting box.
  3. 編集機能として、
    前記字幕設定ボックスの両端に位置を変更する機能と、登録した字幕を変更する機能の少なくとも一方を備えたことを特徴とする請求項1または2に記載の字幕作成システム。
    As an editing function,
    3. The caption creation system according to claim 1, further comprising at least one of a function of changing positions at both ends of the caption setting box and a function of changing registered captions.
  4. 前記字幕用データ記憶部に格納した前記動画データについての前記字幕とそれを表示する期間を特定する情報を読み出し、前記タイムライン表示エリア内に前記字幕設定ボックスを表示すると共に、その字幕設定ボックスに字幕が登録されている場合にはその字幕設定ボックス内に字幕を表示する機能と、
    前記字幕を登録した人以外の他人が、前記タイムライン表示エリア内に新たに字幕設定ボックスを追加する機能と、
    前記字幕設定ボックスに対して字幕を登録する機能と、
    を備えたことを特徴とする請求項1〜3のいずれか1項に記載の字幕作成システム。
    Read the information specifying the caption and the period for displaying the caption for the video data stored in the caption data storage unit, and display the caption setting box in the timeline display area. When subtitles are registered, a function to display subtitles in the subtitle setting box,
    A function that allows a person other than the person who registered the caption to newly add a caption setting box in the timeline display area;
    A function for registering subtitles in the subtitle setting box;
    The subtitle creating system according to claim 1, further comprising:
  5. 前記動画データについての前記字幕とそれを表示する期間を特定する情報を読み出し、別の字幕用データのファイルとして保存する機能を備えたことを特徴とする請求項1〜4のいずれか1項に記載の字幕作成システム。   5. The information processing apparatus according to claim 1, further comprising: a function of reading out information specifying the subtitles of the moving image data and a period for displaying the subtitles and storing the information as a file of another subtitle data. Subtitle creation system described.
  6. 前記動画データを再生して出力する音声に対して音声認識処理を行い、会話の区切りを検出し、その区切りに基づいて前記字幕設定ボックスの割り付けを行うことを特徴とする請求項1〜5のいずれか1項に記載の字幕作成システム。   6. A voice recognition process is performed on audio output by reproducing the moving image data, a conversation break is detected, and the subtitle setting box is allocated based on the break. The closed caption production system according to any one of the items.
  7. 前記音声認識処理を行い求めたテキストデータを、前記字幕設定ボックスの字幕として登録する機能を備えたことを特徴とする請求項6に記載の字幕作成システム。   7. The caption creation system according to claim 6, further comprising a function of registering text data obtained by performing the speech recognition processing as a caption in the caption setting box.
  8. コンピュータを、
    動画データを再生表示する動画表示手段、
    その動画表示部に再生中の動画データのタイムラインを表示するタイムライン表示エリア、
    そのタイムライン表示エリア内に、字幕設定ボックスを割り付ける手段、
    その割り付けられた字幕設定ボックスに字幕を登録するテキスト入力手段、
    前記タイムライン表示エリアの時間の流れ方向における字幕設定ボックスの両端位置から、その字幕設定ボックスに登録された字幕を表示する期間を特定し、その表示する期間を特定する情報と、前記登録された字幕を関連づけて字幕用データ記憶部に格納する手段
    として機能させるためのプログラム。
    Computer
    Movie display means for reproducing and displaying movie data,
    A timeline display area that displays the timeline of the video data being played in the video display area,
    In the timeline display area, means to assign a subtitle setting box,
    Text input means for registering subtitles in the assigned subtitle setting box,
    The period for displaying the subtitle registered in the subtitle setting box is specified from both end positions of the subtitle setting box in the time flow direction of the timeline display area, the information for specifying the display period, and the registered A program for causing subtitles to be associated and stored in a subtitle data storage unit.
JP2009000151A 2009-01-05 2009-01-05 Caption creation system and program Granted JP2010157961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009000151A JP2010157961A (en) 2009-01-05 2009-01-05 Caption creation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009000151A JP2010157961A (en) 2009-01-05 2009-01-05 Caption creation system and program

Publications (1)

Publication Number Publication Date
JP2010157961A true JP2010157961A (en) 2010-07-15

Family

ID=42575513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009000151A Granted JP2010157961A (en) 2009-01-05 2009-01-05 Caption creation system and program

Country Status (1)

Country Link
JP (1) JP2010157961A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101498933B1 (en) * 2013-08-07 2015-03-04 김미경 System for making, evaluating, and spreading caption with login type convenient to make by visualization
JP2016509408A (en) * 2013-01-15 2016-03-24 ヴィキ,インク.Viki,Inc. System and method for captioning media
KR20170114781A (en) * 2016-04-06 2017-10-16 네이버 주식회사 Method and apparatus for providing subtitle mapping section adjustment service for contents
KR102087970B1 (en) * 2019-05-24 2020-03-11 김병준 System for providing contents with caption and translating function and method thereof
JP2020053715A (en) * 2018-09-21 2020-04-02 西都速記株式会社 Information processing system, information processing method, and information processing program
WO2021033225A1 (en) * 2019-08-16 2021-02-25 株式会社アカリ Subtitle data editing method and subtitle data editing program for content such as moving image

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016509408A (en) * 2013-01-15 2016-03-24 ヴィキ,インク.Viki,Inc. System and method for captioning media
US9696881B2 (en) 2013-01-15 2017-07-04 Viki, Inc. System and method for captioning media
KR101498933B1 (en) * 2013-08-07 2015-03-04 김미경 System for making, evaluating, and spreading caption with login type convenient to make by visualization
KR20170114781A (en) * 2016-04-06 2017-10-16 네이버 주식회사 Method and apparatus for providing subtitle mapping section adjustment service for contents
KR101922059B1 (en) 2016-04-06 2019-02-20 네이버 주식회사 Method for providing subtitle mapping section adjustment service for contents
JP2020053715A (en) * 2018-09-21 2020-04-02 西都速記株式会社 Information processing system, information processing method, and information processing program
KR102087970B1 (en) * 2019-05-24 2020-03-11 김병준 System for providing contents with caption and translating function and method thereof
WO2021033225A1 (en) * 2019-08-16 2021-02-25 株式会社アカリ Subtitle data editing method and subtitle data editing program for content such as moving image

Similar Documents

Publication Publication Date Title
US8819559B2 (en) Systems and methods for sharing multimedia editing projects
US8701008B2 (en) Systems and methods for sharing multimedia editing projects
US9712862B2 (en) Apparatus, systems and methods for a content commentary community
JP2010157961A (en) Caption creation system and program
US20140136574A1 (en) Hierarchical multimedia program composition
US20110258545A1 (en) Service for Sharing User Created Comments that Overlay and are Synchronized with Video
JP5770408B2 (en) Video content viewing terminal
US9710553B2 (en) Graphical user interface for management of remotely stored videos, and captions or subtitles thereof
JPWO2002037841A1 (en) DIGITAL VIDEO CONTENT DISTRIBUTION SYSTEM, REPRODUCTION METHOD, AND RECORDING MEDIUM CONTAINING REPRODUCTION PROGRAM
WO2002073462A1 (en) Multimedia cooperative work system, client/server thereof, method therefor, recorded medium therefor, and program therefor
US7844163B2 (en) Information editing device, information editing method, and computer product
JP4686990B2 (en) Content processing system, content processing method, and computer program
JP2005228297A (en) Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium
JP2008312060A (en) Image processing system, image management device, image processor, and processing method and program therein
JP2006270321A (en) Content reproducing apparatus and electronic apparatus
JP4129162B2 (en) Content creation demonstration system and content creation demonstration method
JP4269980B2 (en) Content processing system, content processing method, and computer program
WO2006030995A9 (en) Index-based authoring and editing system for video contents
JP2010010736A (en) Video content playback device
JP2011199360A (en) Apparatus and program for deliverying content, content reproducing program, content delivery method, and content reproducing method
JP6110731B2 (en) Command input recognition system by gesture
JP5475259B2 (en) Text information sharing method, server device, and client device
KR101328270B1 (en) Annotation method and augmenting video process in video stream for smart tv contents and system thereof
JP2005260512A (en) System and method for processing content, and computer program
KR20170090856A (en) Method for generating open scenario

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120105

A072 Dismissal of procedure

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20130529

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604