JP2004336606A - Caption production system - Google Patents
Caption production system Download PDFInfo
- Publication number
- JP2004336606A JP2004336606A JP2003132670A JP2003132670A JP2004336606A JP 2004336606 A JP2004336606 A JP 2004336606A JP 2003132670 A JP2003132670 A JP 2003132670A JP 2003132670 A JP2003132670 A JP 2003132670A JP 2004336606 A JP2004336606 A JP 2004336606A
- Authority
- JP
- Japan
- Prior art keywords
- timing information
- display unit
- page
- subtitle
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Circuits (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、字幕制作システムに関し、特に、非スピーチ情報を含む字幕データを効率的に制作することが可能な字幕制作システムに関する。
【0002】
【従来の技術】
字幕放送を普及させるため、郵政省(当時)から、2007年までに字幕付与可能な番組全てに字幕を付与するという指針が出されている。
【0003】
ところが、日本における字幕放送の実施状況は、NHKの総合テレビが73.4%と比較的高いものの、在京民放5社の平均は、16.1%に過ぎない。この実施率は、欧米(例えば、米国では70%)に比べて著しく低く、字幕放送利用者を始めとする各方面から字幕放送の拡充が強く求められている。
【0004】
字幕放送の実施率が向上しない最大の原因は、字幕番組制作における多くの部分が手作業により行われていることにある。即ち、字幕番組の作成には、多くの人手と、時間と、コストがかかる。特に、スピーチの書起しを含む字幕データの作成は、作業者の知識と能力に大きく依存するため、自動化が極めて困難であり、また、効率化も困難である。
【0005】
詳述すると、書起し作業は、テレビ素材番組を収録したビデオテープをVTRで再生し、再生された音声の中から字幕として表示すべき音(通常人の声、以下、スピーチと呼ぶ。)を選択的に聴取することにより行われる。その際、再生された映像に付加されたタイムコードに基づき、スピーチの開始及び終了のタイミングを特定し、それを表すタイミング情報を書起されたテキストデータに付加することも行われる。このような作業を行うには、スピーチ部分の頭出しや、書起しを容易にするための再生速度の調整、繰り返し再生、あるいはスピーチ部分終了点の確認など、複雑なVTR操作を行わなければならない。したがって、書起し作業を行う者には、高い聞き取り能力のみならず、豊富な語彙と、高い理解力が求められ、さらに複雑なVTR操作も同時に行えるという器用さも求められる。
【0006】
以上のことから、字幕番組の制作効率の向上には、書起し作業を行う者の負担軽減が必須である。
【0007】
書起し作業の負担を軽減することができる従来の字幕作成システムとして、スピーチを書起したテキストデータに対して、タイミング情報の付与を自動的に行うものがある(例えば、特許文献1参照。)。
【0008】
この字幕制作システムは、電子化された字幕文テキストデータが与えられると、そのデータが示すテキスト(文字列)が画面表示に適した文字列、即ちテレビ画面上での表示単位である単位字幕文、に分割されるように自動的に改行・改頁を行う。その一方で、その字幕文テキストデータの素材であるテレビ番組を収録したビデオテープを再生し、それに付加されているタイミング情報を利用して、分割された単位字幕文が表示されるべきタイミングを決定するタイミング情報を得る。そして、得られたタイミング情報を、単位字幕文データに付加して、字幕放送用の字幕データを生成する。
【0009】
この字幕作成システムを用いれば、書起し作業者が、スピーチをテキストデータに書起すだけで、タイミング情報が適切に付与された字幕データを得ることができる。
【0010】
また、字幕制作システムではないが、字幕放送を受信して得た字幕データに含まれるテキストを利用者からの指定に従って分割し、分割された字幕文にそれぞれ対応するタイミング情報を付加し、テレビ画面上での表示形式を変更できるようにするシステムもある(例えば、特許文献2参照)。
【0011】
このシステムを書起し作業に利用すれば、画面に表示された状態の文字列を考慮すること無く、適当に(例えば、話者毎あるいは文単位に)、タイミング情報を付与しておくことで、後に、適切な画面表示を可能にする字幕用データに変更することができる。
【0012】
【特許文献1】
特開2002−342311号公報
【0013】
【特許文献2】
特開2000−350117号公報
【0014】
【発明が解決しようとする課題】
通常のテレビ番組では、登場人物の紹介や場面説明を始めとする様々な非スピーチ情報を字幕により提供することが行われている。このような非スピーチ情報の提供は、文字放送においても提供されるべきである。
【0015】
また、字幕放送においては、複数の登場人物がかわるがわる、あるいは同時に発言するような場面(例えば、対談や討論など)では、その発言内容を文字表示するだけでなく、話者を特定するための情報、例えば話者名、を文字表示する必要もある。
【0016】
しかしながら、従来の字幕制作システムでは、単位字幕文データと素材番組を再生した音声との間の時間同期を取ることによって、タイミング情報を取得しているため、字幕用テキストと再生された音声の内容とが一致していなければならず、上記のような非スピーチ情報が存在すると自動的にタイミング情報を付与することができなくなるという問題点がある。
【0017】
また、従来の表示形式を変更するシステムを書起しに利用した場合は、非スピーチ情報の存在が問題となることはなく、また、入力作業の手間を若干軽減することができる。しかしながら、この方法は、タイミング情報を、例えば一文毎に付与する必要があるため、従来の書起し作業と同じく、作業者に対して高い能力を要求するという問題点がある。
【0018】
そこで、本発明は、書起し作業の負担を軽減することができ、非スピーチ情報を含む入力データから字幕データを制作することができる、簡易な構成の字幕制作システムを提供することを目的とする。
【0019】
【課題を解決するための手段】
本発明によれば、素材番組の音声に対応するテキストを含む入力データと前記素材番組の再生音声及び再生タイムコードとに基づいて、字幕表示用に前記テキストを改行・改頁して得た表示単位字幕文データと当該表示単位字幕部データを頁毎に表示するタイミングを決定するタイミング情報とを含む放送用字幕データを自動制作する字幕制作システムにおいて、前記入力データとして、予備タイミング情報が付加された頁と予備タイミング情報が付加されていない頁との両方を含むデータを使用することができるようにしたことを特徴とする字幕制作システムが得られる。
【0020】
また、本発明によれば、素材番組の音声に対応するテキストを含む入力データから、前記テキストを表示単位字幕文となるように改行・改頁して得た表示単位字幕文データを生成するとともに、前記表示単位字幕文データと、前記素材番組の生成音声及び再生タイムコードとに基づいて、前記表示単位字幕文を画面上に表示するタイミングを決定するタイミング情報を生成し、前記表示単位字幕文データと前記タイミング情報とを含む放送用字幕データを自動制作する字幕制作システムにおいて、前記入力データのうち、予備タイミング情報が付与されている頁については、当該頁に含まれるテキストを改行・改頁したことにより新たなタイミング情報が必要となったとき、前記予備タイミング情報を用いる按分法により当該新たなタイミング情報を生成し、前記入力データのうち、予備タイミング情報が付与されていない頁については、当該頁に含まれるテキストを改行・改頁したことにより新たなタイミング情報が必要となったとき、前記表示単位字幕文データと前記再生音声との時間同期をとる自動音声同期処理により新たなタイミング情報を生成するようにしたことを特徴とする字幕制作システムが得られる。
【0021】
さらに、本発明によれば、素材番組の音声に対応するテキストを含む入力データから、前記テキストを表示単位字幕文となるように改行・改頁して得た表示単位字幕文データを生成するとともに、前記表示単位字幕文データと、前記素材番組の生成音声及び再生タイムコードとに基づいて、前記表示単位字幕文を画面上に表示するタイミングを決定するタイミング情報を生成し、前記表示単位字幕文データと前記タイミング情報とを含む放送用字幕データを自動制作する字幕制作方法において、前記入力データのうち、予備タイミング情報が付与されている頁については、当該頁に含まれるテキストを前記表示単位字幕文となるように改行・改頁したあと、前記予備タイミング情報を用いる按分法により必要に応じて新たなタイミング情報を生成し、前記入力データのうち、予備タイミング情報が付与されていない頁については、当該頁に含まれるテキストを前記表示単位字幕文となるように改行・改頁したあと、前記表示単位字幕文データと前記再生音声との時間同期をとる自動音声同期処理により必要に応じて新たなタイミング情報を生成するようにしたことを特徴とする字幕制作方法が得られる。
【0022】
さらにまた、本発明によれば、コンピュータに、素材番組の音声に対応するテキストを含む入力データから、前記テキストを表示単位字幕文となるように改行・改頁して得た表示単位字幕文データを生成させるとともに、前記表示単位字幕文データと、前記素材番組の生成音声及び再生タイムコードとに基づいて、前記表示単位字幕文を画面上に表示するタイミングを表わすタイミング情報を生成させ、前記表示単位字幕文データと前記タイミング情報とを含む放送用字幕データを自動制作させる字幕制作プログラムにおいて、前記入力データのうち、予備タイミング情報が付与されている頁については、当該頁に含まれるテキストを前記表示単位字幕文となるように改行・改頁したあと、前記予備タイミング情報を用いる按分法により必要に応じて新たなタイミング情報を生成させ、前記入力データのうち、予備タイミング情報が付与されていない頁については、当該頁に含まれるテキストを前記表示単位字幕文となるように改行・改頁したあと、前記表示単位字幕文データと前記再生音声との時間同期をとる自動音声同期処理により必要に応じて新たなタイミング情報を生成させるようにしたことを特徴とする字幕制作プログラム。
【0023】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について詳細に説明する。
【0024】
図1に本発明の一実施の形態に係る字幕制作システムの構成を示す。図示の字幕制作システムは、素材番組をもとに作成された入力データ(電子化原稿)100を受けて放送用字幕データを制作する字幕制作制御部10と、光ディスク等の記録媒体に記録された素材番組を再生する記録再生部20と、字幕制作制御部10の制御下で入力データから抽出した表示単位字幕文と記録再生部20からの再生音声との同期を取る同期検出部30と、字幕制作制御部10の制御下で入力データから抽出されたテキスト(文字列)の形態素解析を行う形態素解析部40と、入力データから抽出されたテキストを分割(改行・改頁)するための分割ルールを記憶する記憶部50と、字幕制作制御部10で制作された放送用字幕データに基づく字幕と記録再生部20で再生された素材番組とをともに表示する監視モニタ60とを有している。
【0025】
字幕制作制御部10は、例えばパーソナルコンピュータにより実現され、入力データ100を処理単位字幕データ110に分割する制作単位抽出部11と、処理単位字幕データ110に含まれるテキストを画面表示に適するよう分割・結合する表示単位字幕化部12と、表示単位字幕データ120にタイミング情報を付加して放送用字幕データ130とするタイミング付与部13とを備えている。
【0026】
本実施の形態においては、同期検出部30及び形態素解析部40はそれぞれ専用コンピュータにより実現される場合を想定しているが、字幕制作制御部10を含め1台のコンピュータで実現することも可能である。
【0027】
入力データ100は、図示しない原稿電子化装置(例えば、パーソナルコンピュータ等)を用いて、素材番組に含まれる音声を表わすを文字列を電子データ化(テキスト変換)したものである。書起し作業者は、ノンリニア操作可能なディスク記録再生装置用いて行われる。
【0028】
入力データ100としては、テキストデータ及びXML(eXtensible Markup Language)データを想定している。テキストデータは、素材番組に含まれる音声を書起した文字列(漢字かな混じり文字列)を表わすデータ(スピーチ情報)と改行情報とを含む。また、XMLデータは、このテキストデータに、頁情報(頁先頭・末尾情報)や各頁を表示するタイミングを特定するためのタイミング情報等を加えたものである。また、XMLデータの場合には、話者のプロフィール等、素材番組の音声とは無関係の文字列を表わすデータ(非スピーチ情報)及びそれを表示するためのタイミング情報を含む場合もある。この入力データ100は、磁気ディスクや光ディスクなどの記録媒体に記録された状態で、字幕制作制御部10に与えられる。
【0029】
字幕制作制御部10の制作単位抽出部11は、記録媒体に記録された入力データをテキスト1行分ずつ読み込み、読み込んだ一行分のテキストを表わすデータを形態素解析部40へ送る。
【0030】
形態素解析部40は、創作単位抽出部11から送られてきたテキストを形態素に分割して解析し、そのテキストにおける区切り可能個所を特定する。そして、特定した区切り可能個所情報をそのテキストに追加して制作単位抽出部11へ送り返す。なお、区切り可能個所は、例えば、句点の後ろ、読点の後ろ、文節と文節との間、あるいは形態素品詞間などであり、この順に優先度を高くしてある。
【0031】
制作単位抽出部11は、形態素解析部40から送り返されたテキストを、それに付加された区切り可能個所情報を参照して、適当な長さ(70〜90字程度)に区切り、区切り可能個所情報とともに処理単位字幕データ110として、表示単位字幕化部12へ送出する。但し、入力データ100のうちタイミング情報(以下、予備タイミング情報という。)が既に追加されている頁に関しては、頁毎に処理単位字幕データ110として表示単位字幕化部12へ送出する。
【0032】
表示単位字幕化部12は、記憶部50に記憶された分割ルールに基づいて、制作単位抽出部11からの処理単位字幕データ110が表わすテキストを、画面上に表示される形式に適合するように分割・結合し、表示単位字幕データ120を生成する。つまり、表示単位字幕化部12は、画面上に表示される字幕の行数及び文字数が、記憶部50に記憶された分割ルールで規定される一頁当たりの最大行数及び最大文字数以下となるように、処理単位字幕データ110が表わすテキストを分割・結合(改行・改頁)して表示単位字幕文とし、それを表わす表示単位字幕データ120を生成する。その際、表示単位字幕化部12は、処理単位字幕データ120が予備タイミング情報を含むものである場合には、テキストを分割したことによって新たに必要となるタイミング情報(以下、追加タイミング情報)を、入力された処理単位字幕データに含まれている予備タイミング情報を用いた按分法により生成、追加する。
【0033】
また、表示単位字幕化部12は、上記のように生成した表示単位字幕文を同期検出システム30へ通知する。ただし、表示単位字幕化部12は、予備タイミング情報を含む処理単位字幕データ110に基づいて生成した表示単位字幕文については、同期検出システム30への通知を行わない。
【0034】
同期検出システム30には、表示単位字幕化部12からの表示単位字幕文を表わすデータのほか、記録再生部20で再生された素材番組の再生音声と再生タイムコードとが入力される。ここで、記録再生部20は、制作単位抽出部11の読み込み開始から所定時間遅れて素材番組の再生を開始するものとする。
【0035】
同期検出システム30は、記録再生部20からの再生音声に対して音声認識処理を行い、表示単位字幕化部12からの表示単位字幕文と比較する。そして、各表示単位文に対応する再生音声の開始時点及び終了時点に夫々対応するタイムコードを得る。同期検出システム30は、得られたタイムコードをタイミング付与部13へ出力する。
【0036】
タイミング付与部13は、同期検出システム30から入力されるタイムコードを、対応する表示単位字幕文を表示するためのタイミング情報として、表示単位字幕化部12からの表示単位字幕データ120に挿入し、放送用字幕データ130として監視用モニタ60及び図示しない外部蓄積部へ出力する。
【0037】
監視モニタ60には、記録再生部20で再生された映像が所定時間遅延させて入力されており、その映像にタイミング付与部13からの放送用字幕データを重ねて表示する。監視モニタ60の表示内容を監視することにより、字幕制作制御部10から出力された放送用字幕データに基づいて表示される字幕の表示タイミング等の問題点が見出され、その後の修正等に利用される。
【0038】
図1の字幕制作システムは、概略、図2に示すように動作する。
【0039】
即ち、入力データを一行分ずつ取り込み(ステップS201)、処理単位字幕データを作成する(ステップS202)。次に、処理単位字幕文を分割ルールに従い分割して表示単位字幕文データを生成する(ステップS203)。そして、分割により新たなタイミング情報が必要となった場合(ステップS204のY)は、表示単位字幕文が含まれる頁に予備タイミング情報が付与されているか否か判定する(ステップS205)。予備タイミング情報が付与されている場合は、それを用いた按分法により追加タイミング情報を生成し追加する(ステップS206)。予備タイミング情報が付与されていない場合は、同期検出部30で同期検出を行ってタイミングコードを得る(ステップS207)。そして、タイミングコードを表わす追加タイミング情報を生成して表示単位字幕データに追加する(ステップS208)。最後に、上述のようにして得られた放送用字幕データを外部へ出力する(ステップS209)。
【0040】
以下、本実施の形態に係る字幕制作システムの動作について実施例に基づき詳細に説明する。
【0041】
[実施例1]
入力データとして図3に示すXMLデータを考える。このXMLデータでは、全ての頁に予備タイミング情報(IN_TIME=””及びOUT_TIME=””;””内の数字は、前から2桁ずつ、時間、分、秒及びフレームNo.をそれぞれ示す。)が付与されている。
【0042】
このような入力データが字幕制作制御部10に与えられると、制作単位抽出部11は、形態素解析部40と協働して各頁に含まれるテキストに対して区切り可能個所情報を付加し、処理単位字幕文を生成して処理単位字幕データ110として表示単位字幕化部12へ出力する。
【0043】
表示単位字幕化部12は、記憶部50の分割ルールを参照して各頁のテキストを分割(改行・改頁)する。本実施例では、全ての頁に予備タイミング情報が付与されているので、テキストの分割により新たに必要となる追加タイミング情報は、予備タイミング情報を利用した按分法により生成される。
【0044】
本実施例の場合、全ての頁に既存タイミング情報が含まれているので、表示単位字幕化部12から同期検出部30への表示単位字幕文に関する情報は出力されない。したがって、同期検出部30からタイムコードは出力されず、タイミング付与部13での新たなタイミング情報の付与も行われない。したがって、表示単位字幕化部12からの出力がそのままタイミング付与部13を介して放送用字幕データとして出力される。このとき得られる放送用字幕データは、図4のようになる。
【0045】
ここで、表示単位字幕化部12における追加タイミング情報の生成について説明する。
【0046】
入力データ(XMLデータ)が図5で示されるようなものであって、そこから、図6に示すような表示単位字幕文が生成されたとする。この場合、図6における第2番目の文字列の終了タイミング及び第3番目の文字列の開始タイミングを図5から直接得ることができない。即ち、入力データに含まれる予備タイミング情報をそのまま利用することはできない。
【0047】
そこで、表示単位字幕化部12は、「法務局内に忘れてきました。」の終了タイミングを計算により求める。この文字列の構成は、かな7文字、漢字5文字であって、その統計的読み数は16.3である。図5からこの文字列に関する一読み数に対応する時間(読速)は0.12なので、この文字列に関する所要時間は、16.3×0.12=1.89となる。したがって、図6の第2番目の文字列の終了タイミングは、上記文字列の開始タイミングである27.15に所要時間1.89を加えた29.04となる。図6の第3番目の文字列の開始タイミングについては、第2番目の文字列の終了タイミングに一致させればよい。
【0048】
以上のように、本実施の形態の字幕創作システムは、全ての頁に予備タイミング情報が付与されている入力データから画面表示に適した放送用字幕データを自動的に制作することができる。なお、按分法は、音声同期処理に比べて著しく短い時間で必要とされる追加タイミング情報を生成することができるので、上記のように全ての頁に予備タイミング情報が付与されている場合には、素材番組の放送(再生)に要する時間の1/30程度の時間で、放送用字幕データを得ることができる。また、按分法により得られたタイミング情報に基づく字幕の表示とそれ対応する音声との間のずれは、1秒以下であり、許容範囲内と考えられる。
【0049】
[実施例2]
本実施の形態に係る字幕制作システムは、入力データとして既存の放送用字幕データを用いることもできる。即ち、この字幕制作システムは、既存の放送用字幕データの表示形式を変更する場合にも利用できる。
【0050】
例えば、標準放送と高精細放送とでは、画面(画像)の縦横比が異なるので、標準放送用に作成した字幕データを高精細放送に利用する場合には、見易さ等の観点から字幕1行当たりの文字数を変更したい場合がある。そのような場合に、本実施の形態に係る字幕制作システムを利用することができる。
【0051】
具体例を挙げると、図7に示すような、15行×2行で字幕表示を行う3頁分の標準放送用字幕データがあり、これを22行×2行での字幕表示を行う高精細放送用字幕データに変更したい場合、本実施の形態に係る字幕制作システムは、実施例1と同様に動作して、図8に示すような出力データを出力する。本実施例の場合、字幕の再整形により必要となる追加タイミング情報は、全て按分法により得ることができる。
【0052】
このように、本実施の形態に係る字幕制作システムは、既に制作されている放送用字幕データの再整形にも利用できる。
【0053】
[実施例3]
本実施の形態に係る字幕制作システムは、予備タイミング情報を持つ頁と持たない頁とが混在する入力データにも対応できる。
【0054】
例えば、図9に示す様な字幕表示を行う場合を考える。図9に示すテキストのうち、第2行から第6行の斜体文字列が非スピーチ情報であり、残りがスピーチ情報である。この場合、非スピーチ情報については、書起し作業者が手入力でタイミング情報を付加する。その結果、得られるXMLデータは、図10のようになる。
【0055】
図10に示す入力データが与えられると、本実施の形態に係る字幕制作システムは、予備タイミング情報を有する頁については、実施例1及び2と同様にして、按分法により必要な追加タイミング情報を得る。一方、予備タイミング情報を有していない頁については、同期検出部30において音声自動同期検出を行い、各表示単位字幕に対応する再生音声の開始タイミング及び表示終了タイミングに一致するタイムコードを取得し、取得したタイムコードの基づいて追加タイミング情報を生成する。こうして、図11に示すような放送用字幕データを得ることができる。
【0056】
以上のように、本実施の形態に係る字幕制作システムでは、入力データのうちの予備タイミング情報が含まれている頁については、自動音声同期処理を行うこと無く追加タイミング情報が生成される。また、入力データのうちの予備タイミング情報が含まれていない頁については、自動音声同期処理により追加タイミング情報が生成される。従って、スピーチ情報については予備タイミング情報を付与せず、非スピーチ情報には予備タイミング情報を付与しておくようにすることで、スピーチ情報及び非スピーチ情報が混在する入力データに対して、タイミング情報の自動付与を行うことができる。
【0057】
しかも、按分法による追加タイミングの生成は、自動音声同期処理に比べて処理に要する時間が著しく短いので、非スピーチ情報が含まれていない入力データに対してタイミング情報を自動付与する場合に要する時間とほぼ同じ処理時間で、スピーチ情報及び非スピーチ情報が混在する入力データに対するタイミング情報の自動付与を行うことができる。
【0058】
[実施例4]
既存タイミング情報を持つ頁と持たない頁が混在する入力データに対してタイミング情報の自動付与を行うと、予備タイミング情報を持たない頁のテキストに関して付加した追加タイミング情報が、予備タイミング情報と整合しない場合が起こり得る。これは、例えば、同期検出部30において再生音声に含まれる雑音をスピーチと認識した場合などに生じる。
【0059】
ここで、図12に示すテキストデータを考える。第2行目の斜体文字列が非スピーチ情報であり、この非スピーチ情報には、書起し作業者が手作業で予備タイミング情報を与えるものとする。そして、このような入力データが入力された場合に、同期検出部30から得られるタイムコードに基づいて追加タイミング情報を付加した結果、図13に示すような結果が得られたと仮定する。この場合、第1番目の頁を表示している間に、第2番目の頁を表示しなければならないことになっており、いずれかのタイミング情報が不適切であることは明らかである。
【0060】
このような事態を避けるため、タイミング付与部13は、自動付与した追加タイミング情報が予備タイミング情報と整合するか否か判定する。そして、互いに連続する頁の表示時間が重なっている場合には、自動付与した追加タイミング情報を変更して2つの頁の表示時間に重なりがなくなるように調整できるか否か判定する。つまり、自動付与したタイミング情報を表示時間に重なりがなくなるように変更した場合、その頁を表示する時間として許容できる表示時間が残るか否か判断する。図13の場合、第1番目の頁の表示時間は21秒であり、第2番目の頁の表示時間である10秒を差し引いても11秒の残りがある。したがって、1番目の頁の表示時間を短縮しても何ら問題がないであろうと判定できる。この結果、タイミング付与部13は、1番目の頁の表示終了時間が誤りであると判断して、第2頁の表示開始時間に一致させる。こうして、タイミング付与部13は、タイミング情報を自動補正して、図13に示す放送用字幕データを出力する。
【0061】
なお、タイミング付与部13は、重なり部分をなくすよう調整することが適切でないと判断した場合は、タイミング情報の自動補正を行わない。この場合は、後に、手入力により修正が行われる。
【0062】
以上、本発明について一実施の形態に即して説明したが、本発明は上記実施の形態に限定されるものではない。
【0063】
例えば、上記実施の形態では、予備タイミング情報の有無に基づいて頁単位で表示単位字幕文を同期検出部30へ送出するか否か判断するようにしたが、対談や討論における話者名とそのスピーチのように、スピーチ情報と非スピーチ情報とを同一頁に表示したい場合には、例えば、所定の記号で挟まれた文字列のみ同期検出部30へ送出する/送出しない、とすればよい。具体的には、“「」(かぎ括弧)”で囲まれた文字列のみを同期検出部30へ送信するようにしたり、あるいは“<>”で囲まれた文字列は同期検出部30へ送出しないようにしておけばよい。
【0064】
【発明の効果】
本発明によれば、入力データのうち予備タイミング情報が付与された頁についてはその予備タイミング情報を用いた按分法により、予備タイミング情報が付与されていない頁については音声同期処理法により、テキストの改行・改頁により必要となる新たなタイミング情報を得るようにしたことで、非スピーチ情報を含むテキストデータから字幕データを自動制作することができる。そして、その結果、字幕作成の書起し作業の負担を軽減することができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態に係る字幕制作システムの構成を示す概略図である。
【図2】図1の字幕制作システムにおける字幕制作制御部の動作を説明するためのフローチャートである。
【図3】図1の字幕制作システムに入力される入力データの一例を示す図である。
【図4】図3の入力データから制作された放送用字幕データを示す図である。
【図5】図1の字幕制作システムに入力される他の入力データに含まれるテキストとそれに関連する関連情報とを示す図である。
【図6】図5の他の入力データに含まれるテキストから得た表示単位字幕文とその開始・終了時間とを示す図である。
【図7】図1の字幕制作システムに入力される入力データのさらに別の例を示す図である。
【図8】図7の入力データから制作された放送用字幕データを示す図である。
【図9】スピーチ情報と非スピーチ情報とを含むテキストの例である。
【図10】図9のテキストから生成したXMLデータを示す図である。
【図11】図10のXMLデータを図1の字幕制作システムに入力して得られる放送用字幕データを示す図である。
【図12】スピーチ情報と非スピーチ情報とを含むテキストの他の例である。
【図13】手入力された予備タイミング情報と自動付与された追加タイミング情報とが整合していていない状態のXMLデータを示す図である。
【図14】手入力された予備タイミング情報と自動付与された追加タイミング情報とが整合した状態のXMLデータを示す図である。
【符号の説明】
10 字幕制作制御部
11 制作単位抽出部
12 表示単位字幕化部
13 タイミング付与部
20 記録再生部
30 同期検出システム
40 形態素解析部
50 記憶部
60 監視モニタ
100 電子化原稿(入力データ)
110 処理単位字幕データ
120 表示単位字幕データ
130 放送用字幕データ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a caption production system, and more particularly, to a caption production system capable of efficiently producing caption data including non-speech information.
[0002]
[Prior art]
In order to spread subtitle broadcasting, the Ministry of Posts and Telecommunications (at that time) has issued a guideline to provide subtitles to all programs to which subtitles can be added by 2007.
[0003]
However, while subtitle broadcasting is currently being implemented in Japan at a relatively high rate of 73.4% for NHK's general television, the average among the five commercial broadcasters in Tokyo is only 16.1%. This implementation rate is remarkably lower than that in Europe and the United States (for example, 70% in the United States), and there is a strong demand for expansion of subtitle broadcasting from various fields including subtitle broadcasting users.
[0004]
The biggest reason why the implementation rate of subtitle broadcasting does not improve is that many parts in the production of subtitle programs are performed manually. That is, creation of a subtitle program requires a lot of manpower, time, and cost. In particular, the creation of caption data including the transcript of speech greatly depends on the knowledge and ability of the worker, and therefore, it is extremely difficult to automate and make it more efficient.
[0005]
More specifically, in the transcript operation, a video tape on which a television material program is recorded is reproduced by a VTR, and sounds to be displayed as subtitles from the reproduced sounds (normal human voice, hereinafter referred to as speech). This is done by selectively listening to At that time, the start and end timings of the speech are specified based on the time code added to the reproduced video, and timing information indicating the timing is added to the written text data. In order to perform such operations, complex VTR operations must be performed, such as cueing the speech portion, adjusting the playback speed to facilitate transcription, repeating playback, or confirming the end point of the speech portion. No. Therefore, those who perform the transcript work are required to have not only high listening ability but also abundant vocabulary and high comprehension, and dexterity that can perform complicated VTR operations at the same time.
[0006]
From the above, in order to improve the production efficiency of a subtitle program, it is essential to reduce the burden on the person who performs the transcript work.
[0007]
2. Description of the Related Art As a conventional caption creation system that can reduce the burden of the transcripting operation, there is a system that automatically adds timing information to text data in which a speech is transcribed (for example, see Patent Document 1). ).
[0008]
In this subtitle production system, when digitized subtitle text data is provided, a text (character string) indicated by the data is a character string suitable for screen display, that is, a unit subtitle text which is a display unit on a television screen. , A line feed and a page break are automatically performed. On the other hand, a videotape containing a TV program that is the material of the subtitle text data is played back, and the timing at which the divided subtitle text should be displayed is determined using the timing information added to the video tape. Obtain timing information to perform. Then, the obtained timing information is added to the unit subtitle sentence data to generate subtitle data for subtitle broadcasting.
[0009]
With this subtitle creation system, a transcription operator can obtain subtitle data to which timing information is appropriately added only by transcribing a speech to text data.
[0010]
In addition, although it is not a caption production system, the text included in the caption data obtained by receiving the caption broadcast is divided according to the specification from the user, and the timing information corresponding to each of the divided caption sentences is added, and the TV screen is added. There is also a system that can change the display format described above (for example, see Patent Document 2).
[0011]
If this system is used for writing and working, it is possible to add timing information appropriately (for example, for each speaker or for each sentence) without considering the character string displayed on the screen. After that, it can be changed to subtitle data that enables appropriate screen display.
[0012]
[Patent Document 1]
JP-A-2002-342311
[0013]
[Patent Document 2]
JP 2000-350117 A
[0014]
[Problems to be solved by the invention]
In ordinary television programs, various non-speech information such as introduction of characters and scene descriptions is provided by subtitles. The provision of such non-speech information should be provided also in teletext.
[0015]
In closed caption broadcasting, in a scene where a plurality of characters alternate or speak simultaneously (for example, in a dialogue or a discussion), not only the contents of the statement are displayed in text but also information for identifying the speaker. For example, the speaker name needs to be displayed in characters.
[0016]
However, in the conventional subtitle production system, since the timing information is obtained by synchronizing the unit subtitle sentence data with the audio reproduced from the material program, the subtitle text and the content of the reproduced audio are obtained. Must be matched, and if the non-speech information as described above exists, the timing information cannot be automatically given.
[0017]
Further, when a conventional system for changing the display format is used for transcript, the existence of non-speech information does not cause a problem, and the labor of input work can be slightly reduced. However, this method requires timing information, for example, for each sentence, and thus has a problem in that it requires a high ability for the operator, as in the case of the conventional writing operation.
[0018]
Therefore, an object of the present invention is to provide a caption production system with a simple configuration that can reduce the burden of transcript work and can produce caption data from input data including non-speech information. I do.
[0019]
[Means for Solving the Problems]
According to the present invention, based on input data including text corresponding to the audio of the material program and the reproduced audio and reproduction time code of the material program, a display obtained by line-feeding and page-breaking the text for subtitle display In a subtitle production system for automatically producing broadcast subtitle data including unit subtitle sentence data and timing information for determining the timing of displaying the display unit subtitle data for each page, preliminary timing information is added as the input data. Thus, it is possible to obtain a caption production system characterized in that data including both pages that have been added and pages to which no preliminary timing information has been added can be used.
[0020]
Further, according to the present invention, from input data including text corresponding to the audio of the material program, display unit subtitle sentence data obtained by line-feeding and paginating the text so as to become a display unit subtitle sentence is generated. Generating, based on the display unit subtitle sentence data, the generated audio and playback time code of the material program, timing information for determining a timing of displaying the display unit subtitle sentence on a screen, In a caption production system for automatically producing broadcast subtitle data including data and the timing information, in the input data, for a page to which preliminary timing information has been added, text included in the page is line-feeded / page-breaked. When new timing information becomes necessary due to the above, the new timing information is obtained by the proportional distribution method using the preliminary timing information. Information is generated, and for the page to which the preliminary timing information is not added among the input data, when the timing included in the text included in the page is changed to a new line or a new page, new timing information is required. A new subtitle production system is provided in which new timing information is generated by an automatic audio synchronization process for synchronizing the unit subtitle sentence data with the reproduction audio.
[0021]
Furthermore, according to the present invention, from input data including text corresponding to the audio of the material program, display unit subtitle sentence data obtained by line-feeding and paginating the text so as to be a display unit subtitle sentence is generated. Generating, based on the display unit subtitle sentence data, the generated audio and playback time code of the material program, timing information for determining a timing of displaying the display unit subtitle sentence on a screen, In the caption production method for automatically producing broadcast subtitle data including data and the timing information, for a page of the input data to which preliminary timing information is added, the text included in the page is displayed in the display unit subtitle. After line breaks and page breaks to form sentences, new timing information is added as necessary by the proportional distribution method using the preliminary timing information. In the input data, for the page to which the preliminary timing information is not added, the text included in the page is line-feeded / broken down to become the display unit subtitle sentence, and then the display unit subtitle sentence data A new subtitle production method is provided in which new timing information is generated as necessary by an automatic audio synchronization process for time synchronization between the subtitles and the reproduced audio.
[0022]
Still further, according to the present invention, display unit subtitle sentence data obtained by inputting line breaks and page breaks from input data including text corresponding to audio of a material program to a computer so that the text becomes a display unit subtitle sentence And generating, based on the display unit subtitle sentence data and the generated audio and playback time code of the material program, timing information indicating a timing at which the display unit subtitle sentence is displayed on a screen, In a caption production program for automatically producing broadcast subtitle data including unit subtitle sentence data and the timing information, among the input data, for a page to which preliminary timing information is added, the text included in the page is converted to the text. After line breaks and page breaks to become display unit subtitles, necessary by the proportional distribution method using the preliminary timing information New timing information is generated in response to the input data, and for the page to which the preliminary timing information is not added, after the text included in the page is subjected to line feed / line feed to become the display unit subtitle sentence, A subtitle producing program for generating new timing information as needed by an automatic audio synchronization process for synchronizing the display unit subtitle sentence data with the reproduced audio.
[0023]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0024]
FIG. 1 shows a configuration of a caption production system according to an embodiment of the present invention. The illustrated subtitle production system includes a subtitle
[0025]
The subtitle
[0026]
In the present embodiment, it is assumed that the
[0027]
The
[0028]
The
[0029]
The production
[0030]
The
[0031]
The production
[0032]
The display unit
[0033]
Further, the display
[0034]
To the
[0035]
The
[0036]
The timing providing unit 13 inserts the time code input from the
[0037]
The video reproduced by the recording / reproducing
[0038]
The subtitle production system of FIG. 1 operates roughly as shown in FIG.
[0039]
That is, input data is fetched line by line (step S201), and processing unit subtitle data is created (step S202). Next, the processing unit subtitle text is divided according to the division rule to generate display unit subtitle text data (step S203). Then, when new timing information is required due to the division (Y in step S204), it is determined whether or not preliminary timing information is added to the page including the display unit subtitle text (step S205). If the preliminary timing information has been added, additional timing information is generated and added by a proportional distribution method using the preliminary timing information (step S206). If the preliminary timing information has not been added, the
[0040]
Hereinafter, the operation of the caption production system according to the present embodiment will be described in detail based on examples.
[0041]
[Example 1]
Consider the XML data shown in FIG. 3 as input data. In this XML data, preliminary timing information (IN_TIME = "" and OUT_TIME = "";"" in all pages indicates the hour, minute, second, and frame number, respectively, two digits from the front). Is given.
[0042]
When such input data is provided to the subtitle
[0043]
The display
[0044]
In the case of the present embodiment, since the existing timing information is included in all the pages, the information regarding the display unit subtitle sentence from the display unit
[0045]
Here, generation of the additional timing information in the display unit
[0046]
It is assumed that the input data (XML data) is as shown in FIG. 5 and a display unit subtitle sentence as shown in FIG. 6 is generated therefrom. In this case, the end timing of the second character string and the start timing of the third character string in FIG. 6 cannot be directly obtained from FIG. That is, the preliminary timing information included in the input data cannot be used as it is.
[0047]
Therefore, the display unit
[0048]
As described above, the subtitle creation system according to the present embodiment can automatically generate broadcast subtitle data suitable for screen display from input data in which preliminary timing information is added to all pages. In addition, the apportioning method can generate additional timing information required in a significantly shorter time than the voice synchronization processing. Therefore, when the preliminary timing information is added to all pages as described above, Thus, the subtitle data for broadcasting can be obtained in about 1/30 of the time required for broadcasting (reproduction) of the material program. In addition, the difference between the display of the caption based on the timing information obtained by the apportionment method and the corresponding sound is less than 1 second, and is considered to be within the allowable range.
[0049]
[Example 2]
The subtitle production system according to the present embodiment can use existing broadcast subtitle data as input data. That is, this subtitle production system can be used even when the display format of the existing broadcast subtitle data is changed.
[0050]
For example, since the aspect ratio of the screen (image) differs between the standard broadcast and the high-definition broadcast, when the subtitle data created for the standard broadcast is used for the high-definition broadcast, the
[0051]
As a specific example, as shown in FIG. 7, there are three pages of standard broadcast subtitle data for displaying subtitles in 15 lines × 2 lines, which are displayed in high definition for displaying subtitles in 22 lines × 2 lines. When it is desired to change to broadcast subtitle data, the subtitle production system according to the present embodiment operates in the same manner as in Example 1, and outputs output data as shown in FIG. In the case of the present embodiment, all the additional timing information required by the subtitle reshaping can be obtained by the proportional method.
[0052]
As described above, the subtitle production system according to the present embodiment can also be used for reshaping broadcast subtitle data that has already been produced.
[0053]
[Example 3]
The caption production system according to the present embodiment can cope with input data in which pages with preliminary timing information and pages without preliminary timing information are mixed.
[0054]
For example, consider a case where a caption display as shown in FIG. 9 is performed. In the text shown in FIG. 9, the italic character strings in the second to sixth lines are non-speech information, and the rest are speech information. In this case, for the non-speech information, the transcriber manually adds the timing information. As a result, the obtained XML data is as shown in FIG.
[0055]
When the input data shown in FIG. 10 is given, the caption production system according to the present embodiment supplies the additional timing information necessary for the page having the preliminary timing information by the proportional distribution method in the same manner as in Examples 1 and 2. obtain. On the other hand, for a page that does not have the preliminary timing information, the
[0056]
As described above, in the caption production system according to the present embodiment, additional timing information is generated without performing automatic audio synchronization processing for a page of input data that includes preliminary timing information. For pages of the input data that do not include the preliminary timing information, additional timing information is generated by automatic audio synchronization processing. Therefore, by not adding preliminary timing information to speech information and adding preliminary timing information to non-speech information, timing information can be applied to input data in which speech information and non-speech information are mixed. Can be automatically provided.
[0057]
Moreover, the generation of the additional timing by the apportionment method requires much less processing time than the automatic voice synchronization processing, so the time required to automatically add timing information to input data that does not include non-speech information is reduced. Automatically adding timing information to input data in which speech information and non-speech information coexist in almost the same processing time as described above.
[0058]
[Example 4]
When timing information is automatically added to input data in which a page having existing timing information and a page having no existing timing information are mixed, additional timing information added to text of a page having no preliminary timing information does not match the preliminary timing information. Cases can happen. This occurs, for example, when the
[0059]
Here, consider the text data shown in FIG. The italic character string in the second line is non-speech information, and the transcriber manually gives preliminary timing information to this non-speech information. Then, when such input data is input, it is assumed that the result shown in FIG. 13 is obtained as a result of adding the additional timing information based on the time code obtained from the
[0060]
In order to avoid such a situation, the timing providing unit 13 determines whether or not the automatically provided additional timing information matches the preliminary timing information. If the display times of the consecutive pages overlap each other, it is determined whether the automatically added additional timing information can be changed to adjust the display times of the two pages so that they do not overlap. That is, when the automatically added timing information is changed so as not to overlap the display time, it is determined whether or not an allowable display time remains as a time for displaying the page. In the case of FIG. 13, the display time of the first page is 21 seconds, and there is a remaining 11 seconds after subtracting 10 seconds which is the display time of the second page. Therefore, it can be determined that there will be no problem even if the display time of the first page is reduced. As a result, the timing providing unit 13 determines that the display end time of the first page is incorrect, and matches the display end time with the display start time of the second page. Thus, the timing providing unit 13 automatically corrects the timing information and outputs the broadcast subtitle data shown in FIG.
[0061]
In addition, when the timing imparting unit 13 determines that it is not appropriate to perform the adjustment so as to eliminate the overlapping portion, it does not automatically correct the timing information. In this case, the correction is manually made later.
[0062]
As described above, the present invention has been described in accordance with one embodiment, but the present invention is not limited to the above embodiment.
[0063]
For example, in the above embodiment, it is determined whether or not the display unit subtitle sentence is transmitted to the
[0064]
【The invention's effect】
According to the present invention, of the input data, the page to which the preliminary timing information is added is divided by the proportional distribution method using the preliminary timing information, and the page to which the preliminary timing information is not added is converted to the text by the voice synchronization processing method. By obtaining new timing information required by line feed and page break, subtitle data can be automatically produced from text data including non-speech information. As a result, it is possible to reduce the burden of the subtitle creation operation.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a configuration of a subtitle production system according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining an operation of a caption production control unit in the caption production system of FIG. 1;
FIG. 3 is a diagram illustrating an example of input data input to the caption production system of FIG. 1;
FIG. 4 is a diagram showing broadcast subtitle data produced from the input data of FIG. 3;
5 is a diagram showing a text included in other input data input to the caption production system of FIG. 1 and related information related thereto.
6 is a diagram showing a display unit subtitle sentence obtained from text included in other input data in FIG. 5 and its start / end time.
FIG. 7 is a diagram showing still another example of input data input to the caption production system of FIG. 1;
8 is a diagram showing subtitle data for broadcast produced from the input data of FIG. 7;
FIG. 9 is an example of a text including speech information and non-speech information.
FIG. 10 is a diagram showing XML data generated from the text of FIG. 9;
11 is a diagram showing broadcast subtitle data obtained by inputting the XML data of FIG. 10 to the subtitle production system of FIG. 1;
FIG. 12 is another example of a text including speech information and non-speech information.
FIG. 13 is a diagram showing XML data in a state where the manually input preliminary timing information and the automatically added additional timing information do not match.
FIG. 14 is a diagram showing XML data in a state where preliminary timing information manually input and additional timing information automatically added match.
[Explanation of symbols]
10 Subtitle production control unit
11 Production unit extractor
12 Display unit subtitle conversion unit
13 Timing giving section
20 Recording and playback unit
30 Synchronization detection system
40 Morphological analyzer
50 storage unit
60 Monitoring monitor
100 digitized manuscript (input data)
110 processing unit subtitle data
120 display unit subtitle data
130 Subtitle data for broadcasting
Claims (4)
前記入力データとして、予備タイミング情報が付加された頁と予備タイミング情報が付加されていない頁との両方を含むデータを使用することができるようにしたことを特徴とする字幕制作システム。Based on the input data including the text corresponding to the audio of the material program and the reproduction audio and reproduction time code of the material program, the display unit subtitles and the page breaks of the text for subtitle display are displayed. In a subtitle production system for automatically producing broadcast subtitle data including display unit subtitle data and timing information for determining the timing of displaying each page,
A subtitle production system, wherein data including both a page to which preliminary timing information is added and a page to which preliminary timing information is not added can be used as the input data.
前記入力データのうち、予備タイミング情報が付与されている頁については、当該頁に含まれるテキストを改行・改頁したことにより新たなタイミング情報が必要となったとき、前記予備タイミング情報を用いる按分法により当該新たなタイミング情報を生成し、
前記入力データのうち、予備タイミング情報が付与されていない頁については、当該頁に含まれるテキストを改行・改頁したことにより新たなタイミング情報が必要となったとき、前記表示単位字幕文データと前記再生音声との時間同期をとる自動音声同期処理により新たなタイミング情報を生成するようにした、
ことを特徴とする字幕制作システム。From input data including text corresponding to the sound of the material program, display unit subtitle sentence data obtained by line-feeding and page-breaking the text so as to become a display unit subtitle sentence is generated, and the display unit subtitle sentence data and Generating, based on the generated audio and the reproduction time code of the material program, timing information for determining a timing at which the display unit subtitle sentence is displayed on a screen, including the display unit subtitle sentence data and the timing information In a subtitle production system that automatically produces broadcast subtitle data,
Of the input data, for a page to which preliminary timing information has been added, when new timing information is needed due to line breaks and page breaks of the text included in the page, the distribution using the preliminary timing information is performed. Generate the new timing information by the method,
Of the input data, for a page to which preliminary timing information has not been added, when new timing information is required due to line feed / page break of the text included in the page, the display unit subtitle sentence data and New timing information was generated by an automatic audio synchronization process for time synchronization with the playback audio,
Caption production system characterized by the following.
前記入力データのうち、予備タイミング情報が付与されている頁については、当該頁に含まれるテキストを前記表示単位字幕文となるように改行・改頁したあと、前記予備タイミング情報を用いる按分法により必要に応じて新たなタイミング情報を生成し、
前記入力データのうち、予備タイミング情報が付与されていない頁については、当該頁に含まれるテキストを前記表示単位字幕文となるように改行・改頁したあと、前記表示単位字幕文データと前記再生音声との時間同期をとる自動音声同期処理により必要に応じて新たなタイミング情報を生成するようにした、
ことを特徴とする字幕制作方法。From input data including text corresponding to the sound of the material program, display unit subtitle sentence data obtained by line-feeding and page-breaking the text so as to become a display unit subtitle sentence is generated, and the display unit subtitle sentence data and Generating, based on the generated audio and the reproduction time code of the material program, timing information for determining a timing at which the display unit subtitle sentence is displayed on a screen, including the display unit subtitle sentence data and the timing information In a subtitle production method for automatically producing broadcast subtitle data,
Of the input data, for a page to which preliminary timing information has been added, after the text included in the page is line-feeded and page-breaked so as to become the display unit subtitle sentence, by a proportional distribution method using the preliminary timing information. Generate new timing information as needed,
In the input data, for a page to which the preliminary timing information is not added, the text included in the page is subjected to line feed / page break so as to become the display unit subtitle sentence, and then the display unit subtitle sentence data and the reproduction New timing information is generated as needed by automatic audio synchronization processing that takes time synchronization with audio,
A subtitle production method characterized by the following.
前記入力データのうち、予備タイミング情報が付与されている頁については、当該頁に含まれるテキストを前記表示単位字幕文となるように改行・改頁したあと、前記予備タイミング情報を用いる按分法により必要に応じて新たなタイミング情報を生成させ、
前記入力データのうち、予備タイミング情報が付与されていない頁については、当該頁に含まれるテキストを前記表示単位字幕文となるように改行・改頁したあと、前記表示単位字幕文データと前記再生音声との時間同期をとる自動音声同期処理により必要に応じて新たなタイミング情報を生成させるようにした、
ことを特徴とする字幕制作プログラム。A computer generates input unit subtitle sentence data obtained by line-feeding and page-breaking the text so as to become a display unit subtitle sentence from input data including text corresponding to the audio of the material program, and Based on the sentence data and the generated audio and reproduction time code of the material program, the display unit generates timing information indicating the timing at which the display unit subtitle sentence is displayed on the screen, and the display unit subtitle sentence data and the timing information In a subtitle production program that automatically produces broadcast subtitle data including
Of the input data, for a page to which preliminary timing information has been added, after the text included in the page is line-feeded and page-breaked so as to become the display unit subtitle sentence, by a proportional distribution method using the preliminary timing information. Generate new timing information as needed,
In the input data, for a page to which the preliminary timing information is not added, the text included in the page is subjected to line feed / page break so as to become the display unit subtitle sentence, and then the display unit subtitle sentence data and the reproduction New timing information is generated as needed by automatic audio synchronization processing that takes time synchronization with audio,
Caption production program characterized by the following.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003132670A JP4500957B2 (en) | 2003-05-12 | 2003-05-12 | Subtitle production system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003132670A JP4500957B2 (en) | 2003-05-12 | 2003-05-12 | Subtitle production system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004336606A true JP2004336606A (en) | 2004-11-25 |
JP4500957B2 JP4500957B2 (en) | 2010-07-14 |
Family
ID=33507446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003132670A Expired - Fee Related JP4500957B2 (en) | 2003-05-12 | 2003-05-12 | Subtitle production system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4500957B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006311328A (en) * | 2005-04-28 | 2006-11-09 | Sony Corp | Caption generating device and method |
JP2009076970A (en) * | 2007-09-18 | 2009-04-09 | Kddi Corp | Summary content generation device and computer program |
CN104135628A (en) * | 2013-05-03 | 2014-11-05 | 安凯(广州)微电子技术有限公司 | Video editing method and terminal |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101461562B1 (en) | 2014-05-08 | 2014-11-13 | (주)트리짓소프트웨어 | Method and device for synchronizing subtitles of multimedia contents |
-
2003
- 2003-05-12 JP JP2003132670A patent/JP4500957B2/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006311328A (en) * | 2005-04-28 | 2006-11-09 | Sony Corp | Caption generating device and method |
US8254753B2 (en) | 2005-04-28 | 2012-08-28 | Sony Corporation | Subtitle generating apparatus and method |
JP2009076970A (en) * | 2007-09-18 | 2009-04-09 | Kddi Corp | Summary content generation device and computer program |
US8279343B2 (en) | 2007-09-18 | 2012-10-02 | Kddi Corporation | Summary content generation device and computer program |
CN104135628A (en) * | 2013-05-03 | 2014-11-05 | 安凯(广州)微电子技术有限公司 | Video editing method and terminal |
Also Published As
Publication number | Publication date |
---|---|
JP4500957B2 (en) | 2010-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4127668B2 (en) | Information processing apparatus, information processing method, and program | |
US7050109B2 (en) | Methods and apparatus for the provision of user selected advanced close captions | |
US8732783B2 (en) | Apparatus and method for providing additional information using extension subtitles file | |
JP3844431B2 (en) | Caption system based on speech recognition | |
US20130204605A1 (en) | System for translating spoken language into sign language for the deaf | |
JP2004343488A (en) | Method, system, and program for inserting caption | |
JP4140745B2 (en) | How to add timing information to subtitles | |
JP4496358B2 (en) | Subtitle display control method for open captions | |
JP4210723B2 (en) | Automatic caption program production system | |
JP2008252322A (en) | Apparatus and method for summary presentation | |
JP4500957B2 (en) | Subtitle production system | |
JP4140744B2 (en) | How to automatically split caption text | |
JP2003216200A (en) | System for supporting creation of writing text for caption and semi-automatic caption program production system | |
JP2009152782A (en) | Content reproducing apparatus and content reproducing method | |
JP2002197488A (en) | Device and method for generating lip-synchronization data, information storage medium and manufacturing method of the information storage medium | |
JP2003244539A (en) | Consecutive automatic caption processing system | |
JP2006510304A (en) | Method and apparatus for selectable rate playback without speech distortion | |
JP2003224807A (en) | Caption program edit supporting system and semi- automatic caption program production system | |
JP2003018534A (en) | Reproducing equipment and method, recording medium and program | |
JP2006222568A (en) | Narration support device, and document editing method and program thereof | |
JP2000358202A (en) | Video audio recording and reproducing device and method for generating and recording sub audio data for the device | |
JPH05176232A (en) | Title superimposing device | |
JP2002351490A (en) | Method of imparting timing information to subtitles | |
JP3953930B2 (en) | Subtitle multiplexing device | |
JP2007334365A (en) | Information processor, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040824 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20060419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100303 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4500957 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130430 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140430 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |