JP5410128B2 - コンテンツ表示制御装置、コンテンツ表示制御方法、プログラム、記録媒体 - Google Patents

コンテンツ表示制御装置、コンテンツ表示制御方法、プログラム、記録媒体 Download PDF

Info

Publication number
JP5410128B2
JP5410128B2 JP2009072718A JP2009072718A JP5410128B2 JP 5410128 B2 JP5410128 B2 JP 5410128B2 JP 2009072718 A JP2009072718 A JP 2009072718A JP 2009072718 A JP2009072718 A JP 2009072718A JP 5410128 B2 JP5410128 B2 JP 5410128B2
Authority
JP
Japan
Prior art keywords
caption
data
display
open
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009072718A
Other languages
English (en)
Other versions
JP2010226520A (ja
Inventor
哲郎 小林
裕 大坪
次郎 木山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009072718A priority Critical patent/JP5410128B2/ja
Publication of JP2010226520A publication Critical patent/JP2010226520A/ja
Application granted granted Critical
Publication of JP5410128B2 publication Critical patent/JP5410128B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、映像データと、当該映像データとタイムスタンプを介して関連付けられたとテキストデータとを含むコンテンツの表示を制御するコンテンツ表示制御装置、コンテンツ表示制御方法、プログラム及び記録媒体に関する。
テレビジョン放送コンテンツにおいて、映像に重畳してテレビ画面に表示される文字情報には、クローズドキャプション及びオープンキャプションの2種類がある。クローズドキャプションは、映像データと分離した状態で送信される文字情報であり、受信機側で映像データと合成することによって画面に表示されるものである。一方、オープンキャプションは、映像データに合成された状態で送信される文字情報であり、受信機側で映像データを表示することによって画面に表示されるものである。クローズドキャプションは、一般に字幕と称されることがあり、受信機側で表示又は非表示を選択することができるものであるが、オープンキャプションは、テロップのように映像を表示すると常に表示され、非表示設定することができない。
このように、ユーザは映像情報や音声情報だけでなく、文字情報による放送内容の理解が可能である。近年、より効率よく放送内容を理解するための文字情報の表示方法が開発されている。特許文献1には、すでに表示した字幕を、新たに表示された字幕と共に画面上に残して表示する放送受信装置が記載されている。これにより、ユーザがより字幕の内容を把握しやすくすることを目的としている。また、特許文献2には、字幕を映像とは異なる表示装置に表示することによって、字幕の表示と映像の表示とが干渉して字幕が読みづらいという問題を解決する装置が記載されている。また、特許文献3には、字幕が挿入されている映像のみを字幕と共に順次再生するダイジェスト表示によって、全体映像を逐次再生しなくても放送内容を理解可能にすることを目的とした映像再生装置が記載されている。
特開2002−232798号公報(2002年8月16日公開) 特開2001−24964号公報(2001年1月26日公開) 特開2008−85946号公報(2008年4月10日公開)
しかしながら、放送コンテンンツにおいては、オープンキャプション及びクローズドキャプションの両方読むことで初めて、文字情報による放送コンテンツの内容理解が可能なように作成されているものがあり、このような場合、クローズドキャプションからのみでは文字情報による放送コンテンツの内容理解が十分ではない。特許文献1〜3に記載の装置はいずれも、文字情報の表示領域にクローズドキャプションのみを表示するものであり、ユーザが放送コンテンツの内容を十分に理解することが困難である。
本発明は、上記課題を解決するためになされたものであり、その目的は、ユーザが文字情報により十分にコンテンツの内容を把握することが可能なようにコンテンツを表示させるコンテンツ表示制御装置、コンテンツ表示制御方法、プログラム、及び記録媒体を提供にすることにある。
(コンテンツ表示制御装置)
本発明に係るコンテンツ表示制御装置は、上記課題を解決するために、表示画面上の映像表示領域に映像データを表示すると共に、当該映像データにタイムスタンプを介して関連付けられたテキストデータを当該表示画面上の文字表示領域に表示するコンテンツ表示制御装置であって、上記映像データ中の文字領域を抽出する抽出手段と、上記抽出された文字領域と、上記テキストデータとを、上記文字表示領域に表示する表示手段とを備えていることを特徴としている。
上記の構成によれば、コンテンツ表示制御装置は、表示画面上の映像表示領域に映像データを表示すると共に、当該映像データにタイムスタンプを介して関連付けられたテキストデータを当該表示画面上の文字表示領域に表示する。そして、文字表示領域には、抽出手段が映像データから抽出した文字領域と、当該映像データにタイムスタンプを介して関連付けられたテキストデータとの両方が、表示手段によって表示される。したがって、コンテンツを視聴するユーザは、テキストデータのみではなく、映像データに含まれる文字情報からもコンテンツの内容を理解することができるので、ユーザがコンテンツの内容を十分に理解することができる。
また、本発明に係るコンテンツ表示制御装置において、上記抽出手段は、上記文字領域を、字句領域と背景領域とを含む画像データとして抽出し、上記表示手段は、上記抽出された画像データと、上記テキストデータとを、上記文字表示領域に表示することが好ましい。
上記の構成によれば、抽出手段は、映像データに含まれる文字領域を、字句領域と背景領域とを含む画像データとして抽出し、文字表示領域には、当該画像データとテキストデータとが、表示手段によって表示される。これにより、ユーザは、文字表示領域に表示される文字領域を表す画像データとテキストデータとから、コンテンツの内容を十分に理解することができる。
また、本発明に係るコンテンツ表示制御装置において、上記抽出手段は、上記画像データを抽出する際、上記字句領域を予め定められた所定の大きさに調整し、上記表示手段は、上記調整後の画像データと、上記テキストデータとを、上記文字表示領域に表示することが好ましい。
上記の構成によれば、抽出手段は、映像データから文字領域の画像データを抽出する際、字句領域を予め定められた所定の大きさに調整する。そして、表示手段は、調整後の画像データとテキストデータとを文字表示領域に表示する。したがって、例えば、画像データの大きさをテキストデータの大きさに合わせることによって、文字表示領域の見やすさが向上する。
また、本発明に係るコンテンツ表示制御装置において、上記抽出手段は、上記文字領域中の字句領域を表す、テキスト形式の字句領域データとして、上記文字領域を抽出し、上記表示手段は、上記字句領域データと、上記テキストデータとを上記文字表示領域に表示することが好ましい。
上記の構成によれば、抽出手段は、映像データに含まれる文字領域を、文字領域中の字句領域を表す、テキスト形式の字句領域データとして抽出する。そして、表示手段は、抽出されたテキスト形式の字句領域データとテキストデータとを文字表示領域に表示する。このように、文字表示領域に、テキストデータと同じテキスト形式の字句領域データを表示することによって、文字表示領域の見やすさが向上する。
また、本発明に係るコンテンツ表示制御装置において、上記抽出手段は、上記文字領域中の字句領域から抽出した各用語の重み付け係数を、上記テキストデータから抽出した各用語の比較重み付け係数と比較し、上記重み付け係数が予め定められた所定の重み付け係数よりも大きい場合に、上記文字領域を上記字句領域データとして抽出することが好ましい。
上記の構成によれば、抽出手段は、まず、テキストデータから抽出した各用語の比較重み付け係数と、文字領域中の字句領域から抽出した各用語の重み付け係数とを比較する。そして、重み付け係数が、予め定められた所定の重み付け係数よりも大きい場合に、当該文字領域を字句領域データとして抽出する。このように、抽出手段は、テキストデータに基づいて、字句領域データの抽出処理を行うので、字句領域データの抽出精度が向上する。
また、本発明に係るコンテンツ表示制御装置において、上記表示手段は、上記字句領域データを、上記テキストデータと異なる表示形式によって表示することが好ましい。これにより、ユーザは、文字表示領域に表示される文字情報の種別を理解することができるので、コンテンツの内容を十分に理解することができる。
また、本発明に係るコンテンツ表示制御装置において、上記表示手段は、上記文字領域を含む映像データとタイムスタンプを介して関連付けられたテキストデータを表示する時刻とは異なる時刻に、当該文字領域を表示することが好ましい。
上記の構成によれば、表示手段は、映像データから抽出した文字領域とテキストデータとを重複しないように表示するので、ユーザは文字領域とテキストデータとの両方を視聴することによって、コンテンツの内容を十分に理解することができる。
また、本発明に係るコンテンツ表示制御装置は、上記文字領域と上記テキストデータとを統合した文字情報データを作成する統合手段をさらに備え、上記表示手段は、上記文字情報データを上記文字表示領域に表示することが好ましい。
上記の構成によれば、統合手段は、抽出手段が抽出した文字領域とテキストデータとを統合して文字情報データを作成する。そして、表示手段は、統合手段が作成した文字情報データを表示する。したがって、コンテンツを視聴するユーザは、テキストデータと文字領域とからコンテンツの内容を十分に理解することができる。
また、本発明に係るコンテンツ表示制御装置において、上記統合手段は、上記抽出された文字領域と、予め重要データであると設定された比較文字領域とを比較し、上記文字領域が当該重要データであると判定した場合に、上記文字領域と上記テキストデータとを統合した上記文字情報データを作成することが好ましい。
上記の構成によれば、統合手段は、まず、予め重要データであると設定された比較文字領域と、抽出手段が抽出した文字領域とを比較して、文字領域が重要データであるか否かを判定する。そして、文字領域が重要データであると判定した時には、当該文字領域とテキストデータとを統合して文字情報データを作成し、文字領域が重要データではないと判定した時には、当該文字領域をテキストデータと統合せず、文字情報データを作成しない。これにより、ユーザがコンテンツの内容を理解するのに必要とする文字情報のみを文字表示領域に表示することができるので、ユーザがより容易にコンテンツの内容を理解することができる。
(コンテンツ表示制御方法)
本発明に係るコンテンツ表示制御方法は、映像データを表示画面上の映像表示領域に表示すると共に、当該映像データにタイムスタンプを介して関連付けられたテキストデータを当該表示画面上の文字表示領域に表示するコンテンツ表示制御装置が実行するコンテンツ表示制御方法であって、上記映像データ中の文字領域を抽出する抽出ステップと、上記抽出された文字領域と、上記テキストデータとを、上記文字表示領域に表示する表示ステップとを備えていることを特徴としている。
上記の構成によれば、本発明に係るコンテンツ表示制御装置と同様の作用効果を奏する。
(コンテンツ表示装置)
本発明に係るコンテンツ表示装置は、本発明に係るコンテンツ表示制御装置を備えていることを特徴としている。上記の構成によれば、コンテンツ表示装置は、表示画面上の映像表示領域に映像データを表示すると共に、当該映像データにタイムスタンプを介して関連付けられたテキストデータを当該表示画面上の文字表示領域に表示する。そして、文字表示領域には、コンテンツに含まれるテキストデータと、コンテンツの映像データに含まれる文字領域との両方が表示される。したがって、コンテンツを視聴するユーザは、テキストデータのみではなく、映像データに含まれる文字情報からもコンテンツの内容を理解することができる。その結果、ユーザがコンテンツの内容を十分に理解することができる。
(プログラム、記録媒体)
なお、上記コンテンツ表示制御装置は、コンピュータによって実現してもよい。この場合、コンピュータを上記各手段として動作させることにより上記コンテンツ表示制御装置をコンピュータにおいて実現するプログラム、及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明に係るコンテンツ表示制御装置は、表示画面上の映像表示領域に映像データを表示すると共に、当該映像データにタイムスタンプを介して関連付けられたテキストデータを当該表示画面上の文字表示領域に表示するコンテンツ表示制御装置であって、上記映像データ中の文字領域を抽出する抽出手段と、上記抽出された文字領域と、上記テキストデータとを、上記文字表示領域に表示する表示手段とを備えているので、コンテンツを視聴するユーザは、テキストデータのみではなく、映像データに含まれる文字情報からもコンテンツの内容を理解することが可能であり、ユーザがコンテンツの内容を十分に理解することができる。
本発明の一実施形態に係るコンテンツ再生装置の要部構成の概略を示すブロック図である。 クローズドキャプションデータを含むクローズドキャプションテーブルの一例を示す図である。 オープンキャプションデータを含むオープンキャプションテーブルの一例を示す図である。 字幕統合データを含む字幕統合テーブルの一例を示す図である。 字幕統合テーブルのサブクローズドテーブルの一例を示す図である。 字幕統合データのサブオープンテーブルの一例を示す図である。 本発明に係る再生制御装置における再生データ作成処理の流れの一例を示すフローチャートである。 本発明に係る再生制御装置における字幕統合データの作成処理の流れを示すフローチャートである。 本発明に係る再生制御装置における重要データ判別処理の流れを示すフローチャートである。 オープンキャプションの字句領域と背景領域とを説明する図である。 放送コンテンツの一例を示す図である。 本発明に係るコンテンツ再生装置が再生する字幕表示領域の一例を示す図である。 本発明に係るコンテンツ再生装置が再生する字幕表示領域の他の例を示す図である。 本発明に係る再生制御装置における字幕再生処理の流れを示すフローチャートである。 字幕統合データを含む字幕統合テーブルの他の例を示す図である。 本発明に係る再生制御装置における字幕統合データの作成処理の流れの他の例を示すフローチャートである。 クローズドキャプションテーブルから作成した重要語句テーブルの例を示す図である。 本発明に係るコンテンツ再生装置が再生する字幕表示領域の他の例を示す図である。 本発明に係るコンテンツ再生装置が再生する字幕表示領域の他の例を示す図である。
〔第1の実施形態〕
本発明の一実施形態について、図1から図14に基づいて説明すれば、以下の通りである。なお、本実施形態においては、受信したテレビジョン放送コンテンツを記録及び再生するコンテンツ再生制御装置及びコンテンツ再生装置について説明するが、本発明はこれに限定されず、付加テキストを含むストリーミングコンテンツ、付加テキストを含むダウンロードコンテンツ(蓄積コンテンツ、ファイルコンテンツ等)、及び付加テキストを含むIP放送コンテンツを記録及び再生する装置にも好適に利用可能である。このような装置として、テレビジョン受像機、PC(Personal Computer)等を使用可能である。
(コンテンツ再生装置100)
本発明に係るコンテンツ再生装置(コンテンツ表示装置)100の構成について、図1を参照して以下に説明する。図1は、本発明の第1の実施形態に係るコンテンツ再生装置100の要部構成の概略を示すブロック図である。コンテンツ再生装置100は、コンテンツデータを含むデジタル放送信号を受信し、放送コンテンツを記録及び再生する。具体的には、表示画面上の映像表示領域にコンテンツデータに含まれる映像データを表示すると共に、当該映像データにタイムスタンプを介して関連付けられたテキストデータを表示画面上の文字表示領域に表示する。
図1に示すように、コンテンツ再生装置100は、コンテンツ再生制御装置(コンテンツ表示制御装置)10、ユーザ操作部11、及び表示部21を備えている。さらに、全体制御部12、データ受信部13、データ生成部(抽出手段)14、データ保持部15、データ読み出し部16、AV再生部17、同期部18、字幕再生部19、及びデータ再生部(表示手段)20を備えている。データ生成部14は、さらに、オープンキャプション抽出部141、クローズドキャプション抽出部142、及び字幕統合部(統合手段)143を備えている。
ユーザ操作部11は、ユーザの操作に応じて、そのユーザの操作を表す操作信号をコンテンツ再生制御装置10に出力する入力装置である。ユーザは、ユーザ操作部11を操作することによって、再生制御装置10に録画又は再生等の操作内容を入力する。ユーザ操作部11は、ユーザがコンテンツ再生装置100に設けられた操作ボタンを押したときに、その操作を表す操作信号を再生制御装置10に出力するものであってよく、一般的なリモートコントローラーのように、ユーザが操作ボタンを押したときに出力される、その操作を表す赤外線信号を受信して、再生制御装置10に出力するものであってもよい。
(再生制御装置10)
再生制御装置10は、ユーザ操作部11からの操作信号に基づいて、放送コンテンツの記録及び再生を制御する。再生制御装置10において、全体制御部12は、ユーザ操作部11からの操作信号に基づいて、再生制御装置10の各構成部材を制御する。以下、再生制御装置10の各構成部材の機能は、特に示さない限り、全体制御部12によって制御されるものである。
データ受信部13は、RF入力端子から入力されるデジタル放送信号を受信して復調し、再生又は録画の対象となるサービスに対応するMPEG−2 Transport Stream(以下、放送コンテンツと称する)を抽出して、データ生成部14に送信する。これと同時に、受信した放送コンテンツの属性情報やエントリポイントに関する情報を検出して、全体制御部12に通知する。
データ生成部14は、データ受信部13から送信された放送コンテンツを受信し、受信した放送コンテンツデータからデータ保持部15に記録するデータを生成する。データ生成部14が受信した放送コンテンツデータには、音声データ、映像データ、及び字幕データが含まれており、これらの各データについて、データ保持部15に記録するデータを生成する。データ生成部14は受信した放送コンテンツデータに含まれる音声データ及び映像データを、適切なデータフォーマットに整形し、データ保持部15に送信する。
オープンキャプション抽出部141は、データ受信部13から送信される放送コンテンツデータから映像データを含むパケットを抽出し、抽出した映像データ中のオープンキャプション(文字領域)をさらに抽出する。このとき、当該パケット中に含まれるオープンキャプションの表示時刻情報(表示開始時刻情報及び表示終了時刻情報)、オープンキャプションを構成する画素の配列を表す画像データ、オープンキャプションの形状を表す図形情報、並びにオープンキャプションの表示位置を表す座標情報を抽出する。
そして、オープンキャプション抽出部141は、抽出したオープンキャプションを後述するデータフォーマットに整形してオープンキャプションデータを作成し、図示しないメモリに保持する。メモリに保持されたオープンキャプションデータは、全体制御部12の制御にしたがって、字幕統合部143に送信される。映像データ中からのオープンキャプションの抽出には従来公知の技術を用いることができる。
クローズドキャプション抽出部142は、データ受信部13から送信される放送コンテンツからクローズドキャプション(テキストデータ)を含むパケットを抽出し、当該パケット中に含まれるクローズドキャプションの表示時刻情報、クローズドキャプションの字幕文データ及びフォントサイズデータを抽出する。そして、クローズドキャプション抽出部142は、抽出したクローズドキャプションを後述するデータフォーマットに整形してクローズドキャプションデータを作成し、図示しないメモリに保持する。メモリに保持されたクローズドキャプションデータは、全体制御部12の制御にしたがって、字幕統合部143及びデータ読み出し部16に送信される。
字幕統合部143は、オープンキャプション抽出部141及びクローズドキャプション抽出部142において作成したオープンキャプションデータ及びクローズドキャプションデータを統合して、字幕統合データ(文字情報データ)を作成し、図示しないメモリに保持する。メモリに保持された字幕統合データは、全体制御部12の制御にしたがって、データ保持部15に送信される。
データ保持部15は、データ生成部14から送信された音声データ、映像データ、クローズドキャプション抽出部142から送信されたクローズドキャプションデータ、及び字幕統合部143から送信された字幕統合データ(以下、まとめて再生データと称することもある)を受信し、図示しないメモリに記録する記録処理を行う。データ保持部15は、メモリ中に空き容量がない等の事態が発生した場合、全体制御部12に対して通知する。データ保持部15に再生データを保存することによって、放送コンテンツの録画が可能である。また、データ保持部15に保存にした再生データを用いて、タイムスタンプを介して字幕データが関連付けられた映像データ及び音声データのみを再生するダイジェスト再生を行うこともできる。
データ読み出し部16は、ユーザ操作部11から再生を表す操作信号を受信したときに、再生データをデータ保持部15から読み出し、AV再生部17及び字幕再生部19に送信する。
AV再生部17は、データ読み出し部16から送信された映像データ及び音声データ(以下、AVデータと称する)のデコード処理を行い、デコード処理したAVデータを同期部18に送信する。
字幕再生部19は、データ読み出し部16から送信された字幕統合データ又はクローズドキャプションデータのデコード処理を行い、デコード処理した字幕統合データ又はクローズドキャプションデータを同期部18に送信する。
同期部18は、AV再生部17から送信されたAVデータと、字幕再生部19から送信された字幕統合データ又はクローズドキャプションデータとの同期処理を行い、同期処理したAVデータをAV再生部17に送信し、同期処理した字幕統合データ又はクローズドキャプションデータを字幕再生部19に送信する。
AV再生部17は同期処理されたAVデータを、字幕再生部19は同期処理された字幕統合データ若しくはクローズドキャプションデータを、それぞれデータ再生部20に送信する。
データ再生部20は、AV再生部17及び字幕再生部19から受信した、同期処理されたAVデータ及び字幕統合データ又はクローズドキャプションデータの再生処理を行い、表示部21に表示させる。
(オープンキャプションデータ及びクローズドキャプションデータ)
オープンキャプション抽出部141及びクローズドキャプション抽出部142において作成するオープンキャプションデータ及びクローズドキャプションデータについて、図2及び3を参照して以下に説明する。図2は、クローズドキャプションデータを含むクローズドキャプションテーブル200の一例を示す図であり、図3は、オープンキャプションデータを含むオープンキャプションテーブル300の一例を示す図である。以下では、オープンキャプション及びクローズドキャプションを、単に字幕と称することもある。
図2に示すように、クローズドキャプション抽出部142において作成するクローズドキャプションテーブル200は、放送コンテンツデータに含まれる映像データにタイムスタンプを介して関連付けられたクローズドキャプションデータを含んでいる。タイムスタンプとは、クローズドキャプションの再生タイミングを制御する情報であり、時刻情報と称することもある。
クローズドキャプションテーブル200は、クローズドキャプションデータを字幕文データ及び表示フォントサイズ(表示サイズ)として、時刻情報に関連付けて含んでいる。クローズドキャプションテーブル200において、クローズドキャプションデータは、時刻情報に基づいて表示順に並べられている。例えば、クローズドキャプションテーブル200は、表示サイズ「中」の字幕文データ「続いては天気です。」を、時刻Bに関連付けて含んでおり、順に時刻D及び時刻Eにそれぞれ関連付けられた字幕文データ及び表示サイズを含んでいる。
図3に示すように、オープンキャプション抽出部141において作成するオープンキャプションテーブル300は、放送コンテンツに含まれる映像データ中に含まれるオープンキャプションデータを含んでいる。オープンキャプションテーブル300は、オープンキャプションデータを、画素の配列により表された画像データ、オープンキャプションの形状を表す図形情報、及びオープンキャプションの表示位置を表す領域座標として、表示開始時刻情報及び表示終了時刻情報に関連付けて含んでいる。
オープンキャプションテーブル300において、オープンキャプションデータは、表示開始時刻情報及び表示終了時刻情報に基づいて表示順に並べられている。例えば、オープンキャプションテーブル300は、形状が「円」であり、領域座標が「中心=(600,500) 半径=100」の画像データを、開始時刻A及び終了時刻Cに関連付けて含んでおり、順に、形状が「矩形」であり、領域座標が「(400,100)(400,300)(800,100)(800,300)」の画像データを、開始時刻E及び終了時刻Fに関連付けて含んでいる。なお、映像データ中から抽出したオープンキャプションの図形情報の算出が困難な場合には、図形情報をオープンキャプションテーブル300に含めないことも可能である。
(字幕統合データ)
次に、字幕統合部143において作成する字幕統合データについて、図4〜6を参照して以下に説明する。図4は、字幕統合データを含む字幕統合テーブル400の一例を示す図であり、図5は、字幕統合テーブル400のサブクローズドテーブル500の一例を示す図であり、図6は、字幕統合テーブル400のサブオープンテーブル600の一例を示す図である。
字幕統合部143は、クローズドキャプションテーブル200とオープンキャプションテーブル300とを統合し、これらのデータを一元に管理する字幕統合テーブル400を作成する。字幕統合部143による字幕統合テーブル400の作成の詳細については、後述する。図4に示すように、字幕統合テーブル400は、オープンキャプション及びクローズドキャプションの字幕の種別を表す種別情報を、字幕の表示時刻を表す時刻情報及び字幕を識別するための字幕IDに関連付けて含んでおり、字幕の種別を表す種別情報を管理するものである。
字幕統合テーブル400は、字幕ID「1」に関連付けて、時刻Bに表示させる字幕情報の種別「クローズ」を含んでおり、順に、字幕ID「2」〜「4」にそれぞれ関連付けて、時刻Dに表示させる字幕情報の種別「クローズ」、時刻Hに表示させる字幕情報の種別「オープン」、時刻Gに表示させる字幕情報の種別「クローズ」を含んでいる。
サブクローズドテーブル500及びサブオープンテーブル600は、字幕統合テーブル400に関連付けられたサブテーブルである。図5に示すように、サブクローズドテーブル500は、クローズドキャプションデータを字幕文データ及び表示サイズとして、字幕IDに関連付けて含んでいる。サブクローズドテーブル500における字幕IDは、字幕統合テーブル400における字幕IDに対応しており、字幕統合テーブル400の種別「クローズ」で表される字幕データがサブクローズドテーブル500に含まれている。
図5に示すように、サブクローズドテーブル500は、表示サイズ「中」の字幕文データ「続いては天気です。」を、字幕ID「1」に関連付けて含んでおり、順に字幕ID「2」及び「4」にそれぞれ関連付けられた字幕文データ及び表示サイズを含んでいる。例えば、字幕統合テーブル400の字幕ID「1」で表される、時刻Bに表示され種別「クローズ」の字幕は、表示サイズ「中」の字幕文データ「続いては天気です。」である。
図6に示すように、サブオープンテーブル600は、オープンキャプションを、画素座標、当該画素座標条の色情報、並びに背景領域及び字句領域のいずれであるかとして、字幕IDに関連付けて含んでいる。サブオープンテーブル600における字幕IDは、字幕統合テーブル400における字幕IDに対応しており、字幕統合テーブル400の種別「オープン」で表される字幕データがサブオープンテーブル600に含まれている。
サブオープンテーブル600において、オープンキャプションを構成する各画素の座標及び当該画素の色情報が字幕ID「3」に関連付けて含まれている。また各画素が表示されたときに背景領域になるのか字句領域になるのかを判定した結果に関する情報が、画素毎に字幕ID「3」に関連付けて含まれている。サブオープンテーブル600の字幕ID「3」に関連付けられた画素座標「(0,0)」は、色情報「255,255,153」であり、表示されたときにオープンキャプションの背景領域となる。同様に、サブオープンテーブル600には、字幕ID「3」で表されるオープンキャプションの全ての画素について、画素座標、色情報、及び背景領域か字句領域かの判定結果が含まれる。
(再生データ作成処理)
データ生成部14における再生データの作成処理について、図7を参照して以下に説明する。図7は、データ生成部14が再生データを作成するときに行う処理の流れの一例を示すフローチャートである。
まず、データ生成部14は、ステップS70において、データ受信部13が受信した放送コンテンツデータから、音声データ、映像データ及び字幕データを抽出する。このとき、クローズドキャプション抽出部142が、放送コンテンツデータから、字幕データとしてクローズドキャプションを抽出する。
次に、ステップS71において、データ生成部14が抽出したデータの種類が、音声データ、映像データ及び字幕データの何れであるかを判定する。ステップS71において、抽出したデータが音声データであると判定したとき(音声データ)、抽出した音声データから、データ保持部15に保存する記録データを作成し、データ保持部15に送信する(ステップS72)。
ステップS71において、抽出したデータが映像データであると判定したとき(映像データ)、抽出した映像データから、データ保持部15に保存する記録データを作成してデータ保持部15に送信すると共に、オープンキャプション抽出部141は、当該映像データからオープンキャプションを抽出する。さらに、抽出したオープンキャプションから、データ保持部15に保存するオープンキャプションデータを作成する(ステップS73)。
ステップS71において、抽出したデータが字幕データとしてのクローズドキャプションであると判定したとき(字幕データ)、クローズドキャプション抽出部142は、抽出したクローズドキャプションから、データ保持部15に保存するクローズドキャプションデータを作成する(ステップS74)。
次に、ステップS75において、字幕統合部143は、ステップS73において作成したオープンキャプションデータと、ステップS74において作成したクローズドキャプションデータとを統合して字幕統合データを作成する字幕統合処理を行い、作成した字幕統合データをデータ保持部15に送信する。
(字幕統合処理)
字幕統合部143における字幕統合データの作成処理について、図8を参照して以下に説明する。図8は、字幕統合部143が字幕統合データを作成するときに行う処理の流れの一例を示すフローチャートである。
まず、字幕統合部143は、ステップS80において、対応時刻をインクリメントする。次に、対応時刻が記録終了時刻か否かを判定する(ステップS81)。ステップS81において、対応時刻が記録終了時刻ではないと判定したとき(No)、当該対応時刻に関連付けられたクローズドキャプションデータがクローズドキャプションテーブル200に存在するか否かを判定する(ステップS82)。
ステップS82において、対応時刻に関連付けられたクローズドキャプションがクローズドキャプションテーブル200に存在すると判定したとき(Yes)、ステップS89において、当該クローズドキャプションのデータを字幕統合テーブル400及びサブクローズドテーブル500に記録し、字幕統合データを作成する。ステップS82において、対応時刻に関連付けられたクローズドキャプションがクローズドキャプションテーブル200に存在しないと判定したとき(No)、当該対応時刻に関連付けられたオープンキャプションがオープンキャプションテーブル300に存在するか否かを判定する(ステップS83)。
ステップS83において、対応時刻に関連付けられたオープンキャプションがオープンキャプションテーブル300に存在すると判定したとき(Yes)、ステップS85において、当該オープンキャプションについて、重要データの判別処理を行う。ステップS85における重要データの判別処理の詳細については、後述する。ステップS83において、対応時刻に関連付けられたオープンキャプションがオープンキャプションテーブル300に存在しないと判定したとき(No)、ステップS80において、次の対応時刻をインクリメントする。
次に、ステップS86において、ステップS85における重要データの判別処理の結果が重要データであるか否かを判定する。ステップS86において、重要データの判別処理の結果が重要データであると判定したとき(Yes)、当該オープンキャプションの画像調整処理を行う(ステップS87)。ステップS87における画像調整処理の詳細については、後述する。ステップS86において、重要データの判別処理の結果が重要データではないと判定したとき(No)、ステップS80において、次の対応時刻をインクリメントする。
次に、ステップS87において画像調整処理したオープンキャプションの表示時刻決定処理を行う(ステップS88)。ステップS88における表示時刻決定処理の詳細については、後述する。ステップS88において表示時刻決定処理したオープンキャプションを、ステップS89において、字幕統合テーブル400及びサブオープンテーブル600に記録し、字幕統合データを作成する。ステップS89において、字幕統合データを作成した後、ステップS80において、次の対応時刻をインクリメントする。字幕統合部143は、ステップS81において、対応時刻が記録終了時刻であると判定するまで(Yes)、この処理を繰り返す。
(重要データ判別処理)
字幕統合部143における重要データ判別処理について、図9を参照して以下に説明する。図9は、字幕統合部143が重要データを判別するときに行う処理の流れの一例を示すフローチャートである。字幕統合部143における重要データ判別処理は、オープンキャプションと、予め設定した重要データの条件を有する文字領域データ(比較文字領域)とを比較し、オープンキャプションが重要データであると判定する。なお、重要データの条件については、以下に説明するものに限定されず、放送コンテンツの内容等に応じて適宜決定すればよい。
まず、ステップS90において、対応時刻のオープンキャプションの表示時間中に表示されるクローズドキャプションが存在するか否かを判定する。ステップS90において、表示されるクローズドキャプションが存在すると判定したとき(Yes)、当該オープンキャプションは重要データではないと判別する。ステップS90において、表示されるクローズドキャプションが存在しないと判定したとき(No)、当該オープンキャプションが表示される位置の領域座標が、表示部21の画面の下側中央を表しているか否かを判定する(ステップS91)。
ステップS91において、領域座標が表示部21の画面の下側中央を表していないと判定したとき(No)、当該オープンキャプションは重要データではないと判別する。ステップS91において、領域座標が表示部21の画面の下側中央を表していると判定したとき(Yes)、当該オープンキャプションの形状が矩形であるか否かを判定する(ステップS92)。
ステップS92において、オープンキャプションの形状が矩形ではないと判定したとき(No)、当該オープンキャプションは重要データではないと判別する。ステップS92において、オープンキャプションの形状が矩形であると判定したとき、当該オープンキャプションは重要データであると判別する。
(画像調整処理)
字幕統合部143における画像調整処理について、図10を参照して以下に説明する。図10は、オープンキャプションの字句領域と背景領域とを説明する図である。画像調整処理において、字幕統合部143は、オープンキャプションの字句領域を予め定められた所定の大きさに調整する。図10に示すように、映像データから抽出されたオープンキャプション101は、矩形の背景領域と、字句領域「明日は雨です。」とを有している。画像調整処理において、字幕統合部143はオープンキャプション101を、字句領域102と、背景領域103とに分離する分離処理と、分離した字句領域102の表示サイズを調整する表示サイズ調整処理と、背景領域103の画像を調整する画像調整処理と、調整した字句領域102及び背景領域103に関して、サブオープンテーブル600に登録するデータを作成するサブオープンデータ作成処理とを行う。
分離処理においては、対応時刻の前後数フレームについて、オープンキャプションの表示図形内の画素が固定値を取る領域の分散を算出することによって、字句領域102と背景領域103とを分離する。オープンキャプションの図形情報がない場合には、分離処理は行わず、全てを字句領域102と判定する。次に、表示サイズ調整処理において、分離処理した字句領域102の表示サイズが予め定められた所定の表示サイズになるように、字句領域102の表示サイズを拡大又は縮小する。所定の表示サイズは、適宜設定されるものであるが、対応時刻前後のクローズドキャプションの表示サイズに適合するように設定されてもよい。
画像調整処理においては、表示サイズが調整された字句領域102に合わせて、分離処理された背景領域103の画像を調整する。このとき、背景領域103が表示部21の字幕表示領域の背景と一致するように、背景領域の画像を調整してもよい。そして、サブオープンデータ作成処理において、表示サイズ又は画像を調整した字句領域102及び背景領域103に関して、サブオープンテーブル600に登録するデータを生成する。
(表示時刻決定処理)
表示時刻決定処理において、字幕統合部143は、対応時刻のオープンキャプションの表示開始時刻から表示終了時刻の間において、字幕統合テーブル400に時刻情報として登録する時刻を算出する。オープンキャプションの表示時刻は、オープンキャプションとクローズドキャプションとの表示時刻が重ならないように、オープンキャプションを、クローズドキャプションの表示時刻とは異なる時刻に表示するように、決定すればよい。表示時刻の算出方法としては、例えば、オープンキャプションの表示開始時刻又は表示終了時刻とする方法や、表示開始時刻と表示終了時刻との中間値とする方法等が挙げられる。
(字幕の表示形態)
ここで、表示部21における字幕の表示形態について、図11〜13を参照して以下に説明する。図11は、放送コンテンツデータ110の一例を示す図であり、図12及び13は、表示部21に表示される字幕の例を示す図である。図11に示すように、放送コンテンツ110において、クローズドキャプションデータ113は、映像データ111と時刻情報112を介して関連付けられている。
そして、映像データ111において、時刻A〜Cの画像及び時刻E〜Fの画像には、それぞれオープンキャプションが含まれている。このとき、従来の再生装置のように、表示部21の字幕表示領域にクローズドキャプションデータ113のみが表示される場合、時刻E〜Fの画像に表示されるオープンキャプションの情報「明日は雨です。」が字幕表示領域に表示されず、ユーザが字幕から放送コンテンツの内容を十分に理解することができない。
本発明においては、図12及び13に示すように、クローズドキャプション及びオープンキャプションの両方を表示部21の字幕表示領域に表示するので、ユーザが字幕から放送コンテンツの内容を十分に理解することができる。ここで、図12及び13に示すように、字幕表示領域120及び130には、新たな字幕を表示したときに、既に表示している字幕を削除せずに表示し、字幕データを時系列にスクロール表示する。
そして、図12に示すように、字幕表示領域120には、オープンキャプション121を画像として表示する。オープンキャプション121の画像の表示サイズは、前後のクローズドキャプションの表示サイズとの比較によって決定する事ができる。また、他の表示形態として、図13に示すように、字幕表示領域130において、オープンキャプション131を画像として表示しているが、その背景領域を字幕表示領域130の背景と同一として、背景領域の形状が判別されないようにしている。これにより、字幕表示領域130の見やすさを向上している。
(字幕再生処理)
データ生成部14が生成した再生データは、データ保持部15に記録され、ユーザ操作部11からの再生の指示を受け付けたとき、データ読み出し部16がデータ保持部15から読み出し、AV再生部17及び字幕再生部19においてデコードされた後、同期部18において同期処理され、データ再生部20により再生処理されて表示部21に表示される。
データ再生部20における字幕再生処理について、図14を参照して以下に説明する。図14は、データ再生部20が字幕データを再生するときに行う処理の流れの一例を示すフローチャートである。なお、字幕再生処理は、以下に示す処理に限定されず、映像データと字幕データとを時刻情報に基づき時系列に再生するような、従来公知の処理を行ってもよい。
まず、ステップS140において、データ再生部20は、対象時刻をインクリメントする。次に、対象時刻が再生終了時刻か否かを判定する(ステップS141)。ステップS141において、対象時刻が再生終了時刻ではないと判定したとき(No)、字幕統合テーブル400に対象時刻の字幕データが存在するか否かを判定する(ステップS142)。ステップS141において、対象時刻が再生終了時刻であると判定したとき(Yes)、字幕の再生を終了する。
ステップS142において、字幕統合テーブル400に対象時刻の字幕データが存在すると判定したとき(Yes)、対象時刻の字幕データを、タイムスタンプを介して関連付けられた映像データと共に表示部21に表示して(ステップS143)、ステップS140に戻り、次の対象時刻をインクリメントする。
ステップS142において、字幕統合テーブル400に対象時刻の字幕データが存在しないと判定したとき(No)、ステップS140において、次の対象時刻をインクリメントする。データ再生部20は、ステップS140において、対象時刻が再生終了時刻であると判定するまで(Yes)、この処理を繰り返す。
コンテンツ再生装置100においては、上記のように、全ての映像データと字幕データとを再生する再生処理以外に、タイムスタンプを介して字幕が関連付けられた映像データのみを再生するダイジェスト再生処理を行うこともできる。ダイジェスト再生処理においても、クローズドキャプションのみではなく、オープンキャプションが関連付けられた映像データも再生するので、より高精度なダイジェスト再生が可能である。
〔第2の実施形態〕
本発明の他の実施形態について、図15〜19に基づいて説明すれば、以下の通りである。本実施形態においては、映像データから抽出されたオープンキャプションに対して文字認識処理を行い、オープンキャプションを、オープンキャプション中の字句領域を表す、テキスト形式のデータ(字句領域データ)として抽出して字幕統合テーブルに記録し、再生する点において、上述した第1の実施形態と異なっているが、使用するコンテンツ再生装置100及び再生制御装置10は、第1の実施形態において用いたものと同一である。本実施形態においては、第1の実施形態と異なる点についてのみ説明し、第1の実施形態と同一の機能を有する部材には、同一の符号を付してその説明を省略する。また、第1の実施形態において定義した用語については、特に断らない限り本実施形態においてもその定義に則って用いる。
(字幕統合データ)
本実施形態において作成する字幕統合データについて、図15を参照して以下に説明する。図15は、字幕統合データを含む字幕統合テーブル150の一例を示す図である。なお、字幕統合テーブル150の作成に用いるクローズドキャプションテーブル200及びオープンキャプションテーブル300、並びにサブクローズドテーブル500及びサブオープンテーブル600は、第1の実施形態と同一である。
図15に示すように、字幕統合部143において作成する字幕統合テーブル150は、字幕データのテキストデータ、字幕データの表示サイズ情報、及び字幕データの種別を表す種別情報を、字幕データの表示時刻を表す時刻情報に関連付けて含んでいる。字幕統合テーブル150において、時刻Bに表示される、表示サイズ「中」の種別「クローズ」であるテキストデータ「続いては天気です。」は、時刻Bに関連付けて含まれており、順に時刻D、時刻H及び時刻Gに表示される字幕データが含まれている。このように、字幕統合テーブル150は、クローズドキャプションとオープンキャプションとを、テキストデータとして一元管理するためのテーブルである。
(字幕統合処理)
本実施形態においては、字幕統合テーブル150に字幕データを記録して、字幕統合データを作成する。字幕統合部143における字幕統合データの作成処理の他の例について、図16を参照して以下に説明する。図16は、字幕統合部143が字幕統合データを作成するときに行う処理の流れの他の例を示すフローチャートである。
まず、字幕統合部143は、ステップS160において、対応時刻をインクリメントする。次に、対応時刻が記録終了時刻か否かを判定する(ステップS161)。ステップS161において、対応時刻が記録終了時刻ではないと判定したとき(No)、当該対応時刻に関連付けられたクローズドキャプションがクローズドキャプションテーブル200に存在するか否かを判定する(ステップS162)。
ステップS162において、対応時刻に関連付けられたクローズドキャプションがクローズドキャプションテーブル200に存在すると判定したとき(Yes)、ステップS169において、当該クローズドキャプションのデータを字幕統合テーブル150及びサブクローズドテーブル500に記録し、字幕統合データを作成する。ステップS162において、対応時刻に関連付けられたクローズドキャプションがクローズドキャプションテーブル200に存在しないと判定したとき(No)、当該対応時刻に関連付けられたオープンキャプションがオープンキャプションテーブル300に存在するか否かを判定する(ステップS163)。
ステップS163において、対応時刻に関連付けられたオープンキャプションがオープンキャプションテーブル300に存在すると判定したとき(Yes)、ステップS165において、当該オープンキャプションについて、重要データの判別処理を行う。ステップS165における重要データの判別処理は、第1の実施形態と同様に行う。ステップS163において、対応時刻に関連付けられたオープンキャプションがオープンキャプションテーブル300に存在しないと判定したとき(No)、ステップS160において、次の対応時刻をインクリメントする。
次に、ステップS166において、ステップS165における重要データの判別処理の結果が重要データであるか否かを判定する。ステップS166において、重要データの判別処理の結果が重要データであると判定したとき(Yes)、当該オープンキャプションの文字認識処理を行い、オープンキャプションの字句領域を表す、テキスト形式のデータを抽出する(ステップS167)。ステップS167における文字認識処理の詳細については、後述する。ステップS166において、重要データの判別処理の結果が重量データではないと判定したとき(No)、ステップS160において、次の対応時刻をインクリメントする。
次に、ステップS167において文字認識処理して、テキストデータとして抽出したオープンキャプションの表示時刻決定処理を行う(ステップS168)。ステップS168における表示時刻決定処理は、第1の実施形態と同様に行う。ステップS168において表示時刻決定処理したオープンキャプションを、ステップS169において、字幕統合テーブル150及びサブオープンテーブル600に記録し、字幕統合データを作成する。ステップS169において、対応時刻のクローズドキャプション又はオープンキャプションを字幕統合テーブル150に記録した後、ステップS160において、次の対応時刻をインクリメントする。字幕統合部143は、ステップS161において、対応時刻が記録終了時刻であると判定するまで(Yes)、この処理を繰り返す。
(文字認識処理)
本実施形態において、字幕統合部143は、字幕統合データを作成するとき、オープンキャプションテーブルに含まれるオープンキャプションデータに対して文字認識処理を行い、オープンキャプションの字句領域を表すテキストデータを抽出し、抽出したテキストデータを字幕統合テーブル150に記録する。字幕統合部143における文字認識処理の例について、図17を参照して以下に説明する。図17は、クローズドキャプションテーブル170から作成した重要語句テーブル171の例を示す図である。なお、オープンキャプションデータに対する文字認識処理は、以下に説明する方法に限定されず、従来公知の文字認識処理方法によっても行うことができる。
字幕統合部143は、図17に示すクローズドキャプションテーブル170を用いて文字認識処理をおこなう。図17に示すように、クローズドキャプションテーブル170は、クローズドキャプションを字幕文データ及び表示サイズとして、時刻情報に関連付けて含んでいる。クローズドキャプションテーブル170において、クローズドキャプションは、時刻情報に基づいて表示順に並べられている。
文字認識処理において、字幕統合部143は、まず、従来公知の文字認識技術を用いて、オープンキャプションデータ中の字句領域の各用語の特徴量を表す重み付け係数を抽出する。このような文字認識技術として、パターンマッチ法、ゾンデ法、ストロークアナリシス法等が挙げられる。そして、抽出した重み付け係数と、予め用意された文字特徴データの特徴量を表す重み付け係数とを比較して、重み付け評価を行う。このとき、抽出した重み付け係数と文字特徴データの重み付け係数とが一致するものは、重み付けを大きくする。
次に、図17に示すクローズドキャプションテーブル170を用いて、対象となるオープンキャプションデータと表示時刻の近いクローズドキャプションデータから文字を抽出し、重要語句テーブル171を作成する。このとき、例えばクローズドキャプションデータから漢字文字を抽出し、重要語句テーブル171に記録する。重要語句テーブル171は、抽出した漢字文字を、抽出前のクローズドキャプションの表示時刻情報及び語句IDに関連付けて含んでいる。例えば、重要語句テーブル171において、語句ID1〜3の時刻Bに関連付けられた漢字文字はそれぞれ、クローズドキャプションテーブルの時刻Bに関連付けられた字幕文データ「続いては天気です。」に含まれる漢字文字である。
ここで、重み付け評価したオープンキャプションデータを、さらにクローズドキャプションデータから抽出した漢字文字に基づいて、重み付け評価する。すなわち、オープンキャプションデータの字句領域の用語が、ひらがな及びカタカナではないと判定したとき、当該用語の重み付け係数と、重要語句テーブル171において、オープンキャプションデータの表示時刻に近い表示時刻情報に関連付けられた漢字文字をキーワードとして、その重み付け係数(比較重み付け係数)を比較し、重み付け評価を行う。例えば、オープンキャプションデータの字句領域の用語が上記漢字文字の類語(シソーラス)に含まれる場合には、重み付け係数を大きくする。このとき、最初の重み付け評価において重み付け係数が小さかったものを次の重み付け評価の対象からはずすことで、より文字認識処理に要する時間を短縮することができる。
最後に、2回の重み付け評価による重み付け係数が、予め定められた所定の重み付け係数よりも大きいものを、文字認識処理の結果として、字幕統合テーブル150に記録する。このように、オープンキャプションデータの文字認識処理に、クローズドキャプションデータを参照することによって、認識処理の難易度が高い漢字文字においてもご認識を防ぎ、認識精度の向上と認識処理時間の短縮とを実現することができる。
(字幕の表示形態)
ここで、表示部21における字幕の表示形態について、図18及び19を参照して以下に説明する。図18及び19は、表示部21に表示される字幕の例を示す図である。本実施形態においては、オープンキャプションデータをテキストデータとして字幕統合テーブル150に記録しているので、図18に示すように、字幕表示領域180において、オープンキャプション181は、他のクローズドキャプションと同様にテキストデータとして表示されている。このとき、オープンキャプション181の表示サイズは、前後のクローズドキャプションの表示サイズとの比較によって決定することができる。これにより、字幕表示領域180の見やすさを向上している。
また、図19に示すように、字幕表示領域190において、オープンキャプション191は他のクローズドキャプションと同様にテキストデータとして表示されているが、他のクローズドキャプションと区別できるように、オープンキャプション191を「明日は雨です。(テロップ)」と、オープンキャプションであることを明確に表示している。このように、オープンキャプションを、クローズドキャプションと異なる表示形式で表示することによって、クローズドキャプション及びオープンキャプション191の両方を字幕表示領域190に表示し、かつこれらの字幕の種別を明確に理解することができるので、ユーザの字幕からの放送コンテンツの内容理解がより容易になる。
(プログラム及び記録媒体)
再生制御装置10に含まれている各ブロックは、ハードウェアロジックによって構成すればよい。または、次のように、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
すなわち再生制御装置10は、各機能を実現するプログラムの命令を実行するCPU、このプログラムを格納したROM(Read Only Memory)、上記プログラムを実行可能な形式に展開するRAM(Random Access Memory)、および、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)を備えている。この構成により、本発明の目的は、所定の記録媒体によっても、達成できる。
この記録媒体は、上述した機能を実現するソフトウェアである再生制御装置10のプログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録していればよい。再生制御装置10に、この記録媒体を供給する。これにより、コンピュータとしての再生制御装置10(またはCPUやMPU)が、供給された記録媒体に記録されているプログラムコードを読み出し、実行すればよい。
プログラムコードを再生制御装置10に供給する記録媒体は、特定の構造または種類のものに限定されない。すなわちこの記録媒体は、たとえば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などとすることができる。
また、再生制御装置10を通信ネットワークと接続可能に構成しても、本発明の目的を達成できる。この場合、上記のプログラムコードを、通信ネットワークを介して再生制御装置10に供給する。この通信ネットワークは再生制御装置10にプログラムコードを供給できるものであればよく、特定の種類または形態に限定されない。たとえばインターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等であればよい。
この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な任意の媒体であればよく、特定の構成または種類のものに限定されない。たとえばIEEE1394、USB(Universal Serial Bus)、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
本発明は、デジタル放送受信機等のコンテンツ表示装置に好適に利用可能である。
10 コンテンツ再生制御装置(コンテンツ表示制御装置)
14 データ生成部(抽出手段)
20 データ再生部(表示手段)
100 コンテンツ再生装置(コンテンツ表示装置)
143 字幕統合部(統合手段)

Claims (12)

  1. 表示画面に映像データを表示すると共に、当該映像データにタイムスタンプを介して関連付けられたクローズドキャプションを、当該表示画面上のクローズドキャプションを表示するための領域として予め定められた領域である字幕表示領域に表示するコンテンツ表示制御装置であって、
    上記映像データ中のオープンキャプションを抽出する抽出手段と、
    上記抽出されたオープンキャプションと、上記クローズドキャプションとを、上記字幕表示領域時系列順に表示する表示手段とを備えていることを特徴とするコンテンツ表示制御装置。
  2. 上記抽出手段は、上記オープンキャプションを、当該オープンキャプションの字句を構成する画像当該オープンキャプションの背景を構成する画像とを含む画像データとして抽出し、
    上記表示手段は、上記抽出された画像データと、上記クローズドキャプションとを、上記字幕表示領域に表示することを特徴とする請求項1に記載のコンテンツ表示制御装置。
  3. 上記抽出手段は、上記画像データを抽出する際、上記オープンキャプションの字句を構成する画像を予め定められた所定の大きさに調整し、
    上記表示手段は、上記調整後の画像データと、上記クローズドキャプションとを、上記字幕表示領域に表示することを特徴とする請求項2に記載のコンテンツ表示制御装置。
  4. 上記抽出手段は、上記オープンキャプション中の字句に対応するテキストデータとして、上記オープンキャプションを抽出し、
    上記表示手段は、上記オープンキャプション中の字句に対応するテキストデータと、上記クローズドキャプションとを上記字幕表示領域に表示することを特徴とする請求項1に記載のコンテンツ表示制御装置。
  5. 上記抽出手段は、上記オープンキャプションから抽出した各用語の重み付け係数を、上記クローズドキャプションから抽出した各用語の比較重み付け係数と比較し、上記重み付け係数が予め定められた所定の重み付け係数よりも大きい場合に、上記オープンキャプションを上記オープンキャプション中の字句に対応するテキストデータとして抽出することを特徴とする請求項4に記載のコンテンツ表示制御装置。
  6. 上記表示手段は、上記オープンキャプション中の字句に対応するテキストデータを、上記クローズドキャプションと異なる表示形式によって表示することを特徴とする請求項4又は5に記載のコンテンツ表示制御装置。
  7. 上記表示手段は、上記オープンキャプションを含む映像データとタイムスタンプを介して関連付けられたクローズドキャプションを表示する時刻とは異なる時刻に、当該オープンキャプションを表示することを特徴とする請求項1〜6のいずれか1項に記載のコンテンツ表示制御装置。
  8. 上記オープンキャプションと上記クローズドキャプションとを統合した文字情報データを作成する統合手段をさらに備え、
    上記表示手段は、上記文字情報データを上記字幕表示領域に表示することを特徴とする請求項1〜7のいずれか1項に記載のコンテンツ表示制御装置。
  9. 上記統合手段は、上記抽出されたオープンキャプションと、予め重要データであると設定された比較オープンキャプションとを比較し、上記オープンキャプションが当該重要データであると判定した場合に、上記オープンキャプションと上記クローズドキャプションとを統合した上記文字情報データを作成することを特徴とする請求項8に記載のコンテンツ表示制御装置。
  10. 表示画面に映像データを表示すると共に、当該映像データにタイムスタンプを介して関連付けられたクローズドキャプションを、当該表示画面上のクローズドキャプションを表示するための領域として予め定められた領域である字幕表示領域に表示するコンテンツ表示制御装置が実行するコンテンツ表示制御方法であって、
    上記映像データ中のオープンキャプションを抽出する抽出ステップと、
    上記抽出されたオープンキャプションと、上記クローズドキャプションとを、上記字幕表示領域時系列順に表示する表示ステップとを備えていることを特徴とするコンテンツ表示制御方法。
  11. 請求項1〜9のいずれか1項に記載のコンテンツ表示制御装置を動作させるプログラムであって、コンピュータを上記の各手段として機能させるためのプログラム。
  12. 請求項11に記載のプログラムを記録しているコンピュータ読み取り可能な記録媒体。
JP2009072718A 2009-03-24 2009-03-24 コンテンツ表示制御装置、コンテンツ表示制御方法、プログラム、記録媒体 Expired - Fee Related JP5410128B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009072718A JP5410128B2 (ja) 2009-03-24 2009-03-24 コンテンツ表示制御装置、コンテンツ表示制御方法、プログラム、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009072718A JP5410128B2 (ja) 2009-03-24 2009-03-24 コンテンツ表示制御装置、コンテンツ表示制御方法、プログラム、記録媒体

Publications (2)

Publication Number Publication Date
JP2010226520A JP2010226520A (ja) 2010-10-07
JP5410128B2 true JP5410128B2 (ja) 2014-02-05

Family

ID=43043209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009072718A Expired - Fee Related JP5410128B2 (ja) 2009-03-24 2009-03-24 コンテンツ表示制御装置、コンテンツ表示制御方法、プログラム、記録媒体

Country Status (1)

Country Link
JP (1) JP5410128B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017508326A (ja) * 2013-12-19 2017-03-23 エルジー エレクトロニクス インコーポレイティド 放送伝送装置、放送伝送装置の動作方法、放送受信装置および放送受信装置の動作方法
JP7447422B2 (ja) 2019-10-07 2024-03-12 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001313911A (ja) * 2000-04-28 2001-11-09 Nippon Hoso Kyokai <Nhk> テレビジョン送信装置およびテレビジョン受信機
JP4496358B2 (ja) * 2001-05-17 2010-07-07 独立行政法人情報通信研究機構 オープンキャプションに対する字幕表示制御方法
JP2004023492A (ja) * 2002-06-17 2004-01-22 Sharp Corp 表示装置、映像表示方法、映像表示プログラム、および記録媒体
JP2006092993A (ja) * 2004-09-27 2006-04-06 Yazaki Corp 端子

Also Published As

Publication number Publication date
JP2010226520A (ja) 2010-10-07

Similar Documents

Publication Publication Date Title
JP4630869B2 (ja) 映像要約方法
JP4835321B2 (ja) 番組提供方法、番組提供方法のプログラム、番組提供方法のプログラムを記録した記録媒体及び番組提供装置
JP5135024B2 (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
JP3615195B2 (ja) コンテンツ記録再生装置およびコンテンツ編集方法
JP2009089032A (ja) 電子機器およびシーン種類表示方法
JP2010103843A (ja) 電子機器及び映像表示方法
KR20160057864A (ko) 요약 컨텐츠를 생성하는 전자 장치 및 그 방법
CN101553814A (zh) 用于产生视频数据流摘要的方法和设备
JP2006211311A (ja) ダイジェスト映像生成装置
JP5079817B2 (ja) サマリ及びレポートを既に含んでいるオーディオビジュアル文書について新たなサマリを作成する方法及び該方法を使用する受信機
JP2009027428A (ja) 録画再生装置及び録画再生方法
JP2008312183A (ja) 情報処理装置および方法、並びにプログラム
JP5410128B2 (ja) コンテンツ表示制御装置、コンテンツ表示制御方法、プログラム、記録媒体
US20080118233A1 (en) Video player
US20110064384A1 (en) Reproduction control apparatus, reproduction control method, and program
US20080285957A1 (en) Information processing apparatus, method, and program
JP5458163B2 (ja) 画像処理装置、及び画像処理装置の制御方法
US8850323B2 (en) Electronic device, content reproduction method, and program therefor
US20150063782A1 (en) Electronic Apparatus, Control Method, and Computer-Readable Storage Medium
JP2008134825A (ja) 情報処理装置および情報処理方法、並びにプログラム
JP5143270B1 (ja) 画像処理装置、及び画像処理装置の制御方法
JP5091708B2 (ja) 検索用情報作成装置、検索用情報作成方法、検索用情報作成プログラム
KR101300220B1 (ko) 콘텐츠 데이터의 메타 정보 생성 방법 및 장치
JP2007201815A (ja) 表示装置、再生装置、方法、及びプログラム
CN114501160A (zh) 生成字幕的方法和智能字幕系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131106

LAPS Cancellation because of no payment of annual fees