JP2008020767A - 記録再生装置および方法、プログラム、並びに記録媒体 - Google Patents
記録再生装置および方法、プログラム、並びに記録媒体 Download PDFInfo
- Publication number
- JP2008020767A JP2008020767A JP2006193676A JP2006193676A JP2008020767A JP 2008020767 A JP2008020767 A JP 2008020767A JP 2006193676 A JP2006193676 A JP 2006193676A JP 2006193676 A JP2006193676 A JP 2006193676A JP 2008020767 A JP2008020767 A JP 2008020767A
- Authority
- JP
- Japan
- Prior art keywords
- content
- information
- recording
- word
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【課題】記録されたコンテンツをより効率的に視聴できるようにする。
【解決手段】音声信号解析部261は、音声認識を行い、音声信号をテキスト情報に変換する。形態素解析部262は、テキスト情報に対して形態素解析を行って、単語を抽出し、記憶部264に記憶させる。記憶部264は、供給された単語とともに、その単語の出現回数を記録する。キーワード検出部263は、単語の出現回数に基づいて、キーワードとなる単語をその単語の出現回数と対応づけて評価値処理部281に出力する。テキスト情報抽出部271は、ホームページに含まれるテキスト情報を抽出し、同様に、キーワード検出部273がキーワードを出力する。評価値処理部281は、キーワード検出部273からのキーワードと、キーワード検出部263からのキーワードとの一致の度合いを表す評価値を算出し、その評価値を、キーワードに対応するシーンの評価値として出力する。
【選択図】図4
【解決手段】音声信号解析部261は、音声認識を行い、音声信号をテキスト情報に変換する。形態素解析部262は、テキスト情報に対して形態素解析を行って、単語を抽出し、記憶部264に記憶させる。記憶部264は、供給された単語とともに、その単語の出現回数を記録する。キーワード検出部263は、単語の出現回数に基づいて、キーワードとなる単語をその単語の出現回数と対応づけて評価値処理部281に出力する。テキスト情報抽出部271は、ホームページに含まれるテキスト情報を抽出し、同様に、キーワード検出部273がキーワードを出力する。評価値処理部281は、キーワード検出部273からのキーワードと、キーワード検出部263からのキーワードとの一致の度合いを表す評価値を算出し、その評価値を、キーワードに対応するシーンの評価値として出力する。
【選択図】図4
Description
本発明は、記録再生装置および方法、プログラム、並びに記録媒体に関し、特に、記録されたコンテンツをより効率的に視聴できるようにする記録再生装置および方法、プログラム、並びに記録媒体に関する。
近年、放送番組などをMPEG(Moving Picture Coding Experts Group)などの圧縮信号処理により所定の信号処理を行ってハードディスク(HDD)など所定の情報信号記録媒体に記録する記録装置(ハードディススクレコーダ、HDDレコーダ)が広く普及している。
今後、記録媒体の大容量、低価格化、デジタル放送による画像音声コンテンツの多様化、ホームサーバのさらなる普及その他の要因により、画像音声コンテンツの記録蓄積量はますます増大すると予想される。
画像音声コンテンツの記録蓄積量の増大により、ユーザは、記録媒体のコストなどを考慮することなく、より気軽にコンテンツを、大量に記録することが可能となる。このように、コンテンツを大量に記録することが可能となると、例えば、毎週、毎日連続して放送されるコンテンツなどを、数回分記録しておき、時間のあるときに、記録されたコンテンツをまとめて視聴するなど、ユーザによるコンテンツの楽しみ方(視聴のしかた)についても変化してくるものと考えられる。
そこで、蓄積された大量のコンテンツを効率よく視聴する技術が期待されている。例えば、画像音声情報信号から所定の特徴抽出処理を行い、情報信号の構造を解析し、所定のセグメントなどの区間に分け、その区間毎に所定の評価値処理を行い、その評価値に応じて、再生制御を行うことにより、長時間のコンテンツを短時間で再生する処理が考えられる。
また、このように情報信号の構造を解析することにより、動画像データからダイジェストを生成することも提案されている。
特開2002−199333号公報
しかしながら、記録されるコンテンツの量が多くなり、例えば、毎日連続して放送されるコンテンツなどにおいて、ユーザが週末にまとめて一週間分のコンテンツを視聴する場合、記録したコンテンツのダイジェストだけを視聴しても、一週間分のコンテンツの内容を把握できないこともある。
すなわち、画像の特徴量などに基づいて代表画像を特定してダイジェストを生成する従来の方式では、連続して放送されるコンテンツのストーリーを把握するなどの点では、必ずしも有効な方式とはいえない。
本発明はこのような状況に鑑みてなされたものであり、記録されたコンテンツをより効率的に視聴できるようにするものである。
本発明の一側面は、コンテンツを記録または再生する記録再生装置であって、記録または再生するコンテンツを紹介する情報を含むデータから、テキスト情報を抽出する抽出手段と、前記抽出手段により抽出されたテキスト情報を形態素解析して予め定められた品詞の単語を検出する第1の検出手段と、前記第1の検出手段により検出された単語、およびその単語が検出された回数の情報を出力する第1の出力手段と、記録または再生するコンテンツの音声信号または音声に関連する情報を、テキスト情報に変換する音声情報変換手段と、前記音声情報変換手段による変換により得られたテキスト情報を形態素解析して予め定められた品詞の単語を検出する第2の検出手段と、前記第2の検出手段により検出された単語、およびその単語が検出された回数の情報を、前記コンテンツを構成するシーン毎に出力する第2の出力手段と、前記第1の出力手段から出力された情報と、前記第2の出力手段から出力された情報とを比較して両者の一致の度合いに基づいて評価値を算出し、前記コンテンツを構成するシーンを特定する情報と前記評価値とを対応付けて出力する評価値出力手段とを備える記録再生装置である。
前記音声情報変換手段は、前記コンテンツのクローズドキャプションを、テキスト情報に変換することで、記録または再生するコンテンツの音声に関連する情報を、テキスト情報に変換するようにすることができる。
ネットワークに接続するネットワーク接続手段をさらに備え、前記ネットワークに接続され、前記コンテンツに関する情報を掲載したホームページを記憶するサーバから前記ホームページのデータを、前記コンテンツを紹介する情報を含むデータとして取得するようにすることができる。
前記シーン毎に前記コンテンツの画像の特徴量を抽出する特徴量抽出手段をさらに備え、前記評価値出力手段は、前記ホームページのデータに含まれる画像データの特徴量と、前記特徴量抽出手段により抽出された前記コンテンツの画像の特徴量に基づいて、前記シーンに対応する前記評価値を変更するようにすることができる。
前記コンテンツに関する情報を掲載したホームページのアドレスに関する情報は、前記コンテンツが記録予約されるときに特定されるようにすることができる。
デジタル放送として放送されるコンテンツを受信する受信手段をさらに備え、前記コンテンツのデータとともに受信される前記コンテンツのメタデータを、前記コンテンツを紹介する情報を含むデータとして取得するようにすることができる。
前記コンテンツを再生する場合、前記シーンの評価値に基づいて、前記シーンの再生速度を制御するようにすることができる。
本発明の一側面は、コンテンツを記録または再生する記録再生装置の記録再生方法であって、記録または再生するコンテンツを紹介する情報を含むデータから、テキスト情報を抽出し、前記抽出されたテキスト情報を形態素解析して予め定められた品詞の単語を検出し、前記検出された単語、およびその単語が検出された回数の情報である第1の情報を出力し、記録または再生するコンテンツの音声信号または音声に関連する情報を、テキスト情報に変換し、前記変換されて得られたテキスト情報を形態素解析して予め定められた品詞の単語を検出し、前記検出された単語、およびその単語が検出された回数の情報を、前記コンテンツを構成するシーン毎に、第2の情報として出力し、前記第1の情報と、前記第2の情報とを比較して両者の一致の度合いに基づいて評価値を算出し、前記コンテンツを構成するシーンを特定する情報と前記評価値とを対応付けて出力するステップを含む記録再生方法である。
本発明の一側面は、コンテンツを記録または再生する記録再生装置に記録または再生の処理を実行させるプログラムであって、記録または再生するコンテンツを紹介する情報を含むデータから、テキスト情報の抽出を制御し、前記抽出されたテキスト情報を形態素解析して予め定められた品詞の単語の検出を制御し、前記検出された単語、およびその単語が検出された回数の情報である第1の情報の出力を制御し、記録または再生するコンテンツの音声信号または音声に関連する情報の、テキスト情報への変換を制御し、前記変換されて得られたテキスト情報を形態素解析して予め定められた品詞の単語の検出を制御し、前記検出された単語、およびその単語が検出された回数の情報を、前記コンテンツを構成するシーン毎に、第2の情報として出力するように制御し、前記第1の情報と、前記第2の情報とを比較して両者の一致の度合いに基づいて評価値を算出し、前記コンテンツを構成するシーンを特定する情報と前記評価値とを対応付けて出力するように制御するステップを含むコンピュータが読み取り可能なプログラムである。
本発明の一側面においては、記録または再生するコンテンツを紹介する情報を含むデータから、テキスト情報が抽出され、前記抽出されたテキスト情報を形態素解析して予め定められた品詞の単語が検出され、前記検出された単語、およびその単語が検出された回数の情報である第1の情報が出力される。また、記録または再生するコンテンツの音声信号または音声に関連する情報が、テキスト情報に変換され、前記変換されて得られたテキスト情報を形態素解析して予め定められた品詞の単語が検出され、前記検出された単語、およびその単語が検出された回数の情報が、前記コンテンツを構成するシーン毎に、第2の情報として出力され、前記第1の情報と、前記第2の情報とを比較して両者の一致の度合いに基づいて評価値を算出し、前記コンテンツを構成するシーンを特定する情報と前記評価値とが対応付けて出力される。
本発明によれば、記録されたコンテンツをより効率的に視聴できるようにすることができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の一側面の記録再生装置は、記録または再生するコンテンツを紹介する情報を含むデータから、テキスト情報を抽出する抽出手段(例えば、図4のテキスト情報抽出部271)と、前記抽出手段により抽出されたテキスト情報を形態素解析して予め定められた品詞の単語を検出する第1の検出手段(例えば、図4の形態素解析部262)と、前記第1の検出手段により検出された単語、およびその単語が検出された回数の情報を出力する第1の出力手段(例えば、図4のキーワード検出部263)と、記録または再生するコンテンツの音声信号または音声に関連する情報を、テキスト情報に変換する音声情報変換手段(例えば、図4の音声信号解析部261)と、前記音声情報変換手段による変換により得られたテキスト情報を形態素解析して予め定められた品詞の単語を検出する第2の検出手段(例えば、図4の形態素解析部262)と、前記第2の検出手段により検出された単語、およびその単語が検出された回数の情報を、前記コンテンツを構成するシーン毎に出力する第2の出力手段(例えば、図4のキーワード検出部263)と、前記第1の出力手段から出力された情報と、前記第2の出力手段から出力された情報とを比較して両者の一致の度合いに基づいて評価値を算出し、前記コンテンツを構成するシーンを特定する情報と前記評価値とを対応付けて出力する評価値出力手段(例えば、図4の評価値処理部)とを備える。
この記録再生装置は、ネットワーク(例えば、図2のインターネット103)に接続するネットワーク接続手段(例えば、図2のネットワークI/F系221)をさらに備え、前記ネットワークに接続され、前記コンテンツに関する情報を掲載したホームページを記憶するサーバ(例えば、図1のサーバ102)から前記ホームページのデータを、前記コンテンツを紹介する情報を含むデータとして取得するようにすることができる。
この記録再生装置は、前記シーン毎に前記コンテンツの画像の特徴量を抽出する特徴量抽出手段(例えば、図2の特徴抽出処理系208または特徴データ検出系216)をさらに備え、前記評価値出力手段は、前記ホームページのデータに含まれる画像データの特徴量と、前記特徴量抽出手段により抽出された前記コンテンツの画像の特徴量に基づいて、前記シーンに対応する前記評価値を変更するようにすることができる。
この記録再生装置は、デジタル放送として放送されるコンテンツを受信する受信手段(例えば、記録再生装置101のアンテナ)をさらに備え、前記コンテンツのデータとともに受信される前記コンテンツのメタデータを、前記コンテンツを紹介する情報を含むデータとして取得するようにすることができる。
本発明の一側面の記録再生方法は、コンテンツを記録または再生する記録再生装置の記録再生方法であって、記録または再生するコンテンツを紹介する情報を含むデータから、テキスト情報を抽出し(例えば、図14のステップS221の処理)、前記抽出されたテキスト情報を形態素解析して予め定められた品詞の単語を検出し(例えば、図14のステップS223の処理)、前記検出された単語、およびその単語が検出された回数の情報である第1の情報を出力し(例えば、図14のステップS225の処理)、記録または再生するコンテンツの音声信号または音声に関連する情報を、テキスト情報に変換し(例えば、図15のステップS242の処理)、前記変換されて得られたテキスト情報を形態素解析して予め定められた品詞の単語を検出し(例えば、図15のステップS243の処理)、前記検出された単語、およびその単語が検出された回数の情報を、前記コンテンツを構成するシーン毎に、第2の情報として出力し(例えば、図15のステップS245の処理)、前記第1の情報と、前記第2の情報とを比較して両者の一致の度合いに基づいて評価値を算出し、前記コンテンツを構成するシーンを特定する情報と前記評価値とを対応付けて出力する(例えば、図13のステップS203の処理)ステップを含む。
以下、図面を参照して、本発明の実施の形態について説明する。
図1は本発明を適用したコンテンツ記録再生システム100の一実施の形態に係る構成例を示すブロック図である。記録再生装置101は、例えば、DVD(Digital Versatile Disk)レコーダ、またはHDD(Hard Disk Drive)レコーダとして構成され、記録された大量のコンテンツを効率よく視聴するために、また、コンテンツの編集や特定のシーンの検索を容易にするために、画像音声情報信号から所定の特徴抽出処理などを行い、コンテンツの再生制御を行うことにより、長時間のコンテンツを短時間で再生する処理が可能となるようになされている。
同図において、例えば、放送されるコンテンツの信号がアンテナなどを介して記録再生装置101により取得され、映像信号、および音声信号などからなるコンテンツの信号が入力信号として入力されて、例えば、所定の圧縮符号化方式で符号化されたデータとしてDVD、HDDなどで構成される所定の記録媒体に記録される。
また、記録再生装置101は、例えば、ネットワークインタフェースカードなどで構成され、所定のプロトコルでネットワークにアクセス可能なインタフェースを有しており、このインタフェースを介してインターネット103に接続可能となるように構成されている。
記録再生装置101は、例えば、録画対象のコンテンツを紹介するホームページを記憶しているサーバ102に、インターネット103を介してアクセスすることができるようになされている。記録再生装置101は、例えば、録画予約の指令などに基づいて、録画対象のコンテンツを特定し、そのコンテンツのタイトルやIDなどに基づいて検索を行うなどして録画対象のコンテンツを紹介するホームページのURL(uniform resource locator)を特定し、そのURLにアクセスすることで当該ホームページをダウンロードする。
なお、録画対象のコンテンツを紹介するホームページを記憶しているサーバ102は、実際には、1つのサーバではなく、コンテンツに応じて様々なサーバに、録画対象のコンテンツを紹介するホームページが記憶されているので、それらのサーバのそれぞれを、ここではサーバ102として示している。
そして、記録再生装置101は、ダウンロードされたホームページのデータに基づいて、録画されたコンテンツのデータの中から、ユーザが効率的に視聴するために重要となるシーンなどの画像を検出するようになされている。
図2は、図1の記録再生装置101の一実施の形態に係る構成例を示すブロック図である。同図に示されるように、記録再生装置101には、音声データを入力してデジタル信号に変換する音声A/D変換処理系201、音声A/D変換処理系201で変換された音声のデジタル信号を入力してエンコードする音声エンコーダ処理系202、映像データを入力しデジタル信号に変換する画像A/D変換処理系206と、画像A/D変換処理系206で変換された映像のデジタル信号を入力してエンコードする映像エンコーダ処理系207が設けられている。
特徴抽出処理系208は、音声エンコーダ処理系202及び映像エンコーダ処理系207で得られたデジタル信号のなかで、例えば、予め設定された特徴量を有する映像信号または音声信号を検出する。
音声エンコーダ処理系202からの音声信号と、映像エンコーダ処理系206からの映像信号と、特徴抽出処理系208の処理を経た特徴的な音声及び映像信号に関する情報は、多重化処理系203で多重化され、多重化された音声/映像信号が記録媒体205に記録されるように記録処理系204により制御される。
さらに、記録再生装置101には、記録媒体205に記録されているデータを再生する再生処理系209、再生処理系209で再生された音声及び映像のデータを分離する再生データ分離処理系210、分離された音声データをデコードする音声デコード処理系211、デコードされた音声データをアナログ信号に変換して出力する音声D/A変換処理系212、再生データ分離処理系210で分離された映像データをデコードする映像デコード処理系213、デコードされた映像データをアナログ信号に変換して出力する映像D/A変換処理系214が設けられている。
また、記録再生装置101には、記録媒体205の再生をシステムコントローラ219からの指示により制御する再生制御系215、再生データ分離系210で分離された特徴データ(特徴的な映像または音声信号を特定するデータなど)を検出する特徴データ検出系216、必要に応じてプレイするリストを生成するプレイリスト生成系217、ユーザの操作入力を受信するユーザ入力I/F系218、ディスプレイなどへの映像の表示を制御する表示処理系220、インターネット103などのネットワークにアクセスするための機能を有するネットワークI/F系221が設けられている。
また、再生制御系215は、システムコントローラ219により制御され、記録媒体に記録されたコンテンツの映像または音声の再生を制御する。例えば、再生制御系215は、システムコントローラ219により指定された区間の映像が、他の区間と比較して早い速度または遅い速度で再生されるように、記録媒体205から読み出されるデータを制御するようになされている。
メモリ系221は、特徴抽出処理系208から供給されるデータを記憶し、そのデータを、必要に応じてプレイリスト生成系217に供給するようになされている。
システムコントローラ219は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、HDDなどを含む構成とされ、プログラムなどの所定のソフトウェアを実行することにより記録再生装置101を構成する各部を制御する。
記録再生装置101においてコンテンツの記録を行う場合、音声信号は、音声A/D変換処理系201に入力され所定のA/D変換処理が行われた後、音声エンコーダ処理系202に入力され、例えば、MPEGオーディオやAC3オーディオなど所定の帯域圧縮信号処理が行われる。その後、多重化処理系203に入力し所定の多重化処理が行われる。
また、記録再生装置101においてコンテンツの記録を行う場合、映像信号は映像信号A/D変換処理系206に入力され所定のA/D変換処理が行われ、映像エンコーダ処理系207においてMPEGなど所定の帯域圧縮信号処理が行われ、その後、多重化処理系203に入力され所定の多重化処理が行われる。
記録再生装置101においてコンテンツの再生を行う場合、記録媒体系205から再生された信号は、再生処理系209で所定の再生信号処理が行われ、再生データ分離処理系210に入力される。
記録再生装置101においてコンテンツの再生を行う場合、音声データは所定の分離処理の後、音声デコード処理系211で、音声エンコーダ処理系202により施された帯域圧縮信号処理などに対応する所定のデコード処理が行われ、音声D/A処理系212で所定のD/A処理が行われ、音声が出力される。
また、映像データは所定の分離処理の後、映像デコード処理系213で、映像エンコーダ処理系207により施された帯域圧縮信号処理などに対応する所定のデコード処理が行われ、映像D/A処理系214で所定のD/A処理が行われ、映像が出力される。
図3は、サーバ102に記憶されている、コンテンツを紹介するホームページの例を示す図である。ここでは、例えば、毎週月曜日から土曜日まで所定の時間帯に放送される連続ドラマなどのコンテンツを紹介するホームページを例として説明する。すなわち、当該コンテンツは、1週間に6回(6日)、それぞれ連続した異なる内容のドラマが放送され、1週間に1日は、放送がない。
図3に示されるホームページは、毎週月曜日から土曜日まで所定の時間帯に放送される連続ドラマである当該コンテンツの第11週目に放送される各回(月曜日の放送分、火曜日の放送分、・・・土曜日の放送分のそれぞれ)の内容を紹介するものであり、領域301には、第11週目のあらすじがテキスト情報として記述されている。
領域302、303、304、・・・には第11週目に放送される各回の中で、それぞれ重要となるシーンの画像と、そのシーンを説明するテキスト情報とが表示されている。ここで、領域302は、例えば、第11週目の月曜日に放送される回(ドラマ)の中で重要となるシーンの画像302aと、そのシーンを説明するテキスト情報302bにより構成されており、領域303は、例えば、第11週目の火曜日に放送される回の中で重要となるシーンの画像303aと、そのシーンを説明するテキスト情報303bにより構成されており、領域304は、例えば、第11週目の火曜日に放送される回の中で重要となるシーンの画像304aと、そのシーンを説明するテキスト情報304bにより構成されている。
このように、コンテンツを紹介するホームページは、例えば、当該コンテンツを放送する放送局により作成され、当該コンテンツを視聴するユーザ(視聴者)が、視聴するうえで参考となる情報を、適宜掲載するように構成されている。
すなわち、コンテンツを紹介するホームページは、当該コンテンツを連続して視聴しているユーザにとって、ドラマの展開やあらすじなどを知るために、有益な情報として活用することが可能である。
本発明の記録再生装置101においては、コンテンツを紹介するホームページに基づいて、画像音声情報信号から所定の特徴抽出処理などを行ってコンテンツの再生制御を行うことにより、記録された大量のコンテンツを効率よく視聴することが可能となるようになされている。
図4は、システムコントローラ219において実行されるプログラムなどのソフトウェアの機能的構成例を示すブロック図である。
同図において、音声信号解析部261は、音声エンコーダ処理系202、または音声デコード処理系211から供給される音声信号を解析し、例えば、コンテンツのドラマの出演者の声などについて音声認識を行い、その音声信号を、テキスト情報に変換する処理を行う。なお、音声信号解析部261に、各出演者の声の音声信号上の特徴を予め学習させるなど、音声認識を行うために必要となる処理は、事前に行われているものとする。
形態素解析部262は、音声信号解析処理部261により生成されたテキスト情報に対して形態素解析を行って、テキスト情報を、単語に分解する処理を行う。そして、形態素解析部262は、形態素解析により得られた単語のうち、予め設定された品詞(例えば、名詞)に該当する単語を抽出し、抽出された単語を、記憶部264に記憶させる。
記憶部264は、形態素解析部262から供給された単語を記憶するとともに、所定の期間内でのその単語の出現回数を記録する。例えば、記憶部264は、形態素解析部262から単語Aの供給を受けた場合、単語Aを記憶するとともに、単語Aに対応づけて出現回数「1」を記録する。そして、形態素解析部262からさらに単語Aの供給を受けた場合、単語Aの出現回数「2」に更新する。なお、音声信号解析部261から、例えば、リセットを指令する情報が出力された場合、記憶部264は、記憶した単語とその出現回数をリセットするようになされている。
キーワード検出部263は、記憶部264に記憶された単語の出現回数に基づいて、キーワードとなる単語を検出する。キーワード検出部263は、例えば、記憶部264に記憶された単語のうち、その出現回数が、所定の閾値を超える単語であって、所定の個数の単語をキーワードとして検出する。なお、キーワード検出部263は、記憶部264に記憶された単語のうち、例えば、予め設定された個数の単語(キーワード)を、それぞれの単語の出現回数と対応づけて評価値処理部281に出力するようになされている。
ここで、音声信号解析部261は、例えば、コンテンツの各シーンについて、それぞれ上述した処理を行うものとする。そして、コンテンツのシーンは、例えば、次のように特定されるものとする。
図5は、横軸を時間として表し、コンテンツの中における映像と音声の例を示す図である。同図には、連続して放送されるドラマのコンテンツにおいて、第1回目に放送されたコンテンツの映像と、第1回目の放送に含まれる音声(ここでは、セリフ)の時間軸上の位置、および第2回目に放送されたコンテンツの映像と、第2回目の放送に含まれる音声(ここでは、セリフ)の時間軸上の位置、・・・が示されている。同図に示されるように、コンテンツが放送されている時間においては、すべて映像が存在し、また、コンテンツが放送されている時間の中で、セリフが発せられている時間が点在する。
図6は、図5に示される映像と音声の一部を拡大した図の例である。同図においては、セリフとしての音声V1乃至V5が示されている。V1は、時刻t1からt2までの間発せられており、V2は、時刻t3からt4までの間発せられており、同様に、V3乃至V5も発せられた時刻を特定することが可能である。
音声信号解析部261により上述した処理が行われる単位となるシーンは、例えば、音声V1乃至V5が発せられた時間に対応するシーンS1乃至S5として特定される。
すなわち、いまの場合、音声信号解析部261は、音声V1をテキスト情報に変換し、形態素解析部262およびキーワード検出部263の処理を経て、シーンS1におけるキーワードと、そのキーワードのそれぞれの単語の出現回数とが出力されることになる。また、同様に、音声信号解析部261は、音声V2乃至V5のそれぞれを、個々にテキスト情報に変換し、形態素解析部262およびキーワード検出部263の処理を経て、シーンS2乃至S5のそれぞれにおけるキーワードと、そのキーワードのそれぞれの単語の出現回数とが出力されることになる。
あるいはまた、音声信号解析部261により上述した処理が行われる単位となるシーンは次のように特定されるようにしてもよい。
図7は、図5に示される映像と音声の一部を拡大した図の別の例である。同図においては、やはりセリフとしての音声V1乃至V5が示されているが、映像の中において、例えば、フェードやシーンチェンジなどの特徴的な映像Isが含まれている。音声信号解析部261により上述した処理が行われる単位となるシーンは、例えば、映像Isが検出された時刻t11より時間的に前のシーンS11と、例えば、映像Isが検出された時刻t11より時間的に後のシーンS12とされるようにしてもよい。
すなわち、いまの場合、音声信号解析部261は、音声V1とV2とをテキスト情報に変換し、形態素解析部262およびキーワード検出部263の処理を経て、シーンS11におけるキーワードと、そのキーワードのそれぞれの単語の出現回数とが出力されることになる。また、同様に、音声信号解析部261は、音声V3乃至V5を、テキスト情報に変換し、形態素解析部262およびキーワード検出部263の処理を経て、シーンS12におけるキーワードと、そのキーワードのそれぞれの単語の出現回数とが出力されることになる。
なお、フェードやシーンチェンジなどの特徴的な映像の検出は、図1の特徴抽出処理系208により検出できるものとする。
図4に戻って、テキスト情報抽出部271は、ネットワークI/F系221から供給されるホームページのデータを解析し、例えば、URLのタグを参照するなどしてホームページに含まれるテキスト情報を抽出する処理を行う。
形態素解析部272は、テキスト情報抽出部271により抽出されたテキスト情報に対して形態素解析を行って、テキスト情報を、単語に分解する処理を行う。そして、形態素解析部272は、形態素解析により得られた単語のうち、予め設定された品詞(例えば、名詞)に該当する単語を抽出し、抽出された単語を、記憶部274に記憶させる。
記憶部274は、記憶部264の場合と同様に、形態素解析部272から供給された単語を記憶するとともに、所定の期間内でのその単語の出現回数を記録する。
キーワード検出部273は、キーワード検出部263の場合と同様に、記憶部274に記憶された単語の出現回数に基づいて、キーワードとなる単語を検出する。また、キーワード検出部273は、記憶部274に記憶された単語のうち、例えば、予め設定された個数の単語を、それぞれの単語の出現回数と対応づけて評価値処理部281に出力するようになされている。
評価値処理部281は、キーワード検出部273から供給されるキーワードと、キーワード検出部263から供給されるキーワードとの一致の度合いを表す評価値を、所定の演算により算出し、その評価値を、キーワード検出部263から供給されるキーワードに対応するシーンの評価値として出力する。
例えば、テキスト情報抽出部271により、図3の領域301のテキスト情報が抽出され、キーワード検出部273から図8に示されるように、キーワードが出力されたものとする。すなわち、図3の領域301のテキスト情報に含まれる名詞である、「ハルエ」、「レストラン」、「大介」、および「ミツエ」がキーワードとして検出され、それぞれの出現回数として「10回」、「8回」、「7回」、および「4回」が出力されたものとする。
例えば、シーンSaに対応するキーワードとして、キーワード検出部263から図9に示されるように、キーワードが出力され、また、シーンSbに対応するキーワードとして、キーワード検出部263から図10に示されるように、キーワードが出力されたものとする。いまの場合、図10に示されるものの方が図9に示されるものより「レストラン」、および「ハルエ」の出現回数が多いので、評価値処理部281は、シーンSbの評価値を、シーンSaの評価値よりも高い値として設定する。
このように、評価値処理部281は、キーワードの出現回数を考慮して、キーワード検出部273から供給されるキーワードと、キーワード検出部263から供給されるキーワードとの一致の度合いを表す評価値を算出する演算を行う。なお、この演算式は、例えば、予め設定され、一致の度合いを表すにあったて適当な演算式とされる。
ここでは、図3の領域301のテキスト情報に基づいて、キーワード検出部273から出力されたキーワードと、キーワード検出部263から供給されるキーワードとの一致の度合いを表す評価値を算出する例について説明したが、図3の領域302b、303b、304b、・・・のテキスト情報に基づいて、キーワード検出部273から出力されたキーワードと、キーワード検出部263から供給されるキーワードとの一致の度合いを表す評価値を算出するようにしてもよい。
さらに、図3の領域301のテキスト情報に基づいて、キーワード検出部273から出力されたキーワードと、図3の領域302b、303b、304b、・・・のテキスト情報に基づいて、キーワード検出部273から出力されたキーワードとの一致の度合いを、予め算出しておき、例えば、一致の度合いが閾値以上となるテキスト情報303bに基づいて、キーワード検出部273から出力されたキーワードと、キーワード検出部263から供給されるキーワードとの一致の度合いを表す評価値を算出し、その評価値を各シーンに対応する評価値としてもよい。
あるいはまた、さらに、ネットワークI/F系221から供給されるホームページのデータに含まれるシーンの画像に基づいて上述した評価値が設定されるようにしてもよい。図3の領域302bのテキスト情報に基づいて、キーワード検出部273から出力されたキーワードと、キーワード検出部263から供給されるキーワードとの一致の度合いを表す評価値を算出して各シーンに対応する評価値を設定する場合、画像302aと、各シーンに含まれる画像(映像)との一致の度合いを表す情報をさらに算出し、画像302aと、各シーンに含まれる画像(映像)との一致の度合いを表す情報に基づいて、上述した評価値を変更するなどしてもよい。
例えば、図11に示されるように、テキスト情報抽出部271により領域302aのテキスト情報が抽出され、キーワード検出部273から出力されたキーワードとして「レストラン、光江、ハルエ、・・・」が出力され、シーンS21乃至S23において、キーワード検出部263から供給されるキーワードが「レストラン、光江、ハルエ、・・・」であった場合、評価値処理部281は、領域302aの画像と一致の度合いの高い画像を含むシーンS21の評価値を、シーンS22またはシーンS23の評価値と比較して高い値とするようにしてもよい。
なお、各シーンに含まれる画像と、領域302aの画像との一致の度合いについては、図1の特徴抽出処理系208により算出できるものとする。
次に、記録再生装置101によるホームページデータ取得処理について、図12のフローチャートを参照して説明する。
ステップS101において、システムコントローラ219は、録画予約が指令されたか否かを判定する。例えば、ユーザI/F系218を介した操作により、録画予約のコマンドなどが投入された場合、ステップS101においては、録画予約が指令されたと判定される。
ステップS101において、録画予約が指令されたと判定された場合、処理は、ステップS102に進み、システムコントローラ219は、ステップS101で指令されたと判定された録画予約において、録画すべき番組(コンテンツ)を特定する。このとき、例えば、録画予約の指令に伴って入力される録画開始時刻、録画終了時刻などの情報に基づいて、録画すべきコンテンツが特定される。
ステップS103において、システムコントローラ219は、ネットワークI/F系221を制御して、ステップS102の処理により特定された番組のホームページにアクセスする処理を行う。
ステップS104において、システムコントローラ219は、ネットワークI/F系221を制御して、ステップS103の処理によりアクセスした番組のホームページのデータをダウンロードする処理を行う。これにより、ダウンロードされたホームページのデータがシステムコントローラ219に含まれるメモリやHDDなどの記憶媒体に記憶される。
このようにして、録画予約の指令に伴って、コンテンツを紹介するホームページのデータが記録再生装置101にダウンロードされて記憶される。
次に、図13のフローチャートを参照して記録再生装置101による重要シーン検出処理について説明する。この処理は、例えば、ユーザ入力I/F系218の操作に基づいて入力される指令により実行され、放送されているコンテンツを録画(記録)するとともに実行されるようにしてもよいし、コンテンツの録画(記録)が終了した後、実行されるようにしてもよい。
ステップS201において、システムコントローラ219は、図14のフローチャートを参照して後述するホームページ取得解析処理を実行する。これにより、録画対象となるコンテンツを紹介するホームページのデータに基づいてキーワードが出力される。
ここで、図14のフローチャートを参照して、図13のステップS201のホームページ取得解析処理の詳細について説明する。なお、ここでは、例えば、ホームページデータ取得処理により録画対象となるコンテンツを紹介するホームページのデータが、システムコントローラ219に含まれるメモリやHDDなどの記憶媒体に記憶されているものとする。
ステップS221において、テキスト情報抽出部271は、システムコントローラ219に含まれる記憶媒体に記憶されているホームページのデータを取得する。
ステップS222において、テキスト情報抽出部271は、ステップS221の処理で取得されたホームページのデータに含まれるテキスト情報を抽出する。
ステップS223において、形態素解析部272は、ステップS222の処理で抽出されたテキスト情報に対して形態素解析を行う。これにより、例えば、ステップS222の処理により得られたテキスト情報に含まれる名詞が記憶部274に出力される。
ステップS224において、記憶部274は、ステップS223の処理に伴って出力される各名詞のそれぞれについて、出現回数を記録する。
ステップS225において、キーワード検出部273は、例えば、記憶部274に記憶された単語のうち、その出現回数が、所定の閾値を超える単語をキーワードとして出力する。このとき、上述したように、キーワード検出部273は、記憶部274に記憶された単語のうち、例えば、予め設定された個数の単語(キーワード)を、それぞれの単語の出現回数と対応づけて評価値処理部281に出力するようになされており、これにより、例えば、図8を参照して上述したようにキーワードが出力されることになる。
図13に戻って、ステップS201の処理の後、処理は、ステップS202に進み、システムコントローラ219は、図15のフローチャートを参照して後述する音声信号取得解析処理を実行する。これにより、録画対象となるコンテンツのデータに含まれる音声信号に基づいてキーワードが出力される。
ここで、図15のフローチャートを参照して、図13のステップS202の音声信号取得解析処理の詳細について説明する。
ステップS241において、音声信号解析部261は、音声エンコーダ処理系202、または音声デコード処理系211から供給される音声信号を取得する。なお、重要シーン検出処理が、放送されているコンテンツを録画(記録)するとともに実行される場合、音声エンコーダ処理系202から供給される音声信号が取得されることになり、重要シーン検出処理が、放送されているコンテンツの録画(記録)が終了した後、実行される場合、音声デコード処理系211から供給される音声信号が取得されることになる。
ステップS242において、音声信号解析部261は、ステップS241の処理で取得された音声信号を解析し、例えば、コンテンツのドラマの出演者の声などについて音声認識を行い、その音声信号を、テキスト情報に変換する処理を行う。
ステップS243において、形態素解析部262は、音声信号解析処理部261により生成されたテキスト情報に対して形態素解析を行う。これにより、例えば、ステップS242の処理により得られたテキスト情報に含まれる名詞が記憶部264に出力される。
ステップS244において、記憶部264は、ステップS243の処理に伴って出力される各名詞のそれぞれについて、出現回数を記録する。
ステップS245において、キーワード検出部263は、例えば、記憶部264に記憶された単語のうち、その出現回数が、所定の閾値を超える単語をキーワードとして出力する。このとき、上述したように、キーワード検出部263は、記憶部264に記憶された単語のうち、例えば、予め設定された個数の単語(キーワード)を、それぞれの単語の出現回数と対応づけて評価値処理部281に出力するようになされており、これにより、例えば、図9または図10を参照して上述したようにキーワードが、シーン毎に出力されることになる。
図13に戻って、ステップS202の処理の後、処理は、ステップS203に進み、システムコントローラ219は、図16のフローチャートを参照して後述する評価値設定処理を実行する。これにより、録画対象となる番組(コンテンツ)の各シーンに対して、そのシーンの重要性を表す評価値が設定される。
ここで、図16のフローチャートを参照して、図13のステップS203の評価値設定処理の詳細について説明する。
ステップS261において、評価値処理部281は、図14のステップS225の処理で出力されたキーワードが含まれるシーンを、図15のステップS245の処理で出力されたキーワードに基づいて検索する。すなわち、図15のステップS245の処理でシーン毎にキーワードが出力されるので、各シーンのキーワードに図14のステップS225の処理で出力されたキーワードが含まれるか否かをチェックすることで、図14のステップS225の処理で出力されたキーワードが含まれるシーンを特定することができる。
ステップS262において、評価値処理部281は、ステップS261の処理で検索されて、図14のステップS225の処理で出力されたキーワードが含まれるシーンとして特定されたシーンのそれぞれについて、キーワードの出現回数を比較する。このとき、評価値処理部281は、例えば、キーワードの出現回数を考慮して、キーワード検出部273から供給されるキーワードと、キーワード検出部263から供給されるキーワードとの一致の度合いを表す評価値を算出する演算を行う。
ステップS263において、評価値処理部281は、各シーンの画像をチェックする。このとき、例えば、上述したように、ステップS221の処理で取得されたホームページのデータに含まれる画像(例えば、画像302a)と、各シーンに含まれる画像(映像)との一致の度合いを表す情報をさらに算出し、ホームページのデータに含まれる画像と、各シーンに含まれる画像(映像)との一致の度合いを表す情報に基づいて、上述した評価値が変更される。
なお、ステップS263の処理は実行されないようにしてもよい。
そして、ステップS264において評価値処理部281は、各シーンに対する評価値を設定する。
このように、各シーンに対する評価値が設定されて重要シーン検出処理は終了される。
すなわち、高い評価値が設定されたシーンは、例えば、コンテンツのドラマの展開やあらすじなどを知るために、重要なシーンと考えられ、評価値に基づいて記録されたコンテンツを再生することにより、記録された大量のコンテンツをより効率的に、ユーザに視聴させることができる。
ここまで、ホームページのデータのテキスト情報に含まれるキーワードと、コンテンツの音声信号に含まれるキーワードとを比較して各シーンの評価値を設定する例について説明したが、コンテンツから得られるキーワードは、音声信号から抽出されるものに限られるものではなく、音声信号以外の他の信号、音声に関連する情報などから抽出されるようにしてもよい。例えば、コンテンツにクローズドキャプションが含まれている場合、ホームページのデータのテキスト情報に含まれるキーワードと、コンテンツのクローズドキャプションに含まれるキーワードとを比較して各シーンの評価値を設定するようにしてもよい。
通常、クローズドキャプションは、聴覚障害者などによるコンテンツの視聴を考慮して、例えば、ドラマの中で発せられるセリフなどを、字幕として表示させることが可能となるようになされており、クローズドキャプションに含まれるキーワードに基づいて、各シーンの評価値を設定することで、音声信号に含まれるキーワードに基づいて評価値を設定した場合と同様の効果を得ることができる。
クローズドキャプションに含まれるキーワードに基づいて、各シーンの評価値を設定する場合、システムコントローラ219において実行されるプログラムなどのソフトウェアの機能的構成例は、例えば、図17に示されるブロック図のようになる。
同図においては、図4の場合と異なり、音声信号解析部261乃至記憶部264に替わって、クローズドキャプション検出部291乃至記憶部294が設けられている。
すなわち、図17の構成の場合、クローズドキャプション検出部291は、映像エンコーダ処理系207、または映像デコード処理系213から供給される映像(画像)信号を解析し、クローズドキャプションの検出を行い、そのクローズドキャプションを、テキスト情報に変換する処理を行う。
形態素解析部292は、クローズドキャプション検出部291により生成されたテキスト情報に対して形態素解析を行って、テキスト情報を、単語に分解する処理を行う。そして、形態素解析部262は、形態素解析により得られた単語のうち、予め設定された品詞(例えば、名詞)に該当する単語を抽出し、抽出された単語を、記憶部294に記憶させる。
記憶部294は、形態素解析部292から供給された単語を記憶するとともに、所定の期間内でのその単語の出現回数を記録する。
キーワード検出部293は、記憶部294に記憶された単語の出現回数に基づいて、キーワードとなる単語を検出する。キーワード検出部293は、例えば、記憶部294に記憶された単語のうち、その出現回数が、所定の閾値を超える単語をキーワードとして検出する。なお、キーワード検出部293は、記憶部294に記憶された単語のうち、例えば、予め設定された個数の単語(キーワード)を、それぞれの単語の出現回数と対応づけて、シーン毎に、評価値処理部281に出力するようになされている。
テキスト情報抽出部271乃至記憶部274のそれぞれは、図4の場合と同様なので、詳細な説明は省略する。
このように、ホームページのデータのテキスト情報に含まれるキーワードと、コンテンツのクローズドキャプションに含まれるキーワードとを比較して各シーンの評価値を設定するようにすることも可能である。
あるいはまた、クローズドキャプションに代えて、例えば、データ放送などで用いられる、コンテンツとともに送信されるデータのうち、音声に関連する情報を含むデータなどに基づいてコンテンツのキーワードが抽出され、ホームページのデータのテキスト情報に含まれるキーワードと比較されて各シーンの評価値が設定されるようにすることも可能である。
さらに、録画対象のコンテンツが、例えば、デジタル放送のコンテンツなどの場合、コンテンツとともに放送されるメタデータを、コンテンツを紹介するホームページのデータに替えて用いることも可能である。
以上においては、録画されたコンテンツに対して、そのコンテンツを紹介するホームページなどの中で、録画された部分に対応するホームページなどのデータに基づいて、各シーンの評価値を設定することを前提として説明した。すなわち、例えば、テキスト情報抽出部271により、テキスト情報の抽出が行われるホームページのデータが、図3に示されるものである場合、音声信号解析部261またはクローズドキャプション検出部291に入力されるコンテンツの信号は、第11週目に放送されたドラマの各回の映像信号または音声信号に対応するものであることを前提としている。
しかしながら、例えば、テキスト情報抽出部271により、テキスト情報の抽出が行われるホームページのデータが、図3に示されるものである場合、音声信号解析部261またはクローズドキャプション検出部291に入力されるコンテンツの信号を、あえて第10週目に放送されたドラマの各回の映像信号または音声信号に対応するものであるようにしてもよい。
例えば、ユーザが、当該コンテンツの第10週目の放送分、第11週目の放送分を全て録画しており、録画されたコンテンツを、まだ視聴していない場合、第10週目の放送分については、第11週目の放送分よりさらに効率的な視聴(例えば、より短時間での視聴)を求めることも考えられる。このような場合、第10週目の放送分のコンテンツの各シーンに対して、あえて第11週目の放送分を紹介するホームページのデータに基づいて評価値を設定することで、例えば、第11週目のドラマのストーリーの展開を示唆するシーンなどの評価値を高く設定することができ、第10週目の放送分のコンテンツを、より効率的に、ユーザに視聴させることが可能となる。
次に、記録媒体205に記録されているコンテンツであって、各シーンに評価値が設定されたコンテンツの再生について説明する。図13のフローチャートを参照して上述した処理により、各シーンに評価値が設定されたコンテンツを再生する場合、記録再生装置101は、例えば、次のようにコンテンツの再生を行う。
例えば、図18に示されるように、記録媒体205に記録され、再生可能なコンテンツがシーンS1乃至S11の連続した11のシーンで構成されており、各シーンに設定された評価値のうち、シーンS3、S7、およびS10に設定された評価値が予め設定された閾値を超えるものであったとする。
記録再生装置101において、例えば、ユーザ入力I/F系218を操作して入力された指令であって、シーンS1乃至S11で構成されるコンテンツについて、評価値に基づく再生を指令された場合、システムコントローラ219から出力される制御信号などに基づいて、再生制御系215が図18の図中下側に示されるグラフのように、コンテンツの再生速度を制御する。
すなわち、評価値の高いシーンS3、S7、およびS10と、シーンS3、S7、およびS10のそれぞれに時間的に近い位置(部分)においては、再生速度が低くなり、それ以外の位置(部分)においては、再生速度が高くなるように制御される。このようにすることで、例えば、コンテンツのドラマの展開やあらすじなどを知るために、重要なシーンはゆっくりと再生され、それ以外のシーンは、高速に再生されるので、記録された大量のコンテンツをより効率的に、ユーザに視聴させることができる。
あるいはまた、評価値に基づく再生を指令された場合、評価値の高いシーンS3、S7、およびS10の代表画像(例えば、それらのシーンの中の時間的に最も前の画像など)を、例えば、サムネイルとして表示させ、それらのサムネイルに基づいてユーザが選択したシーンを、通常の再生速度で再生するようにしてもよい。
なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図19に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。
図19において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。
入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、CRT(Cathode Ray Tube)、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。
なお、この記録媒体は、図19に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。
本明細書において上述した一連の処理を実行するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
100 コンテンツ記録再生システム, 101 記録再生装置, 102 サーバ, 103 インターネット, 202 音声エンコーダ処理系, 207 映像エンコーダ処理系, 205 記録媒体, 208 特徴抽出処理系 211 音声デコード処理系, 213 映像デコード処理系, 216 特徴データ検出系, 219 システムコントローラ, 221 ネットワークI/F系, 261 音声信号解析部, 262 形態素解析部, 263 キーワード検出部, 264 記憶部, 271 テキスト情報抽出部, 272 形態素解析部, 273 キーワード検出部, 274 記憶部, 281 評価値処理系, 291 クローズドキャプション検出部
Claims (10)
- コンテンツを記録または再生する記録再生装置であって、
記録または再生するコンテンツを紹介する情報を含むデータから、テキスト情報を抽出する抽出手段と、
前記抽出手段により抽出されたテキスト情報を形態素解析して予め定められた品詞の単語を検出する第1の検出手段と、
前記第1の検出手段により検出された単語、およびその単語が検出された回数の情報を出力する第1の出力手段と、
記録または再生するコンテンツの音声信号または音声に関連する情報を、テキスト情報に変換する音声情報変換手段と、
前記音声情報変換手段による変換により得られたテキスト情報を形態素解析して予め定められた品詞の単語を検出する第2の検出手段と、
前記第2の検出手段により検出された単語、およびその単語が検出された回数の情報を、前記コンテンツを構成するシーン毎に出力する第2の出力手段と、
前記第1の出力手段から出力された情報と、前記第2の出力手段から出力された情報とを比較して両者の一致の度合いに基づいて評価値を算出し、前記コンテンツを構成するシーンを特定する情報と前記評価値とを対応付けて出力する評価値出力手段と
を備える記録再生装置。 - 前記音声情報変換手段は、前記コンテンツのクローズドキャプションを、テキスト情報に変換することで、記録または再生するコンテンツの音声に関連する情報を、テキスト情報に変換する
請求項1に記載の記録再生装置。 - ネットワークに接続するネットワーク接続手段をさらに備え、
前記ネットワークに接続され、前記コンテンツに関する情報を掲載したホームページを記憶するサーバから前記ホームページのデータを、前記コンテンツを紹介する情報を含むデータとして取得する
請求項1に記載の記録再生装置。 - 前記シーン毎に前記コンテンツの画像の特徴量を抽出する特徴量抽出手段をさらに備え、
前記評価値出力手段は、前記ホームページのデータに含まれる画像データの特徴量と、前記特徴量抽出手段により抽出された前記コンテンツの画像の特徴量に基づいて、前記シーンに対応する前記評価値を変更する
請求項3に記載の記録再生装置。 - 前記コンテンツに関する情報を掲載したホームページのアドレスに関する情報は、前記コンテンツが記録予約されるときに特定される
請求項3に記載の記録再生装置。 - デジタル放送として放送されるコンテンツを受信する受信手段をさらに備え、
前記コンテンツのデータとともに受信される前記コンテンツのメタデータを、前記コンテンツを紹介する情報を含むデータとして取得する
請求項1に記載の記録再生装置。 - 前記コンテンツを再生する場合、
前記シーンの評価値に基づいて、前記シーンの再生速度を制御する
請求項1に記載の記録再生装置。 - コンテンツを記録または再生する記録再生装置の記録再生方法であって、
記録または再生するコンテンツを紹介する情報を含むデータから、テキスト情報を抽出し、
前記抽出されたテキスト情報を形態素解析して予め定められた品詞の単語を検出し、
前記検出された単語、およびその単語が検出された回数の情報である第1の情報を出力し、
記録または再生するコンテンツの音声信号または音声に関連する情報を、テキスト情報に変換し、
前記変換されて得られたテキスト情報を形態素解析して予め定められた品詞の単語を検出し、
前記検出された単語、およびその単語が検出された回数の情報を、前記コンテンツを構成するシーン毎に、第2の情報として出力し、
前記第1の情報と、前記第2の情報とを比較して両者の一致の度合いに基づいて評価値を算出し、前記コンテンツを構成するシーンを特定する情報と前記評価値とを対応付けて出力するステップ
を含む記録再生方法。 - コンテンツを記録または再生する記録再生装置に記録または再生の処理を実行させるプログラムであって、
記録または再生するコンテンツを紹介する情報を含むデータから、テキスト情報の抽出を制御し、
前記抽出されたテキスト情報を形態素解析して予め定められた品詞の単語の検出を制御し、
前記検出された単語、およびその単語が検出された回数の情報である第1の情報の出力を制御し、
記録または再生するコンテンツの音声信号または音声に関連する情報の、テキスト情報への変換を制御し、
前記変換されて得られたテキスト情報を形態素解析して予め定められた品詞の単語の検出を制御し、
前記検出された単語、およびその単語が検出された回数の情報を、前記コンテンツを構成するシーン毎に、第2の情報として出力するように制御し、
前記第1の情報と、前記第2の情報とを比較して両者の一致の度合いに基づいて評価値を算出し、前記コンテンツを構成するシーンを特定する情報と前記評価値とを対応付けて出力するように制御するステップ
を含むコンピュータが読み取り可能なプログラム。 - 請求項8に記載のプログラムが記録されている記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006193676A JP2008020767A (ja) | 2006-07-14 | 2006-07-14 | 記録再生装置および方法、プログラム、並びに記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006193676A JP2008020767A (ja) | 2006-07-14 | 2006-07-14 | 記録再生装置および方法、プログラム、並びに記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008020767A true JP2008020767A (ja) | 2008-01-31 |
Family
ID=39076718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006193676A Withdrawn JP2008020767A (ja) | 2006-07-14 | 2006-07-14 | 記録再生装置および方法、プログラム、並びに記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008020767A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010041414A (ja) * | 2008-08-05 | 2010-02-18 | Kddi Corp | 留守番電話装置 |
JP2011210199A (ja) * | 2010-03-30 | 2011-10-20 | Toshiba Corp | 番組評価表示装置及び番組評価表示方法 |
JP2013251647A (ja) * | 2012-05-30 | 2013-12-12 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ評価システム及び方法 |
CN111916076A (zh) * | 2020-07-10 | 2020-11-10 | 北京搜狗科技发展有限公司 | 一种录音方法、装置和电子设备 |
-
2006
- 2006-07-14 JP JP2006193676A patent/JP2008020767A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010041414A (ja) * | 2008-08-05 | 2010-02-18 | Kddi Corp | 留守番電話装置 |
JP2011210199A (ja) * | 2010-03-30 | 2011-10-20 | Toshiba Corp | 番組評価表示装置及び番組評価表示方法 |
JP2013251647A (ja) * | 2012-05-30 | 2013-12-12 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ評価システム及び方法 |
CN111916076A (zh) * | 2020-07-10 | 2020-11-10 | 北京搜狗科技发展有限公司 | 一种录音方法、装置和电子设备 |
CN111916076B (zh) * | 2020-07-10 | 2024-06-07 | 北京搜狗智能科技有限公司 | 一种录音方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8260108B2 (en) | Recording and reproduction apparatus and recording and reproduction method | |
JP4848756B2 (ja) | 情報処理装置および方法、並びにプログラム | |
KR100865042B1 (ko) | 비디오 프로그램의 멀티미디어 설명 데이터를 생성하는 시스템 및 방법, 비디오 디스플레이 시스템, 및 컴퓨터 판독 가능 기록 매체 | |
JP2002533841A (ja) | 個人用ビデオ分類及び検索システム | |
JP4426743B2 (ja) | 映像情報要約装置、映像情報要約方法および映像情報要約処理プログラム | |
JP2007527142A (ja) | コンテンツ蓄積システム、ホームサーバ装置、情報提供装置、集積回路、及びプログラム | |
JP4735413B2 (ja) | コンテンツ再生装置およびコンテンツ再生方法 | |
KR20040101245A (ko) | 키 오디오/비디오 세그먼트를 찾기 위한 복사부 정보의 사용 | |
JP2008227909A (ja) | 映像検索装置 | |
RU2316134C2 (ru) | Устройство и способ для обработки текстов в приемнике цифрового вещания | |
JP2008020767A (ja) | 記録再生装置および方法、プログラム、並びに記録媒体 | |
JPWO2007046171A1 (ja) | 記録再生装置 | |
JP2006303869A (ja) | 特定条件区間検出装置および特定条件区間検出方法 | |
JP4929128B2 (ja) | 録画再生装置 | |
JP2007294020A (ja) | 記録再生方法、記録再生装置、記録方法、記録装置、再生方法および再生装置 | |
KR20060102639A (ko) | 동영상 재생 시스템 및 방법 | |
JP5033653B2 (ja) | 映像記録再生装置及び映像再生装置 | |
JP2007288300A (ja) | 映像音声再生装置 | |
JP2004134909A (ja) | コンテンツ解説データ生成装置、その方法及びそのプログラム、並びに、コンテンツ解説データ提示装置、その方法及びそのプログラム | |
JP4665670B2 (ja) | 記録再生装置、記録再生方法、再生装置、再生方法、受信再生装置、および、受信再生方法 | |
JP5682167B2 (ja) | 映像音声記録再生装置、および映像音声記録再生方法 | |
JP4162459B2 (ja) | マルチメディア情報再生装置およびマルチメディア情報再生方法およびプログラム | |
JP3825589B2 (ja) | マルチメディア端末機器 | |
JP2008206076A (ja) | 再生装置および方法、並びにプログラム | |
JP2000287156A (ja) | 情報記録再生装置および方法、並びに提供媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20091006 |