JP5338450B2 - 再生装置及びプログラム - Google Patents

再生装置及びプログラム Download PDF

Info

Publication number
JP5338450B2
JP5338450B2 JP2009104428A JP2009104428A JP5338450B2 JP 5338450 B2 JP5338450 B2 JP 5338450B2 JP 2009104428 A JP2009104428 A JP 2009104428A JP 2009104428 A JP2009104428 A JP 2009104428A JP 5338450 B2 JP5338450 B2 JP 5338450B2
Authority
JP
Japan
Prior art keywords
scene
feature
unit
preference
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009104428A
Other languages
English (en)
Other versions
JP2010258615A (ja
Inventor
秀一 椎谷
正樹 石原
孝之 馬場
進 遠藤
大器 増本
茂美 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009104428A priority Critical patent/JP5338450B2/ja
Priority to US12/764,350 priority patent/US8406606B2/en
Publication of JP2010258615A publication Critical patent/JP2010258615A/ja
Application granted granted Critical
Publication of JP5338450B2 publication Critical patent/JP5338450B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、映像コンテンツを再生する再生装置及び再生装置において使用するプログラムに関する。
従来から、録画した映像コンテンツの中から、ユーザの嗜好に合ったコンテンツを推薦したり、推薦した番組を自動で録画したりする方法がある。コンテンツを録画/再生する録画再生装置は、EPG(電子番組表)を取得し、タイトルや概要にキーワードを含む番組を検索し、提示する。
また、コンテンツの所定のシーンをインデックス情報にして画像として表示するときに、どの部分をインデックス情報にするかを自動的に決める技術についても提供されている。例えば、ユーザが早送りや巻き戻した部位の情報と、通常速度で再生された部位の情報とから、通常速度で再生された箇所をハイライト箇所と判断する方法が提供されている(例えば、特許文献1)。
特開2002−16903号公報(段落0002〜0008、段落0012、段落0021、図8)
上記のとおり、公知の技術によれば、自動的にユーザの嗜好に合ったコンテンツを検索することや、コンテンツの中からユーザが実際に視聴したシーンを抽出することについては可能である。更に、多くの録画したコンテンツの中からユーザの嗜好により合ったシーンを判断して抽出できることが望ましい。
開示の再生装置は、録画したコンテンツから、ユーザの嗜好に合うシーンを抽出することのできる技術を提供することを目的とする。
開示の再生装置によれば、映像コンテンツを再生する再生装置であって、前記映像コンテンツを部分的なシーンに区分する分割部と、シーンに区分されたコンテンツの再生中に行われた操作の指示と、該指示を受け付けた際に再生をしていた箇所とを関連付けて記録した記録部を参照して、早送りまたは巻き戻しの操作の指示の後に再生した箇所を特定する特定部と、前記特定部において特定したシーンについて第1の特徴量を求める第1の特徴量算出部と、前記コンテンツとは異なる他のコンテンツをシーンに区分し、得られた各シーンについて第2の特徴量を求める第2の特徴量算出部と、前記第1の特徴量と前記第2の特徴量とを比較し、該第1及び第2の特徴量の差が所定の閾値以内となる該第2の特徴量を有するシーンを抽出する抽出部と、前記抽出部により抽出したシーンを出力する出力部とを備える。
あるコンテンツを再生しているときにユーザが行った操作に基づき、ユーザの操作により特定される箇所を含むシーンについては、ユーザの嗜好に合うシーンであると判断し、第1の特徴量を求めておく。そして、録画した他のコンテンツをシーンに区分して、第1の特徴量と距離が近い第2の特徴量を有するシーンについては、ユーザの嗜好に合ったシーンと判断して抽出する。
開示の再生装置によれば、録画した映像コンテンツの中からユーザの嗜好に合うシーンを抽出することが可能となる。
実施形態に係る録画再生装置の構成図である。 実施形態に係る録画再生装置における処理の全体の流れを示すフローチャート(その1)である。 実施形態に係る録画再生装置における処理の全体の流れを示すフローチャート(その2)である。 嗜好分析部の構成図である。 嗜好分析部におけるコンテンツの嗜好分析処理を示したフローチャートである。 単語特徴の例を示す図である。 嗜好分析部におけるシーンの嗜好分析処理を示したフローチャートである。 嗜好格納部に格納される嗜好データの構造を示す図である。 嗜好判定部の構成図である。 嗜好判定部におけるコンテンツの嗜好判定処理を示したフローチャート(その1)である。 嗜好判定部におけるコンテンツの嗜好判定処理を示したフローチャート(その2)である。 嗜好判定部におけるコンテンツの嗜好判定処理を示したフローチャート(その3)である。 抽出したプレビューシーンの表示画面の例である。 抽出したプレビューシーンの表示画面の他の例である。 嗜好分析部におけるシーンの嗜好更新処理を示したフローチャート(その1)である。 嗜好分析部におけるシーンの嗜好更新処理を示したフローチャート(その2)である。 情報処理装置の構成図である。 記録媒体を示す図である。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
図1は、本実施形態に係る録画再生装置の構成図である。図1に示す録画再生装置1は、録画再生部3及びプレビュー生成部10を有し、表示装置2と接続されている。
録画再生部3は、放送されたテレビ番組等のコンテンツを録画し、録画したコンテンツを再生する。
プレビュー生成部10は、嗜好分析部11、嗜好格納部12、シーン分割部13、嗜好判定部14及びプレビューシーン表示部15を含み、録画再生部3で録画したコンテンツからユーザの嗜好に合ったシーンを抽出し、プレビューを生成する。
表示装置2は、録画再生部3で録画・再生するコンテンツ、プレビュー生成部3で抽出したユーザの嗜好に合ったシーンや、抽出したシーンの代表画像を表示する。
なお、以下の説明においては、シーンとは、コンテンツを分割して得られる一区切りをいうものとする。
プレビュー生成部10の嗜好分析部11は、ユーザによるコンテンツの視聴履歴や操作履歴から、ユーザの嗜好データを生成する。嗜好格納部12は、嗜好分析部11において生成した嗜好データを格納する。
シーン分割部13は、録画再生部3において録画したコンテンツをシーン単位で分割する。コンテンツを分割してシーンを得る方法としては、例えば、連続したフレームの画像を比較してゆき、画像の変化量が大きく異なる部分をカットとして抽出するカット検出方法を利用する。この他、字幕情報を利用して、映像中の話題の切り替わりを検出する方法や、カットの画像の繰り返しや連続性を考慮して、大まかなシーンに分割する方法等がある。
嗜好判定部14は、嗜好格納部12に格納されている嗜好データを利用して、シーン分割部13においてコンテンツを分割して得たシーン群の中から、ユーザの嗜好に合ったシーンを抽出する。
プレビューシーン表示部15は、嗜好判定部14において抽出したユーザの嗜好に合ったシーンの代表画像を表示装置2に表示させる。
嗜好分析部11は、表示装置2に表示した代表画像のうち、ユーザが選択して再生させたシーンについては、ユーザの嗜好に合ったシーンであると判断し、嗜好格納部12に格納している嗜好データを更新する。
図2及び図3は、本実施形態に係る録画再生装置1によりユーザの嗜好に合ったシーンを抽出する処理の全体の流れを示すフローチャートである。
ステップS0で、録画再生装置1は、ユーザの操作待ちの状態で、コンテンツの録画、コンテンツの再生、プレビューシーンの表示の三つの操作のいずれかを受け付ける。
コンテンツの録画操作が行われた場合には、ステップS3で、録画再生部3が新たにコンテンツの録画を行うと、ステップS4で、シーン分割部13及び嗜好判定部14が、プレビューシーンの抽出処理を行う。プレビューシーンの抽出処理においては、ステップS3において新たに録画したコンテンツを分割して得たシーンのうち、ユーザの嗜好に合うシーンをプレビューシーンとして抽出する。詳しくは図9〜図12を参照して説明する。プレビューシーンを抽出すると、ステップS0に進み、ユーザの操作待ち状態に戻る。
コンテンツの再生操作が行われた場合には、まず、ステップS1で、録画再生部3が、録画したコンテンツを先頭から再生する。ステップS2で、嗜好分析部11が、コンテンツの嗜好分析処理を行う。コンテンツの嗜好分析処理においては、コンテンツの特徴量を元にクラスタリングを行う。詳しくは、図4及び図5を参照して説明する。
ステップS2でコンテンツの嗜好分析を行った後、図3のステップS21に進み、録画再生部3は、コンテンツを最後まで再生したか否かを判定する。最後までコンテンツを再生していない場合には、ステップS22で、録画再生部3は、ユーザにより早送りの操作がなされたかを判定する。早送り操作が認識できない場合には、ステップS21に戻る。
ステップS22において、早送り操作を認識した場合には、ステップS23に進み、嗜好分析部11は、早送りの開始シーンを取得し、ステップS24で、嗜好分析部11は、早送りの終了シーンを取得する。
ステップS25で、嗜好分析部11は、早送りの開始シーンと終了シーンとが一致するか否かを判定する。一致する場合には、ステップS21に戻る。
早送りの開始シーンと終了シーンとが異なるシーンである場合には、ステップS26に進み、嗜好分析部11は、早送りの終了シーンで嗜好分析処理を行う。シーンの嗜好分析処理においては、ユーザによる録画再生装置1に行った操作により、ユーザの嗜好に合うと判断したシーンについての特徴量を、嗜好格納部12の嗜好データに反映させる。詳しくは図7を参照して説明する。
ステップS27で、嗜好分析部11は、早送りの開始シーンで嗜好更新処理を行う。シーンの嗜好更新処理においては、ユーザによる録画再生装置1に行った操作により、ユーザの嗜好に合わないと判断したシーンについての特徴量を、嗜好格納部12の嗜好データに反映させる。詳しくは図15を参照して説明する。嗜好更新処理を実施すると、ステップS21に戻る。
ステップS21において、コンテンツを最後まで再生したと判定すると、図2のステップS0に進み、ユーザの操作待ち状態に戻る。
プレビューシーンの表示操作が行われた場合には、ステップS5で、プレビューシーン表示部15は、抽出したプレビューシーンを表示する。表示したプレビューシーンに対してユーザが録画再生装置1に行った操作により、ステップS6、ステップS9またはステップS11のいずれかに進む。
ステップS6においては、録画再生部3は、表示したプレビューシーンの中からユーザが選択して再生操作を行ったシーンを再生する。嗜好分析部11は、ステップS7で、コンテンツの嗜好分析処理を行い、ステップS8で、再生シーンの嗜好分析処理を行うと、図3のステップS21に進む。図3のステップS21以降の処理については上記のとおりである。
ステップS9においては、録画再生部3は、表示したプレビューシーンの中からユーザが嗜好に合わないとして指定したシーンを受け付け、ステップS10で、嗜好分析部11は、シーンの嗜好更新処理(1)を行う。ステップS10のシーンの嗜好更新処理(1)は、上記のステップS27の処理と同様である。シーンの嗜好更新処理(1)を実施すると、ステップS5に戻る。
ステップS11においては、録画再生部3は、表示したプレビューシーンとともに表示した単語のうち、ユーザが嗜好に合わないとして指定した単語を受け付け、ステップS12で、シーンの嗜好更新処理(2)を行う。ステップS12のシーンの嗜好更新処理(2)においては、EPGや字幕等のシーンに関する単語のうちユーザが嗜好に合わないと判断した単語の特徴については、プレビューシーンの抽出において利用しないようにする。詳しくは図16を参照して説明する。
上記のとおり、本実施形態に係る録画再生装置1によれば、嗜好分析部11においてユーザの嗜好をシーンの特徴量の計算に反映させた嗜好データを作成し、嗜好判定部14において、嗜好分析部11において作成した嗜好データを利用して、録画したコンテンツの中から、ユーザの嗜好に沿ったシーンを抽出する。抽出したシーンについて、ユーザから嗜好に合う/合わないことを示す情報が入力されると、嗜好分析部11は、ユーザにより入力された情報に基づき嗜好データを更新し、嗜好データにユーザの嗜好を反映させる。以下に、嗜好分析部11及び嗜好判定部14について詳しく説明する。
図4は、嗜好分析部11の構成図である。嗜好分析部11は、シーン指定部21、シーン特徴計算部22、特徴取得部25、クラスタ生成部26、クラスタ特徴計算部27及びクラスタ判定部28を含む。
シーン指定部21は、ユーザが指定したシーンを示す情報を受け付ける。
特徴取得部25は、嗜好格納部12に格納されているコンテンツの単語特徴のうち、シーン指定部21において指定を受け付けたシーンを含むコンテンツについての単語特徴を取得する。単語特徴については図6を参照して詳説する。
クラスタ生成部26は、特徴取得部25において取得した単語特徴を利用して、複数のコンテンツを含むコンテンツ群をユーザの嗜好に応じて分類する。分類方法としては、例えば、EPG等の情報を取得して、取得した情報に含まれるコンテンツのジャンルで分類する。そして、ジャンルごとに、そのジャンルに含まれるコンテンツの単語特徴をクラスタリングする。
クラスタリングについては、最短距離法等の階層的クラスタリングを利用してもよいし、K−means法(K平均法)等の非階層的クラスタリングを利用してもよい。
クラスタ特徴計算部27は、クラスタ生成部26において生成したクラスタごとに、クラスタの特徴を表す単語特徴を計算する。一般的には、クラスタに含まれる単語特徴ベクトルの平均からクラスタ特徴ベクトルを求める。
クラスタ判定部28は、クラスタ特徴計算部27において求めたクラスタ特徴ベクトルを利用して、コンテンツがどのクラスタに属するかを判定する。一般的には、コンテンツの単語特徴とクラスタ生成部26において生成したクラスタのそれぞれについてのクラスタ特徴とを比較し、コンテンツは、コンテンツの単語特徴に最も近いクラスタ特徴を持つクラスタに属すると判定する。
シーン特徴計算部22は、シーン指定部21において指定を受け付けたシーンについての特徴を計算する。具体的には、シーンに対し、字幕情報から抽出した単語特徴のほか、画像特徴、音特徴及び時間特徴等の特徴を取得する。画像特徴、音特徴及び時間特徴については、後述する。更に単語特徴、画像特徴、音特徴、時間特徴をマージし、シーン特徴とする。マージ処理においては、分散の小さい特徴ほど重みを強くする。また、クラスタ生成部26で生成したクラスタごとに、ユーザの嗜好に合った全てのシーンのシーン特徴の平均及び分散を計算し、嗜好シーン特徴とする。嗜好シーン特徴はクラスタに紐付けて嗜好格納部12に格納される。
図8は、嗜好格納部12に格納されるデータの構造を示す図である。図8に示すように、ジャンルごとに、クラスタ、クラスタ特徴及び嗜好シーン特徴が紐付けられている。
図5は、嗜好分析部11におけるコンテンツの嗜好分析処理を示したフローチャートである。嗜好分析部11は、録画再生部3が先頭からコンテンツを再生した場合(図2のステップS1)や、プレビューシーンのうちユーザが選択したシーンを再生した場合(図2のステップS6)に、そのコンテンツが初めて再生されたときだけ、図5に示す処理を開始する。
まず、ステップS31で、録画再生部3は、コンテンツを再生(ユーザはコンテンツを視聴)する。ステップS32で、特徴取得部25は、再生中のコンテンツの単語特徴を嗜好格納部12から取得する。
ここで、単語特徴の例を図6に示す。特徴取得部25は、コンテンツに付されたEPGや、コンテンツに関連するウェブページの文章等から取得した番組情報の中から、嗜好分析に必要な単語を抽出し、抽出した単語に基づき単語特徴を計算する。単語特徴の例としては、例えば、ベクトル空間モデルを利用することができる。これは、抽出した単語をそれぞれ軸としたベクトル空間を設定し、単語ごとの出現回数を各軸に割り当てることでできるベクトルを、単語特徴ベクトルとするものである。かかる特徴ベクトルをコンテンツごとに求めた場合には、ベクトルの距離でコンテンツの類似性を表現することができる。このとき、単語の共起関数を用いて、ベクトル空間の次元を圧縮するLSI(Latent Semantic Indexing)を行うこととしてもよい。
ステップS33で、クラスタ判定部28が、再生中のコンテンツが属するクラスタを判定する。コンテンツのEPG等に含まれるジャンル情報が示すジャンルについての全クラスタのクラスタ特徴と、ステップS32で取得した単語特徴とを比較して、再生中のコンテンツは、ステップS32で取得した単語特徴と最も近いクラスタ特徴を持つクラスタに属すると判定する。
ステップS34で、クラスタ特徴計算部27が、ステップS33でコンテンツが属すると判定されたクラスタについての単語特徴を嗜好格納部12から取得する。ここでは、録画再生装置1に記録されているコンテンツのうち、再生中のコンテンツと同じクラスタに含まれる過去に再生された全てのコンテンツについての単語特徴を取得する。
ステップS35で、クラスタ特徴計算部27が、ステップS34で取得した単語特徴群に、ステップS32で取得した再生中のコンテンツの単語特徴を加えて、分散を計算する。
ステップS36で、クラスタ判定部28が、ステップS35において求めた分散が所定の閾値以上であるか否かを判定する。分散が所定の閾値以上である場合には、ステップS38で、クラスタ生成部26は、クラスタ内の単語特徴の分布に拡がりがあるとして、クラスタを2つに分割する。そして、ステップS39で、クラスタ特徴計算部27は、分割して得られた2つのクラスタのそれぞれについてのクラスタ特徴を再計算し、ステップS40に進む。
ステップS36の判定において、分散が所定の閾値未満である場合には、ステップS37に進み、クラスタ特徴計算部27は、ステップS35において単語特徴の分散を求めたクラスタについてのクラスタ特徴を計算し、ステップS40に進む。
ステップS40で、クラスタ判定部28は、クラスタ特徴計算部27において求めたクラスタ特徴を、クラスタに紐付けて嗜好格納部12に格納し、コンテンツの嗜好分析処理を終了する。
図5に示すコンテンツの嗜好分析処理により、新しいコンテンツを再生するごとに(図2のステップS1、ステップS6)嗜好データが更新されることとなる。これにより、本実施形態に係る録画再生装置1は、常にユーザの嗜好を反映させた嗜好データを保有することができる。
嗜好分析部11は、図5に示す処理により得た、コンテンツをクラスタリングした結果を利用して、録画再生部3においてコンテンツを再生中にユーザがどのシーンを視聴するか(どのシーンを再生するよう操作するか)に応じて、嗜好に合ったシーンを分析する。
図7は、嗜好分析部11におけるシーンの嗜好分析処理を示したフローチャートである。嗜好分析部11は、ユーザの嗜好に合うと判断された、あるいはユーザが嗜好に合うとして指定したシーンを示す情報が入力されると、図7に示す処理を実行する。
まず、ステップS51で、シーン指定部21が、ユーザの嗜好に合うと判断された、あるいはユーザが嗜好に合うとして指定したシーンを取得し、ステップS52で、シーン特徴計算部22は、ステップS51で取得したシーンのシーン特徴を計算する。計算するシーン特徴は、単語特徴、画像特徴、音特徴及び時間特徴をマージしたものである。
ステップS53で、クラスタ特徴計算部27は、ステップS51で取得した指定シーンを含むコンテンツについての単語特徴を、嗜好格納部12から取得する。ステップS54で、クラスタ判定部28は、指定シーンを含むコンテンツがどのクラスタに属するかを判定し、ステップS55で、シーン特徴計算部22は、ステップS54において判定したクラスタ内の嗜好に合った全てのシーンのシーン特徴を、嗜好格納部12から取得する。
ステップS56で、シーン特徴計算部22は、指定シーンを含むコンテンツが属するクラスタの嗜好シーン特徴を再計算する。具体的には、ステップS52で取得した指定シーンのシーン特徴と、ステップS55で取得したシーン特徴群との平均を求めて、新たにクラスタの嗜好シーン特徴とする。
ステップS57で、シーン特徴計算部22は、ステップS56で再計算して求めた嗜好シーン特徴を、クラスタに紐付けて嗜好格納部12に格納し、シーンの嗜好分析処理を終了する。
このように、ユーザがプレビューシーンの中からシーンを指定した場合(図2のステップS6)や、早送りを停止させて再生を開始した場合(図3のステップS24)には、その都度、指定されたシーンの特徴や、早送りの後に再生したシーンの特徴を嗜好データに反映させる。これにより、本実施形態に係る録画再生装置1は、常にユーザの嗜好に合ったシーンについての嗜好データを保有することができる。
なお、ユーザが嗜好に合ったシーンを指定する方法としては、図2及び図3に示す場合、すなわち、先頭からコンテンツを再生した場合や、早送りを停止させてコンテンツの再生を開始する場合には限らない。ユーザの録画再生装置1に対する操作により、巻き戻しを停止させてコンテンツの再生を開始する場合、頭出しや再生メニューから選択したシーンを再生する場合には、これらの操作後に再生するシーンについては、ユーザの嗜好に合ったシーンであると判断し、図7に示す処理を実施してユーザの嗜好データに反映させる。
上記の方法により嗜好分析部11において作成した嗜好データを利用して、嗜好判定部14は、録画したコンテンツの中から、ユーザの嗜好に合うプレビューシーンを抽出する。次に、嗜好判定部14について説明する。
図9は、嗜好判定部14の構成図である。嗜好判定部14は、コンテンツ単語抽出部31、コンテンツ単語特徴抽出部32、クラスタ判定部33、シーン格納部34、特徴マッチング部35、シーン単語抽出部36、シーン単語特徴抽出部37、画像特徴抽出部38、音特徴抽出部39、時間特徴抽出部40及び特徴マージ部41を含む。
コンテンツ単語抽出部31は、EPGや番組タイトルで検索して得られるコンテンツと関連するウェブページの文章等から得た番組情報を受け付け、受け付けた番組情報から、嗜好判定に必要な単語を抽出する。コンテンツ単語特徴抽出部32は、コンテンツ単語抽出部31において抽出した単語から、単語特徴を計算する。単語特徴の計算方法は、先に図6を参照して説明したとおりである。
クラスタ判定部33は、図4に示す嗜好分析部11のクラスタ判定部28と同様の処理を行う。
シーン単語抽出部36は、シーンの画像中の字幕情報等から、嗜好判定に必要な単語を抽出する。シーン単語特徴抽出部37は、シーン単語抽出部36において抽出した単語から、単語特徴を計算する。シーン単語特徴抽出部37における単語特徴の計算方法については、コンテンツ単語特徴抽出部32と同様である。
画像特徴抽出部38は、シーン画像から画像特徴を抽出する。抽出する画像特徴の例としては、画像全体の色の割合を求める色ヒストグラム特徴、色の位置分布を求める色レイアウト特徴、画像で最も多く使われている色を求める代表色特徴、あるいは、画像上の輪郭線の分布を求めるエッジ分布特徴等が挙げられる。これらの特徴の抽出方法については、公知の技術であるので、詳細な説明は省略する。
音特徴抽出部39は、シーンのうち、音データから音特徴を抽出する。抽出する音特徴の例としては、パワー特徴やスペクトル包絡特徴等が挙げられる。音特徴の抽出方法についても、公知の技術であるため、詳細な説明は省略する。
時間特徴抽出部40は、コンテンツ内でのシーンの時間的位置を抽出する。抽出する位置は、例えばコンテンツの冒頭からの経過時間や、コンテンツ全体の長さに対するコンテンツ冒頭からシーンの先頭までの長さの割合を利用する。
特徴マージ部41は、シーン単語特徴抽出部37、画像特徴抽出部38、音特徴抽出部39及び時間特徴抽出部40により抽出された各種の特徴を取得して、マージし、シーン特徴を計算する。
特徴マッチング部35は、特徴マージ部41において求めたシーン特徴を、嗜好格納部12から取得した、処理対象のシーンを含むコンテンツの属するクラスタと紐付けられた嗜好シーン特徴と比較する。そして、特徴マッチング部35は、処理対象のシーンについてのシーン特徴と、嗜好格納部12から取得したクラスタと紐付けられた嗜好シーン特徴との距離が所定の閾値以下の場合には、処理対象のシーンをプレビューシーンとして抽出する。
シーン格納部34は、特徴マッチング部35によりプレビューシーンとして抽出されたシーンを特徴マージ部41において求めた特徴と紐付けて格納する。
図10〜図12は、嗜好判定部14におけるコンテンツの嗜好判定処理を示したフローチャートである。嗜好判定部14は、録画再生部3において新たにコンテンツを録画した場合(図2のステップS3)に、図10〜図12に示すプレビューシーン抽出処理を開始する。
まず、図10のステップS61で、コンテンツ単語抽出部31に情報が入力されることにより、コンテンツが新たに録画されたことを認識すると、ステップS62で、コンテンツ単語抽出部31は、EPGやウェブページの文章等の情報から単語を抽出する。ステップS63で、コンテンツ単語特徴抽出部32は、ステップS62で抽出した単語から単語特徴を計算する。ステップS64で、コンテンツ単語特徴抽出部32は、求めた単語特徴を、コンテンツと紐付けて嗜好格納部12に格納する。
ステップS65で、クラスタ判定部33は、コンテンツが属するクラスタを判定する。判定方法は、上記図5のステップS35と同様である。
ステップS66及びステップS67においては、シーン分割部13においてコンテンツを分割して得られたシーンを順次取得してゆき、ステップS68で、シーンを取得できた場合には、ステップS69に進む。
ステップS69で、シーン単語抽出部36は、ステップS67で取得したシーンの区間内で流れる字幕情報等から必要な単語を抽出する。ステップS70で、シーン単語特徴抽出部37は、ステップS69で抽出した単語から単語特徴を計算する。
ステップS71で、画像特徴抽出部38は、ステップS67で取得したシーンの代表画像を抽出する。実施例では、シーンの先頭フレームの画像を抽出するが、これには限らない。例えば、シーンの区間の中央のフレームを抽出することとしてもよいし、全フレームの画像を解析し、クラスタリングして、最も多いクラスタの画像の中から代表となるフレームを抽出することとしてもよい。ステップS72で、画像特徴抽出部39は、ステップS71で抽出した代表画像から、画像特徴を計算する。
ステップS73で、音特徴抽出部39は、ステップS67で取得したシーンから音データを抽出する。実施例では、シーンの全区間の音データを取得するが、これには限らない。例えば、シーンの先頭から一定区間の音データのみを取得することとしてもよいし、シーンの中央付近の一定区間の音データを取得することとしてもよい。ステップS74で、音特徴抽出部39は、ステップS73で抽出した音データから音特徴を計算する。
ステップS75で、時間特徴抽出部40は、ステップS67で取得したシーンの開始時間と終了時間から、時間特徴を計算する。上記のとおり、ステップS75での時間特徴の計算方法は、一例である。
ステップS76で、特徴マージ部41は、ステップS69〜ステップS75においてそれぞれ計算した単語特徴、画像特徴、音特徴及び時間特徴をマージしたシーン特徴を計算し、図11のステップS77に進む。
図11のステップS77で、特徴マッチング部35は、コンテンツの属するクラスタに紐付けされた嗜好シーン特徴を嗜好格納部12から抽出し、ステップS78で、特徴マッチング部35は、ステップS76で計算したシーン特徴と、ステップS77で抽出した嗜好シーン特徴との距離を計算する。そして、ステップS79で、マッチング特徴部35は、ステップS78で計算した距離が所定の閾値以下であるか否かを判定する。距離が閾値を超える場合には、図10のステップS67に戻り、次のシーンについて、上記の処理を繰り返す。
ステップS79において、ステップS78で計算した距離が所定の閾値以下であると判定した場合には、ステップS80に進む。ステップS80で、シーン格納部34は、ステップS67で取得したシーン、ステップS69〜ステップS75で求めたシーン特徴及びステップS78で求めた距離を一時保存し、図10のステップS67に戻る。
このように、以降はステップS67以降の処理を繰り返し、コンテンツを分割して得られるシーンのそれぞれについてシーン特徴を計算し、嗜好格納部12に格納されている嗜好シーン特徴との距離が所定の閾値以下である場合には、プレビューシーンの候補になり得るシーンであるとして、一時保存してゆく。
ステップS68において、シーンが取得できなかった場合には、全てのシーンについて処理が完了したと判断し、図12のステップS81に進む。
図12のステップS81で、シーン格納部34は、一時保存したシーンについて、距離でソートを行い、ステップS82で、距離が短い方から所定数のシーンをプレビューシーンとして取得する。そして、ステップS83で、シーン格納部34は、ステップS82で取得した所定数のシーンをそのシーン特徴および代表画像と紐付けて、嗜好格納部12に格納し、処理を終了する。
このように、嗜好格納部12に格納されているクラスタごとの嗜好シーン特徴と、録画したコンテンツに含まれるシーンの特徴とを比較して、特徴間の距離が短いシーンを抽出して、嗜好格納部12に格納する。ユーザの嗜好が反映された嗜好格納部12の嗜好データを利用して、ユーザの嗜好に合うシーンをプレビューシーンとして抽出することが可能となる。
図13は、抽出したプレビューシーンの表示画面の例である。
図13に示す表示例では、プレビューシーン表示領域51には、抽出したプレビューシーンの代表画像を並べて表示する。複数の代表画像を表示する場合には、例えば、コンテンツの時間軸に沿って代表画像を並べる。
シーン再生領域55では、再生中のプレビューシーンを表示する。図13に示す例では、シーン再生領域55において、プレビューシーン表示領域51の中央に表示している代表画像52に対応するシーンを表示している。
再生が終了すると、例えば、プレビューシーン表示領域51に表示する画像をスクロールさせ、順次中央に表示した代表画像に対応するシーンをシーン再生領域55で再生してゆく構成としてもよい。
表示装置2の画面を介してユーザが指定した代表画像(に対応するシーン)を再生する構成としてもよい。例えばプレビューシーン表示領域51のうち代表画像54をユーザが指定した場合には、代表画像54がプレビューシーン表示領域51の中央にくるまで代表画像をスクロールさせて、シーン再生領域55には代表画像54に対応するシーンを再生する構成としてもよい。
更に、ユーザが画面の再生領域55で再生中のシーンを指定した場合には、プレビューシーンの再生後も、そのシーンに続けてコンテンツの再生を行う構成とすることもできる。
図14は、抽出したプレビューシーンの表示画面の他の例である。図14に示す表示例では、あるクラスタに含まれる全ての録画済のコンテンツについてのプレビューシーンを同時に表示している。
あるクラスタに属するコンテンツ群から抽出したプレビューシーンの代表画像を、サムプレビューシーン表示領域63に表示している。図13の例と同様に、プレビューシーン表示領域63の中央に表示している代表画像に対応するシーンを、シーン再生領域61に表示している。
代表画像は、コンテンツごとに並べてもよいし、所定の特徴の順にソートしてもよい。
プレビューシーン表示領域63の中央には、クラスタの切り替えボタン62を表示する。ポインティングデバイスや録画再生装置1のリモコンの上下ボタンを利用して、ユーザが切り替えボタン62を押下したことを認識すると、プレビューシーン表示部15は、プレビューシーン表示領域63に表示する代表画像を変更して、他のクラスタに属するコンテンツについて抽出したプレビューシーンの代表画像に切り替える。例えば、あるクラスタにはドラマ(1)が属している場合に、クラスタ切り替えボタン62が操作された場合には、ドラマ(2)のプレビューシーンの代表画像64へと切り替えを行う。
更には、図13や図14に示す画面中に、プレビューシーンの抽出に利用した単語を表示しておく構成とすることもできる。ユーザは、画面を通じて指定した単語をプレビューシーンの抽出に利用しないようにすることもできる。ユーザの嗜好に合わない単語を単語特徴から削除する処理については、図16を参照して説明する。
ユーザが再生したシーンや、ユーザが画面等を通じて嗜好に合うとして指定したシーンについては、ユーザの嗜好に合うシーンであると判断する。また、コンテンツの再生中にユーザが再生をしなかったシーンや、ユーザが画面等を通じて嗜好に合わないとして指定したシーンについては、ユーザの嗜好に合わないシーンであると判断する。更には、EPGや字幕情報等の中から、プレビューシーンの抽出に利用したくない単語については、単語特徴の計算において、利用しないこととする。
次に、ユーザが録画再生装置1に対して行った操作等に基づき、嗜好格納部12に格納する嗜好データを更新する方法について説明する。なお、ユーザが録画再生装置1を操作して、早送りを止める等により再生したシーンや、ユーザが画面等を通じて指定したシーンを嗜好に合ったシーンであるとして嗜好データを更新する方法については、先に図7を参照して説明したとおりであるので、ここでは説明を省略する。
図15は、嗜好分析部11におけるシーンの嗜好更新処理(1)を示したフローチャートである。嗜好分析部11は、ユーザが、嗜好に合わないと判断してプレビューシーンの中から指定したシーンを示す情報が入力されると、図15に示す処理を実行する。
まず、ステップS91で、シーン指定部21が、嗜好に合わないとしてユーザが指定したシーンを取得すると、ステップS92で、シーン特徴計算部22は、ステップS91で取得したシーンのシーン特徴を嗜好格納部12から取得する。
ステップS93で、シーン特徴計算部22は、ステップS92で取得したシーン特徴ベクトルを反転させ、ステップS94で、シーン特徴計算部22は、ステップS93で更新したシーン特徴を、シーンを識別する情報と紐付けて負情報であることを示すフラグとともに嗜好格納部12に一時記憶させておく。
ステップS95からステップS98までの処理は、それぞれ図7のステップS54からステップS57の処理と同様である。
ステップS99で、ステップS91で取得した指定シーンを含むコンテンツについて、再度プレビューシーンの抽出処理を実行するよう嗜好分析部11から嗜好判定部14に通知をし、処理を終了する。
図15に示す処理により、図2のステップS9においてユーザが嗜好に合わないとしてプレビューシーンの中から指定したシーンや、図3のステップS27において早送りにより再生されなかったシーンの特徴については、プレビューシーンの抽出において寄与しないように、嗜好データを更新する。これにより、本実施形態に係る録画再生装置1は、嗜好データを利用して、よりユーザの嗜好に合ったシーンを抽出することができるようになる。
図16は、嗜好分析部11におけるシーンの嗜好更新処理(2)を示したフローチャートである。嗜好分析部11は、ユーザが嗜好に合わないと判断して指定した単語が入力されると、図16に示す処理を実行する。
まず、ステップS101で、特徴取得部25が、ユーザにより嗜好に合わないとして指定した単語を取得すると、ステップS102で、シーン特徴計算部22は、ステップS101で取得した単語を「負単語」として嗜好格納部12に格納する。負単語とは、シーン及びシーンを含むコンテンツから抽出された単語のうち、ユーザがその単語をプレビューシーンの抽出に利用しないとして指定した単語を言う。
ステップS103で、シーン特徴計算部22は、嗜好格納部12に格納されている全ての単語特徴を順に取得していく。全ての単語特徴とは、全てのコンテンツについてのEPGやウェブページの文章から取得した単語特徴や、全てのシーンの字幕情報等から取得した単語特徴、すなわち、全てのクラスタについてのクラスタ特徴、嗜好シーン特徴及び全てのシーン特徴のことである。
ステップS104で、シーン特徴計算部22は、ステップS103で取得した単語特徴のうち、ステップS101で取得した単語については特徴ベクトルから軸を削除して、嗜好格納部12に再格納し、シーンの嗜好更新処理(2)を終了する。
このように、ユーザがプレビューシーンの抽出に利用したくない単語を指定した場合(図2のステップS11)には、嗜好データを更新して、指定された単語については、単語特徴ベクトルの軸から削除し、プレビューシーンの抽出において寄与しないようにする。これにより、本実施形態に係る録画再生装置1は、嗜好データを利用して、よりユーザの嗜好に合ったシーンを抽出することができるようになる。
ところで、図1の録画再生装置は、例えば、図17に示すような情報処理装置(コンピュータ)を用いて構成することができる。図17の情報処理装置は、CPU(中央処理装置)1001、メモリ1002、入力装置1003、出力装置1004、外部記憶装置1005、媒体駆動装置1006、ネットワーク接続装置1007を備え、それらはバス1008により互いに接続されている。
メモリ1002は、例えば、ROM(read only memory)、RAM(random access memory)等を含み、処理に用いられるプログラムおよびデータを格納する。CPU1001は、メモリ1002を利用してプログラムを実行することにより、必要な処理を行う。
図1の嗜好分析部11、シーン分割部13、嗜好判定部14及びプレビューシーン表示部15は、メモリ1002に格納されたプログラムを実行することにより実現される機能に対応する。
入力装置1003は、例えば、キーボード、ポインティングデバイス、タッチパネル等であり、ユーザからの指示や情報の入力に用いられる。出力装置1004は、例えば、ディスプレイやスピーカ等であり、ユーザへの問い合わせや処理結果等の出力に用いられる。
外部記憶装置1005は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。情報処理装置は、この外部記憶装置1005に、上記プログラムおよび嗜好に関する情報等のデータを格納しておき、必要に応じて、それらをメモリ1002にロードして使用する。
媒体駆動装置1006は、可搬記録媒体1009を駆動し、その記録内容にアクセスする。可搬記録媒体1009は、メモリカード、フレキシブルディスク、CD−ROM(compact disk read only memory )、光ディスク、光磁気ディスク等の任意のコンピュータ読み取り可能な記録媒体である。オペレータは、この可搬記録媒体1009に上記プログラムおよびデータを格納しておき、必要に応じて、それらをメモリ1002にロードして使用する。
ネットワーク接続装置1007は、LAN(local area network)、インターネット等の任意の通信ネットワークに接続され、通信に伴うデータ変換を行う。情報処理装置は、必要に応じて、上記プログラムおよびデータを外部の装置からネットワーク接続装置1007を介して受け取り、それらをメモリ1002にロードして使用する。
図18は、図17の情報処理装置にプログラムおよびデータを供給することのできるコンピュータ読み取り可能な記録媒体を示している。可搬記録媒体1009やサーバ1101のデータベース1103に格納されたプログラムおよびデータは、情報処理装置1102のメモリ1002にロードされる。サーバ1101は、そのプログラムおよびデータを搬送する搬送信号を生成し、ネットワークを介して情報処理装置1102に送信する。CPU1001は、そのデータを用いてそのプログラムを実行し、必要な処理を行う。
以上説明したように、本実施形態に係る録画再生装置1によれば、ユーザがコンテンツの視聴の際に行った再生、早送り・巻き戻し等の操作の指示を受け付けると、操作の指示にしたがって、ユーザの嗜好データを作成する。嗜好データは、ユーザの嗜好に合ったシーンの特徴を含む。再生等を行ったコンテンツとは異なるコンテンツが録画されると、嗜好データを利用して、録画したコンテンツのうち、特徴が近いシーンを抽出する。ユーザの視聴の有無によらず、録画したコンテンツからユーザの嗜好に合ったシーンを抽出することができる。
抽出したシーンについては、プレビューシーンとして出力表示する。プレビューシーンの中からユーザが指定したプレビューシーンについては、ユーザの嗜好に合ったシーンであると判断し、指定したシーンの特徴を嗜好データに反映させる。ユーザが嗜好に合わないとして指定したシーンについては、指定されたシーンの特徴がプレビューシーンの抽出時に影響しないよう、嗜好データを更新する。EPGや字幕情報等の単語についても、ユーザがプレビューシーンの抽出に利用したくないとして指定した単語については、特徴量の計算において利用しないように嗜好データを反映させる。これにより、よりユーザの嗜好に合ったシーンの抽出が可能となる。
なお、上記においては、コンテンツの録画機能を備えた録画再生装置1について説明しているが、これは一例である。例えば、上記の方法を、コンテンツの録画機能を持たない再生装置において実行することとしても良い。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
映像コンテンツを再生する再生装置であって、
前記映像コンテンツを部分的なシーンに区分する分割部と、
シーンに区分されたコンテンツの再生中に行われた操作の指示と、該指示を受け付けた際に再生をしていた箇所とを関連付けて記録した記録部を参照して、早送りまたは巻き戻しの操作の指示の後に再生した箇所を特定する特定部と、
前記特定部において特定したシーンについて第1の特徴量を求める第1の特徴量算出部と、
前記コンテンツとは異なる他のコンテンツをシーンに区分し、得られた各シーンついて第2の特徴量を求める第2の特徴量算出部と、
前記第1の特徴量と前記第2の特徴量とを比較し、該第1及び第2の特徴量の差が所定の閾値以内となる該第2の特徴量を有するシーンを抽出する抽出部と、
前記抽出部により抽出したシーンを出力する出力部と
を備えることを特徴とする再生装置。
(付記2)
前記第1の特徴量算出部は、前記抽出部において抽出したシーンが再生された場合には、前記第1の特徴量と前記第2の特徴量との平均を算出し、該算出した特徴量を第1の特徴量として利用する
ことを特徴とする付記1記載の再生装置。
(付記3)
前記第1の特徴量算出部は、前記抽出部において抽出したシーンを該抽出部において抽出しない旨の指示が入力された場合には、前記第2の特徴量のベクトルの向きを反転させて、前記第1の特徴量と該ベクトルの向きを反転させた第2の特徴量との平均を算出し、該算出した特徴量を第1の特徴量として利用する
ことを特徴とする付記1記載の再生装置。
(付記4)
前記第1及び第2の特徴量算出部は、前記シーン及び該シーンを含む前記コンテンツから抽出して前記第1及び第2の特徴量の計算に用いた単語のうち、該第1及び第2の特徴量の計算に利用しない旨の指示が入力された単語については、単語特徴を軸に割り当てたベクトル空間から該指示された単語の軸を削除する
ことを特徴とする付記1記載の再生装置。
(付記5)
前記コンテンツを、その内容に応じて属するクラスタを判定するクラスタリング部と、
を更に備え、
前記抽出部は、前記クラスタリング部により前記他のコンテンツが属するクラスタと一致するクラスタの前記コンテンツについて求めた前記第1の特徴量を抽出して、該抽出した第1の特徴量と前記第2の特徴量との比較を行う
ことを特徴とする付記1記載の再生装置。
(付記6)
映像コンテンツを再生する再生装置において使用するプログラムであって、
前記映像コンテンツを部分的なシーンに区分し、
シーンに区分されたコンテンツの再生中に行われた操作の指示と、該指示を受け付けた際に再生をしていた箇所とを関連付けて記録した記録部を参照して、早送りまたは巻き戻しの操作の指示の後に再生した箇所を特定し、
前記特定したシーンについて第1の特徴量を求め、
前記コンテンツとは異なる他のコンテンツをシーン単位に区分し、得られた各シーンについて第2の特徴量を求め、
前記第1の特徴量と前記第2の特徴量とを比較し、該第1及び第2の特徴量の差が所定の閾値以内となる該第2の特徴量を有するシーンを抽出し、
前記抽出したシーンを出力する
処理をコンピュータに実行させることを特徴とするプログラム。
(付記7)
前記抽出部において抽出したシーンが再生された場合には、前記第1の特徴量と前記第2の特徴量との平均を算出し、該算出した特徴量を第1の特徴量として利用する
ことを特徴とする付記6記載のプログラム。
(付記8)
前記抽出したシーンの区分を抽出しない旨の指示が入力された場合には、前記第2の特徴量のベクトルの向きを反転させて、前記第1の特徴量と該ベクトルの向きを反転させた第2の特徴量との平均を算出し、該算出した特徴量を第1の特徴量として利用する
ことを特徴とする付記6記載のプログラム。
(付記9)
前記シーン及び該シーンを含む前記コンテンツから抽出して前記第1及び第2の特徴量の計算に用いた単語のうち、該第1及び第2の特徴量の計算に利用しない旨の指示が入力された単語については、単語特徴を軸に割り当てたベクトル空間から該指示された単語の軸を削除する
ことを特徴とする付記6記載のプログラム。
(付記10)
前記コンテンツを、その内容に応じて属するクラスタを判定する
処理を更にコンピュータに実行させ、
前記第2の特徴量を有するシーンを抽出する処理においては、前記他のコンテンツが属するクラスタと一致するクラスタの前記コンテンツについて求めた前記第1の特徴量を抽出して、該抽出した第1の特徴量と前記第2の特徴量との比較を行う
ことを特徴とする付記6記載のプログラム。
1 録画再生装置
2 表示装置
3 録画再生部
10 プレビュー生成部
11 嗜好分析部
12 嗜好格納部
13 シーン分割部
14 嗜好判定部
15 プレビューシーン表示部
21 シーン指定部
22 シーン特徴計算部
25 特徴取得部
26 クラスタ生成部
27 クラスタ特徴計算部
28 クラスタ判定部
31 コンテンツ単語抽出部
32 コンテンツ単語特徴抽出部
33 クラスタ判定部
34 シーン格納部
35 特徴マッチング部
36 シーン単語抽出部
37 シーン単語特徴抽出部
38 画像特徴抽出部
39 音特徴抽出部
40 時間特徴抽出部
41 特徴マージ部
51 プレビューシーン表示領域
55 シーン再生領域
61 シーン再生領域
62 切り替えボタン
63 プレビューシーン表示領域

Claims (5)

  1. 映像コンテンツを再生する再生装置であって、
    前記映像コンテンツを部分的なシーンに区分する分割部と、
    シーンに区分されたコンテンツの再生中に行われた操作の指示と、該指示を受け付けた際に再生をしていた箇所とを関連付けて記録した記録部を参照して、早送りまたは巻き戻しの操作の指示の後に再生した箇所を特定する特定部と、
    前記特定部において特定したシーンに関連した電子番組表やウェブページの文章から取得した番組情報から抽出した単語の種類と数を用いてベクトル空間内でベクトルとして表現される第1の特徴量を求める第1の特徴量算出部と、
    前記コンテンツとは異なる他のコンテンツをシーンに区分し、得られた各シーンに関連した電子番組表やウェブページの文章から取得した番組情報から抽出した単語の種類と数を用いてベクトル空間内でベクトルとして表現される第2の特徴量を求める第2の特徴量算出部と、
    前記第1の特徴量と前記第2の特徴量とを表すベクトルの距離が所定の閾値以内となる該第2の特徴量を有するシーンを抽出する抽出部と、
    前記抽出部により抽出したシーンを出力する出力部と
    を備えることを特徴とする再生装置。
  2. 前記第1の特徴量算出部は、前記抽出部において抽出したシーンが再生された場合には、前記第1の特徴量と前記第2の特徴量との平均を算出し、該算出した特徴量を第1の特徴量として利用する
    ことを特徴とする請求項1記載の再生装置。
  3. 前記第1の特徴量算出部は、前記抽出部において抽出したシーンを該抽出部において抽出しない旨の指示が入力された場合には、前記第2の特徴量のベクトルの向きを反転させて、前記第1の特徴量と該ベクトルの向きを反転させた第2の特徴量との平均を算出し、該算出した特徴量を第1の特徴量として利用する
    ことを特徴とする請求項1記載の再生装置。
  4. 前記第1及び第2の特徴量算出部は、前記シーン及び該シーンを含む前記コンテンツから抽出して前記第1及び第2の特徴量の計算に用いた単語のうち、該第1及び第2の特徴量の計算に利用しない旨の指示が入力された単語については、単語特徴を軸に割り当てたベクトル空間から該指示された単語の軸を削除する
    ことを特徴とする請求項1記載の再生装置。
  5. 映像コンテンツを再生する再生装置において使用するプログラムであって、
    前記映像コンテンツを部分的なシーンに区分し、
    シーンに区分されたコンテンツの再生中に行われた操作の指示と、該指示を受け付けた際に再生をしていた箇所とを関連付けて記録した記録部を参照して、早送りまたは巻き戻しの操作の指示の後に再生した箇所を特定し、
    前記特定した再生をしたシーンを抽出して、該抽出したシーンに関連した電子番組表やウェブページの文章から取得した番組情報から抽出した単語の種類と数を用いてベクトル空間内でベクトルとして表現される第1の特徴量を求め、
    前記コンテンツとは異なる他のコンテンツをシーン単位に区分し、得られた各シーンに関連した電子番組表やウェブページの文章から取得した番組情報から抽出した単語の種類と数を用いてベクトル空間内でベクトルとして表現される第2の特徴量を求め、
    前記第1の特徴量と前記第2の特徴量とを表すベクトルの距離が所定の閾値以内となる該第2の特徴量を有するシーンを抽出し、
    前記抽出したシーンを出力する
    処理をコンピュータに実行させることを特徴とするプログラム。
JP2009104428A 2009-04-22 2009-04-22 再生装置及びプログラム Expired - Fee Related JP5338450B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009104428A JP5338450B2 (ja) 2009-04-22 2009-04-22 再生装置及びプログラム
US12/764,350 US8406606B2 (en) 2009-04-22 2010-04-21 Playback apparatus and playback method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009104428A JP5338450B2 (ja) 2009-04-22 2009-04-22 再生装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2010258615A JP2010258615A (ja) 2010-11-11
JP5338450B2 true JP5338450B2 (ja) 2013-11-13

Family

ID=42992213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009104428A Expired - Fee Related JP5338450B2 (ja) 2009-04-22 2009-04-22 再生装置及びプログラム

Country Status (2)

Country Link
US (1) US8406606B2 (ja)
JP (1) JP5338450B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018913A1 (ja) 2011-08-04 2013-02-07 日本電気株式会社 映像処理システム、視聴者の嗜好判定方法、映像処理装置およびその制御方法と制御プログラム
JP2016157292A (ja) * 2015-02-25 2016-09-01 株式会社キャストルーム コンテンツ再生装置、コンテンツ再生システム及びプログラム
US9811765B2 (en) * 2016-01-13 2017-11-07 Adobe Systems Incorporated Image captioning with weak supervision
US9792534B2 (en) * 2016-01-13 2017-10-17 Adobe Systems Incorporated Semantic natural language vector space
US11562018B2 (en) 2020-02-04 2023-01-24 Western Digital Technologies, Inc. Storage system and method for optimized surveillance search
US11526435B2 (en) 2020-02-04 2022-12-13 Western Digital Technologies, Inc. Storage system and method for automatic data phasing
US11328511B2 (en) * 2020-03-13 2022-05-10 Western Digital Technologies, Inc. Storage system and method for improved playback analysis
JP7472055B2 (ja) 2021-02-19 2024-04-22 Tvs Regza株式会社 電子機器、システム、およびプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250944A (ja) * 1998-12-28 2000-09-14 Toshiba Corp 情報提供方法、情報提供装置、情報受信装置、並びに情報記述方法
US6751776B1 (en) * 1999-08-06 2004-06-15 Nec Corporation Method and apparatus for personalized multimedia summarization based upon user specified theme
US7016540B1 (en) * 1999-11-24 2006-03-21 Nec Corporation Method and system for segmentation, classification, and summarization of video images
JP2002016903A (ja) 2000-06-29 2002-01-18 Fujitsu Ltd データ配信装置
JP2002259720A (ja) * 2001-03-02 2002-09-13 Internatl Business Mach Corp <Ibm> コンテンツ要約システム、映像要約システム、ユーザ端末、要約映像生成方法、要約映像受信方法、およびプログラム
JP2002354406A (ja) * 2001-05-23 2002-12-06 Fujitsu Ltd 動画像再生装置
JP2003032654A (ja) * 2001-07-16 2003-01-31 Jisedai Joho Hoso System Kenkyusho:Kk 番組関連コンテンツ生成・提示方法および番組関連コンテンツ生成・提示装置
JP3852761B2 (ja) * 2002-05-14 2006-12-06 インターナショナル・ビジネス・マシーンズ・コーポレーション ネットワークシステム、コンテンツ提供システム、端末装置及びコンテンツ送信方法並びにプログラム
JP3744464B2 (ja) * 2002-05-20 2006-02-08 ソニー株式会社 信号記録再生装置及び方法、信号再生装置及び方法、並びにプログラム及び記録媒体
US7236960B2 (en) * 2002-06-25 2007-06-26 Eastman Kodak Company Software and system for customizing a presentation of digital images
JP2004194108A (ja) * 2002-12-12 2004-07-08 Sony Corp 情報処理装置および情報処理方法、記録媒体、並びにプログラム
JP4120548B2 (ja) * 2003-09-26 2008-07-16 日本電気株式会社 番組記録再生装置、番組管理方法およびプログラム
US8081863B2 (en) * 2004-01-30 2011-12-20 Panasonic Corporation Content playback apparatus
WO2006104106A1 (ja) * 2005-03-28 2006-10-05 Pioneer Corporation ダイジェスト視聴システム及びダイジェスト視聴用再生制御装置
JP4247638B2 (ja) * 2006-04-06 2009-04-02 ソニー株式会社 記録再生装置および記録再生方法
JP2009239322A (ja) * 2006-06-14 2009-10-15 Nec Corp 映像再生装置、映像再生方法および映像再生プログラム
US8442384B2 (en) * 2007-07-16 2013-05-14 Michael Bronstein Method and apparatus for video digest generation
US8224087B2 (en) * 2007-07-16 2012-07-17 Michael Bronstein Method and apparatus for video digest generation

Also Published As

Publication number Publication date
US20100272411A1 (en) 2010-10-28
US8406606B2 (en) 2013-03-26
JP2010258615A (ja) 2010-11-11

Similar Documents

Publication Publication Date Title
JP5338450B2 (ja) 再生装置及びプログラム
US10031649B2 (en) Automated content detection, analysis, visual synthesis and repurposing
JP4910582B2 (ja) 情報処理装置および方法、並びに、プログラム
US9569533B2 (en) System and method for visual search in a video media player
JP5086617B2 (ja) コンテンツ再生装置
JP4905103B2 (ja) 動画再生装置
US8750681B2 (en) Electronic apparatus, content recommendation method, and program therefor
JP4873018B2 (ja) データ処理装置、データ処理方法、及び、プログラム
US20160014482A1 (en) Systems and Methods for Generating Video Summary Sequences From One or More Video Segments
US20160103830A1 (en) User interface method and device for searching for multimedia content
Schoeffmann et al. Video browsing interfaces and applications: a review
WO2012020667A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2012020668A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20140149941A1 (en) Display control apparatus, display method, and computer program
US20090129749A1 (en) Video recorder and video reproduction method
JP5106455B2 (ja) コンテンツ推薦装置及びコンテンツ推薦方法
JP2006525537A (ja) コンテンツ解析を用いて音楽ビデオを要約する方法及び装置
US20210117471A1 (en) Method and system for automatically generating a video from an online product representation
WO2007132566A1 (ja) 映像再生装置、映像再生方法、および映像再生用プログラム
US12086503B2 (en) Audio segment recommendation
JP4064902B2 (ja) メタ情報生成方法、メタ情報生成装置、検索方法および検索装置
JP2008059383A (ja) コンテンツ提示装置及びコンピュータプログラム
US20120271830A1 (en) Data processing device
JP2008099012A (ja) コンテンツ再生システム及びコンテンツ蓄積システム
KR100361499B1 (ko) 멀티미디어 스트림의 세그먼트간 원인/결과 관계 정보 구성 방법과 세그먼트간 원인/결과 관계 정보를 이용한 비디오 브라우징 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130722

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees