JP2005157463A - データ分類方法、要約データ生成方法、データ分類装置、要約データ生成装置、データ分類プログラム、要約データ生成プログラム及び情報記録媒体 - Google Patents
データ分類方法、要約データ生成方法、データ分類装置、要約データ生成装置、データ分類プログラム、要約データ生成プログラム及び情報記録媒体 Download PDFInfo
- Publication number
- JP2005157463A JP2005157463A JP2003390977A JP2003390977A JP2005157463A JP 2005157463 A JP2005157463 A JP 2005157463A JP 2003390977 A JP2003390977 A JP 2003390977A JP 2003390977 A JP2003390977 A JP 2003390977A JP 2005157463 A JP2005157463 A JP 2005157463A
- Authority
- JP
- Japan
- Prior art keywords
- data
- content
- story
- content data
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
- G11B27/105—Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/162—Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
- H04N7/163—Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/20—Disc-shaped record carriers
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】 データベース内に格納されているデータを検索する際の客観的指標を提供すると共に、特に画像データ等のテキスト形式以外の形式により記述されているデータを的確に検索することができるようにデータを分類する。
【解決手段】 画像処理装置1は、各コンテンツデータに対応する登場人物等の属性を示す付加情報に基づいて、人物マトリクス生成テーブルTBL1等を生成し、同テーブルTBL1を更新することにより、各登場人物及び各登場場所が当該コンテンツデータの任意のフレームに登場する登場確率を示すストーリーマトリクスを算出する。このストーリーマトリクスに基づいて各コンテンツデータの潜在主人公等を決定し、その決定結果に基づいて各コンテンツデータのストーリー分類を決定する。
【選択図】 図1
【解決手段】 画像処理装置1は、各コンテンツデータに対応する登場人物等の属性を示す付加情報に基づいて、人物マトリクス生成テーブルTBL1等を生成し、同テーブルTBL1を更新することにより、各登場人物及び各登場場所が当該コンテンツデータの任意のフレームに登場する登場確率を示すストーリーマトリクスを算出する。このストーリーマトリクスに基づいて各コンテンツデータの潜在主人公等を決定し、その決定結果に基づいて各コンテンツデータのストーリー分類を決定する。
【選択図】 図1
Description
本発明はデータベース内の各種コンテンツデータの管理に関し、特に、コンテンツデータをデータベースにおいて分類する際の技術分野に関する。
従来、データベース内のデータを検索する方法として、主として用いられているものに、フルテキスト検索、条件付き検索、内容検索と呼ばれる検索方法がある。これらの検索方法は、検索キーワードに対応するコードと同一のコードを当該テキスト内において検索し、当該キーワードを文字列として含むデータが検索結果として出力される。
また、画像データ等のテキスト形式以外の形式により記述されているデータを検索する場合には、専ら、キーワード検索と呼ばれる手法が採用されている。このキーワード検索は、各データに予めキーワードを設定して、当該キーワードによって各データを分類しておき、データの検索を行う際には、かかるキーワードに基づいて検索が行われる。
(株)アスキー、"アスキーデジタル用語辞典"、[online][平成15年10月14日検索]、インターネット<URL: http://yougo.ascii24.com/>
(株)アスキー、"アスキーデジタル用語辞典"、[online][平成15年10月14日検索]、インターネット<URL: http://yougo.ascii24.com/>
ところで、上述したキーワード検索において予め設定されるキーワードは、各データを利用したユーザが、自己の感覚に基づいて決定している。このため、設定されているキーワードに強い主観が含まれてしまい、客観性が担保できず、的確な検索を行うことができなかった。
本願は、以上のような事情に鑑みてなされたものであり、その課題の一例としては、データベース内に格納されているデータを検索する際の客観的指標を提供することにあり、特に画像データ等のテキスト形式以外の形式により記述されているデータを的確に検索することができるようにデータを分類するためのデータ分類方法、データ分類装置、データ分類プログラム、要約データ生成方法、要約データ生成装置、要約データ生成プログラム及び情報記録媒体を提供することにある。
上述した課題を解決するため、本願の一つの観点では、データ分類方法は、ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得する第1ステップと、前記キャラクタ及び前記設定場所の、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する第2ステップと、前記登場確率に基づいて前記コンテンツデータを分類する第3ステップとを備える。
また、本願の他の観点では、要約データ生成方法は、ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得する第1ステップと、前記キャラクタと前記設定場所と、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する第2ステップと、前記登場確率に基づいて前記コンテンツにおける主たる前記キャラクタ、または、前記コンテンツにおけるメイン舞台となる前記設定場所の少なくとも何れか一方を決定する第3ステップと、前記第3ステップによって決定されたキャラクタまたは設定場所の登場する部分を時系列的に結合することにより、前記コンテンツデータの要約に対応する要約データを生成する第4ステップとを備える。
また更に、本願の他の観点では、データ分類装置は、ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得するコンテンツデータ取得手段と、前記キャラクタと前記設定場所と、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する算出手段と、前記登場確率に基づいて前記コンテンツデータを分類する分類手段とを備える。
更に、本願の他の観点では、要約データ生成装置は、ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得するコンテンツデータ取得手段と、前記キャラクタと前記設定場所と、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する算出手段と、前記登場確率に基づいて前記コンテンツにおける主たる前記キャラクタ、または、前記コンテンツにおけるメイン舞台となる前記設定場所の少なくとも何れか一方を決定する決定手段と、前記決定手段によって決定されたキャラクタまたは設定場所の登場する部分を時系列的に結合することにより、前記コンテンツデータの要約に対応する要約データを生成する要約データ生成手段とを備える。
更にまた、本願の他の観点では、データ分類プログラムは、コンピュータによって、コンテンツデータの分類を行うためのデータ分類プログラムであって、前記コンピュータを、ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得するコンテンツデータ取得手段、前記キャラクタと前記設定場所と、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する算出手段、前記登場確率に基づいて前記コンテンツデータを分類する分類手段として機能させる。
また、本願の他の観点では、要約データ生成プログラムは、コンピュータによって、コンテンツデータの分類を行うための要約データ生成プログラムであって、前記コンピュータを、ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得するコンテンツデータ取得手段、前記キャラクタと前記設定場所と、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する算出手段、前記登場確率に基づいて前記コンテンツにおける主たる前記キャラクタ、または、前記コンテンツにおけるメイン舞台となる前記設定場所の少なくとも何れか一方を決定する決定手段、前記決定手段によって決定されたキャラクタまたは設定場所の登場する部分を時系列的に結合することにより、前記コンテンツデータの要約に対応する要約データを生成する要約データ生成手段として機能させる。
また更に、本願の他の観点では、情報記録媒体は、上記のデータ分類プログラムを記録している。
また更に、本願の他の観点では、情報記録媒体は、上記の要約データ生成プログラムを記録している。
以下、図面を参照し、本願の実施の形態について説明する。なお、係る実施形態は、本願を限定するものではなく、本願の技術思想の範囲内において任意に変更可能である。
[1]実施形態
[1.1]実施形態の構成
まず、図1を用いて本願の実施形態にかかる画像処理装置1の構成を説明する。なお、図1は、本実施形態にかかる画像処理装置1の構成を示すブロック図である。
[1.1]実施形態の構成
まず、図1を用いて本願の実施形態にかかる画像処理装置1の構成を説明する。なお、図1は、本実施形態にかかる画像処理装置1の構成を示すブロック図である。
同図に示すように、本実施形態にかかる画像処理装置1は、TV受信部11と、ハードディスク121(以下、「HD121」と略記する)を有するハードディスクドライブ12(以下、「HDD12」と略記する。)と、ユーザインターフェイス部13(以下、「インターフェイス」を「I/F」と略記する。)と、画像表示部14と、テーブル記録部15と、システム制御部16と、これらを相互に接続するデータバス17を有する。
なお、例えば、本実施形態のHD121は本願の「記録媒体」を構成し、TV受信部11と、HDD12と、システム制御部16は、「コンテンツデータ取得手段」を構成する。また、例えば、本実施形態のシステム制御部16は本願の「算出手段」と、「分類手段」と、「要約データ生成手段」を構成すると共に、画像表示部14及びモニタ2は「表示手段」を構成する。
本実施形態にかかる画像処理装置1は、地上デジタル放送を受信し、放送波に含まれたコンテンツデータをHDD12に記録して、再生する装置である。また、この画像処理装置1は、HDD12に記録されているコンテンツデータをストーリーマトリクスデータと呼ばれる情報に従って分類し、各コンテンツデータの検索等の利便性を実現している。
なお、ストーリーマトリクスデータとは、各コンテンツデータのストーリーの内容に対応した情報であるが、これについては、後に詳述する。また、本実施形態においてストーリーというときは、各コンテンツデータに対応するコンテンツの物語を意味するものとする。
以下、各要素について説明する。
TV受信部11は、地上波デジタル放送の受信装置であり、ユーザが選択した周波数に同調すると共に、受信アンテナATを介して受信した放送波に復調処理を施し、その復調して得られたコンテンツデータをシステム制御部16へ供給する。
ここで、本実施形態において、放送波に含まれているコンテンツデータは、図2に示すようなデータフォーマットを有している。
同図に示すように本実施形態において、このコンテンツデータは、複数のフレームに対応したデータから構成されている。また、各コンテンツデータは、物語を構成するストーリーの一場面である複数のシーンに分割されており、各シーンは、カメラアングルの切り替え等により複数のカットに分割されている。
なお、各カットを構成するフレーム数及び各シーンを構成するカット数は任意であり、各コンテンツデータの生成時に当該コンテンツデータの作成者が決定するものである。
一方、各フレームに対応するデータは、当該フレームに対応する画像データ、音声データ及び付加情報を有している。この付加情報とは、当該フレームの属性を示す情報であり、当該フレームに登場している人物やキャラクタ(以下、これらをまとめて「人物」とする)のストーリー上の氏名、年齢、性別、職業等を示す人物情報と、当該フレームのストーリー設定上の舞台となっている場所名と、当該設定場所に対応する時代を示す場所情報が含まれている。また、この付加情報には、「ドラマ」、「ドキュメント」等、当該コンテンツデータの属するジャンルを示すジャンル情報や当該フレームにおいてBGMが流れている場合には、当該BGMの曲調を示す曲調情報が含まれている。
例えば、当該フレームに「人物a」「人物b」2名が登場しており、その舞台となっている場所が「aの家」の場合、この付加情報には、登場人物である「人物a」及び「人物b」を示す人物情報の他、場所情報として「aの家」なる情報が含まれることとなる。
なお、画像データ、音声データ及び付加情報のデータ形式は、任意であるが、本実施形態においては、画像データについてはMPEG(Moving Picture Experts Group)形式で、音声データについてはAC−3(Audio Code number 3)形式で、付加情報についてはXML(eXtensible Markup Language)形式で記述されているものとする。
ユーザI/F部13は、図示しないキーボード等からなる操作部または外部リモコンを有しており、ユーザの入力操作に対応した入力信号をシステム制御部16に出力する。
画像表示部14は、システム制御部16の制御の下、HDD12のHD121に記録されているコンテンツデータを復号し、動画像信号および音声信号に変換して、モニタ2に出力する。この結果、モニタ2から、当該コンテンツデータに対応した動画像が表示されると共に音声が出力される。
テーブル記録部15は、例えば、EEPROMやSRAM等の内部メモリ、装着可能な外部メモリ等によって構成され、画像処理装置内1内において各種処理を実行するために必要なテーブルが格納される。
システム制御部16は、図示せぬCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、EEPROM等を有し、ROM内に格納されている各種のアプリケーションを実行することにより画像処理装置1の各部を制御する。
具体的には、図1に示すように、システム制御部16は、ストーリー分析部161と、記録再生部162とを有する。
ストーリー分析部161は、コンテンツデータをHDD12に記録するに際して、当該コンテンツデータに対応するストーリーマトリクスデータの生成処理を実行し、この処理の結果として得られたストーリーマトリクスデータに対して変換処理を施した後、各コンテンツデータのストーリー分類処理を実行する。
ここで、ストーリーマトリクスデータとは、上述のように、各コンテンツデータに対応する物語を形成するストーリー内容に対応した情報であり、人物マトリクスデータと、場所マトリクスデータから構成されている。人物マトリクスデータとは、各コンテンツデータのストーリー中に登場する人物やキャラクタ毎に重み付けを行った行列(以下、この行列を「人物マトリクス」という)に対応するデータであり、各人物が登場したフレーム数に基づいて決定される。一方、場所マトリクスデータとは、各コンテンツデータのストーリーにおいて舞台となる場所毎に重み付けを行った行列(以下、この行列を「場所マトリクス」という)に対応するデータであり、当該コンテンツデータに対応するストーリー中において各場所が舞台となっているフレーム数に基づいて決定される。
以下、ストーリー分析部161が実行する処理について説明する。
[ストーリーマトリクスデータの生成処理]
このストーリーマトリクス生成処理において、ストーリー分析部161は、まず、HD121に記録されているコンテンツデータを読み出して図示せぬRAM上に展開すると共に、以下の処理を実行することにより、人物マトリクスデータと場所マトリクスデータを生成する。なお、以下に説明する両処理は、ストーリー分析部161により同時並列的に行われるものである。
[ストーリーマトリクスデータの生成処理]
このストーリーマトリクス生成処理において、ストーリー分析部161は、まず、HD121に記録されているコンテンツデータを読み出して図示せぬRAM上に展開すると共に、以下の処理を実行することにより、人物マトリクスデータと場所マトリクスデータを生成する。なお、以下に説明する両処理は、ストーリー分析部161により同時並列的に行われるものである。
<人物マトリクスデータの生成>
人物マトリクスデータの生成に際し、ストーリー分析部161は、RAM上に展開されているコンテンツデータを検索して、当該コンテンツデータに含まれている付加情報中の人物情報からストーリー中に登場している全人物名を抽出する。そして、ストーリー分析部161は、この抽出した人物名に基づいて、図3に示す人物マトリクス生成テーブルTBL1をテーブル記録部15に生成する。
人物マトリクスデータの生成に際し、ストーリー分析部161は、RAM上に展開されているコンテンツデータを検索して、当該コンテンツデータに含まれている付加情報中の人物情報からストーリー中に登場している全人物名を抽出する。そして、ストーリー分析部161は、この抽出した人物名に基づいて、図3に示す人物マトリクス生成テーブルTBL1をテーブル記録部15に生成する。
ここで、同図において、行及び列は、上記処理により抽出された人物名、すなわち、当該コンテンツデータに対応したストーリー中に登場している人物名を意味している。従って、図3に示す例の場合には、当該コンテンツデータのストーリー中に「人物1」、「人物2」、「人物3」、・・・「人物n」なるn人の人物が登場していることとなる。
また、この人物マトリクス生成テーブルTBL1の各行と各列の交わるフィールドには、カウンタが設けられており、このカウンタをインクリメントすることにより人物マトリクス生成テーブルTBL1は、更新される。
具体的には、以下の処理を通じて、人物マトリクス生成テーブルTBL1が更新される。
まず、ストーリー分析部161は、人物マトリクスデータの生成対象となっているコンテンツデータの開始フレームから順に人物情報に含まれている人物名を抽出して、当該人物名に対応する行と列の交わるフィールドのカウンタをインクリメントする。この際、
まず、ストーリー分析部161は、人物マトリクスデータの生成対象となっているコンテンツデータの開始フレームから順に人物情報に含まれている人物名を抽出して、当該人物名に対応する行と列の交わるフィールドのカウンタをインクリメントする。この際、
(i)フレーム内に登場している人物が一人の場合
例えば、登場人物が「人物1」のみの場合、ストーリー分析部161は、人物マトリクス生成テーブルTBL1において、t(11)のカウンタを“1”だけインクリメントする。
例えば、登場人物が「人物1」のみの場合、ストーリー分析部161は、人物マトリクス生成テーブルTBL1において、t(11)のカウンタを“1”だけインクリメントする。
(ii)フレーム内に登場している人物が複数の場合
例えば、登場人物が「人物1」と「人物2」の場合、ストーリー分析部161は、人物マトリクス生成テーブルTBL1において、t(11)、t(22)、t(12)、t(21)の各カウンタを“1”ずつインクリメントする。
例えば、登場人物が「人物1」と「人物2」の場合、ストーリー分析部161は、人物マトリクス生成テーブルTBL1において、t(11)、t(22)、t(12)、t(21)の各カウンタを“1”ずつインクリメントする。
かかるカウンタのインクリメントが最終フレームまで、順次行われることにより、人物マトリクス生成テーブルTBL1の更新が完了する。このような処理を通じて、人物マトリクス生成テーブルTBL1が更新されるため、テーブルTBL1の各フィールドに格納されているカウンタは、夫々、a)ストーリーに各登場人物が登場した延べ登場フレーム数、及び、b)他の登場人物と同一フレーム内に登場したフレーム数、を示すこととなる。
なお、フレーム数は、当該コンテンツデータに対応するストーリーに占める、時間数を意味するため、これらは、それぞれ、a)ストーリーに各登場人物が登場した延べ登場時間数、及び、b)他の登場人物と同一フレーム内に登場した時間数に対応したものとなる。
以上のように、人物マトリクス生成テーブルTBL1の更新が完了すると、ストーリー分析部161は、当該テーブルTBL1に格納されている各カウンタ値「t(ij)」を以下の(式1)に代入する。
ここで、(式1)において右辺は、人物マトリクス生成テーブルTBL1の行方向の数値の和であり、「人物j」の登場している延べ登場フレーム数を意味している。かかる数値計算が各行について終了すると、ストーリー分析部161は、その算出したTt(ij)を(式2)に代入してa(ij)を算出すると共に、この算出結果に基づいて(式3)に示す人物マトリクス「A」を算出して、当該Aに対応するデータを生成する。
なお、この人物マトリクス「A」の各パラメータa(ij)は、「人物j」の延べ登場フレーム数に対して占める、「人物j」と「人物i」の同時登場フレーム数の割合、すなわち、「人物j」が「人物i」と同一フレーム上に現れている確率を意味している。よって、「人物j」に対応するa(ij)(i=1,2,....,n)は、
<場所マトリクスデータの生成>
場所マトリクスデータの生成に際し、ストーリー分析部161は、RAM上に展開されているコンテンツデータを検索して、当該コンテンツデータに含まれている付加情報中の場所情報からストーリー中において舞台となっている全場所名を抽出する。そして、ストーリー分析部161は、この抽出した場所名に基づいて、図4に示す場所マトリクス生成テーブルTBL2をテーブル記録部15に生成する。
場所マトリクスデータの生成に際し、ストーリー分析部161は、RAM上に展開されているコンテンツデータを検索して、当該コンテンツデータに含まれている付加情報中の場所情報からストーリー中において舞台となっている全場所名を抽出する。そして、ストーリー分析部161は、この抽出した場所名に基づいて、図4に示す場所マトリクス生成テーブルTBL2をテーブル記録部15に生成する。
ここで、同図において、行及び列は、上記処理により抽出された場所名、すなわち、当該コンテンツデータに対応したストーリー中において舞台となっている場所名を意味している。従って、図4に示す例の場合、当該コンテンツデータのストーリー中において「場所1」、「場所2」、「場所3」、・・・「場所m」なるm箇所の場所が舞台となっていることを意味している。
また、この場所マトリクス生成テーブルTBL2の各行と各列の交わるフィールドには、人物マトリクス生成テーブルTBL1と同様にカウンタが設けられており、このカウンタをインクリメントすることにより場所マトリクス生成テーブルTBL2は、更新される。
なお、この際の更新方法は、上述した人物マトリクス生成テーブルTBL1更新時の処理と基本的には同じであるが、カウンタのインクリメント基準のみが以下のように異なっている。
すなわち、
すなわち、
(i)当該コンテンツデータの最初のフレームの場合
場所マトリクス生成テーブルTBL2において、舞台となっている場所に対応するカウンタが“1”だけインクリメントされる。例えば、舞台が「場所1」の場合、ストーリー分析部161は、場所マトリクス生成テーブルTBL2において、tp(11)のカウンタのみを“1”だけインクリメントする。
場所マトリクス生成テーブルTBL2において、舞台となっている場所に対応するカウンタが“1”だけインクリメントされる。例えば、舞台が「場所1」の場合、ストーリー分析部161は、場所マトリクス生成テーブルTBL2において、tp(11)のカウンタのみを“1”だけインクリメントする。
(ii)最初以降のフレームの場合
a)開始から一度も場所に変化が生じていない場合
場所マトリクス生成テーブルTBL2において、舞台となっている場所に対応するカウンタが“1”だけインクリメントされる。例えば、舞台が「場所1」の場合、ストーリー分析部161は、場所マトリクス生成テーブルTBL2において、tp(11)のカウンタのみを“1”だけインクリメントする。
a)開始から一度も場所に変化が生じていない場合
場所マトリクス生成テーブルTBL2において、舞台となっている場所に対応するカウンタが“1”だけインクリメントされる。例えば、舞台が「場所1」の場合、ストーリー分析部161は、場所マトリクス生成テーブルTBL2において、tp(11)のカウンタのみを“1”だけインクリメントする。
b)開始後、一度でも場所に変化が生じた後のフレームの場合
場所マトリクス生成テーブルTBL2において、変化前と変化後の場所名のそれぞれに対応するカウンタが“1”ずつインクリメントされる。例えば、舞台が「場所1」から「場所2」へと変化した場合、ストーリー分析部161は、場所マトリクス生成テーブルTBL2において、tp(11)、tp(12)、tp(21)、tp(22)、のカウンタを“1”ずつインクリメントする。
場所マトリクス生成テーブルTBL2において、変化前と変化後の場所名のそれぞれに対応するカウンタが“1”ずつインクリメントされる。例えば、舞台が「場所1」から「場所2」へと変化した場合、ストーリー分析部161は、場所マトリクス生成テーブルTBL2において、tp(11)、tp(12)、tp(21)、tp(22)、のカウンタを“1”ずつインクリメントする。
c)場所変化後のフレームであって、当該場所の状態が継続している場合
場所マトリクス生成テーブルTBL2において、変化前と変化後の場所名のそれぞれに対応するカウンタが“1”ずつインクリメントされる。例えば、舞台が「場所1」から「場所2」へと変化後、「場所2」の状態が継続している場合、ストーリー分析部161は、場所マトリクス生成テーブルTBL2において、tp(22)の他、tp(12)、tp(21)のカウンタを“1”ずつインクリメントする。
場所マトリクス生成テーブルTBL2において、変化前と変化後の場所名のそれぞれに対応するカウンタが“1”ずつインクリメントされる。例えば、舞台が「場所1」から「場所2」へと変化後、「場所2」の状態が継続している場合、ストーリー分析部161は、場所マトリクス生成テーブルTBL2において、tp(22)の他、tp(12)、tp(21)のカウンタを“1”ずつインクリメントする。
以上の処理を経て、場所マトリクス生成テーブルTBL2を更新すると、ストーリー分析部161は、当該テーブルTBL2に格納されている各数値を以下の(式5)に代入する。
ここで、(式5)において右辺は、場所マトリクス生成テーブルTBL2の行方向の数値の和であり、「場所j」の登場している延べ登場フレーム数を意味している。かかる算出結果に基づいて、ストーリー分析部161は、人物マトリクスデータの生成時と同様に(式6)に基づいて各パラメータを算出し(式7)に示す場所マトリクス「B」を算出することにより場所マトリクスデータを生成する。
[ストーリーマトリクス変換処理]
上記生成処理によって得られた人物マトリクスデータ(式3)及び場所マトリクスデータ(式7)は、マルコフチェーンにおける推移確率行列を表している。
上記生成処理によって得られた人物マトリクスデータ(式3)及び場所マトリクスデータ(式7)は、マルコフチェーンにおける推移確率行列を表している。
ストーリー分析部161は、それぞれの推移確率行列の収束値(定常分布)を求める。以下の変換式(式9)及び(式10)のkの値を無限大(∞)にしたものが収束値(定常分布)となるが、経験的に「30」以上でほぼ収束することから、本実施形態においては「k」の値として「30」以上を設定するものとする。マルコフチェーンでは収束値は(式9)及び(式10)に示すように各行の値が等しい行列となることが知られている。
ここで、人物マトリクスデータを例に、上記(式3)の算出結果と、この算出結果を(式9)に代入した場合の関係を図5及び図6に従って説明する。なお、図5は、あるコンテンツデータについてストーリー分析部161が(式3)に従って人物マトリクス「A」を算出した実験結果を図式化したものであり、図6は、この人物マトリクス「A」を(式9)に代入した後の算出結果を図式化したものである。なお、これらの図において、xy平面は、人物マトリクス「A」における行及び列に対応しており、z軸は、行列Aの各パラメータに対応する数値を表している。
図5に示すように、人物マトリクス「A」は、ランダムな値を示している。これに対して、人物マトリクス「A」を(式9)に代入すると、人物マトリクス「A」の収束値(定常分布)が求められ、ストーリー中での最終的な各人物の登場確率が得られることとなる。従って、図6に示す例の場合、「人物1」が最もそのストーリーに登場する可能性が高いこととなり、「人物1」が潜在主人公と特定できる。
また、この処理において、ストーリー分析部161は、以下の(式11)及び(式12)に従って、自乗平均平方根(RMS)を算出し、これらに対応するデータを生成する。
[ストーリー分類処理]
ストーリー分析部161は、上述した(式9)及び(式11)の算出結果に基づいて、当該コンテンツデータに対応するストーリー中の潜在主人公を特定すると共に、当該コンテンツデータを幾つかの人物グループに分類する。また、ストーリー分析部161は、上述した(式10)及び(式12)の算出結果に基づいて、当該コンテンツデータに対応するストーリー中の潜在中心位置を特定すると共に、当該コンテンツデータを幾つかの場所グループに分類する。
ストーリー分析部161は、上述した(式9)及び(式11)の算出結果に基づいて、当該コンテンツデータに対応するストーリー中の潜在主人公を特定すると共に、当該コンテンツデータを幾つかの人物グループに分類する。また、ストーリー分析部161は、上述した(式10)及び(式12)の算出結果に基づいて、当該コンテンツデータに対応するストーリー中の潜在中心位置を特定すると共に、当該コンテンツデータを幾つかの場所グループに分類する。
この際の分類方法は、以下の通りである。
(i)人物グループの分類
<人物グループaa>
この「人物グループaa」は、当該コンテンツデータに対応するdA値が閾値RAを越えていない場合に設定されるグループである。上述のように本実施形態において、dAは、自乗平均平方根を意味しているが、この値が、小さくなり“0”に近づくということは初期値と収束値の差があまりないことを意味する。
また、当該コンテンツデータに対応するdA値が閾値RAを越えている場合であっても、Uの各パラメータα(i)が全登場人物に対して低い値しかとらず、全登場人物が平均的な登場確率しか有していない場合、潜在主人公を特定することが困難となる。
そこで、ストーリー分析部161は、dA値が閾値RAを越えていない場合、及びUマトリクスの各α(i)値の中に後述する閾値Lαを越えるものが存在しない場合については、一律にこの「人物グループaa」に分類する。このグループに属するコンテンツデータは、ストーリーの起伏がなく、ストーリー性に乏しいドラマ等であることが想定される。
(i)人物グループの分類
<人物グループaa>
この「人物グループaa」は、当該コンテンツデータに対応するdA値が閾値RAを越えていない場合に設定されるグループである。上述のように本実施形態において、dAは、自乗平均平方根を意味しているが、この値が、小さくなり“0”に近づくということは初期値と収束値の差があまりないことを意味する。
また、当該コンテンツデータに対応するdA値が閾値RAを越えている場合であっても、Uの各パラメータα(i)が全登場人物に対して低い値しかとらず、全登場人物が平均的な登場確率しか有していない場合、潜在主人公を特定することが困難となる。
そこで、ストーリー分析部161は、dA値が閾値RAを越えていない場合、及びUマトリクスの各α(i)値の中に後述する閾値Lαを越えるものが存在しない場合については、一律にこの「人物グループaa」に分類する。このグループに属するコンテンツデータは、ストーリーの起伏がなく、ストーリー性に乏しいドラマ等であることが想定される。
<人物グループab>
当該コンテンツデータに対応するdA値が閾値RAを越えている場合には、Uの算出値と初期値の差が大きくなるため、潜在主人公を特定して、当該コンテンツデータを分類することが可能となる。そこで、ストーリー分析部161は、各α(i)値を閾値Hα及びLαと比較する。
なお、Hαの値は、Lαよりも高い数値として設定されているが、これらの値は任意である。ただし、本実施形態においては、説明を具体的なものとするため、閾値Hαを「0.25」(登場確率25%)、閾値Lαを「0.13」(登場確率13%)としているものとして説明する。
当該コンテンツデータに対応するdA値が閾値RAを越えている場合には、Uの算出値と初期値の差が大きくなるため、潜在主人公を特定して、当該コンテンツデータを分類することが可能となる。そこで、ストーリー分析部161は、各α(i)値を閾値Hα及びLαと比較する。
なお、Hαの値は、Lαよりも高い数値として設定されているが、これらの値は任意である。ただし、本実施形態においては、説明を具体的なものとするため、閾値Hαを「0.25」(登場確率25%)、閾値Lαを「0.13」(登場確率13%)としているものとして説明する。
(人物グループab1)
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が一人しかいない場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab1」に分類する。上述のようにα(i)の値は、各人物が各フレームに登場する確率を意味しているが、このグループに属するコンテンツデータは、一人の人物の登場確率が突出して高く、主人公が一人であるものと想定される。このため、この「グループab1」に属するコンテンツデータは、例えば、ドラマなら主人公が目覚ましい活躍をするようなものであると想定される。
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が一人しかいない場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab1」に分類する。上述のようにα(i)の値は、各人物が各フレームに登場する確率を意味しているが、このグループに属するコンテンツデータは、一人の人物の登場確率が突出して高く、主人公が一人であるものと想定される。このため、この「グループab1」に属するコンテンツデータは、例えば、ドラマなら主人公が目覚ましい活躍をするようなものであると想定される。
(人物グループab2)
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が二人いる場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab2」に分類する。このグループに属するコンテンツデータは、登場確率が突出して高い人物が二人おり、主人公が二人いるものと想定される。このため、本グループに属するコンテンツデータは、例えば、ドラマの場合、恋愛もののように二人の人物の軌跡を追ったものであると想定される。
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が二人いる場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab2」に分類する。このグループに属するコンテンツデータは、登場確率が突出して高い人物が二人おり、主人公が二人いるものと想定される。このため、本グループに属するコンテンツデータは、例えば、ドラマの場合、恋愛もののように二人の人物の軌跡を追ったものであると想定される。
(人物グループab3)
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が三人以上いる場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab3」に分類する。このグループに属するコンテンツデータは、メインの登場人物が三人以上いることとなり、例えば、ドラマの場合、ヒーロー戦隊もののように複数の主人公が存在するものであると想定される。
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が三人以上いる場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab3」に分類する。このグループに属するコンテンツデータは、メインの登場人物が三人以上いることとなり、例えば、ドラマの場合、ヒーロー戦隊もののように複数の主人公が存在するものであると想定される。
(人物グループab4)
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が存在せず、閾値Lαを越えている人物が一人だけいる場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab4」に分類する。このグループに属するコンテンツデータは、何れの登場人物も登場確率が低く、一人だけがある程度の時間登場するもの、例えば、ドラマなら一応主人公はいるものの、脇役の登場場面が非常に多いドラマ等であると考えられる。
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が存在せず、閾値Lαを越えている人物が一人だけいる場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab4」に分類する。このグループに属するコンテンツデータは、何れの登場人物も登場確率が低く、一人だけがある程度の時間登場するもの、例えば、ドラマなら一応主人公はいるものの、脇役の登場場面が非常に多いドラマ等であると考えられる。
(人物グループab5)
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が存在せず、閾値Lαを越えている人物が二人いる場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab5」に分類する。このグループに属するコンテンツデータは、何れの登場人物も登場確率が低く、二人の人物の登場場面が比較的多いもの、例えば、ドラマなら恋愛ドラマではあるが、脇役の活躍場面の多い、人間関係の複雑に絡み合ったドラマであると想定される。
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が存在せず、閾値Lαを越えている人物が二人いる場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab5」に分類する。このグループに属するコンテンツデータは、何れの登場人物も登場確率が低く、二人の人物の登場場面が比較的多いもの、例えば、ドラマなら恋愛ドラマではあるが、脇役の活躍場面の多い、人間関係の複雑に絡み合ったドラマであると想定される。
(人物グループab6)
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が存在せず、閾値Lαを越えている人物が三人以上いる場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab6」に分類する。このグループに属するコンテンツデータは、何れの登場人物も登場確率が低く、α(i)が閾値Lαを越えている人物も三人以上いるため、メインとなる人物のいない、例えば、喜劇ドラマのようなものであると想定される。
Uにおいて、各人物に対応するα(i)の中に、この閾値Hαを越えている登場人物が存在せず、閾値Lαを越えている人物が三人以上いる場合、ストーリー分析部161は、当該コンテンツデータを「人物グループab6」に分類する。このグループに属するコンテンツデータは、何れの登場人物も登場確率が低く、α(i)が閾値Lαを越えている人物も三人以上いるため、メインとなる人物のいない、例えば、喜劇ドラマのようなものであると想定される。
(ii)場所グループの分類
<場所グループaa>
この「場所グループaa」は、当該コンテンツデータに対応するdB値が閾値RBを越えていない場合、及びVマトリクスのβ(i)値に閾値Lβを越えるものが存在しない場合に設定されるグループである。上述したように、dB値が非常に小さい場合、及びVの各パラメータβ(i)が全場所に対して低い値しかとらない場合、潜在中心位置を特定することが困難となる。そこで、かかる場合に、ストーリー分析部161は、当該コンテンツデータを一律にこの「場所グループaa」に分類する。
<場所グループaa>
この「場所グループaa」は、当該コンテンツデータに対応するdB値が閾値RBを越えていない場合、及びVマトリクスのβ(i)値に閾値Lβを越えるものが存在しない場合に設定されるグループである。上述したように、dB値が非常に小さい場合、及びVの各パラメータβ(i)が全場所に対して低い値しかとらない場合、潜在中心位置を特定することが困難となる。そこで、かかる場合に、ストーリー分析部161は、当該コンテンツデータを一律にこの「場所グループaa」に分類する。
<場所グループab>
当該コンテンツデータに対応するdB値が閾値RBを越えている場合には、ストーリー分析部161は、各β(i)値を閾値Hβ及びLβと比較する。なお、Hβの値は、Lβよりも高い数値として設定されているが、これらの値は任意である。ただし、これらの値は、閾値Hβが「0.25」、閾値Lβが「0.13」であるものとして説明する。
当該コンテンツデータに対応するdB値が閾値RBを越えている場合には、ストーリー分析部161は、各β(i)値を閾値Hβ及びLβと比較する。なお、Hβの値は、Lβよりも高い数値として設定されているが、これらの値は任意である。ただし、これらの値は、閾値Hβが「0.25」、閾値Lβが「0.13」であるものとして説明する。
なお、この分類については、上述した人物グループの分類と同様であり
a)Vにおいて、各場所に対応するβ(i)の中に、この閾値Hβを越えている場所が一箇所しかない場合:場所グループab1
b)Vにおいて、β(i)の中に、この閾値Hβを越えている場所が二箇所ある場合:場所グループab2
c)Vにおいて、β(i)の中に、この閾値Hβを越えている場所が三箇所以上ある場合:場所グループab3
d)Vにおいて、β(i)の中に、この閾値Hβを越えている場所が存在せず、閾値Lβを越えている場所が一箇所だけある場合:場所グループab4
e)Vにおいて、β(i)の中に、この閾値Hβを越えている場所が存在せず、閾値Lβを越えている場所が二箇所ある場合:場所グループab5
f)Vにおいて、β(i)の中に、この閾値Hβを越えている場所が存在せず、閾値Lβを越えている人物が三箇所以上ある場合:場所グループab6
の6分類に分類する。
a)Vにおいて、各場所に対応するβ(i)の中に、この閾値Hβを越えている場所が一箇所しかない場合:場所グループab1
b)Vにおいて、β(i)の中に、この閾値Hβを越えている場所が二箇所ある場合:場所グループab2
c)Vにおいて、β(i)の中に、この閾値Hβを越えている場所が三箇所以上ある場合:場所グループab3
d)Vにおいて、β(i)の中に、この閾値Hβを越えている場所が存在せず、閾値Lβを越えている場所が一箇所だけある場合:場所グループab4
e)Vにおいて、β(i)の中に、この閾値Hβを越えている場所が存在せず、閾値Lβを越えている場所が二箇所ある場合:場所グループab5
f)Vにおいて、β(i)の中に、この閾値Hβを越えている場所が存在せず、閾値Lβを越えている人物が三箇所以上ある場合:場所グループab6
の6分類に分類する。
以上の処理を実行することにより、各コンテンツデータに対応する人物グループ及び場所グループを決定すると、ストーリー分析部161は、当該コンテンツデータのストーリー分類を決定する。かかる機能を実現するため、本実施形態にかかるテーブル記録部15には、図7に示すストーリー分類テーブルTBL3-k(k=1,2,....,n)が格納されている。
同図に示すように、このストーリー分類テーブルTBL3-kは、例えば、ドラマ、ドキュメンタリー等のコンテンツデータのジャンル毎に設けられており、各ストーリー分類テーブルTBL3-kには、人物グループ及び場所グループの組み合わせに対応づけてストーリー分類が格納されている。
実際にストーリー分類を行う場合、ストーリー分析部161は、分類対象となっているコンテンツデータに含まれている付加情報中のジャンル情報に基づいて、使用すべきストーリー分類テーブルTBL3-kを決定すると共に、当該ストーリー分類テーブルTBL3-kにおいて当該コンテンツデータの人物グループと場所グループの組み合わせに対応したストーリー分類を選択することとなる。
例えば、図7に示す場合において、ストーリー分類の対象となっているコンテンツデータが「人物グループab2」かつ「場所グループab3」に属している場合、ストーリー分析部161は、当該コンテンツデータをストーリー分類「分類ab3ab2」に分類する。そして、ストーリー分析部161は、以上の処理の結果、決定されたストーリー分類とジャンル名を含む制御信号をHDD12に出力する。この結果、当該コンテンツデータとストーリー分類、ジャンル名が対応づけてHD121に記録され、HD121内にデータベースが構築される。
なお、各ストーリー分類を、どのように定義づけるかは任意であるが、例えば、「ドラマ」ジャンルの「分類ab3ab2」であれば、「三つの場所を舞台にした恋愛ドラマ」等と定義づけることにより、適切なストーリー分類が可能となる。
一方、記録再生部162は、HDD12に対するコンテンツデータの記録及び消去を制御する。具体的には、記録再生部162は、ユーザI/F部13から供給されるユーザの入力操作に対応した入力信号に従い、コンテンツデータの記録予約を行う。そして、当該記録予約日時になると、記録再生部162は、同調周波数の変更信号をデータバス17を介してTV受信部11へと出力すると共に、HDD12へと制御信号を送る。この結果、TV受信部11を介して受信された放送波中のコンテンツデータがHD121へと順次記録されることとなる。
また、記録再生部162は、HDD12に記録されているコンテンツデータの再生を制御する。具体的には、記録再生部162は、ユーザI/F部13から送られてくる、ユーザの入力操作に対応した入力信号に従い、画像表示部14に制御信号を出力する。かかる制御信号が送られてくると、画像表示部14は、HDD12に記録されたコンテンツデータを読み出し表示処理を行う。この結果、モニタ2に当該コンテンツデータ等に対応した画像が表示される。
ここで、本実施形態において、特徴的な事項として、この記録再生部162は、HD121に記録されているコンテンツデータを再生するに際して、ユーザがHD121内に記録されているコンテンツデータを検索しやすいように、各コンテンツデータに対応するストーリー分類に従って、再生候補一覧画面に対応したデータを生成し、表示する。これにより、客観的指標に基づいたコンテンツ検索を行い、真に自己の意図に沿ったコンテンツを選択して再生することが可能となる。
HDD12は、HD121を有しており、システム制御部16の制御の下、HD121へのデータの読み出し及び書き込みを行う。このHD121には、コンテンツデータと、各コンテンツデータに対応したストーリー分類が対応づけて記録されるようになっており、この結果、HD121内には、コンテンツデータのデータベースが構築される。
[1.2]実施形態の動作
以下、本実施形態の動作について説明する。
なお、上述したストーリー分析部161が、如何なるタイミングで各コンテンツデータに対応するストーリー分類を決定するかは任意であるが、本実施形態においては、コンテンツデータの記録時に決定するものとする。
以下、本実施形態の動作について説明する。
なお、上述したストーリー分析部161が、如何なるタイミングで各コンテンツデータに対応するストーリー分類を決定するかは任意であるが、本実施形態においては、コンテンツデータの記録時に決定するものとする。
(1)コンテンツデータ記録時の動作概要
次に、本実施形態にかかる画像処理装置1においてコンテンツデータを記録する際の動作を説明する。
まず、ユーザが、ユーザI/F部13を操作することにより、画像処理装置1の電源を入れると、TV受信部11によって受信されたコンテンツデータが、システム制御部16の記録再生部162による制御の下、画像表示部14によって復号され、画像信号等としてモニタ2に供給される。この結果、モニタ2には、放送中のコンテンツに対応した画像が表示されることとなる。
次に、本実施形態にかかる画像処理装置1においてコンテンツデータを記録する際の動作を説明する。
まず、ユーザが、ユーザI/F部13を操作することにより、画像処理装置1の電源を入れると、TV受信部11によって受信されたコンテンツデータが、システム制御部16の記録再生部162による制御の下、画像表示部14によって復号され、画像信号等としてモニタ2に供給される。この結果、モニタ2には、放送中のコンテンツに対応した画像が表示されることとなる。
この状態において、放送コンテンツを記録しようとする場合、ユーザは、ユーザI/F部13の図示せぬ操作部或いは外部リモコンに所定の操作を行うことが必要となる。この際の操作内容は、任意である。例えば、操作子或いは外部リモコンに記録予約ボタンを設けておき、このボタンが押下された場合に、モニタ2へと予約画面に対応した画像を出力し、当該画面上で記録予約日時等を指定する構成としても良い。また、ユーザI/F部13の操作部や外部リモコンに液晶表示部を設け、当該表示部上に記録予約日時、放送ch等を指定させるための画面を表示させ、記録予約を行う構成としても良い。
そして、かかる操作の結果、ユーザが記録日時等を指定してコンテンツデータの記録予約を行うと、記録再生部162は、当該日時にコンテンツデータをHDD12に記録させる。なお、この際の動作は、従来のHDレコーダ等と同様であるため、詳細は略する。
このようにして、HDD12にコンテンツデータが記録されると、ストーリー分析部161は、図8に示すストーリー分析処理を実行する。
この処理において、ストーリー分析部161は、まず、本記録予約によりHD121に記録されたコンテンツデータを読み出すべく、HDD12に制御信号を出力する(ステップS1)。この結果、当該コンテンツデータがHDD12によって読み出されて、システム制御部16へと供給され、システム制御部16の図示せぬRAM上に展開される。
この処理において、ストーリー分析部161は、まず、本記録予約によりHD121に記録されたコンテンツデータを読み出すべく、HDD12に制御信号を出力する(ステップS1)。この結果、当該コンテンツデータがHDD12によって読み出されて、システム制御部16へと供給され、システム制御部16の図示せぬRAM上に展開される。
ストーリー分析部161は、このようにして読み出されたコンテンツデータに基づいて上述したストーリーマトリクスデータ生成処理を実行し、人物マトリクスデータと場所マトリクスデータを生成する(ステップS2)。
次に、ストーリー分析部161は、ステップS2において生成された人物マトリクスデータと場所マトリクスデータのマトリクス変換処理を実行する(ステップS3)。この際、ストーリー分析部161は、ステップS2において生成したデータに対応するマトリックスの各パラメータを上述した(式9)〜(式12)に代入することにより、U及びVマトリクスを算出し、これらU及びVマトリクスに対応するデータを生成すると共に、dA、dBを算出し、これらに対応するデータを生成する。
次いで、ストーリー分析部161は、上述したストーリー分類処理を実行する(ステップS4)。なお、このストーリー分類処理における、具体的な動作については、後述する。
そして、当該コンテンツデータに関するストーリー分類処理が完了すると、ストーリー分析部161は、該処理の結果であるストーリー分類を含む制御信号をHDD12に出力して(ステップS5)、処理を終了する。この際、例えば、ストーリー分類の決定対象となっているコンテンツデータが図7に示す例において「人物グループab2」かつ「場所グループab3」に属している場合、ストーリー分析部161は、当該コンテンツデータをストーリー分類「分類ab3ab2」に分類し、このストーリー分類とジャンル名を含む制御信号をHDD12に出力する。
以上の処理の結果、当該コンテンツデータとストーリー分類とジャンル名が対応づけてHDD121に記録され、データベース化されることとなる。
一方、係る処理が終了すると、ストーリー分析部161は、分類結果と、例えば「処理が終了しました」等の文字列を含むデータを画像表示部14に出力して(ステップS6)、処理を終了する。この結果、モニタ2に当該データに対応する画像が表示される。
一方、係る処理が終了すると、ストーリー分析部161は、分類結果と、例えば「処理が終了しました」等の文字列を含むデータを画像表示部14に出力して(ステップS6)、処理を終了する。この結果、モニタ2に当該データに対応する画像が表示される。
(2)ストーリーマトリクス生成処理の具体的動作
次に、図9を用いつつ、図8ステップS2において実行されるストーリーマトリクス生成処理の具体的動作について説明する。なお、図9においてはフレームf1、フレームf2、・・・フレームf5の順で、順次フレームが進行しているものとし、当該コンテンツデータはフレームf1からスタートしているものとする。また、フレームf1及びf2における登場人物は「人物1」「人物2」であるものとし、フレームf4及びf5の登場人物は「人物3」及び「人物4」であるものとする。更に、フレームf1〜f3の舞台となっている場所は「場所1」であるものとし、フレームf4及びf5の舞台となっている場所は「場所2」であるものとする。
次に、図9を用いつつ、図8ステップS2において実行されるストーリーマトリクス生成処理の具体的動作について説明する。なお、図9においてはフレームf1、フレームf2、・・・フレームf5の順で、順次フレームが進行しているものとし、当該コンテンツデータはフレームf1からスタートしているものとする。また、フレームf1及びf2における登場人物は「人物1」「人物2」であるものとし、フレームf4及びf5の登場人物は「人物3」及び「人物4」であるものとする。更に、フレームf1〜f3の舞台となっている場所は「場所1」であるものとし、フレームf4及びf5の舞台となっている場所は「場所2」であるものとする。
この処理において、ストーリー分析部161は、まず、RAM上に展開されているコンテンツデータを検索して、当該コンテンツデータに含まれている付加情報中の人物情報及び場所情報からストーリー中に登場している全人物名と、全場所名を抽出して、人物マトリクス生成テーブルTBL1と場所マトリクス生成テーブルTBL2をテーブル記録部15に生成する。
かかるテーブルの生成が終了すると、ストーリー分析部161は、RAM上のフレームf1に対応するデータから人物情報と場所情報を抽出し、これらの情報に含まれている人物名と場所名に従って、人物マトリクス生成テーブルTBL1と場所マトリクス生成テーブルTBL2内のカウンタを更新する。
本動作例の場合、フレームf1に対応する付加情報中の人物情報等には、人物名として「人物1」「人物2」が、場所名として「場所1」が含まれている。このため、ストーリー分析部161は、人物マトリクス生成テーブルTBL1において、t(11)、t(22)t(12)及びt(21)カウンタを夫々“1”ずつインクリメントすると共に、場所マトリクス生成テーブルTBL2においてtp(11)カウンタを“1”だけインクリメントする。同様に、フレームf2についても、人物マトリクス生成テーブルTBL1のt(11)、t(22)、t(12)及びt(21)カウンタが夫々“1”ずつインクリメントされると共に、場所マトリクス生成テーブルTBL2のtp(11)カウンタが“1”だけインクリメントされる。
次いで、ストーリー分析部161は、フレームf3に対応する付加情報に基づいて人物マトリクス生成テーブルTBL1と場所マトリクス生成テーブルTBL2を更新する。本動作例の場合、フレームf3には、登場人物が存在しないため、ストーリー分析部161は、人物マトリクス生成テーブルTBL1内のカウンタをインクリメントすることなく、場所マトリクス生成テーブルTBL2のtp(11)カウンタのみを“1”だけインクリメントする。
更に次いで、ストーリー分析部161は、フレームf4の付加情報に基づいて人物マトリクス生成テーブルTBL1及び場所マトリクス生成テーブルTBL2を更新する。フレームf4の場合、フレームf3から舞台となっている場所が変わっているので、ストーリー分析部161は、場所マトリクス生成テーブルTBL2において、tp(22)カウンタと共に、tp(11)、tp(12)、tp(21)カウンタを夫々“1”ずつインクリメントする。また、人物マトリクス生成テーブルTBL1については、t(33)、t(44)、t(34)及びt(43)のカウンタがストーリー分析部161によって“1”ずつインクリメントされる。
次いで、フレームf5の付加情報に基づいて人物マトリクス生成テーブルTBL1及び場所マトリクス生成テーブルTBL2が更新されるが、同フレームf5は、フレームf4から場所に変化が生じていない。このため、ストーリー分析部161は、場所マトリクス生成テーブルTBL2において、tp(22)、tp(12)、tp(21)カウンタを夫々“1”ずつインクリメントし、tp(11)カウンタについては、インクリメントすることはない。一方、人物マトリクス生成テーブルTBL1については、フレームf4から登場人物に変化が生じていないため、フレームf4と同様にt(33)、t(44)、t(34)及びt(43)のカウンタがインクリメントされる。
その後、当該コンテンツデータを構成する全てのフレームについて同様の処理が実行され、人物マトリクス生成テーブルTBL1及び場所マトリクス生成テーブルTBL2の更新が完了すると、ストーリー分析部161は、これらのテーブルTBL1及びTBL2に格納されているカウンタ値t(ij)及びtp(ij)を上述した(式1)、(式5)に代入し、各テーブルの行方向のカウンタ値の和を算出する。かかる数値計算が各行について終了すると、ストーリー分析部161は、その算出したTt(ij)、Ttp(ij)を(式2)、(式6)に代入することによりa(ij)、b(ij)を算出する一方、この算出結果に基づいて(式3)と(式7)に示す人物マトリクス「A」と場所マトリクス「B」を算出する。そして、ストーリー分析部161は、算出した人物マトリクス「A」及び場所マトリクス「B」に対応するデータを生成して、ストーリーマトリクス生成処理を終了する。
(3)ストーリー分類時の動作
次に、図10〜図12を用いて、上述した図8ステップS4において実行されるストーリー分類処理について説明する。なお、図10は、上述した図8のステップS4においてストーリー分析部161が実行する処理を示すフローチャートである。
同図に示すように、この処理においてストーリー分析部161は、まず、以下に示す人物グループ分類処理及び場所グループ分類処理を実行する(ステップSa1、Sa2)。
次に、図10〜図12を用いて、上述した図8ステップS4において実行されるストーリー分類処理について説明する。なお、図10は、上述した図8のステップS4においてストーリー分析部161が実行する処理を示すフローチャートである。
同図に示すように、この処理においてストーリー分析部161は、まず、以下に示す人物グループ分類処理及び場所グループ分類処理を実行する(ステップSa1、Sa2)。
(i)人物グループ分類処理(ステップSa1)について
この人物グループ分類処理の処理内容を図11に示す。同図に示すように、この処理において、ストーリー分類部161は、まず、上記図8のステップS3において、(式11)に基づいて算出された、dA値が閾値RAよりも大きいか否かを判定する(図11ステップSb1)。この判定の結果、「no」と判定した場合には、当該コンテンツデータの人物グループを分類することが困難であるため、ストーリー分析部161は、当該コンテンツデータの人物グループを「人物グループaa」に決定して(図11ステップSb13)、処理を終了する。
この人物グループ分類処理の処理内容を図11に示す。同図に示すように、この処理において、ストーリー分類部161は、まず、上記図8のステップS3において、(式11)に基づいて算出された、dA値が閾値RAよりも大きいか否かを判定する(図11ステップSb1)。この判定の結果、「no」と判定した場合には、当該コンテンツデータの人物グループを分類することが困難であるため、ストーリー分析部161は、当該コンテンツデータの人物グループを「人物グループaa」に決定して(図11ステップSb13)、処理を終了する。
一方、図11ステップSb1において「yes」と判定した場合、ストーリー分析部161は、Uマトリクスのα(i)値に基づいて、潜在主人公を選択する(図11ステップSb2)。具体的には、ストーリー分析部161は、Uマトリクスのα(i)値の中で、値の大きなα(i)値に対応する人物を数名抽出し、当該人物を潜在主人公として選択する。例えば、図6に示す例の場合、「人物1」、「人物2」、「人物3」の3名のα(i)値が高くなっている。このため、ストーリー分析部161は、この三名を潜在主人公として決定するのである。
なお、この際、潜在主人公として何名の人物を選択するかは任意であるが、例えば、予め選択人数を決定しておき、α(i)値の大きい順から当該人数を選択するようにしても良いし、α(i)値が一定値を越えている人物を潜在主人公として選択するようにしても良い。
このようにして、潜在主人公の選択が完了すると、ストーリー分析部161は、各潜在主人公に対応する最も大きなα(i)値、すなわち、Uマトリクスの各潜在主人公に対応する行におけるα(i)の最大値を抽出すると共に、当該α(i)値の中に閾値Hαよりも大きいα(i)値が存在するか否かを判定する(図11ステップSb3)。この判定の結果、「yes」と判定した場合、ストーリー分析部161は、閾値Hαを越えている潜在主人公が何名いるかを判定し(図11ステップSb4)、
a)閾値Hαを越えている潜在主人公が一人の場合:人物グループab1
b)閾値Hαを越えている潜在主人公が二人の場合:人物グループab2
c)閾値Hαを越えている潜在主人公が三人以上の場合:人物グループab3
と、当該コンテンツデータの人物グループを決定して(図11ステップSb5〜ステップSb7)、処理を終了する。
a)閾値Hαを越えている潜在主人公が一人の場合:人物グループab1
b)閾値Hαを越えている潜在主人公が二人の場合:人物グループab2
c)閾値Hαを越えている潜在主人公が三人以上の場合:人物グループab3
と、当該コンテンツデータの人物グループを決定して(図11ステップSb5〜ステップSb7)、処理を終了する。
これに対して、図11ステップSb3において「no」と判定した場合、今度は、図11ステップSb2において選択された各潜在主人公に対応する最も大きなα(i)値の中に閾値Lαよりも大きいα(i)値が存在するか否かを判定する(図11ステップSb8)。この判定の結果、「no」と判定した場合、当該コンテンツデータの人物グループ分類は困難であることから、ストーリー分析部161は、当該コンテンツデータの人物グループを「人物グループaa」に分類して(図11ステップSb13)、処理を終了する。
一方、この図11ステップSb8における判定の結果、「yes」と判定した場合、ストーリー分析部161は、閾値Lαを越えている人物が何名いるかを判定し(図11ステップSb9)、
a)閾値Lαを越えている潜在主人公が一人の場合:人物グループab4
b)閾値Lαを越えている潜在主人公が二人の場合:人物グループab5
c)閾値Lαを越えている潜在主人公が三人以上の場合:人物グループab6
と、当該コンテンツデータの人物グループを決定して(図11ステップSb10〜ステップSb12)、処理を終了する。
a)閾値Lαを越えている潜在主人公が一人の場合:人物グループab4
b)閾値Lαを越えている潜在主人公が二人の場合:人物グループab5
c)閾値Lαを越えている潜在主人公が三人以上の場合:人物グループab6
と、当該コンテンツデータの人物グループを決定して(図11ステップSb10〜ステップSb12)、処理を終了する。
(ii)場所グループ分類処理(ステップSa2)について
場所グループ分類処理の処理内容を図12に示す。同図に示すように、この処理において、ストーリー分類部161は、まず、上記図8のステップS3において(式12)に基づいて算出されたdB値が閾値RBよりも大きいか否かを判定する(図12ステップSc1)。この判定の結果、「no」と判定した場合、ストーリー分析部161は、当該コンテンツデータの場所グループを「場所グループaa」に決定して(図12ステップSc13)、処理を終了する。
場所グループ分類処理の処理内容を図12に示す。同図に示すように、この処理において、ストーリー分類部161は、まず、上記図8のステップS3において(式12)に基づいて算出されたdB値が閾値RBよりも大きいか否かを判定する(図12ステップSc1)。この判定の結果、「no」と判定した場合、ストーリー分析部161は、当該コンテンツデータの場所グループを「場所グループaa」に決定して(図12ステップSc13)、処理を終了する。
一方、図12ステップSc1において「yes」と判定した場合、ストーリー分析部161は、Vマトリクスのβ(i)値に基づいて、潜在中心位置を選択する(図12ステップSc2)。なお、この際の選択方法は、上述した人物グループ分類処理におけるステップSb2(図11)と同様である。
このようにして、潜在中心位置の選択が完了すると、図12ステップSc2において選択された各潜在中心位置に対応する最も大きなβ(ij)値を抽出すると共に、当該β(i)値の中に閾値Hβよりも大きいβ(i)値が存在するか否かを判定する(図12ステップSc3)。この判定の結果、「yes」と判定した場合、ストーリー分析部161は、閾値Hβを越えている潜在中心位置が何カ所あるかを判定し(図12ステップSc4)、
a)閾値Hβを越えている潜在中心位置が一箇所の場合:場所グループab1
b)閾値Hβを越えている潜在中心位置が二箇所の場合:場所グループab2
c)閾値Hβを越えている潜在中心位置が三箇所以上の場合:場所グループab3
と、当該コンテンツデータの場所グループを決定して(図12ステップSc5〜ステップSc7)、処理を終了する。
a)閾値Hβを越えている潜在中心位置が一箇所の場合:場所グループab1
b)閾値Hβを越えている潜在中心位置が二箇所の場合:場所グループab2
c)閾値Hβを越えている潜在中心位置が三箇所以上の場合:場所グループab3
と、当該コンテンツデータの場所グループを決定して(図12ステップSc5〜ステップSc7)、処理を終了する。
これに対して、図12ステップSc3において「no」と判定した場合、今度は、図12ステップSc2において選択された各潜在中心位置に対応する最も大きなβ(i)値の中に閾値Lβよりも大きいβ(i)値が存在するか否かを判定する(図12ステップSc8)。この判定の結果、「no」と判定した場合、ストーリー分析部161は、当該コンテンツデータの場所グループを「場所グループaa」に決定して(図12ステップSc13)、処理を終了する。
一方、この図12ステップSc8における判定の結果、「yes」と判定した場合、ストーリー分析部161は、閾値Lβを越えている人物が何名いるかを判定し(図12ステップSc9)、
a)閾値Lβを越えている潜在中心位置が一箇所の場合:場所グループab4
b)閾値Lβを越えている潜在中心位置が二箇所の場合:場所グループab5
c)閾値Lβを越えている潜在中心位置が三箇所以上の場合:場所グループab6
と、当該コンテンツデータの場所グループを決定して(図12ステップSc10〜ステップSc12)、処理を終了する。
a)閾値Lβを越えている潜在中心位置が一箇所の場合:場所グループab4
b)閾値Lβを越えている潜在中心位置が二箇所の場合:場所グループab5
c)閾値Lβを越えている潜在中心位置が三箇所以上の場合:場所グループab6
と、当該コンテンツデータの場所グループを決定して(図12ステップSc10〜ステップSc12)、処理を終了する。
以上説明した、人物グループ分類処理(ステップSa1)及び場所グループ分類処理(ステップSa2)により当該コンテンツデータに対応した人物グループ及び場所グループが決定されると、ストーリー分析部161は、これらのグループに基づいて、当該コンテンツデータのストーリー分類を決定して(ステップSa3)、ストーリー分類処理を終了する。
この際、ストーリー分析部161は、当該コンテンツデータの付加情報に含まれているジャンル情報を抽出して、当該ジャンル情報に基づいて、使用すべきストーリー分類テーブルTBL3-kを決定する。そして、ストーリー分析部161は、当該ストーリー分類テーブルTBL3-kにおいて当該コンテンツデータの人物グループと場所グループの組み合わせに対応したストーリー分類を選択する。
(4)コンテンツデータ再生時の動作
次に、本実施形態にかかる画像処理装置1において、HD121に格納されているコンテンツデータを再生する際の動作について説明する。
まず、画像処理装置1内のコンテンツデータの再生を行う場合、ユーザは、ユーザI/F部13を操作することにより再生を行う旨の入力操作を行うことが必要となる。こうして、ユーザがユーザI/F部13を操作すると、記録再生部162は、ユーザI/F部13から送られてきた入力信号に従い、HDD12に対して制御信号を出力する。この結果、HDD12において、各コンテンツデータと対応づけてHD121に記録されているストーリー分類とジャンル名が読み出され、システム制御部16へと送られる。
次に、本実施形態にかかる画像処理装置1において、HD121に格納されているコンテンツデータを再生する際の動作について説明する。
まず、画像処理装置1内のコンテンツデータの再生を行う場合、ユーザは、ユーザI/F部13を操作することにより再生を行う旨の入力操作を行うことが必要となる。こうして、ユーザがユーザI/F部13を操作すると、記録再生部162は、ユーザI/F部13から送られてきた入力信号に従い、HDD12に対して制御信号を出力する。この結果、HDD12において、各コンテンツデータと対応づけてHD121に記録されているストーリー分類とジャンル名が読み出され、システム制御部16へと送られる。
一方、HDD12からストーリー分類とジャンル名が送られてくると、記録再生部162は、これらの情報に基づいてa)ジャンル選択画面と、b)コンテンツ選択画面に対応した画像データを生成する。
ここで、これらの画面について説明すると以下の通りである。
a)ジャンル選択画面
ジャンル選択画面は、HD121に記録されているコンテンツデータの中から再生候補を選択する際に、まず、再生候補となるジャンルをユーザに選択させるための画面である。このジャンル選択画面には、図13に示すようにHD121に記録されている全てのコンテンツデータに対応したジャンル名がボタンとして表示される。
また、各ジャンル項目に対応したボタンには、アンカーが対応づけられており、ユーザがユーザI/F部13に対して何れかの各ボタンを選択する入力操作を行うと、当該ボタンと対応づけられているコンテンツ選択画面が表示されることとなる。
なお、このジャンル選択画面を如何なる形式で生成するかは任意であるが、本実施形態においては、説明をより具体的なものとするため、HTML(Hyper Text Markup Language)形式で生成されているものとする。
a)ジャンル選択画面
ジャンル選択画面は、HD121に記録されているコンテンツデータの中から再生候補を選択する際に、まず、再生候補となるジャンルをユーザに選択させるための画面である。このジャンル選択画面には、図13に示すようにHD121に記録されている全てのコンテンツデータに対応したジャンル名がボタンとして表示される。
また、各ジャンル項目に対応したボタンには、アンカーが対応づけられており、ユーザがユーザI/F部13に対して何れかの各ボタンを選択する入力操作を行うと、当該ボタンと対応づけられているコンテンツ選択画面が表示されることとなる。
なお、このジャンル選択画面を如何なる形式で生成するかは任意であるが、本実施形態においては、説明をより具体的なものとするため、HTML(Hyper Text Markup Language)形式で生成されているものとする。
b)コンテンツ選択画面
コンテンツ選択画面は、ジャンル毎に設けられた画面であり、ジャンル選択画面の各ボタンと対応づけられている。このジャンル選択画面の一例を図14に示す。同図に示すように、このコンテンツ選択画面には、各ストーリー分類毎に当該ストーリー分類を意味するコメントと、コンテンツ名等が表示される。
かかるコンテンツ選択画面に対応した画像データを生成するに当たり、記録再生部162は、各コンテンツデータに対応するストーリー分類と、ジャンルに従って、本画面に対応する画像データを生成する。
コンテンツ選択画面は、ジャンル毎に設けられた画面であり、ジャンル選択画面の各ボタンと対応づけられている。このジャンル選択画面の一例を図14に示す。同図に示すように、このコンテンツ選択画面には、各ストーリー分類毎に当該ストーリー分類を意味するコメントと、コンテンツ名等が表示される。
かかるコンテンツ選択画面に対応した画像データを生成するに当たり、記録再生部162は、各コンテンツデータに対応するストーリー分類と、ジャンルに従って、本画面に対応する画像データを生成する。
なお、この際、図14に示すように潜在主人公の氏名、年齢等の情報や潜在中心位置となっている場所名等を表示するようにしても良い。この場合、ストーリー分類処理に際して、潜在主人公の人物名、年齢等を人物情報から抽出して、当該コンテンツデータと対応づけてHD121に記録するようにすれば良い。
かかるコンテンツ選択画面上において、ユーザが再生すべきコンテンツデータを選択する旨をユーザI/F部13に入力すると、記録再生部162は、制御信号をHDD12と画像表示部14に出力する。すると、HDD12は、HD121から当該コンテンツデータを読み出して、画像表示部14に供給し、画像表示部14は、HDD12から供給されるコンテンツデータを、順次複合してモニタ2に供給する。この結果、モニタ2には、当該コンテンツデータに対応した画像が表示される。
このようにして、本実施形態にかかる画像処理装置1は、ストーリー性のあるコンテンツに登場する人物に対応する属性を示す人物情報と当該コンテンツにおける舞台として登場している場所に対応する属性を示す場所情報と、少なくとも何れか一方を示す付加情報を含むコンテンツデータを取得し、登場人物及び登場場所の、少なくとも何れか一方が、コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を示すストーリーマトリクスを、付加情報に基づいて算出して、当該ストーリーマトリクスに基づいてコンテンツデータを分類する構成となっている。
この構成により、各コンテンツデータの内容を客観的に示すストーリーマトリクスデータが生成されると共に、当該ストーリーマトリクスに基づいた客観的なデータ分類が可能となる。
更に、本実施形態にかかる画像処理装置1は、データ分類を決定するに際して、ストーリーマトリクスに基づいて、当該コンテンツにおける潜在主人公を決定すると共に、当該決定結果に基づいてコンテンツデータを分類する構成となっている。
この構成によれば、各コンテンツデータに対応するストーリー中において、誰が主人公であるのかまで、把握することが可能となるため、より正確なストーリー分類を実現することが可能となる。
また、本実施形態にかかる画像処理装置1は、データ分類を決定する際に、ストーリーマトリクスに基づいて、当該コンテンツにおけるメイン舞台となる潜在中心位置を決定すると共に、当該決定結果に基づいてコンテンツデータを分類する構成となっている。
この構成によれば、各コンテンツデータに対応するストーリー中において、どの場所がメイン舞台となっているのかまで、把握することが可能となるため、より正確なストーリー分類を実現することが可能となる。
更に、本実施形態にかかる画像処理装置1は、コンテンツデータの分類結果を、モニタ2に表示させる構成となっている。このため、分類結果をユーザに示すことが可能となる。
更にまた、本実施形態にかかる画像処理装置1は、コンテンツデータの分類結果に対応したデータ分類をコンテンツデータと対応づけて、HD121に記録する構成となっている。このため、HD121に記録されているコンテンツデータの検索に際して、データ分類を利用することが可能となり、従来に無い客観的な基準に基づくデータ検索が可能となる。
更にまた、本実施形態にかかる画像処理装置1は、HD121に記録されているデータ分類をモニタ2に表示させ、この表示の結果、ユーザによって指定されたデータ分類と対応づけてHD121に記録されているコンテンツデータを処理する構成となっている。このため、検索結果に対応したデータを確実に処理することが可能となる。
なお、本実施形態において画像処理装置1は、TV受信部11を介して受信されたコンテンツデータをHDD12に記録する構成となっているが、このTV受信部11に変えて、インターネット接続用の装置を設け、この装置を介してインターネットからコンテンツデータをダウンロードするようにしても良い。
また、本実施形態においてHDD12に記録されているコンテンツデータには、フレーム毎に付加情報が付加されている構成となっている。しかし、この付加情報は、連続する複数のフレームのおいて登場人物や場所等に変化がない場合には、複数のフレーム毎、或いは、カット毎、シーン毎に付加することも可能である。ただし、かかる構成を採用する場合には、例えば、「フレームf1〜フレームf30まで、変化なし」等の情報を付加情報に追加することが必要となる。そして、ストーリーマトリクス生成処理(図8ステップS2)においてストーリー分析部161は、フレームf1〜フレームf30までは、同一のカウンタt(ij)をインクリメントするようにすればよい。
更に、本実施形態において画像処理装置1は、コンテンツデータのジャンル毎にストーリー分類テーブルTBL3-kを有する構成となっている。しかし、ストーリー分類の精度が低くても良い場合には、ストーリー分類テーブルTBL3-kは、1つのテーブルにより実現するようにしても良い。また、高い精度が必要とされる場合には、ストーリー分類テーブルTBL3-kは、ジャンルのみならず、潜在主人公の男女、年齢等に分けて設けるようにしても良い。
更にまた、このストーリー分類テーブルTBL3-kは、適宜、変更できるようにしても良い。この場合、ストーリー分類テーブルTBL3-kは、インターネットからダウンロードして、テーブル記録部15に格納するようにしても良いし、光ディスク等からインストールするようにしても良い。
また、本実施形態において画像処理装置1は、コンテンツデータの記録が行われるたびに、当該コンテンツデータのストーリー分類を決定する構成をとっているが、ストーリー分類の決定タイミングは、これに限らず、コンテンツデータの再生時等であっても良い。
また更に、本実施形態において閾値RA、Hα、Lα及び閾値RB、Hβ、Lβは、予め定められた数値としているが、不揮発性のメモリや光ディスク等に記録しておき、ユーザの嗜好に合わせて、適宜変更可能としても良い。また、この場合、インターネット等のネットワークを介してダウンロードする構成とすることも可能である。
更に、本実施形態では、コンテンツデータに対応するストーリー分類を決定する処理の動作を、ストーリー分析部161によって実行するようになっているが、当該記録処理の動作を規定するプログラムが記録された記録媒体と、それを読み取るコンピュータと、を備え、このコンピュータで当該プログラムを読み込むことによって上述と同様の記録処理の動作を行うようにしてもよい。
更にまた、本実施形態において画像処理装置1は、上記(式9)、(式10)により、ストーリーマトリクスを変換した後にストーリー分類を決定する構成としているが、ストーリーマトリクスを変換することなくデータ分類を決定するようにしても良い。
[2]応用例
[2.1]応用例1
応用例1にかかる画像処理装置1は、図1に示した構成と同様の構成により実現されるものである。従って、特に示さない限り、図1の各構成要素は、第1実施形態と同様の構成を有し、同一の動作を行うものである。
上述した実施形態にかかる画像処理装置1は、各コンテンツデータに対応するストーリー分類を決定すると共に、ユーザが再生候補となるコンテンツデータを選択する際に、このストーリー分類を用いて各コンテンツデータの検索を容易にするためのものであった。これに対し、応用例1にかかる画像処理装置1は、HD121の空き容量が所定の閾値を下回った場合に、記録再生部162が上記ストーリー分類に基づいてコンテンツデータの自動消去を行うものである。なお、かかる閾値をどのような値とするかは、任意である。
[2.1]応用例1
応用例1にかかる画像処理装置1は、図1に示した構成と同様の構成により実現されるものである。従って、特に示さない限り、図1の各構成要素は、第1実施形態と同様の構成を有し、同一の動作を行うものである。
上述した実施形態にかかる画像処理装置1は、各コンテンツデータに対応するストーリー分類を決定すると共に、ユーザが再生候補となるコンテンツデータを選択する際に、このストーリー分類を用いて各コンテンツデータの検索を容易にするためのものであった。これに対し、応用例1にかかる画像処理装置1は、HD121の空き容量が所定の閾値を下回った場合に、記録再生部162が上記ストーリー分類に基づいてコンテンツデータの自動消去を行うものである。なお、かかる閾値をどのような値とするかは、任意である。
かかる機能を実現するため、本応用例にかかる画像処理装置1のテーブル記録部15には、図15に示す再生履歴テーブルTBL4が格納されている。同図に示すように、再生履歴テーブルTBL4には、各ジャンルに対応するストーリー分類と対応づけて当該ストーリー分類に属するコンテンツデータの再生回数をカウントするためのカウンタが格納されている。また、この再生履歴テーブルTBL4には、各ジャンル毎に、当該ジャンルにおける再生回数の合計値をカウントするためのカウンタも格納されている。
ここで、この再生履歴テーブルTBL4は、コンテンツデータの再生が行われる度に、記録再生部162によって更新される。この際、記録再生部162は、当該コンテンツデータと対応づけてHD121に記録されているジャンル名とストーリー分類を読み出し、当該分類に対応するフィールドのカウンタをインクリメントする。かかる更新がなされる結果、再生履歴テーブルTBL4には、各ストーリー分類に属するコンテンツデータの延べ再生回数と、その合計値が格納されることとなる。
なお、この再生履歴テーブルTBL4に格納されている各カウンタを如何なるタイミングでクリアするか否かは任意である。しかし、これらのカウンタ値は、ユーザの嗜好性を把握するために必要なものであるため、本応用例1においては、クリアされることなく継続的に再生履歴が蓄積されていくものとする。
応用例1において記録再生部162は、この再生履歴テーブルTBL4に格納されている各ジャンルに対応する再生回数の合計値が最も低いジャンルに属するコンテンツデータの中から消去対象を選択する。かかる選択に際して、記録再生部162は、再生履歴テーブルTBL4の当該ジャンルに対応するストーリー分類において、最も延べ再生回数の多いストーリー分類を決定する一方、当該ストーリー分類と最も内容的に関連性の低いストーリー分類に属するコンテンツデータを消去対象として選択する。
この際、記録再生部162は、延べ再生回数の最も多いストーリー分類と最も内容的に関連性の低いストーリー分類を以下のようにして選択する。
まず、上述した、ストーリー分類テーブルTBL3-kにおいては、各人物グループ及び場所グループに対応したストーリー分類が格納されているが、これらのグループは、
a)人物グループ
潜在主人公の人数と、当該主人公の各フレームに対する登場確率
b)場所グループ
潜在中心位置の数と、当該場所が各フレームに登場する確率
によって決定されるものである。このことは、すなわち、次のような関係を意味している。
a)人物グループ
潜在主人公の人数と、当該主人公の各フレームに対する登場確率
b)場所グループ
潜在中心位置の数と、当該場所が各フレームに登場する確率
によって決定されるものである。このことは、すなわち、次のような関係を意味している。
(i)潜在主人公の人数が多い人物グループと少ない人物グループではストーリー内容的に関連性が低いと考えられるため、潜在主人公の人数の差が少なければ少ないほど内容的な関連性が高く、多ければ多いほど内容的関連性が低い。
(ii)潜在主人公の登場確率が高い人物グループと低い人物グループでは、ストーリー内容的な関連性が低い。
(iii)潜在中心位置となる場所数が多い場所グループと少ない場所グループではストーリー内容的に関連性が低いと考えられるため、潜在中心位置の数の差が少なければ少ないほど内容的な関連性が高く、多ければ多いほど内容的関連性が低い。
(iv)潜在中心位置となる場所の登場確率が高い場所グループと低い場所グループでは、ストーリー内容的な関連性が低い。
(ii)潜在主人公の登場確率が高い人物グループと低い人物グループでは、ストーリー内容的な関連性が低い。
(iii)潜在中心位置となる場所数が多い場所グループと少ない場所グループではストーリー内容的に関連性が低いと考えられるため、潜在中心位置の数の差が少なければ少ないほど内容的な関連性が高く、多ければ多いほど内容的関連性が低い。
(iv)潜在中心位置となる場所の登場確率が高い場所グループと低い場所グループでは、ストーリー内容的な関連性が低い。
従って、上記ストーリー分類テーブルTBL3-kにおいて、横方向のフィールド位置及び縦方向のフィールド位置が離れれば離れるほどストーリー内容的な関連性が低いということができ、これを式で表すと、
また、(式13)の「(q−j)」は、ストーリー分類テーブルTBL3-kにおいて、最も延べ再生回数の多かったストーリー分類に対応するフィールドからの縦方向のフィールド数を意味する。例えば、図7に示す例において最も延べ再生回数の多かったストーリー分類が「分類ab1ab1」である場合、「人物グループab2」に属するストーリー分類については「(q−j)」=1、「人物グループab3」に属するストーリー分類については「(q−j)」=2となる。
応用例1において、記録再生部162は、この関係を利用して、消去対象とすべきストーリー分類、すなわち、eijが最も小さくなる分類を決定して、当該ストーリー分類に属するコンテンツデータを消去対象として選択する。
次に、かかる機能を実現する本応用例1にかかる画像処理装置1においてコンテンツデータを記録する際の動作について、次に説明する。
まず、ユーザが、ユーザI/F部13を操作することにより、画像処理装置1の電源を入れると、TV受信部11によって受信されたコンテンツデータが画像表示部14によって復号され、画像信号等としてモニタ2に供給される。この結果、モニタ2には、放送中のコンテンツに対応した画像が表示されることとなる。
この状態において、ユーザがコンテンツデータの記録予約を行うと、記録再生部162は、その予約日時にコンテンツデータをHDD12に記録させる。なお、この際の動作は、上述した「実施形態」と同様である。
このようにして、HDD12にコンテンツデータが記録されると、ストーリー分析部161は、上述した図8に示す処理を実行し、当該コンテンツデータに対応するストーリー分類を決定する。なお、この際の動作は、上述と同様であるため、詳細は省略する。
次いで、記録再生部162は、図16に示すコンテンツデータの消去処理を実行する。
この処理において記録再生部162は、まず、HD121の記憶容量の空き容量を検索して、その空き容量が、所定の閾値を下回っているか否かを判定する(ステップSd1)。この判定の結果、当該空き容量が未だ閾値を下回っていないものと判定すると(「no」)、記録再生部162は、処理を終了する。
一方、ステップSd1において「yes」と判定した場合、記録再生部162は、再生履歴テーブルTBL4を検索し、延べ再生回数の合計値が最も低いジャンルを選択する(ステップSd2)。そして、記録再生部162は、このジャンルにおいて最も延べ再生回数の多いストーリー分類を選択すると共に、当該ジャンルに対応するストーリー分類テーブルTBL3-kにおいて横方向のフィールド位置及び縦方向のフィールド位置が最も離れているストーリー分類に属するコンテンツデータを(式13)に従って選択する(ステップSd3)。この際、
a)(式13)の算出結果が同一となるストーリー分類が複数存在する場合
b)選択されたストーリー分類に属するコンテンツデータが複数ある場合
の何れかに該当する場合、選択されたストーリー分類に属するコンテンツデータの内、最も記録日時の古いコンテンツデータを消去対象として選択する。
a)(式13)の算出結果が同一となるストーリー分類が複数存在する場合
b)選択されたストーリー分類に属するコンテンツデータが複数ある場合
の何れかに該当する場合、選択されたストーリー分類に属するコンテンツデータの内、最も記録日時の古いコンテンツデータを消去対象として選択する。
以上の処理により、消去対象となるコンテンツデータが選択されると、記録再生部162は、HDD12に制御信号を出力して(ステップSd4)、処理を終了する。この結果、HDD12においては、その選択されたコンテンツデータがHD121から消去される。
このようにして、本応用例1にかかる画像処理装置1においては、データ分類に基づいて、HD121に記録されているコンテンツデータの内において、消去すべきコンテンツデータを選択し、その選択された前記コンテンツデータを、HD121から消去する構成となっている。
この構成により、ユーザの嗜好に合致しないコンテンツデータが消去対象として自動的に決定されるため、ユーザの意図を反映しつつコンテンツデータの自動消去を行うことが可能となる。
また、本応用例1にかかる画像処理装置1においては、データ分類情報と、コンテンツデータの再生履歴の双方に基づいてユーザの嗜好に合致しない前記コンテンツを決定すると共に、その決定結果に基づいて消去すべきコンテンツデータを選択する構成を採用している。このため、よりユーザの嗜好性を反映した消去対象の決定が可能となる。
[2.2]応用例2
応用例2にかかる画像処理装置1は、図1に示した構成と同様の構成により実現されるものである。従って、特に示さない限り、図1の各構成要素は、第1実施形態と同様の構成を有し、同一の動作を行うものである。
ここで、応用例2は、各コンテンツデータに対応するストーリーマトリクスを各コンテンツデータのストーリー的な比較に利用したものである。
応用例2にかかる画像処理装置1は、図1に示した構成と同様の構成により実現されるものである。従って、特に示さない限り、図1の各構成要素は、第1実施形態と同様の構成を有し、同一の動作を行うものである。
ここで、応用例2は、各コンテンツデータに対応するストーリーマトリクスを各コンテンツデータのストーリー的な比較に利用したものである。
本応用例2においてストーリー分析部161は、上述の(式1)〜(式10)に基づき、ストーリー比較を行うべき2つのコンテンツデータについて、U及びVマトリクスを算出し、この両コンテンツデータに対応するU及びVマトリクスに基づいて、ストーリー比較処理を行う。このストーリー比較処理について説明すると以下のとおりである。
[ストーリー比較処理]
ストーリー分析部161は、上述した(式9)の算出結果を(式14)及び(式15)に代入することによりUマトリクスの自乗平均平方根を算出する。
ストーリー分析部161は、上述した(式9)の算出結果を(式14)及び(式15)に代入することによりUマトリクスの自乗平均平方根を算出する。
ここで、(式14)に示すように、cA値は、比較対照となる両コンテンツデータにおいて潜在主人公と各登場人物とが同一フレーム内に登場する確率の差分によって決定されるため、両コンテンツデータに対応するUマトリクスにおいてパラメータ値が近い程cA値は小さくなる。従って、この値が小さくなればなる程、両コンテンツデータに対応するUマトリクスは近似性を示すこととなり、両コンテンツデータにおいては、潜在主人公と他の登場人物との人間関係が類似したものとなると想定される。
cB値についても同様であり、このcB値が小さくなればなるほど両コンテンツデータの潜在中心位置のストーリー中の位置づけが類似したものとなると想定される。
ストーリー分析部161は、このcA値及びcB値を、夫々、所定の閾値と比較することにより、両コンテンツデータに対応したストーリーにおける人間関係及び潜在中心位置のストーリー中における位置づけが類似しているか否かを判定し、この判定結果に基づいて、両コンテンツデータのストーリー的な比較を行う。なお、この閾値の値については任意である。
かかる判定を可能とするため、本変形例においてテーブル記録部15には、図17に示すストーリー比較テーブルTBL5が格納されており、このテーブルTBL5に基づいてストーリー分析部161は、比較対照となる両コンテンツデータのストーリー的な類似性を決定する。なお、同図に示す場合においては「類似度A」>「類似度B」>「類似度C」>「類似度D」の順番に両コンテンツデータにストーリー的な類似性が認められることを意味している。
次に、本応用例にかかる画像処理装置1においてストーリー比較を行う際の動作について詳細に説明する。
まず、ユーザが、ユーザI/F部13を操作することにより、画像処理装置1の電源を入れ、コンテンツデータのストーリー比較を行う旨の入力操作をユーザI/F部13に対して行うと、当該入力操作に対応した入力信号がシステム制御部16へと送られる。ストーリー分析部161は、この入力信号に従って、ストーリー比較を行うべきコンテンツデータを選択するための選択画面に対応する画像データを生成して、画像表示部14へと出力する。この結果、モニタ2には、当該画像データに対応した選択画面が表示される。なお、この選択画面の構成は任意である。
次いで、ユーザが、この選択画面の表示に従って、ユーザI/F部13にストーリー比較を行うべき2つのコンテンツデータを選択する旨の入力操作を行うと、当該入力操作に対応した入力信号がシステム制御部16へと出力される。ストーリー分析部161は、この入力信号に従って、図18に示す処理を実行する。
この処理において、ストーリー分析部161は、まず、ストーリーの比較対照として選択された2つのコンテンツデータを読み出して(ステップSe1)、両コンテンツデータに対応するストーリーマトリクスデータを生成すると共に(ステップSe2)、この算出したストーリーマトリクスデータをU及びVマトリクスに対応するデータに変換する(ステップSe3)。なお、この際の処理については、上述した図8のステップS1〜S3と同様であるため詳細は省略する。
次いで、ストーリー分析部161は、ステップSe3においてストーリーマトリクスを変換して得られたU及びVマトリクスに対して図19に示すストーリー比較処理を実行する(ステップSe4)。この処理において、ストーリー分析部161は、まず、Uマトリクスによるストーリー比較処理と(図19ステップSf1)、Vマトリクスによるストーリー比較処理(図19ステップSf2)を実行する。この結果、両コンテンツデータに対応するストーリー中の人間関係が類似しているか否か及び潜在中心位置のストーリー中の位置づけが類似しているか否かが決定される。なお、これらの処理の詳細については後述する。
このようにして、図19ステップSf1、Sf2の結果、両コンテンツデータについての人間関係の類似性と、潜在中心位置の位置づけの類似性が決定すると、ストーリー分析部161は、その決定結果に基づいて、ストーリー比較テーブルTBL5を検索する。この際、例えば、両コンテンツデータに対応するストーリーが人間関係において類似しており、かつ、中心位置の位置づけについても類似している場合には、ストーリー分析部161は、両コンテンツデータは、「類似度A」の関係にあるものと決定する。これに対して、ステップSf1、Sf2の結果、両コンテンツデータに対応するストーリーが人間関係において類似しておらず、かつ、潜在中心位置の位置づけについても類似していない場合には、ストーリー分析部161は、両コンテンツデータは、「類似度D」の関係にあるものと決定する。
以上説明したストーリー比較処理が終了すると、ストーリー分析部161は、ステップSe4において決定した「類似度A」等の情報を付加した制御信号をHDD12に出力する(ステップSe5)。この結果、比較対照となったコンテンツデータと対応づけて「類似度A」等の情報がHD121に記録される。
次いで、ストーリー分析部161は、ストーリー比較結果の表示処理を行い(ステップSe6)、処理を終了する。具体的には、例えば、「ストーリー比較の結果、両コンテンツは非常に似たものであると考えられます。」等の文字列を含む画像データを生成して、画像表示部14へと供給するのである。この結果、モニタ2上に当該画像データに対応する画像が表示されることとなる。
その後、ユーザがユーザI/F部13に対しコンテンツデータの再生を行う旨の入力操作を行うと、この入力操作に従って、記録再生部162は、当該コンテンツデータと対応づけて記録されているストーリー比較結果を検索して、「このコンテンツに内容的に類似しているコンテンツが存在します。再生対象は、このコンテンツデータでよろしいですか。」等の文字列と共に、類似性を有するコンテンツデータのタイトル等をモニタ2に表示させる。そして、ユーザがユーザI/F部13に対して、タイトルを選択する旨の入力操作を行うと、記録再生部162は、その入力操作に従って、コンテンツデータの再生処理を実行する。
このようにして、本応用例にかかる画像処理装置によれば、各コンテンツデータ間のストーリー的な比較結果がコンテンツデータと対応づけて記録されるため、ユーザの選択したコンテンツデータとストーリー的に類似するコンテンツデータをユーザに提示することが可能となり、この結果、コンテンツデータの検索の不便さを解消することが可能となる。
次に、図20を参照しつつ、上述した図19ステップSf1において実行されるUマトリクスによるストーリー比較処理について説明した後に、図21を参照しつつステップSf2において実行されるVマトリクスによるストーリー比較処理について説明する。
Uマトリクスによるストーリー比較処理において、ストーリー分析部161は、まず、両コンテンツデータに対応するUマトリクスに含まれているパラメータ数から、両コンテンツデータの登場人物の人数が一致しているか否かを判定する(ステップSg1)。この判定の結果、「no」と判定すると、ストーリー分析部161は、両コンテンツデータのストーリー中における人間関係は類似していないものと決定して(ステップSg5)、処理を終了する。
一方、この判定において「yes」と判定した場合、ストーリー分析部161は、上述した(式14)に従って、cA値を算出すると共に(ステップSg2)、その算出されたcA値が予め定められている閾値以下であるか否かを判定する(ステップSg3)。この判定の結果、「no」と判定した場合、ストーリー分析部161は、両コンテンツデータのストーリー中における人間関係は類似していないものと決定して(ステップSg5)、処理を終了する。
これに対して、ステップSg3において「yes」と判定した場合、ストーリー分析部161は、両コンテンツデータのストーリー中における人間関係は類似しているものと決定して(ステップSg4)、処理を終了する。
次に、Vマトリクスによるストーリー比較処理において、ストーリー分析部161は、まず、両コンテンツデータに対応するVマトリクスに含まれているパラメータ数から、両コンテンツデータの登場場所数が一致しているか否かを判定する(ステップSh1)。この判定の結果、「no」と判定すると、ストーリー分析部161は、両コンテンツデータの中心位置のストーリー中における位置づけは類似していないものと決定して(ステップSh5)、処理を終了する。
一方、この判定において「yes」と判定した場合、ストーリー分析部161は、上述した(式15)に従って、cB値を算出すると共に(ステップSh2)、その算出されたcB値が予め定められている閾値以下であるか否かを判定する(ステップSh3)。この判定の結果、「no」と判定した場合、ストーリー分析部161は、両コンテンツデータの中心位置の位置づけは類似していないものと決定し(ステップSh5)、「yes」と判定した場合、ストーリー分析部161は、両コンテンツデータの中心位置の位置づけは類似しているものと決定して(ステップSh4)、処理を終了する。
このようにして、応用例2によれば、ストーリーマトリクスデータに基づき、コンテンツデータ間の登場確率の差分を算出し、その差分に基づいてコンテンツデータ間におけるコンテンツの類似性を決定することにより、コンテンツデータの比較を行う構成となっている。このため、従来人手に頼らざるをえなかった、ストーリー内容の比較作業を客観的指標に基づいて行うことが可能となる。また、この際、比較結果は、当該コンテンツデータと対応づけてHD121に記録されるため、各コンテンツデータを検索する際に客観的指標として利用することが可能となる。
なお、本応用例では、コンテンツデータに対応するストーリー比較を行う際の処理を、ストーリー分析部161によって実行するようになっているが、当該記録処理の動作を規定するプログラムが記録された記録媒体と、それを読み取るコンピュータと、を備え、このコンピュータで当該プログラムを読み込むことによって上述と同様の記録処理の動作を行うようにしてもよい。
[2.3]応用例3
本応用例は、各コンテンツデータに対応するストーリーマトリクスデータを各コンテンツデータのストーリー的な要約を作成することに応用したものである。なお、本応用例にかかる画像処理装置は、図1に示した構成と同様の構成により実現されるものである。従って、特に示さない限り、図1の各構成要素は、第1実施形態と同様の構成を有し、同一の動作を行うものである。
本応用例は、各コンテンツデータに対応するストーリーマトリクスデータを各コンテンツデータのストーリー的な要約を作成することに応用したものである。なお、本応用例にかかる画像処理装置は、図1に示した構成と同様の構成により実現されるものである。従って、特に示さない限り、図1の各構成要素は、第1実施形態と同様の構成を有し、同一の動作を行うものである。
本応用例において、上述した実施形態と異なる点は、ストーリー分析部161の実行する処理のみである。以下、本応用例にかかるストーリー分析部161が、ストーリーの要約に対応したデータ(以下、「要約データ」という)を生成する際の具体的動作について詳細に説明する。
まず、ユーザが、ユーザI/F部13を操作することにより、画像処理装置1の電源を入れ、要約を作成する旨の入力操作をユーザI/F部13に対して行うと、当該入力操作に対応した入力信号がシステム制御部16へと送られる。ストーリー分析部161は、この入力信号に従って、要約を作成すべきコンテンツデータを選択するための選択画面に対応する画像データを生成して、画像表示部14へと出力する。この結果、モニタ2には、当該画像データに対応した選択画面が表示される。なお、この選択画面の構成は任意である。
次いで、ユーザが、この選択画面の表示に従って、ユーザI/F部13に要約を作成すべきコンテンツデータを選択する旨の入力操作を行うと、当該入力操作に対応した入力信号がシステム制御部16へと出力される。ストーリー分析部161は、この入力信号に従って、図22に示す処理を実行することにより、各コンテンツデータに対応するストーリーの要約データを生成する。
この処理において、まず、ストーリー分析部161は、入力信号に対応するコンテンツデータを読み出して(ステップSi1)、当該コンテンツデータに対応したストーリーマトリクスを(式1)〜(式7)に従って算出し、その算出結果に対応するストーリーマトリクスデータを生成すると共に(ステップSi2)、このストーリーマトリクスデータを(式9)及び(式10)に従ってU及びVマトリクスに対応するデータへと変換する(ステップSi3)。なお、この際の処理については、上述した図8のステップS1〜S3と同様であるため詳細は省略する。
次いで、ストーリー分析部161は、ストーリー要約処理を実行する(ステップSi4)。この処理において、ストーリー分析部161は、ステップSi3において得られたU及びVマトリクスに対応するデータに基づいて、潜在主人公と、潜在中心位置を決定する。この際、ストーリー分析部161は、上述した図11ステップSb2及び図12ステップSc2と同様に値の大きなα(i)値及びβ(i)値に対応した人物を数名抽出し、当該人物を潜在主人公として選択する。
このようにして、潜在主人公及び潜在中心位置が決定すると、ストーリー分析部161は、当該コンテンツデータにおいて、潜在主人公と潜在中心位置の双方が同一フレーム内に現れているフレームを選択する。この際、ストーリー分析部161は、当該コンテンツデータに対応した全てのフレームに含まれている付加情報を検索することにより、潜在主人公等の登場しているフレームを選択する。そして、ストーリー分析部161は、この選択したフレームに対応するデータを当該コンテンツデータから抽出し、該データを時系列的に配列し直すことにより当該コンテンツデータに対応する要約データを生成する。
以上の処理の結果、ステップSi4のストーリー要約処理が終了すると、ストーリー分析部161は、ステップSi4において作成した要約データを付加した制御信号をHDD12に出力する(ステップSi5)。この結果、要約作成対象となったコンテンツデータと対応づけて要約データがHD121に記録される。
次いで、ストーリー分析部161は、要約データの表示処理を行い(ステップSi6)、処理を終了する。具体的には、ストーリー分析部161から画像表示部14に対して要約データを付加した制御信号が送られ、この結果、画像表示部14によって、要約データに対応した画像信号等がモニタ2に出力される。
その後、ユーザがユーザI/F部13に対しコンテンツデータの再生を行う旨の入力操作を行うと、この入力操作に従って、記録再生部162は、当該コンテンツデータと対応づけてHD121に記録されている要約データを連続再生する。ユーザは、この連続再生されている要約データを参照しながら、自信が再生を所望するコンテンツデータを選択することが可能となる。
このようにして、本応用例によれば、ストーリー性のあるコンテンツに登場する人物の属性を示す人物情報と当該コンテンツにおける舞台として登場している場所の属性を示す場所情報と、少なくとも何れか一方を示す付加情報を含むコンテンツデータを取得し、登場人物と場所と、少なくとも何れか一方が、コンテンツのストーリー進行にかかる任意のフレームに登場する登場確率を示すストーリーマトリクスを、付加情報に基づいて算出し、このストーリーマトリクスに基づいてコンテンツにおける潜在主人公、または、潜在中心位置の少なくとも何れか一方を決定すると共に、当該コンテンツにおいて潜在主人公または潜在中心位置の登場する部分を時系列的に結合することにより、当該コンテンツデータの要約に対応する要約データを生成する構成となっている。このため、従来、人手に頼らざるを得なかったコンテンツの要約の作成が自動的に行われるため、従来不可能であった客観的指標に基づく要約の作成が可能となり、また、これに基づいてコンテンツデータの検索を行うことも可能となる。
なお、本応用例では、コンテンツデータに対応する要約データを生成する際の処理を、ストーリー分析部161によって実行するようになっているが、当該記録処理の動作を規定するプログラムが記録された記録媒体と、それを読み取るコンピュータと、を備え、このコンピュータで当該プログラムを読み込むことによって上述と同様の記録処理の動作を行うようにしてもよい。
1・・・画像処理装置
11・・・TV受信部
12・・・HDD
121・・・HD
13・・・ユーザI/F部
14・・・画像表示部
15・・・テーブル記録部
16・・・システム制御部
161・・・ストーリー分析部
162・・・記録再生部
2・・・モニタ
TBL1・・・人物マトリクス生成テーブル
TBL2・・・場所マトリクス生成テーブル
TBL2・・・コンテンツ管理テーブル
TBL3-k・・・ストーリー分類テーブル
TBL4・・・再生履歴テーブル
TBL5・・・ストーリー比較テーブル
11・・・TV受信部
12・・・HDD
121・・・HD
13・・・ユーザI/F部
14・・・画像表示部
15・・・テーブル記録部
16・・・システム制御部
161・・・ストーリー分析部
162・・・記録再生部
2・・・モニタ
TBL1・・・人物マトリクス生成テーブル
TBL2・・・場所マトリクス生成テーブル
TBL2・・・コンテンツ管理テーブル
TBL3-k・・・ストーリー分類テーブル
TBL4・・・再生履歴テーブル
TBL5・・・ストーリー比較テーブル
Claims (17)
- ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得する第1ステップと、
前記キャラクタ及び前記設定場所の、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する第2ステップと、
前記登場確率に基づいて前記コンテンツデータを分類する第3ステップと
を具備することを特徴とするデータ分類方法。 - 前記第3ステップにおいては、
前記登場確率に基づいて、当該コンテンツにおける主たる前記キャラクタを決定すると共に、当該決定結果に基づいて前記コンテンツデータを分類する
ことを特徴とする請求項1に記載のデータ分類方法。 - 前記第3ステップにおいては、
前記登場確率に基づいて、当該コンテンツにおけるメイン舞台となる前記設定場所を決定すると共に、当該決定結果に基づいて前記コンテンツデータを分類する
ことを特徴とする請求項1または請求項2に記載のデータ分類方法。 - 前記第3ステップの後に行われるステップであって、
前記第3ステップにおける前記コンテンツデータの分類結果を、表示手段に表示させる第4ステップを
更に有することを特徴とする請求項1に記載のデータ分類方法。 - 前記第3ステップの後に行われるステップであって、
前記第3ステップにおける前記コンテンツデータの分類結果に対応した分類情報を生成する第5ステップと、
前記分類情報を前記コンテンツデータと対応づけて、記録媒体に記録する第6ステップと
を具備することを特徴とする請求項1に記載のデータ分類方法。 - 前記第6ステップの後に行われるステップであって、
前記記録媒体に記録されている前記分類情報を表示手段に表示させる第7ステップと、
前記第7ステップにおいて前記分類情報を表示した結果、ユーザによって指定された分類情報と対応づけて前記記録媒体に記録されている前記コンテンツデータを処理する第8ステップと
を更に有することを特徴とする請求項5に記載のデータ分類方法。 - 前記第6ステップの後に行われるステップであって、
前記分類情報に基づいて、前記記録媒体に記録されている前記コンテンツデータの中から消去すべき前記コンテンツデータを選択する第9ステップと、
前記第7ステップにおいて選択された前記コンテンツデータを、前記記録媒体から消去する第10ステップと
を更に有することを特徴とする請求項5に記載のデータ分類方法。 - 前記第9ステップにおいては、
前記分類情報と、前記コンテンツデータの再生履歴の双方に基づいてユーザの嗜好に合致しない前記コンテンツを決定すると共に、その決定結果に基づいて消去すべき前記コンテンツデータを選択することを特徴とする請求項7に記載のデータ分類方法。 - 前記第2ステップの後に行われるステップであって、
前記登場確率に基づいて、当該コンテンツデータと当該他のコンテンツデータの間において前記登場確率の差分を算出する第11ステップと、
前記差分に基づいて当該コンテンツデータと当該他のコンテンツデータの間における前記コンテンツの類似性を決定する第12ステップと
を具備することを特徴とする請求項1に記載のデータ分類方法。 - 前記第1ステップに先だってなされる過程であって、
放送波を受信して、この放送波に含まれている前記コンテンツデータを記録媒体に記録する第13ステップを更に有し、
前記第1ステップにおいては、
前記記録媒体から前記コンテンツデータを読み出すことにより、前記コンテンツデータを取得する
ことを特徴とする請求項1に記載のデータ分類方法。 - ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得する第1ステップと、
前記キャラクタと前記設定場所と、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する第2ステップと、
前記登場確率に基づいて前記コンテンツにおける主たる前記キャラクタ、または、前記コンテンツにおけるメイン舞台となる前記設定場所の少なくとも何れか一方を決定する第3ステップと、
前記第3ステップによって決定されたキャラクタまたは設定場所の登場する部分を時系列的に結合することにより、前記コンテンツデータの要約に対応する要約データを生成する第4ステップと
を具備することを特徴とする要約データ生成方法。 - ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得するコンテンツデータ取得手段と、
前記キャラクタと前記設定場所と、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する算出手段と、
前記登場確率に基づいて前記コンテンツデータを分類する分類手段と
を具備することを特徴とするデータ分類装置。 - ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得するコンテンツデータ取得手段と、
前記キャラクタと前記設定場所と、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する算出手段と、
前記登場確率に基づいて前記コンテンツにおける主たる前記キャラクタ、または、前記コンテンツにおけるメイン舞台となる前記設定場所の少なくとも何れか一方を決定する決定手段と、
前記決定手段によって決定されたキャラクタまたは設定場所の登場する部分を時系列的に結合することにより、前記コンテンツデータの要約に対応する要約データを生成する要約データ生成手段と
を具備することを特徴とする要約データ生成装置。 - コンピュータによって、コンテンツデータの分類を行うためのデータ分類プログラムであって、
前記コンピュータを、
ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得するコンテンツデータ取得手段、
前記キャラクタと前記設定場所と、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する算出手段、
前記登場確率に基づいて前記コンテンツデータを分類する分類手段
として機能させることを特徴とするデータ分類プログラム。 - コンピュータによって、コンテンツデータの分類を行うための要約データ生成プログラムであって、
前記コンピュータを、
ストーリー性のあるコンテンツに登場するキャラクタに対応する属性と当該コンテンツにおける舞台として登場している設定場所に対応する属性と、少なくとも何れか一方の属性を示す付加情報を含むコンテンツデータを取得するコンテンツデータ取得手段、
前記キャラクタと前記設定場所と、少なくとも何れか一方が、前記コンテンツのストーリー進行にかかる任意の時点に登場する登場確率を、前記付加情報に基づいて算出する算出手段、
前記登場確率に基づいて前記コンテンツにおける主たる前記キャラクタ、または、前記コンテンツにおけるメイン舞台となる前記設定場所の少なくとも何れか一方を決定する決定手段、
前記決定手段によって決定されたキャラクタまたは設定場所の登場する部分を時系列的に結合することにより、前記コンテンツデータの要約に対応する要約データを生成する要約データ生成手段
として機能させることを特徴とする要約データ生成プログラム。 - 請求項14に記載のデータ分類プログラムを記録したコンピュータに読みとり可能な情報記録媒体。
- 請求項15に記載の要約データ生成プログラムを記録したコンピュータに読みとり可能な情報記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003390977A JP2005157463A (ja) | 2003-11-20 | 2003-11-20 | データ分類方法、要約データ生成方法、データ分類装置、要約データ生成装置、データ分類プログラム、要約データ生成プログラム及び情報記録媒体 |
US10/984,757 US20050114399A1 (en) | 2003-11-20 | 2004-11-10 | Data classification method, summary data generating method, data classification apparatus, summary data generating apparatus, and information recording medium |
EP04026852A EP1533715A2 (en) | 2003-11-20 | 2004-11-11 | Method and apparatus for data classification, method and apparatus for summary data generating, and information recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003390977A JP2005157463A (ja) | 2003-11-20 | 2003-11-20 | データ分類方法、要約データ生成方法、データ分類装置、要約データ生成装置、データ分類プログラム、要約データ生成プログラム及び情報記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005157463A true JP2005157463A (ja) | 2005-06-16 |
Family
ID=34431603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003390977A Abandoned JP2005157463A (ja) | 2003-11-20 | 2003-11-20 | データ分類方法、要約データ生成方法、データ分類装置、要約データ生成装置、データ分類プログラム、要約データ生成プログラム及び情報記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20050114399A1 (ja) |
EP (1) | EP1533715A2 (ja) |
JP (1) | JP2005157463A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007041987A (ja) * | 2005-08-05 | 2007-02-15 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US8315507B2 (en) | 2006-01-05 | 2012-11-20 | Nec Corporation | Video generation device, video generation method, and video generation program |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005176240A (ja) * | 2003-12-15 | 2005-06-30 | Pioneer Electronic Corp | コンテンツデータ再生装置、広告情報配信システム、広告情報配信方法、コンテンツデータ再生プログラム及び情報記録媒体 |
US20060287996A1 (en) * | 2005-06-16 | 2006-12-21 | International Business Machines Corporation | Computer-implemented method, system, and program product for tracking content |
US20070005592A1 (en) * | 2005-06-21 | 2007-01-04 | International Business Machines Corporation | Computer-implemented method, system, and program product for evaluating annotations to content |
JP2007133808A (ja) * | 2005-11-14 | 2007-05-31 | Canon Inc | 情報処理装置、コンテンツ処理方法、記憶媒体およびプログラム |
US7756720B2 (en) * | 2006-01-25 | 2010-07-13 | Fameball, Inc. | Method and system for the objective quantification of fame |
US20090259669A1 (en) * | 2008-04-10 | 2009-10-15 | Iron Mountain Incorporated | Method and system for analyzing test data for a computer application |
US20100215175A1 (en) * | 2009-02-23 | 2010-08-26 | Iron Mountain Incorporated | Methods and systems for stripe blind encryption |
US8397051B2 (en) * | 2009-02-23 | 2013-03-12 | Autonomy, Inc. | Hybrid hash tables |
US8145598B2 (en) * | 2009-02-23 | 2012-03-27 | Iron Mountain Incorporated | Methods and systems for single instance storage of asset parts |
US8090683B2 (en) * | 2009-02-23 | 2012-01-03 | Iron Mountain Incorporated | Managing workflow communication in a distributed storage system |
US9535899B2 (en) | 2013-02-20 | 2017-01-03 | International Business Machines Corporation | Automatic semantic rating and abstraction of literature |
US10073835B2 (en) | 2013-12-03 | 2018-09-11 | International Business Machines Corporation | Detecting literary elements in literature and their importance through semantic analysis and literary correlation |
US9298802B2 (en) | 2013-12-03 | 2016-03-29 | International Business Machines Corporation | Recommendation engine using inferred deep similarities for works of literature |
US11100557B2 (en) | 2014-11-04 | 2021-08-24 | International Business Machines Corporation | Travel itinerary recommendation engine using inferred interests and sentiments |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6829384B2 (en) * | 2001-02-28 | 2004-12-07 | Carnegie Mellon University | Object finder for photographic images |
US6892193B2 (en) * | 2001-05-10 | 2005-05-10 | International Business Machines Corporation | Method and apparatus for inducing classifiers for multimedia based on unified representation of features reflecting disparate modalities |
-
2003
- 2003-11-20 JP JP2003390977A patent/JP2005157463A/ja not_active Abandoned
-
2004
- 2004-11-10 US US10/984,757 patent/US20050114399A1/en not_active Abandoned
- 2004-11-11 EP EP04026852A patent/EP1533715A2/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007041987A (ja) * | 2005-08-05 | 2007-02-15 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US8385606B2 (en) | 2005-08-05 | 2013-02-26 | Sony Corporation | Image processing apparatus and method, and program |
US8315507B2 (en) | 2006-01-05 | 2012-11-20 | Nec Corporation | Video generation device, video generation method, and video generation program |
JP5315694B2 (ja) * | 2006-01-05 | 2013-10-16 | 日本電気株式会社 | 映像生成装置、映像生成方法および映像生成プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP1533715A2 (en) | 2005-05-25 |
US20050114399A1 (en) | 2005-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005157463A (ja) | データ分類方法、要約データ生成方法、データ分類装置、要約データ生成装置、データ分類プログラム、要約データ生成プログラム及び情報記録媒体 | |
US6446083B1 (en) | System and method for classifying media items | |
CN1326075C (zh) | 自动视频检索器精灵 | |
US20050044091A1 (en) | Contents retrieval system | |
JP2001028722A (ja) | 動画像管理装置及び動画像管理システム | |
JPWO2006019101A1 (ja) | コンテンツ関連情報取得装置、コンテンツ関連情報取得方法、およびコンテンツ関連情報取得プログラム | |
KR20070106537A (ko) | 콘텐츠 재생장치 및 콘텐츠 재생방법 | |
JP4487018B2 (ja) | 関連シーン付与装置及び関連シーン付与方法 | |
JP5685373B2 (ja) | 映像コンテンツ推奨管理装置、映像コンテンツのシーン再生指示方法及びそのプログラム | |
JP2006345376A (ja) | 表示方法 | |
JP2008134725A (ja) | コンテンツ再生装置 | |
JP2012182724A (ja) | 動画合成システム及び方法並びに動画合成プログラム及びその記憶媒体 | |
JP3982460B2 (ja) | コンテンツ連動型コメント表示方法、コメント表示システム、サーバ装置、コメント表示装置及びコメント表示プログラム及びコンピュータ読み取り可能な記録媒体 | |
JP2004362452A (ja) | コンテンツ連動型コメント表示方法、コメント表示システム、サーバ装置、コメント表示装置及びコメント表示プログラム | |
JP2006268100A (ja) | プレイリスト生成装置、プレイリスト生成方法、プログラムおよび記録媒体 | |
JP4925938B2 (ja) | ダイジェスト映像情報作成方法、ダイジェスト映像情報作成プログラム、および、映像装置 | |
JP2002108892A (ja) | データ管理システム、データ管理方法、及び、記録媒体 | |
JP2005109566A (ja) | 映像要約装置、説明文生成装置、映像要約方法、説明文生成方法及びプログラム | |
KR100319160B1 (ko) | 사건구간을기반으로하는동영상검색방법과검색데이타구성방법 | |
JP2006094018A (ja) | 番組推薦装置、番組推薦方法、プログラムおよびそのプログラムを記録した記録媒体 | |
WO2011118037A1 (ja) | カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法 | |
KR101624172B1 (ko) | 컨텐츠 정보 관리 장치 및 방법 | |
JP5303747B2 (ja) | メタデータ管理装置、メタデータ管理方法、及び、メタデータ管理プログラム | |
JP2008099012A (ja) | コンテンツ再生システム及びコンテンツ蓄積システム | |
JP2005328219A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061010 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20070803 |