JP5343658B2 - 録画再生装置及びコンテンツ検索プログラム - Google Patents

録画再生装置及びコンテンツ検索プログラム Download PDF

Info

Publication number
JP5343658B2
JP5343658B2 JP2009080904A JP2009080904A JP5343658B2 JP 5343658 B2 JP5343658 B2 JP 5343658B2 JP 2009080904 A JP2009080904 A JP 2009080904A JP 2009080904 A JP2009080904 A JP 2009080904A JP 5343658 B2 JP5343658 B2 JP 5343658B2
Authority
JP
Japan
Prior art keywords
viewer
information
recording
content
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009080904A
Other languages
English (en)
Other versions
JP2010233143A (ja
Inventor
正樹 石原
孝之 馬場
進 遠藤
秀一 椎谷
祐介 上原
大器 増本
茂美 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009080904A priority Critical patent/JP5343658B2/ja
Publication of JP2010233143A publication Critical patent/JP2010233143A/ja
Application granted granted Critical
Publication of JP5343658B2 publication Critical patent/JP5343658B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Television Signal Processing For Recording (AREA)

Description

本発明は、コンテンツ検索が可能な録画再生装置、及びコンテンツ検索プログラムに関する。
記録媒体等に記録したデータのうち、例えば動画像や静止画像等のデータにメタデータを付しておき、検索時にメタデータを検索クエリとして利用する方法が従来から用いられている。
例えば、検索用のメタデータとして、録画データの登場人物等を特定し、特定した情報を検索対象となるデータと対応付けて記憶させておく技術が提供されている(例えば、特許文献1)。また、カメラが取得した情報に、キーボード等から入力された人名等の情報を検索用の情報として記録する技術についても提供されている(例えば、特許文献2)。
コンテンツを録画/再生する録画再生装置においては、例えば番組名、テレビ放送であれば放送日時やチャンネル等のコンテンツを特定するための各種情報をメタデータとしてコンテンツデータと対応付けて記録しておく。録画したコンテンツの中から所望のコンテンツを得るために、メタデータを条件に指定して、検索を行う。
図17は、従来におけるコンテンツ検索方法を説明する図である。視聴者が視聴したコンテンツについては、視聴履歴としてデータベースに記録しておく。このとき、視聴したコンテンツと対応付けて、コンテンツに付されたメタデータについても記録しておく。視聴者(ユーザ)は、コンテンツに付されたメタデータを利用して、検索条件にコンテンツのジャンルや放送日時、番組の内容等を指定することにより、コンテンツ検索を行う。
特開2008−160408号公報 特許第2943265号公報 特開2000−171886号公報
録画しておいたコンテンツについて検索を行うときには、コンテンツを録画・視聴してから時間が経過している場合もしばしば見られる。例えば、ユーザが、以前視聴したコンテンツ中のあるコーナーを後日再度視聴し、コーナーの内容を確認するために、検索を行う場合がある。視聴から時間が経過しており、ユーザがコンテンツの詳細については記憶していない場合、検索のために入力するキーワード自体を思いつかないこともあり得る。
そこで、特定の人が視聴したコンテンツを検索できることが望ましい。
開示の録画再生装置は、コンテンツの視聴者に係わる情報をコンテンツ検索に利用可能とする技術を提供することを目的とする。
開示の録画再生装置によれば、コンテンツの録画/再生の指示を受け付けると、該コンテンツの録画/再生中に視聴中の視聴者を特定する視聴者特定情報の取得を行うデータ取得部と、前記データ取得部が取得した前記視聴者特定情報と、録画再生部が録画/再生しているコンテンツの録画再生シーンとを関連付けて視聴者データベースに記録するインデキシング部と、前記視聴者特定情報を受け付け、前記視聴者データベースを参照して、前記受け付けた前記視聴者特定情報と関連付けられたコンテンツの録画再生シーンを抽出し、該抽出したコンテンツの録画再生シーンを出力する検索処理部と、を備える。
コンテンツの録画再生シーンとともに、コンテンツの録画再生中に取得した視聴者を特定する情報を関連付けて記録しておく。ユーザがコンテンツの検索を行う際には、視聴者特定情報についても検索条件として使用することが可能となる。
開示の録画再生装置によれば、コンテンツの視聴者に係わる情報を利用してコンテンツの検索を行うことが可能となる。
動画検索装置の原理図である。 実施形態に係る録画再生装置の構成図である。 データ取得部におけるデータを取得する処理を示したフローチャートである。 動画視聴検知部において視聴履歴データを取得する処理を示したフローチャートである。 ライフログ取得部においてライフログ情報を取得する処理を示したフローチャートである。 インデキシング部においてデータの結合を行う処理を示したフローチャートである。 個人識別抽出部において個人識別情報を抽出する処理を示したフローチャートである。 データ結合部において視聴履歴情報とライフログ情報とを結合する処理を示したフローチャートである。 視聴履歴データセットの例である。 ライフログ情報データセットの例である。 個人識別データセットの例である。 データセット間のリレーション設計を説明する図である。 検索処理部におけるコンテンツの検索処理を示したフローチャートである。 表示部によるコンテンツの検索結果の出力表示例である。 情報処理装置の構成図である。 記録媒体を示す図である。 従来におけるコンテンツ検索方法を説明する図である。
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
図1は、動画検索装置の原理図である。図1に示す動画検索装置100は、撮影装置101、動画再生装置102、及び表示装置104と接続され、個人端末103(図1においては103A及び103B)と通信を行い、個人端末103からデータを受信する。
動画再生装置102は、コンテンツを再生する機能を備え、コンテンツ及びコンテンツに付されたメタデータ(動画情報)を保有している。
撮影装置101は、動画再生装置102において再生中のコンテンツを視聴するユーザ(視聴者)についての撮影を行う。
個人端末103は、ユーザが保有する端末装置であり、ユーザが入力したライフログ情報等を保有する。
表示装置104は、ユーザからのコンテンツの検索条件に対して得られた検索結果等を表示する。
図1に示すとおり、本実施形態に係る動画検索装置100は、データ取得部2、インデキシング部3及び検索処理部4を有する。
データ取得部2は、視聴検知部10及びライフログ取得部20を含み、動画再生装置102から、録画/再生するコンテンツに係わるメタデータ等の情報を取得する。これとともに、データ取得部2は、動画検索装置100のユーザすなわちコンテンツの視聴者の個人端末103から、視聴者に係わるライフログ情報等の情報を取得し、コンテンツ視聴中の視聴者の画像を撮影装置101から取得する。視聴検知部10及びライフログ取得部20の具体的な動作については後述する。
インデキシング部3は、個人情報抽出部30及びデータ結合部40を含み、データ取得部2において取得した情報、すなわち、録画/再生するコンテンツに係わる情報と、コンテンツの視聴者に係わる情報との対応付けを行う。そして、インデキシング部3は、検索キーワードを入力した視聴者に応じてコンテンツ検索を行うためのデータセットを作成する。個人情報抽出部30及びデータ結合部40の動作の詳細についても、後述することとする。
検索処理部4は、検索クエリ照合部50及び結果表示部60を含み、インデキシング部3において対応付けした情報を用いて、ユーザ(視聴者)の個人端末103を介してキーワード等の検索クエリが入力されると、コンテンツの検索を実行する。実行結果については、表示装置104に出力する。検索クエリ照合部50及び結果表示部60の動作の詳細についても、後述する。
本実施形態に係る動画検索装置100は、コンテンツ検索時に利用する各種の情報を保有する。コンテンツ検索に利用する情報としては、例えば番組名や日時等のような、コンテンツと対応付けられたメタデータだけでなく、コンテンツを視聴したユーザ(すなわちコンテンツの視聴者)を特定する情報も含まれる。視聴者を特定する情報については、録画再生装置1において、撮影装置101や個人端末103から取得した情報に基づき、視聴したコンテンツに係わる情報と対応付けを行っておく。
コンテンツを視聴中のユーザが存在する場合には、コンテンツに係わるメタデータ等の情報に加えて、コンテンツを視聴したユーザの画像やユーザに係わるライフログ情報等の情報を記録しておく。ユーザは、本実施形態に係る録画再生装置1を利用して、メタデータ等だけでなく、ユーザのライフログ情報等をも用いて視聴したコンテンツの検索を行うことができる。
図1に示す各装置のうち、動画検索装置100、動画再生装置102及び表示装置104については、地上デジタル放送視聴機能等を備え、インターネットに接続可能なパーソナルコンピュータ(PC)等で構成させることができる。撮影装置101としては、カメラ機能を内蔵したコンピュータを利用することができる。特に、リビングPCを用いる場合には、リビングPCを大型のディスプレイに接続することで、複数の視聴者があるテレビ番組等のコンテンツを視聴することが可能となる。
視聴者が保有する個人端末104としては、例えば、カメラ、PC及び携帯電話等を利用することができる。視聴者は、個人端末104を介して検索条件の入力操作や、ライフログ情報等の入力操作を行う必要がある。例えば携帯電話を視聴者の個人端末104として採用することにより、これらの入力操作が比較的容易で、簡便に持ち運びできると考えられる。
以下においては、図1に示す動画検索装置100の機能を備えた録画再生装置を例に、ユーザが保有する携帯電話からライフログを取得して、ライフログをコンテンツ検索に供する方法について説明する。
図2は、本実施形態に係る録画再生装置1の構成図である。本実施形態に係る録画再生装置1は、図1を参照して説明したとおり、データ取得部2、インデキシング部3及び検索処理部4を含む。
図2に示す録画再生装置1は、図1の動画再生装置102が、動画検索装置100の機能を備えた構成である。録画再生装置1は、テレビ102において受信したテレビ放送等のコンテンツを録画/再生する機能を備えるとともに、録画/再生したコンテンツの検索機能を備える。また、図2に示す構成では、録画再生装置1は、テレビ102と接続されており、テレビ102において受信したテレビ放送等のコンテンツを録画/再生し、テレビ102のディスプレイ104に出力する。
図2に示すように、実施例では、視聴者が保有する個人端末103の例として、携帯端末を用いる。
図1と同様に、図2においても、複数のテレビ102や携帯端末103が記載されているが、これは、本実施形態に係る録画再生装置1の各部との関係を明確に示すためである。
録画再生装置1は、テレビ102と接続され、テレビ102を介してユーザの携帯端末103と通信を行って取得した情報をテレビ102から受信する。テレビ102は、カメラ101、テレビ受信部105、計時部106及び通信部109を含む。携帯端末103は、通信部107及びメモリ108を含む。なお、カメラ101は、図1の撮影装置11に対応するため、同じ符号を付す。
カメラ101は、録画/再生中のコンテンツを視聴している視聴者についての画像を取得する。テレビ受信部105は、テレビ放送等を受信する。計時部106は、計時機能を有し、時刻等の情報を取得する。通信部109は、検知した携帯端末103との間で例えば赤外線通信を行い、携帯端末103から取得した情報を録画再生装置1に渡す。
なお、テレビ102による携帯端末103の検知及び携帯端末103との通信に関しては、ユーザがコンテンツを視聴中は、テレビ102のディスプレイ103の前におり、携帯端末103はテレビ102の近くにあるとの前提に基づく。このような前提により、実施例では、携帯端末103の検出については、録画再生装置1ではなく、テレビ102が行う。録画再生装置1は、テレビ102から通知された検出結果に基づき、付近に携帯端末103が存在するか否かを判定し、携帯端末103が存在する場合には、携帯端末103から、テレビ102経由で必要な情報を受信する。
携帯端末103は、通信部107及びメモリ108を含む。通信部107は、テレビ102の通信部109との間で例えば赤外線通信を行い、携帯端末103において保有するライフログ情報等を、テレビ102を介して録画再生装置1に送信する。メモリ108には、携帯端末103を識別する情報や、ライフログ情報等を格納する。
なお、図2においては、各装置の構成は、本実施形態に係る録画再生装置1におけるコンテンツの検索方法に係わる構成のみを示している。
録画再生装置1のうち、データ取得部2の視聴検知部10は、視聴者画像取得部11、番組情報取得部12、カット画像取得部13、タイムスタンプ取得部14、視聴履歴記録部15及び視聴履歴データベース16を含む。視聴検知部20は、コンテンツの録画/再生中にコンテンツを視聴しているユーザを検知した場合には、コンテンツに紐付けされたメタデータ等の情報を取得する。
データ取得部2のライフログ取得部20は、端末識別情報取得部21、ライフログ情報取得部22、ライフログ記録部23及びライフログデータベース24を含む。ライフログ取得部20は、視聴検知部10において、録画/再生中のコンテンツを視聴しているユーザを検知した場合には、ユーザの保有する携帯端末103から、携帯端末103を識別する識別情報や、ライフログ情報等の携帯端末103に保存されている情報を取得する。
インデキシング部3の個人情報抽出部30は、顔画像取得・記録部31、端末識別情報取得・記録部33及び個人識別データベース32を含む。個人情報抽出部30は、データ取得部2において取得した情報のうち、コンテンツの視聴者が保有する携帯端末103を識別する端末識別情報と、視聴者がコンテンツの視聴中にカメラ101で撮影して取得した画像のうち、視聴者の顔部分の画像とを抽出する。以下においては、カメラ101から取得した画像から抽出した顔部分の画像を、「顔画像」とする。個人情報抽出部30は、抽出した情報を互いに対応付けて、視聴者を特定する情報として記録する。端末識別情報は、携帯端末103が保有している情報であって、携帯端末103を一意に識別可能であれば、任意の情報を用いることができるが、例えば、電話番号等を利用することも可能である。
インデキシング部3のデータ結合部40は、顔画像照合部41、端末識別情報照合部42、視聴者データ記録部43及び視聴者データベース44を含む。データ結合部40は、個人情報抽出部30において抽出し、記録した視聴者を特定する情報を利用して、視聴者が視聴したコンテンツに紐付けされたメタデータ等の情報と、視聴者の携帯端末103から取得したライフログ情報等の情報とを対応付け、結合させる。
検索処理部4の検索クエリ照合部50は、例えばユーザの携帯端末103から検索条件を受信すると、受信した検索条件に対応するコンテンツを検索する。具体的には、検索クエリ照合部50は、インデキシング部3のデータ結合部40において結合した情報の中から、検索条件と一致する情報を検索し、対応するコンテンツを抽出する。
結果表示部60は、検索クエリ照合部50における抽出結果を、テレビ102のディスプレイ104に表示させる。
上記のとおり、本実施形態に係る録画再生装置1によれば、データ取得部2において取得した視聴履歴とライフログ情報とを、インデキシング部3において結合させる。結合により得られたデータセットは、視聴者のライフログ情報等の視聴者の活動記録が、視聴者の視聴したコンテンツと対応付けられている。このため、視聴者がコンテンツ検索をする際には、コンテンツのメタデータだけでなく、ライフログ情報等の自身の活動記録をも利用することが可能となる。
上記のとおり、録画再生装置1のデータ取得部2において、コンテンツに係わる情報だけでなく、ライフログ情報等の視聴者に係わる情報についても取得する。そして、インデキシング部3において、取得した情報に基づき、個々の視聴者を判別して、視聴者が視聴したコンテンツに係わる情報と、視聴者のライフログ情報等とを対応付ける。以下に、データ取得部2におけるデータの取得方法及びインデキシング部3における検索用のデータセットの生成方法について、図2を参照してより詳細に説明する。
データ取得部2の動画視聴検知部10においては、視聴者画像取得部11は、コンテンツの録画/再生中に、コンテンツを視聴しているユーザ(視聴者)が存在する場合には、ユーザの画像を取得する。番組情報取得部12は、コンテンツの録画/再生中に、コンテンツの視聴者が存在する場合には、録画/再生中のコンテンツに紐付けされているメタデータを取得する。コンテンツの例としては、例えばテレビ番組が挙げられ、番組(コンテンツデータ)に付されたメタデータには、チャンネル、番組名、ジャンル、放送日時、出演者や字幕等の放送内容に係わる情報が含まれる。カット画像取得部13は、コンテンツをカット単位に分割して得られるカット画像を取得する。タイムスタンプ取得部14は、視聴者画像やカット画像の取得タイミングと合わせて、タイムスタンプを取得する。
視聴履歴データベース15は、視聴者の視聴履歴、すなわち、視聴者が視聴したコンテンツに係わる情報を視聴履歴データベース16に記録する。視聴履歴記録部15は、視聴者画像取得部11、番組情報取得部12、カット画像取得部13及びタイムスタンプ取得部14において取得した情報を、カット画像ごとにそれぞれ対応付け、視聴履歴として視聴履歴データベース15に記録する。
端末識別情報取得部21は、コンテンツの録画/再生中に、視聴者が保有する携帯端末103を識別する端末識別情報を、携帯端末103から取得する。ライフログ情報取得部22は、端末識別情報を取得できた携帯端末103のメモリ108からライフログ情報を取得する。
ライフログデータベース24は、視聴者の携帯端末103から取得した端末識別情報やライフログ情報を格納する。ライフログ記録部23は、取得したライフログ情報を端末識別情報と対応付け、タイムスタンプを付してライフログデータベース24に記録する。
個人識別データベース32は、各視聴者を識別するための情報を格納する。実施例では、上記のとおり、動画視聴検知部10の視聴者画像取得部11において取得した視聴者画像のうち視聴者の顔画像と、ライフログ取得部20の端末識別情報取得部21において取得した端末識別情報とを対応付けて、個々の視聴者を特定する情報として利用する。顔画像取得・記録部31は、視聴履歴データベース16に格納されている情報の中から、視聴者画像の顔画像を取り出して個人識別データベース32に記録する。端末識別情報取得・記録部33は、ライフログデータベース24に格納されている情報の中から、携帯端末103を識別する端末識別情報を取り出して、個人識別データベース32に記録する。視聴者の顔画像と端末識別情報とを対応付ける方法については、後述する。
顔画像照合部41は、視聴履歴中の視聴者画像中に、視聴者として特定できる人物が含まれるかを、個人識別データベース32に格納されている顔画像を利用して照合する。そして、顔部分が互いに一致する場合には、個人識別データベース32から取り出したデータセットと、視聴履歴データベース16から取り出したデータセットとを結合させる。
端末識別情報照合部42は、顔画像照合部41において視聴履歴データベース16から取り出した視聴履歴データセットと結合を行った個人識別データセットについて、ライフログデータベース24から取り出したデータセットとの間で端末識別情報を照合する。端末識別情報が互いに一致する場合には、ライフログ情報データセットと、個人識別データセットとを結合させる。
視聴者データベース44は、視聴履歴データベース16から取り出した視聴履歴データセットと、これに対応するライフログデータベース24から取り出したライフログ情報データセットとを結合させて得られる視聴者データセットを格納する。
視聴者データ記録部43は、顔画像照合部41において個人識別データセットの顔画像と結合させた視聴履歴データセットと、端末識別情報照合部42において個人識別データセットの端末識別情報と結合させたライフログ情報データセットとを結合させ、視聴者データセットを生成し、視聴者データベース44に記録する。
このように、コンテンツに係わる情報だけでなく、視聴者のライフログ等についてもコンテンツ検索に利用可能とすることで、視聴者は、自己の活動等と照らし合わせてコンテンツ検索ができる。また、録画再生装置1において、視聴者を認識し、視聴者が視聴したコンテンツを判断して、ライフログ情報等との関連付けを行う。このため、視聴者自身は、自己のライフログ情報と視聴したコンテンツとの対応付けのための操作をする必要がない。
上記のとおり、図2に示す録画再生装置1は、テレビ102のテレビ受信部105において受信したテレビ放送等のコンテンツをテレビ102から取得するときに、カメラ101で撮影した視聴者の画像や計時部106で取得したタイムスタンプを併せて取得する。また、コンテンツの録画・再生中に、視聴者の保有する携帯端末103を認識できた場合には、携帯端末103からライフログ情報等の情報を取得する。
データ取得部2において取得した情報のうち、視聴者の顔画像と端末識別情報とについては、互いに関連付けて個人情報データベース32に格納している。本実施形態に係る録画再生装置1は、個人データベース32に格納されている情報を用いて、視聴履歴データベース16に格納されているコンテンツに係わる情報の中から、視聴者画像と個人情報データベース32に格納されている顔画像とを比較する。視聴者画像の中に、個人情報データベース32上の顔画像と一致する顔部分が含まれる場合には、顔画像が示す視聴者が、視聴者画像と対応付けられたコンテンツの視聴者であると判断する。そして、個人識別情報の顔画像に対応するコンテンツに係わる情報と、顔画像と関連付けられた端末識別情報に対応する視聴者のライフログ情報等の視聴者に係わる情報とを結合させる。
以下の説明においては、視聴履歴と視聴者のライフログ等とを結合して得られた、視聴者ごとに用意されたコンテンツ検索に利用可能なデータを、「視聴者データ」とする。
次に、上記の実施形態に係る録画再生装置1における視聴者データを生成し、コンテンツ検索を行う方法について、フローチャートを参照して具体的に説明する。
図3は、データ取得部2における視聴者データの生成に必要なデータを取得する処理を示したフローチャートである。
まず、ステップS1で、動画視聴検知部10は、コンテンツを視聴する視聴者の存在を検知すると、視聴履歴データセットに格納する各種情報をテレビ102から取得する。コンテンツを視聴する視聴者を検知する方法については、図4を参照して詳述する。
ステップS2で、動画視聴検知部10は、ステップS1で取得した各種の情報に基づき、視聴履歴データセットを作成し、ステップS3で、動画視聴検知部10は、作成した視聴履歴データセットを視聴履歴データベース16に記録すると、ステップS4に進む。
ステップS4で、ライフログ取得部10が、テレビ102と携帯端末103との間で通信が可能か否かを示す情報をテレビ102から受信して、テレビ102の周辺に携帯端末103が存在するか否かを判定する。テレビ102において携帯端末103を検知できない場合には、録画再生装置1が再生するコンテンツを視聴するユーザが携帯端末103を保有しておらず、ライフログ情報等の取得ができないと判断し、ステップS8に進む。
ステップS4において、携帯端末103がテレビ102の周辺に存在すると判断した場合には、ステップS5に進み、ライフログ取得部20は、携帯端末103と通信を行って、携帯端末103からライフログ情報等を取得する。そして、ステップS6で、ライフログ情報データセットを作成し、ステップS7で、ライフログ取得部20は、作成したライフログ情報データセットをライフログデータベース24に記録し、ステップS8に進む。
ステップS8で、視聴検知部10は、コンテンツの視聴が終了したか否かを判定する。コンテンツ視聴が終了したか否かの判定は、例えば、録画再生装置1やテレビ102の電源状態に基づき行う。録画再生装置1やテレビ102の電源がオン状態である場合には、ステップS1に戻り、上記の処理を繰り返す。録画再生装置1やテレビ102の電源がオフ状態となっている場合には、処理を終了する。
なお、図2の説明においても述べたとおり、上記のステップS4の携帯端末103の検知に関しては、ユーザがコンテンツを視聴中は、テレビ102のディスプレイ103の前におり、携帯端末103はテレビ102の近くにあるとの前提に基づく。
図4は、データ取得部2の動画視聴検知部10において視聴履歴データを取得する処理を示したフローチャートである。図4に示す処理は、図3のステップS1の視聴履歴データセットを取得する処理に相当する。録画再生装置1のデータ取得部2のうち、動画視聴検知部10が、コンテンツの録画/再生を開始したことを契機として、図4に示す処理を開始する。また、図4においては、録画再生装置1は、各種コンテンツのうち、テレビ102において受信するテレビ番組を録画/再生する場合を示す。
まず、ステップS11で、番組情報取得部12は、録画/再生中の番組のチャンネル情報を取得し、ステップS12で、視聴者画像取得部11は、視聴者の画像を取得する。
ステップS13で、視聴履歴記録部15は、ステップS12において取得した視聴者画像の中から、顔部に相当する領域を検索して、顔部分を検出する。顔検索技術については、公知の技術であるので、詳細な説明は省略する。
ステップS14で、視聴履歴記録部15は、取得した情報と検出結果から、視聴者のコンテンツ視聴時間及び視聴人数の条件を満たすか否かの判定に基づき、視聴者がコンテンツを視聴しているか否かを判定する。具体的には、録画/再生中のコンテンツの視聴時間が5秒以上であり、且つ検出できた顔部の画像数が1以上すなわち1人以上の視聴者を検出できた場合には、少なくとも1人の視聴者が、ステップS11で取得したチャンネルのテレビ番組を視聴中であると判断する。視聴時間が5秒未満の場合は、ザッピング(テレビ102のリモコンを回す行為)であると判断する。顔部の画像が検出されなかった場合、すなわち視聴者の人数が0人であった場合には、コンテンツの視聴者なしと判断する。
ステップS14において、コンテンツの視聴者が存在すると判定された場合には、ステップS15に進み、視聴履歴記録部15は、ステップS12において視聴者画像取得部11が取得した視聴者画像と、視聴者の人数とをメモリに記録する。なお、視聴者の人数については、公知の画像分析技術を利用して、認識した顔部の数に基づき求める。
ステップS16で、番組情報取得部12が、視聴者が視聴中のコンテンツ(録画再生装置1が録画/再生中のコンテンツ)についてのメタデータ等をテレビ102から取得し、メモリに記録する。ステップS17で、カット画像取得部13が、コンテンツのフレーム画像をテレビ102から取得し、ステップS18で、カット画像取得部13は、カット画像取得部13が取得したコンテンツのフレーム画像に基づき、カットフレームの判定を行う。カットフレームの判定方法については、公知の技術であるが、ここでは、前フレーム画像とステップS17で取得した現フレーム画像とを比較して、色ヒストグラムの変化量が所定のしきい値以上である場合に、現フレーム画像を、カット画像と判定する。
ステップS18において、現フレーム画像はカットフレームでないと判定した場合には、ステップS17に戻り、カット画像取得部13は、次のフレーム画像を取得して、同様にカットフレーム判定を行う。ステップS18において、現フレーム画像はカットフレームであると判定した場合には、ステップS19に進み、視聴履歴記録部15は、ステップS17において取得したフレーム画像を、番組のカット画像として、メモリに記録し、ステップS20に進む。
ステップS20で、タイムスタンプ取得部14は、視聴履歴データセットに格納したカット画像に対応する時刻情報を、テレビ102の計時部106から取得して、取得したタイムスタンプをメモリに記録する。そして、メモリに記録されている情報を視聴履歴データセットとして返し、図4の視聴履歴データの取得処理を終了する。
(A)は、視聴履歴データセットの模式図である。図4に示す処理により作成される視聴履歴データセットは、あるコンテンツのメタデータ(番組情報)に対して、シーンごとのカット画像が複数対応付けられ、カット画像ごとに、視聴者画像及び視聴者人数、タイムスタンプが対応付けられている。あるコンテンツから得られた複数のカット画像に対応するメタデータ(番組情報)としては、共通するメタデータが対応付けられることとなる。
図5は、データ取得部2のライフログ取得部20においてライフログ情報を取得する処理を示したフローチャートである。図5に示す処理は、図3のステップS5のライフログ情報データセットを取得する処理に相当する。上記のとおり、図3のステップS4において、録画再生装置1において録画/再生するコンテンツを表示するテレビ102付近に携帯端末103が存在すると判定した場合に、録画再生装置1のデータ取得部2のうち、ライフログ取得部20が、図5に示す処理を実行する。
まず、ステップS31で、端末識別情報取得部21は、携帯端末103から端末識別情報を取得し、ステップS32で、端末識別情報取得部21は、タイムスタンプを取得し、メモリに記録する。ステップS33で、端末識別情報取得部21は、取得した端末識別情報とタイムスタンプとを対応付けて、メモリに記録する。端末識別情報と対応付けを行うタイムスタンプについては、図4のステップS20において取得したタイムスタンプと同じ情報を利用する。これは、インデキシング部3において視聴履歴とライフログとの対応付けを行うときに、タイムスタンプを利用して図3のフローのうち同一のカット画像に対応することを判断するためである。詳しくは、インデキシング部3によるインデキシング処理の説明において述べることとする。
ステップS34で、ライフログ情報取得部22は、携帯端末103からライフログ情報を取得し、更に、ステップS35で、ライフログ情報取得部22は、ライフログの日時情報を取得して、メモリに記録し、ステップS36に進む。
ステップS36で、ライフログ記録部23は、ステップS34において取得したライフログ情報と、既にライフログデータベース24に格納されているライフログ情報との差分の有無を判定する。新たに取得したライフログ情報と既にライフログデータベース24に記録されているライフログ情報との間に差分がある場合には、ステップS37で、ライフログ記録部23は、新たに取得したライフログ情報をメモリに記録する。そして、メモリに記録されている情報をライフログ情報データセットとして返しライフログ情報の取得処理を終了する。既にライフログデータベース24に記録されているライフログ情報と差分がない場合には、特に処理を行わずに、処理を終了する。
(B)は、ライフログ情報データセットの模式図である。図5に示す処理により作成されるライフログ情報データセットは、シーンごとすなわちカット画像ごとに端末識別情報及びタイムスタンプを取得する。ライフログ情報については、端末識別情報(及びタイムスタンプ)を1回取得するごとに、前回との差分分のライフログ情報とその日時とを全て取得するため、あるカット画像に対して取得した端末識別情報に対し、ライフログ情報が複数対応付けられる場合もある。
上記のとおり、本実施形態に係る録画再生装置1のデータ取得部2によれば、コンテンツのシーンの先頭のフレーム(カットフレーム)ごとに、視聴履歴データセットが作成され、視聴履歴データベース16に順次記録されてゆく。また、録画再生装置1と接続されているテレビ102が携帯端末103と通信可能である場合には、携帯端末103からライフログを取得し、ライフログデータベース24には、ライフログ情報データセットとして記録する。このように、コンテンツ検索に必要な情報として、メタデータ等の番組情報だけでなく、ユーザのライフログについても取得しておく。
データ取得部2において取得した視聴履歴及びライフログについては、インデキシング部3において、ユーザごとに、視聴したコンテンツの視聴履歴とライフログとを対応付ける。次に、インデキシング部3において、視聴履歴とライフログとを対応付ける処理について説明する。
図6は、インデキシング部3において、視聴履歴データセットと、対応するライフログ情報データセットとを結合させる処理を示したフローチャートである。
まず、ステップS41で、個人識別情報抽出部30は、個人識別情報の抽出を行う。ステップS41においては、個人識別情報抽出部30は、視聴履歴データベース16に格納されている視聴者画像のうち、未インデキシングの視聴者画像を対象に、対応するライフログデータベース24に格納されている端末識別情報を判断して、視聴者を特定する情報として対応付けを行う。未インデキシングの視聴者画像の全てについて、個人識別情報の抽出処理を実行すると、ステップS42に進む。
ステップS42で、個人識別情報抽出部30は、ステップS41において抽出した個人識別情報から、個人識別データセットを作成し、ステップS43で、個人識別情報抽出部30は、インデキシング部3の個人識別データベース32に個人識別情報を記録し、ステップS44に進む。
ステップS44で、データ結合部40は、個人識別情報に基づき、視聴履歴情報と、ライフログ情報との結合を行う。ステップS44においては、視聴履歴データベース16に格納されている未インデキシングのタイムスタンプを対象に、視聴履歴情報とライフログ情報とで、タイムスタンプが一致するものについて結合させる。未インデキシングのタイムスタンプの全てについて、データ結合処理を実行すると、ステップS45に進む。
ステップS45で、データ結合部40は、ステップS44において結合させた視聴履歴情報とライフログ情報とから、視聴者データセットを作成する。そして、ステップS46で、作成した視聴者データセットをインデキシング部3の視聴者データベース44に記録し、処理を終了する。
図7は、インデキシング部3の個人識別抽出部30において個人識別情報を抽出する処理を示したフローチャートである。図7に示す処理は、図6のステップS41の処理に相当する。
まず、ステップS51で、顔画像取得・記録部31は、視聴履歴データベース16から、未インデキシングの視聴者画像及び対応する視聴者人数を取得し、ステップS52で、顔画像取得・記録部31は、視聴者人数が1人であるか否かを判定する。視聴者人数が1人でない場合は、ステップS51において取得した視聴者画像中には複数の視聴者が含まれており、個人識別情報を抽出することができないと判断し、処理を終了する。
ステップS52において、視聴者人数が1人である場合には、ステップS53に進み、端末識別情報取得・記録部33は、ステップS51において取得した視聴者画像に対応する端末識別情報がライフログデータベース24に存在するか否かを判定する。具体的には、タイムスタンプが視聴履歴データセットのタイムスタンプと一致するライフログ情報データセットのうち、ライフログ情報データセット中に1つの端末識別情報が格納されているデータセットが、ライフログデータベース24に存在するか否かを判定する。
ステップS53において、上記の条件を満たす端末識別情報がライフログデータベース24には存在しないと判定した場合には、個人識別情報の抽出処理を終了する。
ステップS53において、上記の条件を満たす端末識別情報がライフログデータベース24に存在する場合には、ステップS54に進み、端末識別情報取得・記録部33は、上記の条件を満たす端末識別情報をライフログデータベース24から取得し、ステップS55に進む。
ステップS55で、顔画像取得・記録部31は、ステップS51において取得した視聴者画像から、顔部の画像領域を取り出す。そして、ステップS56で、端末識別情報取得・記録部33は、ステップS54において取得した端末識別情報を個人識別データセットに格納する。最後に、ステップS57で、顔画像取得・記録部31は、ステップS55において取得した顔画像を個人識別データセットに格納し、個人識別情報の抽出処理を終了する。
図8は、データ結合部40における視聴履歴情報とライフログ情報とを結合する処理を示したフローチャートである。図8に示す処理は、図6のステップS44の処理に相当する。
まず、ステップS61で、顔画像照合部41は、視聴履歴データベース16から未インデキシングの視聴履歴データセットを取得し、ステップS62で、端末識別情報照合部42は、ライフログデータベース24から未インデキシングのライフログ情報データセットを取得する。
ステップS63で、顔画像照合部41は、個人識別データベース32から個人識別データセットを取得して、ステップS64で、顔部の画像の照合を行う。顔部の画像の照合は、ステップS61で取得した視聴履歴データセットに含まれる視聴者画像中に、取得した個人識別データセットに含まれる顔画像と一致する領域が存在するか否かに基づき行う。
ステップS65で、顔画像照合部41は、ステップS64の顔部の画像を照合した結果、視聴者画像中に個人識別データセットに含まれる顔画像に対応する領域が存在する場合には、個人識別データセットと視聴履歴データセットとを結合させる(結合(1))。ある視聴履歴データセットに含まれる視聴者画像が、複数の顔部の画像を含むものであり、それぞれの顔部の画像につき対応する個人識別データセット(の顔部の画像)がある場合には、それぞれの個人識別データセットと結合させる。
ステップS66で、端末識別情報照合部42は、ステップS65で視聴履歴データセットと結合させた個人識別データセットに含まれる端末識別情報と、ステップS62で取得したライフログ情報データセットに含まれる端末識別情報との照合を行う。ステップS67で、ステップS65で結合させたデータセットに、端末識別情報が一致するライフログ情報データセットを更に結合させる(結合(2))。
ステップS68で、視聴者データ記録部43は、視聴履歴データセット中の視聴者人数を参照し、視聴者人数が複数であるか否かを判定する。視聴者人数が複数の場合には、ステップS69に進み、視聴者データ記録部43は、ステップS67で結合して得られたデータセットを、視聴者ごとに分割し、ステップS70に進む。視聴者人数が1人の場合は、特に処理を行わずに、ステップS70に進む。
ここで、ステップS69のデータセットを分割する処理については、視聴履歴データセットの視聴者画像に複数の視聴者の顔部領域が存在する場合には、ステップS65において、各顔画像に対応する個人識別データセットを結合させているためである。
最後に、ステップS70で、視聴者データ記録部43は、得られた視聴者データセットを、視聴者データベース44に記録し、データ結合処理を終了する。
上記のとおり、本実施形態に係る録画再生装置1のインデキシング部3によれば、まず、視聴履歴の視聴者画像のうち、視聴者が1人である画像を、個人を識別できる画像と判断し、視聴者画像から顔画像を抽出する。そして、データ取得部2において、顔画像を抽出した視聴者画像のタイムスタンプを参照し、一致するタイムスタンプの付されているライフログ情報を取得する。タイムスタンプが視聴履歴のそれと一致するライフログ情報の中から、視聴者の携帯端末103を識別する端末識別情報を取り出して、顔画像と対応付けて個人識別情報として管理する。そして、個人識別情報中の顔画像に対応する顔画像が視聴者画像中に含まれる視聴履歴データセットと、顔画像と対応する端末識別情報と一致する端末識別情報が格納されているライフログ情報データセットとを結合させて、視聴者データセットを得る。
このように、録画再生装置1は、コンテンツを録画/再生している間(ユーザにとってはコンテンツの視聴中)に取得しておいた視聴者画像の顔部分の画像と、コンテンツの録画/再生中に視聴者の携帯端末103から取得した端末識別情報とを対応付けて、個人識別情報を作成する。個人識別情報の顔画像と一致する顔部分が視聴履歴中の視聴者画像に含まれるときは、個人識別情報の顔画像により識別されるユーザは、視聴者画像と関連付けられているシーンを視聴したと判断する。そして、視聴したと判断したシーンについての視聴履歴と、判断に利用した顔画像と対応する端末識別情報が示す携帯端末103から取得したライフログ情報とを対応付ける。視聴履歴に視聴者画像を含むことで、視聴履歴と、視聴者のライフログの関連付けが可能となる。
また、視聴履歴とライフログ情報とを利用して個人識別情報を作成し、作成した個人識別情報を利用して視聴履歴とライフログ情報との対応付けを行うことにより、例えば、あるコンテンツを視聴中にユーザが携帯端末103を保有していなければ、録画再生装置1は、視聴しているコンテンツについては視聴履歴を記録するが、ライフログについては記録することができない。このような場合であっても、後で他のコンテンツを視聴した際に携帯端末103を持っていた場合に、視聴履歴とともにライフログ情報を取得する。後で視聴したコンテンツについて、個人識別情報を作成できた場合には、先に視聴したコンテンツについての視聴履歴とライフログ情報とを対応付けることが可能となる。
すなわち、先に視聴したコンテンツについての視聴履歴中の視聴者画像から顔画像を取得して、個人識別情報中の顔画像と比較する。顔画像が一致した場合には、先に視聴したコンテンツについての視聴履歴が、どの個人識別情報(の端末識別情報)と対応するかを認識できる。このことを利用して、録画再生装置1は、端末識別情報により識別される携帯端末103(を保有するユーザ)ごとに、視聴したコンテンツについての視聴履歴を判断し、ライフログ情報との対応付けを行う。
ところで、視聴履歴データセット、ライフログ情報データセット、個人識別データセット及び視聴者データセットについては、例えば、リレーショナルデータベースで管理できるようにテーブル設計をし、各データセット間の関係を構築する。以下に、各データセットのテーブル設計及びデータセット間のリレーション関係について説明する。
図9〜図11は、本実施形態に係る録画再生装置1の視聴履歴データベース16、ライフログデータベース24及び個人識別データベース32にそれぞれ格納されるデータセットの例を示す図である。図9〜図11を参照して、視聴履歴データセット、ライフログ情報データセット及び個人識別データセットのデータ構造を説明する。
図9に示すように、視聴履歴データセットは、視聴履歴識別情報(図9においては「視聴履歴ID」)、番組情報、カット画像、視聴者画像、視聴者人数、タイムスタンプ及びインデキシング状態を含む。図9においては、番組情報の例としてチャンネルのみを示しているが、上記のとおり、番組情報としては、番組に付されたメタデータが格納されている。
インデキシング状態には、インデキシング部3においてライフログ情報との関連付けを行ったか否かを示す情報が格納される。例えば、個人識別情報抽出部30における個人識別情報の抽出処理が完了しているか否かを示す情報と、データ結合部40におけるデータ結合処理が完了しているか否かを示す情報の組が格納される。
図10に示すように、ライフログ情報データセットは、ライフログ情報識別情報(図10においては「ライフログ情報ID」)、タイムスタンプ、端末識別情報、ライフログ、ライフログ日時及びインデキシング状態を含む。
インデキシング状態は、インデキシング部3において、視聴履歴との関連付けを行ったか否かを示す情報が格納される。図9に示す視聴履歴データセットのインデキシング状態と同様に、例えば、個人識別情報抽出部30及びデータ結合部40のそれぞれについて処理が実行済みであるか否かを示す情報が格納される。
図10に示すライフログ情報データセットのうち、タイムスタンプには、ライフログ情報データセットを取得するときに、視聴履歴データセットの取得日時と対応させて設定した日時が格納されている。ライフログ日時については、携帯端末103から取得したライフログに付されたタイムスタンプが示す日時情報が格納されている。
図11に示すように、個人識別データセットは、端末識別情報及び顔画像を含む。上記のとおり、顔画像は、図10の視聴履歴データセットの視聴者画像から抽出した顔画像であり、視聴履歴データセットのタイムスタンプと一致するタイムスタンプのライフログ情報データセット中の端末識別情報が顔画像と対応付けられている。
上記のインデキシング部3のデータ結合方法によれば、図9に示す視聴履歴データセットのうち、視聴者人数が1人であって、一致するタイムスタンプがライフログ情報データセットに含まれる場合には、視聴者画像から取り出した顔画像と、端末識別情報とを対応付けて個人識別データセットに記録している。
図9〜図11に示す例では、視聴履歴識別情報「x1」のタイムスタンプ「2008年10月28日10時5分10秒」と一致するライフログ情報識別情報「y1」がライフログデータベース24に存在するので、視聴履歴識別情報「x1」視聴者画像から取得した顔画像と、ライフログ識別情報「y1」の端末識別情報とを対応付けて格納している。
図12は、データセット間のリレーション設計を説明する図である。
個人識別データセットを利用して、視聴履歴データセット及びライフログ情報データセットを結合して、視聴者データセットを作成する。
個人識別データセットの端末識別情報及び顔画像の組み合わせから特定される視聴者ごとに、視聴履歴データセット及びライフログ情報データセットにつきそれぞれ結合(1)及び結合(2)の処理を実行する。これにより、視聴者データセットは、視聴者ごとに用意されることとなる。
このようにして作成された視聴者データセットには、端末識別情報と視聴者が視聴したコンテンツのメタデータやカット画像が対応付けられており、これにより、視聴者が視聴したコンテンツの検索が可能となる。
また、視聴者のライフログについても視聴者データセットに含まれるため、本実施形態に係る録画再生装置1のユーザ、すなわちコンテンツの視聴者は、コンテンツ検索時には、ライフログを参照して、自身の活動と視聴したコンテンツとの関係を利用して、より容易に所望のコンテンツ検索を行うことが可能となる。
上記のとおり、本実施形態に係る録画再生装置1によれば、図2のデータ取得部2において取得したデータをインデキシング部3において結合することにより、視聴者ごとの聴者データセットを作成しておく。携帯端末103を保有するユーザによるコンテンツ検索要求があった場合には、作成した視聴者データセットを利用して、コンテンツの検索を行う。
図13は、検索処理部4におけるコンテンツの検索処理を示したフローチャートである。ユーザからのコンテンツの検索要求を録画再生装置1において受信したことを契機として、録画再生装置1の検索処理部4は、図13に示す処理を実行する。ここでは、本実施形態に係る録画再生装置1は、接続するテレビ102のディスプレイ103を介してユーザからの検索クエリの受け付けや、検索結果の出力を行うこととする。
まず、ステップS81で、端末識別情報取得部21は、テレビ102の通信部109を介して携帯端末103から端末識別情報を受信すると、ステップS82で、照合部50は、視聴者データベース44内を照合する。
なお、図13においては、ステップS81においてユーザの携帯端末103から受信した端末識別情報を利用して、ステップS82で、図12の内部結合(2)(図8のステップS67)と同様の方法により、視聴者データベース44内の端末識別情報に対するマッチング処理を実施する場合について示しているが、これには限らない。端末識別情報以外にも、例えば視聴者画像を、視聴者を特定するための情報(視聴者特定情報)として利用することができる。具体的には、ステップS81でユーザの顔部を含む画像を取得して、ステップS82において、図12の内部結合(1)(図8のステップS65)の顔照合と同様の方法により、視聴者データベース44内の視聴者画像に対するマッチング処理を実施する構成とすることもできる。
ステップS83で、照合部50は、対応する視聴者データセットを取得する。なお、図13においては記載を省略しているが、対応する視聴者データセットが視聴者データベース44内に存在しない場合には、コンテンツの検索処理を終了する。
ステップS84で、表示部60は、検索条件の入力画面を、例えばテレビ102のディスプレイ21等に表示させ、ステップS85で、照合部50は、ユーザが入力した検索クエリをステップS83で取得した視聴者データセットに対して照合する。ステップS86で、表示部60は、ステップS85における照合結果をテレビ102のディスプレイ104等に出力表示させる。
ステップS87で、テレビ102のディスプレイを介して、ユーザが検索処理を終了する旨の指示を入力したか否かを判定する。検索終了の指示を受け付けたと判定した場合には、コンテンツの検索処理を終了する。
ステップS87において、検索終了の指示を受け付けていないと判定した場合には、ステップS84に戻り、表示部60は、ステップS86の検索結果の表示画面から、検索条件の入力画面へと表示を切り替える。以降は、ユーザから検索終了の指示が入力されるまで、ステップS84以降の処理を繰り返す。
なお、上記のコンテンツの検索処理のうち、ステップS81においてユーザの携帯端末103から端末識別情報を取得する処理については、録画再生装置1が直接携帯端末103と通信を行う構成としてもよい。あるいは、テレビ102等が携帯端末103と通信を行い、録画再生装置1は、テレビ102において取得した端末識別情報をテレビ102から受信する構成としてもよい。
図14は、表示部60によるコンテンツの検索結果の出力表示例である。時間軸に沿って、ある視聴者が視聴したコンテンツについての視聴履歴データと、視聴者のライフログ情報との対応関係を図示している。
実施例では、時間軸に沿って、検索の結果得られたコンテンツのカット画像のサムネイル画像を表示させ、視聴者のライフログが存在する場合には、ライフログの内容等についても表示する。視聴履歴については、図9のタイムスタンプに基づき、時系列で表示する。ライフログについては、図10のライフログ日時に基づき、時系列で表示する。なお、図14中では、視聴履歴に表示するサムネイル画像は、チャンネルごとに列を変えて表示している。
また、実施例では、視聴履歴のうち、視聴者人数についても表示させている。ユーザは、画面に表示されたライフログ情報及び視聴履歴を参照して、自身の行動を参考に探しているコンテンツを得ることができる。例えば、旅行の後に誰と一緒に視聴したコンテンツであるか等の情報に基づき、所望のシーンを探し出すことがより容易にできるようになる。
図14に示した検索結果のサムネイル画像と、サムネイル画像に対応するコンテンツのシーンとにリンクを張っておき、ユーザがサムネイル画像を指定した場合には、対応するシーンを再生する構成とすることもできる。録画再生装置1がPC等に内蔵される場合には、指定されたシーンに関するウェブサイトへアクセスする構成とすることもできる。
以上説明したように、本実施形態に係る録画再生装置1によれば、コンテンツを視聴中のユーザが保有する携帯端末103を認識できる場合には、携帯端末103からライフログ情報を取得しておく。これとともに、コンテンツのシーンごと(カット画像)ごとにユーザの画像を視聴者画像として取得しておく。ライフログ情報及び視聴者画像に付されたタイムスタンプから、視聴者がコンテンツのどのシーンを視聴していたかを判断し、コンテンツのメタデータ等の視聴履歴と、視聴者のライフログとをシーンごとに関連付けて記録する。コンテンツ検索時においては、メタデータ等のコンテンツに係わる情報だけでなく、ライフログ等の視聴者の活動記録についても検索条件に利用することが可能となる。
なお、上記においては、テレビ番組等のコンテンツを検索する方法を例に説明したが、これには限らない。静止画像、文書データあるいは音楽データ等の各種データ検索にも適用が可能である。
例えば、文書データに適用する場合には、ユーザがある文書ファイルを開いているときに、カメラを内蔵するPCにおいてユーザの画像を閲覧者画像として取得し、文書ファイルに付されたメタデータとともに閲覧履歴としてタイムスタンプを付して記録しておく。これとともに、ユーザが文書ファイルを開いているときに、ユーザの携帯端末からライフログを取得して記録しておく。ライフログと閲覧履歴との関連付けは、閲覧者画像から抽出した顔画像と、携帯端末から取得した端末識別情報とから作成した個人識別情報を利用する。これにより、ユーザは、自身のライフログについても文書検索を行うことが可能となる。
ところで、図1に示す動画検索装置100や、図2に示す録画再生装置1は、例えば、図15に示すような情報処理装置(コンピュータ)を用いて構成することができる。図15の情報処理装置は、CPU(中央処理装置)1001、メモリ1002、入力装置1003、出力装置1004、外部記憶装置1005、媒体駆動装置1006、ネットワーク接続装置1007を備え、それらはバス1008により互いに接続されている。
メモリ1002は、例えば、ROM(read only memory)、RAM(random access memory)等を含み、処理に用いられるプログラムおよびデータを格納する。CPU1001は、メモリ1002を利用してプログラムを実行することにより、必要な処理を行う。
図2の視聴者画像取得部11、番組情報取得部12、カット画像取得部13、タイムスタンプ取得部14、視聴履歴記録部15、端末識別情報取得部21、ライフログ情報取得部22、ライフログ記録部23、顔画像取得・記録部31、端末識別情報取得・記録部33、顔画像照合部41、端末識別情報照合部42、視聴者データ記録部43、照合部50及び表示部60は、メモリ1002に格納されたプログラムを実行することにより実現される機能に対応する。
入力装置1003は、例えば、キーボード、ポインティングデバイス、タッチパネル等であり、視聴者等のユーザからの指示や情報の入力に用いられる。出力装置1004は、例えば、ディスプレイ等であり、ユーザに対して処理結果等を出力するために用いられる。
外部記憶装置1005は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。情報処理装置は、この外部記憶装置1005に、上記プログラムおよびデータを格納しておき、必要に応じて、それらをメモリ1002にロードして使用する。
媒体駆動装置1006は、可搬記録媒体1009を駆動し、その記録内容にアクセスする。可搬記録媒体1009は、メモリカード、フレキシブルディスク、CD−ROM(compact disk read only memory )、光ディスク、光磁気ディスク等の任意のコンピュータ読み取り可能な記録媒体である。オペレータは、この可搬記録媒体1009に上記プログラムおよびデータを格納しておき、必要に応じて、それらをメモリ1002にロードして使用する。
ネットワーク接続装置1007は、LAN(local area network)、インターネット等の任意の通信ネットワークに接続され、通信に伴うデータ変換を行う。情報処理装置は、必要に応じて、上記プログラムおよびデータを外部の装置からネットワーク接続装置1007を介して受け取り、それらをメモリ1002にロードして使用する。
図16は、図15の情報処理装置にプログラムおよびデータを供給することのできるコンピュータ読み取り可能な記録媒体を示している。可搬記録媒体1009やサーバ1101のデータベース1103に格納されたプログラムおよびデータは、情報処理装置1102のメモリ1002にロードされる。サーバ1101は、そのプログラムおよびデータを搬送する搬送信号を生成し、ネットワーク上の任意の伝送媒体を介して情報処理装置1102に送信する。CPU1001は、そのデータを用いてそのプログラムを実行し、必要な処理を行う。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
コンテンツの録画/再生の指示を受け付けると、該コンテンツの録画/再生中に視聴中の視聴者を特定する視聴者特定情報の取得を行うデータ取得部と、
前記データ取得部が取得した前記視聴者特定情報と、録画再生部が録画/再生しているコンテンツの録画再生シーンとを関連付けて視聴者データベースに記録するインデキシング部と、
前記視聴者特定情報を受け付け、前記視聴者データベースを参照して、前記受け付けた前記視聴者特定情報と関連付けられたコンテンツの録画再生シーンを抽出し、該抽出したコンテンツの録画再生シーンを出力する検索処理部と、
を備えることを特徴とする録画再生装置。
(付記2)
前記録画再生部において前記コンテンツの録画再生シーンを録画/再生しているときに、該コンテンツの録画再生シーンの視聴者を示す視聴者情報を取得し、該視聴者情報を、該視聴者についての該コンテンツの録画再生シーンの視聴履歴として、該コンテンツの録画再生シーンと関連付けを行う履歴取得部と、
を更に備え、
前記インデキシング部は、前記履歴取得部において取得した前記視聴者情報と、前記データ取得部において取得した前記視聴者特定情報とを利用して、前記視聴者が視聴した前記コンテンツの録画再生シーンと該視聴者特定情報との関連付けを行う
ことを特徴とする付記1記載の録画再生装置。
(付記3)
前記インデキシング部は、前記視聴者情報と、前記視聴者特定情報に含まれる前記視聴者の端末装置を識別する端末識別情報とを関連付けておき、該視聴者情報と該端末識別情報との関連付けに基づき、該視聴者情報を含む前記コンテンツの録画再生シーンについての視聴履歴と、該端末識別情報により識別される前記端末装置から受信した該視聴者の活動記録とを関連付けて記録する
ことを特徴とする付記2記載の録画再生装置。
(付記4)
前記検索処理部において、前記視聴者の活動記録に係わる情報を前記視聴者特定情報とともに受け付けた場合には、前記抽出部は、該視聴者の活動記録と関連付けられた前記コンテンツの録画再生シーンを抽出する
ことを特徴とする付記3記載の録画再生装置。
(付記5)
前記インデキシング部は、
前記視聴者情報に含まれる前記視聴者の画像から顔部を抽出して顔画像を取得し、該顔画像と該視聴者の端末装置を識別する端末識別情報とを関連付けて、個人を識別する個人識別情報として記録しておき、
前記視聴履歴中の前記視聴者情報に含まれる前記視聴者の画像に、複数の視聴者が含まれる場合には、該視聴者の画像の顔部分と前記個人識別情報の前記顔画像とが合致するか否かを判定し、該視聴者の画像の顔部分と該個人識別情報の該顔画像とが合致する場合には、該顔画像と対応する前記端末識別情報が示す前記端末装置から受信した前記視聴者特定情報と、前記コンテンツの録画再生シーンについての視聴履歴との関連付けを行う
ことを特徴とする付記2記載の録画再生装置。
(付記6)
コンテンツの検索を実行するコンテンツ検索プログラムであって、
コンテンツの録画/再生の指示を受け付けると、該コンテンツの録画/再生中に視聴中の視聴者を特定する視聴者特定情報の取得を行い、
前記取得した前記視聴者特定情報と、録画再生部が録画/再生しているコンテンツの録画再生シーンとを関連付けて視聴者データベースに記録し、
前記視聴者特定情報を受け付け、前記視聴者データベースを参照して、前記受け付けた前記視聴者特定情報と関連付けられたコンテンツの録画再生シーンを抽出し、該抽出したコンテンツの録画再生シーンを出力する、
処理をコンピュータに実行させることを特徴とするコンテンツ検索プログラム。
(付記7)
前記録画再生部において前記コンテンツの録画再生シーンを録画/再生しているときに、該コンテンツの録画再生シーンの視聴者を示す視聴者情報を取得し、該視聴者情報を、該視聴者についての該コンテンツの録画再生シーンの視聴履歴として、該コンテンツの録画再生シーンと関連付けを行う、
処理を更にコンピュータに実行させ、
前記視聴者データベースに前記視聴者特定情報と前記コンテンツの録画再生シーンとを関連付けて記録するステップにおいては、前記視聴者情報と、前記視聴者特定情報とを利用して、前記視聴者が視聴した前記コンテンツの録画再生シーンと該視聴者特定情報との関連付けを行う
ことを特徴とする付記6記載のコンテンツ検索プログラム。
(付記8)
前記視聴者データベースに前記視聴者特定情報と前記コンテンツの録画再生シーンとを関連付けて記録するステップにおいては、前記視聴者情報と、前記視聴者特定情報に含まれる前記視聴者の端末装置を識別する端末識別情報とを関連付けておき、該視聴者情報と該端末識別情報との関連付けに基づき、該視聴者情報を含む前記コンテンツの録画再生シーンについての視聴履歴と、該端末識別情報により識別される前記端末装置から受信した該視聴者の活動記録とを関連付けて記録する
ことを特徴とする付記7記載のコンテンツ検索プログラム。
(付記9)
前記視聴者の活動記録に係わる情報を前記視聴者特定情報とともに受け付けた場合には、該視聴者の活動記録と関連付けられた前記コンテンツの録画再生シーンを抽出する
ことを特徴とする付記8記載のコンテンツ検索プログラム。
(付記10)
前記視聴者データベースに前記視聴者特定情報と前記コンテンツの録画再生シーンとを関連付けて記録するステップにおいては、
前記視聴者情報に含まれる前記視聴者の画像から顔部を抽出して顔画像を取得し、該顔画像と該視聴者の端末装置を識別する端末識別情報とを関連付けて、個人を識別する個人識別情報として記録しておき、
前記視聴履歴中の前記視聴者情報に含まれる前記視聴者の画像に、複数の視聴者が含まれる場合には、該視聴者の画像の顔部分と前記個人識別情報の前記顔画像とが合致するか否かを判定し、該視聴者の画像の顔部分と該個人識別情報の該顔画像とが合致する場合には、該顔画像と対応する前記端末識別情報が示す前記端末装置から受信した前記視聴者特定情報と、前記コンテンツの録画再生シーンについての視聴履歴との関連付けを行う
ことを特徴とする付記7記載のコンテンツ検索プログラム。
(付記11)
データ出力の指示を受け付けると、該データの出力中にユーザを特定するユーザ特定情報の取得を行うデータ取得部と、
前記データ取得部が取得した前記ユーザ特定情報と、出力中のデータとを関連付けてユーザデータベース記録するインデキシング部と、
前記ユーザ特定情報を受け付け、前記ユーザデータベースを参照して、前記受け付けた前記ユーザ特定情報と関連付けられたデータを抽出し、該抽出したデータを出力する検索処理部と、
を備えることを特徴とする情報処理装置。
1 録画再生装置
2 データ取得部
3 インデキシング部
4 検索処理部
10 視聴検知部
11 視聴者画像取得部
12 番組情報取得部
13 カット画像取得部
14 タイムスタンプ取得部
15 視聴履歴記録部
16 視聴履歴データベース
20 ライフログ取得部
21 端末識別情報取得部
22 ライフログ情報取得部
23 ライフログ記録部
24 ライフログデータベース
30 個人識別情報抽出部
31 顔画像取得・記録部
32 個人識別データベース
33 端末識別情報取得・記録部
40 データ結合部
41 顔画像照合部
42 端末識別情報照合部
43 視聴者データ記録部
44 視聴者データベース
50 照合部
60 表示部
100 動画検索装置
101 撮影装置(カメラ)
102 再生装置(テレビ)
103 個人端末(携帯端末)
104 表示装置(ディスプレイ)
105 テレビ受信部
106 計時部
107 通信部
108 メモリ
109 通信部

Claims (4)

  1. コンテンツの録画/再生の指示を受け付けると、該コンテンツの録画/再生中に視聴中の視聴者を特定する視聴者特定情報の取得を行うデータ取得部と、
    前記コンテンツの録画再生シーンを録画/再生しているときに、該コンテンツの録画再生シーンの視聴者を示す、視聴者人数を含む視聴者情報を取得し、該視聴者情報を、該視聴者についての該コンテンツの録画再生シーンの視聴履歴として、該コンテンツの録画再生シーンと関連付けを行う履歴取得部と、
    前記履歴取得部において取得した前記視聴者情報と、前記データ取得部において取得した前記視聴者特定情報とを利用して、前記視聴者情報が含む視聴者人数が一人の場合に、前記視聴者が視聴した前記コンテンツの録画再生シーンと該視聴者特定情報とを関連付けて視聴者データベースに記録するインデキシング部と、
    前記視聴者特定情報を受け付け、前記視聴者データベースを参照して、前記受け付けた前記視聴者特定情報と関連付けられたコンテンツの録画再生シーンを抽出し、該抽出したコンテンツの録画再生シーンを出力する検索処理部と、
    を備えることを特徴とする録画再生装置。
  2. 前記インデキシング部は、前記視聴者情報と、前記視聴者特定情報に含まれる前記視聴者の端末装置を識別する端末識別情報とを関連付けておき、該視聴者情報と該端末識別情報との関連付けに基づき、該視聴者情報を含む前記コンテンツの録画再生シーンについての視聴履歴と、該端末識別情報により識別される前記端末装置から受信した該視聴者の活動記録とを関連付けて記録する
    ことを特徴とする請求項記載の録画再生装置。
  3. 前記インデキシング部は、
    前記視聴者情報に含まれる前記視聴者の画像から顔部を抽出して顔画像を取得し、該顔画像と該視聴者の端末装置を識別する端末識別情報とを関連付けて、個人を識別する個人識別情報として記録しておき、
    前記視聴履歴中の前記視聴者情報に含まれる前記視聴者の画像に、複数の視聴者が含まれる場合には、該視聴者の画像の顔部分と前記個人識別情報の前記顔画像とが合致するか否かを判定し、該視聴者の画像の顔部分と該個人識別情報の該顔画像とが合致する場合には、該顔画像と対応する前記端末識別情報が示す前記端末装置から受信した前記視聴者特定情報と、前記コンテンツの録画再生シーンについての視聴履歴との関連付けを行う
    ことを特徴とする請求項記載の録画再生装置。
  4. コンテンツの検索を実行するコンテンツ検索プログラムであって、
    コンテンツの録画/再生の指示を受け付けると、該コンテンツの録画/再生中に視聴中の視聴者を特定する視聴者特定情報の取得を行い、
    前記コンテンツの録画再生シーンを録画/再生しているときに、該コンテンツの録画再生シーンの視聴者を示す、視聴者人数を含む視聴者情報を取得し、該視聴者情報を、該視聴者についての該コンテンツの録画再生シーンの視聴履歴として、該コンテンツの録画再生シーンと関連付けを行い、
    前記視聴者情報と、前記視聴者特定情報とを利用して、前記視聴者情報が含む視聴者人数が一人の場合に、前記視聴者が視聴した前記コンテンツの録画再生シーンと該視聴者特定情報とを関連付けて視聴者データベースに記録し、
    前記視聴者特定情報を受け付け、前記視聴者データベースを参照して、前記受け付けた前記視聴者特定情報と関連付けられたコンテンツの録画再生シーンを抽出し、該抽出したコンテンツの録画再生シーンを出力する、
    処理をコンピュータに実行させることを特徴とするコンテンツ検索プログラム。
JP2009080904A 2009-03-30 2009-03-30 録画再生装置及びコンテンツ検索プログラム Expired - Fee Related JP5343658B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009080904A JP5343658B2 (ja) 2009-03-30 2009-03-30 録画再生装置及びコンテンツ検索プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009080904A JP5343658B2 (ja) 2009-03-30 2009-03-30 録画再生装置及びコンテンツ検索プログラム

Publications (2)

Publication Number Publication Date
JP2010233143A JP2010233143A (ja) 2010-10-14
JP5343658B2 true JP5343658B2 (ja) 2013-11-13

Family

ID=43048501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009080904A Expired - Fee Related JP5343658B2 (ja) 2009-03-30 2009-03-30 録画再生装置及びコンテンツ検索プログラム

Country Status (1)

Country Link
JP (1) JP5343658B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012176835A1 (ja) 2011-06-22 2012-12-27 三菱電機株式会社 受信端末、視聴情報収集システムおよび視聴情報収集方法
JP5106669B1 (ja) 2011-09-29 2012-12-26 株式会社東芝 画像情報処理装置及び画像情報処理方法
JP5552651B2 (ja) * 2012-09-21 2014-07-16 株式会社東芝 画像情報処理装置及び画像情報処理方法
JP5689941B2 (ja) * 2013-10-09 2015-03-25 株式会社東芝 情報再生装置とその制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4046483B2 (ja) * 2001-04-17 2008-02-13 シャープ株式会社 情報再生装置
JP2004159192A (ja) * 2002-11-07 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> 映像要約方法及びプログラム及び映像要約プログラムを格納した記憶媒体
JP3888636B2 (ja) * 2004-03-26 2007-03-07 日本放送協会 操作履歴送信携帯端末、視聴率測定装置、視聴率測定システムおよび視聴率測定方法
JP4380524B2 (ja) * 2004-12-17 2009-12-09 ソニー株式会社 情報処理装置及び情報処理方法
JP2006260275A (ja) * 2005-03-17 2006-09-28 Ricoh Co Ltd コンテンツ管理システム、表示制御装置、表示制御方法、および表示制御プログラム
JP2006324809A (ja) * 2005-05-17 2006-11-30 Sony Corp 情報処理装置,情報処理方法,およびコンピュータプログラム
JP4839963B2 (ja) * 2006-05-30 2011-12-21 船井電機株式会社 映像記録再生装置
JP2007329833A (ja) * 2006-06-09 2007-12-20 Sony Corp 情報処理システム、記録再生装置、再生端末、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2010233143A (ja) 2010-10-14

Similar Documents

Publication Publication Date Title
KR101382499B1 (ko) 영상 태깅 방법 및 이를 사용하는 영상 재생 장치.
US8453169B2 (en) Video output device and video output method
JP5135024B2 (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
US20090222849A1 (en) Audiovisual Censoring
KR101330637B1 (ko) 영상 및 영상 정보 검색 장치 및 방법, 그리고 그 시스템
US20130124551A1 (en) Obtaining keywords for searching
US20090190804A1 (en) Electronic apparatus and image processing method
US20090164460A1 (en) Digital television video program providing system, digital television, and control method for the same
JP5868978B2 (ja) コミュニティベースのメタデータを提供するための方法および装置
JP2012008789A (ja) 動画推薦システム及び動画推薦方法
JPWO2006025284A1 (ja) ストリーム再生装置
US20090193463A1 (en) Method and system for sharing information between users in media reproducing system
JP2011193300A (ja) 画像処理装置、画像処理方法、画像処理システム、制御プログラムおよび記録媒体
KR20030007727A (ko) 자동 비디오 리트리버 제니
US20090080852A1 (en) Audiovisual Censoring
KR20090089878A (ko) 개요 및 리포트를 이미 포함하는 시청각 도큐먼트의 새로운 개요를 생성하기 위한 방법 및 상기 방법을 구현할 수 있는 수신기
JP4476786B2 (ja) 検索装置
JP5343658B2 (ja) 録画再生装置及びコンテンツ検索プログラム
JP4723901B2 (ja) テレビジョン表示装置
WO2008087742A1 (ja) 動画再生システム、情報端末装置および情報表示方法
JP5306550B2 (ja) 映像解析情報送信装置、映像解析情報配信システム及び配信方法、映像視聴システム及び映像視聴方法
US8750579B2 (en) Image information processing apparatus and image information processing method
WO2014103374A1 (ja) 情報管理装置、サーバ及び制御方法
JP2010218385A (ja) コンテンツ検索装置及びコンピュータプログラム
US20140189769A1 (en) Information management device, server, and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130729

R150 Certificate of patent or registration of utility model

Ref document number: 5343658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees