JP2013016903A - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP2013016903A
JP2013016903A JP2011146365A JP2011146365A JP2013016903A JP 2013016903 A JP2013016903 A JP 2013016903A JP 2011146365 A JP2011146365 A JP 2011146365A JP 2011146365 A JP2011146365 A JP 2011146365A JP 2013016903 A JP2013016903 A JP 2013016903A
Authority
JP
Japan
Prior art keywords
program
viewer
information
unit
reaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011146365A
Other languages
English (en)
Inventor
Hiroyuki Nakano
寛之 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011146365A priority Critical patent/JP2013016903A/ja
Publication of JP2013016903A publication Critical patent/JP2013016903A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】番組を視聴する視聴者の利便性を向上させることが可能な情報処理装置及び情報処理方法を提供する。
【解決手段】番組を視聴する視聴者を撮像した撮像データを取得する撮像手段と、前記撮像データに含まれる顔画像を検出する顔検出手段と、前記顔検出手段で検出された顔画像から、前記番組に対する前記視聴者の反応を検出する反応検出手段と、前記反応検出手段での検出結果を付属情報とし、当該付属情報を前記視聴中の番組の時間軸に対応付けて記録する記録手段と、前記番組の時間軸上に対応付けて記録された前記付属情報に基づいて、当該番組内で前記視聴者が関心を示した区間を特定する特定手段と、を備える。
【選択図】図3

Description

本発明の実施形態は、情報処理装置及び情報処理方法に関するものである。
近年、テレビジョン受信装置等の放送番組を視聴可能な情報処理装置において、カメラ等の撮像装置を設けたものが登場している。また、撮像装置により装置周辺の環境を撮像し、その撮像画像から周辺環境に関する情報を取得するものが存在している。従来、表示されたコンテンツに対する視聴者の視聴状態を撮像画像から検出し、視聴者の顔等の向きから視聴者が見逃したコンテンツの箇所を特定する技術が提案されている。
特開2009−188670号公報
しかしながら、上記従来の技術では、視聴の対象となった番組と当該番組を視聴した視聴者の反応との関係性については何ら考慮されておらず、視聴者の利便性を向上させる上で改善の余地があった。
本発明は、上記に鑑みてなされたものであって、番組を視聴する視聴者の利便性を向上させることが可能な情報処理装置及び情報処理方法を提供することを目的とする。
実施の形態の情報処理装置は、撮像手段と、顔検出手段と、反応検出手段と、記録手段と、特定手段とを備える。撮像手段は、番組を視聴する視聴者を撮像した撮像データを取得する。顔検出手段は、撮像データに含まれる顔画像を検出する。反応検出手段は、顔検出手段で検出された顔画像から、番組に対する視聴者の反応を検出する。記録手段は、反応検出手段での検出結果を付属情報とし、当該付属情報を前記視聴中の番組の時間軸に対応付けて記録する。特定手段は、番組の時間軸上に対応付けて記録された付属情報に基づいて、当該番組内で視聴者が関心を示した区間を特定する。
図1は、本実施形態に係る情報処理装置(テレビジョン装置)の一例を示す外観斜視図である。 図2は、テレビジョン装置の信号処理系を示すブロック図である。 図3は、テレビジョン装置の反応検出系の機能構成を模式的に示すブロック図である。 図4は、HDDに記録された番組データの一例を模式的に示す図である。 図5は、テレビジョン装置の反応分析系の機能構成を模式的に示すブロック図である。 図6は、嗜好性分析結果の一例を示す図である。 図7は、テレビジョン装置の反応検出系が行う反応記録処理の手順を示すフローチャートである。 図8は、テレビジョン装置の反応分析系の再生制御部が行う再生制御処理の手順を示すフローチャートである。 図9は、テレビジョン装置の反応分析系の嗜好性分析部及び番組推奨部が行う番組推奨処理の手順を示すフローチャートである。
以下に添付図面を参照して、この発明に係る情報処理装置及び情報処理方法の実施の形態を詳細に説明する。なお、本実施形態では、テレビ番組の録画・再生機能を有するテレビジョン装置に適用した例について説明するが、この装置に制限するものではない。
図1は、本実施形態に係るテレビジョン装置100の一例を示す外観斜視図である。同図に示すように、テレビジョン装置100は、前方から見た正面視(前面に対する平面視)で、長方形状の外観を呈している。テレビジョン装置100は、筐体2と、表示部3を備えている。
筐体2には、カメラ4とマイク5が設けられている。カメラ4の撮像方向は、テレビジョン装置100に対向する方向に向けられており、テレビジョン装置100の視聴者を撮像する目的で用いられる。マイク5の収音方向は、カメラ4と同様テレビジョン装置100に対向する方向に向けられており、テレビジョン装置100の視聴者の声を収音する目的で用いられる。また、筐体2は、支持部6に支持されている。なお、カメラ4及びマイク5の取り付け位置は図1の例に限らず、テレビジョン装置100に外付けする形態としてもよい。
図2は、テレビジョン装置100の信号処理系を示すブロック図である。同図に示すように、テレビジョン装置100は、アンテナ11で受信した放送信号を、入力端子12を介してチューナ部13に供給することにより、所望のチャンネルの放送信号を選局することが可能になっている。
テレビジョン装置100は、チューナ部13で選局された放送信号を、復調復号部14に供給してデジタル映像信号及びデジタル音声信号等に復元した後、信号処理部15に出力する。信号処理部15は、復調復号部14から供給されたデジタルの映像信号及び音声信号に対してそれぞれ所定のデジタル信号処理を施す。
ここで、信号処理部15が行なう所定のデジタル信号処理には、通常の平面視表示用の映像信号を立体視表示用の映像信号に変換する処理、立体視表示用の映像信号を平面視表示用の映像信号に変換する処理等も含まれている。
また、信号処理部15は、デジタル映像信号を合成処理部16に出力し、デジタル音声信号を音声処理部17に出力する。
合成処理部16は、信号処理部15から供給されるデジタル映像信号に、OSD(On Screen Display)信号生成部18で生成される字幕、GUI(Graphical User Interface)、OSDなどの重畳用映像信号であるOSD信号を重畳して出力している。この場合、合成処理部16は、信号処理部15から供給される映像信号が平面視表示用の映像信号であれば、その映像信号にOSD信号生成部18から供給されたOSD信号をそのまま重畳して出力している。
また、合成処理部16は、信号処理部15から供給される映像信号が立体視表示用の映像信号である場合、OSD信号生成部18から供給されたOSD信号に対して、入力された立体視表示用の映像信号に対応した立体視表示用の信号処理を施した後、そのOSD信号を入力映像信号に重畳して出力している。
テレビジョン装置100は、合成処理部16から出力したデジタルの映像信号を、映像処理部19に供給する。映像処理部19は、入力されたデジタル映像信号を、後段の、表示部3で表示可能なフォーマットのアナログ映像信号に変換している。テレビジョン装置100は、映像処理部19から出力されたアナログ映像信号を、表示部3に供給して映像表示に供する。表示部3は、LCD(Liquid Crystal Display)等の表示デバイスを有し、映像処理部19から出力されたアナログ映像信号を表示する。
音声処理部17は、入力されたデジタル音声信号を、後段のスピーカ20で再生可能なフォーマットのアナログ音声信号に変換している。そして、この音声処理部17から出力されたアナログ音声信号が、スピーカ20に供給されることにより音声再生に供される。
ここで、テレビジョン装置100は、上記した各種の受信動作を含むその全ての動作を制御部21によって統括的に制御している。この制御部21は、CPU(central processing nit)211、CPU211が実行するプログラムを格納したROM(Read Only Memory)212、CPU211に作業エリアを提供するためのRAM(Random Access Memory)213、上述した領域情報等の各種の設定情報や制御情報等が格納された不揮発性メモリ214を有しており、CPU211と各種プログラムとの協働により各部の動作が統括的に制御する。
具体的に、制御部21は、テレビジョン装置100の本体に設置された操作部22からの操作情報を受けて、または、リモートコントローラ23から送出され受信部24で受信した操作情報を受けて、その操作内容が反映されるように各部を制御する。
また、制御部21は、復調復号部14で復元された信号からEPG(Electronic Program Guide)等の電子番組ガイドを取得し、視聴者による操作部22やリモートコントローラ23の操作に応じて、当該電子番組ガイドをOSD信号生成部18や映像処理部19に供給することで放送中又は放送予定の番組表を視聴者に提供する。ここで、電子番組ガイドには、各番組のジャンルやタイトル、番組概要、出演者等の番組内容を示した番組内容情報が含まれているものとする。
また、制御部21には、ディスクドライブ部25が接続されていてもよい。ディスクドライブ部25は、例えばBD(Blu-ray Disc)、DVD(Digital Versatile Disk)等の光ディスク26を着脱自在とするもので、装着された光ディスク26に対してデジタルデータの記録再生を行なう機能を有している。
制御部21は、視聴者による操作部22やリモートコントローラ23の操作に基づいて、復調復号部14から得られるデジタルの映像信号及び音声信号を、記録再生処理部28によって暗号化し所定の記録フォーマットに変換した後、ディスクドライブ部25に供給して光ディスク26に記録させるように制御することができる。
また、制御部21は、視聴者による操作部22やリモートコントローラ23の操作に基づいて、ディスクドライブ部25により光ディスク26からデジタルの映像信号及び音声信号を読み出させ、記録再生処理部28によって復号化した後、信号処理部15に供給することによって、以後、上記した映像表示及び音声再生に供させるように制御することができる。
また、制御部21には、HDD(Hard Disk Drive)27が接続されている。HDD27は、外付け装置としての形態を取っても構わない。制御部21は、視聴者から操作部22やリモートコントローラ23を介して、録画対象の番組が指定されると、復調復号部14から得られるこの番組の映像信号及び音声信号(以下、番組データという)を、記録再生処理部28によって暗号化し所定の記録フォーマットに変換した後、HDD27に供給して記録させることで番組の録画を行う。なお、番組の録画の際には、その番組の番組データに番組内容情報を対応付けて記録するものとする。
また、制御部21は、視聴者から操作部22やリモートコントローラ23を介して、HDD27に録画された番組(番組データ)から再生対象の番組が指定されると、この指定された番組の番組データをHDD27から読み出し、記録再生処理部28によって復号化した後、信号処理部15に供給することによって、上記した映像表示及び音声再生に供させるように制御することで、番組データの再生を行う。
さらに、テレビジョン装置100には、入力端子29が接続されている。入力端子29は、テレビジョン装置100の外部からデジタルの映像信号及び音声信号を直接入力するためのものである。この入力端子29を介して入力されたデジタルの映像信号及び音声信号は、制御部21の制御に基づいて、記録再生処理部28を介した後、信号処理部15に供給されて、以後、上記した映像表示及び音声再生に供される。
また、入力端子29を介して入力されたデジタル映像信号及びデジタル音声信号は、制御部21の制御に基づいて、記録再生処理部28を介した後、ディスクドライブ部25による光ディスク26に対しての記録再生や、HDD27に対しての記録再生に供される。
なお、制御部21は、視聴者による操作部22やリモートコントローラ23の操作に基づいて、ディスクドライブ部25とHDD27との間で、光ディスク26に記録されているデジタル映像信号及びデジタル音声信号をHDD27に記録したり、HDD27に記録されているデジタル映像信号及びデジタル音声信号を光ディスク26に記録したりすることも制御している。
また、制御部21には、カメラ4及びマイク5が接続されている。このカメラ4は、CCDやCMOS等の撮像素子を有するデジタルカメラやビデオカメラであり、テレビジョン装置100に対向する方向、つまりテレビジョン装置100の視聴方向を撮像し、その撮像データを制御部21に出力する。マイク5は、マイクロフォン等の収音装置であり、テレビジョン装置100の視聴する方向の音声を収音し、その音声データを制御部21に出力する。
次に、本実施形態のテレビジョン装置100に固有の制御部21の機能構成について説明する。制御部21は本実施形態のテレビジョン装置100に固有の機能構成として、番組に対する視聴者の反応の検出及び記録を行う反応検出系と、反応検出系での検出結果を用いて各種処理を行う反応分析系とを備える。
図3は、テレビジョン装置100の反応検出系の機能構成を模式的に示すブロック図である。同図に示すように、制御部21は、CPU211と、ROM212や不揮発性メモリ214に記憶された所定のプログラムとの協働により、顔検出部31と、個人認識部32と、表情検出部33と、動作検出部34と、番組音声分析部35と、視聴者音声分析部36と、反応記録部37と、反応検出系の機能部として実現する。
顔検出部31は、カメラ4から入力される撮像データを処理して、人物の頭部や顔を検出する。個人認識部32は、顔検出部31で検出された撮像データ内の顔画像を、予め登録された人物の顔画像と比較することで、テレビジョン装置100を視聴する視聴者(人物)を特定する。なお、顔検出部31及び個人認識部32における頭部や顔検出、顔認識等は周知の技術を用いるものとする。
表情検出部33は、顔検出部31で検出された撮像データ内の顔画像から、所定の表情を検出する。表情検出部33が検出する表情としては、例えば、笑顔や泣き顔、無表情、驚いた表情、怒った表情、退屈した表情、困った表情等が挙げられる。動作検出部34は、顔検出部31で検出された撮像データ内での顔画像の位置の変化を時系列的に解析することで、単位時間あたりの顔の動き量を検出する。なお、表情検出部33における表情検出や、動作検出部34における動き量の検出は周知の技術を用いるものとする。
番組音声分析部35は、録画対象の番組データに含まれる音声信号を解析し、歓声が大きく盛り上がった第1歓声区間を検出する。視聴者音声分析部36は、マイク5から入力される音声データを解析し、視聴者の歓声が大きく盛り上がった第2歓声区間を検出する。なお、番組音声分析部35及び視聴者音声分析部36における歓声検出は周知の技術を用いるものとする。また、視聴者音声分析部36における音声データの解析は、テレビジョン装置100からの音声が除去された後、行われるものとする。
反応記録部37は、番組データの録画及び再生時において、表情検出部33、動作検出部34、番組音声分析部35及び視聴者音声分析部36でリアルタイムに検出される各種データを付属情報とし、当該付属情報を番組データの時間軸に対応付けて記録する。また、反応記録部37は、個人認識部32により視聴者が特定されている場合、この視聴者を識別する視聴者識別情報を付属情報に付加することで、付属情報を視聴者単位で記録する。
ここで、図4は、HDD27に記録された番組データの一例を模式的に示す図である。同図では個人認識部32で特定された視聴者(視聴者識別情報:視聴者A)についての、表情検出部33、動作検出部34、番組音声分析部35及び視聴者音声分析部36での検出結果を示しており、これら検出結果が付属情報として、番組データの時間軸(タイムライン)に沿って記録されている。例えば、図4では、番組音声分析部35により歓声区間と検出されたt3〜t6の区間において、視聴者Aの表情が「笑顔」となり、顔の動き量が増大し、歓声をあげたことが示されている。なお、番組データの区間は、フレーム単位としてもよいし、10秒等の時間単位としてもよい。
このように、テレビジョン装置100の反応検出系では、番組データの録画及び再生時にその番組を視聴する視聴者の反応を検出し、その検出結果を付属情報として番組データのタイムラインと対応付けて記録する。なお、視聴者がテレビジョン装置100に対し顔を横に向けている場合や、テレビジョン装置100の前から離れた場合には、顔検出部31による顔検出が行われないため、その間の検出結果はデータ無しとなる。
なお、本実施形態では、番組データの録画及び再生時に付属情報を記録する形態としたが、これに限らず、番組データの録画時又は再生時に付属情報を記録する形態としてもよい。また、HDD27に録画された番組データに付属情報が記録されていない場合に、当該番組データの再生時に付属情報を記録する形態としてもよい。
図5は、テレビジョン装置100の反応分析系の機能構成を模式的に示すブロック図である。同図に示すように、制御部21は、CPU211と、ROM212や不揮発性メモリ214に記憶された所定のプログラムとの協働により、再生制御部41と、嗜好性分析部42と、番組推奨部43とを反応分析系の機能部として実現する。
再生制御部41は、番組データに対応付けて記録された付属情報に基づいて、当該番組データの再生を行う機能部である。具体的に、再生制御部41は、視聴者から操作部22やリモートコントローラ23を介して、付属情報に基づく再生(特殊再生)が指示されると、個人認識部32の認識結果に基づいて再生を指示した視聴者を特定する。また、再生制御部41は、再生対象の番組データに対応付けて記録された付属情報のうち、特定した視聴者の付属情報に所定の条件(以下、再生条件)を適用し、当該再生条件に該当する区間を、その視聴者が関心を示した再生区間として特定する。そして、再生制御部41は、各再生区間をダイジェスト再生やジャンプ再生等で再生する。ここで、ダイジェスト再生とは、再生区間を時系列順に自動再生する機能を意味し、ジャンプ再生とは、操作部22やリモートコントローラ23を介して指示に応じて、再生区間を時系列順に順次再生する機能を意味する。
ここで、再生条件は任意に設定できるものとする。例えば、顔の表情が「笑顔」の区間を再生条件としてもよいし、顔の動き量が所定のレベル以上又は以下の場合を再生条件としてもよいし、第2歓声区間を再生条件としてもよい。また、番組音声分析部35での検出結果を補助的に用い、番組音声分析部35で検出された第1歓声区間と、視聴者音声分析部36で検出された第2歓声区間とが一致した区間を再生条件としてもよい。
なお、再生条件を適用先は、表情検出部33、動作検出部34及び視聴者音声分析部36から得られる何れか一の検出結果としてもよいし、複数又は全ての検出結果について複合的に適用する形態としてもよい。また、動き量のレベル設定は、任意に設定することが可能であるとする。
嗜好性分析部42は、HDD27の各番組データに対応付けて記録された番組内容情報と、付属情報とに基づき、視聴者毎の嗜好性を分析する。例えば、嗜好性分析部42は、HDD27に録画された番組の各ジャンルについて、各視聴者の表情変化や顔の動き量、歓声区間等を所定の指標に基づいて分析することで、当該ジャンルに対する視聴者の嗜好性を導出する。そして、嗜好性分析部42は、各視聴者の嗜好性分析結果を嗜好性情報として生成し、HDD27等に出力する。
ここで、嗜好性の判定に係る指標は任意に設定できるものとする。例えば、番組データの全区間のうち、顔の表情が「笑顔」の区間が30%以上存在した場合を「興味あり」と判定するものとしてもよいし、顔の動き量が静止を示す区間が60%以上存在した場合を「興味あり」と判定してもよいし、第2歓声区間が5%以上存在した場合を「興味あり」と判定してもよい。また、番組音声分析部35での検出結果を補助的に用い、番組音声分析部35で検出された第1歓声区間と、視聴者音声分析部36で検出された第2歓声区間との一致率が70%以上の場合を「興味あり」と判定してもよい。また、上述した再生条件を用いる形態としてもよく、例えば、再生条件に基づき特定した再生区間の長さや、番組全編に占める再生区間の割合等を、嗜好性の判定に係る指標として定めてもよい。
図6は、嗜好性分析結果の一例を示す図である。同図に示すように、嗜好性分析結果には、個人認識部32で認識された視聴者毎に、その視聴者が嗜好性を有すると判定した番組ジャンル等の嗜好要素が対応付けて格納される。
なお、嗜好性の判定は、表情検出部33、動作検出部34及び視聴者音声分析部36の何れか一の検出結果に基づいて行う形態としてもよいし、表情検出部33、動作検出部34及び視聴者音声分析部36の全て又は何れかの検出結果から複合的に判定する形態としてもよい。また、嗜好性の分析対象は番組のジャンルに限らず、番組タイトルや出演者等の他の要素について分析する形態としてもよい。また、番組内容情報に含まれる番組概要や出演者等の情報が、番組データの時間軸と対応付けて記録されている場合には、当該番組データの区間単位で嗜好性を判定する形態としてもよい。さらに、嗜好性の判定を行うタイミングは特に問わず、例えば、後述する推奨情報の提示が指示されたタイミングで行うこととしてもよく、この場合、提示の指示を行った視聴者について嗜好性分析結果を出力する形態としてもよい。
番組推奨部43は、嗜好性分析部42が出力した嗜好性分析結果に基づいて、各視聴者が興味を持ちそうな番組を推奨情報として提示する機能部である。
具体的に、番組推奨部43は、視聴者から操作部22やリモートコントローラ23を介して、推奨情報の提示が指示されると、個人認識部32の認識結果に基づいて提示を指示した視聴者を特定する。また、番組推奨部43は、特定した視聴者の視聴者識別情報に対応付けられた番組のジャンルを、嗜好性分析結果から読み出す。また、番組推奨部43は、電子番組ガイドに含まれた各番組の番組内容情報を参照し、嗜好性分析結果から読み出したジャンルに該当する番組の番組内容情報を電子番組ガイドから抽出する。そして、番組推奨部43は、電子番組ガイドから抽出した各番組の番組内容情報を、推奨情報として表示部3に表示させる。なお、推奨情報の表示形態は特に問わず、抽出した各番組の番組内容情報を一覧表示する形態としてもよいし、電子番組ガイド内の該当する番組を強調表示する形態としてもよい。
次に、本実施形態に係るテレビジョン装置100の動作について説明する。
まず、図7を参照して、テレビジョン装置100の反応検出系の動作について説明する。ここで、図7は、テレビジョン装置100の反応検出系が行う反応検出処理の手順を示すフローチャートである。なお、本処理の前提として、視聴者から操作部22やリモートコントローラ23を介して、特定の番組の録画又は再生が指示されたとする。
番組データの録画又は再生が開始されると(ステップS11)、顔検出部31は顔画像の検出を開始し、カメラ4から入力される撮像データから人物の顔画像を検出できるか否かを判定する(ステップS12)。ここで、顔画像が検出できないと判定された場合(ステップS12;No)、ステップS19に直ちに移行する。
一方、ステップS12において顔画像が検出された場合(ステップS12;Yes)、個人認識部32は、検出された顔画像と予め登録された視聴者の顔画像とを比較することで、視聴者を特定する(ステップS13)。なお、視聴者を特定することができない場合には、ステップS19に直ちに移行することで視聴者の反応検出をスキップする形態としてもよいし、不明者の反応検出としてステップS14に移行する形態としてもよい。
続いて、表情検出部33は、ステップS12で検出された顔画像から表情を検出する(ステップS14)。また、動作検出部34は、ステップS12で検出された顔画像の位置の時系列的な変化量から、単位時間当たりの顔の動き量を検出する(ステップS15)。
次いで、番組音声分析部35は、録画中又は再生中の番組データの音声信号を解析し、歓声の盛り上りを検出した場合にはその区間を第1歓声区間として検出する(ステップS16)。また、視聴者音声分析部36は、マイク5から入力される音声データを解析し、歓声の盛り上りを検出した場合にはその区間を第2歓声区間として検出する(ステップS17)。
反応記録部37は、ステップS12で特定された視聴者の視聴者識別情報と、ステップS14〜S17での検出結果とを付属情報とし、当該付属情報を録画中又は再生中の番組データのタイムラインに対応付けて記録する(ステップS18)。続いて、反応検出系は番組データの録画又は再生が終了したか否かを判定し、終了していないと判定した場合には(ステップS19;No)、ステップS12に再び戻る。また、番組データの録画又は再生が終了と判定した場合には(ステップS19;Yes)、本処理を終了する。
これにより、録画及び再生の対象となった番組データには、各視聴者についての付属情報が対応付けて記録されることになる。なお、ステップS14〜S17の実行順序は、図7の例に限定されず、順序の入れ替えが可能であるとする。
次に、図8及び図9を参照して、テレビジョン装置100の反応分析系の動作について説明する。ここで、図8は、テレビジョン装置100の反応分析系の再生制御部41が行う再生制御処理の手順を示すフローチャートである。なお、本処理の前提として、視聴者から操作部22やリモートコントローラ23を介して、付属情報に基づく再生(特殊再生)が指示されたとする。
まず、再生制御部41は、顔検出部31で検出された顔画像による個人認識部32の認識結果に基づき、再生を指示した視聴者を特定する(ステップS21)。ここで、視聴者を特定することができない場合には、通常の再生を行う形態としてもよいし、不明者としてステップS22移行の処理を行う形態としてもよい。
続いて、再生制御部41は、再生対象の番組データに対応付けて記録された付属情報のうち、ステップS21で特定した視聴者(視聴者識別情報)の付属情報を分析し、再生条件に該当する再生区間を特定する(ステップS22)。次いで、再生制御部41は、ステップS22で特定した再生区間を、ダイジェスト再生やジャンプ再生等で再生を開始する(ステップS23)。
これにより、再生対象の番組データのうち、再生条件に該当した区間、即ち視聴者が関心を示した区間を、ダイジェスト再生やジャンプ再生を用いて簡潔に提示することができるため、視聴者の利便性を向上させることができる。
図9は、テレビジョン装置100の反応分析系の嗜好性分析部42及び番組推奨部43が行う番組推奨処理の手順を示すフローチャートである。なお、本処理の前提として、視聴者から操作部22やリモートコントローラ23を介して、推奨情報の提示が指示されたとする。
まず、嗜好性分析部42は、顔検出部31で検出された顔画像による個人認識部32の認識結果に基づき、提示を指示した視聴者を特定する(ステップS31)。ここで、視聴者を特定することができない場合には、本処理を直ちに終了する形態としてもよいし、不明者としてステップS32に移行する形態としてもよい。
続いて、嗜好性分析部42は、HDD27の各番組データに対応付けて記録された番組内容情報と、ステップS31で特定した視聴者(視聴者識別情報)の付属情報とに基づいて当該視聴者の嗜好性を分析し、嗜好性分析結果を出力する(ステップS32)。
続いて、番組推奨部43は、ステップS33で出力された嗜好性分析結果から嗜好要素を読み出すと(ステップS33)、この嗜好要素に該当する番組の番組内容情報を電子番組ガイドから抽出する(ステップS34)。そして、番組推奨部43は、ステップS34で抽出した各番組の番組内容情報を、推奨情報として表示部3に表示し(ステップS35)、本処理を終了する。
これにより、放送中或いは放送予定の番組の中から、視聴者が興味を持つと推定される番組を推奨情報として提示することができるため、視聴者の嗜好により適合した番組を視聴候補として提示することができる。
以上のように、本実施形態のテレビジョン装置100によれば、当該番組データを視聴する視聴者の反応を付属情報として番組データのタイムラインに沿って記録し、この付属情報から導出される視聴者の嗜好性に基づいて、番組データの再生や視聴候補となる番組を推奨する。そのため、テレビジョン装置100を視聴する視聴者は、自己の嗜好性に適合した場面を簡潔に視聴することや、番組を選択することができるため、視聴者の利便性をより向上させることができる。
以上、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、追加等を行うことができる。また、上記実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
21…制御部、22…操作部、23…リモートコントローラ、27…HDD、31…顔検出部、32…個人認識部、33…表情検出部、34…動作検出部、35…番組音声分析部、36…視聴者音声分析部、37…反応記録部、41…再生制御部、42…嗜好性分析部、43…番組推奨部、100…テレビジョン装置。

Claims (9)

  1. 番組を視聴する視聴者を撮像した撮像データを取得する撮像手段と、
    前記撮像データに含まれる顔画像を検出する顔検出手段と、
    前記顔検出手段で検出された顔画像から、前記番組に対する前記視聴者の反応を検出する反応検出手段と、
    前記反応検出手段での検出結果を付属情報とし、当該付属情報を前記視聴中の番組の時間軸に対応付けて記録する記録手段と、
    前記番組の時間軸上に対応付けて記録された前記付属情報に基づいて、当該番組内で前記視聴者が関心を示した区間を特定する特定手段と、
    を備える情報処理装置。
  2. 前記反応検出手段は、前記顔画像から前記視聴者の表情を検出する表情検出手段を有し、
    前記記録手段は、前記表情検出手段で検出された前記視聴者の表情を前記付属情報として記録する、請求項1に記載の情報処理装置。
  3. 前記反応検出手段は、前記撮像データ内における前記顔画像の位置の変化量から、前記視聴者の動き量を検出する動作検出手段を有し、
    前記記録手段は、前記動作検出手段で検出された前記視聴者の動き量を前記付属情報として記録する、請求項1又は2に記載の情報処理装置。
  4. 録画又は再生中の番組を視聴する視聴者が発する歓声を検出する視聴者音声検出手段を更に備え、
    前記記録手段は、前記視聴者音声検出手段が歓声を検出した区間を示す情報を、前記付属情報に含めて記録する、請求項1〜3の何れか一項に記載の情報処理装置。
  5. 録画又は再生中の番組を視聴する視聴者が発する歓声を検出する視聴者音声分析手段を更に備え、
    前記記録手段は、前記視聴者音声検出手段が歓声を検出した区間を示す情報を、前記付属情報に含めて記録する、請求項1〜4の何れか一項に記載の情報処理装置。
  6. 録画又は再生中の番組に含まれる音声から歓声を検出する番組音声分析手段を更に備え、
    前記記録手段は、前記番組音声分析手段が歓声を検出した区間を示す情報を、前記付属情報に含めて記録する、請求項1〜5の何れか一項に記載の情報処理装置。
  7. 前記番組の時間軸上に対応付けて記録された前記付属情報と、当該番組の番組内容を示した番組内容情報とに基づいて、前記視聴者が嗜好性を有する嗜好要素を導出する嗜好性分析手段と、
    前記嗜好要素を含む番組を提示する提示手段と、
    を更に備える請求項1〜6の何れか一項に記載の情報処理装置。
  8. 前記顔検出手段で検出された顔画像と、予め登録された視聴者の顔画像とを比較し、前記番組を視聴中の視聴者を特定する個人認識手段を更に備え、
    前記記録手段は、前記個人認識手段で特定された視聴者を識別する識別情報と対応付けて前記付属情報を記録し、
    前記嗜好性分析手段は、前記嗜好要素の導出を前記付属情報に対応付けられた前記識別情報毎に行う、請求項7に記載の情報処理装置。
  9. 撮像手段が、番組を視聴する視聴者を撮像した撮像データを取得する撮像工程と、
    顔検出手段が、前記撮像データに含まれる顔画像を検出する顔検出工程と、
    反応検出手段が、前記顔検出工程で検出された顔画像から、前記番組に対する前記視聴者の反応を検出する反応検出工程と、
    記録手段が、前記反応検出工程での検出結果を付属情報とし、当該付属情報を前記視聴中の番組の時間軸に対応付けて記録する記録工程と、
    特定手段が、前記番組の時間軸上に対応付けて記録された前記付属情報に基づいて、当該番組内で前記視聴者が関心を示した区間を特定する特定工程と、
    を含む情報処理方法。
JP2011146365A 2011-06-30 2011-06-30 情報処理装置及び情報処理方法 Pending JP2013016903A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011146365A JP2013016903A (ja) 2011-06-30 2011-06-30 情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011146365A JP2013016903A (ja) 2011-06-30 2011-06-30 情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2013016903A true JP2013016903A (ja) 2013-01-24

Family

ID=47689166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011146365A Pending JP2013016903A (ja) 2011-06-30 2011-06-30 情報処理装置及び情報処理方法

Country Status (1)

Country Link
JP (1) JP2013016903A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101481996B1 (ko) 2013-07-03 2015-01-22 동국대학교 경주캠퍼스 산학협력단 행동기반 실감영상환경 제어 시스템
JP2015133625A (ja) * 2014-01-14 2015-07-23 キヤノン株式会社 画像再生装置、その制御方法、および制御プログラム
WO2015182841A1 (ko) * 2014-05-29 2015-12-03 모젼스랩 주식회사 관객반응 분석 시스템 및 방법
JP2018032252A (ja) * 2016-08-25 2018-03-01 日本テレビ放送網株式会社 視聴ユーザログ蓄積システム、視聴ユーザログ蓄積サーバ、及び視聴ユーザログ蓄積方法
CN113545096A (zh) * 2019-03-11 2021-10-22 索尼集团公司 信息处理装置和信息处理系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153977A (ja) * 1997-11-20 1999-06-08 Fujitsu General Ltd 広告効果確認システム
WO2008072739A1 (ja) * 2006-12-15 2008-06-19 Visual Interactive Sensitivity Research Institute Co., Ltd. 視聴傾向管理装置、システム及びプログラム
JP2008167082A (ja) * 2006-12-27 2008-07-17 Toshiba Corp 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム
JP2011129997A (ja) * 2009-12-15 2011-06-30 Victor Co Of Japan Ltd ユーザ情報処理プログラム、再生プログラム、ユーザ情報処理装置、再生装置、ユーザ情報処理方法、及び、再生方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153977A (ja) * 1997-11-20 1999-06-08 Fujitsu General Ltd 広告効果確認システム
WO2008072739A1 (ja) * 2006-12-15 2008-06-19 Visual Interactive Sensitivity Research Institute Co., Ltd. 視聴傾向管理装置、システム及びプログラム
JP2008167082A (ja) * 2006-12-27 2008-07-17 Toshiba Corp 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム
JP2011129997A (ja) * 2009-12-15 2011-06-30 Victor Co Of Japan Ltd ユーザ情報処理プログラム、再生プログラム、ユーザ情報処理装置、再生装置、ユーザ情報処理方法、及び、再生方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101481996B1 (ko) 2013-07-03 2015-01-22 동국대학교 경주캠퍼스 산학협력단 행동기반 실감영상환경 제어 시스템
JP2015133625A (ja) * 2014-01-14 2015-07-23 キヤノン株式会社 画像再生装置、その制御方法、および制御プログラム
WO2015182841A1 (ko) * 2014-05-29 2015-12-03 모젼스랩 주식회사 관객반응 분석 시스템 및 방법
JP2018032252A (ja) * 2016-08-25 2018-03-01 日本テレビ放送網株式会社 視聴ユーザログ蓄積システム、視聴ユーザログ蓄積サーバ、及び視聴ユーザログ蓄積方法
CN113545096A (zh) * 2019-03-11 2021-10-22 索尼集团公司 信息处理装置和信息处理系统

Similar Documents

Publication Publication Date Title
US7466898B2 (en) Information processing apparatus and information processing method
JP4482829B2 (ja) 嗜好抽出装置、嗜好抽出方法及び嗜好抽出プログラム
KR100731378B1 (ko) 녹화정보 제공기능을 갖는 영상표시기기 및 그 제어방법
JP2013016903A (ja) 情報処理装置及び情報処理方法
US20230229702A1 (en) Methods and systems for providing searchable media content and for searching within media content
JP2010074323A (ja) 記録装置および方法、並びに記録再生装置および方法
US20080131077A1 (en) Method and Apparatus for Skipping Commercials
JP2009267445A (ja) 嗜好性情報管理装置及び嗜好性情報管理方法
KR101494013B1 (ko) 영상표시기기에서 녹화물 재생 장치 및 방법
JP6266271B2 (ja) 電子機器、電子機器の制御方法及びコンピュータプログラム
JP2013131871A (ja) 編集装置、遠隔制御装置、テレビジョン受像機、特定音声信号、編集システム、編集方法、プログラム、および、記録媒体
US7657156B2 (en) Digital video recording apparatus and method
JP4230402B2 (ja) サムネイル画像抽出方法、装置、プログラム
JP4633711B2 (ja) 録画再生装置
JP2014207619A (ja) 録画再生装置、及び録画再生装置の制御方法
US20070189723A1 (en) Television broadcast receiving/recording device
KR20070075728A (ko) 디지털 방송 수신기에서 녹화물 탐색 방법 및 그 장치
JP2007048379A (ja) プログラムの再生方法
KR20070075731A (ko) 디지털 방송 수신기에서 녹화물 탐색 방법
KR100816922B1 (ko) 저장매체를 구비한 영상표시기기의 녹화물 표시 장치 및방법
KR20110011317A (ko) 방송 수신기 및 타임 시프트 영상 검색 방법
JP2014150434A (ja) 映像出力装置
KR100677750B1 (ko) 방송신호를 재생하는 방송수신장치 및 그 방법
KR20070117060A (ko) 디지털 영상기기에서의 대표화면 제공방법
JP2007228103A (ja) 映像記録再生機器

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130205