JP4335642B2 - 視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム - Google Patents

視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム Download PDF

Info

Publication number
JP4335642B2
JP4335642B2 JP2003379243A JP2003379243A JP4335642B2 JP 4335642 B2 JP4335642 B2 JP 4335642B2 JP 2003379243 A JP2003379243 A JP 2003379243A JP 2003379243 A JP2003379243 A JP 2003379243A JP 4335642 B2 JP4335642 B2 JP 4335642B2
Authority
JP
Japan
Prior art keywords
viewer
data
content
information
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003379243A
Other languages
English (en)
Other versions
JP2005142975A (ja
Inventor
典史 片渕
哲也 山本
義人 南條
勉 籔内
健一朗 下倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003379243A priority Critical patent/JP4335642B2/ja
Publication of JP2005142975A publication Critical patent/JP2005142975A/ja
Application granted granted Critical
Publication of JP4335642B2 publication Critical patent/JP4335642B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、視聴率やアクセスログだけではわからない「コンテンツ(テレビ番組など)がどのように見られているのか」という視聴の「質」を測定して提供する視聴者反応情報収集方と、その視聴者反応情報収集方法を実装する視聴者反応情報収集システムで用いられるユーザ端末と、その視聴者反応情報収集システムで用いられる視聴者反応情報提供装置と、そのユーザ端末の実現に用いられる視聴者反応情報作成用プログラムと、その視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラムとに関する。
これまでも、番組やコンテンツを定量的に評価する(価値を測る)指標として、視聴の「量」を表す「率」だけでなく、視聴の質(以下、視聴質とよぶ)に関しても何らかの評価尺度が必要であることが叫ばれてきた。各放送事業者やコンテンツ配信事業者が広告効果を把握し、広告主に説明するためにも、今後視聴質がますます重要な指標となると考えられる。
また、2003年12月には三大都市圏で地上波デジタル放送が開始される予定で、多チャンネル化による視聴可能なチャンネル数が数百の単位に増加する。にもかかわらず、1日約3時間という限られた視聴時間のなかで、視聴者が見たい番組を数百チャンネルから選択するのは非常に困難である。こうした番組選択の負担を軽減する番組ナビゲーションサービスや番組自動推薦サービスの提供に向けて、これまで軽視されてきた「視聴者がどのようにテレビ番組を見ているのか」に焦点をあてる必要がある。
本発明は、コンテンツの視聴質調査の方法に関するもので、特に視聴者の行動、リアクションに着目することによって、実際に人がテレビ番組やデジタルコンテンツを見ているかどうかの実視聴判定、および実際に人がどの程度興味/関心をもって見ているかの注目度推定を可能とする。
本発明におけるコンテンツは、テレビ放送番組、インターネット上のデジタルコンテンツ、広告、またはそれらの組み合わせをさす。さらに、例えばICタグ(RFIDタグ、LEDタグ)などを利用した視聴者人数の推定および視聴者の個人特定を高速かつ高精度に実現するものである。
従来の視聴率測定技術の一つとして、赤外線映像を用いて、視聴者人数の把握もしくは視聴者個人の特定を行う装置がある(例えば、特許文献1参照)。
この装置は、赤外線ビデオカメラを用いて人の瞳孔検出を行うことにより、視聴者人数および実際に人がテレビジョンを見ているかどうかの判定を可能にする。さらに瞳孔の位置情報を用いて、ビデオカメラ映像出力信号における顔の2次元的な位置、大きさが一定な映像を得ることにより、かかる顔の映像より視聴者個人を高速かつ容易に特定する装置である。
一方、1997年4月にスタートしたインターネットを使ったテレビ番組に関する調査を行うWebサイト「テレビ番組視聴質調査 リサーチQ」がある(例えば、非特許文献1参照)。
このサイトは、視聴率だけではわからない視聴質を調査し、その結果を番組制作・編成に生かすことを目的とし、テレビ朝日編成部と慶應義塾大学環境情報学部熊坂研究室とで共同で開発・運営されている。なお、会員登録した利用者はアンケートに答えてQポイントをためると、抽選でプレゼントがもらえるインセンティブも用意されている。
特許第2947289 号公報「テレビジョン視聴率測定装置」 「テレビ番組視聴質調査 リサーチQ」,インターネット<URL:http://www.rq-tv.com>)2003.8.25 検索
ところが、視聴率を測定する従来の技術では、本発明の目的とするコンテンツ視聴質の調査まではカバーできない。例えば、テレビの電源が入っていながら視聴者がテレビを見ていないといった状況を把握することにより、いわゆる視聴率の精度向上を可能とする。しかしながら、視聴質はとれない。
一方、上述した「リサーチQ」では、アンケート内容、質問項目によるが、それなりの視聴質を調査することができると考えられる。しかしながら、PCを起動し、インターネットに接続し、それからWebサイト上でアンケートに回答する手間、あるいは携帯電話専用のWebサイトにアクセスし、コメント文を入力する煩わしさを考えると、利用者の負担が少ないとは言いがたい。
本発明は、上述の点に鑑み、従来技術の問題点を解決し、視聴者自身による記入やWeb上での回答といった作業負荷を軽減し、通常の視聴形態におけるコンテンツの視聴質の自動集計を可能とする新たなコンテンツの視聴質調査技術の提供を目的とする。
〔1〕ユーザ端末で、視聴反応データと視聴データとを統合する構成
上述の目的を達成するために、本発明により実現されることになる視聴者反応情報収集システムは、(イ)視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置と、(ロ)コンテンツを再生するとともに、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集し、さらに、センシング装置から視聴者反応データを入手して、その収集した視聴データとその入手した視聴者反応データとを時間同期させて統合するユーザ端末と、(ハ)ユーザ端末から統合データを入手して、その入手した統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する視聴者反応情報提供装置とを備える。
〔1−1〕この構成に従う場合のユーザ端末の構成
この構成に従う場合、ユーザ端末は、(イ)コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、(ロ)コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、(ハ)視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、(ニ)センシング装置から、視聴者反応データを入手する手段と、(ホ)その収集した画面操作履歴の情報とその入手した視聴者反応データとの事後統合を実現すべく、その画面操作履歴の情報が収集された際に割り付けられたタイムスタンプと、その視聴者反応データが収集された際に割り付けられたタイムスタンプとを使って、その画面操作履歴の情報とその視聴者反応データとを時間同期させて統合するとともに、それに再生コンテンツのメタデータを統合する手段と、(へ)その統合データを視聴者反応情報提供装置に送信する手段とを備えるように構成する。
以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。
〔1−2〕この構成に従う場合の視聴者反応情報提供装置の構成
この構成に従う場合、視聴者反応情報提供装置は、(イ)ユーザ端末から、統合データを入手する手段と、(ロ)その入手した統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、(ハ)その生成した視聴質データの流通用の視聴メタデータを作成する手段と、(ニ)その作成した視聴メタデータを要求元に送信する手段とを備えるように構成する。
以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。
〔2〕視聴者反応情報提供装置で、視聴反応データと視聴データとを統合する構成
上述の目的を達成するために、本発明により実現されることになる視聴者反応情報収集システムは、(イ)視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置と、(ロ)コンテンツを再生するとともに、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集するユーザ端末と、(ハ)ユーザ端末から視聴データを入手するとともに、センシング装置から視聴者反応データを入手して、その入手した視聴データとその入手した視聴者反応データとを時間同期させて統合し、その統合したデータに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する視聴者反応情報提供装置とを備える。
〔2−1〕この構成に従う場合のユーザ端末の構成
この構成に従う場合、ユーザ端末は、(イ)コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、(ロ)コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、(ハ)視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、(ニ)その収集した画面操作履歴の情報とその入手した再生コンテンツのメタデータとを加工することで視聴データを作成する手段と、(ホ)その作成した視聴データを視聴者反応情報提供装置に送信する手段とを備えるように構成する。
以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。
〔2−2〕この構成に従う場合の視聴者反応情報提供装置の構成
この構成に従う場合、視聴者反応情報提供装置は、(イ)センシング装置から、視聴者反応データを入手する手段と、(ロ)ユーザ端末から、視聴データを入手する手段と、(ハ)その入手した視聴者反応データとその入手した視聴データとの事後統合を実現すべく、その視聴者反応データが収集された際に割り付けられたタイムスタンプと、その視聴データが収集された際に割り付けられたタイムスタンプとを使って、その視聴者反応データとその視聴データとを時間同期させて統合する手段と、(ニ)その統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、(ホ)その生成した視聴質データの流通用の視聴メタデータを作成する手段と、(ヘ)その作成した視聴メタデータを要求元に送信する手段とを備えるように構成する。
以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。
〔3〕このように構成される本発明の処理について
このように構成される本発明により実現されることになる視聴者反応情報収集システムでは、センシング装置で、視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集し、一方、ユーザ端末で、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集すると、ユーザ端末あるいは視聴者反応情報提供装置で、その収集した視聴者反応データとその収集した視聴データとを時間同期させて統合する。そして、視聴者反応情報提供装置で、その統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する。
このようにして、本発明によれば、「コンテンツ(テレビ番組など)がどのように見られているのか」という視聴の「質」を、視聴者に負荷をかけることなく測定して提供することができるようになる。
〔4〕本発明の具体的な構成について
次に、本発明の具体的な構成について説明する。
本発明は、具体的には、コンテンツ提供装置とセンシング装置とユーザ端末と推定蓄積装置(視聴者反応情報提供装置に相当するもの)とで構成される視聴者反応情報収集システムに適用される。
〔4−1〕コンテンツ提供装置の構成
コンテンツ提供装置は、放送局やインターネットサービスプロバイダやコンテンツ配信事業者などにより構築されて、コンテンツを格納するコンテンツ格納手段と、視聴可能なコンテンツリストを生成するコンテンツリスト生成手段と、生成したコンテンツリストをユーザ端末に送信する送信手段と、ユーザ端末から送信されてくるコンテンツのリクエスト情報を受信する受信手段と、受信したリクエスト情報に応じたコンテンツを選択するコンテンツ選択手段と、選択したコンテンツをユーザ端末に送信する送信手段と、コンテンツに関する情報を記述したメタデータを生成するコンテンツメタデータ生成手段と、生成したコンテンツメタデータをユーザ端末に送信する送信手段とを備える。
〔4−2〕センシング装置の構成
センシング装置は、コンテンツを視聴している人間の反応をセンシングする手段と、センシングしたデータを処理する認識手段と、センシングしたデータや認識結果のデータを送信する送信手段とを備える。
〔4−3〕ユーザ端末の構成
ユーザ端末は、コンテンツ提供装置から送信されてくるコンテンツリストを受信する受信手段と、受信したコンテンツリストを出力するコンテンツリスト表示手段と、視聴コンテンツを取得するためのリクエスト情報を送信するリクエスト送信手段と、リクエストしたコンテンツを受信するコンテンツ受信手段と、受信したコンテンツをバッファリングする記録手段と、受信したコンテンツを再生する再生手段と、コンテンツ提供装置から送信されてくるコンテンツメタデータを受信する受信手段と、受信したコンテンツメタデータを格納するコンテンツメタデータ格納手段と、受信したコンテンツを受信したコンテンツメタデータとあわせて画面に表示する表示手段と、ユーザによる画面操作やユーザにより入力されるコンテンツ評価の情報を入力する入力手段と、ユーザの操作する画面操作履歴の情報を格納する画面操作履歴格納部と、センシング装置から送信されてくるセンシングデータや認識データを受信する受信手段と、入力した画面操作履歴の情報やコンテンツ評価の情報と、受信したセンシングデータや認識データとを時間同期をとって統合するデータ統合手段と、その統合データを推定蓄積装置に送信する送信手段とを備える。
ここでは、ユーザ端末が、画面操作履歴の情報などの視聴データと、センシング装置から送信されてくるコンテンツ視聴者の反応を示す視聴者反応データとを統合するという構成を採っているが、推定蓄積装置で統合するようにしてもよい。
〔4−4〕推定蓄積装置の構成
推定蓄積装置は、ユーザ端末から送信されてくるコンテンツの統合データを受信する受信手段と、受信した統合データからコンテンツの視聴質データを推定して生成する生成手段と、生成した視聴質データを格納する視聴質データ格納手段と、生成した視聴質データからその視聴質データの流通用の視聴メタデータを抽出する加工手段と、新規の視聴メタデータを追加する更新手段と、視聴メタデータを送信する送信手段とを備える。
〔4−5〕さらに具体的な構成
このように構成される本発明の視聴者反応情報収集システムでは、再生コンテンツに対する視聴者の実視聴時間の情報、再生コンテンツに対する視聴者の注目度の時間遷移の情報、再生コンテンツに対する視聴者の感情・気分の情報、再生コンテンツに対する視聴者の視聴前後における感情・気分の変化の情報、視聴者の入力した再生コンテンツに対するコンテンツ評価の情報の少なくとも1つを含むことがある。
また、コンテンツが記録媒体に録画されたテレビ番組などであっても、コンテンツ視聴開始時刻と先頭からの再生時間、および推定蓄積装置に保存された統合データのタイムスタンプに基づき時間同期をとることによって、コンテンツに対する視聴者反応を事後解析することができる。
また、視聴者反応として視聴者自身の感情、気分を用いることとし、センシング装置により視聴者の表情、視線、瞬き、体温(皮膚温度)、血圧、心拍数、発汗の少なくとも1つ以上をセンシングすることにより、視聴者自身の感情、気分を推定する。
また、視聴者反応として視聴者自身の感情、気分を用いることとし、視聴者からの入力に従って、喜怒哀楽などの視聴者自身の感情、気分を推定する。
また、個人情報を格納する手段と個人情報を送信する手段とを備えた個人情報管理装置を用意して、ユーザ端末あるいは推定蓄積装置は、その個人情報管理装置にアクセスすることで、視聴者の個人情報を入手することがある。
本発明では、上述した技術手段を採用することにより、実際にテレビ番組やコンテンツを見ているかどうかの実視聴自動判定を可能とする。さらに、視聴時における視聴者のリアクションをセンシングし認識することによって、通常の視聴形態におけるテレビ番組やコンテンツに対しての視聴者の注目度の推定、気分・感情の推定を実現する。
以下に、添付の図面を用いて本発明の構造と動作について詳細に説明する。
ここで、以下の説明は、本発明の理解を助けるものであって、本発明の特許請求の範囲を制限するものではない。例えば、以降の説明では主として赤外線発光照明装置を使用した場合の記述であるが、それに限定するものではない。可視光、紫外光を用いても同様な効果が得られる。また、コンテンツはテレビ放送番組に限られるものではなく、インターネット上のデジタルコンテンツや広告なども含まれる。
本発明の実施の形態では、テレビ番組や映像コンテンツ視聴時における一般視聴者のリアクション情報を収集蓄積することがポイントの一つである。ところが、一般に自宅などでくつろいでいるときのカメラ映像やマイク音声を収集されることに対して大きな心理的抵抗があるため、何らかの動機づけがない限り、視聴者(サービス利用者)からそれらの利用許可を得ることは困難である。
後述する本発明の第1の実施形態では、視聴時におけるカメラ映像やマイク音声といった個人情報を流通させる対価としての利益(以下、「インセンティブ」)を一般視聴者に与えることを大きな特徴とする。
例えば、“「ファイバーティービー」インターネット<URL:http://www.pointage.ne.jp/fibertv.html>)2003.8.25 検索”によれば、映画・音楽・アニメーション・スポーツ・バラエティなどのビデオコンテンツをオンデマンドで配信するエンターテインメントコンテンツ専門チャネル「ファイバーティービー」がある。
この「ファイバーティービー」は、会員制有料サービスで、会員登録した利用者は家庭内テレビにセットトップボックス(STB)をつないで、インターネットや電力系CATV経由で受信したコンテンツを視聴する。利用者のインセンティブとして、広告や有料番組を見れば「ビュー」と呼ばれるポイントを獲得する。この獲得ポイントをためれば、有料コンテンツを無料視聴できるといった特典を享受できる仕組みとなっている。
インセンティブの例としては、有料コンテンツの無料視聴クーポン、あるいは後日商品と交換したり、衛星放送やCATVサービスの月額利用料支払いに充当したりすることが可能なポイントとする方法が考えられる。また、定期的な抽選によるプレゼント進呈、キャッシュバックであってもかまわない。こうした利用者へのインセンティブが威力を発揮し、後述する「テレビ番組/コンテンツの視聴質フィードバックサービス」、「独居高齢者/単身世帯主の自動安否確認サービス」のビジネスモデルが成立する。
図1は、本発明によるコンテンツに対する視聴者反応情報の収集システムの一般的な構成例を説明する図である。
図中、10はコンテンツ提供装置、11はコンテンツサーバ、12はコンテンツメタデータDBサーバ、20はユーザ端末、21はセンシング装置、30は推定蓄積装置、41は視聴質DBサーバ、42はユーザDBサーバ、43は課金決済サーバである。50は通信網であって、コンテンツ提供装置10、コンテンツサーバ11、コンテンツメタデータDBサーバ12、ユーザ端末20、センシング装置21、推定蓄積装置30、視聴質DBサーバ41、ユーザDBサーバ42、課金決済サーバ43を相互に接続するものである。通信網50の実現手段は、有線、無線を問わない。
図2および図3は、本発明によるコンテンツに対する視聴者反応情報の収集システムの代表的な動作例を説明するブロック図である。
両者の差異は、コンテンツの視聴データとコンテンツに対する視聴者反応のセンシングデータおよび認識データとの時刻同期をユーザ端末20でとるか、推定蓄積装置30でとるかの違いである。すなわち、図2が前記時刻同期をユーザ端末20側でとる場合に相当し、図3が前記時刻同期を推定蓄積装置30側でとる場合に相当する。
図4および図5は、本発明におけるコンテンツ提供装置10、ユーザ端末20、センシング装置21、推定蓄積装置30の動作を説明する処理フロー図である。ここで、図4が前記時刻同期をユーザ端末20側でとる場合に相当し、図5が前記時刻同期を推定蓄積装置30側でとる場合に相当する。
当然ながら、後述する2つのサービス応用例「テレビ番組/コンテンツの視聴質フィードバックサービス」、「独居高齢者/単身世帯主の自動安否確認サービス」にかかわらず、本発明の基本的な処理フローは共通となっている。
図2および図3において、コンテンツ提供装置10は、コンテンツ格納部101、コンテンツリスト生成部102、コンテンツリスト送信部103、リクエスト受信部104、コンテンツ選択部105、コンテンツ送信部106、コンテンツメタデータ生成部107、コンテンツメタデータ送信部108から構成される。
ユーザ端末20は、コンテンツリスト受信部2001、コンテンツリスト表示部2002、リクエスト送信部2003、コンテンツ受信部2004、コンテンツ記録部2005、コンテンツ再生部2006、画面表示部2007、コンテンツメタデータ受信部2008、コンテンツメタデータ格納部2009、認識データ受信部2010、データ統合部2011、入力部2012、画面操作履歴格納部2013、統合データ送信部2014から構成される。
ここで、図3では、認識データ受信部2010、データ統合部2011および統合データ送信部2014がなく、その代わりに、視聴データ加工部2015および視聴データ送信部2016が追加されている。
コンテンツ提供装置10において、コンテンツサーバ11から取り出された利用可能な全コンテンツは一旦コンテンツ格納部101に保存される。コンテンツリスト生成部102で、サービス利用者ごとに視聴可能な映像コンテンツを識別し、コンテンツリストを作成する。当該コンテンツリストがコンテンツリスト送信部103を通じて、ユーザ端末20に送信される。
これを受けて、ユーザ端末20において、コンテンツリスト受信部2001が前記コンテンツリストを受信し、コンテンツリスト表示部2002で端末画面に表示される。前記サービス利用者がコンテンツリスト画面を見ながら、特定のコンテンツを選択すると、そのコンテンツに対応するメタデータ(以降、コンテンツメタデータとよぶ)からリクエストコンテンツの所在、すなわちコンテンツURLが抽出される。リクエスト送信部2003は、前記リクエストコンテンツのURLを解析し、コンテンツIDなどコンテンツ取得に必要な情報をコンテンツ提供装置10に送信する。
これを受けて、コンテンツ提供装置10において、リクエスト受信部104はユーザ端末20からのコンテンツリクエスト情報を受信し、コンテンツ選択部105に送る。コンテンツ選択部105は前記リクエストコンテンツをコンテンツ格納部101から呼び出し、コンテンツ送信部106が前記リクエストコンテンツの送信準備を行う。
それと同時に、コンテンツメタデータ生成部107によって、前記リクエストコンテンツのメタデータが、タイトル、サブタイトル、制作者、著作権者、放送時間/再生時間、ジャンル、出演者名、(コンテンツURL)などを格納したコンテンツメタデータDBサーバ12から自動作成され、前記リクエストコンテンツのメタデータがコンテンツメタデータ送信部108に渡される。
続いて、コンテンツ送信部106、コンテンツメタデータ送信部108によって、前記リクエストコンテンツおよびそのコンテンツメタデータ情報がユーザ端末20に送信される。
これを受けて、ユーザ端末20において、前記リクエストコンテンツはコンテンツ受信部2004によって受信され、再生のためコンテンツ記録部2005に一時的に記録される。その後、コンテンツ再生部2006によって前記サービス利用者のリクエストしたコンテンツが画面上で再生される。
一方、前記リクエストコンテンツとともに送信された前記リクエストコンテンツのメタデータは、コンテンツメタデータ受信部2008によって受信され、当該メタデータ情報はコンテンツメタデータ格納部2009に格納される。タイトル、制作者、時間などの前記コンテンツメタデータ情報の一部は画面表示部2007に送られ、端末画面に表示される。
図2および図3において、センシング装置21は、センシング部2101、認識部2102、認識データ送信部2103から構成される。
本発明では、赤外線ビデオカメラ、頭部モーションセンサ、マイク、RF−IDタグ/リーダといった非侵襲型センサを用いて、視聴時における人物の表情、視線パターン(注視方向)、目の瞳孔直径、瞬き、顔部の向き、笑い声、体温、心拍数、利用者識別IDなどの情報をセンシングし、収集する。
ビデオカメラを用いた人物の表情認識に関しては、抽出された入力画像(静止画)の特徴ベクトルを喜怒哀楽などのカテゴリ別に量子化し、各カテゴリの表情を高精度に認識する手段について、例えば、特許2839855 号公報に、「顔の表情認識装置」が記載、開示されている。また、不特定多数の人物の顔動画像から、その表情を認識する手段については、例えば、特許2962549 号公報に、「顔動画像からの表情認識方法」が記載、開示されている。
また、赤外線ビデオカメラを用いた注視方向、片目の瞳孔直径の測定に関しては、利用者になるべく負担をかけずに、かつ、特別な器具を装着することなく注視方向を測定可能とする手段について、例えば、特開2003-079577 に、「視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体」が記載、開示されている。
また、マイクを用いた笑い声の検知に関しては、笑い声区間を自動的に、しかも少ない演算量とメモリサイズで抽出することができる音声処理装置と、動画像から笑い動作区間を自動的に抽出する手段とについて、例えば、特開2002-006874 に、「音声処理装置、動画像処理装置、音声・動画像処理装置及び音声・動画像処理プログラムを記録した記録媒体」が記載、開示されている。
また、顔の向きは、市販の3Dモーションセンサ、例えばMDP−A309(NECトーキン製)などを頭部に装着すれば、容易にセンシングできる。体温は市販の体温計を用いて、心拍数は、市販の心拍計を胸部に装着して測定する。あるいは、市販の脈拍センサ(例えばパソリカTP−HB4)を耳たぶに装着して測定した脈拍数で代用してもよい。利用者識別IDは、市販のRF−IDタグとリーダとを用いて取得すればよい。
認識部2102は、前記特許文献に記載される手段などを用いて、視聴時における人物の顔に表れる表情、視線パターン(注視方向)、目の瞳孔直径、瞬き、笑い声を認識する。このようにして取得されたセンシングデータおよび認識データは、認識データ送信部2103によって、図2の構成に従う場合には、センシング装置21からユーザ端末20に送信される。
これを受けて、ユーザ端末20において、前記センシングデータおよび認識データは、認識データ受信部2010によって受信され、データ統合部2011に送られる。
このデータ統合部2011は、時間同期をとることにより、当該センシングデータおよび認識データと、画面操作履歴格納部2013に保存されているサービス利用者の画面操作履歴データと、コンテンツメタデータ格納部2009に格納されているコンテンツメタデータとを、前記リクエストコンテンツについての統合データ(視聴と認識についての統合データ)として統合する。なお、前述の画面操作履歴データについては、入力部2012を通じてサービス利用者が入力した画面操作の全履歴が格納されている。
ここで、データ統合部2011は、入力部2012がユーザの入力するコンテンツ評価の情報を受け取る場合には、そのデータについても統合することになる。
このとき生成される統合データは、サービス利用者の画面操作履歴データに従って、どういうコンテンツがどのような形態(例えば、チャネルが頻繁に切り替えられた中で選択されていたというような形態)で選択されて視聴されたのかを示すとともに、センシングデータおよび認識データに従って、そのとき視聴者がどのような反応を示したのかについて示すことになる。
最終的に時間同期のとれた統合データは、図2の構成に従う場合には、統合データ送信部2014によって、ある一定周期で推定蓄積装置30に送信される。
図2において、推定蓄積装置30は、統合データ受信部301、視聴質推定生成部302、視聴質データ格納部303、視聴質データ送信部304、視聴メタデータ加工部305、視聴メタデータ更新部306、視聴メタデータ格納部307、視聴メタデータ送信部308から構成される。
ここで、図3では、統合データ受信部301が備えられないとともに、前記302〜308の他に、視聴データ受信部310、認識データ受信部311およびデータ統合部312が追加されている。
図2あるいは図4においては、前記リクエストコンテンツの統合データは、推定蓄積装置30の統合データ受信部301によって受信され、視聴質推定生成部302では後述する視聴質データを推定し、生成する。
一方、図3あるいは図5においては、推定蓄積装置30の認識データ受信部311が、センシング装置21から送信された視聴者反応のセンシングデータおよび認識データを受信し、推定蓄積装置30の視聴データ受信部310が、ユーザ端末20から送信された主としてコンテンツメタデータやコンテンツ視聴時間、利用者の画面操作履歴データを加工した視聴データを受信する。
そして、推定蓄積装置30のデータ統合部312は、一定周期で、前記リクエストコンテンツに対する前記視聴者反応のセンシングデータおよび認識データと前記視聴データとを時間同期をとって統合し、それらを視聴質推定生成部302に渡す。視聴質推定生成部302では後述する視聴質データを推定し、生成する。
本発明における視聴質データは、(1)視聴コンテンツに対する実視聴時間、(2)注目度の時間遷移、(3)シーンごとの感情や視聴後の気分を指す。
これらの視聴質データの推定処理の具体的な処理手順について、図6に基づいて説明する。
(1)に関しては、前記センシングデータおよび認識データに含まれる顔部の向き、あるいは視線位置、あるいは両方が所定の範囲内にあるかを判定し、その結果に基づく2値の時系列データをそれぞれ生成して、それに基づいて視聴コンテンツに対する実視聴時間を算出する。
例えば、コンテンツを再生している表示機器の画面範囲内に視線位置がある時間を視聴コンテンツに対する実視聴時間とした場合、表示機器の画面範囲を前記所定の範囲とし、その範囲内にあると判定された時間を計数することにより、視聴コンテンツに対する実視聴時間を算出することができる。
このようにして算出される視聴コンテンツに対する実視聴時間は視聴の質を示すものであり、有効な視聴質データの1つである。
(2)に関しては、図6の処理601に示すように、時刻tにおける注目度y(t)を、時刻tにおけるn種類の視聴者の反応データxi (t) と、n個の重み係数ai と、時刻t−1の注目度y(t−1)と、1個の比例係数bとを用いて、
y(t)=a1 1 (t) +a2 2 (t) +・・+an n (t) +by(t−1)
というように重み付き線形和で近似的に表し、当該注目度y(t)の値の時系列データを生成する。ただし、初期時刻における注目度の初期値y(0)は0と定義する。
ここで、視聴者の反応データxi (t) は、あらかじめ収集したサンプル母集団の最小値と最大値、あるいは標本平均と標本分散の値を用いて、所定の範囲内の数値となるように正規化処理を行う。
視聴者の反応データxi (t) とは、統合データの元となったデータから選択されるものであって、視聴者反応のセンシングデータおよび認識データの中から設定されたり、視聴者の画面操作履歴データに基づいて設定されることになる。
例えば、x1 (t) として片目の瞳孔直径を設定し、x2 (t) として心拍数を設定し、x3 (t) として画面操作(TVリモコン操作)の頻度を設定する。この場合、瞳孔が広がったり、心拍数が増えるのはコンテンツを注視している生理的現象と考えられるので、a1,2 に正の重み係数をセットし、一方、頻繁にTVリモコンを操作して視聴コンテンツを切り替える現象はコンテンツに注目してないと考えられるので、a3 に負の重み係数をセットすることで、視聴者が注目している程大きな値を示す注目度y(t)を定義できることになる。
このようにして算出される注目度の時間遷移は視聴の質を示すものであり、有効な視聴質データの1つである。
(3)に関しては、図6の処理602〜処理605に示すように、まず、ある時間区間における表情の発生頻度が最大のものをその時間範囲の感情として「喜」、「怒」、「哀」の3値でコード化する。コード化された感情の時系列データを、それぞれの時間区間をシーンと対応づけることによって、シーンごとの感情とする。
次に、感情の時系列データを用いてコンテンツに対する気分を決定したり、コンテンツの視聴前後での気分の変化を決定する。気分の値は持続時間が最大の感情の値に対し、当該持続時間が所定の閾値を超えるか否かで「快」、「不快」、「不定」の3値にコード化する。例えば、持続時間が最大の感情の値が「喜」あるいは「哀」、かつ所定の閾値を超える場合は気分を「快」とし、持続時間が最大の感情の値が「怒」、かつ所定の閾値を超える場合は、気分を「不快」とし、それ以外は「不定」とする。
このようにして推定されたシーンごとの感情やコンテンツに対する気分やコンテンツの視聴前後の気分の変化は視聴の質を示すものであり、有効な視聴質データの1つである。
こうして推定された前記リクエストコンテンツについての視聴質データは視聴質データ格納部303に格納され、視聴メタデータ加工部305によってメタデータ流通に適したフォーマットに加工される。前記リクエストコンテンツについて、前記サービス利用者以外のサービス利用者の視聴質データが新しく推定蓄積装置30に送信されてきた場合には、視聴メタデータ更新部306によって追加更新され、視聴メタデータ格納部307に格納されることになる。
図7に、視聴メタデータ加工部305によって加工された視聴メタデータのフォーマットの一例を示す。この例では、視聴メタデータはXMLベースで記述されており、推定蓄積装置30における一元管理やネットワーク上のメタデータ流通との技術的親和性が高いものとなっている。
最後に、視聴質データ送信部304、視聴メタデータ送信部308は、クライアントやブラウザからの視聴質データの送信要求、視聴メタデータの送信要求にそれぞれ応答する。
図8に、視聴質データのうちの実視聴時間計測機能の表示画面の一例を図示する。また、図9に、視聴質データのうちの注目度推定機能の表示画面例の一例を図示する。
この図9の画面では、視聴コンテンツとそれに対する注目度の時系列データグラフ間の時刻同期がとれていることがポイントである。すなわち、注目度グラフのスライダを動かすことにより、ユーザがコンテンツのどのシーンで注目度が高いかを、一目で把握することを可能としている。
以上の説明では説明しなかったが、視聴者が誰であるのかを識別できる場合には、その識別結果をキーにして個人情報を管理するデータベースにアクセスすることで、視聴者の個人情報を得て、それを視聴質データや視聴メタデータに付加する形で送信するようにしてもよい。このようにすると、どういう視聴者がコンテンツにどのように反応したのかを知ることができるようになる。
〔I〕本発明にかかる第1の実施形態
次に、本発明にかかる第1の実施形態「テレビ番組/コンテンツの視聴質フィードバックサービス」について説明する。
当該サービスは、従来できていなかったコンテンツの視聴質情報をエンドユーザ側の生の意見としてコンテンツ制作事業者にフィードバックすることにより、良質なコンテンツ制作を実現するビジネスモデルである。
本実施形態において、テレビ番組/コンテンツ制作事業者は、制作番組/コンテンツに対する一般視聴者のリアクションに基づく注目度や心理状態、気分といった視聴質に関するデータを入手できる。その視聴質フィードバックを以降の番組やコンテンツ制作に活かすことで、競合他社との差異化をはかることが可能となる。
具体的には、ユーザ端末20側の時間同期および統合処理によって、推定蓄積装置30内で、着目するコンテンツのメタデータ、ならびにセンシング装置21から送信された当該コンテンツの様々な視聴者反応に関するセンシングデータ・認識データが蓄積、一元管理されている。そのため、タイムスタンプを検索キーとして、いつでも当該コンテンツの実視聴時間や注目度の時間遷移といったデータを閲覧したり、さらに所望のシーン別に視聴者リアクションを解析したりすることが実現できる。
なお、市販のHDDレコーダやDVDレコーダなどの記録媒体に録画されたテレビ番組であっても、推定蓄積装置30で蓄積されているセンシング装置21から送信された着目コンテンツの様々な視聴者反応のセンシングデータ・認識データのタイムスタンプ、ならびにコンテンツ視聴開始時刻とコンテンツ先頭からの再生時間を合わせれば視聴メタデータの時間同期性が保たれる。よって、当該コンテンツに対する様々な視聴者反応をオフラインで事後解析することが可能となる。
さらに、広告主は前記視聴質データに基づいて、広告宣伝の効果を客観的に把握することができる。一方、一般視聴者は、顔画像や話し声(独り言)のデータを提供する対価として、ポイントをためて換金したり、有料コンテンツを無料で視聴したりするメリットを享受できる。
〔II〕本発明にかかる第2の実施形態
次に、本発明にかかる第2の実施形態「独居高齢者/単身世帯主の自動安否確認サービス」について説明する。
当該サービスは、通常ほとんどの世帯にテレビが少なくとも1台あることに着目し、テレビ番組の視聴質情報を独居高齢者や単身赴任中の家族の安否情報として提供し、遠隔地に住む家族や親類の安心感、そして一種のつながり感の醸成をねらったビジネスモデルである。
独居高齢者または遠隔地に離れて暮らす単身世帯主を見守るケースにおいて、例えば、後述する遠隔地に離れて暮らす家族の間で使われることを想定して開発されたシステムの端末である「Family Planter」端末がある。この「Family Planter」端末については、特開2003-141052 (「人の存在・状態情報の相互通信端末、人の存在・状態情報の相互通信方法、相互通信プログラムおよびそのプログラムを記録した記録媒体」)に詳しく記載されている。
「Family Planter」端末には、各種センサが組み込まれ、このセンサが検出したセンサ情報は、ネットワークを介して相手端末へ送られる。前記センサ情報を受信した相手端末では、前記受信したセンサ情報に応じて、モータを回転し、また、LEDを発光することによって、センサ情報に対応して表示する。また、「Family Planter」端末には、タッチセンサを備え、その端末に接触すると、この接触に応じて、相手端末で音が発生し、明示的な情報を伝達することができる。
このように「Family Planter」端末は、利用者の存在・状態情報を、主にセンサによって獲得し、相手端末に送っている。
第2の実施形態では、本発明がこの「Family Planter」端末の機能の一部を代替えするイメージである。以降、単身赴任の家庭を例にとって、詳細に説明する。
第2の実施形態では、基本的な構成として、独居高齢者や単身赴任中の世帯主の家族に対して、テレビ番組の視聴質情報を安否情報として提供することにより、「独居高齢者/単身世帯主の自動安否確認サービス」を実現する。
さらに、第2の実施形態では、この基本的な構成に加えて、以下に説明するような処理を行うことができるようになることで、より確実な「独居高齢者/単身世帯主の自動安否確認サービス」を実現することができるようになる。
単身赴任先の家に世帯主(利用者)が帰ると、その部屋に設置されているRF−IDリーダ端末がRF−IDタグによって当該世帯主を検知し、帰宅のメッセージが遠く離れた自宅の端末に送られ、画面に表示される。サービス利用者の家族がこの表示に気づくことによって、相手の存在を感じることができ、つながり感を醸成することが期待される。また、テレビの電源を入れることによって、利用者の存在感も離れて暮らす家族に伝えることができる。
なお、サービス利用者が、通信綱50を介して、ユーザ端末20に接続することを望む場合、サービス利用者側の端末で利用可能な存在・状態情報の種類を、ユーザ端末20から獲得する。このときに、利用者の認証が行われる。
この利用者の認証によって、接続要求を出した利用者と接続を要求された利用者との間における社会的な親密度に応じて、利用することができる存在・状態情報を変えることができる。このように、社会的な親密度に応じて、利用することができる存在・状態情報を変えることによって、存在・状態情報の送信におけるプライバシの問題をある程度、解決することもできる。
例えば、遠隔地に住む家族であれば、赤外線・超音波センサ、カメラ、マイク、全ての存在・状態情報を利用することができるとする。一方、地方自治体による独居高齢者の介護サービスなど、仕事上でのみ関係する利用者に対しては、RF−IDタグや赤外線センサから得られる存在・状態情報のみを利用することができるなど、存在・状態情報を選択的に提供してもよい。
次に、離れて暮らす人、家族の存在・状態情報の表現形式の例について説明する。
利用者が何らかのアクションをおこしたり、利用者の存在・状態に何らかの変化がおきたりすると、前記アクション、前記変化を時系列イベントとして記録し、推定蓄積装置30に格納する。これらのイベント群によって、人の存在・状態情報を表現する。
また、遠隔地にいる相手の状態、安否を知らせる表現形式として、テキスト文字以外に、例えば「色」や「音」によって表現することも可能である。
例えば、「色」を使った簡単な例は、センシング装置21に3種類のセンサが存在し、かつ利用可能であれば、これらのセンサの出力信号をそれぞれ、色の3要素:赤(Red)、緑(Green)、青(Blue)の値にAD変換し提示する例が考えられる。
一方、「音」を使った簡単な例は、あらかじめ登録した電話番号(自宅)へ自動発信し、呼び出し音を3回だけ鳴らしたり、遠く離れた家族のPC画面にあらかじめ登録したWAVファイルを自動再生したりすることができる。
このようにして、本発明にかかる第2の実施形態「独居高齢者/単身世帯主の自動安否確認サービス」によれば、テレビ番組(コンテンツ)制作事業者は、制作番組(コンテンツ)に対する一般視聴者のリアクションに基づく注目度や心理状態、気分といった視聴質に関するデータを入手できる。そして、その視聴質フィードバックを以降の番組(コンテンツ)制作に活かすことで、競合他社との差異化をはかることが可能となる。
これに加えて、独居高齢者や単身世帯の家族・親類は、前記視聴質データに基づいて、前記独居高齢者や単身赴任中の家族の安否を確認対象の本人に意識させることなく確認できるので、ネットワークによるさりげない見守りが実現できる。一方、独居高齢者/単身世帯主は、顔画像や話し声(独り言)のデータを提供する対価として、ポイントをためて換金したり、有料コンテンツを無料で視聴したりするメリットを享受できる。
以上説明したように、本発明のコンテンツに対する視聴者反応情報の収集システムは、3Dモーションセンサによる顔の向き、赤外線ビデオカメラによる人の視線パターン、瞳孔直径、顔に表れる表情、笑い声といったマルチモーダルの情報を統合することで、視聴者自身による記入やWeb上での回答といった作業負荷を軽減し、通常の視聴形態における視聴質データの自動集計を実現する。それと同時に、RF−IDタグ読み取りによる視聴者個人の特定をも高速かつ容易に実現できる、などの効果が期待できる。
また、ユーザ端末20や推定蓄積装置30での時間同期および統合処理によって、推定蓄積装置30内で、着目するコンテンツのメタデータ、ならびにセンシング装置21から送信された当該コンテンツに対しての様々な視聴者反応に関するセンシングデータ・認識データが視聴メタデータ情報として蓄積、一元管理されている。したがって、タイムスタンプを検索キーとして、いつでも所望のシーン別に視聴者リアクションを解析したりすることができる。
さらに、HDDやDVDなどの記録媒体に録画されたテレビ番組であっても、推定蓄積装置30側の時間同期および統合処理によって、センシング装置21から送信された着目コンテンツの様々な視聴者反応に関するセンシングデータ・認識データにはタイムスタンプが付与されている。ゆえに、前記タイムスタンプとコンテンツ視聴開始時刻・コンテンツ先頭からの再生時間とをつき合わせることによって、着目コンテンツに対する様々な視聴者反応を事後解析することが可能となる。
そして、本発明を視聴質フィードバックサービスに応用すれば、テレビ番組/コンテンツ制作事業者は視聴質情報を活かした番組/コンテンツ制作を行うことができ、自社の収益強化につながる。
そして、本発明を遠隔居住者の自動安否確認サービスに応用すれば、視聴質情報の取得を通じて、限りなく自然な形態で安否を確認したり、前記居住者本人に意識させることなく見守ったりすることが可能となる。つまりネットワークを介して、人の存在や元気に暮らしている、健康であるといった状態という非明示的な情報を、相手先に意識させることなく、生活環境に溶け込んだ形態で、自分の端末と相手端末との間で常時やり取りすることによって安否を確認し、利用者間のつながり感を醸成することができるという効果を奏する。
本発明のコンテンツに対する視聴者反応情報の収集システムの一般的な構成例を説明する図である。 本発明のコンテンツに対する視聴者反応情報の収集システムの代表的な動作例を説明するブロック図である。 本発明のコンテンツに対する視聴者反応情報の収集システムの代表的な動作例を説明するブロック図である。 本発明におけるコンテンツ提供装置、ユーザ端末、センシング装置、推定蓄積装置の動作を説明する処理フロー図である。 本発明におけるコンテンツ提供装置、ユーザ端末、センシング装置、推定蓄積装置の動作を説明する処理フロー図である。 本発明の視聴質推定生成部の動作を説明するブロック図である。 視聴メタデータ情報の一例を示した図である。 実視聴時間計測機能の表示画面の一例を示した図である。 注目度推定機能の表示画面の一例を示した図である。
符号の説明
10 コンテンツ提供装置
11 コンテンツサーバ
12 コンテンツメタデータDBサーバ
20 ユーザ端末
21 センシング装置
30 推定蓄積装置
41 視聴質DBサーバ
42 ユーザDBサーバ
43 課金決済サーバ

Claims (8)

  1. 再生されるコンテンツに対しての視聴者反応の情報を収集する視聴者反応情報収集方法であって、
    視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集する過程と、
    画面操作履歴の情報を含む再生コンテンツについての視聴データを収集する過程と、
    前記視聴者反応データと前記視聴データとの事後統合を実現すべく、前記視聴者反応データが収集された際に割り付けられたタイムスタンプと、前記視聴データが収集された際に割り付けられたタイムスタンプとを使って、前記視聴者反応データと前記視聴データとを時間同期させて統合する過程と、
    前記統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する過程とを備えることを、
    特徴とする視聴者反応情報収集方法。
  2. 請求項に記載の視聴者反応情報収集方法において、
    前記視聴者反応データを収集する過程では、視聴者の感情・気分を示す情報を収集すべく、前記視聴者反応データとして、視聴者の表情、視線、瞬き、体温、血圧、心拍数、発汗のうち、少なくともいずれか1つを収集することを、
    特徴とする視聴者反応情報収集方法。
  3. 請求項に記載の視聴者反応情報収集方法において、
    前記視聴データを収集する過程では、視聴者の感情・気分を示す情報を収集すべく、前記視聴データの1つとして、前記ユーザ端末の備える入力装置から、視聴者の感情・気分を示す情報を収集することを、
    特徴とする視聴者反応情報収集方法。
  4. 請求項ないしのいずれか1項に記載の視聴者反応情報収集方法において、
    個人情報を管理する装置から、前記視聴メタデータの作成元となった再生コンテンツを視聴する視聴者の個人情報を取得する過程を備えることを、
    特徴とする視聴者反応情報収集方法。
  5. 再生されるコンテンツに対しての視聴者反応の情報を収集する視聴者反応情報収集システムで用いられるユーザ端末であって、
    コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、
    前記コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、
    視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、
    視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置から、該視聴者反応データを入手する手段と、
    前記画面操作履歴の情報と前記視聴者反応データとの事後統合を実現すべく、前記画面操作履歴の情報が収集された際に割り付けられたタイムスタンプと、前記視聴者反応データが収集された際に割り付けられたタイムスタンプとを使って、前記画面操作履歴の情報と前記視聴者反応データとを時間同期させて統合するとともに、それに前記メタデータを統合する手段と、
    前記統合データを、コンテンツに対しての視聴者反応の情報を提供する視聴者反応情報提供装置に送信する手段とを備えることを、
    特徴とする視聴者反応情報収集システムで用いられるユーザ端末。
  6. 再生されるコンテンツに対しての視聴者反応の情報を収集する視聴者反応情報収集システムで用いられる視聴者反応情報提供装置であって、
    視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者につい1の認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置から、該視聴者反応データを入手する手段と、
    コンテンツを再生するユーザ端末から、画面操作履歴の情報と再生コンテンツのメタデータとを加工することにより生成された視聴データを入手する手段と、
    前記視聴者反応データと前記視聴データとの事後統合を実現すべく、前記視聴者反応データが収集された際に割り付けられたタイムスタンプと、前記視聴データが収集された際に割り付けられたタイムスタンプとを使って、前記視聴者反応データと前記視聴データとを時間同期させて統合する手段と、
    前記統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、
    前記視聴質データの流通用の視聴メタデータを作成する手段と、
    前記視聴メタデータを要求元に送信する手段とを備えることを、
    特徴とする視聴者反応情報収集システムで用いられる視聴者反応情報提供装置。
  7. 請求項に記載のユーザ端末を構成する手段としてコンピュータを機能させるための視聴者反応情報作成用プログラム。
  8. 請求項に記載の視聴者反応情報提供装置を構成する手段としてコンピュータを機能させるための視聴者反応情報作成用プログラム。
JP2003379243A 2003-11-10 2003-11-10 視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム Expired - Fee Related JP4335642B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003379243A JP4335642B2 (ja) 2003-11-10 2003-11-10 視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003379243A JP4335642B2 (ja) 2003-11-10 2003-11-10 視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム

Publications (2)

Publication Number Publication Date
JP2005142975A JP2005142975A (ja) 2005-06-02
JP4335642B2 true JP4335642B2 (ja) 2009-09-30

Family

ID=34689356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003379243A Expired - Fee Related JP4335642B2 (ja) 2003-11-10 2003-11-10 視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム

Country Status (1)

Country Link
JP (1) JP4335642B2 (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4536558B2 (ja) * 2005-03-11 2010-09-01 株式会社エム・エム・エヌ テレビ番組の視聴質測定方法
JP2007034664A (ja) * 2005-07-27 2007-02-08 Sony Corp 感情推定装置および方法、記録媒体、および、プログラム
JP2007036874A (ja) * 2005-07-28 2007-02-08 Univ Of Tokyo 視聴者情報測定システム及びこれを用いたマッチングシステム
JP2007110438A (ja) * 2005-10-13 2007-04-26 Tokyo Fm Broadcasting Co Ltd デジタルラジオ放送波受信制御システム及びそのサーバ装置
JP4568211B2 (ja) * 2005-11-15 2010-10-27 日本電信電話株式会社 感覚通信装置及び感覚通信方法
JP2008009501A (ja) * 2006-06-27 2008-01-17 Olympus Corp 課金方法
JP4868360B2 (ja) * 2006-08-14 2012-02-01 株式会社国際電気通信基礎技術研究所 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム
US9514436B2 (en) * 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体
US8230457B2 (en) * 2007-03-07 2012-07-24 The Nielsen Company (Us), Llc. Method and system for using coherence of biological responses as a measure of performance of a media
WO2008111164A1 (ja) * 2007-03-13 2008-09-18 Mitsubishi Electric Corporation エレベータのかご内情報提供システム
JP4538756B2 (ja) * 2007-12-03 2010-09-08 ソニー株式会社 情報処理装置、情報処理端末、情報処理方法、およびプログラム
JP5082888B2 (ja) * 2008-01-28 2012-11-28 富士ゼロックス株式会社 閲覧度合い判別システム
JP2009267445A (ja) * 2008-04-21 2009-11-12 Toshiba Corp 嗜好性情報管理装置及び嗜好性情報管理方法
JP2010094493A (ja) * 2008-09-22 2010-04-30 Koichi Kikuchi 視認情景に対する視認者情感判定装置
KR101116373B1 (ko) * 2008-10-31 2012-03-19 한국과학기술원 감정데이터 공유시스템 및 그 공유시스템을 이용한 감정데이터 공유방법
KR20100061078A (ko) * 2008-11-28 2010-06-07 삼성전자주식회사 메타 데이터를 이용하는 컨텐츠 소비 방법 및 그 장치
JP5715390B2 (ja) * 2009-12-03 2015-05-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 視聴端末装置、視聴統計装置、視聴統計処理システムおよび視聴統計処理方法
JP2011129997A (ja) * 2009-12-15 2011-06-30 Victor Co Of Japan Ltd ユーザ情報処理プログラム、再生プログラム、ユーザ情報処理装置、再生装置、ユーザ情報処理方法、及び、再生方法
US9099019B2 (en) 2010-08-12 2015-08-04 Lg Electronics Inc. Image display device, image display system, and method for analyzing the emotional state of a user
JP2014504460A (ja) * 2010-09-30 2014-02-20 アフェクティヴァ,インコーポレイテッド ウェブ対応アプリケーションに対する感情データの測定
KR101427213B1 (ko) 2010-11-12 2014-08-14 한국전자통신연구원 사용자 관심 패턴 모델링 서버 및 사용자 관심 패턴 모델링 방법
JP5843480B2 (ja) * 2011-05-18 2016-01-13 日本放送協会 受信機及びプログラム
KR101635290B1 (ko) 2011-08-04 2016-06-30 이베이 인크. 콘텐츠 디스플레이 시스템 및 방법
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US9571879B2 (en) 2012-01-10 2017-02-14 Microsoft Technology Licensing, Llc Consumption of content with reactions of an individual
JP5937829B2 (ja) * 2012-01-25 2016-06-22 日本放送協会 視聴状況認識装置及び視聴状況認識プログラム
JP5775837B2 (ja) * 2012-03-02 2015-09-09 日本電信電話株式会社 興味度合い推定装置、方法及びプログラム
JP6254785B2 (ja) * 2012-07-24 2017-12-27 サイトセンシング株式会社 視聴率調査システム、並びに表情情報生成装置及び表情情報生成プログラム
KR101535432B1 (ko) * 2013-09-13 2015-07-13 엔에이치엔엔터테인먼트 주식회사 콘텐츠 평가 시스템 및 이를 이용한 콘텐츠 평가 방법
JP6154728B2 (ja) * 2013-10-28 2017-06-28 日本放送協会 視聴状態推定装置およびそのプログラム
US9705936B2 (en) * 2015-04-24 2017-07-11 Mersive Technologies, Inc. System and method for interactive and real-time visualization of distributed media
JP7030316B2 (ja) * 2016-10-14 2022-03-07 学校法人立命館 情報記録装置、時刻特定装置、時刻特定システム、及び時刻特定方法
JP2018093350A (ja) * 2016-12-01 2018-06-14 有限会社曽根地所 注目度評価システム
KR101974130B1 (ko) * 2018-02-02 2019-04-30 동서대학교 산학협력단 관객의 감정정보를 이용한 실시간 반응형 콘텐츠 제공 시스템
CN111886565B (zh) 2018-03-22 2024-06-14 国立研究开发法人科学技术振兴机构 处理装置、处理方法、数据处理装置、数据处理系统、数据处理方法和程序
JP2019036326A (ja) * 2018-10-05 2019-03-07 株式会社ニコン 電子機器
CN113853598A (zh) * 2019-05-27 2021-12-28 索尼集团公司 人工智能信息处理装置及人工智能信息处理方法
JP7552605B2 (ja) 2019-09-24 2024-09-18 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP6934233B1 (ja) * 2020-09-07 2021-09-15 株式会社Shift プログラム、情報処理装置、及び方法
WO2022059451A1 (ja) * 2020-09-16 2022-03-24 早紀 辻 寄付装置、寄付方法、および寄付プログラム
WO2024150696A1 (ja) * 2023-01-12 2024-07-18 ソニーグループ株式会社 情報処理装置

Also Published As

Publication number Publication date
JP2005142975A (ja) 2005-06-02

Similar Documents

Publication Publication Date Title
JP4335642B2 (ja) 視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム
KR100913865B1 (ko) 콘텐츠에 대한 시청자 평가를 수집하는 장치 및 방법
CN1586078B (zh) 用于评价对广播节目的观众反应的系统和方法
US9706235B2 (en) Time varying evaluation of multimedia content
JP4538756B2 (ja) 情報処理装置、情報処理端末、情報処理方法、およびプログラム
JP7440020B2 (ja) 情報処理方法、端末装置、情報処理装置、及び情報処理システム
CN101999108B (zh) 大笑检测器以及用于追踪对媒体呈现的情绪反应的系统和方法
JP5756456B2 (ja) 視聴者の視聴行動を予測するための方法およびシステム
US9514439B2 (en) Method and system for determining audience response to a sensory stimulus
EP2276253A2 (en) Method and apparatus for recommending broadcast contents
JP2012524458A (ja) 対話的活動に関するユーザ体験を測定するための方法及びシステム
US20090088610A1 (en) Measuring Physiological Response to Media for Viewership Modeling
US20110046502A1 (en) Distributed neuro-response data collection and analysis
US20140337868A1 (en) Audience-aware advertising
WO2015056742A1 (ja) 視認対象効果度測定装置
JP2003527003A (ja) テレビジョンシステム
KR20100039706A (ko) 사용자의 반응 분석을 이용한 컨텐츠의 동적 서비스 방법 및 그 장치
CN105898487A (zh) 一种面向智能机器人的交互方法和装置
WO2009033187A1 (en) System and method for detecting viewer attention to media delivery devices
JP6767808B2 (ja) 視聴ユーザログ蓄積システム、視聴ユーザログ蓄積サーバ、及び視聴ユーザログ蓄積方法
CN104364731A (zh) 对内容/广告建立简档
JP2020167669A (ja) 映像と音声を上映するための映像音声管理装置および上映システム
JP6675736B2 (ja) 映像と音声を上映するための映像音声管理装置および上映システム
JP2014060642A (ja) 表示装置及び表示システム
US20220408153A1 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090528

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090623

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090625

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees