JP2013150086A - 行動情報認識システム、情報処理装置および行動情報認識方法 - Google Patents

行動情報認識システム、情報処理装置および行動情報認識方法 Download PDF

Info

Publication number
JP2013150086A
JP2013150086A JP2012007641A JP2012007641A JP2013150086A JP 2013150086 A JP2013150086 A JP 2013150086A JP 2012007641 A JP2012007641 A JP 2012007641A JP 2012007641 A JP2012007641 A JP 2012007641A JP 2013150086 A JP2013150086 A JP 2013150086A
Authority
JP
Japan
Prior art keywords
information
behavior
viewer
content
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012007641A
Other languages
English (en)
Other versions
JP2013150086A5 (ja
Inventor
Keiichi Yamada
敬一 山田
Kazumi Aoyama
一美 青山
Yukinori Maeda
幸徳 前田
Katsuki Minamino
活樹 南野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012007641A priority Critical patent/JP2013150086A/ja
Publication of JP2013150086A publication Critical patent/JP2013150086A/ja
Publication of JP2013150086A5 publication Critical patent/JP2013150086A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザの行動を認識し、そのユーザの行動を集計し、集計した情報をユーザ側にフィードバックすることで、ユーザの認識状況の提供が可能な、新規かつ改良された行動情報認識システムを提供する。
【解決手段】ユーザに行ってもらう行動を認識するための行動認識制御情報を生成する行動認識制御情報生成サーバと、行動認識制御情報を用いてユーザの行動を認識する1以上の情報処理端末と、を備え、各情報処理端末は、該情報処理端末のユーザによる行動を認識し、行動認識制御情報生成サーバから送信される行動認識制御情報と、認識の結果とからユーザ行動情報を生成するユーザ行動認識部と、ユーザ行動認識部が生成したユーザ行動情報を外部に送信するユーザ行動情報送信部と、1以上の情報処理端末から送信されたユーザ行動情報の集計結果を受信するユーザ行動情報受信部と、を含む、行動情報認識システムが提供される。
【選択図】図1

Description

本開示は、行動情報認識システム、情報処理装置および行動情報認識方法に関する。
番組その他のコンテンツを放送する放送局や、コンテンツを配信するコンテンツ配信事業者において、放送したり配信したりしたコンテンツに対する視聴者の反応を収集するシステムがある(例えば特許文献1参照)。特許文献1では、コンテンツに対する視聴者の反応データと、視聴者が視聴しているコンテンツの視聴データとを時間的に同期させることで、視聴者の反応を収集する技術が開示されている。
特開2005−142975号公報
上記引用文献1に開示された技術は、視聴者側の反応を、コンテンツ配信側にフィードバックするものであり、視聴者側の反応をコンテンツ配信側におけるコンテンツ制作に利用するものであった。しかし、上記引用文献1に開示された技術は、視聴者側の反応を、コンテンツ配信側のみにフィードバックするものであるから、他の視聴者がコンテンツを視聴してどのような反応を示しているのか、視聴者は把握できない。
そこで、本開示は、上記問題に鑑みてなされたものであり、本開示の目的とするところは、ユーザの行動を認識し、そのユーザの行動を集計し、集計した情報をユーザ側にフィードバックすることで、ユーザの認識状況の提供が可能な、新規かつ改良された行動情報認識システム、情報処理装置および行動情報認識方法を提供することにある。
本開示によれば、ユーザに行ってもらう行動を認識するための行動認識制御情報を生成する行動認識制御情報生成サーバと、前記行動認識制御情報生成サーバから前記行動認識制御情報を受信し、該行動認識制御情報を用いてユーザの行動を認識する1以上の情報処理端末と、を備え、各前記情報処理端末は、該情報処理端末のユーザによる行動を認識し、前記行動認識制御情報生成サーバから送信される行動認識制御情報と、前記認識の結果とからユーザ行動情報を生成するユーザ行動認識部と、前記ユーザ行動認識部が生成したユーザ行動情報を外部に送信するユーザ行動情報送信部と、1以上の前記情報処理端末から送信されたユーザ行動情報の集計結果を受信するユーザ行動情報受信部と、を含む、行動情報認識システムが提供される。
また本開示によれば、ユーザに実行してもらう行動を認識するための行動認識制御情報を送信する行動認識制御情報送信部と、前記行動認識制御情報に基づいて得られる、前記ユーザによる行動情報を集計して全ユーザ行動情報を生成するユーザ行動情報集計部と、を備える、情報処理装置が提供される。
また本開示によれば、ユーザに行ってもらう行動を認識するための行動認識制御情報をサーバ装置で生成し、ユーザの行動を認識する1以上の端末に送信する行動認識制御情報生成ステップと、ユーザによる行動を認識し、前記行動認識制御情報生成ステップで生成された前記行動認識制御情報と、前記認識の結果とからユーザ行動情報を生成するユーザ行動認識ステップと、前記ユーザ行動認識ステップが生成したユーザ行動情報を外部に送信するユーザ行動情報送信ステップと、1以上の前記端末から送信されたユーザ行動情報の集計結果を1以上の前記端末で受信するユーザ行動情報受信ステップと、を含む、行動情報認識システムが提供される。
以上説明したように本開示によれば、ユーザの行動を認識し、そのユーザの行動を集計し、集計した情報をユーザ側にフィードバックすることで、ユーザの認識状況の提供が可能な、新規かつ改良された行動情報認識システム、情報処理装置および行動情報認識方法を提供することができる。
本開示の第1の実施形態にかかるコンテンツ提供システム1の構成例を示す説明図である。 本開示の第1の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者構成測定部230の構成例を示す説明図である。 本開示の第1の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者構成測定部230の動作を示す流れ図である。 本開示の第1の実施形態にかかる視聴情報集計サーバ300の動作例を示す説明図である。 本開示の第1の実施形態にかかるコンテンツ提供サーバ100の動作例を示す説明図である。 本開示の第1の実施形態にかかるコンテンツ再生端末200で生成される視聴者構成情報の例を示す説明図である。 本開示の第1の実施形態にかかる視聴情報集計サーバ300で集計される全視聴者構成情報の例を示す説明図である。 本開示の第2の実施形態にかかるコンテンツ提供システム1’の構成例を示す説明図である。 本開示の第2の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者行動認識部231の構成例を示す説明図である。 本開示の第2の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者行動認識部231の動作を示す流れ図である。 本開示の第2の実施形態にかかるコンテンツ提供システム1’で用いられる行動認識制御情報の例を示す説明図である。 本開示の第2の実施形態にかかるコンテンツ再生端末200で生成される、視聴者行動情報の例を示す説明図である。 本開示の第2の実施形態にかかる視聴情報集計サーバ300で生成される、全視聴者行動情報の例を示す説明図である。 全視聴者構成情報の例を示す説明図である。 番組表の例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<1.第1の実施形態>
[システムの構成例]
[視聴者構成測定部の構成例]
[視聴者構成測定部の動作例]
[視聴情報集計サーバの動作例]
[コンテンツ提供サーバの動作例]
[視聴者構成情報の例]
<2.第2の実施形態>
[システムの構成例]
[システムの動作例]
<3.まとめ>
<1.第1の実施形態>
[システムの構成例]
まず、本開示の第1の実施形態にかかるコンテンツ提供システムの構成例について説明する。図1は、本開示の第1の実施形態にかかるコンテンツ提供システム1の構成例を示す説明図である。以下、図1を用いて本開示の第1の実施形態にかかるコンテンツ提供システム1の構成例について説明する。
図1に示したように、本開示の第1の実施形態にかかるコンテンツ提供システム1は、コンテンツ提供サーバ100と、コンテンツ再生端末200と、視聴情報集計サーバ300と、を含んで構成される。なお、図1では1台のコンテンツ再生端末200のみを図示しているが、コンテンツ再生端末200の台数は複数であってもよい。また図1では1台のコンテンツ提供サーバ100のみを図示しているが、放送局やコンテンツ配信事業者毎にコンテンツ提供サーバ100が設けられていても良い。コンテンツ提供サーバ100は、同一のコンテンツを、コンテンツが再生可能な状態にある全てのコンテンツ再生端末200に対して同時に配信するように構成されていても良く、異なるコンテンツを、そのコンテンツが再生可能な状態にある全てのコンテンツ再生端末200に対して独立して配信するように構成されていても良い。
コンテンツ提供サーバ100は、コンテンツ再生端末200に映像番組その他のコンテンツを提供するものである。図1に示したように、本開示の第1の実施形態にかかるコンテンツ提供サーバ100は、コンテンツ送信部110と、全視聴者構成情報受信部120と、コンテンツ決定部130と、コンテンツデータベース(DB)140と、を含んで構成される。
コンテンツ送信部110は、コンテンツ再生端末200へ提供するコンテンツを送信するものである。コンテンツ送信部110からコンテンツ再生端末200へ提供されるコンテンツは、例えば、コンテンツ決定部130がコンテンツデータベース140の中から選択することで決定される。
全視聴者構成情報受信部120は、視聴情報集計サーバ300で集計されてコンテンツ提供サーバ100に送信される、全視聴者構成情報を受信する。全視聴者構成情報受信部120が受信した全視聴者構成情報は、コンテンツ決定部130に送られる。
コンテンツ決定部130は、コンテンツ送信部110からコンテンツ再生端末200へ提供されるコンテンツを決定する。コンテンツ決定部130は、コンテンツ送信部110からコンテンツ再生端末200へ提供されるコンテンツをコンテンツデータベース140から選択する。コンテンツ決定部130は、コンテンツの決定に際し、例えば全視聴者構成情報受信部120が視聴情報集計サーバ300から受信した、全視聴者構成情報を用いる。
コンテンツ再生端末200は、コンテンツ提供サーバ100から提供されるコンテンツを受信し、表示する端末である。コンテンツ再生端末200は、例えばテレビ受像機やパーソナルコンピュータ、タブレット型の通信端末等で構成される。
図1に示したように、本開示の第1の実施形態にかかるコンテンツ再生端末200は、コンテンツ受信部210と、表示部220と、視聴者構成測定部230と、視聴者構成情報送信部240と、全視聴者構成情報受信部250と、を含んで構成される。
コンテンツ受信部210は、コンテンツ提供サーバ100から提供されるコンテンツを受信する。コンテンツ受信部210は、コンテンツ提供サーバ100から提供されるコンテンツを受信すると、受信したコンテンツを表示部220に出力するとともに、受信したコンテンツに関する情報(チャンネル名、番組名等)を視聴者構成測定部230に出力する。
表示部220は、コンテンツ提供サーバ100から提供されるコンテンツを表示する。表示部220は、例えば液晶ディスプレイ、有機ELディスプレイその他の表示装置で構成される。また、表示部220は、全視聴者構成情報受信部250が視聴情報集計サーバ300から受信した、全視聴者構成情報も併せて表示する。
視聴者構成測定部230は、コンテンツ提供サーバ100から提供され、表示部220に表示されているコンテンツを視聴している視聴者の構成を測定し、視聴者構成情報を生成する。視聴者構成測定部230は、視聴者構成情報を生成すると、生成した視聴者構成情報を視聴者構成情報送信部240に出力する。視聴者構成測定部230は、表示部220に表示されているコンテンツを視聴している視聴者の構成を測定するに際し、コンテンツ受信部210から供給される、受信したコンテンツに関する情報(チャンネル名、番組名等)を用いる。視聴者構成測定部230の構成は後に詳述する。
視聴者構成情報送信部240は、視聴者構成測定部230が生成した視聴者構成情報を視聴情報集計サーバ300に送信する。視聴者構成情報送信部240が視聴者構成情報を視聴情報集計サーバ300に送信する頻度は特定のものに限定されず、例えば1分〜数分おきであってもよく、視聴者構成測定部230が生成した視聴者構成情報に変化が発生したタイミングであってもよい。
全視聴者構成情報受信部250は、視聴情報集計サーバ300で集計されてコンテンツ再生端末200に送信される、全視聴者構成情報を受信する。全視聴者構成情報受信部250が受信した全視聴者構成情報は、例えば表示部220に送られ、表示部220に表示される。
視聴情報集計サーバ300は、コンテンツ再生端末200から送信される視聴者構成情報を受信して、受信した視聴者構成情報を集計して全視聴者構成情報を生成し、生成した全視聴者構成情報をコンテンツ提供サーバ100およびコンテンツ再生端末200に提供する。
図1に示したように、本開示の第1の実施形態にかかる視聴情報集計サーバ300は、視聴者構成情報受信部310と、視聴者構成情報集計部320と、全視聴者構成情報送信部330と、を含んで構成される。
視聴者構成情報受信部310は、コンテンツ再生端末200の視聴者構成情報送信部240から送信される、コンテンツ再生端末200の視聴者構成情報を受信するものである。視聴者構成情報受信部310は、受信した視聴者構成情報を視聴者構成情報集計部320に出力する。
視聴者構成情報集計部320は、視聴者構成情報受信部310から送られてくる視聴者構成情報を集計し、全視聴者構成情報を生成するものである。視聴者構成情報集計部320は、コンテンツ提供サーバ100が提供するコンテンツを再生する全てのコンテンツ再生端末200の視聴者構成情報から、全視聴者構成情報を生成する。視聴者構成情報集計部320は、生成した全視聴者構成情報を全視聴者構成情報送信部330に出力する。
全視聴者構成情報送信部330は、視聴者構成情報集計部320から送られてくる全視聴者構成情報を、コンテンツ提供サーバ100およびコンテンツ再生端末200に送信する。コンテンツ提供サーバ100が提供するコンテンツを再生する全てのコンテンツ再生端末200の視聴者構成情報を視聴情報集計サーバ300が集計し、全視聴者構成情報をコンテンツ提供サーバ100およびコンテンツ再生端末200に送信することにより、コンテンツ提供サーバ100およびコンテンツ再生端末200は、どのような視聴者がどのコンテンツを視聴しているのかを把握することができる。
以上、図1を用いて本開示の第1の実施形態にかかるコンテンツ提供システム1の構成例について説明した。次に、本開示の第1の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者構成測定部230の構成について説明する。
[視聴者構成測定部の構成例]
図2は、本開示の第1の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者構成測定部230の構成例を示す説明図である。なお、図2には視聴者構成測定部230の他にコンテンツ受信部210も併せて図示している。以下、図2を用いて、本開示の第1の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者構成測定部230の構成について説明する。
図2に示したように、視聴者構成測定部230は、画像入力部261と、画像認識部262と、音声入力部263と、音声認識部264と、人物推定部265と、視聴者構成情報生成部266と、を含んで構成される。
画像入力部261は、表示部220が表示するコンテンツを視聴する視聴者の姿を撮像するものであり、例えば撮像素子を備えたデジタルカメラで構成される。画像入力部261が撮像した視聴者の姿は画像認識部262に送られる。
画像認識部262は、画像入力部261が撮像した、表示部220が表示するコンテンツを視聴する視聴者の姿から、どのような視聴者がコンテンツを視聴しているのかについて画像認識する。従って、画像認識部262は、画像中の顔認識機能や身体認識機能を有することが望ましい。画像認識部262は、認識した結果を人物推定部265に出力する。
音声入力部263は、表示部220が表示するコンテンツを視聴する視聴者の声を収音するものであり、例えばマイクで構成される。音声入力部263を構成するマイクの数は、1つであっても、2つ以上であっても良い。音声入力部263が収音した音声情報は音声認識部264に送られる。
音声認識部264は、音声入力部263が集音した、表示部220が表示するコンテンツを視聴する視聴者の声から、どのような視聴者がコンテンツを視聴しているのかについて音声認識する。音声認識部264は、認識した結果を人物推定部265に出力する。
人物推定部265は、画像認識部262による画像認識の結果および音声認識部264による音声認識の結果を用いて、表示部220が表示するコンテンツをどのような視聴者が視聴しているのかを推定する。人物推定部265による、視聴者の推定結果は視聴者構成情報生成部266に出力される。人物推定部265による視聴者推定処理については後に詳述する。
視聴者構成情報生成部266は、人物推定部265が推定した視聴者の推定結果、およびコンテンツ受信部210から送られてくる、コンテンツ受信部210が受信し、表示部220が表示しているコンテンツに関する情報(チャンネル名、番組名等)を用いて、コンテンツ再生端末200の視聴者構成情報を生成する。視聴者構成情報生成部266は、コンテンツ再生端末200の視聴者構成情報を生成すると、生成した視聴者構成情報を視聴者構成情報送信部240へ出力する。
視聴者構成測定部230は、図2に示したような構成を有することで、コンテンツ受信部210が受信し、表示部220が表示しているコンテンツの視聴者に関する情報である視聴者構成情報を生成することができる。
以上、図2を用いて、本開示の第1の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者構成測定部230の構成について説明した。次に、本開示の第1の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者構成測定部230の動作について説明する。
[視聴者構成測定部の動作例]
図3は、本開示の第1の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者構成測定部230の動作を示す流れ図である。以下、図3を用いて、本開示の第1の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者構成測定部230の動作について説明する。
視聴者構成測定部230は、コンテンツ受信部210が受信し、表示部220が表示しているコンテンツの視聴者の顔領域または身体領域を検出する(ステップS101)。具体的には、画像入力部261が視聴者の姿を撮像し、撮像した画像に対して画像認識部262が顔検出処理や身体検出処理を実行することで、コンテンツの視聴者の顔領域または身体領域を検出することができる。
上記ステップS101で、視聴者構成測定部230がコンテンツの視聴者の顔領域または身体領域を検出すると、続いて視聴者構成測定部230は、コンテンツの視聴者の顔領域が検出されたかどうかを判断する(ステップS102)。具体的には、撮像した画像に対して画像認識部262が顔検出処理や身体検出処理を実行した結果、コンテンツの視聴者の顔領域が検出されたかどうかによって顔領域の有無を判断する。
上記ステップS102の判断の結果、視聴者構成測定部230が、コンテンツの視聴者の顔領域が検出されたと判断すると、続いて視聴者構成測定部230は、コンテンツの視聴者の顔識別を実行する(ステップS103)。具体的には、撮像した画像に対して画像認識部262が顔識別処理を実行することで、コンテンツの視聴者の顔識別が行われる。
上記ステップS103で、視聴者構成測定部230がコンテンツの視聴者の顔識別を実行すると、続いて視聴者構成測定部230は、顔識別の結果、識別した顔がコンテンツ再生端末200に顔登録されている人物のものかどうかを判断する(ステップS104)。具体的には、識別した顔がコンテンツ再生端末200に顔登録されている人物のものかどうかを、例えば画像認識部262が判断する。
上記ステップS104の判断の結果、識別した顔がコンテンツ再生端末200に顔登録されている人物のものである場合は、続いて視聴者構成測定部230は、視聴者の性別、年齢、人種等の個人情報について、コンテンツ再生端末200に顔登録されている人物の情報を利用する(ステップS105)。具体的には、人物推定部265が、コンテンツの視聴者の情報として、コンテンツ再生端末200に顔登録されている人物の情報を利用する。
一方、上記ステップS104の判断の結果、識別した顔がコンテンツ再生端末200に顔登録されている人物のものでない場合は、続いて視聴者構成測定部230は、視聴者の性別、年齢、人種等の個人情報の推定を行う(ステップS106)。具体的には、人物推定部265が、コンテンツの視聴者の情報として、画像入力部261が撮影した画像や、音声入力部263が収音した音声を用いて、性別、年齢、人種等の個人情報の推定を行う。人物推定部265による個人情報の推定に際しては、例えば特開2009−31951号公報、特開2009−42910号公報、特許第4462339号公報、特許第4730404号公報、特開2010−165305号公報等において開示されている技術を用いることが出来る。
また、上記ステップS102の判断の結果、視聴者構成測定部230が、コンテンツの視聴者の顔領域が検出されなかったと判断すると、続いて視聴者構成測定部230は、視聴者の性別、年齢、人種等の個人情報に関しては不明と判断する(ステップS107)。具体的には、人物推定部265が、視聴者の性別、年齢、人種等の個人情報に関しては不明であると推定する。
上記ステップS105、S106、S107で、視聴者構成測定部230が視聴者の性別、年齢、人種等の個人情報を推定するか、または不明であると判断すると、続いて視聴者構成測定部230は、コンテンツを視聴している人物全員に関する情報をまとめる(ステップS108)。具体的には、人物推定部265が、コンテンツを視聴している人物全員に関する情報をまとめる。
上記ステップS108で、視聴者構成測定部230がコンテンツを視聴している人物全員に関する情報をまとめると、続いて視聴者構成測定部230は、コンテンツを視聴している人物全員に関する情報と、視聴されているコンテンツに関する情報とをまとめる(ステップS109)。具体的には、人物推定部265がまとめたコンテンツを視聴している人物全員に関する情報と、コンテンツ受信部210が受信し、視聴者に視聴されているコンテンツに関する情報とを、視聴者構成情報生成部266がまとめる。
視聴者構成測定部230が、図3に示したような動作を実行することで、本開示の第1の実施形態にかかるコンテンツ再生端末200は、表示しているコンテンツを視聴している視聴者についての情報である視聴者構成情報を生成することができる。
以上、図3を用いて、本開示の第1の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者構成測定部230の動作について説明した。次に、本開示の第1の実施形態にかかる視聴情報集計サーバ300の動作について説明する。
[視聴情報集計サーバの動作例]
図4は、本開示の第1の実施形態にかかる視聴情報集計サーバ300の動作を示す流れ図であり、各コンテンツ再生端末200から送信される視聴者構成情報を集計する際の動作について示したものである。以下、図4を用いて本開示の第1の実施形態にかかる視聴情報集計サーバ300の動作について説明する。
視聴情報集計サーバ300は、各コンテンツ再生端末200から送信される視聴者構成情報について、そのコンテンツ再生端末200における視聴者構成情報が、その直前にそのコンテンツ再生端末200から送信された視聴者構成情報と内容的に異なるかどうかを判断する(ステップS111)。この判断は、例えば視聴者構成情報集計部320が実行する。
上記ステップS111の判断の結果、視聴者構成情報が内容的に異なっていると判断した場合は、視聴情報集計サーバ300は、続いて、各コンテンツ再生端末200で視聴されているコンテンツ毎に、性別、年齢、人種等からなる視聴者の属性ごとに該当する視聴者の数を集計する(ステップS112)。この集計処理は、例えば視聴者構成情報集計部320が実行する。この集計により、視聴情報集計サーバ300は全視聴者構成情報を生成する。
一方、上記ステップS111の判断の結果、視聴者構成情報が内容的に異なっていないと判断した場合は、視聴情報集計サーバ300はそのまま処理を終了する。
視聴情報集計サーバ300が、図4に示したような動作を実行することで、各コンテンツ再生端末200から送信される視聴者構成情報を用いて、各コンテンツ再生端末200で視聴されているコンテンツ毎に、性別、年齢、人種等からなる視聴者の属性ごとに該当する視聴者の数を集計することができる。そして視聴情報集計サーバ300は、生成した全視聴者構成情報を、コンテンツ提供サーバ100および各コンテンツ再生端末200に提供することができる。
以上、図4を用いて本開示の第1の実施形態にかかる視聴情報集計サーバ300の動作について説明した。次に、本開示の第1の実施形態にかかるコンテンツ提供サーバ100の動作について説明する。
[コンテンツ提供サーバの動作例]
図5は、本開示の第1の実施形態にかかるコンテンツ提供サーバ100の動作例を示す説明図であり、視聴情報集計サーバ300から全視聴者構成情報の提供を受けた際にコンテンツを決定する処理を示したものである。以下、図5を用いて本開示の第1の実施形態にかかるコンテンツ提供サーバ100の動作について説明する。
コンテンツ提供サーバ100は、視聴情報集計サーバ300から全視聴者構成情報を受信すると、現在送信中のコンテンツはリアルタイムで制作中のものかどうかを判断する(ステップS121)。具体的には、全視聴者構成情報受信部120が視聴情報集計サーバ300から全視聴者構成情報を受信すると、コンテンツ決定部130は、コンテンツ送信部110からコンテンツ再生端末200へ送信しているコンテンツが、リアルタイムで制作中のものかどうかを判断する。
上記ステップS121の判断の結果、現在送信中のコンテンツはリアルタイムで制作中のものであると判断すると、コンテンツ提供サーバ100は、その送信中のコンテンツの制作者に、全視聴者構成情報を提供(フィードバック)する(ステップS122)。全視聴者構成情報の提供方法としては、例えば、コンテンツ制作者が確認し得るモニタ等に、全視聴者構成情報を表示するようにしてもよく、コンテンツ制作者に対して全視聴者構成情報をメール等で送信するようにしてもよい。
一方、上記ステップS121の判断の結果、現在送信中のコンテンツはリアルタイムで制作中のものでないと判断すると、コンテンツ提供サーバ100は、その送信中のコンテンツの内容を変更しても良いかどうかを判断する(ステップS123)。この判断処理は、例えばコンテンツ決定部130が実行する。コンテンツの内容の変更の可否は、例えば、コンテンツ提供サーバ100が送信しているコンテンツの内容や、コンテンツを受信および表示するコンテンツ再生端末200の設定や、コンテンツを視聴する視聴者の意思等の様々な要因によって判断される。
上記ステップS123の判断の結果、送信中のコンテンツの内容を変更しても良いと判断した場合は、コンテンツ提供サーバ100は、受信した全視聴者構成情報における全視聴者構成において、所望の属性の視聴者に適したコンテンツを送信する(ステップS124)。具体的には、コンテンツ決定部130が、全視聴者構成を参照し、コンテンツデータベース140の中から適切なコンテンツを選択する。
所望の属性としては、例えば、全視聴者構成情報において多数を占める主要な属性を対象としてもよい。逆に、全視聴者構成情報において少数を占める属性を対象としてもよく、その属性に含まれる視聴者数の増加を意図するように、コンテンツ決定部130がコンテンツデータベース140の中から適切なコンテンツを選択ようにしてもよい。
コンテンツ提供サーバ100が、図5に示したような動作を実行することで、視聴情報集計サーバ300から提供される全視聴者構成情報を用いて送信するコンテンツの制作に役立てられたり、全視聴者構成に応じて送信するコンテンツを自動的に決定したりすることができる。
以上、図5を用いて本開示の第1の実施形態にかかるコンテンツ提供サーバ100の動作について説明した。次に、本開示の第1の実施形態にかかるコンテンツ再生端末200で生成される視聴者構成情報の例について説明する。
[視聴者構成情報の例]
図6は、本開示の第1の実施形態にかかるコンテンツ再生端末200で生成される視聴者構成情報の例を示す説明図である。以下、図6を用いて、本開示の第1の実施形態にかかるコンテンツ再生端末200で生成される視聴者構成情報について説明する。
図6に示した視聴者構成情報は、どのコンテンツ再生端末でどの番組(コンテンツ)をどのような人物が視聴しているかについての情報が格納されている。図6に示した視聴者構成情報には、コンテンツ再生端末200を識別するためのコンテンツ再生端末識別番号、コンテンツの視聴時間、視聴コンテンツ名、視聴者数、視聴者の情報(性別、年齢、人種)が含まれている。もちろん、視聴者構成情報に含まれる情報は図6に示したものに限られないことは言うまでもない。
例えば、「性別」の属性には男性または女性のいずれかの属性値を取り、「年齢」の属性には「10歳代未満」「10歳代」「20歳代」「30歳代」「40歳代」「50歳代」「60歳代」「70歳代以上」等の属性値を取ってもよい。また「人種」の属性には、「モンゴロイド」「コーカソイド」「ネグロイド」等の属性値を取っても良い。
以上、図6を用いて、本開示の第1の実施形態にかかるコンテンツ再生端末200で生成される視聴者構成情報について説明した。次に、視聴情報集計サーバ300で集計される全視聴者構成情報の例について説明する。
[全視聴者構成情報の例]
図7は、本開示の第1の実施形態にかかる視聴情報集計サーバ300で集計される全視聴者構成情報の例を示す説明図である。以下、図7を用いて本開示の第1の実施形態にかかる視聴情報集計サーバ300で集計される全視聴者構成情報の例について説明する。
図7に示した全視聴者構成情報は、総視聴者数と、どのチャンネルのどの番組をどのような人物が視聴しているかについての情報が格納されている。図7に示した全視聴者構成情報には、総視聴者数と、放送局毎や番組毎の視聴率、放送局毎や番組毎の視聴者数を母数とした、性別、年齢、人種等の各属性における属性値全てに関する占有率の情報が含まれている。もちろん、視聴者構成情報に含まれる情報は図7に示したものに限られないことは言うまでもなく、コンテンツ再生端末200で生成される視聴者構成情報から生成したり集計したりすることが出来る情報であればどのようなものを含んでいても良い。
このように、視聴情報集計サーバ300で集計される全視聴者構成情報は、総視聴者数や視聴率、占有率など、コンテンツ再生端末200で生成される視聴者構成情報から生成したり集計したりすることが出来る情報を含む。放送局やコンテンツ配信事業者は、視聴情報集計サーバ300で集計される全視聴者構成情報のフィードバックを受けて番組作りに活用することが出来る。また視聴者は、視聴情報集計サーバ300で集計される全視聴者構成情報のフィードバックを受けて、どのような視聴者がどの番組を視聴しているのかを知ることが出来る。
以上、図7を用いて視聴情報集計サーバ300で集計される全視聴者構成情報の例について説明した。次に、本開示の第1の実施形態にかかるコンテンツ提供サーバ100における、コンテンツの変更処理例について説明する。
[コンテンツの変更処理例]
(1)リアルタイムに制作し放送するコンテンツの場合
コンテンツを提供する側では、コンテンツ提供サーバ100が視聴情報集計サーバ300から全視聴者構成情報を受信すると、コンテンツ内(番組内)の構成や出演者の行動が、全視聴者構成情報を参照して変化する。
例えば、事前には「(1)グルメレポートコーナー」「(2)ゲスト対談コーナー」「(3)料理紹介コーナー」の順番が予定されているが、コンテンツを提供する側は、全視聴者構成情報内の年齢構成や性別構成の変化に合わせて、例えば「(2)ゲスト対談コーナー」と「(3)料理紹介コーナー」の順番を入れ替えるようにしてもよい。
また例えば、提供するコンテンツがクイズ番組である場合では、コンテンツを提供する側は、出題するクイズを全視聴者構成情報内の主要な構成層に合わせて変えていくようにしてもよい。
(2)1チャンネル内で放送する番組の順番を変更する場合
「報道番組」「情報バラエティ番組」「料理番組」「音楽番組」「スポーツ番組」「映画」「ドラマ」「アニメ」等によって構成される一般的な放送チャンネルにおいて、コンテンツを提供する側は、番組毎に想定する視聴者層を設定しておき、コンテンツ提供サーバ100が視聴情報集計サーバ300から受信した全視聴者構成情報内のその時の主要構成に合わせて、予定されている番組の順番の変更や、予定外の番組の挿入や、それによる予定番組の削除を行うようにしてもよい。
例えば、ドラマを専門に放送するドラマ専門チャンネルにおいて、コンテンツ提供サーバ100が視聴情報集計サーバ300から受信した全視聴者構成情報内の性別構成に合わせて、男性向けあるいは女性向けのドラマ・コンテンツを連続して送信するようにしてもよい。
図14は、あるチャンネル(例えばチャンネルAとする)のある時刻(例えば12時)における全視聴者構成情報の例を示す説明図である。図14に示した全視聴者構成情報では、視聴者の構成が均等ではなく、特定の視聴者層に偏りがあることが分かる。そこで、番組毎に対象とする性別と年齢層を設定しておき、全視聴者構成情報に基づいて、例えば12時30分以降の番組の順番を変更するようにしてもよい。
図15は、上記チャンネルAの番組表の例を示す説明図である。変更前の番組表に示したように、元々は12時30分からはバラエティ番組(1)、ドラマ番組(1)、バラエティ番組(2)の順に放送されることになっているが、図14に示した全視聴者構成情報を参照すると、女性の20歳代から40歳代の視聴者層が多いことが分かる。従って、コンテンツ提供サーバ100は、12時30分からは、女性を想定対象とした番組を順次放送するように変更してもよい。
以上、本開示の第1の実施形態にかかるコンテンツ提供サーバ100における、コンテンツの変更処理例について説明した。
以上説明したように、本開示の第1の実施形態にかかるコンテンツ提供システム1によれば、コンテンツ提供サーバ100から配信されるコンテンツをコンテンツ再生端末200で再生する際に、どのような視聴者がどのコンテンツを視聴しているかをコンテンツ再生端末200で集計し、視聴者構成情報を生成する。コンテンツ再生端末200が生成した視聴者構成情報は視聴情報集計サーバ300に送信され、視聴情報集計サーバ300で集計される。
放送局やコンテンツ配信事業者は、視聴情報集計サーバ300で集計される全視聴者構成情報のフィードバックを受けて番組作りに活用することが出来る。また視聴者は、視聴情報集計サーバ300で集計される全視聴者構成情報のフィードバックを受けて、どのような視聴者がどの番組を視聴しているのかを知ることが出来る。
<2.第2の実施形態>
[システムの構成例]
まず、本開示の第2の実施形態にかかるコンテンツ提供システムの構成例について説明する。図8は、本開示の第2の実施形態にかかるコンテンツ提供システム1’の構成例を示す説明図である。なお、図8に示したコンテンツ提供システム1’は、本開示の行動情報認識システムの一例である。以下、図8を用いて本開示の第2の実施形態にかかるコンテンツ提供システム1’の構成例について説明する。
図8に示したように、本開示の第2の実施形態にかかるコンテンツ提供システム1’は、コンテンツ提供サーバ100と、コンテンツ再生端末200と、視聴情報集計サーバ300と、を含んで構成される。なお、図8では1台のコンテンツ再生端末200のみを図示しているが、コンテンツ再生端末200の台数は複数であってもよい。また図8では1台のコンテンツ提供サーバ100のみを図示しているが、放送局やコンテンツ配信事業者毎にコンテンツ提供サーバ100が設けられていても良い。
コンテンツ提供サーバ100は、本開示の行動認識制御情報生成サーバの一例であり、コンテンツ再生端末200の視聴者が、コンテンツ再生端末200に対して行う行動(ジェスチャや音声の出力等)をコンテンツ再生端末200が認識するための行動認識制御情報を生成する。またコンテンツ提供サーバ100は、コンテンツ再生端末200に映像番組その他のコンテンツを行動認識制御情報に併せて提供してもよい。図8に示したように、本開示の第2の実施形態にかかるコンテンツ提供サーバ100は、行動認識制御情報送信部111と、全視聴者行動情報受信部121と、出演者行動認識部131と、を含んで構成される。なお、図8に示したコンテンツ提供サーバ100には、図1に示したコンテンツ提供サーバ100の構成要素の一部または全部が含まれていてもよい。コンテンツ提供サーバ100は、同一のコンテンツを、コンテンツが再生可能な状態にある全てのコンテンツ再生端末200に対して同時に配信するように構成されていても良く、異なるコンテンツを、そのコンテンツが再生可能な状態にある全てのコンテンツ再生端末200に対して独立して配信するように構成されていても良い。
行動認識制御情報送信部111は、コンテンツ再生端末200に対して行動認識制御情報を送信する。行動認識制御情報とは、後述するように、コンテンツ再生端末200の視聴者による行動(ジェスチャや音声の出力等)を、コンテンツ再生端末200が行動認識処理(ジェスチャ認識や音声認識等)によって認識した際に、認識対象となっている行動かどうかを識別するための情報である。
全視聴者行動情報受信部121は、視聴情報集計サーバ300で集計され、コンテンツ提供サーバ100に送信される全視聴者行動情報を受信する。全視聴者行動情報受信部121が、視聴情報集計サーバ300から送信される全視聴者行動情報を受信することで、コンテンツを制作する放送局やコンテンツ配信事業者は、コンテンツの視聴者がどのような行動を行ったかを認識できる。
出演者行動認識部131は、コンテンツに出演している出演者が所定の動作を行った際にその動作を認識する。出演者行動認識部131は、例えば、出演者の姿を認識するための画像認識機能や音声認識機能を備える。出演者行動認識部131が認識するコンテンツ出演者の行動は、応答として視聴者に行ってもらいたい動作である。例えば、視聴者に対するアンケートを取る場合に、コンテンツ出演者が指を上げたり下げたりすると、出演者行動認識部131はそのコンテンツ出演者の行動を認識する。出演者行動認識部131は、コンテンツ出演者の行動を認識すると、認識結果を行動認識制御情報として行動認識制御情報送信部111に送信する。そして行動認識制御情報送信部111は、出演者行動認識部131が生成した行動認識制御情報をコンテンツ再生端末200に対して送信する。
コンテンツ再生端末200は、本開示の情報処理端末の一例であり、コンテンツ提供サーバ100から提供される行動認識制御情報を受信し、コンテンツ再生端末200の視聴者が、コンテンツ再生端末200に対して行う行動(ジェスチャや音声の出力等)を認識する。また、コンテンツ再生端末200は、コンテンツ提供サーバ100から行動認識制御情報と併せて提供されるコンテンツを受信し、表示してもよい。コンテンツ再生端末200は、例えばテレビ受像機やパーソナルコンピュータ、タブレット型の通信端末等で構成される。
図8に示したように、本開示の第2の実施形態にかかるコンテンツ再生端末200は、行動認識制御情報受信部211と、表示部220と、視聴者行動認識部231と、視聴者行動情報送信部241と、全視聴者行動情報受信部251と、を含んで構成される。なお、図8に示したコンテンツ再生端末200には、図1に示したコンテンツ再生端末200の構成要素の一部または全部が含まれていてもよい。
行動認識制御情報受信部211は、コンテンツ提供サーバ100から提供される行動認識制御情報を受信する。行動認識制御情報受信部211は、行動認識制御情報を受信すると、受信した行動認識制御情報を視聴者行動認識部231に送る。また行動認識制御情報受信部211は、行動認識制御情報を受信すると、受信した行動認識制御情報を表示部220に送っても良い。
表示部220は、全視聴者行動情報受信部251が視聴情報集計サーバ300から受信した、全視聴者構成情報を表示する。また表示部220は、行動認識制御情報受信部211が受信した行動認識制御情報を取得して、取得した行動認識制御情報を表示してもよい。
視聴者行動認識部231は、コンテンツ提供サーバ100から提供され、表示部220に表示されているコンテンツを視聴している視聴者の行動を認識し、視聴者行動情報を生成する。視聴者行動認識部231は、視聴者行動情報を生成すると、生成した視聴者行動情報を視聴者行動情報送信部241に出力する。視聴者行動認識部231は、表示部220に表示されているコンテンツを視聴している視聴者の行動を認識するに際し、行動認識制御情報受信部211が受信した行動認識制御情報を用いる。視聴者行動認識部231の構成は後に詳述する。
視聴者行動情報送信部241は、視聴者行動認識部231が生成した視聴者行動情報を視聴情報集計サーバ300に送信する。視聴者行動情報送信部241が視聴者行動情報を視聴情報集計サーバ300に送信する頻度は特定のものに限定されず、例えば1分〜数分おきであってもよく、視聴者行動認識部231が生成した視聴者行動情報に変化が発生したタイミングであってもよく、コンテンツ提供サーバ100が視聴者行動情報の送信を指定した時刻であってもよい。
全視聴者行動情報受信部251は、視聴情報集計サーバ300で集計されてコンテンツ再生端末200に送信される、全視聴者行動情報を受信する。全視聴者行動情報受信部251が受信した全視聴者構成情報は、例えば表示部220に送られ、表示部220に表示されてもよい。
視聴情報集計サーバ300は、コンテンツ再生端末200から送信される視聴者行動情報を受信して、受信した視聴者行動情報を集計して全視聴者行動情報を生成し、生成した全視聴者行動情報をコンテンツ提供サーバ100およびコンテンツ再生端末200に提供する。
図8に示したように、本開示の第2の実施形態にかかる視聴情報集計サーバ300は、視聴者行動情報受信部311と、視聴者行動情報集計部321と、全視聴者行動情報送信部331と、を含んで構成される。なお、図8に示した視聴情報集計サーバ300には、図1に示した視聴情報集計サーバ300の構成要素の一部または全部が含まれていてもよい。
視聴者行動情報受信部311は、コンテンツ再生端末200の視聴者行動情報送信部241から送信される、コンテンツ再生端末200の視聴者行動情報を受信するものである。視聴者行動情報受信部311は、受信した視聴者行動情報を視聴者行動情報集計部321に出力する。
視聴者行動情報集計部321は、視聴者行動情報受信部311から送られてくる視聴者行動情報を集計し、全視聴者行動情報を生成するものである。視聴者行動情報集計部321は、コンテンツ提供サーバ100が提供するコンテンツを再生する全てのコンテンツ再生端末200の視聴者行動情報から、全視聴者行動情報を生成する。視聴者行動情報集計部321は、生成した全視聴者行動情報を全視聴者行動情報送信部331に出力する。
全視聴者行動情報送信部331は、視聴者行動情報集計部321から送られてくる全視聴者行動情報を、コンテンツ提供サーバ100およびコンテンツ再生端末200に送信する。コンテンツ提供サーバ100が提供するコンテンツを再生する全てのコンテンツ再生端末200の視聴者行動情報を視聴情報集計サーバ300が集計し、全視聴者行動情報をコンテンツ提供サーバ100およびコンテンツ再生端末200に送信することにより、コンテンツ提供サーバ100およびコンテンツ再生端末200は、どの行動をどの程度の視聴者が行っているのかを把握することができる。
以上、図8を用いて本開示の第2の実施形態にかかるコンテンツ提供システム1’の構成例について説明した。次に、本開示の第2の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者行動認識部231の構成について説明する。
[視聴者行動認識部の構成例]
図9は、本開示の第2の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者行動認識部231の構成例を示す説明図である。なお、図9には視聴者行動認識部231の他に行動認識制御情報受信部211も併せて図示している。以下、図9を用いて、本開示の第2の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者行動認識部231の構成について説明する。
図9に示したように、視聴者行動認識部231は、画像入力部261と、画像認識部262と、音声入力部263と、音声認識部264と、人物推定部265と、視聴者行動情報生成部267と、を含んで構成される。画像入力部261と、画像認識部262と、音声入力部263と、音声認識部264と、人物推定部265とは、図2に示した視聴者構成測定部230に含まれるものと基本的に同一のものであるが、画像認識部262については、図2に示した視聴者構成測定部230では、表示部220が表示するコンテンツを視聴する視聴者の姿から、どのような視聴者がコンテンツを視聴しているのかについて画像認識していたのに対し、図9に示した視聴者行動認識部231では、視聴者がどのようなジェスチャを行っているかについても併せて画像認識により取得する。
視聴者行動情報生成部267は、人物推定部265が推定した視聴者の推定結果、および行動認識制御情報受信部211から送られてくる行動認識制御情報を用いて、コンテンツ再生端末200が再生するコンテンツを視聴している視聴者の行動と、行動認識制御情報とのマッチングを行う。視聴者行動情報生成部267により、視聴者の行動と、行動認識制御情報とのマッチングを行うことで、視聴者行動認識部231は、どのような行動を何人が取ったかを認識することができる。
以上、図9を用いて、本開示の第2の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者行動認識部231の構成について説明した。次に、本開示の第2の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者行動認識部231の動作について説明する。
[視聴者行動認識部の動作例]
図10は、本開示の第2の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者行動認識部231の動作を示す流れ図である。図10に示した流れ図は、視聴者行動認識部231による視聴者行動認識処理を示したものである。以下、図10を用いて、本開示の第2の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者行動認識部231の動作について説明する。
視聴者行動認識部231が視聴者行動認識処理を実行するにあたり、まず、視聴者構成測定部230によって視聴者構成測定処理が行われる(ステップS201)。視聴者行動認識部231は、視聴者構成測定部230による視聴者構成測定処理の結果、視聴者が存在するかどうかを判断する(ステップS202)。ステップS202の判断の結果、視聴者が存在していなければ、視聴者行動認識部231は視聴者行動認識処理を終了する。
一方、上記ステップS202の判断の結果、視聴者が存在していれば、続いて視聴者行動認識部231は、視聴者のジェスチャ認識及び音声認識を行う(ステップS203)。そして視聴者行動認識部231は、視聴者のジェスチャ認識及び音声認識を行った結果、ジェスチャ認識あるいは音声認識の結果が存在するかどうかを判断する(ステップS204)。このステップS204の判断は、例えば画像認識部262や音声認識部264が行っても良い。
上記ステップS204の判断の結果、ジェスチャ認識及び音声認識の結果が存在していなければ、視聴者行動認識部231は視聴者行動認識処理を終了する。一方、上記ステップS204の判断の結果、ジェスチャ認識または音声認識の結果が存在していれば、続いて視聴者行動認識部231は、ジェスチャ認識または音声認識の結果が認識対象となっているものかどうかを判断する(ステップS205)。具体的には、この判断は視聴者行動情報生成部267が、行動認識制御情報受信部211から送られてくる行動認識制御情報と、視聴者のジェスチャ認識及び音声認識の結果とを照らし合わせることで行われる。
上記ステップS205の判断の結果、ジェスチャ認識または音声認識の結果が認識対象となっているものでなければ、視聴者行動認識部231は、その認識結果は対象外のものであるとして、視聴者行動認識処理を終了する。一方、上記ステップS205の判断の結果、ジェスチャ認識または音声認識の結果が認識対象となっているものであれば、視聴者行動認識部231は、その認識結果から視聴者行動情報を生成し、上記ステップS201で生成した視聴者構成情報を加える。具体的には、視聴者行動情報は視聴者行動情報生成部267が生成する。
もちろん、視聴者行動情報は、視聴者構成情報とは別に生成されるようにしてもよい。しかし、視聴者の構成情報のみではなく、視聴者の行動に関する情報も収集することによって、コンテンツ再生端末200は、視聴者の意図をより具体的にコンテンツ提供側に伝達することが可能となり、また「視聴している」という行為以外の行動によっても視聴者の意図を伝達することが可能となる。
視聴者行動認識部231が、図10に示したような動作を実行することで、本開示の第2の実施形態にかかるコンテンツ再生端末200は、表示しているコンテンツを視聴している視聴者の行動についての情報である視聴者行動情報を生成することができる。
以上、図10を用いて、本開示の第2の実施形態にかかるコンテンツ再生端末200に含まれる、視聴者行動認識部231の動作について説明した。次に、本開示の第2の実施形態にかかるコンテンツ提供システム1’で用いられる行動認識制御情報の例について説明する。
[行動認識制御情報の例]
図11は、本開示の第2の実施形態にかかるコンテンツ提供システム1’で用いられる行動認識制御情報の例を示す説明図である。以下、図11を用いて、本開示の第2の実施形態にかかるコンテンツ提供システム1’で用いられる行動認識制御情報の例について説明する。
行動認識制御情報は、コンテンツを提供する側において、出演者が、応答として視聴者に行ってもらいたい所望の動作を行った際に、コンテンツ提供サーバ100で作成され、コンテンツ再生端末200に送信される情報である。図11には、行動認識制御情報として、視聴者に行ってもらいたい動作を示す情報(「RaiseArmRight(右手を上げる)」、「RaiseArmLeft(左手を上げる)」、「ThumbUp(親指を立てる)」、「ThumbDown(親指を下げる)」)と、その動作の有効・無効(On、Off)を示す情報とが示されている。
もちろん、応答として視聴者に行ってもらいたい所望の動作はかかる例に限定されない。例えば、「挙手」ジェスチャ、「指差し」、指を1本・5本のいずれかを伸ばして示すことによる「番号」ジェスチャなどを示す情報を、行動認識制御情報に含めても良い。また例えば、ジャンケンのような1対Nで行われる動作や、N対Nで行われる動作の判定を自動的に行うための情報を、行動認識制御情報に含めても良い。
コンテンツ再生端末200は、コンテンツ提供サーバ100から行動認識制御情報を受信すると、行動認識制御情報としてコンテンツ提供サーバ100から提供された行動を認識対象とすることができる。図11に示したような行動認識制御情報がコンテンツ提供サーバ100から提供された場合は、コンテンツ再生端末200は、視聴者による右手を上げた動作と、左手を上げた動作とを認識対象とする。
行動認識制御情報がコンテンツ提供サーバ100からコンテンツ再生端末200に送信されると、コンテンツ再生端末200は、行動認識制御情報が送信される時にコンテンツの出演者が行っている動作のみが認識対象であることを把握することができる。
しかし、コンテンツ再生端末200は、行動認識制御情報として登録されていない視聴者の動作を認識する場合もある。例えば、コンテンツ提供サーバ100から提供されるコンテンツが、外国語習得の為の通信学習コンテンツである場合は、コンテンツ再生端末200の視聴者の行動(発音等)を全て登録するのは現実的ではない。その場合は、例えば、音の特徴量情報をコンテンツ提供サーバ100からコンテンツ再生端末200に送信し、コンテンツ再生端末200は、受信した音の特徴量情報と、視聴者が発音した音との類似度を計算して判定するようにしてもよい。なお、音の特徴量情報としては、例えば、「声音(スペクトル情報)」「イントネーション(声の高さ、声の強さ、声の速さといった韻律情報)」などであってもよい。
以上、図11を用いて、本開示の第2の実施形態にかかるコンテンツ提供システム1’で用いられる行動認識制御情報の例について説明した。次に、本開示の第2の実施形態にかかるコンテンツ再生端末200で生成される、視聴者行動情報の例について説明する。
[視聴者行動情報の例]
図12は、本開示の第2の実施形態にかかるコンテンツ再生端末200で生成される、視聴者行動情報の例を示す説明図である。以下、図12を用いて、本開示の第2の実施形態にかかるコンテンツ再生端末200で生成される、視聴者行動情報の例について説明する。
図12に示した、コンテンツ再生端末200で生成される視聴者行動情報は、コンテンツ再生端末200でコンテンツを視聴している視聴者数と、各視聴者の行動を示す情報と、を含んでいる。図12には、コンテンツ再生端末200でコンテンツを視聴している視聴者数が3人であり、3人の視聴者それぞれの動作に対応する行動情報が視聴者行動情報に含まれている状態が示されている。なおコンテンツ再生端末200は、行動認識を行った結果、行動認識結果が取得できない視聴者については、応答なしを意味する情報(例えば「DoNothing」など)を視聴者行動情報に含めて、視聴情報集計サーバ300に送信する。
以上、図12を用いて、本開示の第2の実施形態にかかるコンテンツ再生端末200で生成される、視聴者行動情報の例について説明した。次に、本開示の第2の実施形態にかかる視聴情報集計サーバ300で生成される、全視聴者行動情報の例について説明する。
[視聴者行動情報の例]
図13は、本開示の第2の実施形態にかかる視聴情報集計サーバ300で生成される、全視聴者行動情報の例を示す説明図である。以下、図13を用いて、本開示の第2の実施形態にかかる視聴情報集計サーバ300で生成される、全視聴者行動情報の例について説明する。
図13に示した、視聴情報集計サーバ300で生成される全視聴者行動情報は、コンテンツの全視聴者数と、行動認識制御情報に含まれる各行動を行った視聴者の総数と、を含んでいる。このように視聴情報集計サーバ300が視聴者行動情報を集計して全視聴者行動情報を生成することで、コンテンツの制作者側は、リアルタイムで視聴者の行動の状況を把握することができ、また視聴者側は、他の視聴者による行動の状況を把握することができる。
なお、視聴情報集計サーバ300は、行動認識制御情報によって認識対象となっていない行動認識結果については、対象外を意味する情報(例えば「N/Aなど」)をコンテンツ提供サーバ100やコンテンツ再生端末200に送信してもよい。
以上、図13を用いて、本開示の第2の実施形態にかかる視聴情報集計サーバ300で生成される、全視聴者行動情報の例について説明した。
<3.まとめ>
以上説明したように本開示の各実施形態によれば、コンテンツの制作者側は、広範囲で詳細な視聴実態に関する情報を入手可能となる。そしてコンテンツの制作者側は、主要な視聴者群に合わせて提供コンテンツの内容をリアルタイムに変更することによって、多くの視聴者によりマッチしたコンテンツの提供が可能となる。またコンテンツの制作者側は、コンテンツの内容に関して、視聴者の応答を把握しながら、その結果に応じてコンテンツの内容を動的に変更することが可能となる。これによって、コンテンツの制作者側は多くの視聴者によりマッチしたコンテンツの提供が可能となる。
また本開示の各実施形態によれば、コンテンツの視聴者側は、多くの視聴者の視聴動向をリアルタイムに知ることによって、視聴するコンテンツの選択に有益な情報を得ることができる。またコンテンツの視聴者側は、ザッピングのような視聴行動や、詳細な電子番組表の情報を利用した探索などでは選択困難なコンテンツへの到達が可能となり得る。また、従来の視聴率調査では、視聴する個人が誰であるかを通知する為のボタン操作や、視聴の開始時と終了時を通知する為の操作等が必要であるが、そのような視聴に関する詳細な情報を取得する為の操作が不要となる。
またコンテンツの視聴者側は、多くの視聴者の応答をリアルタイムに知ることによって、視聴者自身にとっての有益な情報を得ることができる。またコンテンツの視聴者側は、従来の番組視聴では応答を入力する為にリモコンでのボタン操作等が必要であるが、視聴者からの応答を入力する為の専用の機器やそれに合わせた操作から解放される。またコンテンツ再生端末は、コンテンツを視聴する複数の視聴者が存在する場合においても、従来の番組視聴ではリモコン等の専用機器を通して視聴者1名分のみの情報が取得可能であったが、それぞれの視聴者の応答を全て取得することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、コンテンツ提供システム1、1’に視聴者情報集計サーバ300を含めていたが、本開示はかかる例に限定されない。コンテンツ再生端末200からの情報はコンテンツ提供システム1、1’外の別のサーバで集計するようにしておき、コンテンツ提供サーバ100およびコンテンツ再生端末200は、該サーバから集計された情報を取得するようにしてもよい。また、コンテンツ再生端末200からの情報は、コンテンツ提供サーバ100が集計するようにしても良い。すなわち、図8に示した視聴情報集計サーバ300の構成が、コンテンツ提供サーバ100に含まれるようにしても良い。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザに行ってもらう行動を認識するための行動認識制御情報を生成する行動認識制御情報生成サーバと、
前記行動認識制御情報生成サーバから前記行動認識制御情報を受信し、該行動認識制御情報を用いてユーザの行動を認識する1以上の情報処理端末と、
を備え、
各前記情報処理端末は、
該情報処理端末のユーザによる行動を認識し、前記行動認識制御情報生成サーバから送信される行動認識制御情報と、前記認識の結果とからユーザ行動情報を生成するユーザ行動認識部と、
前記ユーザ行動認識部が生成したユーザ行動情報を外部に送信するユーザ行動情報送信部と、
1以上の前記情報処理端末から送信されたユーザ行動情報の集計結果を受信するユーザ行動情報受信部と、
を含む、行動情報認識システム。
(2)
前記行動認識制御情報生成サーバは、ユーザによる所定の動作の内容を認識して行動認識制御情報を生成するユーザ行動認識部をさらに含む、前記(1)に記載の行動情報認識システム。
(3)
前記行動認識制御情報生成サーバは、前記ユーザ行動認識部が生成した行動認識制御情報を前記1以上の情報処理端末に送信する、前記(2)に記載の行動情報認識システム。
(4)
前記行動認識制御情報生成サーバは、前記1以上の情報処理端末にコンテンツを配信し、
前記ユーザ行動認識部は、
該情報処理端末が再生するコンテンツの視聴者の構成を推定する人物推定部を含む、前記(1)〜(3)のいずれかに記載の行動情報認識システム。
(5)
前記ユーザ行動認識部は、
前記人物推定部が推定した視聴者の構成と、前記行動認識制御情報生成サーバから送信される行動認識制御情報とを用いて、視聴者ごとの行動の情報である視聴者行動情報を生成する視聴者行動情報生成部をさらに含む、前記(4)に記載の行動情報認識システム。
(6)
前記行動認識制御情報生成サーバは、前記1以上の情報処理端末に同一のコンテンツを同時に配信し、
前記情報処理端末は、前記行動認識制御情報生成サーバから提供されるコンテンツを視聴している視聴者の構成を測定する視聴者構成測定部をさらに含む、前記(1)〜(5)のいずれかに記載の行動情報認識システム。
(7)
前記ユーザ行動情報受信部は、前記視聴者構成測定部で測定された各前記情報処理端末における視聴者の構成を集計して生成される全視聴者構成情報を受信する、前記(6)に記載の行動情報認識システム。
(8)
前記行動認識制御情報生成サーバは、前記視聴者構成測定部で測定された各前記情報処理端末における視聴者の構成を集計して生成される全視聴者構成情報を用いて、提供するコンテンツを決定するコンテンツ決定部をさらに含む、前記(6)または(7)に記載の行動情報認識システム。
(9)
ユーザに実行してもらう行動を認識するための行動認識制御情報を送信する行動認識制御情報送信部と、
前記行動認識制御情報に基づいて得られる、前記ユーザによる行動情報を集計して全ユーザ行動情報を生成するユーザ行動情報集計部と、
を備える、情報処理装置。
(10)
ユーザに行ってもらう行動を認識するための行動認識制御情報をサーバ装置で生成し、ユーザの行動を認識する1以上の端末に送信する行動認識制御情報生成ステップと、
ユーザによる行動を認識し、前記行動認識制御情報生成ステップで生成された前記行動認識制御情報と、前記認識の結果とからユーザ行動情報を生成するユーザ行動認識ステップと、
前記ユーザ行動認識ステップが生成したユーザ行動情報を外部に送信するユーザ行動情報送信ステップと、
1以上の前記端末から送信されたユーザ行動情報の集計結果を1以上の前記端末で受信するユーザ行動情報受信ステップと、
を含む、行動情報認識システム。
1 コンテンツ提供システム
100 コンテンツ提供サーバ
110 コンテンツ送信部
111 行動認識制御情報送信部
120 全視聴者構成情報受信部
121 全視聴者行動情報受信部
130 コンテンツ決定部
131 出演者行動認識部
140 コンテンツデータベース
200 コンテンツ再生端末
210 コンテンツ受信部
211 行動認識制御情報受信部
220 表示部
230 視聴者構成測定部
231 視聴者行動認識部
240 視聴者構成情報送信部
241 視聴者行動情報送信部
250 全視聴者構成情報受信部
251 全視聴者行動情報受信部
261 画像入力部
262 画像認識部
263 音声入力部
264 音声認識部
265 人物推定部
266 視聴者構成情報生成部
267 視聴者行動情報生成部
300 視聴情報集計サーバ
310 視聴者構成情報受信部
311 視聴者行動情報受信部
320 視聴者構成情報集計部
321 視聴者行動情報集計部
330 全視聴者構成情報送信部
331 全視聴者行動情報送信部

Claims (10)

  1. ユーザに行ってもらう行動を認識するための行動認識制御情報を生成する行動認識制御情報生成サーバと、
    前記行動認識制御情報生成サーバから前記行動認識制御情報を受信し、該行動認識制御情報を用いてユーザの行動を認識する1以上の情報処理端末と、
    を備え、
    各前記情報処理端末は、
    該情報処理端末のユーザによる行動を認識し、前記行動認識制御情報生成サーバから送信される行動認識制御情報と、前記認識の結果とからユーザ行動情報を生成するユーザ行動認識部と、
    前記ユーザ行動認識部が生成したユーザ行動情報を外部に送信するユーザ行動情報送信部と、
    1以上の前記情報処理端末から送信されたユーザ行動情報の集計結果を受信するユーザ行動情報受信部と、
    を含む、行動情報認識システム。
  2. 前記行動認識制御情報生成サーバは、ユーザによる所定の動作の内容を認識して行動認識制御情報を生成するユーザ行動認識部をさらに含む、請求項1に記載の行動情報認識システム。
  3. 前記行動認識制御情報生成サーバは、前記ユーザ行動認識部が生成した行動認識制御情報を前記1以上の情報処理端末に送信する、請求項2に記載の行動情報認識システム。
  4. 前記行動認識制御情報生成サーバは、前記1以上の情報処理端末にコンテンツを配信し、
    前記ユーザ行動認識部は、
    該情報処理端末が再生するコンテンツの視聴者の構成を推定する人物推定部を含む、請求項1に記載の行動情報認識システム。
  5. 前記ユーザ行動認識部は、
    前記人物推定部が推定した視聴者の構成と、前記行動認識制御情報生成サーバから送信される行動認識制御情報とを用いて、視聴者ごとの行動の情報である視聴者行動情報を生成する視聴者行動情報生成部をさらに含む、請求項4に記載の行動情報認識システム。
  6. 前記行動認識制御情報生成サーバは、前記1以上の情報処理端末に同一のコンテンツを同時に配信し、
    前記情報処理端末は、前記行動認識制御情報生成サーバから提供されるコンテンツを視聴している視聴者の構成を測定する視聴者構成測定部をさらに含む、請求項1に記載の行動情報認識システム。
  7. 前記ユーザ行動情報受信部は、前記視聴者構成測定部で測定された各前記情報処理端末における視聴者の構成を集計して生成される全視聴者構成情報を受信する、請求項6に記載の行動情報認識システム。
  8. 前記行動認識制御情報生成サーバは、前記視聴者構成測定部で測定された各前記情報処理端末における視聴者の構成を集計して生成される全視聴者構成情報を用いて、提供するコンテンツを決定するコンテンツ決定部をさらに含む、請求項6に記載の行動情報認識システム。
  9. ユーザに実行してもらう行動を認識するための行動認識制御情報を送信する行動認識制御情報送信部と、
    前記行動認識制御情報に基づいて得られる、前記ユーザによる行動情報を集計して全ユーザ行動情報を生成するユーザ行動情報集計部と、
    を備える、情報処理装置。
  10. ユーザに行ってもらう行動を認識するための行動認識制御情報をサーバ装置で生成し、ユーザの行動を認識する1以上の端末に送信する行動認識制御情報生成ステップと、
    ユーザによる行動を認識し、前記行動認識制御情報生成ステップで生成された前記行動認識制御情報と、前記認識の結果とからユーザ行動情報を生成するユーザ行動認識ステップと、
    前記ユーザ行動認識ステップが生成したユーザ行動情報を外部に送信するユーザ行動情報送信ステップと、
    1以上の前記端末から送信されたユーザ行動情報の集計結果を1以上の前記端末で受信するユーザ行動情報受信ステップと、
    を含む、行動情報認識システム。
JP2012007641A 2012-01-18 2012-01-18 行動情報認識システム、情報処理装置および行動情報認識方法 Pending JP2013150086A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012007641A JP2013150086A (ja) 2012-01-18 2012-01-18 行動情報認識システム、情報処理装置および行動情報認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012007641A JP2013150086A (ja) 2012-01-18 2012-01-18 行動情報認識システム、情報処理装置および行動情報認識方法

Publications (2)

Publication Number Publication Date
JP2013150086A true JP2013150086A (ja) 2013-08-01
JP2013150086A5 JP2013150086A5 (ja) 2015-02-26

Family

ID=49047201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012007641A Pending JP2013150086A (ja) 2012-01-18 2012-01-18 行動情報認識システム、情報処理装置および行動情報認識方法

Country Status (1)

Country Link
JP (1) JP2013150086A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077924A (ja) * 2018-11-05 2020-05-21 株式会社ビデオリサーチ テレビ番組評価システム
JP2020167639A (ja) * 2019-03-29 2020-10-08 株式会社ビデオリサーチ テレビ番組評価システム
JP2020166786A (ja) * 2019-03-29 2020-10-08 株式会社ビデオリサーチ テレビ番組評価システム
JP2021064945A (ja) * 2020-12-10 2021-04-22 株式会社ビデオリサーチ テレビ番組評価システム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061065A (ja) * 2001-08-10 2003-02-28 Nippon Telegraph & Telephone East Corp 視聴者参加型ストリーミング配信方法ならびにアンケート管理サーバおよび視聴者端末装置
JP2003284008A (ja) * 2002-01-15 2003-10-03 Sony Broadband Solution Corp 情報提供システム、情報提供装置、情報提供方法、情報提供プログラム、情報提供プログラムが記憶された記憶媒体、情報利用装置、情報利用方法、情報利用プログラム、及び情報利用プログラムが記憶された記憶媒体
JP2005333389A (ja) * 2004-05-19 2005-12-02 Dowango:Kk 番組連動システム番組連動方法、サーバ装置、および、プログラム
JP2009140051A (ja) * 2007-12-04 2009-06-25 Sony Corp 情報処理装置、情報処理システム、推薦装置、情報処理方法および記憶媒体
JP2009140010A (ja) * 2007-12-03 2009-06-25 Sony Corp 情報処理装置、情報処理端末、情報処理方法、およびプログラム
JP2011517357A (ja) * 2008-03-04 2011-06-02 ジェスチャー テック,インコーポレイテッド 改良されたジェスチャに基づく画像操作
JP2011123657A (ja) * 2009-12-10 2011-06-23 Ntt Comware Corp 情報収集システム及び方法
JP2011239029A (ja) * 2010-05-06 2011-11-24 Hitachi Consumer Electronics Co Ltd 映像表示装置、省電力制御装置、及び省電力方法
JP2011244419A (ja) * 2010-04-19 2011-12-01 Business Breakthrough Inc 視聴覚端末、視聴覚認証システム及び制御プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061065A (ja) * 2001-08-10 2003-02-28 Nippon Telegraph & Telephone East Corp 視聴者参加型ストリーミング配信方法ならびにアンケート管理サーバおよび視聴者端末装置
JP2003284008A (ja) * 2002-01-15 2003-10-03 Sony Broadband Solution Corp 情報提供システム、情報提供装置、情報提供方法、情報提供プログラム、情報提供プログラムが記憶された記憶媒体、情報利用装置、情報利用方法、情報利用プログラム、及び情報利用プログラムが記憶された記憶媒体
JP2005333389A (ja) * 2004-05-19 2005-12-02 Dowango:Kk 番組連動システム番組連動方法、サーバ装置、および、プログラム
JP2009140010A (ja) * 2007-12-03 2009-06-25 Sony Corp 情報処理装置、情報処理端末、情報処理方法、およびプログラム
JP2009140051A (ja) * 2007-12-04 2009-06-25 Sony Corp 情報処理装置、情報処理システム、推薦装置、情報処理方法および記憶媒体
JP2011517357A (ja) * 2008-03-04 2011-06-02 ジェスチャー テック,インコーポレイテッド 改良されたジェスチャに基づく画像操作
JP2011123657A (ja) * 2009-12-10 2011-06-23 Ntt Comware Corp 情報収集システム及び方法
JP2011244419A (ja) * 2010-04-19 2011-12-01 Business Breakthrough Inc 視聴覚端末、視聴覚認証システム及び制御プログラム
JP2011239029A (ja) * 2010-05-06 2011-11-24 Hitachi Consumer Electronics Co Ltd 映像表示装置、省電力制御装置、及び省電力方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077924A (ja) * 2018-11-05 2020-05-21 株式会社ビデオリサーチ テレビ番組評価システム
JP2020167639A (ja) * 2019-03-29 2020-10-08 株式会社ビデオリサーチ テレビ番組評価システム
JP2020166786A (ja) * 2019-03-29 2020-10-08 株式会社ビデオリサーチ テレビ番組評価システム
JP7116401B2 (ja) 2019-03-29 2022-08-10 株式会社ビデオリサーチ テレビ番組評価システム
JP7232466B2 (ja) 2019-03-29 2023-03-03 株式会社ビデオリサーチ テレビ番組評価システム
JP2021064945A (ja) * 2020-12-10 2021-04-22 株式会社ビデオリサーチ テレビ番組評価システム

Similar Documents

Publication Publication Date Title
US11860915B2 (en) Systems and methods for automatic program recommendations based on user interactions
US10070192B2 (en) Application for determining and responding to user sentiments during viewed media content
US11947587B2 (en) Methods, systems, and media for generating sentimental information associated with media content
US8578415B2 (en) Information providing method, content display terminal, portable terminal, server device, information providing system and program
US9854315B1 (en) Systems and methods for broadcast audience interaction and participation
US9706235B2 (en) Time varying evaluation of multimedia content
US9003457B2 (en) Media engagement factors
US9143830B2 (en) Information processing apparatus, information processing method, computer program, and information sharing system
US10587921B2 (en) Viewer rating calculation server, method for calculating viewer rating, and viewer rating calculation remote apparatus
US9756387B2 (en) Systems and methods for using a remote control for presence detection
US8359610B2 (en) Audience measurement apparatus, system and method for producing audience information of a media presentation
US9306989B1 (en) Linking social media and broadcast media
US10142691B2 (en) Display system, display apparatus, display method, and program
US20100319043A1 (en) Interactive television architecture
Fink et al. Social-and interactive-television applications based on real-time ambient-audio identification
CN103686235A (zh) 将音频和/或图像与脸部特征和表情相关的系统和方法
US10219018B2 (en) Method of controlling display device for providing content and display device performing the same
JP2013150086A (ja) 行動情報認識システム、情報処理装置および行動情報認識方法
US20150026744A1 (en) Display system, display apparatus, display method, and program
TW201308995A (zh) 廣告及多媒體影片互動系統及其方法
US10560207B2 (en) System and method for providing targeted secondary content delivery
US11627373B2 (en) Systems and methods for providing survey data from a mobile device
JP2017092664A (ja) 番組分析装置及び番組分析方法
Colaç̦o Back talk: an auditory environment for co-presence in television viewing
Colaco et al. Back talk: Engagement sensing for enhancing video viewing

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160322