JP2013258450A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2013258450A
JP2013258450A JP2012131599A JP2012131599A JP2013258450A JP 2013258450 A JP2013258450 A JP 2013258450A JP 2012131599 A JP2012131599 A JP 2012131599A JP 2012131599 A JP2012131599 A JP 2012131599A JP 2013258450 A JP2013258450 A JP 2013258450A
Authority
JP
Japan
Prior art keywords
content
information
time
input
input information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012131599A
Other languages
English (en)
Inventor
Satoshi Shirasawa
聡 白澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2012131599A priority Critical patent/JP2013258450A/ja
Publication of JP2013258450A publication Critical patent/JP2013258450A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 視聴者が求めるベストなハイライトシーンを信頼性よく検出することができる情報処理装置を提供する。
【解決手段】 情報処理装置104は、時系列的に構成されたコンテンツ100に対し、前記コンテンツ100の時系列位置に対応させてユーザが入力した前記コンテンツ100に対する入力情報101と、前記ユーザが入力を行った前記コンテンツ100の時系列位置情報Taとを取得する情報取得手段102と、前記情報取得手段102により取得した前記入力情報101及び前記時系列位置情報Taに基づき、前記時系列における前記入力情報101の変動を検出する変動検出手段103とを備える。
【選択図】図10

Description

本発明は、時系列なデータである映像データと音声データの双方またはいずれか一方を収めたコンテナを処理する情報処理装置に関し、特に当該コンテナ内の映像データまたは音声データを視聴するユーザが最も興味をそそられると思われる部分(ハイライトシーンともいう)の検出技術に関する。
近年、デジタル技術の進歩に伴い、時系列なデータである映像データや音声データを一つの入れ物に収め、その入れ物を無線媒体やネットワークを介して送信したり、または、CDやDVDなどの記憶媒体に書き込んで配布したりすることが行われている。入れ物のことを「コンテナ」という。コンテナの実体はコンピュータで処理可能なデジタルデータの集合体であるファイルであり、たとえば、Avi、Flash(登録商標)、Video、Mov、MPEG2などの多様なファイル形式がある。
上記のとおり、コンテナは一般的に映像データと音声データの両方を含むが、用途によってはいずれか一方だけの場合もある。また、映像データは必ずしも「映像」(動画)とは限らない。たとえば、スライドのように静止画や文字などの動きのない画面のみで構成されたり、あるいは、動きのない画面を一部含んで構成されることもある。いずれにせよ、映像データと音声データの双方を含むか、またはいずれか一方を含むか、あるいは、動画だけで映像データを構成するか、または動画や静止画との混在構成にするか、などは、編集の裁量であり、ここでは意識しない。
図11は、コンテナの概念構造図である。(a)はコンテナの構造を示し、(b)はコンテナ内のデータの時系列的な構造を示す。(a)に示すように、コンテナは映像データと音声データの双方または一方を含むことが可能であり、(b)に示すように、コンテナ内のデータはタイムラインと呼ばれる時間軸に沿って並べられている。時間軸は0から始まり、以降、画面ごとにタイムライン上の位置情報、つまり、各点の時間を示す指標(図ではT、T、T・・・・T)が設定されている。
なお、本明細書においては、タイムライン上の点のことを「時間」と表現することもある。たとえば、時間Tと表現したり、あるいは、コメントの送信時間などと表現したりする。一般的に「時間」とは“時刻と時刻との間の時の長さ”のことであり、通常、「長さ」の意味で用いられるが、本明細書では、この解釈(時間=長さ)を採用しない。単に「時間」という場合は、あくまでも「タイムライン上の一点である位置情報」のことを指すものとする。
また、“時刻”とは「時の流れにおける、ある一点」のことである。この定義からすると、本発明の時間(タイムライン上の一点である位置情報)も時刻といえなくもないが、一般的には一日を24時間としたときのある一点のこと(たとえば、12時00分00秒)を時刻というから、それとは区別して「時間」の概念を用いている。
(b)において、映像データを構成する多数の升目の一つ一つが映像の1単位である画面(コマともいう)を表している。先頭のコマの位置情報はT、2番目のコマの位置情報はT、3番目のコマの位置情報はT、・・・・最後のコマの位置情報はTである。一般的に一つの映像データは一つまたは複数のコマからなる映像素材を複数つなげて構成されることが多い。映像素材のことをシーンともいう。たとえば、先頭にオープニングシーンを置き、そのオープニングシーンの後に、第1、第2、第3・・・・の各シーンをつなげ、最後にクローズドシーンを置くという具合である。音声データは各々の映像素材に含まれているものを使用する場合と、BGMやナレーションのように別途に用意して付け加える場合とがある。どのような映像素材を用いるか、また、どの音声データを用いるかなどについても、編集の裁量であり、ここでは意識しない。
ハイライトシーンの検出とは、(b)のタイムライン上における任意の二つの点で挟まれた区間を検出することをいう。区間(つまり、ハイライトシーン)は、一つのコンテナにつき、複数検出されることもある。ハイライトシーンとは、一般的に視聴者が盛り上がりを感じるシーンのことをいい、たとえば、サッカーの試合におけるゴールシーンなどのことである。
便宜的に二つの点をTs、Teとする。タイムライン上の位置関係はTs<Te、すなわち、時間的にTsが前、Teが後である。Tsをハイライトシーン開始点、Teをハイライトシーン終了点という。
ハイライトシーンを検出することができれば、そのハイライトシーンを頭出しして直ちに見る(聞く)ことができ、面倒がなく、また、ハイライトシーンを見逃す(聞き逃す)こともない。
ハイライトシーンの検出技術としては、たとえば、下記の特許文献1に記載のものが知られている。以下、この技術を従来技術ということにすると、この従来技術には、ハイライトシーンの検出を具体的にどのようにして行うのかについての詳しい説明がないものの、(イ)視聴者からのコメント情報を収集して番組中の注目度の高い箇所などを表す視聴統計情報を作成し、(ロ)その番組を録画再生視聴する際に、(イ)で作成された視聴統計情報を参照して注目度の高い番組箇所(ハイライトシーン)を推定することが開示されている。なお、視聴者からのコメント情報の収集には、他のユーザの意見のみならず、本人ユーザの意見も含まれる。
ここで、同文献の段落〔0012〕に「個々のチャンネル番号について視聴率や視聴率履歴などの視聴統計情報」と記載されているので、上記の(イ)(ロ)における視聴統計情報は「視聴率」に関する情報であると認められる。してみれば、従来技術は、「視聴率」に基づいてハイライトシーンを推定していると解することができる。
特開2010−206447号公報
しかしながら、従来技術は、「視聴率」に基づいてハイライトを推定する仕組みとなっているため、必ずしも視聴者が求めるベストなハイライトシーンを検出できないという問題点がある。
これは、視聴率は、対象となるデータの利用数を表す単なる指標に過ぎないからであり、たとえ、一時的に視聴率が急増したといっても、その急増には、“ながら視聴”(別の仕事を行いながらチョイ見したりチョイ聴きしたりする行為)の利用者や、“ザッピグ”(複数のデータを切り換えながら忙しく視聴する行為)を行う利用者が少なからず含まれているからであり、結局のところ、必ずしも「視聴率の急増点=ハイライトシーン開始点、視聴率の急減点=ハイライトシーン終了点」であるとは言い切れないからである。
本発明は、このような問題点に鑑みてなされたものであり、その目的は、視聴者が求めるベストなハイライトシーンを信頼性よく検出することができる情報処理装置を提供することにある。
上記目的を達成するため、本発明に係る情報処理装置は、時系列的に構成されたコンテンツに対し、前記コンテンツの時系列位置に対応させてユーザが入力した前記コンテンツに対する入力情報と、前記ユーザが入力を行った前記コンテンツの時系列位置情報とを取得する情報取得手段と、前記情報取得手段により取得した前記入力情報及び前記時系列位置情報に基づき、前記時系列における前記入力情報の変動を検出する変動検出手段と、を備えることを特徴とする。
本発明によれば、視聴者が求めるベストなハイライトシーンを信頼性よく検出することができる情報処理装置を提供することができる。
実施形態の全体的なシステム構成図である。 支援サーバ2の構成図である。 支援サーバ2の記憶部9に記憶される情報テーブルの構造図である。 情報処理装置3の構成図である。 中央制御部17の機能ブロック図である。 情報処理装置3の表示部20における画面表示の一例を示す図である。 一つのコンテンツに関するコメントの変化傾向を示す図である。 一つのコンテンツに関するコメントの変化傾向を示す図である。 ツイッターの書き込み情報を利用する場合のコンテンツ指定データおよび判別データの一例を示す図である。 付記1の構成図である。 コンテナの概念構造図である。
以下、図面を参照しながら本発明の実施形態について説明する。
図1は、実施形態の全体的なシステム構成図である。このシステムは、インターネット等のネットワーク1と、このネットワーク1に接続されたハイライトシーン検出支援サーバ(以下、単に支援サーバ2という)と、同じくネットワーク1に接続されたn台(nは1以上の整数)の情報処理装置3_1〜3_nと、コンテンツ配信装置4とを含む。なお、以下において、n台の情報処理装置3_1〜3_nを総称する場合は単に情報処理装置3ということにする。
コンテンツ配信装置4は任意のコンテンツを配信する。コンテンツとは、冒頭で説明した、時系列なデータである映像データと音声データの双方またはいずれか一方を収めたコンテナのことをいい、具体的には、Avi、Flash(登録商標)、Video、Mov、MPEG2などのファイルのことをいう。
ここで、コンテンツの語源を解説すると、一般的に情報処理の分野においては、コンピュータ等の物理要素(ハードウェア)と、その物理要素上で動作する機能要素(ソフトウェア)という二つの区分法が用いられているが、さらに、ソフトウェアを「コンピュータの処理手順を示すプログラム」と、そのプログラムで利用することができる「デジタルデータ」とに再区分することも行われており、このデジタルデータのことを一般に「コンテンツ」と呼んでいる。
コンテンツは大別して、時間軸の情報を持たない、たとえば、テキストなどの文字データや静止画データもしくはそれらの混在データと、時間軸の情報を持つ、映像や音声などの時系列データからなる情報の集まりとに分けることができる。本明細書におけるコンテンツは、後者の「映像や音声などの時系列データからなる情報の集まり」のことをいい、要するに、前述のコンテナのことをいう。以下、説明の便宜上、コンテンツとコンテナを同義語として取り扱うことにし、特に断りがない限り、コンテンツで統一することにする。なお、コンテンツは、映像や音声などの時系列データのみに限らず、その一部にテキストなどの文字データや静止画データなどを含んでいてもよい。すなわち、本明細書におけるコンテンツは“主に”映像や音声などの時系列データからなる情報の集まりであればよい。
コンテンツの一例は、地上波や衛星などの無線媒体を利用して一斉送信(配信という)されるテレビジョン放送等の番組である。
ここでのテレビジョン放送とは、主として動画ファイル形式のデータを電波を使って、不特定多数のために放送する仕組みのことで、通常は動画に加えて音声、あるいはデータ等の付加情報を送ることができる。電波を使用せず有線で送出するケーブルテレビの形態もある。
なお、法令的な観点からすると、「テレビジョン放送」とは「静止し、又は移動する事物の瞬間的影像及びこれに伴う音声その他の音響を送る放送(文字、図形その他の影像(音声その他の音響を伴うものを含む。)又は信号を併せ送るものを含む。)」と定義されている(放送法2条1項18号参照)。
番組とは、放送によって送られるコンテンツの総称のことであり、テレビ番組とはテレビジョン放送によって送られるコンテンツの総称のことである。また、テレビプログラム(Television Program)ともいう。
以下、便宜的に、コンテンツをテレビジョン放送番組とし、図示のコンテンツ配信装置4が、地上波等の無線媒体を用いて一斉送信するものとする。ただし、技術思想上は、このような狭義(コンテンツ=テレビジョン放送番組)の解釈に限定しない。コンテンツは、主に映像や音声などの時系列データからなる情報の集まりであればよく、たとえば、ネットワーク1を介して任意のサーバ(図示の支援サーバ2や他のサーバなど)から情報処理装置3に個別にまたは一斉に送信される態様であってもよい。この態様の場合、テレビジョン放送番組をそのままネットで送信したり、あるいはその録画データをネットで再送信したりすることはもちろんのこと、それ以外にも、たとえば、個人的に制作した様々な内容のコンテンツをネットで送信するものであってもよい。
図2は、支援サーバ2の構成図である。支援サーバ2は、ネットワーク1との通信を中継する通信部5と、キーボード等の操作部6と、コンピュータ(以下、CPU7a)やプログラム記憶要素(以下、ROM7b)及び高速作業エリア用一時記憶要素(以下、RAM7c)などを含む中央制御部7と、液晶パネル等の表示部8と、ハードディスク等の大容量の記憶部9とを備える。
ここで、記憶とは、将来に必要な情報をその時まで保持することを言う。
保存とは、情報(例えば、データ:作成したり編集したデータ)を記憶装置(例えば、RAMやハードディスク等)に記憶させることを言い、また、情報を記憶させる操作を指すこともある。
記録とは、情報を安定した形で定着し、保存された状態にすることを言う。
また、バッファとは、一時的なもので削除されることを前提とした一時記憶を意図した概念であり、後述のRAM17cや記憶部23に確保したバッファは、情報を一時保存する機能を有している。一方、記録とは、残しておくことを前提とした記憶を意図した概念である。
支援サーバ2は、好ましくは長時間の運用耐性と安定性に優れたサーバ専用マシンである。支援サーバ2は、一カ所に設置された集中型であっても、あるいは、各所(各地)に分かれて設置された分散型であってもよい。この支援サーバ2は、ROM7bに格納されている制御プログラムをRAM7cにロードしてCPU7aで実行することにより、支援サーバ2に特有の機能、すなわち、各々の情報処理装置3_1〜3_nから必要に応じて送信される情報を通信部5を介して受信して集計し、その集計結果を記憶部9に蓄積記憶する第一の機能と、蓄積された情報の中から同じコンテンツに関する情報を抽出し、その抽出結果を通信部5を介して各々の情報処理装置3_1〜3_nへ配信する第二の機能とを少なくとも実現する。
各々の情報処理装置3_1〜3_nから支援サーバ2に送信される情報には、視聴者のコメント情報(コメント及びそのコメントの時間情報を含む情報)と、視聴中のコンテンツの属性を表すコンテンツ指定データ(たとえば、図9参照)とが含まれる。本実施形態では、一例としてテレビ放送される番組を視聴対象のコンテンツとしているが、これに限定されず、たとえば、ネット配信される動画や音声などのコンテンツまたはそれらの双方を含むコンテンツを視聴対象としてもよい。
なお、視聴者からのコメント情報には、他のユーザの意見のみならず、本人ユーザの意見も含まれる構成にしてもよい(自分がコメントした情報も盛り上がり判別に利用される形態も想定できるからである)。
図3は、支援サーバ2の記憶部9に記憶される情報テーブルの構造図である。この図において、情報テーブル10は、少なくとも、一つ一つのコンテンツを識別するためのコンテンツ識別情報を格納するコンテンツ識別部11と、視聴者(ユーザ)によって意図的にコンテンツにつけられた入力情報の一つであるコメント(視聴者の意見や感想など)を格納するコメント格納部12と、コメントがつけられた時間(タイムライン上の時間で示される位置情報、つまり時系列位置情報)を格納するタイムライン格納部13とを備えており、たとえば、同一のコンテンツ識別情報を有するレコードをグループ化(図示の例ではコンテンツA、コンテンツB、コンテンツCの各々にグループ化)して集計している。
図4は、情報処理装置3の構成図である。情報処理装置3は、ネットワーク1との通信を中継する通信部14と、コンテンツ配信装置4から適宜に配信されるコンテンツを受信するコンテンツ受信部15と、キーボード等の操作部16と、コンピュータ(以下、CPU17a)やプログラム記憶要素(以下、ROM17b)及び高速作業エリア用一時記憶要素(以下、RAM17c)などを含む中央制御部17と、中央制御部17から出力される映像データを所定の表示形式(たとえば、コンピュータ画像形式やテレビジョン画像形式など)に変換して出力し、また中央制御部17から出力される音声データをアナログ信号に変換して出力する映像音声出力部18と、タッチパネル19付きの液晶ディスプレイ等の表示部20と、モノラルまたはステレオ方式のスピーカ21と、タッチパネル19のタッチ座標を検出して中央制御部17に出力するタッチ検出部22と、ハードディスク等の大容量の記憶部23と、コンテンツ受信部15で受信したコンテンツを録画(記憶部23に記憶すること)したり、その録画データを再生したりするための録画再生部24とを備える。
なお、操作部16は、キーボード等のキースイッチを備えるが、このキースイッチは、ハードウェアスイッチに別段限定されるものではなく、例えばソフトウェアースイッチであってもよい。また、タッチパネルを使用した構成であってもよい。その場合は、タッチパネル19付きの液晶ディスプレイ等の表示部20の表示画面に表示されるソフトキーボードに対応した画面のタッチ操作で情報入力がなされる。
なお、図示の情報処理装置3は、ノート型のパーソナルコンピュータとされているが、これは一例に過ぎない。たとえば、タブレット型のパーソナルコンピュータや据え置き型のパーソナルコンピュータなどであってもよい。また、ノート型やタブレット型のような一体型のもの(すべての要素を一つの筐体に収めたもの)である必然性もない。各要素のいくつかを外付けとするようなパーソナルコンピュータであってもよい。たとえば、通信部14、コンテンツ受信部15、操作部16、タッチパネル19付きの表示部20、スピーカ21、タッチ検出部22、記憶部23、録画再生部24のすべてまたはいずれかを外付けとするものであってもよい。さらに、パーソナルコンピュータにも限定されない。携帯電話機等の携帯電子機器や、その他の種類のコンピュータ応用機器などであってもよい。
図5は、中央制御部17の機能ブロック図である。“機能”とは、中央制御部17において、CPU17aなどのハードウェアリソースと制御プログラムなどのソフトウェアリソースとの有機的結合によって仮想的に実現される動作や動きまたは仕組みのことをいう。機能は実体(形)を伴わない。
実施形態の中央制御部17で実現される機能は、たとえば、情報取得機能25と変動検出機能26の少なくとも二つである。前記のとおり、これらの機能は実体(形)を伴わないものであるが、この態様(実体を伴わないもの)に限定されない。発明の思想上は、上記機能の一部またはすべてを“実体を伴うもの”、すなわち、ハードロジック等で構成してもかまわない。これら二つの機能(情報取得機能25と変動検出機能26)の働きについては後で説明する。
図6は、情報処理装置3の表示部20における画面表示の一例を示す図である。なお、表示部20における表示画面は、先にも説明したとおり、映像音声出力部18から出力されたものであるので、図示の表示例は、映像音声出力部18から出力された画面の一例を示すものと考えて差し支えない。
以下、情報処理装置3の表示部20における画面表示例として説明する。この図において、画面27は、面積の異なる4つの表示エリア(E1〜E4)と、ソフトウェアで描かれた二つのコマンドボタン(B1、B2)とを適宜にレイアウトした構成を有している。
左上に位置するE1はコンテンツ表示エリアであり、このE1は、コンテンツ受信部15で受信中のコンテンツの映像データまたは録画再生部24で再生中のコンテンツの映像データを表示する。また、E1の下に位置するE2はコンテンツ情報表示エリアであり、このE2は、E1に表示中のコンテンツに関する様々な情報(たとえば、コンテンツ名や再生時間など)を表示する。
残り二つのエリア(E3、E4)はコメント用である。コメントとは、E1に表示中のコンテンツに必要に応じてつけられる視聴者の感想や意見などの入力情報の一つのことをいい、右下のE4は自分のコメントを作成するためのコメント作成エリア、右上のE3はE1に表示中のコンテンツにつけられたすべてのコメントを一覧表示するためのコメント一覧表示エリアである。
コメントをつける際の基本手順は以下のとおりである。まず、E1に表示中のコンテンツを見ている視聴者が特定のシーン(たとえば、タイムライン上の時間Txにおけるシーン)で何らかのコメントを残したいと思ったとき、当該視聴者は、操作部16を用いてコメント作成エリア(E4)に所望の文字情報を入力し、次いで、コメント送信ボタン(B1)を押してその文字情報と、その時点におけるタイムラインの時間Tx′とを含む情報を支援サーバ2に送信する。
支援サーバ2は、受信した情報を他の情報処理装置3からの情報(ただし、同一のコンテンツに関する情報)と一緒に集計してグループ化し、前記の情報テーブル10に格納して記憶部9に蓄積記憶すると共に、その蓄積情報を同一のコンテンツを視聴中のすべての情報処理装置3に宛てて配信し、配信先の情報処理装置3は、配信された情報に含まれるコメントをコメント一覧表示エリア(E3)にリスト表示する。
ここで、コメントの作成、すなわち、コメント作成エリア(E4)への文字情報の入力には少なからず時間を要する。以下、この時間のことを「遅延時間」ということにする。遅延時間は前記のTxからTx′までの間の時間である。
このため、コンテンツの注目シーンとコメント送信との間に上記遅延時間に相当するずれ(Tx′−Tx)を生じてしまう。録画済みのコンテンツを再生している場合であれば、時間Txで一時停止を行い、その間に文字情報を入力して送信することにより、Tx=Tx′となってずれを生じないが、コンテンツをリアルタイムに再生している場合には上記のずれを無くすことが難しい。
リアルタイム再生におけるずれを無くすための対策の一つは、文字情報を単純化することである。たとえば、ネット動画の世界では「拍手」を数字の“8”で表したり、あるいは「疑問」をクエスチョンマーク“?”で表したりすることが行われているので、たとえば、「88」や「?」などと入力してコメント送信ボタン(B1)を押すことにより、上記の“ずれ”を極力少なくすることができる。
または、「追っかけ再生」の機能を利用してもよい。追っかけ再生とは、録画(長期記録を目的とした録画に限らない。再生後に抹消される一時的な録画でもよい。)しながら再生することをいい、任意の位置で一時停止したり、巻き戻ししたりすることができる特殊な再生機能のことをいう。タイムシフト再生ともいう。この機能を利用すると、上記の“ずれ”を無くすことができる。コンテンツの注目シーン(時間Tx)で一時停止し、その間にコメントを入力して送信すればよいからである。
このように、文字情報を単純化したり、録画済みのコンテンツを再生したり、あるいは、追っかけ再生の機能を利用したりすることによって、コンテンツの注目シーンとコメントとの時間的なずれを無くす(または極力少なくする)ことが可能であるが、実施形態では念のために、さらに、ワンタッチでハイライトシーンを指定することができる手段を提供している。その手段は、画面27の右下のシーン指定ボタン(B2)である。視聴者によってこのシーン指定ボタン(B2)が押されると、情報処理装置3は、直ちに所要の付加情報(少なくともコンテンツの識別情報とタイムラインの時間を含む情報)を生成して支援サーバ2に送信する。したがって、このシーン指定ボタン(B2)を利用することによっても、上記のずれ問題を解消することができる(請求項6)。
なお、すでにコメント作成エリア(E4)に文字情報が入力済みであれば、シーン指定ボタン(B2)を押したときに、この入力済みの文字情報と、上記の所要の情報(少なくともコンテンツの識別情報とタイムラインの時間を含む情報)とを一緒にして支援サーバ2に送信するようにしてもよい。
次に、情報処理装置3におけるハイライトシーンの検出原理について説明する。
図7は、一つのコンテンツに関するコメントの変化傾向を示す図である。この図において、縦軸は一つのコンテンツに関する累計コメント数を示し、横軸は同一つのコンテンツのタイムラインを示しており、太折れ線のグラフ28は同一つのコンテンツに関する累計コメント数の時間的な変化傾向を示している。このグラフ28の元になっているコメントは、元々、支援サーバ2で集計され、且つ、その支援サーバ2から情報処理装置3に配信され、中央制御部17の情報取得機能29によって取得されたものであり、グラフ28は、情報処理装置3の変動検出機能26によって数値的に処理されたものである。
図示のグラフ28を観察すると、タイムラインの開始点(横軸の左端の点)から所定点(MT_B1)までは緩やかにコメント数が増加し、同点(MT_B1)を越えるとコメント数が急増する様子が認められる。さらに、同点(MT_B1)を過ぎた後の所定点(MT_E1)に至るとコメント数の急増が止まり、再び穏増する傾向に変化する様子が認められる。
このようなグラフ28の変化から、二つの点(MT_B1とMT_E1)の間の区間をハイライトシーンとして検出することができる。少なくとも第一の点(MT_B1)でコメント数が急増し、また、第二の点(MT_E1)でコメント数の急増が止まっているからであり、第一の点(MT_B1)をハイライトシーン開始点、第二の点(MT_E1)をハイライトシーン終了点とすることができるからである。
情報処理装置3の変動検出機能26は、このような仕組みに基づいて、ハイライトシーンを検出する(請求項1)。
このように、実施形態では「コメント数」に基づいてハイライトシーンを検出しているのに対して、冒頭の従来技術では「視聴率」に基づいてハイライトシーンを検出している。両者を対比すると、ハイライトシーンの検出信頼性の点で実施形態の仕組みの方に優位性がある。これは、「視聴率」は“ながら視聴”や“ザッピング”の視聴者を含み、必ずしもコンテンツに対する正確な視聴情報を表していない一方、「コメント数」は、視聴者による積極的且つ明示的な行為である「コメントの投稿」の数を表し、且つ、コメントの投稿は感動や盛り上がりを感じたときに行われるのが一般であるからであり、ハイライトシーンの検出に用いる基本データとしてふさわしいからである。
ハイライトシーン開始点(MT_B1)とハイライトシーン終了点(MT_E1)は、たとえば、以下のように検出してもよい。すなわち、図示のように、所定の閾値MP1を設定し、この閾値MP1を累計コメント数が越えた点をハイライトシーン開始点(MT_B1)としてもよい。また、ハイライトシーン終了点(MT_E1)については、たとえば、ハイライトシーン開始点(MT_B1)の通過後に、累計コメント数の増加率が急増から緩増に転じる点を検出するようにしてもよい。
また、ハイライトシーン開始点とハイライトシーン終了点の検出を以下のようにしてもよい。
図8は、一つのコンテンツに関するコメントの変化傾向を示す図である。先の図7では、累計コメント数の変化傾向を示していたが、この図8では、単位時間(たとえば、1分間)あたりのコメント数の変化傾向を示す点で相違する。この図において、縦軸は一つのコンテンツに関する単位時間当たりのコメント数を示し、横軸は同一つのコンテンツのタイムラインを示しており、太折れ線のグラフ29は、同一つのコンテンツに関する単位時間当たりのコメント数の変化傾向を示している。このグラフ29の元になっているコメントも、元々、支援サーバ2で集計され、且つ、その支援サーバ2から情報処理装置3に配信され、中央制御部17の情報取得機能29によって取得されたものであり、グラフ29は、情報処理装置3の変動検出機能26によって数値的に処理されたものである。
図示のグラフ29を観察すると、タイムラインの開始点から所定点(MT_B2)までは単位時間当たりのコメント数が若干の上下動を伴ってほぼ一定の大きさで推移し、同点(MT_B2)を越えると単位時間当たりのコメント数が急増する様子が認められる。さらに、同点(MT_B2)を過ぎた後の所定点(MT_E2)に至る間に、単位時間当たりのコメント数が急増から明らかな減少に転じ、且つ、所定点(MT_E2)以降、単位時間当たりのコメント数が若干の上下動を伴ってほぼ一定の大きさで推移しながら緩減する様子が認められる。
このようなグラフ29の変化からも、二つの点(MT_B2とMT_E2)の間の区間をハイライトシーンとして検出することができる。少なくとも第一の点(MT_B2)で単位時間当たりのコメント数が急増し、また、第二の点(MT_E2)で単位時間当たりのコメント数が一定の大きさの推移に移行しているからであり、第一の点(MT_B2)をハイライトシーン開始点、第二の点(MT_E2)をハイライトシーン終了点とすることができるからである。
情報処理装置3の変動検出機能26は、このような仕組みに基づいて、ハイライトシーンを検出する(請求項1)。
ハイライトシーン開始点(MT_B2)とハイライトシーン終了点(MT_E2)は、たとえば、以下のようにして検出してもよい。すなわち、図示のように、所定の閾値MP2を設定し、この閾値MP2を単位時間当たりのコメント数が越えた点をハイライトシーン開始点(MT_B2)とするとともに、同閾値MP2を単位時間当たりのコメント数が下回った点をハイライトシーン終了点(MT_E2)としてもよい。あるいは、ハイライトシーン終了点(MT_E2)用の閾値を別途に設けてもよい。つまり、ハイライトシーン開始用の閾値とハイライトシーン終了点用の閾値とを個別に設定してもよい。ハイライトシーン開始用の閾値の方がハイライトシーンを特定する上でより重要な要素であり、ハイライトシーン終了用の閾値よりも小さく、即ち感度を良く設定されることが好ましい。この場合には、ハイライトシーンの特定を素早く行いつつも、ハイライトシーンを長く認識してしまうことを防止することができる。
このようにして、情報処理装置3の変動検出機能26で、二種類のハイライトシーン開始点(MT_B1及びMT_B2)と、同じく二種類のハイライトシーン終了点(MT_E1及びMT_E2)とを検出することができる。つまり、一つのコンテンツに関し、MT_B1からMT_E1までの第一のハイライトシーンと、MT_B2からMT_E2までの第二のハイライトシーンとを検出することができる。
これら二つのハイライトシーンは本来同じはず(一致するはず)であるが、コメント数の増え方によっては一致しない場合があり得る。第一のハイライトシーンが「累計」のコメント数に基づいて検出されたものであり、第二のハイライトシーンが「単位時間当たり」のコメント数に基づいて検出されたものであるからであり、元になっている情報に違いがあるからである。
したがって、実用上の観点からは、以下のようにすることが望ましい。すなわち、情報処理装置3の変動検出機能26で、上記二種類のハイライトシーン開始点(MT_B1及びMT_B2)と、上記二種類のハイライトシーン終了点(MT_E1及びMT_E2)とを用い、第一のハイライトシーンと第二のハイライトシーンの平均をとって、その平均値を最終的なハイライトシーンとして決定することが望ましい。
具体的には、ハイライトシーンの平均開始点((MT_B1+MT_B2)/2)と平均終了点((MT_E1+MT_E2)/2)とを算出し、それらの平均開始点と平均終了点との間の区間を最終的なハイライトシーン(以下、第三のハイライトシーンという)として決定する。
このようにすると、元になっている情報(累計のコメント数と単位時間当たりのコメント数)の違いに伴う誤差を平均化して、信頼性のあるハイライトシーン(第三のハイライトシーン)を得ることができる。
さらに、この第三のハイライトシーンに、一般的なコメント作成時間やコメント配信に要する時間等の遅延時間(D)分を加味する補正を行うとさらに好ましい。すなわち、情報処理装置3の変動検出機能26で、((MT_B1+MT_B2)/2−D)および((MT_E1+MT_E2)/2−D)の補正計算を行ってもよい。この補正後のハイライトシーンを、第四のハイライトシーンということにする。
以上のようにして、四種類のハイライトシーンを検出することができる。
<第一のハイライトシーン>
累計コメント数に基づいて検出されたもの。信頼性は元になっている情報(累計コメント数)の精度に依存する。遅延補正を行っていないため、リアルタイムのコンテンツに適用するとタイムラグ(視聴者が意図する注目シーンと実際のコメント投稿動作とのずれ)を生じる可能性がある。
<第二のハイライトシーン>
単位時間当たりのコメント数に基づいて検出されたもの。信頼性は元になっている情報(単位時間当たりのコメント数)の精度に依存する。第一のハイライトシーンと同様に遅延補正を行っていないため、リアルタイムのコンテンツに適用するとタイムラグを生じる可能性がある。
<第三のハイライトシーン>
第一のハイライトシーンと第二のハイライトシーンとを平均化したもの。元になっている情報(累計のコメント数と単位時間当たりのコメント数)の違いに伴う誤差を平均化しているので信頼性が高い。第一や第二のハイライトシーンと同様に遅延補正を行っていないため、リアルタイムのコンテンツに適用するとタイムラグを生じる可能性がある。
<第四のハイライトシーン>
第三のハイライトシーンに遅延補正を行ったもの。信頼性が高く(第三のハイライトシーンと同等)、且つ、リアルタイムのコンテンツに適用してもタイムラグを生じない。
実用上は、これら四種類のハイライトシーンのうち信頼性の高い第三のハイライトシーンまたは第四のハイライトシーンを使用することが望ましい。特に、リアルタイムなコンテンツ(テレビジョン放送番組等)に対しては第四のハイライトシーンを使用し、また、非リアルタイムなコンテンツ(テレビジョン放送番組等の録画データやネット配信された動画データなどを再生したもの)に対しては第三のハイライトシーンを使用することが望ましい。ただし、これらの使い方は、あくまでも実用上のベストモードである。信頼性やタイムラグが問題とならない場合には、残り二つのハイライトシーン(第一と第二のハイライトシーン)のいずれかを使用してもかまわない。
情報処理装置3の中央制御部17は、上記四種類のハイライトシーン(第一のハイライトシーン・・・・第四のハイライトシーン)のいずれかの情報、つまり、ハイライトシーン開始点とハイライトシーン終了点の情報を、視聴中のコンテンツの属性を表すコンテンツ指定データと一緒にして記憶部23に記憶する。
次に、記憶部23に記憶された、ハイライトシーン開始点とハイライトシーン終了点の情報(以下、ハイライトシーン情報という)のいくつかの使用例について説明する。
<ハイライトシーン情報の第1の使用例>
コンテンツのハイライトシーン部分だけを取り出して再生する使用例である。コンテンツは、あらかじめ記憶部23に録画データとして記憶しておいたものを読み出して再生したものであってもよく、あるいは、コンテンツ配信装置4から再配信の予定があれば、その予定に合わせて受信したものであってもよい。説明の便宜上、ハイライトシーン情報に対応したコンテンツが録画データとして記憶部23に記憶されていたものとする。この場合、録画再生部24は、記憶部23から該当するコンテンツを読み出して中央制御部17に出力するとともに、その読み出しに際して、記憶部23からハイライトシーン開始点とハイライトシーン終了点の情報を読み出し、これらのハイライトシーン開始点とハイライトシーン終了点とを、それぞれコンテンツの再生開始点と再生終了点に設定する。
このようにすると、コンテンツのハイライトシーン部分だけを取り出して表示部20に表示したり、スピーカ21から出力したりすることができ、余計なシーンを視聴する無駄がない(請求項2)。
<ハイライトシーン情報の第2の使用例>
録画再生部24におけるタイムシフト再生(追っかけ再生)に適用する使用例である。コンテンツ配信装置4で受信したリアルタイムのコンテンツを使用する。中央制御部17は、コンテンツ配信装置4からのコンテンツをコンテンツ受信部15で受信して読み込みながら、RAM17cや記憶部23に確保したバッファに一時保存していく。
ここで、バッファ(buffer)とは、機器やソフトウェアの間でデータをやり取りするときに、処理速度や転送速度の差を補うためにデータを一時的に保存しておく記憶領域のことをいう。バッファの容量は追っかけ再生に必要な過不足のないサイズであり、好ましくは、コンテンツの再生時間のすべてに相当するサイズである。ただし、RAM17cや記憶部23の記憶容量は上限があるため、バッファの容量にも自ずと制限があることは勿論である。
中央制御部17は、バッファに一時保存されたコンテンツを読み出して表示部20に出力するが、その際に、記憶部23からハイライトシーン開始点とハイライトシーン終了点の情報を読み出し、これらのハイライトシーン開始点とハイライトシーン終了点とを、それぞれコンテンツの再生開始点と再生終了点に設定する。
このようにすると、リアルタイム配信または放送されるコンテンツにおいても、前記と同様に、コンテンツのハイライトシーン部分だけを取り出して表示部20に表示したり、スピーカ21から出力したりすることができ、余計なシーンを視聴する無駄がない(請求項3)。
<ハイライトシーン情報の第3の使用例>
視聴中のコンテンツのハイライトシーンだけを抜き出して録画する際の使用例である。録画再生部24は、現在視聴中のコンテンツを記憶部23に録画する際に、記憶部23からハイライトシーン開始点とハイライトシーン終了点の情報を読み出し、これらのハイライトシーン開始点とハイライトシーン終了点とを、それぞれコンテンツの録画開始点と録画終了点に設定する。
このようにすると、視聴中のコンテンツのハイライトシーンだけを抜き出して録画することができ、再生時に余計なシーンを視聴する無駄がない(請求項4)。
<ハイライトシーン情報の第4の使用例>
前記第3の使用例の発展例であり、複数のハイライトシーンを取り出して録画する際の使用例である。録画再生部24は、現在視聴中のコンテンツを記憶部23に録画する際に、記憶部23からハイライトシーン開始点とハイライトシーン終了点の情報を読み出し、これらのハイライトシーン開始点とハイライトシーン終了点とを、それぞれコンテンツの録画開始点と録画終了点に設定するが、記憶部23から読み出されるハイライトシーン開始点とハイライトシーン終了点の情報が“複数組”である点で相違する。つまり、この第4の使用例では、コンテンツの録画に際して、複数のハイライトシーンを取り出して録画することがポイントである。たとえば、記憶部23から読み出されるハイライトシーン開始点とハイライトシーン終了点の情報がN組であったと仮定すると、コンテンツからN個のハイライトシーンを取り出し、それらN個のハイライトシーンをつなぎ合わせて録画する。
このようにすると、一つのコンテンツに含まれる複数のハイライトシーンを抜き出して録画することができる。このため、再生の際にそれら複数のハイライトシーンだけを連続して視聴することができ、余計なシーンを視聴する無駄がない(請求項5)。
なお、上述した実施形態では、ハイライトシーン開始点を、累計コメント数や単位時間当たりのコメント数に基づいて検出した一つの点(タイムライン上における一つの点)としているが、これに限定されない。たとえば、上記のようにして検出されたハイライトシーン開始点を所定時間だけ前にずらしてもよい。この所定時間は、タイムラインを遡った最初のシーン特異点までの時間としてもよい。シーン特異点は、たとえば、シーンの切り替わり点などであり、このような特異点はハードディスク録画機に標準搭載されているチャプター分割部検出機能を使うなどして検出することができる。あるいは、シーン特異点をタイムラインを遡った最初のコマーシャル部分としてもよい。
また、ハイライトシーン終了点についても同様にずらしてもよい。たとえば、累計コメント数や単位時間当たりのコメント数に基づいて検出されたハイライト終了点を、その検出位置から一定時間進んだ時点までずらしてもよく、あるいは、タイムラインを進んだ最初のシーン特異点(前記と同様)や最初のコマーシャル部分までずらしてもよい。
次に、上述した実施形態の変形例について説明する。
(1)第1変形例
上述した実施形態では、コンテンツの表示画面と同一画面上のコメント作成エリア(E4)に入力されたコメントを支援サーバ2で集計し、そのコメント数に基づいてハイライトシーンを検出しているが、これに限らない。たとえば、ツイッターやインターネット上の実況掲示板などの他のシステムに投稿されるコメント数に基づいてハイライトシーンを検出するようにしてもよい。この場合、対象となるコンテンツは、ツイッターであればハッシュタグから検索でき、また、実況掲示板であればスレッドタイトルなどから検索することができる。ツイッターや実況掲示板などの他のシステムに投稿された大量のコメントを積極的に活用することができ、より一層、ハイライトシーンの検出精度を高めることができるうえ、支援サーバ2も不要とすることができる。
図9は、ツイッターの書き込み情報を利用する場合のコンテンツ指定データおよび判別データの一例を示す図である。この図において、コンテンツ指定データ30は、コンテンツの種別を表す「チャンネル情報」と、コンテンツ名を表す「番組名」と、コンテンツの配信日時を表す「放送日時」と、コメントの書き込み場所を表す「コメントデータ元」と、コメント抽出用の情報を表す「キーワード」などを含み、また、判別データ31は、ハイライトシーン番号「データNo.」と、盛り上がり開始時間(タイムライン上の時間)を表す「盛り上がり開始時間」と、盛り上がり終了時間(同)を表す「盛り上がり開始時間」などを含む。
(2)第2変形例
上述した実施形態の情報処理装置3では、コンテンツのハイライトシーンからタイムシフト再生(追っかけ再生)を行うことができるが、この第2変形例による情報処理装置3では、これに加えてコメント一覧表示エリア(E3)にコメントもタイムシフト再生表示する。具体的には、録画再生部24が視聴中のコンテンツをタイムシフト再生する際に、中央制御部17がそのタイムシフト再生するタイムライン時間に対応するコメントと、そのコメントの時間情報とを含むコメント情報とを、記憶部23から読み出して表示画面のコメント一覧表示エリア(E3)に表示する。
このように、コメント情報のタイムシフト再生表示を行えば、録画していたコンテンツのハイライトシーンからタイムシフト再生により臨場感を与えることが可能になる。
(3)第3変形例
第3変形例による情報処理装置3では、視聴するコンテンツと、ハイライトシーンの情報と、コメント情報(コメント及びそのコメントの時間情報を含む情報)とを支援サーバ2から取得し、取得したコンテンツを再生視聴する際に、ハイライトシーンの情報を用いて再生箇所を特定して再生表示する。この場合、ハイライトシーンの情報を用いて対応するコメント情報を抽出してコンテンツと共に画面表示する。また、ハイライトシーンの情報に基づき取得したコンテンツからハイライトシーンを切り出す編集を施してダイジェスト版を作成して表示する。その際、対応するコメント情報を抽出してダイジェスト版と共に表示する。なお、コメント情報は、ハイライトシーンの情報と関連付けて記憶し、またはハイライトシーンの情報中に包含させる態様としてもよい。
このようにすれば、ハイライトシーンをまとめたダイジェスト版を視聴することができ、ハイライトシーンの視聴の手間を無くすことができる。
(4)第4変形例
第4変形例による情報処理装置3では、コンテンツを見ながらコメントを送信する場合に、そのコンテンツのハイライトシーンを指定するための付加情報(タイムライン上の時間情報など)を自動的に作成し、その付加情報をコメント情報(コメント及びそのコメントの時間情報を含む情報)に加えて送信する。具体的には、図6のシーン送信ボタンB2を操作した場合に、そのときのタイムライン上の時間と、ハイライトシーンを特定する時間情報と、図9に図示するコンテンツ指定データを含む付加情報とを生成して支援サーバ2に送信する。また、たとえば、「いいね」等の予め用意された特定文や記号、符号、キャラクタなどを規定のコメントとして付加する態様としてもよい。こうした付加情報を含むコメント情報を受信した情報処理装置3側では、当該付加情報に従ってハイライトシーンおよびコメントを表示する。
このようにすれば、シーン送信ボタンB2を操作するだけで、直ちに所要の情報を支援サーバ2に送信することができ、タイムラグを生じない。
また、付加情報を所定のアルゴリズムでデータ圧縮し、圧縮された付加情報をコメント情報に加えて送信する態様とすることもできる。圧縮された付加情報を受信した側では、圧縮された付加情報を伸長復元し、復元された付加情報に従ってハイライトシーンおよびコメントを表示する態様とすれば、ツイッターなど、書き込み文字数に制限がある場合にユーザコメント領域を圧迫することなく対応可能になる。
(5)第5変形例
第5変形例による情報処理装置3では、自分との関係性が明確なユーザからのコメント情報(コメント及びそのコメントの時間情報を含む情報)のみを用いて処理を実行する。たとえば、ツイッターでフォローしている対象のユーザなど、自分との関連が明確なユーザのコメント情報を用いてコンテンツのハイライトシーンを検出する。このため、この第5変形例では、情報処理装置3から支援サーバ2にコメント情報を含む情報を送信する際に、送信者のユーザ情報も一緒に送信する。このユーザ情報はコメント投稿者の固有識別情報であり、ツイッターのアカウント情報などである。支援サーバ2は、たとえば、図3の情報テーブル10にユーザ情報格納部を追加するなどして、そのユーザ情報格納部に各々の情報処理装置3から送信されたユーザ情報を格納し、情報処理装置3にコメント情報などを配信する際には、このユーザ情報も一緒に配信する。
このようにすれば、情報処理装置3でコメントを一覧表示する際に、自分とは無関係なユーザのコメントを表示から省くことが可能となり、不必要なコメント表示を回避することができる。
(6)第6変形例
第6変形例による情報処理装置3では、ユーザが現在の視聴内容を優先する場合、付加情報により指定されたハイライトシーンに関連したコメントだけを表示する。つまり、現在の視聴を優先するものの、他のコンテンツのハイライトシーンの状況を知りたい場合に付加情報により指定されたハイライトシーンに関連したコメントだけを表示する。コメントは、コメント一覧表示エリア(E3)の内容を書き換えて表示するか、あるいはコメント表示用の新たなウィンドウを表示エリアとして別途設けてそこに表示してもよい。これにより、現在の視聴を邪魔されることなく他の状況を知ることができる。
また、コメントを表示して確認した後、付加情報により指定されたコンテンツのハイライトシーンを再生視聴する態様としてもよい。この場合、ハイライトシーンを再生視聴し終えると、それ以前に視聴していたコンテンツへの視聴に戻るか、あるいはハイライトシーン以降を継続して視聴するかの何れかを選択することができる。以前に観ていたコンテンツへの視聴に戻る場合には、直前の再生シーンに戻り、そこから追っかけ再生する視聴形態とすることもできる。
(7)第7変形例
第7変形例による情報処理装置3では、視聴していない他のコンテンツに関連したコメント情報(コメント及びそのコメントの時間情報を含む情報)に基づいてハイライトシーンが判定された場合に、該当するコンテンツのハイライトシーンに遡って再生視聴(ザッピング視聴)する。前出の図3において、支援サーバ2の記憶部9に記憶されている情報テーブル10には、いくつかのコンテンツの情報(同図ではコンテンツA、コンテンツB、コンテンツCの各情報)が格納されている。今、情報処理装置3で視聴中のコンテンツをコンテンツAとし、視聴していないコンテンツをコンテンツBと仮定する。そして、このコンテンツBに関連したコメント情報に基づいてハイライトシーンが判定された場合には、コンテンツAの視聴をやめてコンテンツBの視聴に変更し、コンテンツBのハイライトシーンに遡って再生視聴(ザッピング視聴)する。コンテンツBは支援サーバ2から配布されたものであってもよいし、あるいは、録画データとして情報処理装置3の記憶部23に記憶されていたものであってもよい。
この場合、コンテンツBのハイライトシーンを再生視聴すると同時に、それに対応するコメントも表示するようにしてもよい。または、視聴中のコンテンツ(上記の例示ではコンテンツA)はそのままとし、コンテンツBのハイライトシーンのコメントだけを別ウィンドウで表示するようにしてもよい。
こうすることで、視聴していない他のコンテンツBのハイライトシーンを視聴したり、ハイライトシーンのコメントを確認したりすることができる。
(8)第8変形例
第8変形例による情報処理装置3では、情報処理装置3から支援サーバ2に送信する情報にコメント投稿者のユーザの情報(以下、ユーザ情報)を含むようにする。つまり、情報処理装置3の情報取得機能25は、コメント投稿者のユーザ情報を含む情報を取得し、それらの情報を支援サーバ2に送信するようにする。また、支援サーバ2から情報処理装置3に配信される情報にも、このユーザ情報が含まれるようにする。そして、情報処理装置3の情報取得機能25で、ユーザ情報の識別を行い、所定の条件(たとえば、友人関係等)を満たすユーザが入力した入力情報(コメント等)とコメント情報(コメント及びそのコメントの時間情報を含む情報)とを抽出すると共に、変動検出機能26で、その抽出結果に含まれる少なくともコメントと、そのコメントの時間情報(コンテンツの時系列位置情報)とに基づき、コンテンツの時系列位置に対する入力情報の変動を検出する。
このようにすると、所定の条件を満たしたユーザだけの入力情報を用いてハイライトシーンを検出することができ、無関係なユーザを省いてハイライトシーンの検出信頼性を高めることができる(請求項7)。
(9)第9変形例
第9変形例による情報処理装置3では、コンテンツ配信装置4から配信されたコンテンツをコンテンツ表示エリア(E1)に出力し、また、支援サーバ2から配信されたコメント情報(コメント及びそのコメントの時間情報を含む情報)をコメント一覧表示エリア(E3)に出力する際に、以下の工夫を講じる。すなわち、情報処理装置3は、前記コンテンツを出力中に変動検出機能26で入力情報の変動を検出すると、コンテンツ表示エリア(E1)へのコンテンツの出力を継続し、また、前記変動に対応する時系列位置に対応する入力情報をコメント一覧表示エリア(E3)に出力する。
このようにすると、ハイライトシーンの表示とコメント表示の同期をとることができ、コメント表示の違和感を無くすことができる(請求項8)。
(10)第10変形例
第10変形例による情報処理装置3では、情報取得機能25が、複数のコンテンツに対してユーザがそれぞれ入力した複数の入力情報(コメント等)と、それぞれのコンテンツの時系列位置情報とを取得するとともに、変動検出機能26が、前記複数のコンテンツに対する前記入力情報の変動をそれぞれ検出する。
このようにすると、複数のコンテンツのハイライトシーンと、各々のハイライトシーンのコメントとを交互に切り換えながら視聴する動作(ザッピング)を行うことができる(請求項9)。
(11)第11変形例
第11変形例による情報処理装置3では、情報取得機能25が、入力情報(コメント等)を出力する入力情報出力手段を兼ねる。この入力情報出力手段は、変動検出機能26で検出された変動に対応する他のコンテンツの時系列位置に対応する入力情報をコンテンツ一覧表示エリア(E3)に出力する。そして、情報処理装置3は、コンテンツ表示エリア(E1)に一のコンテンツを出力中に、変動検出機能26が他のコンテンツに対する入力情報の変動を検出した場合に、前記一のコンテンツをコンテンツ表示エリア(E1)に継続して出力する。
このようにすると、一のコンテンツを表示中に、他のコンテンツの入力情報をコンテンツ一覧表示エリア(E3)に出力することができ、視聴中でない他のコンテンツの入力情報も確認することができる(請求項10)。
なお、本発明は、前述した実施形態や各種変形例に限定されるものではなく、本発明の範囲で種々変形することが可能である。一例として挙げれば、本実施形態は、携帯電話やスマートフォン等の情報処理装置に限らず、ネットワーク接続可能な通信機能を備える他の装置(ゲーム装置、タブレット型パーソナルコンピュータ、ラップトップ型やノート型のパーソナルコンピュータ、デジタルテレビジョン受信装置、ワンセグデジタルテレビジョン受信装置など)にも適用可能であることは言うまでもない。
次に、本発明の特徴を付記する。なお、上記の実施形態の一部または全部は、以下の付記のように記載され得るが、その記載に限定されるものではない。
(付記1)
図10は、付記1の構成図である。この図に示すように、付記1は、時系列的に構成されたコンテンツ100に対し、前記コンテンツ100の時系列位置に対応させてユーザが入力した前記コンテンツ100に対する入力情報101と、前記ユーザが入力を行った前記コンテンツ100の時系列位置情報Taとを取得する情報取得手段102と、
前記情報取得手段102により取得した前記入力情報101及び前記時系列位置情報Taに基づき、前記時系列における前記入力情報101の変動を検出する変動検出手段103と、
を備えることを特徴とする情報処理装置104である。
この付記1における情報取得手段102は実施形態の情報取得機能25に相当し、変動検出手段103は実施形態の変動検出機能26に相当し、情報処理装置104は実施形態の情報処理装置3に相当する。
(付記2)
付記2は、更に、コンテンツ出力手段を備え、
前記コンテンツ出力手段は、前記変動検出手段が検出した変動に対応する時系列位置に応じてコンテンツを出力することを特徴とする付記1記載の情報処理装置である。
(付記3)
付記3は、更に、リアルタイム配信または放送されるコンテンツを取得するコンテンツ取得手段と、
前記コンテンツ取得手段により取得されたコンテンツをバッファするバッファ手段とを備え、
前記コンテンツ出力手段は、前記コンテンツ取得手段により取得されたコンテンツを出力し、前記変動検出手段が検出した変動に対応する時系列位置に応じて前記バッファ手段にバッファされたコンテンツを出力することを特徴とする付記1乃至2の何れかに記載の情報処理装置である。
(付記4)
付記4は、更に、コンテンツを記録するコンテンツ記録手段を備え、
前記コンテンツ記録手段は、前記変動検出手段が検出した変動に対応する時系列位置に応じてコンテンツを記録することを特徴とする付記1乃至3の何れか一に記載の情報処理装置である。
(付記5)
付記5は、前記コンテンツ記録手段は、前記変動検出手段が検出した変動に対応する時系列位置に応じて複数個所のコンテンツを記録し、当該複数個所の記録データを結合することを特徴とする付記4記載の情報処理装置である。
(付記6)
付記6は、前記入力情報は、コンテンツのシーンを指定する付加情報を含むことを特徴とする付記1乃至5の何れか一に記載の情報処理装置である。
(付記7)
付記7は、前記入力情報は、当該入力情報を入力したユーザの情報を含み、
前記変動検出手段は、所定の条件を満たすユーザが入力した前記入力情報と前記コンテンツの時系列位置情報に基づき、前記コンテンツの時系列位置に対する前記入力情報の変動を検出することを特徴とする付記1記載の情報処理装置である。
(付記8)
付記8は、更に、前記入力情報を出力する入力情報出力手段を備え、
前記コンテンツ出力手段は、前記コンテンツを出力中に、前記変動検出手段が前記入力情報の変動を検出した場合に、出力中のコンテンツの出力を継続し、
前記入力情報出力手段は、前記変動検出手段が検出した変動に対応する時系列位置に対応する入力情報を出力することを特徴とする付記2記載の情報処理装置である。
(付記9)
付記9は、前記情報取得手段は、複数のコンテンツに対してユーザがそれぞれ入力した複数の入力情報と、それぞれのコンテンツの前記時系列位置情報とを取得し、
前記変動検出手段は、前記複数のコンテンツに対する前記入力情報の変動をそれぞれ検出することを特徴とする付記1乃至8の何れか一に記載の情報処理装置である。
(付記10)
付記10は、更に、前記入力情報を出力する入力情報出力手段を備え、
前記入力情報出力手段は、前記変動検出手段が検出した変動に対応する前記他のコンテンツの時系列位置に対応する前記入力情報を出力し、
前記出力手段は、前記コンテンツ出力手段が一のコンテンツを出力中に、前記変動検出手段が他のコンテンツに対する前記入力情報の変動を検出した場合に、前記一のコンテンツを継続して出力することを特徴とする付記9記載の情報処理装置である。
(付記11)
付記11は、時系列的に構成されたコンテンツに対し、前記コンテンツの時系列位置に対応させてユーザが入力した前記コンテンツに対する入力情報と、前記ユーザが入力を行った前記コンテンツの時系列位置情報と、を取得する情報取得過程と、
前記情報取得過程で取得した前記入力情報及び前記時系列位置情報に基づき、前記時系列における前記入力情報の変動を検出する変動検出過程と、
を備えることを特徴とする情報処理方法である。
(付記12)
付記12は、コンピュータに、
時系列的に構成されたコンテンツに対し、前記コンテンツの時系列位置に対応させてユーザが入力した前記コンテンツに対する入力情報と、前記ユーザが入力を行った前記コンテンツの時系列位置情報と、を取得する情報取得ステップと、
前記情報取得ステップで取得した前記入力情報及び前記時系列位置情報に基づき、前記時系列における前記入力情報の変動を検出する変動検出ステップと、
を実行させることを特徴するプログラムである。
(付記13)
付記13は、前記付加情報は、圧縮データであることを特徴とする付記6記載の情報処理装置である。
(付記14)
付記14は、前記入力情報は、所定単位のテキスト情報を含むことを特徴とする付記1乃至6の何れか一に記載の情報処理装置である。
(付記15)
付記15は、前変動検出手段は、前記テキスト情報の単位数の変動を検出することを特徴とする付記1、7の何れかに記載の情報処理装置である。
(付記16)
付記16は、前変動検出手段は、前記テキスト情報の所定単位あたりのテキスト数の変動を検出することを特徴とする付記1、7の何れかに記載の情報処理装置である。
(付記17)
付記17は、前記入力情報は、所定単位の選択情報を含むことを特徴とする付記1乃至6の何れか一に記載の情報処理装置である。
(付記18)
付記18は、前変動検出手段は、前記選択情報の単位数の変動を検出することを特徴とする付記1、7の何れかに記載の情報処理装置である。
(付記19)
付記19は、前記入力情報は、所定の単位を有し、
前記変動検出手段は、前記入力情報の単位数が、第1の閾値を超えたことを判断することを特徴とする付記1記載の情報処理装置である。
(付記20)
付記20は、前記変動検出手段は、前記入力情報の単位数が、第1の閾値を超えた後で第2の閾値を下回ることを判断することを特徴とする付記1記載の情報処理装置である。
(付記21)
付記21は、前記変動検出手段により前記入力情報の単位数が第1の閾値を超えたことが判断された場合、
前記出力手段は、前記変動検出手段が検出した第1の閾値に対応する時系列位置からコンテンツを出力することを特徴とする付記1記載の情報処理装置である。
(付記22)
付記22は、前記変動検出手段により前記入力情報の単位数が第2の閾値を下回ったことが判断された場合、
前記出力手段は、前記変動検出手段が検出した第2の閾値に対応する時系列位置までコンテンツを出力することを特徴とする付記1記載の情報処理装置である。
(付記23)
付記23は、前記変動検出手段により前記入力情報の単位数が第1の閾値を超えたことが判断された場合、
前記コンテンツ記録手段は、前記変動検出手段が検出した第1の閾値に対応する時系列位置からコンテンツを記録することを特徴とする付記4記載の情報処理装置である。
(付記24)
付記24は、前記変動検出手段により前記入力情報の単位数が第2の閾値を下回ったことが判断された場合、
前記コンテンツ記録手段は、前記変動検出手段が検出した第2の閾値に対応する時系列位置までコンテンツを記録することを特徴とする付記4記載の情報処理装置である。
100 コンテンツ
101 入力情報
102 情報取得手段
103 変動検出手段
104 情報処理装置

Claims (10)

  1. 時系列的に構成されたコンテンツに対し、前記コンテンツの時系列位置に対応させてユーザが入力した前記コンテンツに対する入力情報と、前記ユーザが入力を行った前記コンテンツの時系列位置情報とを取得する情報取得手段と、
    前記情報取得手段により取得した前記入力情報及び前記時系列位置情報に基づき、前記時系列における前記入力情報の変動を検出する変動検出手段と、
    を備えることを特徴とする情報処理装置。
  2. 更に、コンテンツ出力手段を備え、
    前記コンテンツ出力手段は、前記変動検出手段が検出した変動に対応する時系列位置に応じてコンテンツを出力することを特徴とする請求項1に記載の情報処理装置。
  3. 更に、リアルタイム配信または放送されるコンテンツを取得するコンテンツ取得手段と、
    前記コンテンツ取得手段により取得されたコンテンツをバッファするバッファ手段とを備え、
    前記コンテンツ出力手段は、前記コンテンツ取得手段により取得されたコンテンツを出力し、前記変動検出手段が検出した変動に対応する時系列位置に応じて前記バッファ手段にバッファされたコンテンツを出力することを特徴とする請求項1乃至2の何れかに記載の情報処理装置。
  4. 更に、コンテンツを記録するコンテンツ記録手段を備え、
    前記コンテンツ記録手段は、前記変動検出手段が検出した変動に対応する時系列位置に応じてコンテンツを記録することを特徴とする請求項1乃至3の何れか一に記載の情報処理装置。
  5. 前記コンテンツ記録手段は、前記変動検出手段が検出した変動に対応する時系列位置に応じて複数個所のコンテンツを記録し、当該複数個所の記録データを結合することを特徴とする請求項4に記載の情報処理装置。
  6. 前記入力情報は、コンテンツのシーンを指定する付加情報を含むことを特徴とする請求項1乃至5の何れか一に記載の情報処理装置。
  7. 前記入力情報は、当該入力情報を入力したユーザの情報を含み、
    前記変動検出手段は、所定の条件を満たすユーザが入力した前記入力情報と前記コンテンツの時系列位置情報に基づき、前記コンテンツの時系列位置に対する前記入力情報の変動を検出することを特徴とする請求項1に記載の情報処理装置。
  8. 更に、前記入力情報を出力する入力情報出力手段を備え、
    前記コンテンツ出力手段は、前記コンテンツを出力中に、前記変動検出手段が前記入力情報の変動を検出した場合に、出力中のコンテンツの出力を継続し、
    前記入力情報出力手段は、前記変動検出手段が検出した変動に対応する時系列位置に対応する入力情報を出力することを特徴とする請求項2に記載の情報処理装置。
  9. 前記情報取得手段は、複数のコンテンツに対してユーザがそれぞれ入力した複数の入力情報と、それぞれのコンテンツの前記時系列位置情報とを取得し、
    前記変動検出手段は、前記複数のコンテンツに対する前記入力情報の変動をそれぞれ検出することを特徴とする請求項1乃至8の何れか一に記載の情報処理装置。
  10. 更に、前記入力情報を出力する入力情報出力手段を備え、
    前記入力情報出力手段は、前記変動検出手段が検出した変動に対応する前記他のコンテンツの時系列位置に対応する前記入力情報を出力し、
    前記出力手段は、前記コンテンツ出力手段が一のコンテンツを出力中に、前記変動検出手段が他のコンテンツに対する前記入力情報の変動を検出した場合に、前記一のコンテンツを継続して出力することを特徴とする請求項9に記載の情報処理装置。
JP2012131599A 2012-06-11 2012-06-11 情報処理装置 Pending JP2013258450A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012131599A JP2013258450A (ja) 2012-06-11 2012-06-11 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012131599A JP2013258450A (ja) 2012-06-11 2012-06-11 情報処理装置

Publications (1)

Publication Number Publication Date
JP2013258450A true JP2013258450A (ja) 2013-12-26

Family

ID=49954571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012131599A Pending JP2013258450A (ja) 2012-06-11 2012-06-11 情報処理装置

Country Status (1)

Country Link
JP (1) JP2013258450A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016098415A1 (ja) * 2014-12-18 2016-06-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017509051A (ja) * 2014-05-12 2017-03-30 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド ストリーミングメディアデータに関する統計を収集するための方法およびシステム、ならびに関連する装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017509051A (ja) * 2014-05-12 2017-03-30 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド ストリーミングメディアデータに関する統計を収集するための方法およびシステム、ならびに関連する装置
WO2016098415A1 (ja) * 2014-12-18 2016-06-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2016098415A1 (ja) * 2014-12-18 2017-09-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10873777B2 (en) 2014-12-18 2020-12-22 Sony Corporation Information processing device and information processing method to calculate score for evaluation of action

Similar Documents

Publication Publication Date Title
US11399217B2 (en) Method and apparatus for creating and sharing customized multimedia segments
US11910066B2 (en) Providing interactive advertisements
US9787627B2 (en) Viewer interface for broadcast image content
CN107093100B (zh) 多功能多媒体装置
US9306989B1 (en) Linking social media and broadcast media
JP6146406B2 (ja) 表示システム、表示装置、表示方法、およびプログラム
US20090157205A1 (en) Data recording device, data reproduction device, program, and recording medium
US9245584B2 (en) Information processing apparatus and information processing method
US9055342B2 (en) Information processing apparatus and information processing method
JP6256331B2 (ja) 情報処理端末及び情報処理方法
JP2014127986A (ja) コンテンツ再生装置、視聴推奨インデックスリスト生成サーバ、視聴推奨インデックスリスト生成方法およびそのプログラム
JP2009278425A (ja) コンテンツ評価入力表示装置、プログラムおよびこれを記録した記録媒体
WO2013133109A1 (ja) 表示システム、表示装置、表示方法、およびプログラム
JP2013258450A (ja) 情報処理装置
JP4679232B2 (ja) 記録装置
EP2560380B1 (en) Chapter creation device, chapter creation method, and chapter creation program
JP2016213709A (ja) 動画再生システム、クライアント装置、サーバ装置及びプログラム
JP2014067275A (ja) 投稿解析サーバ、投稿端末、投稿解析方法およびプログラム
KR20100137990A (ko) 멀티 포맷 콘텐츠를 재생하는 장치 및 방법
JP2006067161A (ja) 情報再生装置、情報提供装置、及び表示端末
JP2010206787A (ja) 情報処理装置、視聴情報収集システム、及び視聴判定プログラム
JP5106281B2 (ja) 放送コンテンツ録画・再生システム
JP2014236333A (ja) 情報処理装置、制御方法、及びプログラム
CN103021433A (zh) 音频装置及音频装置的乐曲播放方法
JP2011186599A (ja) コンテンツ配信システム及び放送局サーバ