JP2008234431A - コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム - Google Patents
コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム Download PDFInfo
- Publication number
- JP2008234431A JP2008234431A JP2007074814A JP2007074814A JP2008234431A JP 2008234431 A JP2008234431 A JP 2008234431A JP 2007074814 A JP2007074814 A JP 2007074814A JP 2007074814 A JP2007074814 A JP 2007074814A JP 2008234431 A JP2008234431 A JP 2008234431A
- Authority
- JP
- Japan
- Prior art keywords
- comment
- user
- emotion
- state
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】映像コンテンツの同一のシーンについて同じような感情を持つコメントのみを閲覧者に提示することにより、有意義なコミュニケーションの場を提供する。
【解決手段】コメント蓄積装置1は、入力されたコメントから、映像コンテンツに対する感想とその感想の対象とを抽出し、コメント作成者の感情状態とその感情を生起させたシーンデータとを解析し、解析されたコメント作成者の感情状態とシーンデータとを、入力されたコメントに付加した映像メタ情報を記憶する。コメント作成閲覧装置3は、映像コンテンツを視聴するユーザの状態を表すデータを解析し、映像コンテンツを視聴するユーザの感情状態および映像コンテンツ中のシーンデータを認識し、認識されたユーザの感情状態およびシーンデータを用いて、コメント蓄積装置1に蓄積されている映像メタ情報の中から、類似する感情情報を付加された映像メタ情報を選択し、ユーザに提示する。
【選択図】 図3
【解決手段】コメント蓄積装置1は、入力されたコメントから、映像コンテンツに対する感想とその感想の対象とを抽出し、コメント作成者の感情状態とその感情を生起させたシーンデータとを解析し、解析されたコメント作成者の感情状態とシーンデータとを、入力されたコメントに付加した映像メタ情報を記憶する。コメント作成閲覧装置3は、映像コンテンツを視聴するユーザの状態を表すデータを解析し、映像コンテンツを視聴するユーザの感情状態および映像コンテンツ中のシーンデータを認識し、認識されたユーザの感情状態およびシーンデータを用いて、コメント蓄積装置1に蓄積されている映像メタ情報の中から、類似する感情情報を付加された映像メタ情報を選択し、ユーザに提示する。
【選択図】 図3
Description
本発明は、コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラムに関する。
近年、テレビ放送など映像コンテンツに対して、その感想や意見などのコメント(アノテーション)をテキスト情報として記述してブログ機能や掲示板機能などを用いてネットワーク上で公開する手法が多く採られている。このように映像コンテンツに対する感想や意見などのコメントをブログ機能や掲示板機能などを用いて多数の人に公開することができることにより、映像を視聴しながら多数の人とコメントを介したコミュニケーションを図ることができる。
また、映像コンテンツに対するテキスト情報内に、当該映像コンテンツのシーンへのリンクを埋め込むことにより、どのシーンについてのコメントなのかを明確に閲覧者に伝える手法も採られている(例えば、特許文献1参照)。この技術によれば、シーンについてのコメントが映像再生と連動して表示されるため、閲覧者は、映像視聴中に視聴しているシーンのコメントを閲覧することができる。
さらに、近年においては、ユーザの感情状態に基づき、次に遷移する映像シーンを自動制御する対話型映像視聴方式も開発されている(例えば、特許文献2参照)。
ところで、テレビや映画などの映像コンテンツについての感想や意見などのコメントを閲覧する場合、同一のシーンについてのコメントであっても、ユーザの感想は多岐に渡っている場合が多い。特に、コメントの閲覧者が抱いている感情とは対極にある感情を表したコメントがシーンにリンクされているような場合には、それぞれの閲覧者の見解の相違による不毛な議論が生じることになり、閲覧者は映像コンテンツに関する有意義なコミュニケーションがとれなくなるという問題が発生してしまう。
本発明は、上記に鑑みてなされたものであって、映像コンテンツの同一のシーンについて同じような感情を持つコメントのみを閲覧者に提示することにより、有意義なコミュニケーションの場を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、ユーザ間で共有する、映像コンテンツに関連付けられたコメントを作成・閲覧するコメント作成閲覧装置にネットワークを介して接続可能であって、前記コメントを蓄積するコメント蓄積装置において、前記コメントの入力を受け付けるコメント入力手段と、前記コメント入力手段により入力された前記コメントから、前記映像コンテンツに対する感想とその感想の対象とを抽出し、前記コメントを作成したユーザの感情状態とその感情を生起させたシーンデータとを解析するコメント解析手段と、前記コメント解析手段で解析された前記ユーザの感情状態と前記シーンデータとを、前記コメント入力手段により入力された前記コメントに付加した映像メタ情報を記憶する感情情報記憶手段と、を備えることを特徴とする。
また、本発明は、ユーザ間で共有する、映像コンテンツに関連付けられたコメントを蓄積するコメント蓄積装置にネットワークを介して接続可能であって、前記コメントを作成・閲覧するコメント作成閲覧装置において、前記映像コンテンツを視聴するユーザの状態を表すデータを入力する視聴状態入力手段と、前記視聴状態入力手段を介して入力されたデータを解析し、前記映像コンテンツを視聴するユーザの感情状態および前記映像コンテンツ中のシーンデータを認識する感情状態認識手段と、前記感情状態認識手段で認識された前記ユーザの感情状態および前記映像コンテンツ中のシーンデータを用いて、前記コメント蓄積装置に蓄積されている前記ユーザの感情状態と前記シーンデータとを前記コメントに付加した映像メタ情報の中から、類似する感情情報を付加された前記映像メタ情報を選択し、ユーザに提示するメタ情報提示手段と、を備えることを特徴とする。
また、本発明は、映像コンテンツに関連付けられたコメントをユーザ間で共有するコメント閲覧システムにおいて、前記コメントの入力を受け付けるコメント入力手段と、前記コメント入力手段により入力された前記コメントから、前記映像コンテンツに対する感想とその感想の対象とを抽出し、前記コメントを作成したユーザの感情状態とその感情を生起させたシーンデータとを解析するコメント解析手段と、前記コメント解析手段で解析された前記ユーザの感情状態と前記シーンデータとを、前記コメント入力手段により入力された前記コメントに付加した映像メタ情報を記憶する感情情報記憶手段と、前記映像コンテンツを視聴するユーザの状態を表すデータを入力する視聴状態入力手段と、前記視聴状態入力手段を介して入力されたデータを解析し、前記映像コンテンツを視聴するユーザの感情状態および前記映像コンテンツ中のシーンデータを認識する感情状態認識手段と、前記感情状態認識手段で認識された前記ユーザの感情状態および前記映像コンテンツ中のシーンデータを用いて、前記感情情報記憶手段に記憶されている前記ユーザの感情状態と前記シーンデータとを前記コメントに付加した映像メタ情報の中から、類似する感情情報を付加された前記映像メタ情報を選択し、ユーザに提示するメタ情報提示手段と、を備えることを特徴とする。
また、本発明は、ユーザ間で共有する、映像コンテンツに関連付けられたコメントを作成・閲覧するコメント作成閲覧装置にネットワークを介して接続可能であって、前記コメントを蓄積するコメント蓄積装置を制御するコンピュータに各種処理を実行させるプログラムであって、前記コメントの入力を受け付けるコメント入力機能と、前記コメント入力機能により入力された前記コメントから、前記映像コンテンツに対する感想とその感想の対象とを抽出し、前記コメントを作成したユーザの感情状態とその感情を生起させたシーンデータとを解析するコメント解析機能と、前記コメント解析機能で解析された前記ユーザの感情状態と前記シーンデータとを、前記コメント入力機能により入力された前記コメントに付加した映像メタ情報を記憶する感情情報記憶機能と、を前記コンピュータに実行させることを特徴とする。
また、本発明は、ユーザ間で共有する、映像コンテンツに関連付けられたコメントを蓄積するコメント蓄積装置にネットワークを介して接続可能であって、前記コメントを作成・閲覧するコメント作成閲覧装置を制御するコンピュータに各種処理を実行させるプログラムであって、前記映像コンテンツを視聴するユーザの状態を表すデータを入力する視聴状態入力機能と、前記視聴状態入力機能を介して入力されたデータを解析し、前記映像コンテンツを視聴するユーザの感情状態および前記映像コンテンツ中のシーンデータを認識する感情状態認識機能と、前記感情状態認識機能で認識された前記ユーザの感情状態および前記映像コンテンツ中のシーンデータを用いて、前記コメント蓄積装置に蓄積されている前記ユーザの感情状態と前記シーンデータとを前記コメントに付加した映像メタ情報の中から、類似する感情情報を付加された前記映像メタ情報を選択し、ユーザに提示するメタ情報提示機能と、を前記コンピュータに実行させることを特徴とする。
本発明によれば、映像コンテンツの同一のシーンについて同じような感情を持つコメントのみを閲覧者に提示することにより、有意義なコミュニケーションの場を提供することができる、という効果を奏する。
以下に添付図面を参照して、この発明にかかるコメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラムの最良な実施の形態を詳細に説明する。
[第1の実施の形態]
本発明の第1の実施の形態を図1ないし図16に基づいて説明する。
本発明の第1の実施の形態を図1ないし図16に基づいて説明する。
[1.システムの構成]
図1は、本発明の第1の実施の形態にかかるコメント閲覧システム100のシステム構築例を示す模式図である。コメント閲覧システム100は、コンテンツに関する感想などのコメント(映像レビュー)をユーザ間で共有するシステムであって、図1に示すように、ユーザ間で共有するコンテンツに関する感想などのコメントを蓄積するサーバコンピュータであるコメント蓄積装置1に対してIP(Internet Protocol)を利用したインターネットなどのネットワーク2を介して、ユーザがコンテンツに関する感想などのコメントを作成・閲覧するためのクライアントコンピュータであるコメント作成閲覧装置3が複数台接続されたサーバクライアントシステムを想定する。コメント蓄積装置1およびコメント作成閲覧装置3は、例えば、一般的なパーソナルコンピュータである。なお、実際には、コメント蓄積装置1およびコメント作成閲覧装置3は、より多く存在しているが、図1では説明を簡素化するために、1台のコメント蓄積装置1と2台のコメント作成閲覧装置3とを示している。コメント蓄積装置1は、インターネットでの掲示板サーバやブログサーバとして実現されていても良い。
図1は、本発明の第1の実施の形態にかかるコメント閲覧システム100のシステム構築例を示す模式図である。コメント閲覧システム100は、コンテンツに関する感想などのコメント(映像レビュー)をユーザ間で共有するシステムであって、図1に示すように、ユーザ間で共有するコンテンツに関する感想などのコメントを蓄積するサーバコンピュータであるコメント蓄積装置1に対してIP(Internet Protocol)を利用したインターネットなどのネットワーク2を介して、ユーザがコンテンツに関する感想などのコメントを作成・閲覧するためのクライアントコンピュータであるコメント作成閲覧装置3が複数台接続されたサーバクライアントシステムを想定する。コメント蓄積装置1およびコメント作成閲覧装置3は、例えば、一般的なパーソナルコンピュータである。なお、実際には、コメント蓄積装置1およびコメント作成閲覧装置3は、より多く存在しているが、図1では説明を簡素化するために、1台のコメント蓄積装置1と2台のコメント作成閲覧装置3とを示している。コメント蓄積装置1は、インターネットでの掲示板サーバやブログサーバとして実現されていても良い。
図2は、コメント蓄積装置1およびコメント作成閲覧装置3のモジュール構成図である。コメント蓄積装置1およびコメント作成閲覧装置3は、情報処理を行うCPU(Central Processing Unit)101、BIOSなどを記憶した読出し専用メモリであるROM(Read Only Memory)102、各種データを書換え可能に記憶するRAM(Random Access Memory)103、各種データベースとして機能するとともに各種のプログラムを格納するHDD(Hard Disk Drive)104、記憶媒体110を用いて情報を保管したり外部に情報を配布したり外部から情報を入手するためのDVDドライブ等の媒体駆動装置105、ネットワーク2を介して外部の他のコンピュータと通信により情報を伝達するための通信制御装置106、処理経過や結果等を操作者に表示するCRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等の表示部107、並びに操作者がCPU101に命令や情報等を入力するためのキーボードやマウス等のポインティングデバイスである入力部108等から構成されており、これらの各部間で送受信されるデータをバスコントローラ109が調停して動作する。
このようなコメント蓄積装置1およびコメント作成閲覧装置3では、オペレータが電源を投入するとCPU101がROM102内のローダーというプログラムを起動させ、HDD104よりOS(Operating System)というコンピュータのハードウェアとソフトウェアとを管理するプログラムをRAM103に読み込み、このOSを起動させる。このようなOSは、オペレータの操作に応じてプログラムを起動したり、情報を読み込んだり、保存を行ったりする。OSのうち代表的なものとしては、Windows(登録商標)等が知られている。これらのOS上で走る動作プログラムをアプリケーションプログラムと呼んでいる。なお、アプリケーションプログラムは、所定のOS上で動作するものに限らず、後述の各種処理の一部の実行をOSに肩代わりさせるものであってもよいし、所定のアプリケーションソフトやOSなどを構成する一群のプログラムファイルの一部として含まれているものであってもよい。
ここで、コメント蓄積装置1は、アプリケーションプログラムとして、コメント蓄積プログラムをHDD104に記憶している。この意味で、HDD104は、コメント蓄積プログラムを記憶する記憶媒体として機能する。
一方、コメント作成閲覧装置3は、アプリケーションプログラムとして、コメント作成閲覧プログラムをHDD104に記憶している。この意味で、HDD104は、コメント作成閲覧プログラムを記憶する記憶媒体として機能する。
また、一般的には、コメント蓄積装置1およびコメント作成閲覧装置3のHDD104にインストールされるアプリケーションプログラムは、DVDなどの各種の光ディスク、各種光磁気ディスク、フレキシブルディスクなどの各種磁気ディスク、半導体メモリ等の各種方式のメディア等の記憶媒体110に記録され、この記憶媒体110に記録された動作プログラムがHDD104にインストールされる。このため、DVD等の光情報記録メディアやFD等の磁気メディア等の可搬性を有する記憶媒体110も、アプリケーションプログラムを記憶する記憶媒体となり得る。さらには、アプリケーションプログラムは、例えば通信制御装置106を介して外部から取り込まれ、HDD104にインストールされても良い。
コメント蓄積装置1は、OS上で動作するコメント蓄積プログラムが起動すると、このコメント蓄積プログラムに従い、CPU101が各種の演算処理を実行して各部を集中的に制御する。一方、コメント作成閲覧装置3は、OS上で動作するコメント作成閲覧プログラムが起動すると、このコメント作成閲覧プログラムに従い、CPU101が各種の演算処理を実行して各部を集中的に制御する。コメント蓄積装置1およびコメント作成閲覧装置3のCPU101が実行する各種の演算処理のうち、本実施の形態の特長的な処理について以下に説明する。
ここで、図3はコメント閲覧システム100の機能構成を示す構成図である。コメント蓄積装置1は、図3に示すように、コメント蓄積プログラムに従うことにより、映像レビュー入力手段(コメント入力手段)11と、レビュー解析手段(コメント解析手段)12と、感情情報記憶手段13と、を備えている。一方、コメント作成閲覧装置3は、図3に示すように、コメント作成閲覧プログラムに従うことにより、視聴状態入力手段31と、感情状態認識手段32と、メタ情報提示手段33と、を備えている。以下、各機能について説明する。
コメント蓄積装置1の映像レビュー入力手段11は、テキスト、音声などの映像コンテンツに関連付けられた映像レビュー(コメント)の入力を受け付ける機能を発揮する。なお、紙媒体の場合は、スキャナなどで入力される。また、既に電子化されてファイルなどに変換されているデータは、DVDなどのメディアや通信手段を介して入力される。オンライン上にあるデータの場合、クローリングなどの方法で収集される。
コメント蓄積装置1のレビュー解析手段12は、映像レビュー入力手段11により入力された映像レビューから、映像コンテンツに対する感想とその感想の対象(シーンや登場人物など)とを抽出し、映像レビューを作成したユーザの感情状態とその感情を生起させた原因イベント情報(時間情報や映像シーンなどのシーンデータ)とを解析する機能を発揮する。例えば、映像レビューが音声データの場合は、事前に、感想を発声した時刻や映像音声・BGMなど映像との対応付けを表す情報と、発声内容を音声認識ソフトウェアなどを介してテキスト化し、その後で解析・抽出を行う。画像ファイルの場合は、OCRなどの手段でテキストに変換して解析を行う。MPEG7やEPG(Electronic Program Guide)などのフォーマットを持つデータの場合は、コンテンツをあらわすID、チャンネル、タイトル名や時刻、および、それらに付随するテキスト情報を取り出して解析を行う。
コメント蓄積装置1の感情情報記憶手段13は、レビュー解析手段12で解析されたユーザの感情状態と原因イベント情報とを映像レビュー入力手段11により入力された映像レビューに付加した映像メタ情報を記憶する機能を発揮する。
一方、コメント作成閲覧装置3の視聴状態入力手段31は、映像を視聴するユーザの状態を表すデータを入力する機能を発揮する。例えば、マイクを介してユーザの発話を入力したり、カメラを介してユーザの顔映像を入力する。あるいは、リモートコントローラなどの操作データを入力する。その他、視聴状態入力手段31は、発汗、心拍数、体温などの生体情報入力手段を備えてもよい。また、ユーザがどの映像コンテンツのどの部分を視聴しているかなどの視聴状況に関するデータも入力する。例えば、PCなどの映像再生ソフトウェアから、現在再生している映像コンテンツのタイトルおよび視聴時刻データを収集する。また、放送コンテンツであれば、EPG情報などから、コンテンツ名などを収集する。あるいは、視聴中の映像や音声などの特長情報を比較することにより、どのコンテンツのどの時刻を視聴しているかの同定を行う。
コメント作成閲覧装置3の感情状態認識手段32は、視聴状態入力手段31を介して入力されたデータなどを解析し、ユーザの感情状態を認識する機能を発揮する。また、感情状態認識手段32は、視聴状態入力手段31を介して入力された視聴データを解析し、その感情を生起せしめた映像コンテンツ中の原因イベント情報(時間情報や映像シーンなどのシーンデータ)を認識する機能を発揮する。
コメント作成閲覧装置3のメタ情報提示手段33は、コメント蓄積装置1の感情情報記憶手段13に記憶された映像メタ情報から、感情状態認識手段32で認識されたユーザの感情状態、および/もしくは、原因イベント情報を用いて、類似する感情情報を付加された映像メタ情報を選択し、ユーザに提示する。
[2.コメント蓄積装置1におけるメタ情報収集・記録処理]
ここで、コメント蓄積装置1における映像メタ情報の収集・記録処理について詳述する。図4は、コメント蓄積装置1における映像メタ情報の収集・記録処理の流れを示すフローチャートである。図4に示すように、まず最初に、映像レビュー入力手段11により映像コンテンツに関する映像レビューを収集する(ステップS1)。
ここで、コメント蓄積装置1における映像メタ情報の収集・記録処理について詳述する。図4は、コメント蓄積装置1における映像メタ情報の収集・記録処理の流れを示すフローチャートである。図4に示すように、まず最初に、映像レビュー入力手段11により映像コンテンツに関する映像レビューを収集する(ステップS1)。
映像レビューは、図5に示すように、映像コンテンツに対するレビュー作成者のコメントを含むことを可能とする。例えば、「コメント1」は、映像中のある点(時刻など)を指し示してコメントしたものである。「コメント2」は、映像のある区間を開始時刻と終了時刻やシーン名、チャプター番号などを示してコメントしたものである。「コメント3」は、複数の点や区間を列挙、もしくは比較して、コメントしたものである。「コメント4」は、特に具体的な部分を指し示さずに、映像全体もしくは登場人物・物・作成スタッフなどについてコメントしたものである。
図6は、映像レビューの一例を示す説明図である。図6に示す例では、図5の「コメント1」で示したような、映像中のある時刻に対してのコメントが含まれている。このような映像レビューは、例えば、Web掲示板やブログシステムなどを介して収集することができる。
このような映像レビューであるコメントは、図7や図8に示すような映像レビュー入力手段11の一部として機能する入力インタフェースを用いて入力することができる。図7に示す入力インタフェース50は、映像コンテンツを任意の区間に分割し、各区間にコメントを入力するものである。図8に示す入力インタフェース60は、映像コンテンツのある時刻を指定し、その時刻情報をコメントの任意の箇所に挿入するものである。図8に示す入力インタフェース60では、タイムバー61の任意の点で「挿入」メニュー62を選択すると、コメント入力枠63中のカーソル位置64に時刻情報(例えば、[00:06:03])が挿入される。また、図8に示す入力インタフェース60では、映像コンテンツ中の複数個所を列挙してコメントを入力することが可能である。また、図7と図8の折衷案としては、コメント中に[00:06:03-00:11:42]のような区間を挿入するインタフェースも考えられる。
続くステップS2では、ステップS1で映像レビュー入力手段11により収集された映像レビューであるコメントから、感情状態認識手段32は原因イベント情報を認識して抽出する。ここでは、原因イベント情報として、例えば映像コンテンツ中の各シーンに関する記述(シーンデータ)を切り出す。
ここで、シーンとは、図5で示したような映像レビューであるコメントの対象とする映像コンテンツ中のある時刻や区間などの単位を示す。図7に示したような入力インタフェース50で入力されたコメントの場合は、各シーンへのコメントはあらかじめ分離して入力されているため、容易に分割しうる。
一方、図8に示したような入力インタフェース60で入力されたコメントの場合は、コメントのどの部分がどのシーンに対するコメントなのかを切り出す処理が必要になる。ここで、図9は切り出し処理の流れを示すフローチャートである。図9に示すように、まず、シーン番号、段落開始位置、句読点位置について初期化した後(ステップS11)、映像レビューであるコメントを一文字読み込む(ステップS12)。
そして、読み込んだ文字が「改行」であり(ステップS13のYes)、シーン番号が“0”でなかった場合には(ステップS17のYes)、改行までをシーン番号のシーンデータとし(ステップS18)、シーンデータに登録し(ステップS19)、シーン番号を“0”にするとともに、段落開始位置を“1”だけインクリメントした後(ステップS20)、ステップS12に戻り、コメントを一文字読み込む。
一方、シーン番号が“0”である場合には(ステップS17のNo)、シーン番号を“0”にするとともに、段落開始位置を“1”だけインクリメントした後(ステップS20)、ステップS12に戻り、コメントを一文字読み込む。
また、読み込んだ文字が「句読点」であり(ステップS14のYes)、シーン番号が“0”でなかった場合であって(ステップS21のYes)、記述終了位置が“0”である場合には(ステップS22のYes)、記述終了位置を句読点位置としてシーンデータに登録し(ステップS23)、句読点位置をシーンデータに登録された句読点位置に更新した後(ステップS24)、ステップS12に戻り、コメントを一文字読み込む。
一方、シーン番号が“0”である場合には(ステップS21のNo)、句読点位置を更新した後(ステップS24)、ステップS12に戻り、コメントを一文字読み込む。
また、読み込んだ文字が「時刻情報」であり(ステップS15のYes)、シーン番号が“0”でなかった場合は(ステップS25のYes)、当該シーン番号を既存のシーン番号に書き換え(ステップS26)、記述開始位置を既存のシーン番号の記述終了位置とするとともに、記述終了位置を時刻情報出現位置とし(ステップS27)、シーンデータに登録した後(ステップS28)、ステップS12に戻り、コメントを一文字読み込む。
一方、シーン番号が“0”である場合は(ステップS25のNo)、シーン番号を新規シーン番号とし(ステップS26)、記述開始位置を段落開始位置とするとともに、記述終了位置を“0”として(ステップS30)、シーンデータに登録した後(ステップS28)、ステップS12に戻り、コメントを一文字読み込む。
また、読み込んだ文字が「シーン参照表現」であった場合は(ステップS16のYes)、シーン参照フレーズの切り出しを行い(ステップS31)、シーンデータに登録した後(ステップS32)、ステップS12に戻り、コメントを一文字読み込む。
図9に示したようなアルゴリズムによれば、図8に示した例では、挿入された時刻情報から、次に挿入された時刻情報までの区間をシーンへのコメントとする、あるいは、段落中に時刻情報が含まれる場合は段落全体をシーンへのコメントとする、などにより、シーンを記述する開始位置と終了位置を求めることができる。
なお、「・・・、主人公は激怒する[00:06:03]。そこで、・・・」といったように、文の最後に時刻への引用が入る場合は、句読点までをシーンへのコメントとしてもよい。
また、コメント中の文を解析し、シーンを記述するイベントの詳細を抽出することも可能である。例えば、図6で「主人公がチョークを投げるベタなシーン」という記述の場合、「〜なシーン」「〜の場面」「〜するところ」「表情」「顔」などのシーン参照記述を含むシーン参照フレーズを抽出し、形態素解析により格助詞「が」「を」などにより、主語「主人公」、目的語「チョーク」、述語「投げる」を抽出する。あるいは、さらに5W1H情報を付加した辞書を用意することにより、「いつ」「どこで」などの付加情報を抽出する。
続くステップS3では、ステップS2で抽出された原因イベント情報である映像コンテンツ中の各シーンに関する記述(シーンデータ)から、レビュー解析手段12はレビュー作成者の感情状態を認識して抽出する。
例えば、図10に示すように、感情カテゴリの種類は、「泣ける(喜び、哀しみ)」「笑える」「愛しい」「怖い」「驚き」の5種類に分類することができる。これらは、ユーザが自覚しやすい感情の表出があるため、コメントに表現が現れることが予想されるものである。なお、感情カテゴリの種類は、図10のどれにも分類されないシーンを加え、全部で6つに分類されることになる。
図10の分類は、以下の特徴を持つ。
・強い感動は「泣ける」に分類する。「泣ける」は、Sad、Happyなどの感情が強く感じられている状態を表す表現である。実際に涙が出る、などの感情の表出があるため、ユーザが感情を自覚しやすく、コメントにも書きやすいと考えられる。ただし、ポジティブ・ネガティブどちらの感情も含んでいる点と、ユーザによって「泣ける」ポイントが違うという問題がある。
・「笑える」を採用している。Happyではなく、ユーモアを感じるシーンの表現に頻出する「笑える」を採用した。「笑える」は「泣ける」同様、自覚しやすい感情の表出を持ち、ユーザがコメントを作成しやすいと考えられる。
・「愛しい」を採用している。恋愛物に多いロマンティックなシーンへのあこがれや、登場人物の姿や言動などへの好感度や愛着をあらわす感情。いわゆる「萌え」である。
・「怒り」を除外している。暴力シーンなどによって想起される「怒り」の感情は、分類対象に含めない。
・強い感動は「泣ける」に分類する。「泣ける」は、Sad、Happyなどの感情が強く感じられている状態を表す表現である。実際に涙が出る、などの感情の表出があるため、ユーザが感情を自覚しやすく、コメントにも書きやすいと考えられる。ただし、ポジティブ・ネガティブどちらの感情も含んでいる点と、ユーザによって「泣ける」ポイントが違うという問題がある。
・「笑える」を採用している。Happyではなく、ユーモアを感じるシーンの表現に頻出する「笑える」を採用した。「笑える」は「泣ける」同様、自覚しやすい感情の表出を持ち、ユーザがコメントを作成しやすいと考えられる。
・「愛しい」を採用している。恋愛物に多いロマンティックなシーンへのあこがれや、登場人物の姿や言動などへの好感度や愛着をあらわす感情。いわゆる「萌え」である。
・「怒り」を除外している。暴力シーンなどによって想起される「怒り」の感情は、分類対象に含めない。
なお、上記分類に加えて、「怒り」のようなネガティブな感情や、「満足」および「不満足」のようなより大まかな感情分類を加えても良い。
感情情報の分類は、あらかじめ学習した分類プロファイルとのマッチングで評価する。マッチングは形態素単位で行い、語尾が仮名の場合は語幹のみでもマッチングとする。分類プロファイルはキーワードと重要度からなり、分類対象のコメントがある感情カテゴリに分類されるスコアは、コメントがそのカテゴリの分類プロファイルに含まれるキーワードの重要度の和とし、最大のスコアをもつ感情カテゴリに分類する。これにより、シーンに対する感情別の分類を行う。
分類プロファイルの学習方法としては、以下の2つの方法が一例として挙げられる。
・Web上のレビュー記事による自動学習
・分類語彙表による同義語展開
・Web上のレビュー記事による自動学習
・分類語彙表による同義語展開
まず、Web上のレビュー記事による自動学習について説明する。例えば、100の映像コンテンツを対象に、Web上からレビュー記事を1コンテンツあたり10件収集する。この1000記事は映像コンテンツに対するコメントを記述する上で典型的な表現を含むと考えられる。そこで、これらのレビュー記事の内容から、感情表現の分類プロファイルを、以下の方法で抽出する。
(a)コンテンツごとのレビュー記事をまとめた文書集合を作り、コンテンツ間の差異をあらわす特徴語を抽出し、ストップワードとする。また固有名詞もストップワードとする。
(b)レビュー記事を256バイト毎に区切る。
(c)感情カテゴリを以下のようにクエリ展開し、(b)を検索する。
泣ける → 泣 感動 涙 悲
愛しい → 愛 ロマンティック ロマン 切ない想い
笑える → 笑 ギャグ 爆笑
怖い → 怖 恐 恐怖
驚き → 驚
(d)感情カテゴリごとの検索結果をまとめた文書集合を作り、感情ごとの特徴語を抽出する。
(e)(d)から(a)のストップワードを除外した特徴語を抽出する。
(f)この特徴語リストを元に、感情カテゴリ毎の特徴語を人手でピックアップして分類プロファイルとする。
(a)コンテンツごとのレビュー記事をまとめた文書集合を作り、コンテンツ間の差異をあらわす特徴語を抽出し、ストップワードとする。また固有名詞もストップワードとする。
(b)レビュー記事を256バイト毎に区切る。
(c)感情カテゴリを以下のようにクエリ展開し、(b)を検索する。
泣ける → 泣 感動 涙 悲
愛しい → 愛 ロマンティック ロマン 切ない想い
笑える → 笑 ギャグ 爆笑
怖い → 怖 恐 恐怖
驚き → 驚
(d)感情カテゴリごとの検索結果をまとめた文書集合を作り、感情ごとの特徴語を抽出する。
(e)(d)から(a)のストップワードを除外した特徴語を抽出する。
(f)この特徴語リストを元に、感情カテゴリ毎の特徴語を人手でピックアップして分類プロファイルとする。
図11は、Web上のレビュー記事による自動学習により作成した分類プロファイルの一例を示す模式図である。
次に、分類語彙表による同義語展開について説明する。ある映像コンテンツに対するコメントに含まれる感情表現を抽出し、それが表現している感情毎に分類する。その結果を図12に示す。なお、図12においては、「怖い」に対する感情表現はコメント中に現れていない。
このようにして抽出した感情表現を分類語彙表(国立国語研究所資料集14『分類語彙表(増補改訂版)』)を用いて同義語展開する。図12に示す各語彙に対して、分類語彙表の同じ小分類に所属する語彙から、同じ感情をあらわす表現を選別した語を、プロファイルに追加する。また、このときの重要度はコメント中の感情表現を“2”、同義語展開された語を“1”とする。
図13は、分類語彙表による同義語展開により作成した分類プロファイルの一例を示す模式図である。図12に示すように、「怖い」に対する感情表現はコメント中に現れていないので、図13においては、「怖い」を重要度2とし、「怖い」を分類語彙表により同義語展開した語を重要度1としている。
ところで、構文解析技術を用いて、感情の主体が、レビュー作成者の場合と、登場人物の感情である場合を区別すると、より精度よく感情分類を行うことができる。例えば「泣いているのには、笑った」というコメントの場合、泣いている主体は登場人物であり、レビュー作成者は笑っているため、このシーンは「笑える」に分類されるべきである。また、登場人物の感情にレビュー作成者が共感することも多いので、登場人物の感情分類をふまえてレビュー作成者の感情分類を行うことにより、精度をあげることも可能である。
例えば、図6に示したコメントの第1段落で「退屈そう」「夢中」といった感情をあらわす語彙が出現するが、これらの感情の主体は、「主人公」「友人」であり、レビュー作成者はそのどちらに感情移入しているかは不明である。それに対して、第2段落では、「あきれられちゃってます。私も、エネルギーをもてあまして、空回りする主人公にイライラっとしちゃいました」とある。ここでは感情の主体が「私も」と示してあるため、「イライラ」したのがレビュー作成者であることがわかる。さらに「私も」と書いてあるため、その前の「あきれられ」に対して、レビュー作成者が感情移入していることも判断できる。
そこで、あらかじめ感情をあらわす語彙を品詞ごとに分類して登録し、前記で示したように入力文を形態素解析により品詞に分解する。感情をあらわす動詞が抽出された場合は、主語が登場人物になっていれば感情の主体は登場人物である。また、彼、彼女など三人称の代名詞が利用された場合も、主語はレビュー作成者ではないとする。主語が省略された場合は、その前に出現する文の主語と同じものであると仮定する。また、「おもしろかった」「ツボでした」「笑」「うるうるきてしまいました」や、フェイスマークなどは、主語が省略されても、感情の主体はレビュー作成者であると仮定できる。
また、形容詞、副詞、擬音・擬態語などにも、主観的な感情をあらわすものがある。「赤い」は感情をあらわさないが「キュートな」は作成者の主観的な感情「愛しい」を反映するものである。
続くステップS4では、ステップS3で抽出したレビュー作成者の感情情報を記録する。上述したような語彙を登録した辞書により、作成者の感情をあらわす語彙の出現頻度などから感情の種類と強さなどを求めて、シーンごとに記録する。
なお、同一コンテンツの同一シーン(イベント)に対して、複数のレビュー作成者が作成したシーンデータが割り当てられている場合には、シーンデータを感情の種類ごとに分類する。図14に示すように、同じシーンでも別の感情を感じるレビュー作成者がいるので、感情ごとに人数や強さなどを集計する。
[3.コメント作成閲覧装置3におけるメタ情報の提示処理]
次に、レビュー作成者以外のユーザが同じ映像コンテンツを見る際に、映像メタ情報を提示する処理について説明する。
次に、レビュー作成者以外のユーザが同じ映像コンテンツを見る際に、映像メタ情報を提示する処理について説明する。
図15は、コメント作成閲覧装置3におけるメタ情報の提示処理の流れを示すフローチャートである。図15に示すように、映像コンテンツのストリーム再生を開始すると同時に(ステップS41)、視聴状態入力手段31はユーザの感情を入力し(ステップS42)、感情状態認識手段32がステップS41で入力されたデータなどを解析し、ユーザの感情認識を行う(ステップS43)。例えば、マイクなどによりユーザの発する独り言などの音声を抽出し、これからユーザの感情を同定してもよい。音声からの感情認識については他の文献に詳しいのでここでは詳細は割愛する。例えば、音声認識結果から「うそ」「すごい」「かわいい」などの感情をあらわす語彙を抽出して分類する。あるいは、語尾のあげかたなど、音韻を用いて感情を抽出する方法も実現されている。また、カメラによりユーザの表情を撮影し、表情からの感情認識手法も提案されている。
また、感情状態認識手段32は、ステップS41で入力された視聴データを解析し、その感情を生起せしめた映像コンテンツ中の原因イベント情報(時間情報や映像シーンなどのシーンデータ)を推測して、再生状況を認識する(ステップS44)。
続いて、メタ情報提示手段33が、コメント蓄積装置1の感情情報記憶手段13に格納された映像メタ情報から、ステップS43,44で推測されたユーザの感情状態、原因イベント情報を用いて、類似する感情情報を付加された映像メタ情報を検索し(ステップS45)、メタ情報提示手段33は、検索した映像メタ情報をユーザに提示する(ステップS46)。
ステップS43〜S46の処理は、視聴状態入力手段31がユーザの感情を入力する度に(ステップS42)、繰り返される。
図16は、コンテンツの鑑賞インタフェース70の一例を示す説明図である。図7に示すように、ユーザは、ストリーム再生される映像コンテンツ71を鑑賞しながら、同時にその映像コンテンツ71のシーンデータを含む他人のコメント72を見ることができる。感情をあらわす語彙に関しては、色分け表示して見せても良い。
例えば、図16に示す例の場合、ユーザが「かわいい」と言ったり、うれしそうな顔をした場合は、ユーザの感情は「愛しい」と分類される。そこで、ユーザの感情種類と、ユーザが現在視聴しているシーンの時刻情報により、登録されたシーンデータを検索する。時刻が近く、感情が「愛しい」に分類された2つめのコメントのみをユーザに提示する。これにより、ユーザの感情にあったコメントのみを提示することができる。
このように本実施の形態によれば、コメント蓄積装置1は、入力された映像レビューから、映像コンテンツに対する感想とその感想の対象とを抽出し、レビュー作成者の感情状態とその感情を生起させたシーンデータとを解析し、解析されたレビュー作成者の感情状態とシーンデータとを、入力された映像レビューに付加した映像メタ情報を記憶する。コメント作成閲覧装置3は、映像コンテンツを視聴するユーザの状態を表すデータを解析し、映像コンテンツを視聴するユーザの感情状態および映像コンテンツ中のシーンデータを認識し、認識されたユーザの感情状態およびシーンデータを用いて、コメント蓄積装置1に蓄積されている映像メタ情報の中から、類似する感情情報を付加された映像メタ情報を選択し、ユーザに提示する。これにより、映像コンテンツの同一のシーンについて同じような感情を持つコメントのみを閲覧者に提示することにより、有意義なコミュニケーションの場を提供することができる。
[第2の実施の形態]
次に、本発明の第2の実施の形態を図17に基づいて説明する。なお、前述した第1の実施の形態と同じ部分は同じ符号で示し説明も省略する。
次に、本発明の第2の実施の形態を図17に基づいて説明する。なお、前述した第1の実施の形態と同じ部分は同じ符号で示し説明も省略する。
図17は、本発明の第2の実施の形態にかかるコメント閲覧システム100の機能構成を示す構成図である。図17に示すように、本実施の形態にかかるコメント閲覧システム100のコメント作成閲覧装置3は、あるシーンを視聴中のユーザの感情が認識できた際に、そのユーザ自身の発した音声や、キーボードなどで入力したシーンへの感想を分析し、感情を生起した原因イベントを推定することにより、システムからユーザへの適切な応答を生成する応答文生成手段34を更に備えている。
例えば、あるシーンに対して「メノがヨシを救い出した瞬間に涙がこぼれた」といったような感想が入力された場合、感情を表す語彙「涙」に対して、直前のイベントをあらわす記述「メノがヨシを救い出した瞬間」を抽出する。イベントをあらわす記述は、感情を表す語彙が出現した前後の、「瞬間」「シーン」「時」「顔」といった原因イベントを表す語彙リストを手がかりに、その前の文を抽出する。または、構文解析により、感情語彙の対象部分を特定する。次に、切り出したイベントを表す記述「メノがヨシを救い出した瞬間」と、感情語彙「涙」が感情「泣ける」を表していることにより、応答文生成手段34は以下のような応答を生成する。
「メノがヨシを救い出した瞬間は泣けましたね」
「メノがヨシを救い出した瞬間は泣けましたね」
さらに、視聴中のユーザからの入力が不十分で、感情を生起した原因イベントを特定できなかった場合は、同じような感情をいだいた別のユーザが作成(発声)した感想から、対象とするシーンへのシーンデータを抽出して、分析することにより、視聴中のユーザの感情をよびおこした原因イベントを推定し、同様に、ユーザへの応答を生成して提示することが可能になる。
例えば、視聴中のユーザの発声した音声が「萌える」だとすると、視聴中のユーザの感情は「愛しい」と推定されるが、原因イベントは特定できない。同じシーンで他のユーザが作った感想が「メノのぶすったれた顔がキュート」というような内容の場合、原因イベントは「メノのぶすったれた顔」で感情は「愛しい」と分析できる。二人の感情は同じと推定されるので、視聴中のユーザに対して、以下のような応答文を提示することが可能になる。
「メノのぶすったれた顔は(原因イベント)、かわいいですね(感情)」
「メノのぶすったれた顔は(原因イベント)、かわいいですね(感情)」
このような応答文を音声合成して、ユーザに提示してもよいし、視聴画面に提示してもよい。コンテンツを視聴しながら、長いコメントを読むことが難しい場合でも、ユーザの感情や発声した音声にあったサマリー程度を提示することにより、ユーザの視聴を邪魔することなく、視聴をもりあげる効果がある。
3 コメント作成閲覧装置
1 コメント蓄積装置
11 コメント入力手段
12 コメント解析手段
13 感情情報記憶手段
31 視聴状態入力手段
32 感情状態認識手段
33 メタ情報提示手段
34 応答文生成手段
100 コメント閲覧システム
1 コメント蓄積装置
11 コメント入力手段
12 コメント解析手段
13 感情情報記憶手段
31 視聴状態入力手段
32 感情状態認識手段
33 メタ情報提示手段
34 応答文生成手段
100 コメント閲覧システム
Claims (10)
- ユーザ間で共有する、映像コンテンツに関連付けられたコメントを作成・閲覧するコメント作成閲覧装置にネットワークを介して接続可能であって、前記コメントを蓄積するコメント蓄積装置において、
前記コメントの入力を受け付けるコメント入力手段と、
前記コメント入力手段により入力された前記コメントから、前記映像コンテンツに対する感想とその感想の対象とを抽出し、前記コメントを作成したユーザの感情状態とその感情を生起させたシーンデータとを解析するコメント解析手段と、
前記コメント解析手段で解析された前記ユーザの感情状態と前記シーンデータとを、前記コメント入力手段により入力された前記コメントに付加した映像メタ情報を記憶する感情情報記憶手段と、
を備えることを特徴とするコメント蓄積装置。 - 前記コメント解析手段は、前記映像コンテンツを視聴するユーザの発話から感情を表す語彙を抽出し、抽出された感情を表す語彙を同義語展開して分類した分類プロファイルを用いて、ユーザの感情状態を認識する、
ことを特徴とする請求項1記載のコメント蓄積装置。 - 前記コメント解析手段は、感情の主体について、ユーザの場合と登場人物の感情である場合とを構文解析技術を用いて区別する、
ことを特徴とする請求項2記載のコメント蓄積装置。 - 前記コメント解析手段は、Web上の記事による自動学習により作成した分類プロファイルを用いて、ユーザの感情状態を認識する、
ことを特徴とする請求項1記載のコメント蓄積装置。 - ユーザ間で共有する、映像コンテンツに関連付けられたコメントを蓄積するコメント蓄積装置にネットワークを介して接続可能であって、前記コメントを作成・閲覧するコメント作成閲覧装置において、
前記映像コンテンツを視聴するユーザの状態を表すデータを入力する視聴状態入力手段と、
前記視聴状態入力手段を介して入力されたデータを解析し、前記映像コンテンツを視聴するユーザの感情状態および前記映像コンテンツ中のシーンデータを認識する感情状態認識手段と、
前記感情状態認識手段で認識された前記ユーザの感情状態および前記映像コンテンツ中のシーンデータを用いて、前記コメント蓄積装置に蓄積されている前記ユーザの感情状態と前記シーンデータとを前記コメントに付加した映像メタ情報の中から、類似する感情情報を付加された前記映像メタ情報を選択し、ユーザに提示するメタ情報提示手段と、
を備えることを特徴とするコメント作成閲覧装置。 - 前記視聴状態入力手段は、発汗、心拍数、体温などの生体情報を入力する生体情報入力手段を備えており、
前記感情状態認識手段は、前記視聴状態入力手段から入力されるユーザの生体情報に基づいてユーザの感情状態を認識する、
ことを特徴とする請求項5記載のコメント作成閲覧装置。 - 前記感情状態認識手段により認識したユーザの感情状態に類似する感情状態とその前記感情状態に関連する前記シーンデータとの両方を含む応答文を生成する応答文生成手段を更に備え
前記メタ情報提示手段は、前記応答文生成手段により生成した前記応答文もユーザに提示する、
ことを特徴とする請求項5または6記載のコメント作成閲覧装置。 - 映像コンテンツに関連付けられたコメントをユーザ間で共有するコメント閲覧システムにおいて、
前記コメントの入力を受け付けるコメント入力手段と、
前記コメント手段により入力された前記コメントから、前記映像コンテンツに対する感想とその感想の対象とを抽出し、前記コメントを作成したユーザの感情状態とその感情を生起させたシーンデータとを解析するコメント解析手段と、
前記コメント解析手段で解析された前記ユーザの感情状態と前記シーンデータとを、前記コメント入力手段により入力された前記コメントに付加した映像メタ情報を記憶する感情情報記憶手段と、
前記映像コンテンツを視聴するユーザの状態を表すデータを入力する視聴状態入力手段と、
前記視聴状態入力手段を介して入力されたデータを解析し、前記映像コンテンツを視聴するユーザの感情状態および前記映像コンテンツ中のシーンデータを認識する感情状態認識手段と、
前記感情状態認識手段で認識された前記ユーザの感情状態および前記映像コンテンツ中のシーンデータを用いて、前記感情情報記憶手段に記憶されている前記ユーザの感情状態と前記シーンデータとを前記コメントに付加した映像メタ情報の中から、類似する感情情報を付加された前記映像メタ情報を選択し、ユーザに提示するメタ情報提示手段と、
を備えることを特徴とするコメント閲覧システム。 - ユーザ間で共有する、映像コンテンツに関連付けられたコメントを作成・閲覧するコメント作成閲覧装置にネットワークを介して接続可能であって、前記コメントを蓄積するコメント蓄積装置を制御するコンピュータに各種処理を実行させるプログラムであって、
前記コメントの入力を受け付けるコメント入力機能と、
前記コメント入力機能により入力された前記コメントから、前記映像コンテンツに対する感想とその感想の対象とを抽出し、前記コメントを作成したユーザの感情状態とその感情を生起させたシーンデータとを解析するコメント解析機能と、
前記コメント解析機能で解析された前記ユーザの感情状態と前記シーンデータとを、前記コメント入力機能により入力された前記コメントに付加した映像メタ情報を記憶する感情情報記憶機能と、
を前記コンピュータに実行させることを特徴とするプログラム。 - ユーザ間で共有する、映像コンテンツに関連付けられたコメントを蓄積するコメント蓄積装置にネットワークを介して接続可能であって、前記コメントを作成・閲覧するコメント作成閲覧装置を制御するコンピュータに各種処理を実行させるプログラムであって、
前記映像コンテンツを視聴するユーザの状態を表すデータを入力する視聴状態入力機能と、
前記視聴状態入力機能を介して入力されたデータを解析し、前記映像コンテンツを視聴するユーザの感情状態および前記映像コンテンツ中のシーンデータを認識する感情状態認識機能と、
前記感情状態認識機能で認識された前記ユーザの感情状態および前記映像コンテンツ中のシーンデータを用いて、前記コメント蓄積装置に蓄積されている前記ユーザの感情状態と前記シーンデータとを前記コメントに付加した映像メタ情報の中から、類似する感情情報を付加された前記映像メタ情報を選択し、ユーザに提示するメタ情報提示機能と、
を前記コンピュータに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007074814A JP2008234431A (ja) | 2007-03-22 | 2007-03-22 | コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007074814A JP2008234431A (ja) | 2007-03-22 | 2007-03-22 | コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008234431A true JP2008234431A (ja) | 2008-10-02 |
Family
ID=39907113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007074814A Pending JP2008234431A (ja) | 2007-03-22 | 2007-03-22 | コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008234431A (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010021632A (ja) * | 2008-07-08 | 2010-01-28 | Panasonic Corp | コンテンツ情報再生装置、コンテンツ情報再生システム、コンテンツ情報再生方法、コンテンツ情報再生プログラム、その記録媒体、および情報処理装置 |
JP2010218385A (ja) * | 2009-03-18 | 2010-09-30 | Nippon Hoso Kyokai <Nhk> | コンテンツ検索装置及びコンピュータプログラム |
JP2011039997A (ja) * | 2009-08-18 | 2011-02-24 | Fuji Xerox Co Ltd | 情報処理装置及びコンピュータプログラム |
JP2011239158A (ja) * | 2010-05-10 | 2011-11-24 | Nippon Hoso Kyokai <Nhk> | ユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラム |
JP2012089909A (ja) * | 2010-10-15 | 2012-05-10 | Sony Corp | 情報処理装置、同期方法およびプログラム |
WO2013128715A1 (ja) * | 2012-03-01 | 2013-09-06 | 株式会社ニコン | 電子機器 |
JP2013183289A (ja) * | 2012-03-01 | 2013-09-12 | Nikon Corp | 電子機器 |
JP2014021757A (ja) * | 2012-07-19 | 2014-02-03 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ評価値予測装置、方法、及びプログラム |
KR101380963B1 (ko) * | 2013-04-03 | 2014-04-10 | 주식회사 다음커뮤니케이션 | 관련 정보 제공 시스템 및 제공 방법 |
JP2014078106A (ja) * | 2012-10-10 | 2014-05-01 | Jvc Kenwood Corp | コメント作成表示装置、コメント作成表示方法及びコメント作成表示プログラム |
JP2015228142A (ja) * | 2014-05-31 | 2015-12-17 | Kddi株式会社 | ユーザの感情に基づいてコンテンツをレコメンドする装置、プログラム及び方法 |
JP2016507111A (ja) * | 2013-02-01 | 2016-03-07 | パーラー ラブズ、インコーポレイテッド | リーダ・アクティビティを評価するためのシステム及び方法 |
WO2016051620A1 (ja) * | 2014-10-03 | 2016-04-07 | 株式会社電通 | 動画タグコメント表示制御装置および広告管理コンピュータ |
KR101838792B1 (ko) * | 2016-02-19 | 2018-03-15 | 한국산업기술대학교산학협력단 | 콘텐츠에 대한 사용자의 감정을 공유하는 방법 및 장치 |
CN109544394A (zh) * | 2018-11-06 | 2019-03-29 | 北京腾云天下科技有限公司 | 一种旅游地评估方法和计算设备 |
WO2020004693A1 (ko) * | 2018-06-29 | 2020-01-02 | 엠랩 주식회사 | 시간별 코멘트에 기초한 동일 콘텐트 판단 방법 및 시스템 |
CN111027328A (zh) * | 2019-11-08 | 2020-04-17 | 广州坚和网络科技有限公司 | 通过语料训练判断评论情绪正负及感情色彩的方法 |
WO2021008025A1 (zh) * | 2019-07-18 | 2021-01-21 | 平安科技(深圳)有限公司 | 基于语音识别的信息分析方法、装置和计算机设备 |
-
2007
- 2007-03-22 JP JP2007074814A patent/JP2008234431A/ja active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8600991B2 (en) | 2008-07-08 | 2013-12-03 | Panasonic Corporation | Contents information reproducing apparatus, contents information reproducing system, contents information reproducing method, contents information reproducing program, recording medium and information processing apparatus |
JP4621758B2 (ja) * | 2008-07-08 | 2011-01-26 | パナソニック株式会社 | コンテンツ情報再生装置、コンテンツ情報再生システム、および情報処理装置 |
JP2010021632A (ja) * | 2008-07-08 | 2010-01-28 | Panasonic Corp | コンテンツ情報再生装置、コンテンツ情報再生システム、コンテンツ情報再生方法、コンテンツ情報再生プログラム、その記録媒体、および情報処理装置 |
JP2010218385A (ja) * | 2009-03-18 | 2010-09-30 | Nippon Hoso Kyokai <Nhk> | コンテンツ検索装置及びコンピュータプログラム |
JP2011039997A (ja) * | 2009-08-18 | 2011-02-24 | Fuji Xerox Co Ltd | 情報処理装置及びコンピュータプログラム |
JP2011239158A (ja) * | 2010-05-10 | 2011-11-24 | Nippon Hoso Kyokai <Nhk> | ユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラム |
JP2012089909A (ja) * | 2010-10-15 | 2012-05-10 | Sony Corp | 情報処理装置、同期方法およびプログラム |
WO2013128715A1 (ja) * | 2012-03-01 | 2013-09-06 | 株式会社ニコン | 電子機器 |
JP2013183289A (ja) * | 2012-03-01 | 2013-09-12 | Nikon Corp | 電子機器 |
CN104137096A (zh) * | 2012-03-01 | 2014-11-05 | 株式会社尼康 | 电子设备 |
JP2014021757A (ja) * | 2012-07-19 | 2014-02-03 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ評価値予測装置、方法、及びプログラム |
JP2014078106A (ja) * | 2012-10-10 | 2014-05-01 | Jvc Kenwood Corp | コメント作成表示装置、コメント作成表示方法及びコメント作成表示プログラム |
JP2016507111A (ja) * | 2013-02-01 | 2016-03-07 | パーラー ラブズ、インコーポレイテッド | リーダ・アクティビティを評価するためのシステム及び方法 |
KR101380963B1 (ko) * | 2013-04-03 | 2014-04-10 | 주식회사 다음커뮤니케이션 | 관련 정보 제공 시스템 및 제공 방법 |
JP2015228142A (ja) * | 2014-05-31 | 2015-12-17 | Kddi株式会社 | ユーザの感情に基づいてコンテンツをレコメンドする装置、プログラム及び方法 |
WO2016051620A1 (ja) * | 2014-10-03 | 2016-04-07 | 株式会社電通 | 動画タグコメント表示制御装置および広告管理コンピュータ |
JPWO2016051620A1 (ja) * | 2014-10-03 | 2017-04-27 | 株式会社電通 | 動画タグコメント表示制御装置および広告管理コンピュータ |
KR101838792B1 (ko) * | 2016-02-19 | 2018-03-15 | 한국산업기술대학교산학협력단 | 콘텐츠에 대한 사용자의 감정을 공유하는 방법 및 장치 |
WO2020004693A1 (ko) * | 2018-06-29 | 2020-01-02 | 엠랩 주식회사 | 시간별 코멘트에 기초한 동일 콘텐트 판단 방법 및 시스템 |
CN109544394A (zh) * | 2018-11-06 | 2019-03-29 | 北京腾云天下科技有限公司 | 一种旅游地评估方法和计算设备 |
WO2021008025A1 (zh) * | 2019-07-18 | 2021-01-21 | 平安科技(深圳)有限公司 | 基于语音识别的信息分析方法、装置和计算机设备 |
CN111027328A (zh) * | 2019-11-08 | 2020-04-17 | 广州坚和网络科技有限公司 | 通过语料训练判断评论情绪正负及感情色彩的方法 |
CN111027328B (zh) * | 2019-11-08 | 2024-03-26 | 广州坚和网络科技有限公司 | 通过语料训练判断评论情绪正负及感情色彩的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008234431A (ja) | コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム | |
KR102018295B1 (ko) | 구간 영상 검색 및 제공 장치, 방법 및 컴퓨터-판독가능 매체 | |
JP7498640B2 (ja) | ローカライズされたコンテキストのビデオ注釈を生成するためのシステム及び方法 | |
CN109844708B (zh) | 通过聊天机器人推荐媒体内容 | |
US20190043500A1 (en) | Voice based realtime event logging | |
US6981218B1 (en) | Document processing apparatus having an authoring capability for describing a document structure | |
US20060085735A1 (en) | Annotation management system, annotation managing method, document transformation server, document transformation program, and electronic document attachment program | |
US7610546B1 (en) | Document processing apparatus having capability of controlling video data | |
WO2018045646A1 (zh) | 基于人工智能的人机交互方法和装置 | |
KR20120132465A (ko) | 키워드 및 스트링 입력에 기초한 애니메이트된 미디어를 어셈블링하는 방법 및 시스템 | |
WO2007043679A1 (ja) | 情報処理装置およびプログラム | |
JP4469868B2 (ja) | 説明表現付加装置、プログラムおよび説明表現付加方法 | |
CN111279333B (zh) | 对网络中的数字内容的基于语言的搜索 | |
CN113392273A (zh) | 视频播放方法、装置、计算机设备及存储介质 | |
CN114503100A (zh) | 将情绪相关元数据标注到多媒体文件的方法和装置 | |
JP6603929B1 (ja) | 動画編集サーバおよびプログラム | |
US20240037941A1 (en) | Search results within segmented communication session content | |
WO2023235580A1 (en) | Video-based chapter generation for a communication session | |
KR100832859B1 (ko) | 모바일 웹 콘텐츠 서비스 시스템 및 그 방법 | |
Shin et al. | Construction of a machine learning dataset for multiple AI tasks using Korean commercial multimodal video clips | |
JP2020129357A (ja) | 動画編集サーバおよびプログラム | |
KR101647442B1 (ko) | 비주얼 컨텐츠 제작 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체 | |
JP2006195900A (ja) | マルチメディアコンテンツ生成装置及び方法 | |
Ma | Temporal Sentiment Mapping System for Time-Synchronized Data | |
GAUTAM | INSTITUTE OF ENGINEERING THAPATHALI CAMPUS |