JP2011193372A - 情報管理装置、情報端末、および情報コンテンツ視聴方法 - Google Patents
情報管理装置、情報端末、および情報コンテンツ視聴方法 Download PDFInfo
- Publication number
- JP2011193372A JP2011193372A JP2010059584A JP2010059584A JP2011193372A JP 2011193372 A JP2011193372 A JP 2011193372A JP 2010059584 A JP2010059584 A JP 2010059584A JP 2010059584 A JP2010059584 A JP 2010059584A JP 2011193372 A JP2011193372 A JP 2011193372A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- audio
- content
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Stereophonic System (AREA)
Abstract
【課題】時間的な制約を受けることなく高い表現力で他のユーザと情報交換できる情報管理装置および情報端末、ならびに情報コンテンツ視聴方法を得る。
【解決手段】情報管理装置2は、情報端末4において情報コンテンツ(動画コンテンツDB)を再生する際に視聴者がした音声発言と、その音声発言における各発言部分に対応づけられた再生期間内相対時刻とを含む音声情報(ユーザ音声データDC)を1または複数の情報端末4から受信して収集する受信部(ネットワーク管理モジュール402および動画・音声・ユーザデータ登録削除モジュール409)と、受信部が受信した音声情報を、1または複数の情報端末に配信する配信部(ネットワーク管理モジュール402)とを備える。
【選択図】図4
【解決手段】情報管理装置2は、情報端末4において情報コンテンツ(動画コンテンツDB)を再生する際に視聴者がした音声発言と、その音声発言における各発言部分に対応づけられた再生期間内相対時刻とを含む音声情報(ユーザ音声データDC)を1または複数の情報端末4から受信して収集する受信部(ネットワーク管理モジュール402および動画・音声・ユーザデータ登録削除モジュール409)と、受信部が受信した音声情報を、1または複数の情報端末に配信する配信部(ネットワーク管理モジュール402)とを備える。
【選択図】図4
Description
本発明は、情報コンテンツを視聴する際に、ユーザ間でコミュニケーションを図ることが可能な情報管理装置および情報端末、ならびに情報コンテンツ視聴方法に関する。
近年、インターネットを用いた動画などの情報コンテンツ配信を行う際、単に情報コンテンツのみを配信するだけでなく、その情報コンテンツに関するユーザからの情報も含めて配信するシステムが注目されている。このようなシステムでは、ユーザ間で、例えば口コミ情報などの情報の交換ができるため、例えば似ている嗜好をもつユーザ同士を結ぶコミュニケーションツールとしても注目を集めている。
例えば、特許文献1には、動画を再生する際、その時どきの再生時刻に対応づけられたテキスト情報を、その動画に同期して再生表示するコメント配信システムが開示されている。このコメント配信システムでは、例えば、ユーザが、その時どきの動画表示内容に関連する内容のテキスト情報を登録することにより、他のユーザがその動画を再生する際にそのテキスト情報が同期して再生表示され、ユーザ間で情報交換を行うことができるようになっている。また、特許文献2には、必要に応じてマルチメディアコンテンツ(情報コンテンツ)を再生しながら、テレビ会議やチャットなどによりリアルタイムで情報交換できる情報通信サービスシステムが開示されている。
しかしながら、例えば、特許文献1に開示されたコメント配信システムでは、ユーザからの情報がテキスト情報であるため、例えばユーザの感情を表現したい場合には忠実に表現するのが難しく、その感情が正確に他のユーザに伝わらない。つまり、テキスト情報を用いた情報交換は、その表現力に限界があるため、場合によってはユーザ間の情報交換が不十分になるおそれがある。
また、例えば、特許文献2に開示された情報通信サービスシステムは、リアルタイムで情報交換するものであるので、ユーザ間で情報のやりとりを行うためには同時刻にシステムを利用する必要があり、ユーザは自分の都合のよい時間に他のユーザとの情報交換を行うことができない。
本発明はかかる問題点に鑑みてなされたもので、その目的は、時間的な制約を受けることなく、高い表現力で他のユーザと情報交換できる情報管理装置、情報端末、および情報コンテンツ視聴方法を提供することにある。
本発明の情報管理装置は、受信部と、配信部とを備えている。受信部は、情報端末において情報コンテンツを再生する際に視聴者がした音声発言と、その音声発言における各発言部分に対応づけられた再生期間内相対時刻とを含む音声情報を1または複数の情報端末から受信して収集する機能を有している。配信部は、受信部が受信した音声情報を、1または複数の情報端末に配信するものである。
本発明の情報端末は、再生部と、送信部と、受信部と、再生制御部とを備えている。再生部は、情報コンテンツを再生するものである。送信部は、再生部によって情報コンテンツを再生する際に視聴者がした音声発言と、音声発言における各発言部分に対応づけられた再生期間内相対時刻とを含む音声情報を情報管理装置に送信する機能を有している。受信部は、情報管理装置が収集した音声発言と再生期間内相対時刻とを含む音声情報を情報管理装置から受信するものである。再生制御部は、受信部が受信した音声情報に基づき、情報コンテンツに同期して視聴者の音声を再生するように再生部を制御するものである。
本発明の情報コンテンツ視聴方法は、情報コンテンツを再生する際に視聴者がした音声発言と、その音声発言における各発言部分に対応づけられた再生期間内相対時刻とを含む音声情報を収集し、それぞれに対して音声処理を施し、情報コンテンツに同期して再生するものである。
本発明の情報管理装置、情報端末、情報コンテンツ視聴方法では、情報端末において情報コンテンツを再生する際、過去にその情報コンテンツを視聴した視聴者により入力された音声情報がその情報コンテンツと同期して再生される。その際、音声情報は、音声情報に含まれる相対時刻情報に基づいて同期再生される。
音声処理は、以下に示すように、情報管理装置において行うようにしてもよいし、情報端末において行うようにしてもよい。
音声処理を情報管理装置において行う場合には、例えば、音声情報に所定の音声処理を施す音声処理部をさらに備え、配信部はその音声処理が施された音声情報を配信することが望ましい。この場合には、その音声処理は、例えばサラウンド音声生成処理を含むことが望ましい。この場合、そのサラウンド音声生成処理は、例えば、視聴者の地理座標情報に基づいて行われるようにしてもよいし、視聴者の音声発言における発言部分の数に基づいて行われるようにしてもよいし、視聴者の音声発言の音量に基づいて行われるようにしてもよい。また、このサラウンド音声生成処理の設定は、情報端末からの指示に基づいて修正されるようにしてもよい。音声処理部は、例えば、サラウンド音声生成処理の施された複数の音声情報を1の音声情報に合成する音声合成部を含むようにしてもよい。
音声処理を情報端末において行う場合には、例えば、再生制御部は、受信部が受信した音声情報に対して所定の音声処理を施したうえで、その音声処理後の音声情報に基づき、情報コンテンツに同期して視聴者の音声を再生するように再生部を制御するようにすることが望ましい。その音声処理は、サラウンド音声生成処理を含むことが望ましい。この場合、情報管理装置の配信部は、例えば、音声情報をそのまま配信するようにするのが望ましい。
情報管理装置では、配信部は、さらに情報コンテンツをも配信するようにしてもよい。
情報端末では、再生制御部は、例えば、情報コンテンツに同期して視聴者の音声をサラウンドシステムにより再生するように再生部を制御することが望ましい。再生部は、例えば、記録媒体に記録された情報コンテンツを再生するものであってもよい。
上記のような情報管理装置および情報端末は、例えば以下のようなプログラムによって実現可能となる。
情報管理装置用プログラムは、情報管理装置としてのコンピュータを、受信手段と、配信手段として機能させるためのものである。受信手段は、情報端末において情報コンテンツを再生する際に視聴者がした音声発言と、その音声発言における各発言部分に対応づけられた再生期間内相対時刻とを含む音声情報を1または複数の情報端末から受信して収集するものである。配信手段は、受信手段が受信した音声情報を、1または複数の情報端末に配信するものである。
情報端末用プログラムは、情報端末としてのコンピュータを、再生手段と、送信手段と、受信手段と、再生制御手段として機能させるためのものである。再生手段は、情報コンテンツを再生するものである。送信手段は、再生手段によって情報コンテンツを再生する際に視聴者がした音声発言と、音声発言における各発言部分に対応づけられた再生期間内相対時刻とを含む音声情報を情報管理装置に送信するものである。受信手段は、情報管理装置が収集した音声発言と再生期間内相対時刻とを含む音声情報を情報管理装置から受信するものである。再生制御手段は、受信手段が受信した音声情報に基づき、情報コンテンツに同期して視聴者の音声を再生するように再生手段を制御するものである。
本発明の情報管理装置、情報端末、情報コンテンツ視聴方法によれば、情報コンテンツに対する視聴者の発言を、その情報コンテンツの再生に同期して再生するようにしたので、音声がもつ高い表現力を利用した情報交換が可能となる。
また、情報コンテンツに対する視聴者の発言を、音声情報として情報管理装置に蓄積し、情報端末がその情報コンテンツを再生する際にそれらを受信して同期再生するようにしたので、ユーザは時間的な制約を受けることなく情報交換を行うことができる。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.適用例
1.第1の実施の形態
2.第2の実施の形態
3.適用例
<1.第1の実施の形態>
[構成例]
(全体構成例)
図1は、本発明の第1の実施の形態に係る情報コンテンツ視聴システムの一構成例を表すものである。この情報コンテンツ視聴システムは、情報管理装置に記憶された動画コンテンツを情報端末において再生する際、過去にその動画コンテンツを視聴したユーザが発言した内容を、その動画コンテンツに同期して再生するものである。なお、本発明の実施の形態に係る情報管理装置、情報端末、および情報コンテンツ視聴方法は、本実施の形態により具現化されるので、併せて説明する。
[構成例]
(全体構成例)
図1は、本発明の第1の実施の形態に係る情報コンテンツ視聴システムの一構成例を表すものである。この情報コンテンツ視聴システムは、情報管理装置に記憶された動画コンテンツを情報端末において再生する際、過去にその動画コンテンツを視聴したユーザが発言した内容を、その動画コンテンツに同期して再生するものである。なお、本発明の実施の形態に係る情報管理装置、情報端末、および情報コンテンツ視聴方法は、本実施の形態により具現化されるので、併せて説明する。
情報コンテンツ視聴システム1は、情報管理装置2と、複数の情報端末4とを備えている。情報管理装置2と複数の情報端末4は、インターネット9を介して接続されている。
情報管理装置2は、情報コンテンツ視聴システム1においてやりとりされる情報を管理するサーバである。具体的には、情報管理装置2は、後述するように、情報コンテンツ視聴システム1の各ユーザを管理するためのデータ(ユーザデータDA)、動画コンテンツDB、その動画コンテンツDBに対する各ユーザの感想などの音声情報(ユーザ音声データDC)などを記録して管理している。そして、情報管理装置2は、情報端末4からの動画コンテンツDBの視聴要求に応じて、その動画コンテンツDBに対応づけられたユーザ音声データDCに対して音声処理を行い、音声処理されたユーザ音声データDC2をその動画コンテンツDBとともに情報端末4に送信する機能を有している。
情報管理装置2は、図2に示したように、CPU(Central Processing Unit)204と、主記憶装置202と、ネットワークコントローラ201とを備えている。
CPU204は、ROM205に記憶されたソフトウェアに基づいて、情報管理装置2内の各ブロックを制御するものである。各ブロックへの指示は、バス209を介して行われる。また、CPU204は、後述するように、ユーザ音声データDCに対して、ユーザの位置情報などに基づいてサラウンド音声生成処理を行う機能も有している。CPU204は、このサラウンド音声生成処理を行う場合などにおいて、一時記憶装置203をバッファ領域として使用するようになっている。
主記憶装置202は、ユーザデータDA、動画コンテンツDB、ユーザ音声データDCなどを記憶する記憶装置であり、例えばHDD(Hard Disk Drive)などにより構成される。ネットワークコントローラ201は、情報端末4との間で、インターネット9を介してユーザデータDA、動画コンテンツDB、ユーザ音声データDC,DC2などをやりとりするためのものである。
その他、情報管理装置2は、この情報管理装置2を操作するための入出力装置を備えている。具体的には、情報管理装置2は、キーボードやマウスなどの入力装置209、その入力装置209からの入力を受け付けるI/F(Interface)部206、情報管理装置2における処理結果を出力するビデオ出力部207、オーディオ出力部208、および表示装置210を備えている。
以上の構成により、情報管理装置2では、情報端末4からの動画コンテンツDBの視聴要求に応じて、まずCPU204が主記憶装置202に記憶された、その動画コンテンツDBに対応づけられたユーザ音声データDCに対してサラウンド音声生成処理を行う。そして、情報管理装置2は、そのサラウンド音声生成処理されたユーザ音声データDC2を、主記憶装置202に記憶された動画コンテンツDBとともにネットワークコントローラ201を介して情報端末4に対して送信するようになっている。
情報端末4は、情報コンテンツ視聴システム1においてユーザ8に対するインターフェースとなる端末である。具体的には、情報端末4は、後述するように、情報管理装置2から動画コンテンツDBやユーザ音声データDC2を受信し、その動画コンテンツDBを再生する際に、ユーザ音声データDC2を同期して再生するものである。さらに、情報端末4は、動画コンテンツを再生する際、ユーザ8の発言を記録し、再生時間におけるその発言時の相対時刻情報ともにユーザ音声データDCとして情報管理装置2に送信する機能を有している。
情報端末4は、図1に示したように、動画再生装置3と、表示装置104と、サラウンド音声出力装置105と、音声入力装置106とを備えている。動画再生装置3は、情報管理装置2との間で、ユーザデータDA、動画コンテンツDB、ユーザ音声データDC,DC2などを、インターネット9を介してやり取りするとともに、受信した動画コンテンツDBおよびユーザ音声データDC2を再生する装置である。表示装置104は、例えばテレビやモニタなどであり、動画再生装置3において再生された動画コンテンツDBの映像を表示するものである。サラウンド音声出力装置105は、複数のスピーカから構成され、動画再生装置3において再生された動画コンテンツDBおよびユーザ音声データDC2の音声を、例えば空間的な広がりをもつようなサラウンド環境で出力するようになっている。音声入力装置106は、ユーザ8の発言を入力するマイクである。
動画再生装置3は、図3に示したように、CPU312と、ストリームプロセッサ302と、ビデオデコーダ304と、オーディオプロセッサ303と、グラフィックエンジン305と、GPS受信機313と、I/F部309と、記憶装置310と、ネットワークコントローラ301とを備えている。
CPU312は、ROM311に記憶されたアプリケーションソフトウェアに基づいて、動画再生装置3内の各ブロックを制御するものである。各ブロックへの指示は、システムバス317および入出力バス316を介して行われる。CPU312は、後述するように、動画コンテンツDBを再生する際、その再生時間におけるその相対時刻に対応づけられたユーザ音声データDC2を、その動画コンテンツDBに同期して再生するように各ブロックを制御する。また、CPU312は、後述するように、動画コンテンツDBの再生する際、音声入力装置106により入力されたユーザ8の発言に、その再生時間における発言時の相対時刻情報(動画再生時刻)などを加えたユーザ音声データDCを作成する機能も有している。CPU312は、これらの各種処理を行う際、RAM308をバッファ領域として使用し、RAM308は、メモリバス318を介して各ブロックとの間でデータやり取りするようになっている。
ストリームプロセッサ302は、情報管理装置2から受信した動画コンテンツDBを映像情報と音声情報とに分離する機能を有している。ビデオデコーダ304は、ストリームプロセッサ302から供給された映像情報をデコードするものである。グラフィックエンジン305は、アプリケーショングラフィックスを生成する機能を有している。ビデオデコーダ304においてデコードされた映像情報およびグラフィックエンジン305において生成されたアプリケーショングラフィックスは、ビデオ出力部306を介して表示装置104に供給されて表示出力される。オーディオプロセッサ303は、ストリームプロセッサ302から供給された音声情報に対してサラウンド処理などの音声処理を行うものである。音声処理された音声情報は、オーディオ出力部307を介してサラウンド音声出力装置105に供給されて音声出力される。
GPS受信機313は、動画再生装置3が設置されている地理上の位置情報(GPS情報)を検出する機能を有している。得られた位置情報は、後述するように、ユーザ名などのユーザ情報とともにユーザデータDAとして情報管理装置2に記録され、情報管理装置2においてサラウンド音声生成処理を行う際などに使用される。I/F部309は、音声入力装置106や、キーイベント入力やLED(Light Emitting Diode)発光などを行う外部機器107に対するインターフェースの機能を有している。記憶装置310は、音声入力装置106により入力された音声などを記憶する記憶装置であり、例えばHDDなどにより構成される。ネットワークコントローラ301は、情報管理装置2との間で、インターネット9を介してユーザデータDA、動画コンテンツDB、ユーザ音声データDC,DC2などをやりとりするためのものである。
以上の構成により、情報端末4は、情報管理装置2から動画コンテンツDBおよびユーザ音声データDC2を、ネットワークコントローラ301を介して受信し、表示装置104およびサラウンド音声出力装置105を用いて動画コンテンツDBの再生を行う。その際、CPU312は、ユーザ音声データDC2がもつ動画再生時刻の情報に基づいて、そのユーザ音声データDCを動画コンテンツDBに同期して再生するようにストリームプロセッサ302、ビデオデコーダ304、オーディオプロセッサ303などの各ブロックを制御するようになっている。
それと同時に、動画コンテンツDBを再生する際、CPU312は、音声入力装置106を介して入力されたユーザ8の発言に、その再生時間におけるその発言時の相対時刻情報を加えたユーザ音声データDCを作成し、ネットワークコントローラ301を介して情報管理装置2に対して送信するようになっている。
なお、この例では、アプリケーションソフトウェアをROM311に記録するようにしたが、これに限定されるものではなく、例えば、記録媒体を再生可能な再生機器を動画再生装置3に適用し、この記録媒体に記録するようにしてもよい。この場合の例については、適用例(後述)において説明する。
(ソフトウェア構成例)
次に、情報管理装置2および動画再生装置3のソフトウェア構成例を説明する。
次に、情報管理装置2および動画再生装置3のソフトウェア構成例を説明する。
図4は、情報管理装置2のソフトウェア構成の一例を表すものである。情報管理装置2は、データベース408と、動画・音声・ユーザデータ登録削除モジュール409と、ユーザ認証処理モジュール403と、動画コンテンツ一覧表示モジュール404と、サラウンド設定データ処理モジュール405と、音声処理モジュール406と、ネットワーク管理モジュール402と、画面表示制御モジュール407と、システム状態管理アプリケーション401とを備えている。図4において、各ソフトウェアは、上に示しているものほどアプリケーションに近いものであり、下に示しているものほどファームウェアに近いものである。
データベース408は、情報コンテンツ視聴システム1においてやりとりされる情報を管理するものである。具体的には、データベース408は、ユーザデータDA、動画コンテンツDB、およびユーザ音声データDCを管理している。以下に、データベース408が管理するこれらの情報について詳細に説明する。
図5は、ユーザデータDAの一例を表すものである。ユーザデータDAは、ユーザIDと、ユーザ名と、ユーザパスワードと、GPS情報と、登録日時とを含んでいる。ユーザIDは、情報管理装置2から一意的に与えられる、各ユーザに固有の番号であり、データベース408における管理上の目的の他、後述するようにユーザデータDAとユーザ音声データDCとの対応づけのためにも用いられるものである。ユーザ名は、ユーザIDと同様に各ユーザに固有のものである。ユーザ名は、例えばアルファベットなどを用いて構成され、ユーザIDに比べ覚えやすいものである。よって、ユーザ名は、例えば、ユーザが情報コンテンツ視聴システム1にログインする際や、ユーザ間でコミュニティを構成する場合に各ユーザをより容易に特定する際などに特に便利である。ユーザパスワードは、情報管理装置2にログインする際のユーザ認証に用いられるものである。GPS情報は、動画再生装置3のGPS受信機313によって得られた地理上の位置情報であり、後述するように、ユーザ音声データDCに対するサラウンド音声生成処理を行う際に、その音像定位位置(方向θ)を求める為に用いるものである。登録日時は、この情報コンテンツ視聴システム1に対してユーザ登録を行った日時である。さらに、このユーザデータDAは、この例では、課金情報や年齢情報などの情報を含んでいる。このユーザデータDAは、この情報コンテンツ視聴システム1に対してユーザ登録を行ったときに作成され、情報管理装置2のデータベース408において管理されるものである。
図6は、動画コンテンツDBに付随するメタ情報の一例を表すものである。このメタ情報は、動画コンテンツIDと、動画時間と、動画コンテンツ名と、登録日時と、平均音量とを含んでおり、実動画データと合わせて動画コンテンツDBを構成するものである。動画コンテンツIDは、各動画コンテンツDBに固有の番号であり、データベース408における管理上の目的の他、後述するように動画コンテンツDBとユーザ音声データDCとの対応づけのためにも用いられるものである。動画時間は、動画コンテンツDBの時間長(再生時間)である。登録日時は、その動画コンテンツDBを情報コンテンツ視聴システム1に登録した日時である。平均音量は、その動画コンテンツDBの全時間長にわたる音量の平均値であり、後述するように、ユーザ音声データDCに対するサラウンド音声生成処理を行う際に、その音像定位位置(距離r)を求める為に用いるものである。さらに、このメタ情報は、この例では、画質、課金情報、視聴回数、お勧め度、視聴年齢情報などの情報を含んでいる。この動画コンテンツDBは、情報コンテンツ視聴システム1に動画コンテンツを登録したときに作成され、情報管理装置2のデータベース408において管理されるものである。
図7は、ユーザ音声データDCに付随するメタ情報の一例を表すものである。このメタ情報は、ユーザ音声データIDと、動画コンテンツIDと、動画再生時刻と、ユーザIDと、登録日時と、最大音量と、音声の長さと、実音声データとを含んでおり、実音声データと合わせてユーザ音声データDCを構成するものである。ユーザ音声データIDは、各ユーザ音声データに固有の番号である。動画コンテンツIDは、そのユーザ音声データDCに対応づけられた動画コンテンツのIDである。すなわち、この動画コンテンツIDは、情報端末4において、そのユーザ音声データDCに係る音声が入力されたときに再生されていた動画コンテンツのIDである。動画再生時刻は、そのユーザ音声データDCに対応づけられた動画コンテンツDBの再生時間における、そのユーザ音声データDCに対応づけられた相対時刻である。すなわち、この動画再生時刻は、情報端末4において、そのユーザ音声データDCに係る音声が入力されたときの、動画コンテンツDBの再生時間における相対時刻である。ユーザIDは、そのユーザ音声データDCに対応づけられたユーザIDである。すなわち、そのユーザ音声データDCに係る音声を発したユーザのIDである。登録日時は、そのユーザ音声データDCを情報コンテンツ視聴システム1に登録した日時である。最大音量は、そのユーザ音声データDCの全時間長にわたる音量の最大値である。音声の長さは、ユーザ音声データDCの時間長である。さらにこのユーザ音声データDCは、この例では、音質などの情報を含んでいる。ユーザ音声データDCは、情報端末4においてユーザが音声を入力したときに作成され、情報管理装置2に送信され登録された際、上記登録日時が記録され、情報管理装置2のデータベース408において管理されるものである。
このようなデータベース構成により、情報管理装置2は、情報端末4からの視聴要求に応じて動画コンテンツDBとユーザ音声データDC2とを情報端末4に送信する際、動画コンテンツDBに対応づけられたユーザ音声データDCを、ユーザ音声データDCのメタ情報(動画コンテンツID)を用いて検索し、さらに、その検索されたユーザ音声データDCのメタ情報(ユーザID)を用いて、その動画コンテンツDBを過去に視聴したユーザIDを取得し、これらを用いてユーザ音声データDC2を生成できるようになっている。また、情報端末4は、その動画コンテンツDBを再生する際、ユーザ音声データDCのメタ情報(動画再生時刻)に基づいてそのユーザ音声データDCを再生することにより、ユーザ音声データDCを動画コンテンツDBに同期して再生することができるようになっている。
動画・音声・ユーザデータ登録削除モジュール409は、ユーザデータDA、動画コンテンツDB、およびユーザ音声データDCをデータベース408に新しく登録し、あるいは削除するモジュールである。ユーザ認証処理モジュール403は、ユーザデータDAに基づいて、情報コンテンツ視聴システム1(情報管理装置2)にアクセスする際のユーザ認証を行う機能を有している。動画コンテンツ一覧表示モジュール404は、情報管理装置2の管理の際に、必要に応じてデータベース408に記憶された動画コンテンツを検索して一覧表示する機能を有している。
サラウンド設定データ処理モジュール405は、再生する動画コンテンツDBに対応づけられたユーザ音声データDCをデータベース408において検索し、さらにそれらをユーザごとに分け、それらに基づいて音像定位位置を計算し、サラウンド処理設定データDDを作成する機能を有している。
図8(A)は、サラウンド処理設定データDDの一例を表すものであり、図8(B)はその音像定位位置の設定例を表すものである。サラウンド処理設定データDDは、図8(A)に示したように、ユーザ音声データDCの音声を発したユーザごとに、そのユーザIDと、そのユーザ音声データDCを再生するかどうかの設定(音声のON/OFF)と、音像定位位置とを含むものである。この例では、音像定位位置の情報は、図8(B)に示したように、その動画コンテンツを視聴するユーザ8を基準としたときの、距離rおよび方向θにより構成されている。このサラウンド処理設定データDDにより、情報端末4では、ユーザ音声データDCの音声のそれぞれが、そのユーザごとに設定された音像定位により再生されるようになっている。
音声処理モジュール406は、サラウンド処理設定データDDに従って、ユーザ音声データDCに対する音像定位処理(サラウンド音声生成処理)を行い、ユーザ音声データDC2を作成するものである。ユーザ音声データDC2は、ユーザ音声データDC(図7)において、実音声データをサラウンド音声生成処理されたものに置き換えたものである。つまり、ユーザ音声データDC2のメタ情報は、ユーザ音声データDCのものと同じである。
ネットワーク管理モジュール402は、インターネット9を介して情報端末4と情報をやりとりするためのものである。画面表示制御モジュール407は、情報管理装置2の管理に用いられるものであり、情報コンテンツ視聴システム1などの状態を表示装置210の画面に表示するものである。
システム状態管理アプリケーション401は、ネットワーク管理モジュール402、ユーザ認証処理モジュール403、動画コンテンツ一覧表示モジュール404、サラウンド設定データ処理モジュール405、画面表示制御モジュール407、および動画・音声・ユーザデータ登録削除モジュール409に対して、これらのモジュールが連動して動作するように制御を行うアプリケーションソフトウェアである。
ネットワーク管理モジュール402、音声処理モジュール406、画面表示制御モジュール407、およびデータベース408は、基本ソフトウェアであるオペレーティングシステム410を介してドライバ411に指示を与えることにより、図2に示した情報管理装置2の各ハードウェアブロックを制御するようになっている。
図9は、動画再生装置3のソフトウェア構成の一例を表すものである。動画再生装置3は、動画コンテンツ管理・表示モジュール502と、動画コンテンツ再生モジュール503と、画面表示制御モジュール508と、動画再生制御モジュール509と、音声再生制御モジュール510と、ファイル管理モジュール507と、ネットワーク管理モジュール506と、ユーザ音声データ作成モジュール505と、入力情報制御アプリケーション504と、サラウンド音声共有アプリケーション501とを備えている。
動画コンテンツ管理・表示モジュール502は、情報管理装置2から供給された、ユーザ8が閲覧可能な動画コンテンツの一覧や音像定位情報の表示、ユーザ音声データDCの情報管理装置2に対する削除要請を処理する機能を有している。動画コンテンツ再生モジュール503は、動画コンテンツDBとユーザ音声データDC2とを同期して再生する機能を有している。
画面表示制御モジュール508は、動画コンテンツ管理・表示モジュール502や動画コンテンツ再生モジュール503の指示に従い、表示装置104に表示する画面を制御する機能を有する。動画再生制御モジュール509は、動画コンテンツ再生モジュール503の指示に従い、動画コンテンツDBの映像情報の再生を制御するものである。音声再生制御モジュール510は、動画コンテンツ再生モジュール503の指示に従い、動画コンテンツDBの音声情報の再生を制御するものである。
ファイル管理モジュール507は、動画コンテンツ管理・表示モジュール502や動画コンテンツ再生モジュール503と連動して、各データ(ファイル)の管理を行うものである。ネットワーク管理モジュール506は、インターネット9を介して情報管理装置2と情報をやりとりするためのものである。
ユーザ音声データ作成モジュール505は、音声入力装置106を介してユーザ8が入力した音声に基づいてユーザ音声データDCを作成するものである。具体的には、ユーザ音声データ作成モジュール505は、動画再生装置3が動画コンテンツDBを再生している際にユーザ8が入力した発言に、その動画コンテンツDBの再生時間におけるその発言時の相対時刻情報(動画再生時刻)などの情報を付加し、図7に示したユーザ音声データDCを作成するようになっている。
入力情報制御アプリケーション504は、ユーザ8に対する入力インターフェースの機能を有し、ユーザからの操作を受け付けるものである。
サラウンド音声共有アプリケーション501は、動画コンテンツ管理・表示モジュール502、動画コンテンツ再生モジュール503、入力情報制御アプリケーション504、およびユーザ音声データ作成モジュール505に対して、これらのモジュールが連動して動作するように制御を行うアプリケーションソフトウェアである。
ネットワーク管理モジュール506、ファイル管理モジュール507、画面表示制御モジュール508、動画再生制御モジュール509、および音声再生制御モジュール510は、基本ソフトウェアであるオペレーティングシステム511を介してドライバ512に指示を与えることにより、図3に示した情報端末4の各ハードウェアブロックを制御するようになっている。
ここで、動画・音声・ユーザデータ登録削除モジュール409およびネットワーク管理モジュール402は、本発明の情報管理装置における「受信部」の一具体例に対応する。ネットワーク管理モジュール402は、本発明における「配信部」の一具体例に対応する。
サラウンド設定処理モジュール405および音声処理モジュール406は、本発明における「音声処理部」の一具体例に対応する。
動画再生制御モジュール509および音声再生制御モジュール510は、本発明における「再生部」の一具体例に対応する。ユーザ音声データ作成モジュール505およびネットワーク管理モジュール506は、本発明における「送信部」の一具体例に対応する。ネットワーク管理モジュール506は、本発明の情報端末における「受信部」の一具体例に対応する。動画コンテンツ再生モジュール503は、本発明における「再生制御部」の一具体例に対応する。
[動作および作用]
続いて、本実施の形態の情報コンテンツ視聴システム1の動作および作用について説明する。
続いて、本実施の形態の情報コンテンツ視聴システム1の動作および作用について説明する。
(全体動作概要)
情報管理装置2では、情報端末4からの動画コンテンツ視聴要求に応じて、データベース408が、主記憶装置202に記録された動画コンテンツDBを検索する。サラウンド設定データ処理モジュール405は、データベース408と連携して、その動画コンテンツDBに対応づけられたユーザ音声データDC、およびそのユーザ音声データDCと対応づけられたユーザデータDAに基づいて、過去に動画コンテンツDBを視聴したユーザの音像定位位置を算出し、サラウンド処理設定データDDを作成する。音声処理モジュール406は、サラウンド処理設定データDDに基づいて、ユーザ音声データDCのそれぞれに対してサラウンド音声生成処理を行い、ユーザ音声データDC2を作成する。そしてネットワーク管理モジュール402は、ネットワークコントローラ201を制御し、その動画コンテンツDBおよびユーザ音声データDC2を、インターネット9を介して情報端末4に送信する。
情報管理装置2では、情報端末4からの動画コンテンツ視聴要求に応じて、データベース408が、主記憶装置202に記録された動画コンテンツDBを検索する。サラウンド設定データ処理モジュール405は、データベース408と連携して、その動画コンテンツDBに対応づけられたユーザ音声データDC、およびそのユーザ音声データDCと対応づけられたユーザデータDAに基づいて、過去に動画コンテンツDBを視聴したユーザの音像定位位置を算出し、サラウンド処理設定データDDを作成する。音声処理モジュール406は、サラウンド処理設定データDDに基づいて、ユーザ音声データDCのそれぞれに対してサラウンド音声生成処理を行い、ユーザ音声データDC2を作成する。そしてネットワーク管理モジュール402は、ネットワークコントローラ201を制御し、その動画コンテンツDBおよびユーザ音声データDC2を、インターネット9を介して情報端末4に送信する。
情報端末4では、動画再生装置3のネットワーク管理モジュール506がネットワークコントローラ301を制御し、情報管理装置2から動画コンテンツDBとユーザ音声データDC2を受信する。そして、動画コンテンツ再生モジュール503は、その動画コンテンツDBを再生する際、ユーザ音声データDC2を、そのメタ情報(動画再生時刻)を用いて動画コンテンツDBに同期して再生する。動画再生制御モジュール509は、ビデオデコーダ304やビデオ出力部306などを制御して、動画コンテンツDBの映像情報を表示装置104に供給し、表示装置104はその映像を表示する。音声再生制御モジュール510は、オーディオプロセッサ303やオーディオ出力部307などを制御して、動画コンテンツDBおよびユーザ音声データDC2の音声情報をサラウンド音声出力装置105に供給し、サラウンド音声出力装置105はその音声情報を出力する。これにより、ユーザ音声データDC2の音声は、動画コンテンツDBの音声に重畳され、動画コンテンツDBに同期して再生される。
情報端末4は、動画コンテンツDBを再生する際、音声入力装置106を介してユーザ8の音声を入力する。動画再生装置3のユーザ音声データ作成モジュール505は、入力されたユーザ8の発言に、その動画コンテンツDBの再生時間におけるその発言時の相対時刻情報(動画再生時刻)などの情報を付加し、ユーザ音声データDCを作成する。ネットワーク管理モジュール506は、このユーザ音声データDCを情報管理装置2に送信する。
情報管理装置2では、ネットワーク管理モジュール402が、情報端末4からこのユーザ音声データDCを受信する。動画・音声・ユーザデータ登録削除モジュール409は、このユーザ音声データDCをデータベース408(主記憶装置202)に記録する。
(詳細動作)
以下、情報コンテンツ視聴システム1の動作を、いくつかのフローチャートを用いて詳細に説明する。
以下、情報コンテンツ視聴システム1の動作を、いくつかのフローチャートを用いて詳細に説明する。
(動画コンテンツの視聴)
図10は、動画コンテンツDBの視聴を行う場合の流れ図を表すものである。ユーザ8は、情報端末4から情報管理装置2にログインした後、情報管理装置2に対して動画コンテンツDBの視聴要求を行う。情報管理装置2は、視聴要求された動画コンテンツDBに、過去に視聴履歴があるかどうかを調査し、視聴履歴がある場合において、視聴した各ユーザのGPS情報などに基づいてサラウンド音声生成処理を行い、情報端末4に対して動画コンテンツDBおよびユーザ音声データDC2を送信する。情報端末4は、これらを受信して、同期再生を行う。以下に、フローの各ステップを詳細に説明する。
図10は、動画コンテンツDBの視聴を行う場合の流れ図を表すものである。ユーザ8は、情報端末4から情報管理装置2にログインした後、情報管理装置2に対して動画コンテンツDBの視聴要求を行う。情報管理装置2は、視聴要求された動画コンテンツDBに、過去に視聴履歴があるかどうかを調査し、視聴履歴がある場合において、視聴した各ユーザのGPS情報などに基づいてサラウンド音声生成処理を行い、情報端末4に対して動画コンテンツDBおよびユーザ音声データDC2を送信する。情報端末4は、これらを受信して、同期再生を行う。以下に、フローの各ステップを詳細に説明する。
まず、情報端末4においてユーザ8がユーザ名とユーザパスワードを入力し、情報管理装置2のユーザ認証処理モジュール403がユーザ認証を行い(ステップS102)、ユーザ8が情報コンテンツ視聴システム1の登録ユーザかどうかを確認する(ステップS103)。ユーザ8が登録ユーザの場合にはステップS104に進み、登録ユーザではない場合にはこのフローを終了する。
次に、情報管理装置2が、視聴可能な動画コンテンツ一覧を作成して送信し、情報端末4がその一覧を表示する(ステップS104)。具体的には、情報管理装置2では、データベース408が、例えばユーザ8のユーザデータDAの課金情報に基づいて、ユーザ8が視聴可能な動画コンテンツを検索してその一覧を作成する。つまり、この例では、情報コンテンツ視聴システム1は有償登録制のものである。また、データベース408は、この課金情報の他、ユーザデータDAの年齢情報などに基づいて、動画コンテンツの一覧を作成するようにしてもよい。ネットワーク管理モジュール402は、その一覧を情報端末4に送信する。情報端末4の動画再生装置3では、ネットワーク管理モジュール506がその動画コンテンツの一覧を受信し、動画コンテンツ管理・表示モジュール502がその一覧を表示装置104に表示する。
次に、情報端末4において、ユーザ8が動画コンテンツの一覧から視聴したい動画コンテンツDBを選択する(ステップS105)。図示していないが、ユーザ8は、例えばこの動画コンテンツの一覧に視聴したいものがないなどの場合には、表示装置104に表示されるメニュー画面に従い、情報コンテンツ視聴システム1からログオフすることができる。また、ユーザ8は、表示装置104に表示されるメニュー画面に従い、例えば自身が所有する動画コンテンツを情報管理装置2にアップロードすることも可能である。
次に、情報管理装置2が、ユーザ8が選択した動画コンテンツDBに視聴履歴があるかどうかを確認する(ステップS106)。具体的には、データベース408が、例えば、登録されているユーザ音声データのうち、そのメタ情報(動画コンテンツID)が動画コンテンツDBのものと一致するものを検索することにより、その動画コンテンツDBに視聴履歴があるかどうかを確認する。動画コンテンツDBに視聴履歴が無い場合にはステップS107に進み、視聴履歴がある場合には、ステップS109に進む。
ステップS106において動画コンテンツDBに視聴履歴がない場合には、情報管理装置2のネットワーク管理モジュール402が情報端末4に対して動画コンテンツDBを送信し、動画再生装置3のネットワーク管理モジュール506がこれを受信する(ステップS107)。そして、情報端末4において、動画コンテンツ再生モジュール503が、動画再生制御モジュール509および音声再生制御モジュール510を制御し、表示装置104がその動画コンテンツDBの映像情報を表示するとともに、サラウンド音声出力装置105がその音声情報を出力する。これにより、ユーザ8はこの動画コンテンツDBを視聴することができる。
ステップS106において動画コンテンツDBに視聴履歴がある場合には、情報管理装置2は、サラウンド処理設定データDDを作成して情報端末4に送信し、情報端末4がこれを受信して、その音像定位情報を表示する(ステップS109)。具体的には、まず情報管理装置2では、サラウンド設定データ処理モジュール405が、視聴履歴がある各ユーザの音像定位位置の算出を行い、サラウンド処理設定データDDを作成する。その音像定位位置の算出は、詳細は後述するが、視聴履歴がある各ユーザの、その動画コンテンツDBに対する発言回数や、発言の平均最大音量、GPS情報などに基づいて行われる。そして、情報管理装置2のネットワーク管理モジュール402が、サラウンド処理設定データDDを情報端末4に送信する。情報端末4では、ネットワーク管理モジュール506がこれを受信し、動画再生装置3の動画コンテンツ管理・表示モジュール502が、情報管理装置2から供給されたサラウンド処理設定データDDの情報に基づいて、音像定位情報を表示する。以下に、情報端末4における音像定位情報の表示例を説明する。
図11は、音像定位情報の表示画面例を表すものである。この表示画面例は、ユーザ一覧画面120と、音像定位情報画面110とから構成されている。
ユーザ一覧画面120は、過去に動画コンテンツDBを視聴したユーザの一覧を示すものである。ユーザ一覧画面120は、各ユーザを示すアイコン121と、ユーザ数が多い場合などにユーザ一覧をスクロール表示するためのスクロールバー122とを含んでいる。各アイコン121は、ユーザ名と一緒に表示され、各アイコンと各ユーザとの対応がわかりやすく示されている。
音像定位情報画面110は、各ユーザの音像定位位置や、動画の音量などを模式的に示すものである。音像定位情報画面110には、情報端末4の構成要素(表示画面104およびサラウンド音声出力装置105)の配置が模式的に示されている。音像定位情報画面110は、この例では、アイコン118,119と、音量バー111、音量表示円112と、再生開始ボタン113とを含んでいる。アイコン118は、動画コンテンツDBを視聴するユーザ8の配置を示すものである。アイコン119は、過去に動画コンテンツDBを視聴したユーザの音像定位位置を示すものであり、ユーザ一覧画面120に表示された各アイコンと対応している。音量バー111は、動画コンテンツDBの再生音量を表示するとともに、その設定を行うことができるものであり、これにより、動画コンテンツDBの音量と、ユーザ音声データDC2の音量とのバランスを調整することができる。音量表示円112は、音量バー111と連動して動画コンテンツDBの再生音量をわかりやすく表示するものであり、例えば、音量表示円112が大きいほどその音量が大きく、音量表示円112が小さいほどその音量が小さいことを示すものである。再生開始ボタン113は、この音像定位情報の表示を終了し、動画コンテンツDBの再生を開始するためのものである。
次に、ユーザ8は、サラウンド処理設定データDDの編集、および動画コンテンツDBの音量調整を行う(ステップS110)。具体的には、情報端末4では、入力情報制御アプリケーション504がユーザ8からの指示を受け付け、動画コンテンツ管理・表示モジュール502が各ユーザの音像定位情報を編集してサラウンド処理設定データDDを再作成する。以下に、図11を参照して、その具体例を説明する。
図11において、ユーザ一覧画面120に表示されたユーザを選択し、そのアイコンを音像定位情報画面110の任意の位置に配置することにより、各ユーザの音像定位位置を自由に設定することができる。また、ユーザ一覧画面120のユーザを選択し、設定を行うことにより、そのユーザの音声出力のオンオフを設定することができる。このオンオフ設定は、例えば、ある特定ユーザの音声だけを聞きたい場合や、ある特定ユーザの音声だけ聞きたくない場合などに使用することができる。音像定位情報画面110には、ユーザ一覧画面120に表示されたユーザのうち、音声出力がオンに設定されているユーザのみが表示されている。これらの設定の結果は、サラウンド処理設定データDD(図8(A))に反映される。すなわち、再生開始ボタン113を選択すると、動画コンテンツ管理・表示モジュール502が、この設定結果に基づいてサラウンド処理設定データDDを再作成する。
次に、情報端末4は、編集されたサラウンド処理設定データDDを情報管理装置2に送信し、情報管理装置2はこれを受信する(ステップS111)。具体的には、動画再生装置3のネットワーク管理モジュール506が、ステップS110において再作成されたサラウンド処理設定データDDを情報管理装置2に送信し、情報管理装置2のネットワーク管理モジュール402がこれを受信する。
次に、情報管理装置2は、ユーザ音声データDCに対してサラウンド音声生成処理を行う(ステップS112)。具体的には、音声処理モジュール406が、情報端末4において編集されたサラウンド処理設定データDDに基づいて、各ユーザ音声データDCに対してサラウンド音声生成処理を行い、ユーザ音声データDC2を作成する。
情報管理装置2は、サラウンド音声生成処理が行われた複数のユーザ音声データDC2を、そのメタ情報に含まれる動画再生時刻を用いて、例えば動画コンテンツDBと同じ時間長をもつ1つのユーザ音声データDC3に合成することも可能である。この合成は、以下の場合に有効である。すなわち、情報端末4において動画コンテンツDBを再生する際に、複数のユーザ音声データDC2がお互いに隣接した動画再生時刻を有する場合には、それらの複数のユーザ音声データDC2の音声が重なることとなる。これは、複数のユーザ音声データDC2に対して同時に処理を行う必要があるため、動画再生装置3の負荷がより重くなることを意味している。この時、例えば、動画再生装置3の機器性能によっては、複数のユーザ音声データDC2を同時に再生することができない恐れがある。このような場合に、動画再生装置3は、複数のユーザ音声データDC2に代えてこの合成されたユーザ音声データDC3を用いることにより、同時に再生するユーザ音声データの数に関する制限をうけることなく、動画コンテンツDBとの同期再生を行うことができる。
次に、情報管理装置2は、動画コンテンツDBおよびユーザ音声データDC2を、情報端末4に送信し、情報端末4がこれを受信する(ステップS113)。具体的には、情報管理装置2のネットワーク管理モジュール402が、ステップS112においてサラウンド音声生成処理されたユーザ音声データDC2、もしくはこれらを合成したユーザ音声データDC3を情報管理装置2に送信し、動画再生装置3のネットワーク管理モジュール506がこれらを受信する。
そして、情報端末4は、動画コンテンツDBとユーザ音声データDC2の同期再生を行う(ステップS114)。具体的には、情報端末4が動画コンテンツDBおよびユーザ音声データDC2を受信した場合には、コンテンツ再生モジュール503は、各ユーザ音声データDC2のメタ情報に含まれる動画再生時刻が、その動画コンテンツDBの再生時刻と一致したときに、そのユーザ音声データDC2の音声を再生する。また、情報端末4が動画コンテンツDBおよび合成されたユーザ音声データDC3を受信した場合には、コンテンツ再生モジュール503は、その動画コンテンツDBの再生時刻と、構成されたユーザ音声データDC3の再生時刻とが常に互いに等しくなるように再生を行う。
以上により、このフローは終了する。
(ユーザ音声データDCの作成・登録)
次に、情報端末4において動画コンテンツDBを再生している時に、ユーザ8が行った発言に基づいてユーザ音声データDCを作成する場合のフローを説明する。
次に、情報端末4において動画コンテンツDBを再生している時に、ユーザ8が行った発言に基づいてユーザ音声データDCを作成する場合のフローを説明する。
図12は、ユーザ音声データDCを作成する場合の流れ図を表すものである。動作再生装置3は、動画コンテンツDBを再生する際、ユーザ8が発言を行う度にユーザ音声データDCを作成し、情報管理装置2に送信する。情報管理装置2は、そのユーザ音声データDCを受信し、データベース408に蓄積する。以下に、フローの各ステップを詳細に説明する。
まず、情報端末4の動画再生装置3は、動画再生中かどうかを確認する(ステップS202)。言い換えれば、動画再生装置3は、一時停止中でないかどうか、あるいは早送りや巻き戻し中ではないかどうかを確認する。動作再生装置3が動画再生中の場合にはステップS203に進み、動画再生中でない場合にはこのフローを終了する。
次に、ユーザ8が発言を入力する(ステップS203)。具体的には、動画再生装置3の入力情報制御アプリケーション504が、音声入力装置106に入力されたユーザ8の発言を記録する。具体的には、例えば音声入力装置106にボタンを設け、あるいは外部機器107としてボタンを設け、ユーザ8がそのボタンを押下しながら発言したときに、音声入力装置106を介してその発言が記録される。もしくは、情報端末4は、例えば、入力音声の有無やその音量を分析して、ユーザ8が発言を行っていると判断し、その発言を記録するようにしてもよい。
次に、情報端末4は、発言時の動画再生時刻を取得する(ステップS204)。具体的には、ユーザ音声データ作成モジュール505が、動画コンテンツDBの再生時間における、発言時の相対時刻(動画再生時刻)を取得する。上記ボタンを設けた例では、ユーザ8がボタンを押下したときに、ユーザ音声データ作成モジュール505が、動画コンテンツの再生時間における相対時刻を取得する。
次に、情報端末4は、ユーザ音声データDCの作成を行う(ステップS205)。具体的には、ユーザ音声データ作成モジュール505が、ステップS203において記録した音声情報(実音声データ)、ステップS204において取得した動画再生時刻などに基づいて、図7に示したユーザ音声データDCを作成する。
次に、情報端末4は、ユーザ音声データDCを情報管理装置2に送信し(ステップS206)、情報管理装置2がこれを受信する(ステップS207)。
次に、情報管理装置2は、ユーザ音声データDCをデータベース408に登録する(ステップS208)。具体的には、動画・音声・ユーザデータ登録削除モジュール409が、ユーザ音声データDCをデータベース408に登録し蓄積する。
情報端末4は、動画の再生が終了するまでの間、ユーザ8が発言を行う度に、ユーザ音声データDCを作成し情報管理装置2に送信し、情報管理装置2は、これを受信しデータベース408に登録し蓄積する。
以上のフローは、動画の再生が終了すると終了する。
(サラウンド処理設定データDDの作成)
次に、図10のステップS109に示した、サラウンド処理設定データDDの作成のフローについて、詳細に説明する。
次に、図10のステップS109に示した、サラウンド処理設定データDDの作成のフローについて、詳細に説明する。
図13は、サラウンド処理設定データDDを作成する場合の流れ図を表すものである。情報管理装置2では、過去に動画コンテンツDBを視聴したことがあるユーザごとに、その動画コンテンツDBに対する発言回数、発言の平均最大音量、およびそのユーザのGPS情報に基づいて音像定位位置を設定する。このフローは、全て情報管理装置2において実行される。以下に、フローの各ステップを詳細に説明する。
まず、情報管理装置2は、動画コンテンツDBについて視聴履歴があるユーザの一覧を取得する(ステップS302)。具体的には、データベース408は、ステップS106において検索した、動画コンテンツDBに対応づけられたユーザ音声データDCのメタ情報(ユーザID)を調べることにより、動画コンテンツDBの視聴履歴があるユーザの一覧を取得する。
次に、情報管理装置2は、各ユーザのGPS情報を取得する(ステップS304)。具体的には、サラウンド設定データ処理モジュール405は、データベース408に登録されているユーザデータDAのメタ情報(ユーザIDおよびGPS情報)を用いて、ステップS302で得られたユーザ一覧の各ユーザのGPS情報を取得する。
次に、情報管理装置2は、各ユーザの音像定位位置(方向θ)を決定する(ステップS305)。具体的には、サラウンド設定データ処理モジュール405は、ユーザ8のGPS情報と、ステップS304で得られた各ユーザのGPS情報とに基づいて、音像定位位置の方向θ(図8(B)参照)を決定する。これにより、例えば、ユーザ8は、動画コンテンツDBと同期してユーザ音声データDC2を再生する際、実際に各ユーザが居住している方向から、そのユーザの音声(ユーザ音声データDC2の音声)が発生しているように感じるようになる。
次に、情報管理装置2は、各ユーザの発言回数、および各ユーザの平均最大音量を取得する(ステップS306)。具体的には、サラウンド設定データ処理モジュール405が、ステップS106において検索した、動画コンテンツDBに対応づけられたユーザ音声データDCのうち、そのメタ情報(ユーザID)が各ユーザのものと一致するものを検索することにより、その動画コンテンツDBに対する各ユーザの発言回数を取得する。サラウンド設定データ処理モジュール405は、さらに、検索したユーザ音声データDCのメタ情報(最大音量)を用いて、その動画コンテンツDBに対する各発言の最大音量の平均値を取得する。
次に、情報管理装置2は、各ユーザの音像定位位置(距離r)を決定する(ステップS307)。具体的には、サラウンド設定データ処理モジュール405は、ステップS306において取得した各ユーザの発言回数、および各ユーザの平均最大音量に基づいて、音像定位位置の距離r(図8(B)参照)を決定する。距離rは、例えば、発言回数が多いほど短くなり、また、平均最大音量が大きいほど長くなるように決定される。
次に、情報管理装置2は、サラウンド処理設定データDDを作成する(ステップS308)。具体的には、サラウンド設定データ処理モジュール405が、ステップS305およびステップS307において取得した各ユーザの音像定位位置(方向θおよび距離r)に基づいて、サラウンド処理設定データDDを作成する。
以上により、このフローは終了する。
(ユーザ音声データDCに対するサラウンド音声生成処理)
次に、図10のステップS112に示した、ユーザ音声データDCに対するサラウンド音声生成処理のフローについて、詳細に説明する。
次に、図10のステップS112に示した、ユーザ音声データDCに対するサラウンド音声生成処理のフローについて、詳細に説明する。
図14は、サラウンド音声生成処理の流れ図を表すものである。情報管理装置2では、サラウンド処理設定データDDに基づいて、過去に動画コンテンツDBを視聴したユーザごとに、それぞれのユーザ音声データDCに対してサラウンド音声生成処理を行う。つまり、このフローは、全て情報管理装置2において実行される。以下に、フローの各ステップを詳細に説明する。
まず、情報管理装置2は、ユーザの音声がオン状態に設定されているかを確認する(ステップS402)。具体的には、音声処理モジュール406は、ステップS111において入手したサラウンド処理設定データDD(図8(A))において、ある着目したユーザ(視聴履歴のあるユーザ)の音声出力がオン状態に設定されているかどうかを確認する。オン状態に設定されている場合にはステップS403に進み、オフ状態に設定されている場合にはステップS407に進む。
次に、情報管理装置2は、そのユーザに関連するユーザ音声データDCを検索し(ステップS403)、該当するユーザ音声データDCがあるかどうかを確認する(ステップS404)。具体的には、データベース408は、登録されたユーザ音声データDCのうち、そのメタ情報(動画コンテンツID)が動画コンテンツDBのものと一致するものを検索し、さらに、その検索したユーザ音声データDCのメタ情報(ユーザID)を調べ、着目したユーザのものがあるかどうかを調べる。該当するユーザ音声データDCがある場合にはステップS405に進み、該当するユーザ音声データDCがない場合にはステップS407に進む。
次に、情報管理装置2は、ユーザ音声データDCに対してサラウンド音声生成処理を行い(ステップS405)、その結果を一時記憶装置203に格納する(ステップS406)。具体的には、音声処理モジュール406は、ステップS403において検索して該当した、動画コンテンツDBおよび着目ユーザに対応づけられた各ユーザ音声データDCのそれぞれに対して、サラウンド処理設定データDDに基づいて、音像定位処理(サラウンド音声生成処理)を行ってユーザ音声データDC2を作成し、その結果を一時記憶装置203に格納する。
次に、情報管理装置2は、以上の操作を、動画コンテンツDBに視聴履歴のある全てのユーザに対して行ったかどうかを確認する(ステップS407)。具体的には、音声処理モジュール406は、サラウンド処理設定データDDの全てのユーザに対してサラウンド音声生成処理(ステップS402〜S406)を行ったかどうかを確認する。全てのユーザに対して処理を行った場合にはステップS408に進み、まだ全てのユーザに対して処理を行っていない場合には、ステップS402に戻り、全てのユーザに対して処理が終了するまでそれを繰り返す。
そして、情報管理装置2は、動画再生装置3に制限がある場合には、必要に応じて複数のユーザ音声データDC2を1つのユーザ音声データDC3に合成する。
以上により、このフローは終了する。
(ユーザ音声データDCの削除処理)
次に、情報管理装置2に登録された、ユーザ8自身のユーザ音声データDCを削除するフローについて、説明する。
次に、情報管理装置2に登録された、ユーザ8自身のユーザ音声データDCを削除するフローについて、説明する。
図15は、ユーザ音声データDCの削除処理の流れ図を表すものである。まず、情報端末4は、動画コンテンツDBを再生するとともに、その動画コンテンツDBに対応づけられている、視聴しているユーザ8自身のユーザ音声データDC2の一覧を表示する。ユーザ8は、その一覧から、削除したいユーザ音声データDC2を選択する。情報管理装置2は、その指示に従って、データベース408に記録された、該当するユーザ音声データDC2に対応するユーザ音声データDCを削除する。以下に、フローの各ステップを詳細に説明する。
まず、情報端末4は、ユーザ8自身のユーザ音声データDCを取得する(ステップS502)。具体的には、動画再生装置3の動画コンテンツ管理・表示モジュール502は、動画コンテンツDBとともに受信したユーザ音声データDC2から、そのメタ情報(ユーザID)を用いて、ユーザ8自身のユーザ音声データDC2を検索する。
次に、情報端末4は、ユーザ8自身のユーザ音声データDC2の一覧を表示する(ステップS503)。具体的には、動画再生装置3の画面表示制御モジュール508は、動画コンテンツDBの再生画面に、ステップS503において取得したユーザ音声データDC2の一覧を表示する。以下に、ユーザ音声データDC2の一覧表示時の表示画面例について説明する。
図16は、ユーザ音声データDC2の一覧表示時の表示画面例を表すものである。この表示画面例は、動画コンテンツ再生画面130と、ユーザ音声デ−タ一覧画面140とから構成されている。
動画コンテンツ再生画面130は、動画コンテンツDBの映像情報を表示するものである。動画コンテンツ再生画面130には、タイムライン131が表示されている。タイムライン131は、現在再生している部分が、動画コンテンツDBのどの部分に位置するかをわかりやすく示したものである。
ユーザ音声データ一覧画面140は、その動画コンテンツDBに対するユーザ8自身のユーザ音声データDC2を一覧として示すものである。具体的には、それぞれのユーザ音声データDC2の発言を行った日時と、動画コンテンツDB内におけるそのユーザ音声データDC2が対応づけられた相対時刻(動画再生時刻)とが一覧として表示されている。ユーザ8が、このユーザ音声データDC2の一つを選択すると、動画コンテンツ再生画面130の動画表示は、そのユーザ音声データDC2が対応付けされている動画再生時刻における表示にスキップするとともに、このユーザ音声データDC2の音声が再生され、これにより、ユーザ8は、即座にユーザ音声データDC2の内容を確認することができる。ユーザ音声データ一覧画面140は、チェックボックス141と、削除ボタン142を含んでいる。チェックボックス141は、削除したいユーザ音声データDC2(DC)を選択するためのものである。削除ボタン142は、チェックボックス141がチェックされたユーザ音声データDC2(DC)を削除するためのものである。
次に、ユーザ8は、削除したいユーザ音声データDC2(DC)があるかどうかを確認する(ステップS504)。ユーザ8は、削除したいユーザ音声データDC2(DC)がある場合には、ユーザ音声データ一覧画面140(図16)において、該当するチェックボックス141にチェックを入れる。削除したいユーザ音声データDC2(DC)がある場合には、このフローを終了する。
次に、情報端末4は、削除したいユーザ音声データDC2(DC)のユーザ音声データIDを送信する(ステップS505)。具体的には、ユーザ8の削除ボタン142(図16)の操作に従い、動画再生装置3の入力情報制御アプリケーション504が、ステップS504においてユーザ8がチェックを入れたユーザ音声データDC2(DC)のユーザ音声データIDを、情報管理装置2に送信する。
次に、情報管理装置2は、ユーザ音声データIDを受信し、該当するユーザ音声データDCをデータベース408から削除する(ステップS506)。具体的には、情報管理装置2の動画・音声・ユーザデータ登録削除モジュール409は、情報端末4からのユーザ音声データ削除の指示に従い、該当するユーザ音声データIDをもつユーザ音声データDCを削除する。その後、ステップS504に戻り、ユーザ8からの指示に従いユーザ音声データDC2(DC)の削除を繰り返す。
以上のフローは、削除したいユーザ音声データDC2がなくなると終了する。
[効果]
以上のように本実施の形態では、動画コンテンツに対する他のユーザの音声による発言を、その動画コンテンツの再生に同期して再生するようにしたので、文字情報の同期表示などに比べて高い表現力を有する情報交換が可能となる。
以上のように本実施の形態では、動画コンテンツに対する他のユーザの音声による発言を、その動画コンテンツの再生に同期して再生するようにしたので、文字情報の同期表示などに比べて高い表現力を有する情報交換が可能となる。
また、本実施の形態では、動画コンテンツに対する他のユーザの発言を、ユーザ情報データとして情報管理装置に蓄積し、別のユーザがその動画コンテンツを視聴する際にそれらを受信して同期再生するようにしたので、ユーザは自分の都合のよい時間に他のユーザと情報交換を行うことができ、また、その内容を何度も楽しむことができる。
また、本実施の形態では、ユーザ音声データDCに対し、音像定位を設定してサラウンド生成処理するようにしたので、他のユーザと一緒に会話(チャット)しながら同じ動画コンテンツの視聴を楽しんでいる感覚を得ることができる。
また、本実施の形態では、ユーザごとに異なる音像定位を設定してサラウンド音声生成処理するようにしたので、情報端末4において動画コンテンツDBと同期してユーザ音声データDC2を再生する際、動画コンテンツの音声や、各ユーザの音声がお互いに重なりにくくなり、その音声を聞き分けることができる。
[変形例1−1]
上記実施の形態では、動画コンテンツは情報管理装置に記録されているものとしたが、これに限定されるものではなく、例えば、動画再生装置に記録されていてもよい。この場合、動画コンテンツが動画再生装置自体に記録されていてもよいし、動画再生装置が再生する記録媒体に記録されていてもよい。これらの場合では、情報管理装置は、ユーザデータDAおよびユーザ音声データDCを管理しており、動画再生装置が動画コンテンツDBを再生する際、その動画コンテンツDBを識別するコードを情報管理装置に送信し、それに基づいて情報管理装置がその動画コンテンツDBに対応づけされたユーザ音声データDCなどを情報端末に送ることにより、情報コンテンツ視聴システム1は上記実施の形態と同様に動作することができる。
上記実施の形態では、動画コンテンツは情報管理装置に記録されているものとしたが、これに限定されるものではなく、例えば、動画再生装置に記録されていてもよい。この場合、動画コンテンツが動画再生装置自体に記録されていてもよいし、動画再生装置が再生する記録媒体に記録されていてもよい。これらの場合では、情報管理装置は、ユーザデータDAおよびユーザ音声データDCを管理しており、動画再生装置が動画コンテンツDBを再生する際、その動画コンテンツDBを識別するコードを情報管理装置に送信し、それに基づいて情報管理装置がその動画コンテンツDBに対応づけされたユーザ音声データDCなどを情報端末に送ることにより、情報コンテンツ視聴システム1は上記実施の形態と同様に動作することができる。
<2.第2の実施の形態>
次に、本発明の第2の実施の形態に係る情報コンテンツ視聴システムについて説明する。本実施の形態は、ユーザ情報データに対するサラウンド音声生成処理の主体が、上記第1の実施の形態と異なるものである。すなわち、上記第1の実施の形態(図1)では、情報管理装置2がサラウンド音声生成処理を行うようにしたが、これに代えて、本実施の形態では、情報端末(動画再生装置)がこのサラウンド音声生成処理が行うようにしている。その他の構成は、上記第1の実施の形態(図1)と同様である。なお、上記第1の実施の形態に係る情報コンテンツ視聴システムと実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
次に、本発明の第2の実施の形態に係る情報コンテンツ視聴システムについて説明する。本実施の形態は、ユーザ情報データに対するサラウンド音声生成処理の主体が、上記第1の実施の形態と異なるものである。すなわち、上記第1の実施の形態(図1)では、情報管理装置2がサラウンド音声生成処理を行うようにしたが、これに代えて、本実施の形態では、情報端末(動画再生装置)がこのサラウンド音声生成処理が行うようにしている。その他の構成は、上記第1の実施の形態(図1)と同様である。なお、上記第1の実施の形態に係る情報コンテンツ視聴システムと実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
図17は、情報管理装置2Bのソフトウェア構成の一例を表すものである。情報管理装置2Bは、第1の実施の形態に係る情報管理装置2(図4)と比べて、サラウンド設定データ処理モジュール405および音声処理モジュール406を省いたものである。
図18は、情報端末4Bにおける動画再生装置3Bのソフトウェア構成の一例を表すものである。動画再生装置3Bは、第1の実施の形態に係る動画再生装置3(図9)と比べて、サラウンド設定データ処理モジュール513および音声処理モジュール514を追加したものである。サラウンド設定データ処理モジュール513は、ユーザデータDAおよびユーザ音声データDCに基づいて音像定位位置を算出し、サラウンド処理設定データDDを作成する機能を有している。音声処理モジュール514は、サラウンド処理設定データDDに従って、ユーザ音声データDCに対してサラウンド音声生成処理を行い、ユーザ音声データDC2を作成するものである。
この構成により、本実施の形態に係る情報コンテンツ視聴システム1Bでは、動画コンテンツDBを再生する情報端末4Bがサラウンド音声生成処理を行うようになっている。
以下に、情報コンテンツ視聴システム1Bにおいて、動画コンテンツDBの視聴を行う場合の動作を説明する。
図19は、動画コンテンツDBの視聴を行う場合の流れ図を表すものである。ユーザ8は、情報管理装置2Bに対して動画コンテンツDBの視聴要求を行うと、情報管理装置2Bは、視聴要求された動画コンテンツDBにユーザの視聴履歴があるかどうかを調査し、視聴履歴がある場合において、動画コンテンツDBに加え、ユーザデータDAと、動画コンテンツDBに対応づけられたユーザ音声データDCとを情報端末4Bに対して送信する。動画再生装置3Bは、ユーザデータDAおよびユーザ音声データDCに基づいてユーザ音声データDCに対してサラウンド音声生成処理を行って、ユーザ音声データDC2を作成し、動画コンテンツDBに同期して再生を行う。以下に、フローの各ステップを詳細に説明する。なお、ステップS101〜S108は、第1の実施の形態(図10)と同じであるため説明を省略し、ここではステップS809以降の説明を行うこととする。
ステップS106において動画コンテンツDBに視聴履歴がある場合には、情報管理装置2Bは、動画コンテンツDB、視聴履歴のあるユーザのユーザ音声データDC、およびそのユーザのユーザデータDAを情報端末4Bに送信する(ステップS809)。具体的には、データベース408は、登録されているユーザ音声データDCのうち、そのメタ情報(動画コンテンツID)が動画コンテンツDBのものと一致するものを検索する。データベース408は、さらにその検索されたユーザ音声データDCから、そのメタ情報(ユーザID)を用いて、視聴履歴のあるユーザを調べ、そのユーザデータDAを取得する。
そして、ネットワーク管理モジュール402は、これらのユーザデータDA、動画コンテンツDB、およびユーザ音声データDCを情報端末4Bに送信する。
そして、ネットワーク管理モジュール402は、これらのユーザデータDA、動画コンテンツDB、およびユーザ音声データDCを情報端末4Bに送信する。
次に、情報端末4Bは、サラウンド処理設定データDDの作成を行う(ステップS810)。具体的には、まず、動画再生装置3Bのネットワーク管理モジュール506が、情報管理装置2Bから、ユーザデータDA、動画コンテンツDB、およびユーザ音声データDCを受信する。そして、サラウンド設定データ処理モジュール513が、図13に示した処理方法と同様の方法で、視聴履歴がある各ユーザの音像定位位置の算出を行い、サラウンド処理設定データDDを作成する。
次に、情報端末4Bは、サラウンド処理設定データDDの編集、および動画コンテンツDBの音量調整を行う(ステップS110)。その具体例は、第1の実施の形態のステップS110と同様である。
次に、情報端末4Bは、ユーザ音声データDCに対するサラウンド音声生成処理を行う(ステップS812)。具体的には、動画再生装置3Bの音声処理モジュール514が、ステップS110において再作成されたサラウンド処理設定データDDに基づいて、各ユーザ音声データDCに対してサラウンド音声生成処理を行い、ユーザ音声データDC2を作成する。また、例えば動画再生装置3Bの機器性能などにより、複数のユーザ音声データDCを同時に再生することができない場合には、第1の実施の形態と同様に、これらのユーザ音声データDC2を合成するようにしてもよい。
そして、情報端末4は、動画コンテンツDBとユーザ音声データDC2の同期再生を行う(ステップS114)。その具体例は、第1の実施の形態のステップS114と同様である。
以上により、このフローは終了する。
以上のように本実施の形態では、サラウンド音声生成処理を情報端末側で行うようにしたので、情報管理装置の負荷を軽減することができる。その他の効果は、上記第1の実施の形態の場合と同様である。
上記実施の形態では、動画コンテンツは情報管理装置に記録されているものとしたが、これに限定されるものではなく、例えば、上記第1の実施の形態の変形例と同様に、動画再生装置に記録されていてもよい。
<3.適用例>
次に、図20および図21を参照して、上記実施の形態および変形例で説明した情報コンテンツ視聴システムの適用例について説明する。
次に、図20および図21を参照して、上記実施の形態および変形例で説明した情報コンテンツ視聴システムの適用例について説明する。
(適用例1)
図20は、情報端末の動画再生装置として再生機器を用いた場合の情報コンテンツ視聴システムの構成例を表すものである。この情報コンテンツ視聴システム1Cは、情報管理装置2Cおよび情報端末4Cを有している。情報管理装置2Cは、この例ではPC端末(Personal Computer)により構成されている。情報端末4Cの再生機器108は、例えば、Blu-ray Disc(登録商標)などを記録媒体109とした再生機器が適用可能である。この例では、記録媒体109(Blu-ray Disc)には、動画コンテンツDBおよびBD-Java(登録商標)プログラムが含まれている。BD-Java(登録商標)プログラムは、この例では図8や図18に示したソフトウェア構成と同様の構成を有するプログラムである。言い換えれば、上記第1および第2の実施の形態では、プログラムはROM311に記録されているものとしたが、本適用例では、プログラムは記録媒体109に記録されている。この構成により、情報端末4Cは、第1および第2の実施の形態に示した情報端末4と同様の機能を実現できる。
図20は、情報端末の動画再生装置として再生機器を用いた場合の情報コンテンツ視聴システムの構成例を表すものである。この情報コンテンツ視聴システム1Cは、情報管理装置2Cおよび情報端末4Cを有している。情報管理装置2Cは、この例ではPC端末(Personal Computer)により構成されている。情報端末4Cの再生機器108は、例えば、Blu-ray Disc(登録商標)などを記録媒体109とした再生機器が適用可能である。この例では、記録媒体109(Blu-ray Disc)には、動画コンテンツDBおよびBD-Java(登録商標)プログラムが含まれている。BD-Java(登録商標)プログラムは、この例では図8や図18に示したソフトウェア構成と同様の構成を有するプログラムである。言い換えれば、上記第1および第2の実施の形態では、プログラムはROM311に記録されているものとしたが、本適用例では、プログラムは記録媒体109に記録されている。この構成により、情報端末4Cは、第1および第2の実施の形態に示した情報端末4と同様の機能を実現できる。
この適用例では、情報端末4Cの記録媒体109が動画コンテンツDBを有するようにしたが、これに限定されるものではなく、情報端末4C自体が動画コンテンツDBをもつようにしてもよいし、上記第1および第2の実施の形態に示したように、情報管理装置2Cが動画コンテンツDBをもつようにしてもよい。いずれの場合でも、再生機器108はBD-Java(登録商標)プログラムにより、第1および第2の実施の形態に示した情報端末4の動画再生機器3と同様の機能を実現できる。
(適用例2)
図21は、情報端末の動画再生装置としてPCを用いた場合の情報コンテンツ視聴システムの構成例を表すものである。この情報端末4のPC110には、この例では図8や図18に示したソフトウェア構成を有するプログラムが記録されている。PC110にはサラウンドヘッドセット111が接続されており、サラウンド環境での音声再生が実現できるようになっている。この構成により、情報端末4Dは、第1および第2の実施の形態に示した情報端末4と同様の機能を実現できる。
図21は、情報端末の動画再生装置としてPCを用いた場合の情報コンテンツ視聴システムの構成例を表すものである。この情報端末4のPC110には、この例では図8や図18に示したソフトウェア構成を有するプログラムが記録されている。PC110にはサラウンドヘッドセット111が接続されており、サラウンド環境での音声再生が実現できるようになっている。この構成により、情報端末4Dは、第1および第2の実施の形態に示した情報端末4と同様の機能を実現できる。
以上、いくつかの実施の形態および変形例、ならびにそれらの具体的な適用例を挙げて本発明を説明したが、本発明はこれらの実施の形態等には限定されず、種々の変形が可能である。
例えば、上記の各実施の形態では、情報管理装置2と複数の情報端末4は、インターネット9を介して接続するものとしたが、これに限定されるものではなく、これに代えて、他の広域ネットワークを介して接続されていてもよい。
また、例えば、上記の各実施の形態では、動画コンテンツを扱うものとしたが、これに限定されるものではなく、これに代えて、もしくはこれと共に、例えば音声コンテンツを扱うようにしてもよい。
なお、上記の各実施の形態では、情報コンテンツ視聴システムは、情報管理装置および情報端末により構成されるものとしたが、これに限定されるものではない。
1,1B,1C,1D…情報コンテンツ視聴システム、2,2B,2C…情報管理装置、3,3B,3C…動画再生装置、4,4B,4C,4D…情報端末、7A,7B,8…ユーザ、9…インターネット、104、210…表示装置、105…サラウンド音声出力装置、106…音声入力装置、107…外部機器、110…音像定位情報画面、111…音量バー、112…音量表示円、113…再生開始ボタン、120…ユーザ一覧画面120、118,119,121…アイコン、122…スクロールバー、130…動画コンテンツ再生画面、140…ユーザ音声データ一覧画面、141…チェックボックス、142…削除ボタン、201、301…ネットワークコントローラ、202…主記憶装置、203…一時記憶装置、204、312…CPU、205、311…ROM、206、309…I/F部、207、306…ビデオ出力部、208、307…オーディオ出力部、209…入力装置、302…ストリームプロセッサ、303…オーディオプロセッサ、304…ビデオデコーダ、305…グラフィックエンジン、308…RAM、310…記憶装置、313…GPS受信機、401…システム状態管理アプリケーション、402…ネットワーク管理モジュール、403…ユーザ認証処理モジュール、404…動画コンテンツ一覧表示モジュール、405,513…サラウンド設定データ処理モジュール、406,514…音声処理モジュール、407…画面表示制御モジュール、408…データベース、409…動画・音声・ユーザデータ登録削除モジュール、410…オペレーティングシステム、411…ドライバ、DA…ユーザデータ、DB…動画コンテンツ、DC,DC2…ユーザ音声データ、r…距離、θ…方向。
Claims (17)
- 情報端末において情報コンテンツを再生する際に視聴者がした音声発言と、その音声発言における各発言部分に対応づけられた再生期間内相対時刻とを含む音声情報を1または複数の情報端末から受信して収集する受信部と、
前記受信部が受信した音声情報を、1または複数の情報端末に配信する配信部と
を備えた情報管理装置。 - 前記音声情報に所定の音声処理を施す音声処理部をさらに備え、
前記配信部は、前記音声処理が施された音声情報を配信する
請求項1に記載の情報管理装置。 - 前記配信部は、前記音声情報をそのまま配信する
請求項1に記載の情報管理装置。 - 前記音声処理はサラウンド音声生成処理を含むものである
請求項2に記載の情報管理装置。 - 前記サラウンド音声生成処理は、前記視聴者の地理座標情報に基づいて行われる
請求項4に記載の情報管理装置。 - 前記サラウンド音声生成処理は、前記音声発言における前記発言部分の数に基づいて行われる
請求項4に記載の情報管理装置。 - 前記サラウンド音声生成処理は、前記音声発言の音量に基づいて行われる
請求項4に記載の情報管理装置。 - 前記サラウンド音声生成処理の設定は、情報端末からの指示に基づいて修正される
請求項4に記載の情報管理装置。 - 前記音声処理部は、前記サラウンド音声生成処理の施された複数の前記音声情報を1の音声情報に合成する音声合成部を含む
請求項4に記載の情報管理装置。 - 前記配信部は、さらに、前記情報コンテンツをも配信する
請求項1に記載の情報管理装置。 - 情報コンテンツを再生する再生部と、
前記再生部によって情報コンテンツを再生する際に視聴者がした音声発言と、前記音声発言における各発言部分に対応づけられた再生期間内相対時刻とを含む音声情報を情報管理装置に送信する送信部と、
前記情報管理装置が収集した前記音声発言と前記再生期間内相対時刻とを含む前記音声情報を前記情報管理装置から受信する受信部と、
前記受信部が受信した前記音声情報に基づき、前記情報コンテンツに同期して視聴者の音声を再生するように前記再生部を制御する再生制御部と
を備えた情報端末。 - 前記受信部が受信する音声情報は、前記情報管理装置において所定の音声処理が施されたものである
請求項11に記載の情報端末。 - 前記再生制御部は、前記受信部が受信した前記音声情報に対して所定の音声処理を施したうえで、その音声処理後の音声情報に基づき、前記情報コンテンツに同期して視聴者の音声を再生するように前記再生部を制御する
請求項11に記載の情報端末。 - 前記音声処理はサラウンド音声生成処理を含むものである
請求項13に記載の情報端末。 - 前記再生制御部は、前記情報コンテンツに同期して視聴者の音声をサラウンドシステムにより再生するように前記再生部を制御する
請求項11に記載の情報端末。 - 前記再生部は、記録媒体に記録された前記情報コンテンツを再生する
請求項11に記載の情報端末。 - 情報コンテンツを再生する際に視聴者がした音声発言と、その音声発言における各発言部分に対応づけられた再生期間内相対時刻とを含む音声情報を収集し、それぞれに対して音声処理を施し、前記情報コンテンツに同期して再生する
情報コンテンツ視聴方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010059584A JP2011193372A (ja) | 2010-03-16 | 2010-03-16 | 情報管理装置、情報端末、および情報コンテンツ視聴方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010059584A JP2011193372A (ja) | 2010-03-16 | 2010-03-16 | 情報管理装置、情報端末、および情報コンテンツ視聴方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011193372A true JP2011193372A (ja) | 2011-09-29 |
Family
ID=44797812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010059584A Pending JP2011193372A (ja) | 2010-03-16 | 2010-03-16 | 情報管理装置、情報端末、および情報コンテンツ視聴方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011193372A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014091965A1 (ja) * | 2012-12-12 | 2014-06-19 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、情報処理方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2016208464A (ja) * | 2015-04-28 | 2016-12-08 | カシオ計算機株式会社 | 撮像システム、撮像装置、収音装置、撮像方法、収音方法及びプログラム |
-
2010
- 2010-03-16 JP JP2010059584A patent/JP2011193372A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014091965A1 (ja) * | 2012-12-12 | 2014-06-19 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、情報処理方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2016208464A (ja) * | 2015-04-28 | 2016-12-08 | カシオ計算機株式会社 | 撮像システム、撮像装置、収音装置、撮像方法、収音方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11743514B2 (en) | Apparatus, systems and methods for a content commentary community | |
WO2022121558A1 (zh) | 一种直播演唱方法、装置、设备和介质 | |
JP2008172582A (ja) | 議事録作成再生装置 | |
JP2003076380A (ja) | 各地に散在するカラオケ装置において利用者の自作映像をカラオケ背景映像として表示する方法 | |
JP5634736B2 (ja) | 番組評価情報提供装置、番組評価情報提供方法、及びプログラム | |
JP2014082582A (ja) | 視聴装置、コンテンツ提供装置、視聴プログラム、及びコンテンツ提供プログラム | |
US20100281503A1 (en) | System and Method for Recording a Multi-Part Performance on an Internet Protocol Television Network | |
JP2008293219A (ja) | コンテンツ管理システム、コンテンツ管理システムにおける情報処理装置、情報処理装置におけるリンク情報生成方法、情報処理装置におけるリンク情報生成プログラム、及びリンク情報生成プログラムを記録した記録媒体 | |
KR100795357B1 (ko) | 모바일 애니메이션 메시지 서비스 방법 및 시스템,단말기 | |
Kasuya et al. | LiVRation: Remote VR live platform with interactive 3D audio-visual service | |
KR20200136382A (ko) | 정보 처리 장치, 정보 처리 방법, 송신 장치, 및 송신 방법 | |
JP5302742B2 (ja) | コンテンツ制作管理装置、コンテンツ制作装置、コンテンツ制作管理プログラム、及びコンテンツ制作プログラム | |
JP2008305435A (ja) | 情報提供方法及び情報提供装置、並びに、情報受信方法及び情報受信装置 | |
JP2011193372A (ja) | 情報管理装置、情報端末、および情報コンテンツ視聴方法 | |
JP5244547B2 (ja) | 音声コメント配信共有方法及びシステム | |
TWI482496B (zh) | 媒體排程播送裝置、系統、頻道自動排程方法與其記錄媒體 | |
US11086592B1 (en) | Distribution of audio recording for social networks | |
CN104378278B (zh) | 在移动终端进行微通信音频播放的方法及系统 | |
JP2021182696A (ja) | 双方向放送方法及びシステム | |
JP2010060627A (ja) | カラオケシステム | |
JP2009104638A (ja) | 情報提供方法及び情報提供装置、並びに、情報提示方法及び情報提示装置 | |
KR101650071B1 (ko) | 온라인 음원 제작 시스템 및 방법 | |
JP6610076B2 (ja) | 情報処理装置、情報処理システム、プログラム、及び記録媒体 | |
JP5777233B1 (ja) | 動画生成装置及び動画生成方法 | |
KR102111990B1 (ko) | 웨어러블 장치를 이용한 컨텐츠 제어 방법, 장치 및 시스템 |