JP2021006894A - コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム - Google Patents

コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム Download PDF

Info

Publication number
JP2021006894A
JP2021006894A JP2020065327A JP2020065327A JP2021006894A JP 2021006894 A JP2021006894 A JP 2021006894A JP 2020065327 A JP2020065327 A JP 2020065327A JP 2020065327 A JP2020065327 A JP 2020065327A JP 2021006894 A JP2021006894 A JP 2021006894A
Authority
JP
Japan
Prior art keywords
data
content
specification data
educational
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020065327A
Other languages
English (en)
Other versions
JP2021006894A5 (ja
JP7368298B2 (ja
Inventor
量生 川上
Kazuo Kawakami
量生 川上
尚 小嶋
Takashi Kojima
尚 小嶋
寛明 齊藤
Hiroaki Saito
寛明 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019120240A external-priority patent/JP6766228B1/ja
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2020065327A priority Critical patent/JP7368298B2/ja
Publication of JP2021006894A publication Critical patent/JP2021006894A/ja
Publication of JP2021006894A5 publication Critical patent/JP2021006894A5/ja
Priority to JP2023177029A priority patent/JP2023181234A/ja
Application granted granted Critical
Publication of JP7368298B2 publication Critical patent/JP7368298B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】遠隔教育システムによって提供される教育コンテンツの興趣性を高めて生徒の受講意欲を促進することが可能なコンテンツ配信サーバを提供する。【解決手段】コンテンツ配信サーバは、素材データ配信部213と、受信データ取得部211と、素材データ変更部212とを含む。素材データ配信部は、遠隔授業用の教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データと、複数のオブジェクトの動きを示すモーションデータとを教育端末へ配信する。受信データ取得部は、外部装置から受信される、第1の仕様データの少なくとも一部を変更するための要求を取得する。素材データ変更部は、第1の仕様データを要求に応じて第1の仕様データとは異なる第2の仕様データに変更する。素材データ配信部は、第1の仕様データが第2の仕様データに変更された後に、第2の仕様データを教育端末に配信する。【選択図】図3

Description

本発明は、ICT(Information and Communication Technology)を利用した遠隔教育に関する。
従来、ICTを利用した遠隔教育が試みられている。例えば、一般的なeラーニングシステムにおいて、サーバは、収録済みの教育コンテンツを、インターネット経由で生徒の端末へ配信する。故に、生徒は、従来の対面型の授業に比べて場所や時間の制約を受けずに学習をすることができる。
また、特許文献1には、進行中授業データをリアルタイムに生徒用端末に提供する授業システムが開示されている。
特許第6227816号
収録済みの教育コンテンツを単に配信するだけでは、生徒にとって教師や他の生徒の存在を感じにくい。また、生徒は、動画を見て音声を聴く以外に授業に関与することができず、受動的な態度になりがちである。
他方、収録中の教育コンテンツをリアルタイムに配信することにより、生徒は教師の存在をリアルに感じることができ、逆もまた然りである。また、例えばチャット、コメント機能などのコミュニケーションツールを用意することで、教師や他の生徒の反応を期待して能動的に授業に参加するように生徒を促すこともできる。
しかしながら、収録済みの教育コンテンツを提供する場合、および収録中の教育コンテンツをリアルタイムに提供する場合のいずれにおいても、提供されるコンテンツ自体は再収録されない限り変わることはない。故に、生徒が同じテーマの授業を再受講しようとしても過去に視聴したコンテンツと全く同じコンテンツを再生せざるを得ず、復習や再学習のモチベーションが沸きにくいという問題がある。
本発明は、遠隔教育システムによって提供される教育コンテンツの興趣性を高めて生徒の受講意欲を促進することを目的とする。
本発明の第1の態様に係るコンテンツ配信サーバは、素材データ配信部と、受信データ取得部と、素材データ変更部とを含む。素材データ配信部は、遠隔授業用の教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データと、複数のオブジェクトの動きを示すモーションデータとを教育端末へ配信する。受信データ取得部は、外部装置から受信される、第1の仕様データの少なくとも一部を変更するための要求を取得する。素材データ変更部は、第1の仕様データを要求に応じて第1の仕様データとは異なる第2の仕様データに変更する。素材データ配信部は、第1の仕様データが第2の仕様データに変更された後に、第2の仕様データを教育端末に配信する。
本発明の第2の態様に係るコンテンツ作成装置は、再生部と、入力データ取得部と、素材データ生成部とを含む。再生部は、授業内容の提示に関わるオブジェクトの仕様を示す第1の仕様データとオブジェクトの動きを示す第1のモーションデータとに基づく参照用コンテンツを再生する。入力データ取得部は、参照用コンテンツの再生中のユーザの動きに基づく第2のモーションデータと、参照用コンテンツの再生中のユーザの発声に基づく音声データとを取得する。素材データ生成部は、第1の仕様データと、ユーザに対応するアバターの仕様を示す第2の仕様データと、第1のモーションデータと、第2のモーションデータと、音声データとに基づいて、遠隔授業用の教育コンテンツを構成する仮想空間を再現するために用いられる素材データを生成する。
本発明の第3の態様に係る教育端末は、入力データ取得部と、再生部とを含む。入力データ取得部は、遠隔授業用の教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データの少なくとも一部を変更するための要求に相当する入力データを取得する。再生部は、第1の仕様データに対して要求に基づく変更がなされた第2の仕様データと複数のオブジェクトの動きを示すモーションデータとに基づいて再現される仮想空間を撮影した授業動画データを授業音声データとともに再生する。
本発明によれば、遠隔教育システムによって提供される教育コンテンツの興趣性を高めて生徒の受講意欲を促進することができる。
第1の実施形態に係る教育端末を例示するブロック図。 図1の教育端末を含む遠隔教育システムを例示するブロック図。 第1の実施形態に係るコンテンツ配信サーバを例示するブロック図。 図1の教育端末における教育コンテンツの再生画面を例示する図。 ユーザからの要求に基づいて図4の教育コンテンツにおける教師のアバターを変更した後の、図1の教育端末における教育コンテンツの再生画面を例示する図。 ユーザからの要求に基づいて図5の教育コンテンツに生徒のアバターを追加した後の、図1の教育端末における教育コンテンツの再生画面を例示する図。 図1の教育端末の動作を例示するフローチャート。 図2のコンテンツ配信サーバの動作を例示するフローチャート。 第2の実施形態に係るコンテンツ作成装置を例示するブロック図。 図9のコンテンツ作成装置の動作を例示するフローチャート。 第3の実施形態に係る教育端末を例示するブロック図。 図11の教育端末の動作を例示するフローチャート。
以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。
(第1の実施形態)
第1の実施形態に係る教育端末およびコンテンツ配信サーバは、図2に例示される遠隔教育システムに組み込むことができる。このシステムは、実施形態に係る教育端末10−1,10−2,10−3,・・・と、コンテンツ配信サーバ20とを含む。コンテンツ配信サーバ20は、各教育端末10と例えばインターネットなどのネットワーク経由で接続されており、互いにデータを送受信できる。また、コンテンツ配信サーバ20は、他の図示されないサーバ、例えばWebサーバ、コメントサーバ、などともネットワーク経由で接続され、互いにデータを送受信してもよい。
教育端末10は、コンピュータなどの電子デバイス、例えば、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、など)、HMD(Head Mounted Display)、ゲーム機、テレビ受像機(インターネットテレビを含む)、などであり得るが、これらに限られない。
教育端末10のユーザは、主に授業の生徒であるが、授業の教師を含み得る。例えば、教師は、遠隔授業用の教育コンテンツの収録、送信(アップロード)、教育コンテンツへの教材オブジェクトの追加、などのために教育端末10を使用し得る。教育端末10を教育コンテンツの収録に利用する場合には、教育端末10は、教師の動きを補足するための動き検出装置およびマイクロフォンを内蔵し、またはこれらに接続されることになる。動き検出装置は、例えば慣性センサ、ドップラーセンサ、3Dカメラ、などであり得る。
コンテンツ配信サーバ20は、教育端末10からの配信開始要求に応じて、教育コンテンツを提供する。コンテンツ配信サーバ20は、教育コンテンツの収録中に当該教育コンテンツをリアルタイムに提供してもよいし、収録済みの教育コンテンツを提供してもよい。また、コンテンツ配信サーバ20は、リアルタイムに提供した教育コンテンツを、当該教育コンテンツの収録後にも提供してもよい。教育コンテンツは、例えば動き検出装置、マイクロフォンなどを接続したコンテンツ配信サーバ20によって収録されてもよいし、教師用の教育端末10または他の端末によって収録されコンテンツ配信サーバ20へ逐次送信されてもよい。
教育コンテンツは、典型的には、遠隔に居る生徒に臨場感あふれる授業を体験させることのできる、VR(Virtual Reality)、AR(Augmented Reality)、MR(Mixed Reality)、SR(Substitutional Reality)などの仮想的コンテンツを含み得る。コンテンツ配信サーバ20は、かかる教育コンテンツを構成する仮想空間をある視点から撮影した授業動画データを教育端末10に配信してもよいし、当該授業動画データをレンダリングするための材料を含む素材データを教育端末10に配信してもよい。
教育端末10は、図示されないコメントサーバから教育コンテンツに対して生徒または教師によって投稿されたコメントデータを受信し、当該コメントデータの示すコメントを教育コンテンツに重畳して表示してもよい。コメントは、例えば教育コンテンツを構成する仮想空間に配置されるコメント表示用のオブジェクトの表面を所定時間に亘って移動表示されてよい。他方、教育端末10は、ユーザからのテキスト入力に基づいて教育コンテンツに投稿するコメントデータを生成し、コメントサーバへ送信し得る。これにより、教師および生徒は、テキストベースで、同期型コミュニケーション(リアルタイム配信の場合)および/または非同期型コミュニケーションを取ることが可能となる。
また、教育端末10は、コンテンツ配信サーバ20から教育コンテンツの一部として授業音声データをさらに受信して再生する。この授業音声データは、教師が収録時に発声した音声を含み、さらに生徒が発声した音声(の一部)を含んでもよい。この場合に、教育端末10(の一部)は、図示されないマイクロフォンによって検出した生徒の音声に基づいて音声データを生成し、コンテンツ配信サーバ20に送信し得る。これにより、生徒により臨場感あふれる授業を体験させることが可能となるとともに、教師および生徒が、音声ベースで、同期型コミュニケーション(リアルタイム配信の場合)および/または非同期型コミュニケーションを取ることが可能となる。
なお、図2において示される各装置の数は、例示に過ぎない。例えば、教育端末10の数は、時々刻々と変化するので、0となることがあり得るし、数百、数千となることもあり得る。さらに、図2に示されないWebサーバ、コメントサーバなどがさらに設けられてもよい。
以下、図1を用いて教育端末10の構成について詳しく説明する。
図1に例示されるように、教育端末10は、通信I/F(インタフェース) 101と、入出力I/F 102と、プロセッサ110と、メモリ120とを含む。
通信I/F 101は、例えば、移動通信(例えば、3G、4G、5G、モバイルWiMAX)、Wi−Fi、WiMAXなどの通信技術を利用して、ネットワーク、典型的にはインターネット経由でコンテンツ配信サーバ20と通信をする。通信I/F 101は、種々のデータをプロセッサ110から受け取ってコンテンツ配信サーバ20へ送信し、種々のデータをコンテンツ配信サーバ20から受信してプロセッサ110へ送り得る。
具体的には、通信I/F 101は、コンテンツ配信サーバ20から素材データを受信し、これを受信データ取得部111へ送る。なお、素材データは、エンコードされていてもよいし、エンコードされていなくてもよい。前者の場合には、素材データ記憶部121への読み出し前または素材データ記憶部121からの読み出し後に図示されないデコーダによって素材データをデコードする必要がある。
入出力I/F 102は、プロセッサ110と外部装置とのデータの入出力に使用するインタフェースの端子(ポート)であって、I/O(Input/Output)部と呼ぶこともできる。入出力I/F 102は、例えば、タッチスクリーン、キーボード、マウス、テンキー、マイクロフォン、動き検出装置、などの入力装置とプロセッサ110との間のデータのやり取りに使用され得る。同様に、入出力I/F 102は、例えば、ディスプレイ(タッチスクリーンを含み得る)、スピーカなどの出力装置とプロセッサ110との間のデータのやり取りに使用され得る。
例えば、入出力I/F 102は、再生された授業動画データおよび授業音声データをプロセッサ110から受け取り、これらをディスプレイおよびスピーカにそれぞれ出力する。また、入出力I/F 102は、入力装置から後述されるオブジェクトの仕様データ(の少なくとも一部)を変更するための要求に相当する入力データ(ユーザ入力)を受け取り、これをプロセッサ110へ送る。このほか、入力データは、マイクロフォンによって生成されたユーザの発声に基づく音声データ、キーボード(スクリーンキーボードを含み得る)によって生成されたコメントデータ、例えば、再生時間の指定、巻き戻し、早送り、再生速度の変更、スキップなどの教育コンテンツの再生制御に関わる要求、などを含み得る。
プロセッサ110は、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、またはその他の汎用または専用のプロセッサなどであってもよい。
メモリ120は、プロセッサ110が各処理を実現するために当該プロセッサ110によって実行されるプログラム、例えば、OS(Operating System)、ファームウェア、遠隔教育アプリケーション、など、および当該プロセッサ110によって使用されるデータ、例えば、素材データ、授業動画データ、などを一時的に格納するメモリを含んでいる。メモリは、かかるプログラム/データが展開されるワークエリアを有するRAM(Random Access Memory)を含み得る。
プロセッサ110は、メモリ120に保存されたプログラムを実行することで、図1の受信データ取得部111、レンダラー112、コンテンツ再生部113、入力データ取得部114、および入力データ報告部115として機能し得る。また、メモリ120は、素材データ記憶部121を含み得る。
受信データ取得部111は、通信I/F 101からコンテンツ配信サーバ20からの受信データを取得し、これをメモリ120に保存する。例えば、受信データ取得部111は、通信I/F 101から素材データを取得し、これを素材データ記憶部121に保存する。
レンダラー112は、素材データ記憶部121に保存された素材データのうち教育コンテンツを構成する仮想空間を再現するための材料となるデータ、具体的には、この仮想空間に配置される複数のオブジェクトの仕様を示す仕様データおよび当該複数のオブジェクトの動きを示すモーションデータを読み出す。そして、レンダラー112は、これら仕様データおよびモーションデータに基づいて仮想空間(に配置される各オブジェクトの外観、動き、など)を再現し、これらを基準となる視点(仮想カメラ)から撮影した授業動画データを生成する。レンダラー112は、生成した授業動画データをコンテンツ再生部113へ送る。
コンテンツ再生部113は、レンダラー112から授業動画データを受け取り、素材データ記憶部121から授業音声データを読み出す。そして、コンテンツ再生部113は、授業動画データとともに授業音声データを再生し、教育コンテンツを入出力I/F 102を介して出力装置に出力させる。
入力データ取得部114は、入出力I/F 102から入力データを取得し、この少なくとも一部を入力データ報告部115へ送る。入力データ取得部114は、コンテンツ配信サーバ20またはコメントサーバへの報告対象となる入力データを入力データ報告部115へ送り、そうでない入力データ、例えば、教育コンテンツの再生制御に関する要求、を例えばレンダラー112および/またはコンテンツ再生部113へ送り得る。
入力データ報告部115は、入力データ取得部114から入力データを受け取り、これを通信I/F 101を介してコンテンツ配信サーバ20またはコメント配信サーバに報告する。例えば、入力データ報告部115は、オブジェクトの仕様データを変更するための要求、および音声データをコンテンツ配信サーバ20へ送信し、コメントデータをコメントサーバへ送信してもよい。ここで、オブジェクトの仕様データを変更するための要求は、例えば、仕様データが規定されている複数のオブジェクトに含まれる特定のオブジェクト(アバターを含み得る)の外観、ボイスキャラクター、効果音、音楽などを別のものに差し替える要求、当該特定のオブジェクトの仕様データを削除する要求、当該複数のオブジェクトに含まれない新たなオブジェクト(アバターを含み得る)の仕様データを追加する要求、などを含み得る。
素材データ記憶部121は、素材データを保存する。ここで、素材データは、オブジェクトの仕様データおよびモーションデータ、ならびに授業音声データを含む。素材データ記憶部121は、ある教育コンテンツを構成する仮想空間を再現するための素材データを例えば当該教育コンテンツを識別する識別子に関連付けて保存し得る。また、素材データ記憶部121は、各オブジェクトの仕様データおよびモーションデータと当該オブジェクトを識別する識別子に関連付けて保存し得る。
仕様データは、例えば、オブジェクトの外観データ、および当該オブジェクトに関して特定の条件が満足した場合に発生させる効果音または音楽を表す効果音データまたは音楽データを含み得る。さらに、アバターのような発声可能なオブジェクトに関しては、当該オブジェクトの声を担当するボイスキャラクターを示すボイスキャラクターデータも当該オブジェクトの仕様データに含められ得る。なお、オブジェクトの仕様データの少なくとも一部は、例えば教育コンテンツの再生開始前に素材データ記憶部121にプリセットされていてもよい。
モーションデータは、教育コンテンツの再生時間毎の、オブジェクトの全身または部位毎の動き、向き(姿勢)、および位置座標などを表す。オブジェクトが教師、生徒またはその他の関係者の分身であるアバターである場合には、当該オブジェクトのモーションデータは本人の全身または部位毎の動きに基づいて動き検出装置によって生成され得る。人間の全身または部位毎の動きに基づくモーションデータの生成には、例えば、慣性センサまたはドップラーセンサのセンシング信号、および/または3Dカメラの撮影データに基づく公知の技法が利用可能である。
素材データは、受信データ取得部111によって素材データ記憶部121に書き込まれる。素材データ記憶部121に保存された素材データのうちオブジェクトの仕様データおよびモーションデータは、レンダラー112によって読み出される。素材データ記憶部121に保存された素材データのうち授業音声データは、コンテンツ再生部113によって読み出される。
入力データ報告部115が、オブジェクトの仕様データを変更するための要求に相当する入力データをコンテンツ配信サーバ20に報告すると、コンテンツ配信サーバ20はこの要求に応じてオブジェクトの仕様データを変更できる。なお、コンテンツ配信サーバ20は、必ずしも全ての教育端末10からのかかる要求に応じる必要はなく、例えば、課金、多数決、抽選、早い者勝ち、など、何らかの条件付きで応じてもよい。
コンテンツ配信サーバ20は、オブジェクトの仕様データを要求に基づいて変更すると、元の仕様データに対して当該要求に基づく変更がなされた仕様データを各教育端末10へ配信する。この変更後の仕様データは未受信分のモーションデータとともに、通信I/F 101によって受信され、受信データ取得部111によって取得され、素材データ記憶部121に保存される。なお、ここで受信されるモーションデータは、仕様データの変更の有無に関わらず同一であり得る。また、素材データ記憶部121に保存されていた変更前の仕様データは、変更後の仕様データによって書き換えられる。
素材データ記憶部121に保存された、変更後の仕様データおよびモーションデータはレンダラー112によって読み出され、授業動画データとしてレンダリングされる。これによって、生徒は、コンテンツ配信サーバ20によってその後に配信される教育コンテンツにおいて、例えば、教師または生徒のアバターの外観および/またはボイスキャラクターを変更したり、新たなオブジェクト(アバターを含み得る)を追加したり、オブジェクトの発生可能な効果音および/または音楽を変更したりすることができる。
例えば、生徒は、図4に示す教育コンテンツに登場する教師アバター31の見た目や声色が気に入らなければ、図5に示すように好みの見た目や声色を別の持つ教師アバター33に変更して授業を受けることができる。
また、生徒は、教育コンテンツを構成する仮想空間に自らのアバターを追加することもできる。これにより、図6に示すように、教育コンテンツには教師アバター33以外にも生徒アバター34乃至36が登場することになるので、生徒は他の生徒の存在を感じられるし、教育コンテンツに登場する生徒のアバター数は当該コンテンツの人気度を把握する1つの指標となり得る。例えば、生徒は教育コンテンツのプレビューに映る生徒のアバター数から当該教育コンテンツは人気があるかそうでないかをおよそ把握できる。さらに、生徒のアバター数に依存して、この仮想空間に配置される教室オブジェクトのサイズ、外観などが自動的に変更されてもよい。言い換えれば、変更後の仕様データの示す教室オブジェクトのサイズおよび/または外観は、この仕様データが規定されるアバターの数に依存し得る。例えば、アバターの数が増えるにつれて、収容人数に応じたサイズ/外観の教室オブジェクトが選択され、さらに机および椅子のオブジェクトが追加されてもよい。さらに、教室オブジェクトのサイズアップに伴って、黒板オブジェクト32のサイズも拡大されてよい。
なお、図4乃至図6の例では、教師や生徒のアバターに加えて、授業内容の提示に関わるオブジェクトとして黒板オブジェクト32が用意されているが、かかるオブジェクトとして、ホワイトボード、プロジェクタ、など任意のオブジェクトが利用可能である。
黒板オブジェクト32または他の授業内容の提示に関わるオブジェクトに表示されるテキスト、グラフ、図、写真、動画などの教材は、当該オブジェクトとは別の教材オブジェクトとして定義されてもよい。教師は、例えば、リアルタイム配信または収録後配信時の生徒のコメント、音声などの反応を見て、教材オブジェクトの追加、削除または差し替えをしたり、テキストのフォントの種類、色、サイズなどを変えたり、グラフ、図、写真などのサイズやレイアウトを変えたりすることができる。このような教育コンテンツの手直しは、生徒が一度視聴した教育コンテンツを再視聴する動機付けとなり得る。黒板オブジェクト32には、教室らしさを演出するために、例えば、日付、日直、落書き、などの現実の教室内の黒板に記載されるであろう内容のオブジェクトが貼り付けられてもよい。
さらに、教室オブジェクトの壁には例えば生徒による答案、成績順位表、お絵かきなどの制作物のオブジェクトが貼られてもよい。答案オブジェクトの外観は、例えば、教育コンテンツの再生中に配信されるアンケートまたは他の形式のテストに対する生徒の回答に基づいて生成され得る。また、成績順位表オブジェクトの外観は、かかるテストでのユーザの得点に基づいて生成され、新たに高得点を獲得した生徒が登場する度に、または定期的に更新され得る。高得点を獲得した生徒に対して、教師が賞賛するコメントや音声を事後的に追加してもよいし、当該生徒の教育端末10内でそのような演出が自動的になされてもよい。このような掲示物が教師や他の生徒の目に曝されることは、生徒が、さらなる高得点を目指してテストを受け直したり、より完成度の高い制作物に取り組んだりする動機付けとなり得る。
以下、図3を用いてコンテンツ配信サーバ20の構成について詳しく説明する。
図3に例示されるように、コンテンツ配信サーバ20は、通信I/F 201と、プロセッサ210と、メモリ220とを含む。
通信I/F 201は、例えば、光通信などの通信技術を利用して、ネットワーク、典型的にはインターネット経由で教育端末10と通信をする。通信I/F 201は、種々のデータをプロセッサ210から受け取って教育端末10へ送信し、種々のデータを教育端末10から受信してプロセッサ210へ送り得る。
具体的には、通信I/F201は、教育端末10から例えば仕様データの変更要求などのデータを受信し、これをプロセッサ210へ送る。また、通信I/F 201は、プロセッサ210から素材データを受け取り、これを教育端末10へ送信する。なお、素材データは、エンコードされていてもよいし、エンコードされていなくてもよい。前者の場合には、コンテンツ配信サーバ20は、素材データをエンコードするエンコーダを備えていてもよい。
素材データのうちの授業音声データおよびモーションデータは、例えば教師用の教育端末10からコンテンツ配信サーバ20にアップロードされてもよいし、コンテンツ配信サーバ20に接続された図示されないマイクロフォンおよび動き検出装置によって生成されてもよい。後者の場合に、コンテンツ配信サーバ20は、これらマイクロフォンおよび動き検出装置に接続するための入出力I/Fと、これらからモーションデータおよび授業音声データを取得するための入力データ取得部とを含み得る。素材データのうちの仕様データの初期値は、例えば教育コンテンツの収録前に、教師または遠隔教育システムの管理者によって指定され得る。
プロセッサ210は、典型的にはCPUおよび/またはGPUであるが、マイコン、FPGA、DSP、またはその他の汎用または専用のプロセッサなどであってもよい。
メモリ220は、プロセッサ210が各処理を実現するために当該プロセッサ210によって実行されるプログラム、例えば、OS、ファームウェア、遠隔教育アプリケーション、など、および当該プロセッサ210によって使用されるデータ、例えば、素材データ、授業動画データ、などを一時的に格納するメモリを含んでいる。メモリは、かかるプログラム/データが展開されるワークエリアを有するRAMを含み得る。
プロセッサ210は、メモリ220に保存されたプログラムを実行することで、図3の受信データ取得部211、素材データ変更部212、および素材データ配信部213として機能し得る。また、メモリ220は、素材データ記憶部221を含み得る。
受信データ取得部211は、通信I/F 201から教育端末10または他の外部装置、例えば遠隔教育システムの管理者の端末、からの受信データを取得し、これを素材データ変更部212へ送る。受信データ取得部211は、仕様データを変更するための要求に相当する受信データ(ユーザ入力)を素材データ変更部212へ送る。他方、受信データ取得部211は、他の受信データ、例えば教師用の教育端末10からアップロードされたモーションデータおよび授業音声データ、生徒用の教育端末10からアップロードされた音声データ、などを素材データ記憶部221に書き込み得る。
素材データ変更部212は、受信データ取得部211から仕様データを変更するための要求に相当する受信データを受け取り、これに応じて素材データ記憶部221に保存されている仕様データを変更する。例えば、素材データ変更部212は、特定のオブジェクトの仕様データの差し替えを要求された場合には、素材データ記憶部221において対象となる仕様データを要求に含まれる仕様データに書き換え得る。また、素材データ変更部212は、新たなオブジェクトの仕様データの追加を要求された場合には、素材データ変更部212は要求に含まれる仕様データを、対象となる教育コンテンツの識別子に関連付けて素材データ記憶部221に書き込み得る。さらに、素材データ変更部212は、特定のオブジェクトの仕様データの削除を要求された場合には、素材データ変更部212は対象となるオブジェクトの仕様データを素材データ記憶部221から削除し得る。
前述のように、素材データ変更部212は、必ずしも全ての要求に応じる必要はない。すなわち、素材データ変更部212は、要求に条件付きで応じて仕様データを変更すればよい。
素材データ配信部213は、素材データ記憶部221から素材データを読み出し、これを通信I/F 201を介して教育端末10に配信する。なお、素材データ配信部213は、素材データ変更部212によって素材データが変更された後に、変更後の仕様データを教育端末10に配信することになる。
素材データ記憶部221は、素材データを保存する。素材データ記憶部221は、ある教育コンテンツを構成する仮想空間を再現するための素材データを例えば当該教育コンテンツを識別する識別子に関連付けて保存し得る。また、素材データ記憶部221は、各オブジェクトの仕様データおよびモーションデータを当該オブジェクトを識別する識別子に関連付けて保存し得る。
素材データは、例えば、受信データ取得部211または図示されない入力データ取得部によって素材データ記憶部221に書き込まれ得る。また、素材データは、素材データ変更部212によって書き換えられ得る。素材データ記憶部221に保存された素材データは、素材データ配信部213によって読み出される。
以下、図7を用いて教育端末10の動作を説明する。図7は、教育端末10のユーザがある教育コンテンツの視聴を開始してから終了するまでの当該教育端末10の動作例を表す。
図7の動作が開始すると処理はステップS301へ進む。ステップS301において、受信データ取得部111は、通信I/F 101によって受信された素材データを取得し、素材データ記憶部121に保存する。
ステップS301において受信される素材データは、例えば、教育端末10がこれから再生する教育コンテンツの所定期間分の再生時間に関連付けられるモーションデータおよび授業音声データを含み得る。さらに、この素材データは、初期の仕様データ、または変更された仕様データを含んでもよい。
次に、レンダラー112は、ステップS301において受信された素材データのうちの仕様データおよびモーションデータに基づいて、授業動画データをレンダリングする(ステップS302)。
そして、コンテンツ再生部113は、ステップS302においてレンダリングされた授業動画データを、ステップS301において受信された素材データのうちの授業音声データとともに再生する(ステップS303)。
他方、入力データ取得部114が仕様データの変更を変更するための要求に相当する入力データを入出力I/F 102を介して取得すると、処理はステップS305へ進む(ステップS304)。ステップS305において、入力データ報告部115は、仕様データの変更の要求に相当する入力データをコンテンツ配信サーバ20に報告する。
なお、図7の例では、ステップS304およびステップS305は、ステップS303の後に実行されるように描かれているが、これは必須ではない。すなわち、パイプライン式に実行され得る素材データの受信〜教育コンテンツの再生(ステップS301乃至ステップS303)とは独立に、仕様データを変更するための要求の取得をトリガとして当該要求のコンテンツ配信サーバ20への報告が行われてよい。
以下、図8を用いてコンテンツ配信サーバ20の動作を説明する。図8は、教育端末10のユーザがある教育コンテンツの視聴を開始してから終了するまでのコンテンツ配信サーバ20の動作例を表す。
図8の動作が開始すると処理はステップS401へ進む。ステップS401において、素材データ配信部213は、素材データ記憶部221から素材データを読み出し、これを通信I/F 201を介して教育端末10に配信する。
ステップS401において配信される素材データは、例えば、教育端末10がこれから再生する教育コンテンツの所定期間分の再生時間に関連付けられるモーションデータおよび授業音声データを含み得る。さらに、この素材データは、初期の仕様データ、または変更された仕様データを含んでもよい。
コンテンツ配信サーバ20は、基本的にこのステップS401を繰り返し実行する。ただし、通信I/F 201が仕様データを変更するための要求を教育端末10から受信すると、処理はステップS403へ進む(ステップS402)。
ステップS403において、受信データ取得部211は、通信I/F 201によって受信された仕様データを変更するための要求を取得する。次に、素材データ変更部212は、ステップS403において取得された要求に応じて、素材データ記憶部221に保存されている仕様データを変更する(ステップS404)。
そして、ステップS404以後に実行されるステップS401において、素材データ配信部213は、変更後の仕様データを含む素材データを教育端末10に配信することになる。
以上説明したように、第1の実施形態に係る教育端末は、教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す仕様データの少なくとも一部を変更するための要求に相当する入力データを取得し、これを本実施形態に係るコンテンツ配信サーバへ送信する。このコンテンツ配信サーバは、(条件付きで)この要求に応じて仕様データを変更し、変更後の仕様データを配信する。故に、これら教育端末およびコンテンツ配信サーバによれば、生徒、教師または遠隔教育システムの管理者は、教育コンテンツに対して、その収録中または収録後に生じた事象、例えば生徒のニーズや反応、世間の流行、プロモーションなど、に合わせた手直しをし、その興趣性を高めることができる。すなわち、生徒の受講意欲を促進することが可能となる。
従来の収録済みの教育コンテンツは、生徒から単なる録画番組と同視されてしまうことがある。この場合に、生徒にとって、かかる教育用コンテンツの視聴はビデオ再生やテレビ放送で教育を受けるのと何ら違いがないため、臨場感、緊迫感、参加意識、および学習意欲が沸きにくい。他方、本実施形態によれば、例えば、教育コンテンツを視聴した生徒の答案や成績表が教室に貼られたり、仮想空間の教室内で授業を受講する生徒アバターの人数が増えたり、教師のアバターを生徒の知らないキャラクターではなく生徒が親しみを持てるアバターに変更可能であったり、教室内に居る他の生徒と教師との質疑応答などのやり取りを視聴可能であったりする。故に、この実施形態によれば、収録中の教育コンテンツはもとより収録済みの教育コンテンツを配信する場合であっても、生徒はあたかも生の授業に参加しているかのような感覚を得ることができ、臨場感、緊迫感、参加意識、および学習意欲が沸きやすい、という格別な効果がある。
(第2の実施形態)
前述の第1の実施形態では、教育コンテンツの手直しを可能とすることで当該教育コンテンツの興趣性を高めている。他方、教育コンテンツの一部、例えば教材オブジェクトの仕様データおよびモーションデータ、を流用することで、同テーマの新たな教育コンテンツを低コストに作成することが可能である。
図9に例示されるように、第2の実施形態に係るコンテンツ作成装置50は、入出力I/F 501と、プロセッサ510と、メモリ520とを含む。
入出力I/F 501は、プロセッサ510と外部装置とのデータの入出力に使用するインタフェースの端子(ポート)である。入出力I/F 501は、例えば、タッチスクリーン、キーボード、マウス、テンキー、マイクロフォン、動き検出装置、などの入力装置とプロセッサ510との間のデータのやり取りに使用され得る。同様に、入出力I/F 501は、例えば、ディスプレイ(タッチスクリーンを含み得る)、スピーカなどの出力装置とプロセッサ510との間のデータのやり取りに使用され得る。
例えば、入出力I/F 501は、再生された参照用コンテンツをプロセッサ510から受け取り、これらをディスプレイ(およびスピーカ)に出力する。また、入出力I/F 501は、図示されない動き検出装置から、上記参照用コンテンツの再生中のユーザの動きに基づくモーションデータを受け取り、これをプロセッサ510へ送る。入出力I/F 501は、図示されないマイクロフォンから、上記参照用コンテンツの再生中のユーザの発声に基づく音声データを受け取り、これをプロセッサ510へ送る。
プロセッサ510は、典型的にはCPUおよび/またはGPUであるが、マイコン、FPGA、DSP、またはその他の汎用または専用のプロセッサなどであってもよい。
メモリ520は、プロセッサ510が各処理を実現するために当該プロセッサ510によって実行されるプログラム、例えば、OS、ファームウェア、コンテンツ作成アプリケーション、遠隔教育アプリケーション、など、および当該プロセッサ510によって使用されるデータ、例えば、素材データ、などを一時的に格納するメモリを含んでいる。メモリは、かかるプログラム/データが展開されるワークエリアを有するRAMを含み得る。
プロセッサ510は、メモリ520に保存されたプログラムを実行することで、図9のレンダラー511、コンテンツ再生部512、入力データ取得部513、および素材データ生成部514として機能し得る。また、メモリ520は、素材データ記憶部521を含み得る。
レンダラー511は、素材データ記憶部521に保存された素材データのうち、授業内容の提示に関わるオブジェクト、例えば教材オブジェクト、の仕様を示す仕様データおよびこのオブジェクトの動きを示すモーションデータを読み出す。ここで、このオブジェクトの仕様データおよびモーションデータは、例えばベースとなる既存の教育コンテンツに関わる素材データの一部であってもよいし、かかるベースとなる既存の教育コンテンツが存在しない場合であっても複数の同テーマの教育コンテンツ間で流用するために作成されてもよい。なお、参照用コンテンツは予めレンダリングされていてもよく、この場合にコンテンツ作成装置50はレンダラー511を必要としない。
そして、レンダラー511は、これら仕様データおよびモーションデータに基づいて、少なくとも授業内容の提示に関わるオブジェクトの外観、動き、などを再現し、これを基準となる視点(仮想カメラ)から撮影した参照用コンテンツ(参照用動画データと呼ぶこともできる)を生成する。この参照用コンテンツは、流用する授業内容の展開をユーザ(典型的には教師)がリアルタイムに把握するための台本に相当する。ユーザは、この参照用コンテンツを確認しながら、身振り手振りを交えて授業を行うことになる。レンダラー511は、生成した参照用コンテンツをコンテンツ再生部512へ送る。
コンテンツ再生部512は、レンダラー511から参照用コンテンツを受け取る。そして、コンテンツ再生部512は、参照用コンテンツを再生し、これを入出力I/F 501を介して出力装置に出力させる。なお、参照用コンテンツは、音声を含んでいてもよい。この場合に、コンテンツ再生部512は、素材データ記憶部521に保存された(授業)音声データを読み出してもよい。また、参照用コンテンツは、ベースとなる既存の教育コンテンツそのものであってもよい。
入力データ取得部513は、入出力I/F 501から入力データを取得し、この少なくとも一部を素材データ生成部514へ送る。入力データ取得部513は、モーションデータおよび動きデータに相当する入力データを素材データ生成部514へ送る。
素材データ生成部514は、入力データ取得部513からモーションデータおよび音声データを受け取り、これらに基づいて作成中の新たな教育コンテンツの素材データを生成する。具体的には、素材データ生成部514は、モーションデータおよび音声データに、その生成、入力または受け取り時における参照用コンテンツの再生時間を付与する。そして、素材データ生成部514は、これらのモーションデータおよび音声データを、この新たな教育コンテンツの識別子に関連付けて素材データ記憶部521に保存する。
さらに、素材データ生成部514は、ユーザのアバターの仕様を示す仕様データ、および参照用コンテンツの元となる素材データ(例えば、教材オブジェクトの仕様データおよびモーションデータ)を、作成中の新たな教育コンテンツの識別子に関連付けて素材データ記憶部521に保存する。なお、ユーザのアバターの仕様を示す仕様データは、例えば、当該ユーザ自身の入力に基づいて定められてもよいし、遠隔教育システムの管理者によって指定されてもよい。
要するに、素材データ生成部514は、参照用コンテンツの元となる素材データ、すなわち流用された素材データと、参照用コンテンツの再生中のユーザの動きおよび音声を示すモーションデータおよび音声データと、ユーザのアバターの仕様を示す仕様データとを、新たな教育コンテンツの素材データとして素材データ記憶部521に保存することになる。このように作成された教育コンテンツでは、授業内容の展開は参照用コンテンツと同じであるが、教師は教師アバターの動きや授業音声を通じて自らの個性を発揮することができる。
素材データ記憶部521は、素材データを保存する。ここで、素材データは、オブジェクトの仕様データおよびモーションデータ、ならびに授業音声データを含む。素材データ記憶部521は、ある教育コンテンツを構成する仮想空間を再現するための素材データを例えば当該教育コンテンツを識別する識別子に関連付けて保存し得る。また、素材データ記憶部521は、各オブジェクトの仕様データおよびモーションデータを当該オブジェクトを識別する識別子に関連付けて保存し得る。
具体的には、新たな教育コンテンツが作成される前は、素材データ記憶部521には、少なくとも参照用コンテンツの元となる仕様データおよびモーションデータが保存される。これらの仕様データおよびモーションデータは、レンダラー511によって読み出される。そして、この教育コンテンツの作成中に、素材データ記憶部521には、ユーザの音声データおよびモーションデータが逐次書き込まれる。ユーザの音声データはこの教育コンテンツの授業音声データとして用いられ、ユーザのモーションデータはこの教育コンテンツの教師アバターのモーションデータとして用いられる。
以下、図10を用いてコンテンツ作成装置50の動作を説明する。図10は、コンテンツ作成装置50がある参照用コンテンツを流用して新たな教育コンテンツの作成を開始してから終了するまでの当該コンテンツ作成装置50の動作例を表す。
図10の動作が開始すると処理はステップS601へ進む。ステップS601において、レンダラー511は、素材データ記憶部521から授業内容の提示に関わるオブジェクトの仕様データおよびモーションデータを読み出し、これらに基づいて参照用コンテンツをレンダリングする。
ステップS601において読み出される素材データは、例えば、コンテンツ作成装置50がこれから再生する参照用コンテンツの所定期間分の再生時間に関連付けられるモーションデータを含み得る。さらに、この素材データは、仕様データを含んでもよい。
そして、コンテンツ再生部512は、ステップS601においてレンダリングされた参照用コンテンツを再生する(ステップS602)。
他方、入力データ取得部513は、参照用コンテンツの再生中のユーザの動きおよび発声に基づくモーションデータおよび音声データを取得する(ステップS603)。そして、素材データ生成部514は、ステップS603において取得されたモーションデータおよび音声データに基づいて新たな教育コンテンツの素材データを生成し、素材データ記憶部521に保存する(ステップS604)。
なお、図10の例では、ステップS603およびステップS604は、ステップS602の後に実行されるように描かれているが、これは必須ではない。すなわち、パイプライン式に実行され得る参照用コンテンツのレンダリング〜再生(ステップS601乃至ステップS602)とは独立に、取得されたモーションデータおよび音声データに基づいて新たな教育コンテンツの素材データが逐次追加されてよい。
以上説明したように、第2の実施形態に係るコンテンツ作成装置は、流用する授業内容の展開を教師がリアルタイムに参照するための台本に相当する参照用コンテンツを再生し、その間の教師の動きおよび発声に基づいて新たな教育コンテンツの素材データを生成する。故に、このコンテンツ作成装置によれば、授業内容の展開は同じであるが、教師アバターの動きや授業音声データが異なる同テーマの教育コンテンツを容易に提供することが可能となる。故に、生徒は、自らの受講意欲が掻き立てられる教育コンテンツを選択して視聴できる。
なお、生徒は自らの受講する教育コンテンツを選定するにあたって、当該コンテンツから受ける感覚的要素、例えば視覚的要素や聴覚的要素を重視することがあり得る。故に、授業内容の展開が同じであっても、教師の見た目、動きや話し方の異なる教育コンテンツは、その人気も全く異なる可能性がある。故に、本実施形態のように、授業内容の展開を流用して、同テーマの教育コンテンツを容易に提供可能とすることには意義がある。
このコンテンツ作成装置は、新たな教育コンテンツの作成中に当該教育コンテンツをコンテンツ配信サーバにアップロードしてもよい。これにより、新たな教育コンテンツをリアルタイムに配信することができる。他方、このコンテンツ作成装置は、新たな教育コンテンツを作成し終えてから当該教育コンテンツをコンテンツ配信サーバにアップロードしてもよい。或いは、このコンテンツ作成装置は、コンテンツ配信サーバに組み込まれてもよい。
なお、第2の実施形態は、前述の第1の実施形態または後述する第3の実施形態と組み合わせることもできる。すなわち、本実施形態に係るコンテンツ作成装置によって作成された教育コンテンツに関して、第1の実施形態または第3の実施形態において説明されるような仕様データの変更を可能としてもよい。
(第3の実施形態)
前述の第1の実施形態では、仕様データを変更するための要求に応じて、コンテンツ配信サーバ20の素材データ記憶部521に保存されている仕様データが変更される。すなわち、仕様データの変更は、同一の教育コンテンツを視聴する生徒全員に影響する。従って、仕様データの変更をこのようにグローバルに反映する場合には、当該変更を許容するための条件を厳格化せざるを得ない可能性がある。
他方、仕様データの変更を要求した生徒に限って当該変更を反映した教育コンテンツを視聴させることも可能である。仕様データの変更をこのようにローカルに反映すれば、その影響力は限定的であるので、当該変更を許容するための条件を緩和しやすい。これにより、生徒は、自らの好みに合わせてアバターを含むオブジェクトを自由にカスタマイズして授業に臨むことができる。
第3の実施形態に係る教育端末70は、図11に例示されるように、通信I/F 701と、入出力I/F 702と、プロセッサ710と、メモリ720とを含む。
通信I/F 701、入出力I/F 702、プロセッサ710およびメモリ720は、図1の通信I/F 101、入出力I/F 102、プロセッサ110およびメモリ120とそれぞれ同一または類似のハードウェアであり得る。
プロセッサ710は、メモリ720に保存されたプログラムを実行することで、図11の受信データ取得部711、レンダラー712、コンテンツ再生部713、入力データ取得部714、および素材データ変更部715として機能し得る。また、メモリ720は、素材データ記憶部721を含み得る。
ここで、受信データ取得部711、レンダラー712、およびコンテンツ再生部713は、図1の受信データ取得部111、レンダラー112、およびコンテンツ再生部113とそれぞれ同一または類似であり得る。
入力データ取得部714は、入出力I/F 702から入力データを取得し、この少なくとも一部を素材データ変更部715へ送る。入力データ取得部714は、仕様データを変更するための要求に相当する入力データを素材データ変更部715へ送る。また、入力データ取得部714は、例えば、教育コンテンツの再生制御に関する要求、を例えばレンダラー712および/またはコンテンツ再生部713へ送り得る。その他、入力データ取得部714は、コンテンツ配信サーバまたはコメントサーバへの報告対象となる入力データ、例えば音声データまたはコメントデータを図示されない入力データ報告部へ送ってもよい。この場合に、入力データ報告部は、かかるデータを通信I/F 701を介してコンテンツ配信サーバまたはコメントサーバに報告してもよい。
ここで、第3の実施形態に係るコンテンツ配信サーバは、教育端末70から仕様データを変更するための要求を受信しないので、前述のコンテンツ配信サーバ20から、当該要求に関わる機能部、例えば素材データ変更部212、を削除した構成であり得る。
素材データ変更部715は、入力データ取得部714から仕様データを変更するための要求に相当する入力データを受け取り、これに応じて素材データ記憶部721に保存されている仕様データを変更する。例えば、素材データ変更部715は、特定のオブジェクトの仕様データの差し替えを要求された場合には、素材データ記憶部721において対象となる仕様データを要求に含まれる仕様データに書き換え得る。また、素材データ変更部715は、新たなオブジェクトの仕様データの追加を要求された場合には、素材データ変更部715は要求に含まれる仕様データを、対象となる教育コンテンツの識別子に関連付けて素材データ記憶部721に書き込み得る。さらに、素材データ変更部715は、特定のオブジェクトの仕様データの削除を要求された場合には、素材データ変更部715は対象となるオブジェクトの仕様データを素材データ記憶部721から削除し得る。
素材データ記憶部721は、素材データを保存する。素材データ記憶部721は、ある教育コンテンツを構成する仮想空間を再現するための素材データを例えば当該教育コンテンツを識別する識別子に関連付けて保存し得る。また、素材データ記憶部721は、各オブジェクトの仕様データおよびモーションデータを当該オブジェクトを識別する識別子に関連付けて保存し得る。
素材データは、受信データ取得部711によって素材データ記憶部721に書き込まれる。また、素材データは、素材データ変更部715によって書き換えられ得る。素材データ記憶部721に保存された素材データのうちオブジェクトの仕様データおよびモーションデータは、レンダラー712によって読み出される。素材データ記憶部721に保存された素材データのうち授業音声データは、コンテンツ再生部713によって読み出される。
素材データ変更部715によるオブジェクトの仕様データの変更は、当該素材データ変更部715を含む教育端末70によって再生される教育コンテンツに限って適用される。他方、他の教育端末70は、コンテンツ配信サーバから配信される素材データに基づく教育コンテンツ、または当該素材データを当該教育端末70内部で変更した素材データに基づく教育コンテンツを再生できる。
変更後の仕様データは、コンテンツ配信サーバから受信されるモーションデータとともに、素材データ記憶部721に保存される。なお、ここで受信されるモーションデータは、仕様データの変更の有無に関わらず同一であり得る。素材データ記憶部721に保存された変更後の仕様データおよびモーションデータは、レンダラー712によって読み出され、授業動画データとしてレンダリングされる。これによって、生徒は、自らの教育端末70によって再生される教育コンテンツにおいて自由に、例えば、教師または生徒のアバターの外観および/またはボイスキャラクターを変更したり、新たなオブジェクト(アバターを含み得る)を追加したり、オブジェクトの発生可能な効果音および/または音楽を変更したりすることができる。
以下、図12を用いて教育端末70の動作を説明する。図12は、教育端末70のユーザがある教育コンテンツの視聴を開始してから終了するまでの当該教育端末70の動作例を表す。
図12の動作が開始すると処理はステップS801へ進む。ステップS801において、受信データ取得部711は、通信I/F 701によって受信された素材データを取得し、素材データ記憶部721に保存する。
ステップS801において受信される素材データは、例えば、教育端末70がこれから再生する教育コンテンツの所定期間分の再生時間に関連付けられるモーションデータおよび授業音声データを含み得る。さらに、この素材データは、初期の仕様データを含んでもよい。
次に、レンダラー712は、ステップS801において受信された素材データのうちの仕様データおよびモーションデータに基づいて、授業動画データをレンダリングする(ステップS802)。
そして、コンテンツ再生部713は、ステップS802においてレンダリングされた授業動画データを、ステップS801において受信された素材データのうちの授業音声データとともに再生する(ステップS803)。
他方、入力データ取得部714が仕様データの変更を変更するための要求に相当する入力データを入出力I/F 702を介して取得すると、処理はステップS805へ進む(ステップS804)。ステップS805において、素材データ変更部715は、ステップS804において取得された要求に応じて、素材データ記憶部721に保存されている仕様データを変更する。そして、ステップS805以後に実行されるステップS802において、レンダラー712は、変更後の仕様データを含む素材データに基づいて授業動画データをレンダリングすることになる。
なお、図12の例では、ステップS804およびステップS805は、ステップS803の後に実行されるように描かれているが、これは必須ではない。すなわち、パイプライン式に実行され得る素材データの受信〜教育コンテンツの再生(ステップS801乃至ステップS803)とは独立に、仕様データを変更するための要求の取得をトリガとして当該要求に応じた仕様データの変更が行われてよい。
以上説明したように、第3の実施形態に係る教育端末は、教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す仕様データの少なくとも一部を変更するための要求に相当する入力データを取得し、これに応じて当該教育端末に保存されている仕様データを変更する。故に、この教育端末によれば、生徒は、教育コンテンツを自らの好みに合わせて自由に手直しをし、その興趣性を高めこることができる。すなわち、生徒は、自らの受講意欲が高まるように教育コンテンツをカスタマイズして視聴することが可能となる。
なお、第1の実施形態と第3の実施形態とを組み合わせることも可能である。一例として、特定のオブジェクトの仕様データを差し替えまたは削除する要求はローカルに反映され、新たなオブジェクトの仕様データを追加する要求はグローバルに反映されてもよい。
(変形例)
なお、前述の第1の実施形態および第3の実施形態では、教育端末が授業動画データのレンダリングを行っている。しかしながら、これは例示に過ぎない。コンテンツ配信サーバが授業動画データのレンダリングを行ってもよい。この場合に、教育端末は、仕様データおよびモーションデータの代わりに授業動画データをコンテンツ配信サーバから受信し、保存することになるので、レンダラーを必要としない。他方、コンテンツ配信サーバは、仕様データおよびモーションデータの代わりに授業動画データを教育端末へ送信するので、レンダラーを必要とする。
上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。
上述の実施形態では、いくつかの機能部を説明したが、これらは各機能部の実装の一例に過ぎない。例えば、1つの装置に実装されると説明された複数の機能部が複数の別々の装置に亘って実装されることもあり得るし、逆に複数の別々の装置に亘って実装されると説明された機能部が1つの装置に実装されることもあり得る。
上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。
上記各実施形態の処理の少なくとも一部は、例えば汎用のコンピュータに搭載されたプロセッサを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD−ROM、CD−R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。
10,70・・・教育端末
20・・・コンテンツ配信サーバ
31,33・・・教師アバター
32・・・黒板オブジェクト
34,35,36・・・生徒アバター
50・・・コンテンツ作成装置
101,201,701・・・通信I/F
102,501,702・・・入出力I/F
110,210,510・・・プロセッサ
111,211,711・・・受信データ取得部
112,511,712・・・レンダラー
113,512,713・・・コンテンツ再生部
114,513,714・・・入力データ取得部
115・・・入力データ報告部
120,220,520・・・メモリ
121,221,521・・・素材データ記憶部
212,715・・・素材データ変更部
213・・・素材データ配信部
514・・・素材データ生成部

Claims (11)

  1. 遠隔授業用の教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データと、前記複数のオブジェクトの動きを示すモーションデータとを教育端末へ配信する素材データ配信部と、
    外部装置から受信される、前記第1の仕様データの少なくとも一部を変更するための要求を取得する受信データ取得部と、
    前記第1の仕様データを前記要求に応じて前記第1の仕様データとは異なる第2の仕様データに変更する素材データ変更部と
    を具備し、
    前記素材データ配信部は、前記第1の仕様データが前記第2の仕様データに変更された後に、前記第2の仕様データを前記教育端末に配信する、
    コンテンツ配信サーバ。
  2. 前記要求は、前記複数のオブジェクトに含まれるアバターの外観を差し替える要求を含む、請求項1に記載のコンテンツ配信サーバ。
  3. 前記要求は、前記複数のオブジェクトに含まれないオブジェクトの仕様データを追加する要求を含む、請求項1または請求項2に記載のコンテンツ配信サーバ。
  4. 前記第2の仕様データの示す教室オブジェクトのサイズおよび外観の少なくとも一方は、前記第2の仕様データが規定される複数のオブジェクトに含まれるアバターの数に依存する、請求項3に記載のコンテンツ配信サーバ。
  5. 遠隔授業用の教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データの少なくとも一部を変更するための要求に相当する入力データを取得する入力データ取得部と、
    前記第1の仕様データに対して前記要求に基づく変更がなされた第2の仕様データと前記複数のオブジェクトの動きを示すモーションデータとに基づいて再現される前記仮想空間を撮影した授業動画データを授業音声データとともに再生する再生部と
    を具備する、教育端末。
  6. 前記入力データをコンテンツ配信サーバに報告する入力データ報告部と、
    前記コンテンツ配信サーバから受信される、前記第2の仕様データと前記モーションデータとを取得する受信データ取得部と、
    前記第2の仕様データと前記モーションデータとに基づいて前記授業動画データをレンダリングするレンダラーと
    をさらに具備する、請求項5に記載の教育端末。
  7. 前記入力データをコンテンツ配信サーバに報告する入力データ報告部と、
    前記コンテンツ配信サーバから受信される、前記第2の仕様データと前記モーションデータとに基づく前記授業動画データを取得する受信データ取得部と
    をさらに具備する、請求項5に記載の教育端末。
  8. 前記第1の仕様データを前記要求に応じて前記第2の仕様データへ変更する素材データ変更部と、
    前記第2の仕様データと前記モーションデータとに基づいて前記授業動画データをレンダリングするレンダラーと
    をさらに具備する、請求項5に記載の教育端末。
  9. 授業内容の提示に関わるオブジェクトの仕様を示す第1の仕様データと前記オブジェクトの動きを示す第1のモーションデータとに基づく参照用コンテンツを再生する再生部と、
    前記参照用コンテンツの再生中のユーザの動きに基づく第2のモーションデータと、前記参照用コンテンツの再生中のユーザの発声に基づく音声データとを取得する入力データ取得部と、
    前記第1の仕様データと、前記ユーザに対応するアバターの仕様を示す第2の仕様データと、前記第1のモーションデータと、前記第2のモーションデータと、前記音声データとに基づいて、遠隔授業用の教育コンテンツを構成する仮想空間を再現するために用いられる素材データを生成する素材データ生成部と
    を具備する、コンテンツ作成装置。
  10. コンピュータを、
    遠隔授業用の教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データと、前記複数のオブジェクトの動きを示すモーションデータとを教育端末へ配信する手段、
    外部装置から受信される、前記第1の仕様データの少なくとも一部を変更するための要求を取得する手段、
    前記第1の仕様データを前記要求に応じて前記第1の仕様データとは異なる第2の仕様データに変更する手段
    として機能させ、
    前記配信する手段部は、前記第1の仕様データが前記第2の仕様データに変更された後に、前記第2の仕様データを前記教育端末に配信する、
    コンテンツ配信プログラム。
  11. コンピュータを、
    遠隔授業用の教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データの少なくとも一部を変更するための要求に相当する入力データを取得する手段、
    前記第1の仕様データに対して前記要求に基づく変更がなされた第2の仕様データと前記複数のオブジェクトの動きを示すモーションデータとに基づいて再現される前記仮想空間を撮影した授業動画データを授業音声データとともに再生する手段
    として機能させる、教育プログラム。
JP2020065327A 2019-06-27 2020-03-31 コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム Active JP7368298B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020065327A JP7368298B2 (ja) 2019-06-27 2020-03-31 コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム
JP2023177029A JP2023181234A (ja) 2019-06-27 2023-10-12 コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019120240A JP6766228B1 (ja) 2019-06-27 2019-06-27 遠隔教育システム
JP2020065327A JP7368298B2 (ja) 2019-06-27 2020-03-31 コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019120240A Division JP6766228B1 (ja) 2019-06-27 2019-06-27 遠隔教育システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023177029A Division JP2023181234A (ja) 2019-06-27 2023-10-12 コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム

Publications (3)

Publication Number Publication Date
JP2021006894A true JP2021006894A (ja) 2021-01-21
JP2021006894A5 JP2021006894A5 (ja) 2022-07-05
JP7368298B2 JP7368298B2 (ja) 2023-10-24

Family

ID=88418468

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020065327A Active JP7368298B2 (ja) 2019-06-27 2020-03-31 コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム
JP2023177029A Pending JP2023181234A (ja) 2019-06-27 2023-10-12 コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023177029A Pending JP2023181234A (ja) 2019-06-27 2023-10-12 コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム

Country Status (1)

Country Link
JP (2) JP7368298B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7072706B1 (ja) * 2021-06-22 2022-05-20 ヤフー株式会社 表示制御装置、表示制御方法および表示制御プログラム
WO2024048425A1 (ja) * 2022-08-31 2024-03-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 仮想空間制御方法、仮想空間制御装置及び仮想空間制御システム
JP7495699B1 (ja) 2023-12-01 2024-06-05 株式会社フォーサイト 学習支援システムおよび学習支援方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321819A (ja) * 2005-06-13 2005-11-17 Digital Knowledge Co Ltd パソコン通信学習システム及びパソコン通信学習システム用の学習データを記録した記録媒体
JP2009145883A (ja) * 2007-11-20 2009-07-02 Rissho Univ 学習システム、記憶媒体及び学習方法
JP2014102664A (ja) * 2012-11-20 2014-06-05 Talkie System Co Ltd コンテンツ作成・記録・再生システム
JP2016194681A (ja) * 2015-03-31 2016-11-17 株式会社テレメディカ フィジカルアセスメント教育サービス提供システム及びフィジカルアセスメント教育サービス提供方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321819A (ja) * 2005-06-13 2005-11-17 Digital Knowledge Co Ltd パソコン通信学習システム及びパソコン通信学習システム用の学習データを記録した記録媒体
JP2009145883A (ja) * 2007-11-20 2009-07-02 Rissho Univ 学習システム、記憶媒体及び学習方法
JP2014102664A (ja) * 2012-11-20 2014-06-05 Talkie System Co Ltd コンテンツ作成・記録・再生システム
JP2016194681A (ja) * 2015-03-31 2016-11-17 株式会社テレメディカ フィジカルアセスメント教育サービス提供システム及びフィジカルアセスメント教育サービス提供方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7072706B1 (ja) * 2021-06-22 2022-05-20 ヤフー株式会社 表示制御装置、表示制御方法および表示制御プログラム
WO2024048425A1 (ja) * 2022-08-31 2024-03-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 仮想空間制御方法、仮想空間制御装置及び仮想空間制御システム
JP7495699B1 (ja) 2023-12-01 2024-06-05 株式会社フォーサイト 学習支援システムおよび学習支援方法

Also Published As

Publication number Publication date
JP7368298B2 (ja) 2023-10-24
JP2023181234A (ja) 2023-12-21

Similar Documents

Publication Publication Date Title
Hartsell et al. Video streaming in online learning
JP7368298B2 (ja) コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム
CN114402276A (zh) 授课系统、视听终端、信息处理方法以及程序
JP6295494B2 (ja) 端末装置、コメント配信システム、及びプログラム
JP7408506B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP6766228B1 (ja) 遠隔教育システム
JP6727388B1 (ja) 授業システム、視聴端末、情報処理方法およびプログラム
JP2021086145A (ja) 授業システム、視聴端末、情報処理方法およびプログラム
JP2005524867A (ja) 低ビットレートの分散型スライドショウ・プレゼンテーションを提供するシステムおよび方法
JP2004061783A (ja) 語学教育装置
JP7465737B2 (ja) 授業システム、視聴端末、情報処理方法及びプログラム
Russell Positive aspects of teaching online during COVID-19: Zoom backgrounds, MannyCam, and increased student engagement
JP7465736B2 (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
JP6864041B2 (ja) 情報記憶方法および情報記憶システム
Richards The unofficial guide to open broadcaster software
JP2021006890A (ja) 授業コンテンツの配信方法、授業コンテンツの配信システム、端末及びプログラム
JP6733027B1 (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
WO2024142674A1 (ja) コンテンツ生成装置、コンテンツ生成方法、プログラム、および記録媒体
Remans User experience study of 360 music videos on computer monitor and virtual reality goggles
US20240015368A1 (en) Distribution system, distribution method, and non-transitory computer-readable recording medium
JP2009050432A (ja) エクササイズ映像送信装置、およびエクササイズ映像撮影装置
Humphries Beyond the Frame
KR20160011156A (ko) 온라인 독서 동영상 서비스 제공방법 및 시스템
JP2024092927A (ja) コンテンツ生成装置、コンテンツ生成方法、プログラム、および記録媒体
Eriksson THE BAREFOOT LECTURER-RECORDING LECTURES IN VIRTUAL REALITY

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220627

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231012

R150 Certificate of patent or registration of utility model

Ref document number: 7368298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150