JP7367632B2 - レッスンシステム、レッスン方法、及びプログラム - Google Patents

レッスンシステム、レッスン方法、及びプログラム Download PDF

Info

Publication number
JP7367632B2
JP7367632B2 JP2020131139A JP2020131139A JP7367632B2 JP 7367632 B2 JP7367632 B2 JP 7367632B2 JP 2020131139 A JP2020131139 A JP 2020131139A JP 2020131139 A JP2020131139 A JP 2020131139A JP 7367632 B2 JP7367632 B2 JP 7367632B2
Authority
JP
Japan
Prior art keywords
video
lesson
instructor
student
experience
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020131139A
Other languages
English (en)
Other versions
JP2022027250A (ja
Inventor
航 加来
海妍 李
達朗 堀
生聖 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020131139A priority Critical patent/JP7367632B2/ja
Priority to EP21188218.8A priority patent/EP3945515A1/en
Priority to US17/388,766 priority patent/US20220036753A1/en
Priority to CN202110869782.2A priority patent/CN114066686A/zh
Publication of JP2022027250A publication Critical patent/JP2022027250A/ja
Application granted granted Critical
Publication of JP7367632B2 publication Critical patent/JP7367632B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、レッスンシステム、レッスン方法、及びプログラムに関する。
特許文献1には、受講者がネットワークを通じてレッスンを受講することができる語学レッスンシステムを開示している。特許文献1では、投稿者端末が投稿した語学体験の再現を含む記事を閲覧することができる。
特開2019-95586号公報
このようなシステムでは、学習効果をより高めたいという要望がある。
本発明は、以上の背景に鑑みなされたものであり、学習効果の高いレッスンシステム、レッスン方法、及びプログラムを提供することを目的とする。
本発明の一実施態様に係るレッスンシステムは、体験者の体験に基づく体験映像、及び疑似的に生成された体験映像、の少なくとも何れかの体験映像を記憶した記憶部から前記少なくとも何れかの体験映像を取得する映像取得部と、受講者の動作に関するセンシング情報を取得する動作情報取得部と、前記受講者の音声に関するセンシング情報を取得する音声情報取得部と、前記体験映像に講師の講師画像を合成したレッスン映像を生成する再現処理部と、映像を表示する表示部に前記受講者に対する前記レッスン映像を表示させる出力信号を出力する映像出力部と、音声を出力するスピーカに前記レッスン映像に対応する音声を出力させる出力信号を出力する音声出力部と、前記動作情報取得部及び前記音声情報取得部の少なくとも一方のセンシング情報に応じて、前記映像出力部及び前記音声出力部のそれぞれの出力を制御することによって、前記表示部に表示されるレッスン映像の進行を制御する進行制御部と、を備えている。
上記のレッスンシステムは、前記受講者の遠隔地にいる前記講師を撮像する講師用カメラをさらに備え、前記表示部は前記講師用カメラで撮像された前記講師画像を前記体験映像に重畳したレッスン映像を表示してもよい。
上記のレッスンシステムにおいて、前記講師画像が前記講師のアバター画像であってもよい。
上記のレッスンシステムにおいて、前記表示部が、受講者がいる受講室の壁面にレッスン映像を投影するプロジェクタを有していていてもよい。
上記のレッスンシステムは、前記講師の音声を検出する講師用マイクを備え、前記スピーカが、前記レッスン映像の映像音声とともに、前記講師の音声を出力するようにしてもよい。
本実施形態に係るレッスン方法は、 体験者の体験に基づく体験映像、及び疑似的に生成された体験映像、の少なくとも何れかの体験映像を記憶した映像記憶部から前記少なくとも何れかの体験映像を取得するステップと、
受講者の動作に関するセンシング情報を取得するステップと、前記受講者の音声に関するセンシング情報を取得するステップと、前記体験映像に講師の講師画像を合成したレッスン映像を生成するステップと、映像を表示する表示部に前記受講者に対する前記レッスン映像を表示させる出力信号を出力するステップと、音声を出力するスピーカに前記レッスン映像に対応する音声を出力させる出力信号を出力するステップと、前記動作に関するセンシング情報及び前記音声に関するセンシング情報の少なくとも一方に応じて、前記映像の出力信号及び前記音声の出力信号の出力を制御することによって、前記表示部に表示されるレッスン映像の進行を制御するステップと、を備えている。
上記のレッスンシステムでは、前記受講者の遠隔地にいる前記講師を撮像する講師用カメラが設けられており、前記表示部は前記講師用カメラで撮像された前記講師画像を前記体験映像に重畳したレッスン映像を表示するようにしてもよい。
上記のレッスンシステムでは、前記講師画像が前記講師のアバター画像であってもよい。
上記のレッスンシステムでは、前記表示部が、受講者がいる受講室の壁面にレッスン映像を投影するプロジェクタを有していていてもよい。
上記のレッスンシステムでは、前記講師の音声を検出する講師用マイクが設けられており、前記スピーカが、前記レッスン映像の映像音声とともに、前記講師の音声を出力するようにしてもよい。
本実施形態に係るプログラムは、レッスン方法をコンピュータに対して実行させるプログラムであって、前記レッスン方法は、体験者の体験に基づく体験映像、及び疑似的に生成された体験映像、の少なくとも何れかの体験映像を記憶した体験映像記憶部から前記少なくとも何れかの体験映像を取得するステップと、受講者の動作に関するセンシング情報を取得するステップと、前記受講者の音声に関するセンシング情報を取得するステップと、前記体験映像に講師の講師画像を合成したレッスン映像を生成するステップと、映像を表示する表示部に前記受講者に対する前記レッスン映像を表示させる出力信号を出力するステップと、音声を出力するスピーカに前記レッスン映像に対応する音声を出力させる出力信号を出力するステップと、前記動作に関するセンシング情報及び前記音声に関するセンシング情報の少なくとも一方に応じて、前記映像の出力信号及び前記音声の出力信号の出力を制御することによって、前記表示部に表示されるレッスン映像の進行を制御するステップを備えた、を備えている。
上記のレッスンシステムでは、前記受講者の遠隔地にいる前記講師を撮像する講師用カメラが設けられており、前記表示部は前記講師用カメラで撮像された前記講師画像を前記体験映像に重畳したレッスン映像を表示するようにしてもよい。
上記のレッスンシステムでは、前記講師画像が前記講師のアバター画像であってもよい。
上記のレッスンシステムでは、前記表示部が、受講者がいる受講室の壁面にレッスン映像を投影するプロジェクタを有していていてもよい。
上記のレッスンシステムでは、前記講師の音声を検出する講師用マイクが設けられており、前記レッスン映像の映像音声とともに、前記講師の音声を出力するようにしてもよい。
本開示によれば、学習効果の高いレッスンシステム、レッスン方法、及びプログラムを提供することを目的とする。
実施の形態に係るレッスンシステムを示す制御ブロック図である。 レッスン映像の一例を示す図である。 レッスン映像の一例を示す図である。 レッスン映像の一例を示す図である。 レッスン映像の一例を示す図である。 レッスン方法を示すフローチャートである。 レッスンシステムのハードウェア構成を示す図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
本実施の形態にかかるレッスンシステムは、受講者に語学レッスン等を提供するためのものである。図1は、レッスンシステム1000を示す制御ブロック図である。レッスンシステム1000は、遠隔地にいる受講者に対してレッスンを提供するためのシステムである。例えば、レッスンシステム1000では、受講者がいる第1の部屋100と、講師がいる第2の部屋200との間で通信可能となっている。第2の部屋200は、第1の部屋100の遠隔地にあり、インターネットなどのネットワークを介して接続されている。
第1の部屋100には、再現処理部110と、確認制御部120と、カメラ131と,マイク132と、におい受容器133と、プロジェクタ141と、スピーカ142と、におい生成器143と、が設けられている。第2の部屋200には、映像記憶部210と、データ送信部220と、カメラ231と、マイク232と、におい受容器233と、が設けられている。
まず、受講者がレッスンを受講する受講室となる第1の部屋100について説明する。カメラ131は、第1の部屋100にいる受講者の動作を検出するために設けられたセンサである。もちろん、カメラ131以外のセンサが、受講者の動作を検出してもよい。例えば、Kinect等のモーションセンサが受講者の動作を検出してもよい。さらには、2つ以上のセンサを組み合わせて、受講者の動作を検出してもよい。カメラ131は、受講者の動作をセンシングする。動作情報取得部135は、受講者の動作に関するセンシング情報を取得する。カメラ131は受講者の動作に関するセンシング情報を取得する動作情報取得部として機能してもよい。例えば、動作情報取得部135、及びカメラ131は一体となっていてもよく、別々となっていても良い。動作情報取得部135、又はカメラ131はスマートフォンなどのユーザ端末に実装されていてもよい。
マイク132は、受講者の音声を検出する。なお、カメラ131、及びマイク132は、スマートフォン、パーソナルコンピュータ、タブレット端末などのユーザ端末に設けられたものであってもよい。におい受容器133は、第1の部屋100でのにおいを検出するセンサである。マイク132は、受講者の音声に関するセンシング情報を取得する音声情報取得部として機能してもよい。例えば、音声情報取得部136、及びマイク132は一体となっていてもよく、別々となっていても良い。音声情報取得部136、及びマイク132はスマートフォンなどのユーザ端末に実装されていてもよい。
プロジェクタ141は、受講者に対してレッスン映像を表示する表示部である。スピーカ142はレッスン映像に対応する音声を受講者に対して出力する。スピーカ142は体験映像に含まれる映像音声ともに、講師が発した講師音声を出力する。におい生成器143は、体験映像に紐付いているにおいや、におい受容器233が検出したにおいを生成する。
再現処理部110は、体験者の過去の体験を再現するための処理を行う。データ送信部220から送信されたレッスンデータに応じて、プロジェクタ141,スピーカ142,におい生成器143を制御する。レッスンデータは、レッスン映像、音声データ、においデータ等を含んでいる。
再現処理部110は、レッスン映像を生成して、プロジェクタ141に表示させる。再現処理部110は、音声データをスピーカ142に出力させる。音声データは、レッスン映像に含まれる映像音声や、講師音声が含まれている。例えば、映像出力部145は、映像を表示する表示部(プロジェクタ141)に受講者に対するレッスン映像を表示させる出力信号(表示出力信号)を出力する。音声出力部146は、音声を出力するスピーカ142にレッスン映像に対応する音声を出力させる出力信号(音声出力信号)を出力する。映像出力部145、及び音声出力部146は、ユーザ端末に組み込まれていても良い。
におい生成器143は、においデータに基づいてにおいを生成する。においデータは、におい受容器233で検出した検出データや体験映像の撮像時に検出された検出データを含んでいる。これにより、体験者の過去の体験を再現することができる。つまり、バーチャル空間で、他の体験者の体験を再現することができる。
確認制御部120は、受講者の動作や音声を確認するための制御を行う。例えば、確認制御部120は、受講者の動作や音声の検出結果を解析して、受講者が望む処理を確認する。そして、確認制御部120は、確認結果を進行制御部300に送信する。確認制御部120,及び再現処理部110は、パーソナルコンピュータやスマートフォンなどのユーザ端末で実現することができる。また、ユーザ端末のスピーカは表示デバイスを用いてもよい。
レッスンデータに含まれる質問に対して、受講者は発話やジェスチャで回答することができる。カメラ131、及びマイク132が受講者のジェスチャや発話を検出する。確認制御部120は、カメラ131、及びマイク132の検出結果に応じて、回答が行われたことを確認する。つまり、カメラ131、マイク132の検出結果に基づいて、確認制御部120は、次のシーンに進めるための動作や発話があったことを確認する。これにより、進行制御部300がレッスン映像を次のシーンに進行させる。
次に、講師がレッスンを提供する第2の部屋200について説明する。カメラ231は、講師画像を撮像する。カメラ231によって講師の動作が検出される。もちろん、カメラ231以外のセンサが、講師の動作を検出してもよい。例えば、Kinect等のモーションセンサが講師の動作を検出してもよい。さらには、2つ以上のセンサを組み合わせて、講師の動作を検出してもよい。
マイク232は、講師が発した講師音声を検出する。なお、カメラ231、及びマイク232は、スマートフォン、パーソナルコンピュータ、タブレット端末などのユーザ端末に設けられたものであってもよい。におい受容器233は、第2の部屋200でのにおいを検出するセンサである。また、第2の部屋200には、講師が受講者の動作や音声を出力する表示デバイスやスピーカが設けられていてもよい。このようにすることで、講師と受講者が遠隔で会話するようにレッスンを行うことができる。
映像記憶部210は、過去に体験者の体験に関する体験データが格納されている。映像記憶部210は、体験者の体験に基づく記憶する体験映像記憶部となる。体験映像としては、例えば、飲食店での注文を行う映像、店舗での買い物の映像、空港で飛行機に搭乗するまでの映像、駅で列車に搭乗するまでの映像、駅や空港で乗り換えをする時の映像が挙げられる。映像記憶部210は、体験者が体験した複数の体験映像をデータベースとして格納している。映像記憶部210は、体験者の体験に基づく体験映像、及び疑似的に生成された体験映像、の少なくとも何れかの体験映像を記憶した体験映像記憶部として機能する。
映像取得部221は体験映像を記憶した体験映像記憶部から前記少なくとも何れかの体験映像を取得するとして機能する。なお体験映像は、体験者の体験に基づく体験映像、及び疑似的に生成された体験映像、の少なくとも何れかであってもよい。擬似的に生成された体験映像は、仮想空間上で生成された映像でも良い。あるいは、擬似的に生成された体験映像は、実際の体験映像に各種の情報や画像を付加した映像であってもよい。擬似的に生成された体験映像は、誰も体験したことがない映像であってもよい。映像取得部221は、受講者が選択した体験映像を取得する。
具体的には、受講者以外の体験者がカメラ、マイクなどを装着する。カメラを装着した体験者がカフェ、レストラン、バーなどの飲食店に行くことで、体験映像を撮像することができる。映像記憶部210には、複数の体験映像が収録されている。体験映像は動画像でもよく、1つ以上の静止画像でもよい。なお、体験者は、受講者自身であってもよい。つまり、受講者が過去に体験した内容に関する体験映像が映像記憶部210に格納されていてもよい。また、体験者はロボットなどであってもよい。複数の体験映像がレッスンコンテンツとして登録されている。また、体験映像は、受講者や講師が選択することができる分岐点を含んでいても良い。
映像記憶部210は、体験映像以外の体験データを記憶していても良い。たとえば、に限らず、体験時に取得された音声やにおいを体験データとして記憶する。体験に取得された音声やにおいは体験映像に紐付けられて、映像記憶部210に記憶されている。さらに、第1の部屋100や第2の部屋200には、体験映像に応じた道具やツールなどが設けられていても良い。例えば、飲食店での体験映像の場合、飲食物、容器、食材、調理器具などがあってもよい。
進行制御部300は、ネットワークを介して、第1の部屋100及び第2の部屋200と相互に通信可能に接続されている。進行制御部300は,例えば、プロジェクタ141やスピーカ142などを遠隔制御する遠隔サーバ装置とすることができる。ここでは、進行制御部300は、第1の部屋100,及び第2の部屋200の遠隔地に設置されているとして説明するが、その一部又は全部が第1の部屋100又は第2の部屋200に設けられていても良い。つまり、進行制御部300による処理の一部は講師や受講者の端末で実施されていてもよい。進行制御部300は、動作情報取得部135及び音声情報取得部136の少なくとも一方のセンシング情報に応じて、映像出力部145及び音声出力部146のそれぞれの出力を制御することによって、表示部(プロジェクタ141)に表示されるレッスン映像の進行を制御する。
進行制御部300は、確認制御部120から受講者の動作や音声の確認結果を受信する。進行制御部300は、確認結果に応じて、レッスンデータを生成する。データ送信部220は、レッスンデータを再現処理部110に送信する。レッスンデータはインターネットなどのネットワークを通じて、第1の部屋100の再現処理部110に送信される。
レッスンデータはレッスン映像、音声データ、及びにおいデータを含んでいる。進行制御部300は、映像記憶部210の体験映像にカメラ231で撮像された講師画像を合成したレッスン映像を生成する。例えば、進行制御部300は体型映像に講師画像を貼り付けることで、レッスン映像を生成しても良い。あるいは、進行制御部300は体験映像の外側に講師画像を付加することで、レッスン映像を生成しても良い。
進行制御部300は、確認結果に応じて、体験映像のシーンを制御することができる。進行制御部300は、カメラ131、及びマイク132の少なくとも一方の検出結果に応じて、進行制御する。つまり、受講者の動作や音声に応じて、進行制御部300は、体験映像のシーンを進めたり、シーンを切替えたりする。具体的には、体験映像が動画の場合、進行制御部300は、動画の時間を進めたり、遅らせたりして、シーンを変更する。また、体験映像が複数の静止画を含む場合、確認結果に応じて表示する静止画を切替える。さらに、進行制御部300は、確認結果に応じて、体験映像の角度や位置等を変えてもよい。
進行制御部300は、確認結果に応じて、講師画像を体験映像に重畳するためのデータを生成する。例えば、体験映像には講師画像の重畳位置が決められている。また、進行制御部300はシーンの進行に応じて、講師画像の重畳位置を変更しても良い。あるいは、講師や講師以外の管理者が、重畳位置を決めてもよい。さらに、進行制御部300は、体験映像中における講師画像の大きさ、向き、角度などを制御しても良い。
図2は、プロジェクタ141で表示されたレッスン映像を示す図である。受講者Sが入る第1の部屋100には、レッスン映像150が表示される。レッスン映像150では、体験映像151を背景として、講師の講師画像Tが重畳されている。
体験映像151は、サンドウィッチ店での注文時の体験を再現する映像である。体験映像151は、体験者がサンドウィッチ店で注文しているときに撮像された映像である。体験映像151は、サンドイッチ店の注文カウンタとなっている。例えば、受講者Sが複数の体験映像から希望の体験映像151を選択することができるようになっている。受講者Sは体験者の体験を疑似体験することができる。
ここでは、第1の部屋100の壁面101にレッスン映像が投影されている。レッスン映像150は壁面101に限らず、天井、床などに投影されていても良い。
図3~図5を用いて、レッスン映像の進行制御について説明する。まず、図3では、受講者Sが第1の部屋100に入室したタイミングを示している。ここでは、体験映像151として、サンドウィッチ店の注文カウンタが表示されている。講師が店員として、レッスンを行っている。体験映像151には、講師の講師画像Tが重畳されている。講師画像Tが重畳されたレッスン映像150が、第1の部屋100の壁面101に投影表示されている。したがって、第1の部屋100は、受講者Sが実際の店内にいるかのように再現されたVR(Virtual Reality)空間となっている。
ここでは、注文時の英会話レッスンが行われる。例えば,受講者Sがトッピングなどを選択して、オリジナルサンドウィッチを注文するために発話する。マイク132が受講者Sの発話を検出する。さらに,カメラ131が受講者Sの動作を検出する。また、第2の部屋200では、講師が注文を取る店員として振る舞う。マイク232が講師の発話を検出し、カメラ231が講師の動作を検出する。このようにすることで、受講者Sが遠隔地にいる講師から英会話レッスンを受けることができる。
マイク132,及びカメラ131の検出結果に応じて,確認制御部120又は進行制御部300は、注文が終了したことを検知する。あるいは、カメラ231,マイク232での検出結果により、注文の終了を検知しても良い。例えば、受講者S又は講師の特定の動作をシーン切替のトリガ動作として登録していても良い。また、シーンを進行する特定の言葉を予め決めておいてもよい。受講者S又は講師が特定の言葉を発話することで、進行制御部300がシーンを進行しても良い。つまり、マイク132,232の検出結果に応じて、進行制御部300がレッスン映像の進行を制御する。受講者Sや講師が端末のボタンを押すことで。シーン切替を行うようにしても良い。
注文が終了すると、次のシーンに進む(図4)。図4では、体験映像151がレジ前の映像が表示されている。ここでは、代金を支払うときの英会話が行われる。受講者Sが代金を支払うと、次のシーンに進む(図5)。ここでは、注文に成功したことが、音響効果、視覚効果、におい、風などで分かるようになっている。例えば、におい生成器143が注文したサンドウィッチのにおいを再現する。あるいは、スピーカ142が成功したことを示す音などを出力してもよい。また,プロジェクタ141が成功したことを示す強調表示を行ってもよい。
再現処理部110は、体験映像に講師画像Tを重畳したレッスン映像を生成している。そして、プロジェクタ141が受講者Sに対して、レッスン映像を表示している。受講者Sは、体験者の過去の体験を再現した空間内でレッスン受けることができる。受講者Sがレッスン映像を視認しながら英会話レッスンを受けることができる。受講者Sは、疑似体験映像を通じた学習を行うことができる。よって、学習効果を高めることができる。さらに、カメラ131,231やマイク132,232などの検出結果に応じて、進行制御部300がレッスンの進行を制御している。よって、適切にレッスン映像の進行を管理することができる。
なお、講師画像Tは実際の講師を撮像した映像に限らず、アバター画像であってもよい。例えば、再現処理部110が講師画像に基づいて,アバター画像を生成する。また、講師は実在する人に限らず、ソフトウェアで生成されていてもよい。例えば、講師は、対話型ロボットのように、AI(Artificial Intelligence)を搭載するソフトウェアで実現することが可能である。この場合、講師のいる第2の部屋にカメラ231、マイク232,におい受容器233等が不要となる。さらに、AI講師が進行を制御しても良い。
受講者Sに対して体験映像や講師画像を表示する表示デバイスは、プロジェクタ141に限られるものでない。例えば、表示部は、VR表示が可能なヘッドマウントディスプレイなどであってもよい。また、第2の部屋200には、受講者Sをアバター画像として表示するディスプレイを設けてもよい。
また、ヘルプ画面をオーバレイ操作で表示できるようにしても良い。上記の説明では、受講者が一人であったが、二人以上であってもよい。例えば、第1の部屋100に二人以上の受講者がしてもよい。あるいは第1の部屋100、及び第2の部屋200とは異なる第3の部屋に別の受講者がいても良い。二人の受講者が店員と客の役を担当し、講師が異なる部屋から各々の部屋のレッスン映像の進捗を制御するようにしてもよい。
上記の説明では、講師が一人であったが、講師が二人以上いてもよい。また、講師や受講者以外の参加者がいてもよい。講師、受講者、参加者の一部はソフトウェアで生成されていてもよい。
講師は,受講者Sに対してレッスンのフィードバックを行ってもよい。そして、フィードバック結果を蓄積することで、より効率良くレッスンを行うことができる。さらに、受講者Sの発話や動作に応じて,レッスンを評価しても良い。そして、複数の受講者の評価結果を蓄積することで、より効率的なレッスンを提供することができる。また、受講者Sが講師の評価を行ってもよい。これにより、講師のレッスンスキル向上に資することができる。
また、レッスンの進行制御は、受講者及び講師以外の第三者が行ってもよい。例えば、レッスンシステム1000の管理者が進行を制御してもよい。あるいは、コンピュータが自動でレッスン映像の進行を制御してもよい。例えば、AIによる進行制御も可能である。受講者、講師、第三者、及びコンピュータプログラムの少なくとも一つが進行制御を行うことができる。
第1の部屋100をバーチャル空間にするためのレッスン映像を表示する表示部は、種々の形態をとることができる。例えば部屋の一面に配置されるモニタを用いて、バーチャル空間を生成しても良い。つまり、壁面のモニタやスクリーンがレッスン映像を表示する。あるいは、ヘッドマントディスプレイがバーチャル空間にレッスン映像を表示してもよい。スマートグラスやカメラ付きモバイル端末画面を介して視認する実空間上に、レッスン映像を表示しても良い。表示部は、講師、受講者などのアバターの画像を表示してもよい。さらには、表示部は、講師画像やレッスン映像を立体映像(3次元画像)として表示してもよい。第1の部屋100に拡張現実(AR:Augumented Reality)によるバーチャル空間を生成することができる。
次に、レッスンの受講方法について、図6を用いて説明する。図6は、レッスンの受講方法を示すフローチャートである。
まず、進行制御部300が、事前に受講者Sによるレッスン及び講師の選択があったか否かを判定する(S201)。例えば、受講者Sがレッスンを予約する際に、携帯端末などを操作することで、体験映像及び講師を指定することができる。体験映像及び講師の事前の選択がある場合(S201のYES)、進行制御部300が選択された内容でレッスンを開始する(S203)。体験映像及び講師の選択がない場合(S201のNO)、受講者が体験映像及び講師を選択する(S202)。進行制御部300は、選択された体験映像及び講師によるレッスンを開始する(S203)。


レッスンが開始すると、進行制御部300は、選択された体験映像を再生する。再現処理部110が体験映像に講師画像Tを重畳したレッスン映像を生成する。これにより、レッスンが進行していく。進行制御部300は、受講者によるヘルプ又は分岐点があったか否かを判定する(S204)。
受講者によるヘルプ又は分岐点がない場合(S204のNO)、進行制御部300が自動でレッスンを進行する(S206)。例えば、カメラ131やマイク132が検出した受講者Sの動作や発話に基づいて、確認制御部120が受講者Sの望む処理を確認する。進行制御部300が、確認結果に応じてシーンを進めていく。
受講者によるヘルプ又は分岐点がある場合(S204のYES),講師が手動でレッスンを進行する(S205)。また、ここでは、講師以外の人、例えば、システムの管理者などがレッスンを進行してもよい。そして、進行制御部300が自動でレッスンを進行する(S206)。
進行制御部300は、体験映像のエンドポイントであるか否かを判定する(S207)。体験映像がエンドポイントに到達してない場合(S207のNO)、S204に戻り,レッスンを継続する。体験映像がエンドポイントに到達した場合(S207のYES)、講師が受講者に対してレッスンについてのフィードバックを行う(S208)。講師のフィードバック結果は採点結果を示す採点データベースに登録されてもよい。
受講者Sが次のレッスンを行うか否かを判定する(S209)。次のレッスンを行う場合(S209のYES)、ステップS202に戻り、受講者Sがレッスン及び講師の選択を行う。受講者Sが次のレッスンを選択していない場合(S209のNO)、受講者Sが第1の部屋100を退室して、終了する。このようにすることで、学習効率の高いレッスンを提供することができる。
映像記憶部210は、本システムが有するサーバや端末が備える記憶部であってもよい。その場合、映像取得部221は、映像記憶部210から記憶された情報を取り出すことによって取得し、取得情報に基づく制御を行うための演算を行うECU(electronic control unit)等のデバイス等であっても良い。また、映像記憶部210は、本システムの外の(国外又は国内の)サーバや端末が備える記憶部であってもよい。その場合は、映像取得部221は、映像記憶部210から記憶された情報を、通信等を介して取り出すことによって取得し、取得情報に基づく制御を行うための演算を行うECU等のデバイスやサーバや端末等であっても良い。
動作情報取得部135は、動作をセンシングするセンサ(例:カメラ、点群計測センサ、など)であっても良い。また、そのようなセンサから、有線又は無線の通信を介して、センシングされたデータを受信によって取得する(システムのサーバや表示部等に設けられた)受信部(受信用デバイス等)であっても良い。動作情報取得部135は、ユーザ端末に組み込まれていても良い。
音声情報取得部136は、音声をセンシングするセンサ(例:マイク)であっても良い。また、そのようなセンサから、有線又は無線の通信を介して、センシングされたデータを受信によって取得する(システムのサーバや表示部等に設けられた)受信部(受信用デバイス等)であっても良い。音声情報取得部136は、ユーザ端末に組み込まれていても良い。
誰も体験していない空間を疑似的に体験映像として作成してもよい。例えば、一部看板には宣伝広告が掲示されていたり、カートの食べ物の種類を入れ替えて別店舗として使用したりしてもよい。これは、図2で例えると、看板、カートの中身を入れ替えてサンドイッチショップからアイスクリームショップやほかの店に置き換えることができる。
なお、レッスンは語学レッスンにかぎられるものではない。レッスンは、技能習得のための技能レッスンで良い。例えば、レッスンは、リハビリのためのレッスンであっても良い。リハビリを補助する医師、医療関係者、介護スタッフ、PT(physical therapist)等のためのレッスンであってもよい。
上記のレッスンシステム1000は、コンピュータプログラムにより実現可能である。例えば、受講者Sのユーザ端末、講師のユーザ端末、及びサーバ装置の少なくとも一つのプロセッサが上記の処理を実施することができる。
次に、実施の形態にかかるレッスンシステム1000のハードウェア構成について説明する。図7は、レッスンシステム700のハードウェア構成の一例を示すブロック図である。図7に示すように、レッスンシステム700は例えば、少なくとも一つのメモリ701、少なくとも一つのプロセッサ702,及びネットワークインタフェース703を含む。
ネットワークインタフェース703は、有線又は無線のネットワークを介して他の装置と通信するために使用される。ネットワークインタフェース703は、例えば、ネットワークインタフェースカード(NIC)を含んでもよい。レッスンシステム700は、ネットワークインタフェース703を介して、体験画像、講師画像を取得する。
メモリ701は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ701は、プロセッサ702から離れて配置されたストレージを含んでもよい。この場合、プロセッサ702は、図示されていない入出力インタフェースを介してメモリ701にアクセスしてもよい。
メモリ701は、プロセッサ702により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)などを格納するために使用される。上記のレッスン方法を実行するためのプログラムを格納してもよい。
さらに、上記実施の形態では、本開示をハードウェアの構成として説明したが、本開示は、これに限定されるものではない。本開示は、レッスンシステムの制御処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することが可能である。
また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体は、例えば、磁気記録媒体、光磁気記録媒体、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリを含む。磁気記録媒体は、例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブなどである。光磁気記録媒体は、例えば光磁気ディスクなどである。半導体メモリは、例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)などである。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
100 第1の部屋
101 壁面
110 再現処理部
120 確認制御部
131 カメラ
132 マイク
133 におい受容器
141 プロジェクタ
142 スピーカ
143 におい生成器
150 レッスン映像
151 体験映像
200 第2の部屋
210 映像記憶部
220 データ送信部
221 映像取得部
231 カメラ
232 マイク
233 におい受容器
300 進行制御部
S 受講者
T 講師画像

Claims (12)

  1. 体験者の体験に基づく体験映像、及び疑似的に生成された体験映像、の少なくとも何れかの体験映像を記憶した記憶部から前記少なくとも何れかの体験映像を取得する映像取得部と、
    受講者の動作に関するセンシング情報を取得する動作情報取得部と、
    前記受講者の音声に関するセンシング情報を取得する音声情報取得部と、
    前記体験映像に講師の講師画像を合成したレッスン映像を生成する再現処理部と、
    映像を表示する表示部に前記受講者に対する前記レッスン映像を表示させる出力信号を出力する映像出力部と、
    音声を出力するスピーカに前記レッスン映像に対応する音声を出力させる出力信号を出力する音声出力部と、
    前記動作情報取得部及び前記音声情報取得部の少なくとも一方のセンシング情報に応じて、前記映像出力部及び前記音声出力部のそれぞれの出力を制御することによって、前記表示部に表示されるレッスン映像の進行を制御する進行制御部と、
    前記受講者の遠隔地にいる前記講師を撮像する講師用カメラと、
    前記講師の音声を検出する講師用マイクと、を備え、
    前記表示部は前記講師用カメラで撮像された前記講師画像を前記体験映像に重畳したレッスン映像を表示し、
    特定の動作が、前記レッスン映像のシーン切替のトリガ動作として登録されており、
    前記講師用カメラで撮像された前記講師の動作が前記特定の動作である場合に、前記シーン切替が行われ
    前記スピーカが、前記レッスン映像の映像音声とともに、前記講師の音声を出力し、
    前記レッスン映像のシーンを進行する特定の言葉が予め登録されており、
    前記音声情報取得部で取得された前記受講者の音声、又は前記講師用マイクで取得された前記講師の音声が前記特定の言葉に該当する場合、前記シーンを進行するレッスンシステム。
  2. 前記体験映像には、分岐点が含まれている請求項に記載のレッスンシステム。
  3. 前記講師画像が前記講師のアバター画像である請求項1、又は2に記載のレッスンシステム。
  4. 前記表示部が、受講者がいる受講室の壁面にレッスン映像を投影するプロジェクタを有している請求項1~3のいずれか1項に記載のレッスンシステム。
  5. コンピュータが、
    体験者の体験に基づく体験映像、及び疑似的に生成された体験映像、の少なくとも何れかの体験映像を記憶した映像記憶部から前記少なくとも何れかの体験映像を取得するステップと、
    受講者の動作に関するセンシング情報を取得するステップと、
    前記受講者の音声に関するセンシング情報を取得するステップと、
    講師用カメラによって前記受講者の遠隔地にいる講師を撮像するステップと、
    前記体験映像に前記講師用カメラで撮像された講師の講師画像を重畳したレッスン映像を生成するステップと、
    映像を表示する表示部に前記受講者に対する前記レッスン映像を表示させる出力信号を出力するステップと、
    音声を出力するスピーカに前記レッスン映像に対応する音声を出力させる出力信号を出力するステップと、
    前記動作に関するセンシング情報及び前記音声に関するセンシング情報の少なくとも一方に応じて、前記映像の出力信号及び前記音声の出力信号の出力を制御することによって、前記表示部に表示されるレッスン映像の進行を制御するステップを備え、
    特定の動作が、前記レッスン映像のシーン切替のトリガ動作として登録されており、
    前記講師用カメラで撮像された前記講師の動作が前記特定の動作である場合に、前記シーン切替が行われ
    前記講師の音声を検出する講師用マイクが設けられており、
    前記スピーカが、前記レッスン映像の映像音声とともに、前記講師の音声を出力し、
    前記レッスン映像のシーンを進行する特定の言葉が予め登録されており、
    前記受講者の音声、又は前記講師の音声が前記特定の言葉に該当する場合、前記シーンを進行するレッスン方法。
  6. 前記体験映像には、分岐点が含まれている請求項に記載のレッスン方法。
  7. 前記講師画像が前記講師のアバター画像である請求項5、又は6に記載のレッスン方法。
  8. 前記表示部が、受講者がいる受講室の壁面にレッスン映像を投影するプロジェクタを有している請求項5~7のいずれか1項に記載のレッスン方法。
  9. レッスン方法をコンピュータに対して実行させるプログラムであって、
    前記レッスン方法は、
    体験者の体験に基づく体験映像、及び疑似的に生成された体験映像、の少なくとも何れかの体験映像を記憶した体験映像記憶部から前記少なくとも何れかの体験映像を取得するステップと、
    受講者の動作に関するセンシング情報を取得するステップと、
    前記受講者の音声に関するセンシング情報を取得するステップと、
    講師用カメラによって、前記受講者の遠隔地にいる講師を撮像するステップと、
    前記体験映像に前記講師用カメラで撮像された講師の講師画像を重畳したレッスン映像を生成するステップと、
    映像を表示する表示部に前記受講者に対する前記レッスン映像を表示させる出力信号を出力するステップと、
    音声を出力するスピーカに前記レッスン映像に対応する音声を出力させる出力信号を出力するステップと、
    前記動作に関するセンシング情報及び前記音声に関するセンシング情報の少なくとも一方に応じて、前記映像の出力信号及び前記音声の出力信号の出力を制御することによって、前記表示部に表示されるレッスン映像の進行を制御するステップを備え、
    特定の動作が、前記レッスン映像のシーン切替のトリガ動作として登録されており、
    前記講師用カメラで撮像された前記講師の動作が前記特定の動作である場合に、前記シーン切替が行われ
    前記講師の音声を検出する講師用マイクが設けられており、
    前記スピーカが、前記レッスン映像の映像音声とともに、前記講師の音声を出力し、
    前記レッスン映像のシーンを進行する特定の言葉が予め登録されており、
    前記受講者の音声、又は前記講師の音声が前記特定の言葉に該当する場合、前記シーンを進行するプログラム。
  10. 前記体験映像には、分岐点が含まれている請求項に記載のプログラム。
  11. 前記講師画像が前記講師のアバター画像である請求項9、又は10に記載のプログラム。
  12. 前記表示部が、受講者がいる受講室の壁面にレッスン映像を投影するプロジェクタを有している請求項9~11のいずれか1項に記載のプログラム。
JP2020131139A 2020-07-31 2020-07-31 レッスンシステム、レッスン方法、及びプログラム Active JP7367632B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020131139A JP7367632B2 (ja) 2020-07-31 2020-07-31 レッスンシステム、レッスン方法、及びプログラム
EP21188218.8A EP3945515A1 (en) 2020-07-31 2021-07-28 Lesson system, lesson method, and program
US17/388,766 US20220036753A1 (en) 2020-07-31 2021-07-29 Lesson system, lesson method, and program
CN202110869782.2A CN114066686A (zh) 2020-07-31 2021-07-30 课程系统、课程方法、以及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020131139A JP7367632B2 (ja) 2020-07-31 2020-07-31 レッスンシステム、レッスン方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2022027250A JP2022027250A (ja) 2022-02-10
JP7367632B2 true JP7367632B2 (ja) 2023-10-24

Family

ID=77103989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020131139A Active JP7367632B2 (ja) 2020-07-31 2020-07-31 レッスンシステム、レッスン方法、及びプログラム

Country Status (4)

Country Link
US (1) US20220036753A1 (ja)
EP (1) EP3945515A1 (ja)
JP (1) JP7367632B2 (ja)
CN (1) CN114066686A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100159430A1 (en) 2008-12-22 2010-06-24 Electronics And Telecommunications Research Institute Educational system and method using virtual reality
JP6683864B1 (ja) 2019-06-28 2020-04-22 株式会社ドワンゴ コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
JP6727388B1 (ja) 2019-11-28 2020-07-22 株式会社ドワンゴ 授業システム、視聴端末、情報処理方法およびプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6288753B1 (en) * 1999-07-07 2001-09-11 Corrugated Services Corp. System and method for live interactive distance learning
US20040125120A1 (en) * 2001-06-08 2004-07-01 Michael Weiner Method and apparatus for interactive transmission and reception of tactile information
US20030152904A1 (en) * 2001-11-30 2003-08-14 Doty Thomas R. Network based educational system
US8696364B2 (en) * 2007-03-28 2014-04-15 Breakthrough Performancetech, Llc Systems and methods for computerized interactive training
US20090237564A1 (en) * 2008-03-18 2009-09-24 Invism, Inc. Interactive immersive virtual reality and simulation
MX2011010522A (es) * 2009-04-07 2012-01-19 Learning Tree Int Inc Sistema y metodo para enseñanza de curso hibrido.
AU2011316586B2 (en) * 2010-10-12 2015-07-30 Wespeke, Inc. Language learning exchange
KR101270780B1 (ko) * 2011-02-14 2013-06-07 김영대 가상 강의실 강의 방법 및 장치
US20140233913A1 (en) * 2011-05-09 2014-08-21 Rockwell L. Scharer, III Cross-platform portable personal video compositing and media content distribution system
US10460616B2 (en) * 2012-11-27 2019-10-29 Active Learning Solutions Holdings Limited Method and system for active learning
JP6377328B2 (ja) * 2013-08-21 2018-08-22 東急テクノシステム株式会社 列車見張員訓練用シミュレータ
WO2015061415A1 (en) * 2013-10-22 2015-04-30 Exploros, Inc. System and method for collaborative instruction
EP3281403A4 (en) * 2015-04-06 2018-03-07 Scope Technologies US Inc. Methods and apparatus for augmented reality applications
WO2017136874A1 (en) * 2016-02-10 2017-08-17 Learning Institute For Science And Technology Pty Ltd Advanced learning system
US9958767B1 (en) * 2016-11-01 2018-05-01 Disney Enterprises, Inc. Projection mapped augmentation of mechanically animated objects
JP6150935B1 (ja) * 2016-12-14 2017-06-21 株式会社アイディアヒューマンサポートサービス 情報処理システム、情報処理方法、および情報処理プログラム
US10685489B2 (en) * 2017-03-02 2020-06-16 Daqri, Llc System and method for authoring and sharing content in augmented reality
JP6542333B2 (ja) 2017-11-22 2019-07-10 昇太 谷本 語学レッスンシステム
US10741090B2 (en) * 2018-03-06 2020-08-11 Crossbraining, Inc. System and method for reinforcing proficiency skill using multi-media
US11227439B2 (en) * 2018-03-29 2022-01-18 Eon Reality, Inc. Systems and methods for multi-user virtual reality remote training
CN113508369A (zh) * 2019-04-01 2021-10-15 住友电气工业株式会社 交流支持系统、交流支持方法、交流支持程序以及图像控制程序
US11107236B2 (en) * 2019-04-22 2021-08-31 Dag Michael Peter Hansson Projected augmented reality interface with pose tracking for directing manual processes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100159430A1 (en) 2008-12-22 2010-06-24 Electronics And Telecommunications Research Institute Educational system and method using virtual reality
JP6683864B1 (ja) 2019-06-28 2020-04-22 株式会社ドワンゴ コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
JP6727388B1 (ja) 2019-11-28 2020-07-22 株式会社ドワンゴ 授業システム、視聴端末、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20220036753A1 (en) 2022-02-03
JP2022027250A (ja) 2022-02-10
EP3945515A1 (en) 2022-02-02
CN114066686A (zh) 2022-02-18

Similar Documents

Publication Publication Date Title
US10613699B2 (en) Multi-view display cueing, prompting, and previewing
KR20150008345A (ko) 온라인 댄스 강의 시스템
US11320895B2 (en) Method and apparatus to compose a story for a user depending on an attribute of the user
US11978484B2 (en) Systems and methods for generating and presenting virtual experiences
CN114402276A (zh) 授课系统、视听终端、信息处理方法以及程序
KR20180105861A (ko) 외국어 학습 어플리케이션 및 이에 포함된 콘텐츠를 이용한 외국어 학습 시스템
JP2016100033A (ja) 再生制御装置
JP2021006894A (ja) コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム
US20220360827A1 (en) Content distribution system, content distribution method, and content distribution program
JP7367632B2 (ja) レッスンシステム、レッスン方法、及びプログラム
KR102009575B1 (ko) 스터디 테마카페 제공 방법, 스터디 테마카페 제공 프로그램을 기록한 컴퓨터로 판독가능한 기록매체, 이를 탑재한 모듈 및 시스템
Eden Technology Makes Things Possible
TWI687904B (zh) 互動式訓練及檢測裝置
Waters et al. Play frames, or framed play? The use of film cameras in visual ethnographic research with children
JP6766228B1 (ja) 遠隔教育システム
JP6619072B2 (ja) 音合成装置、音合成方法、及びそのプログラム
JP6849228B2 (ja) 教室システム
KR20140084463A (ko) 화자 정보를 표시하는 장치 및 방법 그리고, 동영상을 편집하는 서버
KR101153952B1 (ko) 애니메이션 액션 체험 컨텐츠 서비스 시스템 및 방법
JP2005321443A (ja) 発音学習支援方法、学習者端末及び処理プログラム並びに該プログラムを記録した記録媒体
Yang Holographic Sign Language Interpreter: A User Interaction Study within Mixed Reality Classroom
WO2022102550A1 (ja) 情報処理装置及び情報処理方法
JP7167388B1 (ja) 動画作成システム、動画作成装置、及び動画作成用プログラム
KR20160011156A (ko) 온라인 독서 동영상 서비스 제공방법 및 시스템
KR20170103142A (ko) 오디션 기능이 포함된 연기연습 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230925

R151 Written notification of patent or utility model registration

Ref document number: 7367632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151