JP7263475B1 - 授業支援システム、授業支援方法、授業支援プログラム - Google Patents

授業支援システム、授業支援方法、授業支援プログラム Download PDF

Info

Publication number
JP7263475B1
JP7263475B1 JP2021168331A JP2021168331A JP7263475B1 JP 7263475 B1 JP7263475 B1 JP 7263475B1 JP 2021168331 A JP2021168331 A JP 2021168331A JP 2021168331 A JP2021168331 A JP 2021168331A JP 7263475 B1 JP7263475 B1 JP 7263475B1
Authority
JP
Japan
Prior art keywords
captured image
student
teacher
emotion
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021168331A
Other languages
English (en)
Other versions
JP2023061407A (ja
Inventor
浩美 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dentsu Group Inc
Original Assignee
Dentsu Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dentsu Inc filed Critical Dentsu Inc
Priority to JP2021168331A priority Critical patent/JP7263475B1/ja
Priority to JP2022200080A priority patent/JP7442611B2/ja
Application granted granted Critical
Publication of JP7263475B1 publication Critical patent/JP7263475B1/ja
Publication of JP2023061407A publication Critical patent/JP2023061407A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】カメラを介して授業を受けている生徒の感情を教師が把握しやすくなる授業支援システムを提供する。【解決手段】授業支援システムは、教師が行う授業を撮影した第1撮影画像を取得する第1画像取得部と、前記第1撮影画像を生徒に対して表示する第1表示制御部と、前記生徒を撮影した第2撮影画像を取得する第2画像取得部と、前記第2撮影画像を前記教師に対して表示する第2表示制御部と、前記生徒の感情を推定する感情推定部と、を備える。前記第2表示制御部は、推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示する。【選択図】図1

Description

本発明は、授業支援システム、授業支援方法、授業支援プログラムに関する。
特許文献1では、ネットワークを介して接続された複数の生徒用端末の生徒に授業を提供する技術が開示されている。
特開2018-165978号公報
現在のオンライン型授業では、カメラのスイッチングが頻繁に行われるために、教師が生徒の理解度を把握する機会が乏しい。そのため、授業に積極的な生徒と、そうでない生徒との間で知識定着量や習熟度に差が生じやすい。
本発明は、以上のような点を考慮してなされたものである。本発明の目的は、カメラを介して授業を受けている生徒の感情を教師が把握しやすくなる授業支援システム、授業支援方法、授業支援プログラムを提供することにある。
本発明の第1の態様に係る授業支援システムは、
教師が行う授業を撮影した第1撮影画像を取得する第1画像取得部と、
前記第1撮影画像を生徒に対して表示する第1表示制御部と、
前記生徒を撮影した第2撮影画像を取得する第2画像取得部と、
前記第2撮影画像を前記教師に対して表示する第2表示制御部と、
前記生徒の感情を推定する感情推定部と、
を備え、
前記第2表示制御部は、推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示する。
このような態様によれば、第2表示制御部が、生徒を撮影した第2撮影画像を教師に対して表示する際に、生徒の感情を示すアイコンを第2撮影画像に関連付けて表示するため、授業中に教師が生徒の映像(第2撮影画像)を確認するときに、当該映像に関連付けて表示されたアイコンも教師の目に入ることになり、たとえ生徒の映像からはその表情や様子がわかりづらかったとしても、当該アイコンを介して生徒の感情を一目で容易に把握することができる。これにより、生徒が遠隔にいたとしても、把握した生徒の感情に応じてリアルタイムで授業の内容や進行を調整することが可能となり、遠隔・在室を問わず授業に参加する生徒全員の理解度を上げることが可能となる。
本発明の第2の態様に係る授業支援システムは、第1の態様に係る授業支援システムであって、
前記第2表示制御部は、前記第2撮影画像およびアイコンを前記教師の視線方向に見える実際の映像に重ねて表示する。
このような態様によれば、教師は、教室内で実際に着席して授業を受けている生徒と、遠隔からカメラを介して授業に参加している生徒の両方の様子を同時に確認しながら、授業を行うことができる。したがって、遠隔・在室を問わず授業に参加する生徒全員の理解度を上げることが可能となる。
本発明の第3の態様に係る授業支援システムは、第2の態様に係る授業支援システムであって、
前記第2表示制御部は、前記第2撮影画像およびアイコンを前記教室内で実際に着席している他の生徒の上方に表示する。
このような態様によれば、教師の視界において、教室内で実際に着席して授業を受けている生徒と、遠隔からカメラを介して授業に参加している生徒とが互いに重ならずに表示されるようになるため、遠隔・在室を問わず授業に参加する生徒全員の様子を同時に確認することが容易となる。
本発明の第4の態様に係る授業支援システムは、第1~3のいずれかの態様に係る授業支援システムであって、
前記感情推定部は、前記第2撮影画像から抽出される前記生徒の目線の動き、前記生徒の生体センサから取得される生体情報、および、前記教師からの問いかけに対する前記生徒からの回答のうちの1つまたは2つ以上に基づいて、前記生徒の感情を推定する。
このような態様によれば、生徒の感情を精度よく推定することができる。
本発明の第5の態様に係る授業支援システムは、第4の態様に係る授業支援システムであって、
前記生体情報は、脳波および/または心拍である。
本発明の第6の態様に係る授業支援システムは、第1~5のいずれかの態様に係る授業支援システムであって、
前記生徒が発した音声を取得する音声取得部をさらに備え、
前記第2表示制御部は、前記生徒の音声に基づいて前記生徒が質問したいという意思を有しているか否かを判定し、質問したいという意思があると判定された場合には、質問したいという意思があることを示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示する。
このような態様によれば、生徒が遠隔からカメラを介して授業に参加している場合であっても、質問したいときには、教室内で実際に着席して授業を受けているときと同様に音声を発するだけで、質問したいという意思があることを迅速かつ円滑に教師に伝えることが可能となる。
本発明の第7の態様に係る授業支援システムは、第1~6のいずれかの態様に係る授業支援システムであって、
前記第2表示制御部は、推定された前記生徒の感情の継続時間、検出回数または検出頻度に応じて前記アイコンを強調表示および/または優先表示する。
このような態様によれば、生徒の感情の強さに応じてアイコンが強調表示および/または優先表示されるため、多数の生徒が授業に参加していたとしても、ある生徒の感情が強い場合には、教師は、強調表示または優先表示されたアイコンを介して当該生徒の感情に容易に気づき、的確に状況を把握することが可能となる。
本発明の第8の態様に係る授業支援システムは、第1~7のいずれかの態様に係る授業支援システムであって、
前記第2表示制御部は、同じ感情が推定された生徒の人数に応じて前記アイコンを強調表示および/または優先表示する。
このような態様によれば、教師は、複数の生徒で共有されている感情の存在に容易に気づいて的確に状況を把握することが可能となる。
本発明の第9の態様に係る授業支援システムは、第1~8のいずれかの態様に係る授業支援システムであって、
感情ごとに表示優先順序が予め定められており、前記第2表示制御部は、前記表示優先順序が高いアイコンを低いアイコンより優先表示する。
このような態様によれば、教師は、重要な感情を抱いている生徒の存在に容易に気づいて的確に状況を把握することが可能となる。
本発明の第10の態様に係る授業支援システムは、第1~9のいずれかの態様に係る授業支援システムであって、
感情ごとに表示させるか否かを前記教師が選択できるようになっており、前記第2表示制御部は、前記教師による選択に基づいて前記アイコンを表示するか否かを制御する。
このような態様によれば、教師は、当該教師にとって重要な感情を抱いている生徒の存在に容易に気づいて的確に状況を把握することが可能となる。
本発明の第11の態様に係る授業支援方法は、コンピュータが実行する授業支援方法であって、
教師が行う授業を撮影した第1撮影画像を取得するステップと、
前記第1撮影画像を生徒に対して表示するステップと、
前記生徒を撮影した第2撮影画像を取得するステップと、
前記第2撮影画像を前記教師に対して表示するステップと、
前記生徒の感情を推定するステップと、
推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップと、
を含む。
本発明の第12の態様に係る授業支援プログラムは、
コンピュータに、
教師が行う授業を撮影した第1撮影画像を取得するステップと、
前記第1撮影画像を生徒に対して表示するステップと、
前記生徒を撮影した第2撮影画像を取得するステップと、
前記第2撮影画像を前記教師に対して表示するステップと、
前記生徒の感情を推定するステップと、
推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップと、
を実行させる。
本発明の第13の態様に係るイベント支援システムは、
ホストが進行を管理するイベントを撮影した第1撮影画像を取得する第1画像取得部と、
前記第1撮影画像をゲストに対して表示する第1表示制御部と、
前記ゲストを撮影した第2撮影画像を取得する第2画像取得部と、
前記第2撮影画像を前記ホストに対して表示する第2表示制御部と、
前記ゲストの感情を推定する感情推定部と、
を備え、
前記第2表示制御部は、推定された前記ゲストの感情を示すアイコンを前記第2撮影画像に関連付けて前記ホストに対して表示する。
本発明の第14の態様に係るイベント支援システムは、第15の態様に係るイベント支援システムであって、
前記第2表示制御部は、前記第2撮影画像およびアイコンを前記ホストの視線方向に見える実際の映像に重ねて表示する。
本発明の第15の態様に係るイベント支援システムは、第13または14の態様に係るイベント支援システムであって、
前記感情推定部は、前記第2撮影画像から抽出される前記ゲストの目線の動き、前記ゲストの生体センサから取得される生体情報、および、前記ホストからの問いかけに対する前記ゲストからの回答のうちの1つまたは2つ以上に基づいて、前記ゲストの感情を推定する。
本発明の第16の態様に係るイベント支援システムは、第13~15のいずれかの態様に係るイベント支援システムであって、
前記イベントは作業訓練であり、前記ホストはトレーナーであり、前記ゲストはトレーニーである。
このような態様によれば、第2表示制御部が、作業訓練を受けているトレーニーを撮影した第2撮影画像をトレーナーに対して表示する際に、トレーニーの感情を示すアイコンを第2撮影画像に関連付けて表示するため、作業訓練中にトレーナーがトレーニーの映像(第2撮影画像)を確認するときに、当該映像に関連付けて表示されたアイコンもトレーナーの目に入ることになり、たとえトレーニーの映像からはその表情や様子がわかりづらかったとしても、当該アイコンを介してトレーニーの感情を一目で容易に把握することができる。これにより、トレーニーが遠隔にいたとしても、把握したトレーニーの感情に応じてリアルタイムで職業訓練の内容や進行を調整することが可能となり、遠隔・在室を問わず作業訓練に参加するトレーニー全員の理解度を上げることが可能となる。
本発明の第17の態様に係るイベント支援システムは、第13~15のいずれかの態様に係るイベント支援システムであって、
前記イベントは診察であり、前記ホストは医師であり、前記ゲストは患者である。
このような態様によれば、第2表示制御部が、診察を受けている患者を撮影した第2撮影画像を医師に対して表示する際に、患者の感情を示すアイコンを第2撮影画像に関連付けて表示するため、診察中に医師が患者の映像(第2撮影画像)を確認するときに、当該映像に関連付けて表示されたアイコンも医師の目に入ることになり、たとえ患者の映像からはその表情や様子がわかりづらかったとしても、当該アイコンを介して患者の感情を一目で容易に把握することができる。これにより、患者が遠隔にいたとしても、把握した患者の感情に応じてリアルタイムで診察の内容や進行を調整することが可能となり、診察の正確性および患者の満足度を上げることが可能となる。
本発明の第18の態様に係る診察支援システムは、第13~15のいずれかの態様に係る診察支援システムであって、
前記イベンは観光ツアーであり、前記ホストはツアーガイドであり、前記ゲストはツアー参加者である。
このような態様によれば、第2表示制御部が、ツアーに参加しているツアー参加者を撮影した第2撮影画像をツアーガイドに対して表示する際に、ツアー参加者の感情を示すアイコンを第2撮影画像に関連付けて表示するため、ツアー中にツアーガイドがツアー参加者の映像(第2撮影画像)を確認するときに、当該映像に関連付けて表示されたアイコンもツアーガイドの目に入ることになり、たとえツアー参加者の映像からはその表情や様子がわかりづらかったとしても、当該アイコンを介してツアー参加者の感情を一目で容易に把握することができる。これにより、ツアー参加者が遠隔にいたとしても、把握したツアー参加者の感情に応じてリアルタイムでツアーの内容や進行を調整することが可能となり、ツアー参加者の満足度を上げることが可能となる。
本発明の第19の態様に係るイベント支援システムは、コンピュータが実行するイベント支援方法であって、
ホストが進行を管理するイベントを撮影した第1撮影画像を取得するステップと、
前記第1撮影画像をゲストに対して表示するステップと、
前記ゲストを撮影した第2撮影画像を取得するステップと、
前記第2撮影画像を前記ホストに対して表示するステップと、
前記ゲストの感情を推定するステップと、
推定された前記ゲストの感情を示すアイコンを前記第2撮影画像に関連付けて前記ホストに対して表示するステップと、
を含む。
本発明の第20の態様に係るイベント支援システムは、コンピュータに、
ホストが進行を管理するイベントを撮影した第1撮影画像を取得するステップと、
前記第1撮影画像をゲストに対して表示するステップと、
前記ゲストを撮影した第2撮影画像を取得するステップと、
前記第2撮影画像を前記ホストに対して表示するステップと、
前記ゲストの感情を推定するステップと、
推定された前記ゲストの感情を示すアイコンを前記第2撮影画像に関連付けて前記ホストに対して表示するステップと、
を実行させる。
本発明によれば、カメラを介して授業を受けている生徒の感情を教師が把握しやすくなる。
図1は、一実施の形態に係る授業支援システムの概略的な構成を示す図である。 図2は、サーバの構成を示すブロック図である。 図3は、端末装置の構成を示すブロック図である。 図4は、一実施の形態に係る授業支援システムの動作の一例を示すフローチャートである。 図5は、カメラを介して授業を受ける生徒を撮像した撮影画像を、教師の視線方向に見える実際の映像に重ねて表示する処理の一例を示す図である。 図6は、感情意思-アイコン紐づけデータベースの一例を示すテーブルである。 図7は、推定された生徒の感情の継続時間、検出回数または検出頻度に応じて感情を示すアイコンを強調表示する処理の一例を示す図である。 図8は、同じ感情が推定された生徒の人数に応じて感情を示すアイコンを強調表示する処理の一例を示す図である。
以下に、添付の図面を参照して、実施の形態を詳細に説明する。なお、以下の説明および以下の説明で用いる図面では、同一に構成され得る部分について、同一の符号を用いるとともに、重複する説明を省略する。
図1は、一実施の形態に係る授業支援システム1の概略的な構成を示す図である。
図1に示すように、授業支援システム1は、サーバ2と、1または複数の端末装置3a~3cとを有している。サーバ2と端末装置3a~3cとは、インターネット等のネットワーク4を介して互いに通信可能に接続されている。ネットワーク4は、有線回線と無線回線のいずれでもよく、回線の種類や形態は問わない。なお、サーバ2と端末装置3a~3cの少なくとも一部は、コンピュータにより実現される。
このうち端末装置3a~3cは、授業を受ける生徒が利用するものであり、たとえば、パーソナルコンピュータ(PC)、スマートフォン、タブレット端末などの電子機器である。各端末装置3a~3cの構成は同一であり、以下、符号3を付して代表して説明する。
図3は、端末装置3の構成を示すブロック図である。図3に示すように、端末装置3は、通信部31と、制御部32と、記憶部33と、入力部34と、表示部35と、カメラ36と、生体センサ37とを有している。各部31~36は互いに通信可能に接続されている。
通信部31は、端末装置3とネットワーク4との間の通信インターフェースである。通信部31は、ネットワーク4を介して端末装置3とサーバ2との間で情報を送受信する。
制御部32は、端末装置3の各種処理を行う制御手段である。制御部32は、端末装置3内のプロセッサが所定のプログラムを実行することにより実現されてもよいし、ハードウェアで実装されてもよい。
記憶部33は、たとえばフラッシュメモリ等の不揮発性データストレージある。記憶部33には、制御部32が取り扱う各種データが記憶される。
入力部34は、授業を受けている生徒が端末装置3に情報を入力するためのインターフェースであり、たとえばパーソナルコンピュータにおけるタッチパッド、キーボードまたはマウス、スマートフォンやタブレット端末におけるタッチパネルなどである。入力部34は、生徒が発する音声を受け止めて電気信号に変換するマイクロフォンを含んでいてもよい。
表示部35は、端末装置3から生徒に対して各種情報を表示するインターフェースであり、たとえば液晶ディスプレイや有機ELディスプレイ等の映像表示手段である。
カメラ36は、授業を受けている生徒を撮影して第2撮影画像を生成する。第2撮影画像には、生徒の表情を確認できるように、少なくとも生徒の顔の部分が含まれるのが好ましい。カメラ36としては、たとえばCCDカメラやCMOSカメラが用いられる。
生体センサ37は、授業を受けている生徒の生体情報を取得するセンサである。生体センサ37が取得する生体情報は、生徒の感情の推定に用いることができるものであれば、特に限定されるものではなく、たとえば、脳波および/または心拍であってもよい。すなわち、生体センサ37は、たとえば、脳波センサであってもよいし、心拍センサであってもよいし、それらの組み合わせであってもよい。
次に、サーバ2について説明する。サーバ2は、1台のコンピュータから構成されていてもよいし、ネットワークを介して互いに通信可能に接続された複数台のコンピュータから構成されていてもよい。
図2は、サーバ2の構成を示すブロック図である。図2に示すように、サーバ2は、通信部21と、制御部22と、記憶部23と、入力部24と、表示部25と、カメラ26とを有している。各部21~26は互いに通信可能に接続されている。
このうち通信部21は、サーバ2とネットワーク5との間の通信インターフェースである。通信部21は、ネットワーク5を介してサーバ2と端末装置4a~4cとの間で情報を送受信する。
入力部24は、授業を行う教師がサーバ2に情報を入力するためのインターフェースであり、たとえばマイクロフォンやキーボード、ハンドヘルドコントローラなどである。
表示部25は、サーバ2から教師に対して各種情報を表示するインターフェースであり、たとえば液晶ディスプレイや有機ELディスプレイ等の映像表示手段である。図1に示す例では、表示部25は、教師の頭部に装着され、教師の両眼の視野を覆うタイプの透過型映像表示手段(拡張現実(AR)グラスともいう)である。ARグラスを装着した教師は、表示部25に表示された映像を、教師の視線方向に見える実際の映像に重なった状態で見ることができる。
カメラ26は、教師が行う授業を撮影して第1撮影画像を生成する。第1撮影画像には、授業を行う教師が含まれてもよいし、黒板やホワイトボード、教科書、参考資料、実験器具、演奏器具、運動器具などの教材が含まれていてもよいし、それらの組み合わせが含まれてもよい。カメラ36としては、たとえばCCDカメラやCMOSカメラが用いられる。
記憶部23は、たとえばハードディスクやフラッシュメモリ等の不揮発性データストレージある。記憶部23には、制御部22が取り扱う各種データが記憶される。たとえば、記憶部23は、感情意思-アイコン紐づけデータベース231を含んでいる。
図6は、感情意思-アイコン紐づけデータベースの一例を示すテーブルである。図6に示すように、感情意思-アイコン紐づけデータベース231には、感情または意思ごとに、当該感情または意思を示すアイコンが紐づけられて記憶されている。図6に示す例では、「わかった!」「たのしいね!」「ストレス」「びっくり」「わかりません」「眠い・寝ている」という感情ごとに、当該感情を視覚的に表現するアイコンが紐づけられて記憶されている。また、「質問したい」という意思に対して、当該意思を視覚的に表現するアイコン(たとえば挙手の動作を図形化したアイコン)が紐づけられて記憶されている。
図6に示すように、感情意思-アイコン紐づけデータベース231には、感情ごとに、当該感情を示すアイコンの表示優先順序がさらに記憶されていてもよい。また、感情意思-アイコン紐づけデータベース231には、感情ごとに、当該感情を示すアイコンを表示させるか否かについて教師により予め入力された選択(すなわち「表示」または「非表示」の設定)がさらに記憶されていてもよい。
なお、記憶部23は、必ずしもサーバ2内に設けられていなくてもよく、記憶部23の一部または全部は、ネットワーク4を介してサーバ2と通信可能に接続された別の装置内に設けられていてもよい。
図2に示すように、制御部22は、第1画像取得部221と、第1表示制御部222と、第2画像取得部223と、第2表示制御部224と、感情推定部225と、音声取得部226とを有している。これらの各部221~226は、サーバ2内のプロセッサが所定のプログラムを実行することにより実現されてもよいし、ハードウェアで実装されてもよい。
このうち第1画像取得部221は、教師が行う授業を撮影した第1撮影画像をカメラ26から取得する。取得された第1撮影画像は記憶部23に記憶されてもよい。
第1表示制御部222は、第1画像取得部221により取得された第1撮影画像を端末装置3a~3cに送信して、端末装置3a~3cの表示部35に表示させる。これにより、図1に示すように、教師が行う授業を撮影した第1撮影画像71が生徒に対して表示される。
第2画像取得部223は、授業を受けている生徒を撮影した第2撮影画像を端末装置3a~3cのカメラ36から取得する。取得された第2撮影画像は記憶部23に記憶されてもよい。
第2表示制御部224は、第2画像取得部223により取得された第2撮影画像を表示部25に表示させる。これにより、図5に示すように、授業を受けている生徒を撮影した第2撮影画像72a、72bが教師に対して表示される。
音声取得部226は、授業を受けている生徒が発した音声を端末装置3a~3cの入力部34(マイクロフォン)から取得する。取得された生徒の音声は記憶部23に記憶されてもよい。
感情推定部225は、授業を受けている生徒の感情を推定する。たとえば、感情推定部225は、第2撮影画像から抽出される生徒の目線の動き、生徒の生体センサ37から取得される生体情報(たとえば脳波および/または脈拍)、および、教師からの問いかけ(たとえば「分かりましたか?」)に対する生徒からの回答のうちの1つまたは2つ以上に基づいて、生徒の感情を推定する。感情推定部225は、第2撮影画像から抽出される生徒の表情や顔色、動作(首をひねる、下を向く、あくびをするなど)、生徒が発した音声(「わからない」というつぶやきなど)などをさらに考慮して、生徒の感情を推定してもよい。
第2表示制御部224は、感情推定部225により生徒の感情が推定された場合には、感情意思-アイコン紐づけデータベース231を参照し、推定された感情に対応するアイコンを特定し、図5に示すように、特定されたアイコン73を、当該生徒を撮影した第2撮影画像72aに関連付けて表示部25に表示する。これにより、授業中に教師が生徒の映像(第2撮影画像72a)を確認するときに、当該映像に関連付けて表示されたアイコン73も教師の目に入ることになり、たとえ生徒の映像(第2撮影画像72a)からはその表情や様子がわかりづらかったとしても、当該アイコン73を介して生徒の感情を一目で容易に把握することが可能となる。
生徒の感情を示すアイコン73の表示位置は、当該生徒を撮影した第2撮影画像72aに関連していることを視覚的に確認できる位置であれば、特に限定されるものではなく、たとえば、当該生徒を撮影した第2撮影画像72aの周囲(たとえば上方)に表示されてもよいし、当該生徒を撮影した第2撮影画像72aの一部に重なるように表示されてもよい。
第2表示制御部224は、推定された生徒の感情の継続時間、検出回数または検出頻度に応じて、アイコン73を強調表示および/または優先表示してもよい。ここで「強調表示」とは他のアイコンに比べて目立つように表示されることをいう。具体的には、たとえば「わかりません」という感情が10秒継続するごとに、図7に示すように、「?」マークのアイコン73の数が増えていってもよいし、当該アイコン73の表示サイズが大きくなっていってもよいし、当該アイコン73の表示が振動したり跳びはねたりしてもよい。また「優先表示」とは他のアイコンに比べて優先的に表示されることをいう。たとえば、推定された生徒の感情の継続時間、検出回数または検出頻度が高い順に優先度の順序付けを行って、優先度が高いアイコンのみが表示され、優先度が低いアイコンは非表示にされてもよい。生徒の感情の継続時間、検出回数または検出頻度(すなわち生徒の感情の強さ)に応じてアイコン73が強調表示および/または優先表示されることで、多数の生徒が授業に参加していたとしても、ある生徒の感情が強い場合には、教師は、強調表示または優先表示されたアイコン73を介して当該生徒の感情に容易に気づき、的確に状況を把握することが可能となる。
第2表示制御部224は、同じ感情が推定された生徒の人数に応じて当該感情を示すアイコン73を強調表示および/または優先表示してもよい。具体的には、たとえば、「わかりません」という感情が同時に4人の生徒に対して推定された場合には、図8に示すように、「?」マークのアイコン73の表示が振動したり跳びはねたりされてもよいし、「?」マークのアイコン73のみが表示され、他の感情を示すアイコンは非表示にされてもよい。同じ感情を有する生徒の人数に応じて当該感情を示すアイコン73が強調表示および/または優先表示されることで、教師は、複数の生徒で共有されている感情の存在に容易に気づいて的確に状況を把握することが可能となる。
図6に示すように、感情ごとに表示優先順序が予め定められている場合には、第2表示制御部224は、表示優先順序が高いアイコンを、低いアイコンより優先表示してもよい。図6に示す例では、「わかった!」「たのしいね!」「びっくり」といったポジティブな感情の表示優先順序は、「ストレス」「わかりません」「眠い・寝ている」といったネガティブな感情の表示優先順序より高くなっている。この場合、ポジティブな感情を示すアイコンのみが表示され、ネガティブな感情を示すアイコンは非表示にされてもよい。表示優先順序に従ってアイコン73の優先表示が行われることで、教師は、重要な感情を抱いている生徒の存在に容易に気づいて的確に状況を把握することが可能となる。
図6に示すように、感情ごとに表示させるか否かを教師が選択できるようになっている場合には、第2表示制御部224は、教師による選択に基づいてアイコンを表示するか否かを制御してもよい。図6に示す例では、「わかった!」「たのしいね!」「ストレス」「びっくり」「わかりません」の感情は「表示」と設定され、「眠い・寝ている」の感情は「非表示」と設定されている。この場合、「わかった!」「たのしいね!」「ストレス」「びっくり」「わかりません」の感情に対応するアイコンのみが表示され、「眠い・寝ている」の感情に対応するアイコンは非表示にされてもよい。教師の選択に従ってアイコン73の優先表示が行われることで、教師は、当該教師にとって重要な感情を抱いている生徒の存在に容易に気づいて的確に状況を把握することが可能となる。
第2表示制御部224は、音声取得部226により生徒の音声が取得された場合には、取得された生徒の音声に基づいて、生徒が質問したいという意思を有しているか否かを判定する。たとえば、取得された生徒の音声が「はい!」「先生!」「質問!」などである場合には、当該生徒には質問したいという意思があると判定する。そして、質問したいという意思があると判定された場合には、第2表示制御部224は、感情意思-アイコン紐づけデータベース231を参照し、質問したいという意思があることを示すアイコンを特定し、図5に示すように、特定されたアイコン74を、当該生徒を撮影した第2撮影画像72bに関連付けて表示部25に表示する。これにより、生徒が遠隔からカメラを介して授業に参加している場合であっても、質問したいときには、教室内で実際に着席して授業を受けているときと同様に音声を発するだけで、質問したいという意思があることを迅速かつ円滑に教師に伝えることが可能となる。
質問したいという意思があることを示すアイコン74の表示位置は、当該生徒を撮影した第2撮影画像72bに関連していることを視覚的に確認できる位置であれば、特に限定されるものではなく、たとえば、当該生徒を撮影した第2撮影画像72bの周囲(たとえば上方)に表示されてもよいし、当該生徒を撮影した第2撮影画像72bの一部に重なるように表示されてもよい。
図1に示すように、表示部35がARグラスである場合には、第2表示制御部224は、図5に示すように、第2撮影画像72a、72bおよびアイコン73、74を教師の視線方向に見える実際の映像に重ねて表示する。これにより、教師は、教室内で実際に着席して授業を受けている生徒と、遠隔からカメラを介して授業に参加している生徒の両方の様子を同時に確認しながら、授業を行うことができ、遠隔・在室を問わず授業に参加する生徒全員の理解度を上げることが可能となる。
図5に示すように、第2表示制御部224は、第2撮影画像72a、72bおよびアイコン73、74を教室内で実際に着席している他の生徒の上方に表示してもよい。この場合、教師の視界において、教室内で実際に着席して授業を受けている生徒と、遠隔からカメラを介して授業に参加している生徒とが互いに重ならずに表示されるようになるため、遠隔・在室を問わず授業に参加する生徒全員の様子を同時に確認することが容易となる。
次に、このような構成からなる授業支援システム1の動作の一例について、図3を参照して説明する。図3は、授業支援システム1の動作の一例を示すフローチャートである。
図3に示すように、まず、サーバ2のカメラ26が、教師が行う授業を撮影して第1撮影画像を生成し、第1画像取得部221が、教師が行う授業を撮影した第1撮影画像をカメラ26から取得する(ステップS10)。
次いで、第1表示制御部222が、第1画像取得部221により取得された第1撮影画像を端末装置3a~3cに送信して、端末装置3a~3cの表示部35に表示させる(ステップS11)。これにより、図1に示すように、教師が行う授業を撮影した第1撮影画像71が生徒に対して表示される。
ステップS10、S11と並行して、端末装置3a~3cのカメラ36が、授業を受けている生徒を撮影して第2撮影画像を生成し、第2画像取得部223が、授業を受けている生徒を撮影した第2撮影画像を端末装置3a~3cのカメラ36から取得する(ステップS12)。
次いで、第2表示制御部224が、第2画像取得部223により取得された第2撮影画像を表示部25に表示させる(ステップS13)。これにより、図5に示すように、授業を受けている生徒を撮影した第2撮影画像72a、72bが教師に対して表示される。
ステップS13において、第2表示制御部224は、図5に示すように、第2撮影画像72a、72bを教師の視線方向に見える実際の映像に重ねて表示してもよい。図5に示すように、第2表示制御部224は、第2撮影画像72a、72bを教室内で実際に着席している他の生徒の上方に表示してもよい。
次に、感情推定部225が、授業を受けている生徒の感情を推定する(ステップS14)。たとえば、感情推定部225は、第2撮影画像72から抽出される生徒の目線の動き、生徒の生体センサ37から取得される生体情報(たとえば脳波および/または脈拍)、および、教師からの問いかけ(たとえば「分かりましたか?」)に対する生徒からの回答のうちの1つまたは2つ以上に基づいて、生徒の感情を推定してもよい。感情推定部225は、第2撮影画像から抽出される生徒の表情や顔色、動作(首をひねる、下を向く、あくびをするなど)、生徒が発した音声(「わからない」というつぶやきなど)などをさらに考慮して、生徒の感情を推定してもよい。
次いで、第2表示制御部224は、感情意思-アイコン紐づけデータベース231を参照し、推定された感情に対応するアイコンを特定する(ステップS15)。推定された感情に対応するアイコンが特定された場合には(ステップS15:YES)、第2表示制御部224は、特定されたアイコン73を、当該生徒を撮影した第2撮影画像72aに関連付けて表示部25に表示する(ステップ16)。これにより、図5に示すように、生徒の感情を示すアイコン73が、当該生徒を撮影した第2撮影画像72aに関連していることを視覚的に確認できる態様にて、教師に対して表示される。
次に、音声取得部226が、授業を受けている生徒が発した音声を端末装置3a~3cの入力部34(マイクロフォン)から取得する(ステップS17)。
そして、第2表示制御部224が、取得された生徒の音声に基づいて、生徒が質問したいという意思を有しているか否かを判定する(ステップS18)。たとえば、取得された生徒の音声が「はい!」「先生!」「質問!」などである場合には、当該生徒には質問したいという意思があると判定する。そして、質問したいという意思があると判定された場合には(ステップS18:YES)、第2表示制御部224は、感情意思-アイコン紐づけデータベース231を参照し、質問したいという意思があることを示すアイコンを特定し、図5に示すように、特定されたアイコン74を、当該生徒を撮影した第2撮影画像72bに関連付けて表示部25に表示する(ステップS20)。
次に、サーバ2の制御部22は、授業が終了となるか否かを判定する(ステップS21)。制御部22は、現在時刻が予め定められた授業終了時刻を経過するときに、授業が終了となると判定してもよいし、教師から授業を終了するための予め定められた入力操作を受け取ったときに、授業が終了となると判定してもよい。授業が終了となると判定された場合には(ステップS21:NO)、授業支援システム1は、上述した一連の処理を終了する。他方、授業が終了となると判定されなかった場合には(ステップS21:NO)、授業支援システム1は、ステップS10に戻って一連の処理を継続する。
以上のように、本実施の形態によれば、第2表示制御部224が、生徒を撮影した第2撮影画像72aを教師に対して表示する際に、生徒の感情を示すアイコン73を第2撮影画像73aに関連付けて表示するため、授業中に教師が生徒の映像(第2撮影画像72a)を確認するときに、当該映像に関連付けて表示されたアイコン73も教師の目に入ることになり、たとえ生徒の映像からはその表情や様子がわかりづらかったとしても、当該アイコン73を介して生徒の感情を一目で容易に把握することができる。これにより、生徒が遠隔にいたとしても、把握した生徒の感情に応じてリアルタイムで授業の内容や進行を調整することが可能となり、遠隔・在室を問わず授業に参加する生徒全員の理解度を上げることが可能となる。
なお、上述した実施の形態において、「授業」を「イベント」、授業を行う「教師」をイベントの進行を管理する「ホスト」、授業を受ける「生徒」をイベントに参加する「ゲスト」に置き換えて、一実施の形態に係るイベント支援システムを構成することも可能である。
たとえば、一実施の形態に係るイベント支援システムは、図2を参照し、ホストが進行を管理するイベントを撮影した第1撮影画像を取得する第1画像取得部221と、第1撮影画像をゲストに対して表示する第1表示制御部222と、ゲストを撮影した第2撮影画像を取得する第2画像取得部223と、第2撮影画像をホストに対して表示する第2表示制御部224と、ゲストの感情を推定する感情推定部225と、を有していてもよい。感情推定部225は、第2撮影画像から抽出されるゲストの目線の動き、ゲストの生体センサ37から取得される生体情報、および、ホストからの問いかけに対するゲストからの回答のうちの1つまたは2つ以上に基づいて、ゲストの感情を推定してもよい。
一実施の形態に係るイベント支援システムにおいて、第2表示制御部224は、推定されたゲストの感情を示すアイコン72を第2撮影画像71aに関連付けてホストに対して表示してもよい。ホストの表示部25はARグラスであってもよく、第2表示制御部224は、図5を参照し、第2撮影画像71a、71bおよびアイコン72、73をホストの視線方向に見える実際の映像に重ねて表示してもよい。
このような一実施の形態に係るイベント支援システムによっても、上述した授業支援システムと同様の作用効果が得られる。
たとえば、一実施の形態に係るイベント支援システムの一例として、「イベント」は「作業訓練」であり、「ホスト」は「トレーナー」であり、「ゲスト」は「トレーニー」であって、「作業訓練支援システム」が構成されてもよい。すなわち、イベント支援システムの一例としての作業訓練支援システムは、トレーナーが進行を管理する作業訓練を撮影した第1撮影画像を取得する第1画像取得部221と、第1撮影画像71をトレーニーに対して表示する第1表示制御部222と、トレーニーを撮影した第2撮影画像を取得する第2画像取得部223と、第2撮影画像72aをトレーナーに対して表示する第2表示制御部224と、トレーニーの感情を推定する感情推定部225と、を有しており、第2表示制御部224は、推定されたトレーニーの感情を示すアイコン73を第2撮影画像72aに関連付けてトレーナーに対して表示してもよい。
このような構成を有する作業訓練支援システムによれば、第2表示制御部224が、作業訓練を受けているトレーニーを撮影した第2撮影画像72aをトレーナーに対して表示する際に、トレーニーの感情を示すアイコン73を第2撮影画像72aに関連付けて表示するため、作業訓練中にトレーナーがトレーニーの映像(第2撮影画像72a)を確認するときに、当該映像に関連付けて表示されたアイコン73もトレーナーの目に入ることになり、たとえトレーニーの映像からはその表情や様子がわかりづらかったとしても、当該アイコン73を介してトレーニーの感情を一目で容易に把握することができる。これにより、トレーニーが遠隔にいたとしても、把握したトレーニーの感情に応じてリアルタイムで職業訓練の内容や進行を調整することが可能となり、遠隔・在室を問わず作業訓練に参加するトレーニー全員の理解度を上げることが可能となる。
一実施の形態に係るイベント支援システムの別の一例として、「イベント」は「診察」であり、「ホスト」は「医師」であり、「ゲスト」は「患者」であって、「診察支援システム」が構成されてもよい。すなわち、イベント支援システムの一例としての診察支援システムは、医師が進行を管理する診察を撮影した第1撮影画像を取得する第1画像取得部221と、第1撮影画像71を患者に対して表示する第1表示制御部222と、患者を撮影した第2撮影画像を取得する第2画像取得部223と、第2撮影画像72aを医師に対して表示する第2表示制御部224と、患者の感情を推定する感情推定部225と、を有しており、第2表示制御部224は、推定された患者の感情を示すアイコン73を第2撮影画像72aに関連付けて医師に対して表示してもよい。
このような構成を有する診察支援システムによれば、第2表示制御部224が、(遠隔)診察を受けている患者を撮影した第2撮影画像72aを医師に対して表示する際に、患者の感情を示すアイコン73を第2撮影画像に関連付けて表示するため、診察中に医師が患者の映像(第2撮影画像72a)を確認するときに、当該映像に関連付けて表示されたアイコン73も医師の目に入ることになり、たとえ患者の映像からはその表情や様子がわかりづらかったとしても、当該アイコン73を介して患者の感情を一目で容易に把握することができる。これにより、患者が遠隔にいたとしても、把握した患者の感情に応じてリアルタイムで診察の内容や進行を調整することが可能となり、診察の正確性および患者の満足度を上げることが可能となる。
一実施の形態に係るイベント支援システムのさらに別の一例として、「イベント」は「ツアー」であり、「ホスト」は「ツアーガイド」であり、「ゲスト」は「ツアー参加者」であって、「ツアー支援システム」が構成されてもよい。すなわち、イベント支援システムの一例としてのツアー支援システムは、ツアーガイドが進行を管理するツアーを撮影した第1撮影画像を取得する第1画像取得部221と、第1撮影画像をツアー参加者に対して表示する第1表示制御部222と、ツアー参加者を撮影した第2撮影画像72aを取得する第2画像取得部223と、第2撮影画像72aをツアーガイドに対して表示する第2表示制御部224と、ツアー参加者の感情を推定する感情推定部225と、を有しており、第2表示制御部224は、推定されたツアー参加者の感情を示すアイコン73を第2撮影画像72aに関連付けてツアーガイドに対して表示してもよい。
このような構成を有するツアー支援システムによれば、第2表示制御部224が、ツアーに参加しているツアー参加者を撮影した第2撮影画像72aをツアーガイドに対して表示する際に、ツアー参加者の感情を示すアイコン73を第2撮影画像71aに関連付けて表示するため、ツアー中にツアーガイドがツアー参加者の映像(第2撮影画像72a)を確認するときに、当該映像に関連付けて表示されたアイコン73もツアーガイドの目に入ることになり、たとえツアー参加者の映像からはその表情や様子がわかりづらかったとしても、当該アイコン73を介してツアー参加者の感情を一目で容易に把握することができる。これにより、ツアー参加者が遠隔にいたとしても、把握したツアー参加者の感情に応じてリアルタイムでツアーの内容や進行を調整することが可能となり、ツアー参加者の満足度を上げることが可能となる。
なお、上述した実施の形態の記載ならびに図面の開示は、特許請求の範囲に記載された発明を説明するための一例に過ぎず、上述した実施の記載または図面の開示によって特許請求の範囲に記載された発明が限定されることはない。上述した実施の形態の構成要素は、発明の主旨を逸脱しない範囲で任意に組み合わせることが可能である。
また、本実施の形態に係る授業支援システム1の少なくとも一部はコンピュータによって構成され得るが、コンピュータに授業支援システム1の少なくとも一部を実現させるためのプログラム及び当該プログラムを非一時的(non-transitory)に記録したコンピュータ読取可能な記録媒体も、本件の保護対象である。
1 授業支援システム
2 サーバ
21 通信部
22 制御部
221 第1画像取得部
222 第1表示制御部
223 第2画像取得部
224 第2表示制御部
225 感情推定部
226 音声取得部
23 記憶部
231 感情意思-アイコン紐づけデータベース
24 入力部
25 表示部
26 カメラ
3、3a~3c 端末装置
31 通信部
32 制御部
33 記憶部
34 入力部
35 表示部
36 カメラ
37 生体センサ
4 ネットワーク
71 第1撮影画像
72a、72b 第2撮影画像
73 感情を示すアイコン
74 質問したいという意思を示すアイコン

Claims (20)

  1. 教師が行う授業を撮影した第1撮影画像を取得する第1画像取得部と、
    前記第1撮影画像を生徒に対して表示する第1表示制御部と、
    前記生徒を撮影した第2撮影画像を取得する第2画像取得部と、
    前記第2撮影画像を前記教師に対して表示する第2表示制御部と、
    前記生徒の感情を推定する感情推定部と、
    を備え、
    前記第2表示制御部は、推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示し
    前記第2表示制御部は、前記第2撮影画像およびアイコンを前記教師の視線方向に見える実際の映像に重ねて、教室内で実際に着席している他の生徒の上方に表示する、
    ことを特徴とする授業支援システム。
  2. 教師が行う授業を撮影した第1撮影画像を取得する第1画像取得部と、
    前記第1撮影画像を生徒に対して表示する第1表示制御部と、
    前記生徒を撮影した第2撮影画像を取得する第2画像取得部と、
    前記第2撮影画像を前記教師に対して表示する第2表示制御部と、
    前記生徒の感情を推定する感情推定部と、
    を備え、
    前記第2表示制御部は、推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示し、
    前記生徒が発した音声を取得する音声取得部をさらに備え、
    前記第2表示制御部は、前記生徒の音声に基づいて前記生徒に質問したいという意思があるか否かを判定し、質問したいという意思があると判定された場合には、質問したいという意思があることを示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示する、
    ことを特徴とする授業支援システム。
  3. 教師が行う授業を撮影した第1撮影画像を取得する第1画像取得部と、
    前記第1撮影画像を生徒に対して表示する第1表示制御部と、
    前記生徒を撮影した第2撮影画像を取得する第2画像取得部と、
    前記第2撮影画像を前記教師に対して表示する第2表示制御部と、
    前記生徒の感情を推定する感情推定部と、
    を備え、
    前記第2表示制御部は、推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示し、
    前記第2表示制御部は、推定された前記生徒の感情の継続時間、検出回数または検出頻度に応じて前記アイコンを強調表示および/または優先表示する、
    ことを特徴とする授業支援システム。
  4. 教師が行う授業を撮影した第1撮影画像を取得する第1画像取得部と、
    前記第1撮影画像を生徒に対して表示する第1表示制御部と、
    前記生徒を撮影した第2撮影画像を取得する第2画像取得部と、
    前記第2撮影画像を前記教師に対して表示する第2表示制御部と、
    前記生徒の感情を推定する感情推定部と、
    を備え、
    前記第2表示制御部は、推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示し、
    前記第2表示制御部は、同じ感情が推定された生徒の人数に応じて前記アイコンを強調表示および/または優先表示する、
    ことを特徴とする授業支援システム。
  5. 教師が行う授業を撮影した第1撮影画像を取得する第1画像取得部と、
    前記第1撮影画像を生徒に対して表示する第1表示制御部と、
    前記生徒を撮影した第2撮影画像を取得する第2画像取得部と、
    前記第2撮影画像を前記教師に対して表示する第2表示制御部と、
    前記生徒の感情を推定する感情推定部と、
    を備え、
    前記第2表示制御部は、推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示し、
    感情ごとに表示優先順序が予め定められており、前記第2表示制御部は、前記表示優先順序が高いアイコンを低いアイコンより優先表示する、
    ことを特徴とする授業支援システム。
  6. 教師が行う授業を撮影した第1撮影画像を取得する第1画像取得部と、
    前記第1撮影画像を生徒に対して表示する第1表示制御部と、
    前記生徒を撮影した第2撮影画像を取得する第2画像取得部と、
    前記第2撮影画像を前記教師に対して表示する第2表示制御部と、
    前記生徒の感情を推定する感情推定部と、
    を備え、
    前記第2表示制御部は、推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示し、
    感情ごとに表示させるか否かを前記教師が選択できるようになっており、前記第2表示制御部は、前記教師による選択に基づいて前記アイコンを表示するか否かを制御する、
    ことを特徴とする授業支援システム。
  7. 前記感情推定部は、前記第2撮影画像から抽出される前記生徒の目線の動き、前記生徒の生体センサから取得される生体情報、および、前記教師からの問いかけに対する前記生徒からの回答のうちの1つまたは2つ以上に基づいて、前記生徒の感情を推定する、
    ことを特徴とする請求項1~6のいずれかに記載の授業支援システム。
  8. 前記生体情報は、脳波および/または心拍である、
    ことを特徴とする請求項7に記載の授業支援システム。
  9. コンピュータが実行する授業支援方法であって、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップであって、前記第2撮影画像およびアイコンを前記教師の視線方向に見える実際の映像に重ねて、教室内で実際に着席している他の生徒の上方に表示するステップと、
    を含むことを特徴とする授業支援方法。
  10. コンピュータが実行する授業支援方法であって、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップ、
    前記生徒が発した音声を取得するステップと、
    前記生徒の音声に基づいて前記生徒に質問したいという意思があるか否かを判定し、質問したいという意思があると判定された場合には、質問したいという意思があることを示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップと、
    を含むことを特徴とする授業支援方法。
  11. コンピュータが実行する授業支援方法であって、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップであって、推定された前記生徒の感情の継続時間、検出回数または検出頻度に応じて前記アイコンを強調表示および/または優先表示するステップと、
    を含むことを特徴とする授業支援方法。
  12. コンピュータが実行する授業支援方法であって、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップであって、同じ感情が推定された生徒の人数に応じて前記アイコンを強調表示および/または優先表示するステップと、
    を含むことを特徴とする授業支援方法。
  13. コンピュータが実行する授業支援方法であって、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップであって、感情ごとに表示優先順序が予め定められており、前記表示優先順序が高いアイコンを低いアイコンより優先表示するステップと、
    を含むことを特徴とする授業支援方法。
  14. コンピュータが実行する授業支援方法であって、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップであって、感情ごとに表示させるか否かを前記教師が選択できるようになっており、前記教師による選択に基づいて前記アイコンを表示するか否かを制御するステップと、
    を含むことを特徴とする授業支援方法。
  15. コンピュータに、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップであって、前記第2撮影画像およびアイコンを前記教師の視線方向に見える実際の映像に重ねて、教室内で実際に着席している他の生徒の上方に表示するステップと、
    を実行させることを特徴とする授業支援プログラム。
  16. コンピュータに、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップ、
    前記生徒が発した音声を取得するステップと、
    前記生徒の音声に基づいて前記生徒に質問したいという意思があるか否かを判定し、質問したいという意思があると判定された場合には、質問したいという意思があることを示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップと、
    を実行させることを特徴とする授業支援プログラム。
  17. コンピュータに、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップであって、推定された前記生徒の感情の継続時間、検出回数または検出頻度に応じて前記アイコンを強調表示および/または優先表示するステップと、
    を実行させることを特徴とする授業支援プログラム。
  18. コンピュータに、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップであって、同じ感情が推定された生徒の人数に応じて前記アイコンを強調表示および/または優先表示するステップと、
    を実行させることを特徴とする授業支援プログラム。
  19. コンピュータに、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップであって、感情ごとに表示優先順序が予め定められており、前記表示優先順序が高いアイコンを低いアイコンより優先表示するステップと、
    を実行させることを特徴とする授業支援プログラム。
  20. コンピュータに、
    教師が行う授業を撮影した第1撮影画像を取得するステップと、
    前記第1撮影画像を生徒に対して表示するステップと、
    前記生徒を撮影した第2撮影画像を取得するステップと、
    前記第2撮影画像を前記教師に対して表示するステップと、
    前記生徒の感情を推定するステップと、
    推定された前記生徒の感情を示すアイコンを前記第2撮影画像に関連付けて前記教師に対して表示するステップであって、感情ごとに表示させるか否かを前記教師が選択できるようになっており、前記教師による選択に基づいて前記アイコンを表示するか否かを制御するステップと、
    を実行させることを特徴とする授業支援プログラム。
JP2021168331A 2021-10-13 2021-10-13 授業支援システム、授業支援方法、授業支援プログラム Active JP7263475B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021168331A JP7263475B1 (ja) 2021-10-13 2021-10-13 授業支援システム、授業支援方法、授業支援プログラム
JP2022200080A JP7442611B2 (ja) 2021-10-13 2022-12-15 イベント支援システム、イベント支援方法、イベント支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021168331A JP7263475B1 (ja) 2021-10-13 2021-10-13 授業支援システム、授業支援方法、授業支援プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022200080A Division JP7442611B2 (ja) 2021-10-13 2022-12-15 イベント支援システム、イベント支援方法、イベント支援プログラム

Publications (2)

Publication Number Publication Date
JP7263475B1 true JP7263475B1 (ja) 2023-04-24
JP2023061407A JP2023061407A (ja) 2023-05-02

Family

ID=86054448

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021168331A Active JP7263475B1 (ja) 2021-10-13 2021-10-13 授業支援システム、授業支援方法、授業支援プログラム
JP2022200080A Active JP7442611B2 (ja) 2021-10-13 2022-12-15 イベント支援システム、イベント支援方法、イベント支援プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022200080A Active JP7442611B2 (ja) 2021-10-13 2022-12-15 イベント支援システム、イベント支援方法、イベント支援プログラム

Country Status (1)

Country Link
JP (2) JP7263475B1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023506A (ja) 2004-07-07 2006-01-26 Tokai Univ 電子教材学習支援装置と電子教材学習支援システム及び電子教材学習支援方法並びに電子学習支援プログラム
JP2020157820A (ja) 2019-03-25 2020-10-01 株式会社Subaru 車両の制御装置、車両の制御方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0349575U (ja) * 1989-09-20 1991-05-15
JP2011039934A (ja) 2009-08-17 2011-02-24 Tokai Univ 感情推定システム及びそれを利用した学習システム
JP2012059107A (ja) 2010-09-10 2012-03-22 Nec Corp 感情推定装置、感情推定方法およびプログラム
JP2018205638A (ja) 2017-06-08 2018-12-27 大和ハウス工業株式会社 集中度評価機構
WO2018225218A1 (ja) 2017-06-08 2018-12-13 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
WO2019168162A1 (ja) 2018-03-01 2019-09-06 学校法人玉川学園 情報処理装置、情報処理方法、及びプログラム
JP2020080154A (ja) 2018-11-09 2020-05-28 株式会社テンアップ 情報処理システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023506A (ja) 2004-07-07 2006-01-26 Tokai Univ 電子教材学習支援装置と電子教材学習支援システム及び電子教材学習支援方法並びに電子学習支援プログラム
JP2020157820A (ja) 2019-03-25 2020-10-01 株式会社Subaru 車両の制御装置、車両の制御方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TeacherView,Internet Archive [online],2021年05月09日,https://web.archive.org/web/20210509125010/https://teacherview.jp/,[検索日:2022年11月9日]

Also Published As

Publication number Publication date
JP2023061407A (ja) 2023-05-02
JP7442611B2 (ja) 2024-03-04
JP2023058477A (ja) 2023-04-25

Similar Documents

Publication Publication Date Title
US10643487B2 (en) Communication and skills training using interactive virtual humans
Damian et al. Augmenting social interactions: Realtime behavioural feedback using social signal processing techniques
US20220028296A1 (en) Information processing apparatus, information processing method, and computer program
US9099011B2 (en) Learning tool and method of recording, reviewing, and analyzing face-to-face human interaction
US9262539B2 (en) Mobile device and system for recording, reviewing, and analyzing human relationship
Stickler et al. Eye movements of online Chinese learners
US11837233B2 (en) Information processing device to automatically detect a conversation
JP2010204926A (ja) モニタリングシステム、モニタリング方法、およびプログラム
JP7082384B1 (ja) 学習システム及び学習方法
JP2019062490A (ja) 制御装置、制御方法、プログラム及び制御システム
US9832392B2 (en) Mobile device for recording, reviewing, and analyzing video
JP2014235558A (ja) 協働活動支援装置
TWI642026B (zh) 心理與行為狀態評量暨診斷方法及系統
JP7263475B1 (ja) 授業支援システム、授業支援方法、授業支援プログラム
CN113748449A (zh) 评估和培训系统
US20230326092A1 (en) Real-time visualization of head mounted display user reactions
US9571753B2 (en) Mobile device for recording, reviewing, and analyzing video
WO2022024353A1 (ja) 反応解析システム
JP2014235557A (ja) 協働活動支援システム
Schild et al. ViTAWiN-Interprofessional Medical Mixed Reality Training for Paramedics and Emergency Nurses
KR20160109101A (ko) 터치스크린을 이용한 주의력결핍 과잉행동 진단 시스템
JP7289169B1 (ja) 情報処理装置、方法、プログラム、およびシステム
US10665268B1 (en) Audio-video analytics for simulation-based training
JP7100938B1 (ja) 動画像分析プログラム
WO2022137502A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R150 Certificate of patent or registration of utility model

Ref document number: 7263475

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150