JP2017102154A - Lecture confirmation system - Google Patents
Lecture confirmation system Download PDFInfo
- Publication number
- JP2017102154A JP2017102154A JP2015232987A JP2015232987A JP2017102154A JP 2017102154 A JP2017102154 A JP 2017102154A JP 2015232987 A JP2015232987 A JP 2015232987A JP 2015232987 A JP2015232987 A JP 2015232987A JP 2017102154 A JP2017102154 A JP 2017102154A
- Authority
- JP
- Japan
- Prior art keywords
- lecture
- unit
- lecturer
- confirmation
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012790 confirmation Methods 0.000 title claims abstract description 55
- 238000011156 evaluation Methods 0.000 claims abstract description 47
- 230000033001 locomotion Effects 0.000 claims description 40
- 230000009471 action Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 abstract description 16
- 238000012544 monitoring process Methods 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000006872 improvement Effects 0.000 description 8
- 210000005252 bulbus oculi Anatomy 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、カメラを用いて教室で講義を受講する受講者をモニタリングする講義確認システムに関する。 The present invention relates to a lecture confirmation system for monitoring students who take a lecture in a classroom using a camera.
教室内での各受講者の受講状態を同時にモニタリングすることができる受講状態改善支援システムが提案されている(例えば、特許文献1を参照)。 An attendance state improvement support system capable of simultaneously monitoring the attendance state of each student in the classroom has been proposed (see, for example, Patent Document 1).
しかしながら、従来技術では、良好、居眠り、私語等の受講態度を判断することができるが、講師の行った講義内容については考慮されていない。 However, in the prior art, it is possible to judge the attendance attitude such as good, doze, private language, etc., but the contents of the lecture given by the lecturer are not considered.
本発明は上記課題に鑑みてなされたものであり、教室内での各受講者の受講状態を同時にモニタリングすることで、講師が行った講義内容を評価することができる講義確認システムを提供することを目的とする。 The present invention has been made in view of the above problems, and provides a lecture confirmation system capable of evaluating the contents of lectures conducted by a lecturer by simultaneously monitoring the attendance status of each student in the classroom. With the goal.
本発明の講義確認システムは、講義室の前方側から座席に着席した受講者全員を撮影する撮影部と、
確認ポイントの指示を受け付けるポイント入力部と、
前記確認ポイントが指示されると、前記撮影部によって撮影された撮影データに基づいて受講者毎の動作認識をそれぞれ行う動作認識部と、
該動作認識部による前記確認ポイント毎の動作認識結果に基づく講義評価生成部とを具備することを特徴とする講義確認システム。
さらに、本発明の講義確認システムにおいて、
前記動作認識部は、動作認識を行って、受講者が講師に注目しているか否かを判断し、
前記講義評価生成部は、前記確認ポイント毎の注目率を前記講義評価として算出しても良い。
さらに、本発明の講義確認システムにおいて、前記動作認識部は、動作認識を行って、受講者が挙手したか否かをそれぞれ判断し、前記講義評価生成部は、前記確認ポイント毎の挙手率を前記講義評価として算出しても良い。
さらに、本発明の講義確認システムにおいて、講師視点を特定する視点特定部を具備し、前記講義評価生成部は、前記視点特定部によって特定された講師視点に基づいて、前記座席毎に講師の視線が向けられた講師視点比率を前記講義評価として算出しても良い。
さらに、本発明の講義確認システムにおいて、講師の音声を集音するマイクを具備し、前記動作認識部は、前記確認ポイントが指示されると、予め設定された所定時間だけ、前記マイクから送信されてくる音声データに基づいて講師の発声音量を計測し、前記講義評価生成部は、前記動作認識部によって計測された前記確認ポイント毎の発声音量の平均値もしくは最大値を前記講義評価として算出しても良い。
The lecture confirmation system of the present invention includes a photographing unit that photographs all students seated on the seat from the front side of the lecture room,
A point input unit for receiving confirmation point instructions;
When the confirmation point is instructed, an action recognition unit that performs action recognition for each student based on shooting data shot by the shooting unit;
A lecture confirmation generation unit comprising: a lecture evaluation generation unit based on a motion recognition result for each confirmation point by the motion recognition unit.
Furthermore, in the lecture confirmation system of the present invention,
The motion recognition unit performs motion recognition to determine whether the student is paying attention to the lecturer,
The lecture evaluation generation unit may calculate an attention rate for each confirmation point as the lecture evaluation.
Furthermore, in the lecture confirmation system of the present invention, the motion recognition unit performs motion recognition to determine whether or not the student has raised his hand, and the lecture evaluation generation unit calculates the rate of raising hand for each confirmation point. It may be calculated as the lecture evaluation.
Furthermore, in the lecture confirmation system according to the present invention, the lecture confirmation system includes a viewpoint identification unit that identifies a lecturer viewpoint, and the lecture evaluation generation unit is configured to determine the gaze of the lecturer for each seat based on the lecturer viewpoint identified by the viewpoint identification unit The lecturer viewpoint ratio to which is directed may be calculated as the lecture evaluation.
Furthermore, in the lecture confirmation system of the present invention, the lecture recognition system includes a microphone that collects the voice of the lecturer, and when the confirmation point is instructed, the motion recognition unit is transmitted from the microphone for a preset predetermined time. Based on the incoming voice data, the utterance volume of the instructor is measured, and the lecture evaluation generation unit calculates the average or maximum value of the utterance volume for each confirmation point measured by the motion recognition unit as the lecture evaluation. May be.
本発明によれば、教室内での各受講者の受講状態を同時にモニタリングすることで、講師が行った講義内容を評価することで、改善点を把握することができるという効果を奏する。 According to the present invention, by monitoring the attendance status of each student in the classroom at the same time, it is possible to evaluate the content of the lecture performed by the instructor, so that an improvement point can be grasped.
以下、図を参照して本発明の実施形態を詳細に説明する。なお、以下の実施形態において、同様の機能を示す構成には、同一の符号を付してある。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that, in the following embodiments, the same reference numerals are given to configurations showing similar functions.
(第1の実施の形態)
第1の実施の形態の講義確認システムは、図1に示すように、画像形成装置1と、講義室を撮影する撮影部2と、講師が使用する講師PC3と、データサーバー4とが、LANやインターネット等のネットワーク5で接続されている。
(First embodiment)
As shown in FIG. 1, the lecture confirmation system according to the first embodiment includes an
画像形成装置1は、MFP(Multifunction Printer)であり、図2に示すように、操作パネル11と原稿読取部12と記憶部13と画像処理部14と印刷部15と通信部16と制御部17とを備えている。
The
操作パネル11は、タッチパネルと操作ボタンとを備えている。タッチパネルは、各種操作キーや画像形成状況を表示する表示部の表面に透明の感圧センサーが設けられており、表示手段及び入力手段として機能する。タッチパネルは、表示面へのタッチ操作を検知して、タッチ操作が検知された位置に対応する信号を出力することで、表示部に表示した操作キーへの操作を受け付ける。また、操作ボタンは、印刷枚数等の数値を入力するためのテンキー、設定情報を初期化させる指示を入力するためのリセットキー、複写動作を停止させるためのストップキー、印刷動作を開始させる出力指示を入力するためのスタートキー等の各種操作キーを備えている。
The
原稿読取部12は、図示しない原稿給紙装置により給紙されてきた原稿や、ユーザーによってプラテンガラスに載置された原稿に対して光を照射し、その反射光等を受光して原稿画像を読み取るスキャナーである。
The
記憶部13は、半導体メモリやHDD等の記憶手段であり、通信部16を介して受信された文字列を含む文書データや、原稿読取部12によって読み取られた画像データや、通信部16を介して受信された画像データなどが印刷データとして蓄積される記憶手段である。また、記憶部13には、着席データ131と、習熟度データ132とが記憶される。着席データ131及び習熟度データ132については、後述する。
The
画像処理部14は、画像データに対して所定の画像処理を行う手段である。画像処理部14では、例えば、拡大縮小処理や、濃度調整、階調調整等の画像改善処理が行われる。
The
印刷部15は、記録紙に印刷を施す印刷手段である。印刷部15は、例えば、記憶部13から読み出した画像データに基づき感光体ドラムの表面に潜像を形成し、トナーによってその潜像をトナー像とする画像形成を行い、その感光体ドラムから記録紙にトナー像を転写させ、そのトナー像を記録紙に定着させて排紙する。
The
通信部16は、撮影部2によって撮影された撮影データをネットワーク5経由で受信する機能と、講師PC3及びデータサーバー4とネットワーク5経由で各種データの送受信を行う機能とを有している。
The
制御部17は、操作パネル11、原稿読取部12、記憶部13、画像処理部14、印刷部15及び通信部16にそれぞれ接続されている。制御部17は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピュータ等の情報処理部である。ROMには画像形成装置1の動作制御を行うための制御プログラムが記憶されている。制御部17は、ROMに記憶されている制御プログラムを読み出し、制御プログラムをRAMに展開させて実行することで、装置全体の制御を行う。また、制御部17は、制御プログラムの実行によって、顔認証部171と、動作認識部172と、習熟度判定部173と、宿題採点部174として機能する。
The
撮影部2は、CCDカメラやCMOSカメラ等の固体撮像素子で構成されたカメラであり、講義室100の前方側から座席A−1〜D−4に着席した受講者を撮影する位置に配置される。また、撮影部2の画角は、座席A−1〜D−4に着席した受講者全員を撮影できるように設定されている。なお、本実施の形態では、1台の撮影部2で受講者全員を撮影するように構成したが、複数台で受講者全員を撮影するようにしても良い。
The photographing
講師PC3は、プログラム制御で動作するパーソナルコンピューターであり、液晶ディスプレイ等の表示部31と、キーボード、マウス、タッチパネル等の入力部32とを備えている。
The instructor PC 3 is a personal computer that operates under program control, and includes a
データサーバー4は、受講者データベース41、顔認証用データベース42、講義データベース43、宿題データベース44及び解答データベース45を有し、受講者データ、顔認証用データ、宿題データ及び解答データをネットワーク5経由で画像形成装置1に提供すると共に、講義データをネットワーク5経由で講師PC3に提供するコンピューターである。
The
受講者データベース41には、受講者の氏名やID番号等からなる受講者データが記憶されている。顔認証用データベース42には、受講者の顔認証を行うための顔認証用データ(例えば、顔面画像や標準顔面画像との差分データ)が、受講者データベース41の受講者データと紐づけられて記憶されている。
The
講義データベース43には、講義における確認ポイントを示す講義データが記憶されている。確認ポイントとは、講義において講師が受講者の習熟度の確認を行うタイミングを示す情報であり、本実施の形態では、重要箇所の理解確認を行う理解ポイントと、演習の正誤確認を行う演習ポイントとが確認ポイントとして設定されている。
The
宿題データベース44には、難易度の異なる基礎(難易度:低)、応用(難易度:中)、発展(難易度:高)のそれぞれの宿題データが、講義の各単元にそれぞれ紐づけられて記憶されている。また、解答データベース45には、宿題データベース44の宿題に対する解答が紐づけられて記憶されている。
In the
次に、本実施の形態の講義確認システムの動作について図3乃至図6を参照して詳細に説明する。
図3を参照すると、講師は、講義の開始に先立って、受講者に着席を促し、講師PC3の入力部32から受講者認証を指示する入力を行う(ステップS01)。受講者認証の指示入力は、講師PC3からネットワーク5経由で画像形成装置1に送信される。
Next, the operation of the lecture confirmation system according to the present embodiment will be described in detail with reference to FIGS.
Referring to FIG. 3, prior to the start of the lecture, the lecturer prompts the student to be seated, and performs input for instructing student authentication from the
画像形成装置1の制御部17は、受講者認証の指示入力を受信すると、顔認証部171として機能する。顔認証部171は、撮影部2から送信されてくる撮影データから各受講者の顔面データをそれぞれ抽出し(ステップS02)、抽出した各受講者の顔面データを着席している座席番号と共に通信部16によってネットワーク5経由でデータサーバー4に送信する。
The
データサーバー4は、各受講者の顔面データを受信すると、顔認証用データベース42を参照して、各座席に着席した受講者をそれぞれ特定し(ステップS03)、特定した受講者の受講者データを受講者データベース41から読み出してネットワーク5経由で画像形成装置1に送信する(ステップS04)。
When the
顔認証部171は、データサーバー4から受講者データを受信すると、図4に示すように、座席と、着席した受講者データ(ID、氏名等)とを対応付けた着席データ131を生成する(ステップS05)。顔認証部171は、生成した着席データ131を記憶部13に記憶させると共に、通信部16によってネットワーク5経由で講師PC3に送信する。
When receiving the student data from the
また、講師PC3の入力部32を操作し、データサーバー4の講義データベース43にアクセスして講義データの一覧を表示部31に表示させ、行う講義に対応する講義データを選択する(ステップS06)。この選択情報は、講師PC3からネットワーク5経由でデータサーバー4に送信される。データサーバー4は、対応する講義データを講義データベース43から読み出して、読み出した講義データをネットワーク5経由で講師PC3に送信する(ステップS07)。
Further, the
着席データ131を画像形成装置1から受信すると共に、講義データをデータサーバー4から受信した講師PC3は、着席データ131及び講義データがレイアウトされた図5に示すような講義画面を生成させ、表示部31に表示させる(ステップS08)。講義画面にレイアウトされた着席データ131によって、講師は、座席に着席した受講者を把握することができる。また、講義画面にレイアウトされた講義データには、確認ポイント(重要箇所の理解確認を行う理解ポイント、演習の正誤確認を行う演習ポイント)が示されており、各理解ポイントをそれぞれ指示するに理解ポイント入力キー311と、各演習ポインをそれぞれ指示する演習ポイント入力キー312と、講義終了を指示する終了指示キー313とが設けられている。
The
講義において重要箇所の説明を行う際に、講師は、理解ポイントを指示する理解ポイント入力キー311を操作し(ステップS09)、受講者に注目を求める。理解ポイントの指示入力は、講師PC3からネットワーク5経由で画像形成装置1に送信される。
When explaining important points in the lecture, the lecturer operates an understanding point input key 311 for indicating an understanding point (step S09), and requests attention from the student. The instruction input of the understanding point is transmitted from the
画像形成装置1の制御部17は、理解ポイントの指示入力を受信すると、動作認識部172として機能する。動作認識部172は、予め設定された所定時間だけ、撮影部2から送信されてくる撮影データに基づいて各受講者の動作認識をそれぞれ行って、各受講者が講師に注目しているか否かをそれぞれ判断する(ステップS10)。そして、動作認識部172は、各受講者それぞれの判断結果を理解ポイントに対応付けして習熟度データ132として登録し(ステップS11)、記憶部13に記憶させる。
The
また、講義において行った演習の答え合わせを行った際に、講師は、演習ポイントを指示する演習ポイント入力キー312を操作し(ステップS09)、正答した受講者に対して挙手を求める。演習ポイントの指示入力は、講師PC3からネットワーク5経由で画像形成装置1に送信される。なお、各受講者が端末を所有している場合には、端末を使用して演習を行い、その結果を端末から収集して正答率を算出することもできる。
In addition, when the answers of the exercises performed in the lecture are performed, the lecturer operates the exercise point input key 312 for instructing the exercise points (step S09), and asks the student who has answered correctly to raise his hand. The instruction point instruction input is transmitted from the
画像形成装置1の制御部17は、演習ポイントの指示入力を受信すると、動作認識部172として機能する。動作認識部172は、予め設定された所定時間だけ、撮影部2から送信されてくる撮影データに基づいて各受講者の動作認識をそれぞれ行って、各受講者が挙手したか否かをそれぞれ判断する(ステップS10)。そして、動作認識部172は、各受講者それぞれの判断結果を演習ポイントに対応付けして習熟度データ132として登録し(ステップS11)、記憶部13に記憶させる。
The
ステップS09〜ステップS11は、講師が理解ポイント入力キー311及び演習ポイント入力キー312を操作する度に繰り返し実行される。図6には、全ての理解ポイントと全ての演習ポイントとにおいて受講者の動作認識が行った習熟度データ132が示されている。理解ポイントにおいて、「1」は受講者が講師に注目していると判断されたことを示し、「0」は受講者が講師に注目していないと判断されたことを示している。また、演習ポイントにおいて、「1」は受講者が挙手したと判断されたことを示し、「0」は受講者が挙手していないと判断されたことを示している。
Steps S09 to S11 are repeatedly executed every time the instructor operates the understanding point input key 311 and the exercise
講義が終了すると、講師は、講義終了を指示する終了指示キー313を操作する(ステップS12)。講義終了の指示入力は、講師PC3からネットワーク5経由で画像形成装置1に送信される。
When the lecture ends, the lecturer operates the
画像形成装置1の制御部17は、講義終了の指示入力を受信すると、習熟度判定部173として機能する。習熟度判定部173は、習熟度データ132に基づいて、受講者毎、且つ単元毎に習熟度を判定し(ステップS13)、判定した習熟度をネットワーク5経由でデータサーバー4に送信する。習熟度判定部173は、例えば、単元の理解ポイントにおける注目率と、単元の演習ポイントにおける正答率(挙手率)とをそれぞれ算出し、算出した注目率及と正答率(挙手率)とをそれぞれ設定された閾値と比較する。そして、習熟度判定部173は、注目率と正答率(挙手率)とのいずれもが閾値を上回る場合に、「習熟度:高」と判定し、注目率と正答率(挙手率)との一方のみが閾値を上回る場合に、「習熟度:中」と判定し、注目率と正答率(挙手率)とのいずれもが閾値を下回る場合に、「習熟度:低」とそれぞれ判定する。
The
ステップS13での習熟度の判定方法について、図6を参照して説明する。以下、注目率の閾値が70%に、正答率(挙手率)の閾値が51%に設定されているものとする。
座席A−2に着席している受講者は、単元X(X1、X2、X3)の理解ポイントにおける注目率は、3/3=100%、単元X(X1)の演習ポイントにおける正答率(挙手率)は、1/1=100%とそれぞれ算出される。従って、注目率と正答率(挙手率)とのいずれもが閾値を上回るため、座席A−2に着席している受講者では、単元Xが「習熟度:高」と判定される。
また、座席A−1に着席している受講者は、単元X(X1、X2、X3)の理解ポイントにおける注目率は、2/3=67%、単元X(X1)の演習ポイントにおける正答率(挙手率)は、1/1=100%とそれぞれ算出される。従って、正答率(挙手率)のみが閾値を上回るため、座席A−1に着席している受講者では、単元Xが「習熟度:中」と判定される。
さらに、座席A−3に着席している受講者は、単元X(X1、X2、X3)の理解ポイントにおける注目率は、1/3=33%、単元X(X1)の演習ポイントにおける正答率(挙手率)は、0/1=0%とそれぞれ算出される。従って、注目率と正答率(挙手率)とのいずれもが閾値を下回るため、座席A−3に着席している受講者では、単元Xが「習熟度:低」と判定される。
The proficiency level determination method in step S13 will be described with reference to FIG. Hereinafter, it is assumed that the threshold of the attention rate is set to 70% and the threshold of the correct answer rate (raising hand rate) is set to 51%.
Participants who are seated in seat A-2 have an attention rate of 3/3 = 100% at the understanding point of unit X (X1, X2, X3), and the correct answer rate at the exercise point of unit X (X1) Rate) is calculated as 1/1 = 100%. Therefore, since both the attention rate and the correct answer rate (raising hand rate) exceed the threshold, the unit X is determined to be “skill level: high” in the student seated in the seat A-2.
In addition, for the students who are seated in the seat A-1, the attention rate at the understanding point of the unit X (X1, X2, X3) is 2/3 = 67%, the correct answer rate at the exercise point of the unit X (X1) The (raising hand ratio) is calculated as 1/1 = 100%. Therefore, since only the correct answer rate (raising hand rate) exceeds the threshold value, the unit X is determined to be “medium level: medium” in the student seated in the seat A-1.
Furthermore, the attendees who are seated in seat A-3 have an attention rate of 1/3 = 33% for the understanding points of the unit X (X1, X2, X3), and the correct answer rate for the exercise points of the unit X (X1) (Raising hand ratio) is calculated as 0/1 = 0%, respectively. Therefore, since both the attention rate and the correct answer rate (raising hand rate) are below the threshold, the unit X is determined to be “learning level: low” in the student seated in the seat A-3.
データサーバー4は、受信した受講者・単元毎の習熟度に対応する宿題データを宿題データベース44から読み出して、読み出した受講者・単元毎の宿題データをネットワーク5経由で画像形成装置1に送信する(ステップS14)。なお、「習熟度:高」には、発展(難易度:高)の宿題データが、「習熟度:中」には、応用(難易度:中)の宿題データが、「習熟度:低」には基礎(難易度:低)の宿題データがそれぞれ対応する。
The
習熟度判定部173は、データサーバー4から受信した受講者・単元毎の宿題データに基づいて、受講者毎の宿題を生成する(ステップS15)。これにより、理解ポイントにおける動作認識と、演習ポイントにおける動作認識とに基づいて、受講者毎に難易度がカスタマイズされた宿題が生成される。習熟度判定部173によって生成された出題は、印刷部15によって記録紙に印刷され(ステップS16)、講師は、印刷された出題を受講者に配布して講義を終了させる。
The proficiency
なお、本実施の形態の宿題データベース44では、宿題を講義の各単元にそれぞれ紐づけしたが、各講義にそれぞれ紐づけるようにしても良く、講義の単元をさらに細分化とした各単位にそれぞれ紐づけるようにしても良い。この場合、習熟度判定部173は、紐づけした講義毎、もしくは単位毎に難易度を特定する。
In the
また、講義前に先に講義で配布した宿題を回収し、画像形成装置1を用いて正誤データを取得することもできる。講師が画像形成装置1の操作パネル11から宿題の読み取りを指示すると、制御部17は、宿題採点部174として機能する。宿題採点部174は、例えば、OCR機能を備え、原稿読取部12によって読み取った宿題の画像データから受講者と回答とを認識し、データサーバー4の解答データベース45を参照することで、宿題の正誤データを取得する。この取得した正誤データは、習熟度判定部173によって新たに作成される宿題に反映される。例えば、正答率が予め設定された閾値よりも低い受講者に対して、習熟度判定部173は、宿題の難易度を低下させる。
Also, it is possible to collect the homework distributed in the lecture before the lecture and acquire the correct / incorrect data using the
以上説明したように、第1の実施の形態によれば、講義室100の前方側から座席に着席した受講者全員を撮影する撮影部2と、確認ポイントの指示を受け付けるポイント入力部として機能する講師PC3の入力部32(理解ポイント入力キー311及び演習ポイント入力キー312)と、確認ポイントが指示されると、前記撮影部によって撮影された撮影データに基づいて受講者毎の動作認識をそれぞれ行う動作認識部172と、動作認識部172による確認ポイント毎の動作認識結果に基づいて受講者毎の習熟度をそれぞれ判定する習熟度判定部173とを備えている。
この構成により、講義室内での各受講者の受講状態を同時にモニタリングすることで、各受講者の習熟度を判定することができ、受講者に対して習熟度に応じたきめ細かい対応をとることが可能になる。
As described above, according to the first embodiment, the photographing
With this configuration, by monitoring the attendance status of each student in the lecture room at the same time, it is possible to determine the proficiency level of each student, and to take detailed measures according to the proficiency level. It becomes possible.
さらに、第1の実施の形態によれば、動作認識部172は、動作認識を行って、受講者が講師に注目しているか否かを判断する。
この構成により、確認ポイントで受講者が集中しているか否かを判断することができ、
確認ポイントでの受講者の習熟度を類推して判定することができる。
Furthermore, according to the first embodiment, the
With this configuration, it is possible to determine whether students are concentrated at the confirmation point,
It can be judged by analogy with the proficiency level of the student at the confirmation point.
さらに、本実施の形態によれば、動作認識部172は、動作認識を行って、受講者が挙手したか否かを判断する。
この構成により、講師による挙手依頼によって、受講者の習熟度を確認することができる。
Further, according to the present embodiment, the
With this configuration, the proficiency level of the student can be confirmed by a hand raising request from the instructor.
さらに、本実施の形態によれば、難易度の異なる宿題データがそれぞれ記憶されている宿題データベース44を具備し、習熟度判定部173は、判定した習熟度に対応する難易度を宿題データを宿題データベース44から読み出して、受講者毎の宿題を生成させる。
この構成により、受講者の習熟度に応じてカスタマイズした宿題を生成することができるため、受講者毎に効果的な宿題を提供することができる。また、客観的データ(受講種の動作)を基に宿題の難易度を決定することができる。さらに、講義終了後、速やかに受講者毎にカスタマイズした宿題を提供することができる。
Furthermore, according to the present embodiment, the
With this configuration, customized homework can be generated according to the proficiency level of the student, so that effective homework can be provided for each student. Moreover, the difficulty level of the homework can be determined based on objective data (the behavior of the attendance type). Furthermore, customized homework can be provided for each student immediately after the lecture.
(第2の実施の形態)
第2の実施の形態の講義確認システムは、図7に示すように、第1の実施の形態の構成に加えて、メガネ型端末6と、マイク7とを備えている。メガネ型端末6とマイク7とは、ネットワーク5で接続されている。
(Second Embodiment)
As shown in FIG. 7, the lecture confirmation system according to the second embodiment includes a glasses-
メガネ型端末6は、講師が頭部に装着するメガネ型のウェアラブル端末である。図8に示すように、メガネ型端末6は、視界撮影部61と、眼球撮影部62と、通信部63と、視点特定部64とを備えている。
The glasses-
視界撮影部61は、メガネ型端末6の前方側に向けて配置されたCCDカメラやCMOSカメラ等の固体撮像素子で構成されたカメラであり、講師の前方視界の画像を撮像する。以下、視界撮影部61によって撮像された画像を視界画像と称す。
The field-of-
眼球撮影部62は、メガネ型端末6の後方側に向けて配置されたCCDカメラやCMOSカメラ等の固体撮像素子で構成されたカメラであり、講師の眼球の画像を撮像する。以下、眼球撮影部62によって撮像された画像を視点検出画像と称す。
The
通信部63は、ネットワーク5を介して、画像形成装置1と各種データを送受信する機能を有する。
The
視点特定部64は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピュータ等の情報処理部である。ROMには動作制御を行うための制御プログラムが記憶されている。CPUは、ROMに記憶されている制御プログラムを読み出し、制御プログラムをRAMに展開させることで、視点特定部64として機能する。
The
視点特定部64は、視界撮影部61によって撮像された視界画像と、眼球撮影部62によって撮像された視点検出画像とに基づいて、講師の視点が向けられている座席(A−1〜D−4)を講師視点座席として特定する。視点特定部64は、講義中(例えば、講師PC3において受講者認証指示の入力から講義終了を指示する終了指示キー313が操作されるまでの間)、所定時間毎(例えば、1秒毎)に講師視点座席を特定し、特定した講師視点座席を通信部63によってネットワーク5経由で画像形成装置1に送信する。なお、講師が黒板等を向いている場合には、講師視点座席を特定することができず、講師視点座席の送信は、特定できた場合のみ行われる。そして、画像形成装置の制御部17は、メガネ型端末6から受信した講師視点座席を講師視点データ133として記憶部13に記憶させる。これにより、講義中に講師が視線を向けた座席の推移が講師視点データ133として記憶されることになる。
The
マイク7は、講師の音声を集音する集音手段である。第2の実施の形態では、理解ポイントの指示入力を受信し、画像形成装置1の制御部17が動作認識部172として機能した場合、動作認識部172は、第1の実施の形態の動作に加えて、予め設定された所定時間だけ、マイク7から送信されてくる音声データに基づいて講師の発声音量を計測する。そして、動作認識部172は、計測した講師の発声音量を講師音量データ134として記憶部に記憶させる。
The
画像形成装置1の操作パネル11から講義の評価を指示すると、制御部17は、講義評価生成部175として機能する。講義評価生成部175は、習熟度データ132と、講師音量データ134と、講師視点データ133とに基づいて、図9に示すような、講義評価を生成する。講義評価生成部175によって生成された講義評価は、印刷部15によって記録紙に印刷される。
When a lecture evaluation is instructed from the
講義評価生成部175は、習熟度データ132に基づき、理解ポイント毎の注目率と、演習ポイント毎の正答率とを講義評価として算出する。図9には、理解ポイント毎の注目率と、演習ポイント毎の正答率とが表形式で表現された例が示されている。なお、注目率及び正答率が予め設定されたそれぞれの閾値よりも低い場合に、反転や色によって強調表記すると良い。これにより、注目率の低い理解ポイントと、正答率の低い演習ポイントとを改善点として容易に把握することができる。
Based on the
また、講義評価生成部175は、講師音量データ134に基づき、理解ポイント毎の発声音量の平均値もしくは最大値を講義評価として算出する。図9には、理解ポイント毎の講師音量が表形式で表現された例が示されている。なお、講師音量が予め設定された閾値よりも低い場合に、反転や色によって強調表記すると良い。音量の低かった理解ポイントを改善点として容易に把握することができる。
In addition, the lecture
さらに、講義評価生成部175は、講師視点データ133に基づき、座席毎に講師の視線が向けられた講師視点比率を講義評価として算出する。図9には、座席毎の講師視点比率が3Dグラフ形式で表現された例が示されている。図9では、講師視点が中央から左奥側に偏りがみられ、講義室100内を万遍なく観察していないことが改善点として把握できる。
Further, the lecture
なお、講義評価は、上述のように、講師による講義内容に対する評価として用いられるが、講義の記録としても用いることができる。従って、講義に使用したドキュメントやアンケートを画像形成装置1の原稿読取部12によって読み取り、講義評価と紐づけて記憶部13に記憶させておくようにしても良い。また、講義評価は、講義に限ることなく、講演会等の記録として用いるようにしても良い。
As described above, the lecture evaluation is used as an evaluation of the lecture contents by the lecturer, but can also be used as a lecture record. Accordingly, the document or questionnaire used for the lecture may be read by the
以上説明したように、第2の実施の形態によれば、講義室100の前方側から座席に着席した受講者全員を撮影する撮影部2と、確認ポイントの指示を受け付けるポイント入力部として機能する講師PC3の入力部32(理解ポイント入力キー311及び演習ポイント入力キー312)と、確認ポイントが指示されると、撮影部2によって撮影された撮影データに基づいて受講者毎の動作認識をそれぞれ行う動作認識部172と、動作認識部172による確認ポイント毎の動作認識結果に基づく講義評価生成部175とを備えている。
この構成により、教室内での各受講者の受講状態を同時にモニタリングすることで、講師が行った講義内容を評価することで、改善点を把握することができる。また、客観的データを基に講義の改善点を把握することができる。
As described above, according to the second embodiment, the photographing
With this configuration, by monitoring the attendance status of each student in the classroom at the same time, it is possible to grasp improvement points by evaluating the content of the lecture conducted by the lecturer. Moreover, the improvement points of the lecture can be grasped based on objective data.
さらに、第2の実施の形態によれば、動作認識部172は、動作認識を行って、受講者が講師に注目しているか否かを判断し、講義評価生成部175は、確認ポイント毎の注目率を講義評価として算出する。
この構成により、確認ポイントで受講者が集中しているか否かを判断することができ、受講者の興味を講義ができているか否かを把握することができる。
Furthermore, according to the second embodiment, the
With this configuration, it is possible to determine whether or not the students are concentrated at the confirmation points, and it is possible to grasp whether or not the lectures have been given to the interests of the students.
さらに、第2の実施の形態によれば、動作認識部172は、動作認識を行って、受講者が挙手したか否かを判断し、講義評価生成部175は、確認ポイント毎の挙手率を講義評価として算出する。
この構成により、講師による挙手依頼によって、受講者の習熟度を確認することができ、受講者に理解させる講義ができている否かを把握することができる。
Furthermore, according to the second embodiment, the
With this configuration, a student's proficiency level can be confirmed by a raise hand request from the lecturer, and it can be determined whether or not the lecture is made to be understood by the student.
さらに、第2の実施の形態によれば、講師視点を特定する視点特定部64(メガネ型端末6)を具備し、講義評価生成部175は、視点特定部64によって特定された講師視点に基づいて、座席毎に講師の視線が向けられた講師視点比率を講義評価として算出する。
この構成により、受講者に対して講師が視点を万遍なく動かしているか否かを把握することができる。
Furthermore, according to the second embodiment, the viewpoint specifying unit 64 (glasses type terminal 6) for specifying the lecturer viewpoint is provided, and the lecture
With this configuration, it is possible to grasp whether or not the lecturer moves the viewpoint uniformly with respect to the student.
さらに、第2の実施の形態によれば、講師の音声を集音するマイク7を具備し、動作認識部172は、確認ポイントが指示されると、予め設定された所定時間だけ、マイク7から送信されてくる音声データに基づいて講師の発声音量を計測し、講義評価生成部175は、動作認識部172によって計測された確認ポイント毎の発声音量の平均値もしくは最大値を講義評価として算出する。
この構成により、講師が適切な音量で講義を行っているか否かを把握することができる。
Furthermore, according to the second embodiment, the
With this configuration, it is possible to grasp whether or not the lecturer is giving a lecture at an appropriate volume.
なお、本発明が上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変更され得ることは明らかである。また、上記構成部材の数、位置、形状等は上記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。なお、各図において、同一構成要素には同一符号を付している。 Note that the present invention is not limited to the above-described embodiments, and it is obvious that the embodiments can be appropriately changed within the scope of the technical idea of the present invention. In addition, the number, position, shape, and the like of the constituent members are not limited to the above-described embodiment, and can be set to a suitable number, position, shape, and the like in practicing the present invention. In each figure, the same numerals are given to the same component.
1 画像形成装置
2 撮影部
3 講師PC
4 データサーバー
5 ネットワーク
6 メガネ型端末
7 マイク
11 操作パネル
12 原稿読取部
13 記憶部
14 画像処理部
15 印刷部
16 通信部
17 制御部
31 表示部
32 入力部
41 受講者データベース
42 顔認証用データベース
43 講義データベース
44 宿題データベース
45 解答データベース
61 視界撮影部
62 眼球撮影部
63 通信部
64 視点特定部
100 講義室
131 着席データ
132 習熟度データ
133 講師視点データ
134 講師音量データ
171 顔認証部
172 動作認識部
173 習熟度判定部
174 宿題採点部
175 講義評価生成部
311 理解ポイント入力キー
312 演習ポイント入力キー
313 終了指示キー
1
4
Claims (5)
確認ポイントの指示を受け付けるポイント入力部と、
前記確認ポイントが指示されると、前記撮影部によって撮影された撮影データに基づいて受講者毎の動作認識をそれぞれ行う動作認識部と、
該動作認識部による前記確認ポイント毎の動作認識結果に基づく講義評価生成部とを具備することを特徴とする講義確認システム。 A filming unit that shoots all the students seated in the seat from the front of the lecture room;
A point input unit for receiving confirmation point instructions;
When the confirmation point is instructed, an action recognition unit that performs action recognition for each student based on shooting data shot by the shooting unit;
A lecture confirmation generation unit comprising: a lecture evaluation generation unit based on a motion recognition result for each confirmation point by the motion recognition unit.
前記講義評価生成部は、前記確認ポイント毎の注目率を前記講義評価として算出することを特徴とする請求項1記載の講義確認システム。 The motion recognition unit performs motion recognition to determine whether the student is paying attention to the lecturer,
2. The lecture confirmation system according to claim 1, wherein the lecture evaluation generation unit calculates an attention rate for each confirmation point as the lecture evaluation.
前記講義評価生成部は、前記確認ポイント毎の挙手率を前記講義評価として算出することを特徴とする請求項1又は2記載の講義確認システム。 The motion recognition unit performs motion recognition to determine whether the student raised his hand,
3. The lecture confirmation system according to claim 1 or 2, wherein the lecture evaluation generation unit calculates a hand raising rate for each confirmation point as the lecture evaluation.
前記講義評価生成部は、前記視点特定部によって特定された講師視点に基づいて、前記座席毎に講師の視線が向けられた講師視点比率を前記講義評価として算出することを特徴とする請求項1乃至3のいずれかに記載の講義確認システム。 It has a viewpoint identification part that identifies the lecturer's viewpoint,
The lecture evaluation generation unit calculates, as the lecture evaluation, a lecturer viewpoint ratio in which a gaze of the lecturer is directed for each seat based on the lecturer viewpoint specified by the viewpoint specifying unit. Lecture confirmation system as described in any one of thru | or 3.
前記動作認識部は、前記確認ポイントが指示されると、予め設定された所定時間だけ、前記マイクから送信されてくる音声データに基づいて講師の発声音量を計測し、
前記講義評価生成部は、前記動作認識部によって計測された前記確認ポイント毎の発声音量の平均値もしくは最大値を前記講義評価として算出することを特徴とする請求項1乃至4のいずれかに記載の講義確認システム。 Has a microphone to collect the instructor's voice,
When the confirmation point is instructed, the action recognition unit measures the instructor's utterance volume based on voice data transmitted from the microphone for a predetermined time set in advance,
5. The lecture evaluation generation unit calculates an average value or a maximum value of an utterance volume for each confirmation point measured by the motion recognition unit as the lecture evaluation. 6. Lecture confirmation system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232987A JP6451608B2 (en) | 2015-11-30 | 2015-11-30 | Lecture confirmation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232987A JP6451608B2 (en) | 2015-11-30 | 2015-11-30 | Lecture confirmation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017102154A true JP2017102154A (en) | 2017-06-08 |
JP6451608B2 JP6451608B2 (en) | 2019-01-16 |
Family
ID=59016474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015232987A Expired - Fee Related JP6451608B2 (en) | 2015-11-30 | 2015-11-30 | Lecture confirmation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6451608B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020049770A1 (en) * | 2018-09-06 | 2020-03-12 | オムロン株式会社 | Information processing device, information processing system, information processing method, and information processing program |
WO2020054855A1 (en) * | 2018-09-14 | 2020-03-19 | 日本電気株式会社 | Class assistance system, determination device, class assistance method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007102344A (en) * | 2005-09-30 | 2007-04-19 | Fujifilm Corp | Automatic evaluation device, program, and method |
US20080244639A1 (en) * | 2007-03-29 | 2008-10-02 | Kaaz Kimberly J | Providing advertising |
JP2009145883A (en) * | 2007-11-20 | 2009-07-02 | Rissho Univ | Learning system, storage medium, and learning method |
JP2009258175A (en) * | 2008-04-11 | 2009-11-05 | Yamaha Corp | Lecture system and tabulation system |
JP2013061906A (en) * | 2011-09-15 | 2013-04-04 | Osaka Kyoiku Univ | Face analyzer, face analyzing method, and program |
-
2015
- 2015-11-30 JP JP2015232987A patent/JP6451608B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007102344A (en) * | 2005-09-30 | 2007-04-19 | Fujifilm Corp | Automatic evaluation device, program, and method |
US20080244639A1 (en) * | 2007-03-29 | 2008-10-02 | Kaaz Kimberly J | Providing advertising |
JP2009145883A (en) * | 2007-11-20 | 2009-07-02 | Rissho Univ | Learning system, storage medium, and learning method |
JP2009258175A (en) * | 2008-04-11 | 2009-11-05 | Yamaha Corp | Lecture system and tabulation system |
JP2013061906A (en) * | 2011-09-15 | 2013-04-04 | Osaka Kyoiku Univ | Face analyzer, face analyzing method, and program |
Non-Patent Citations (3)
Title |
---|
山下 将吾 ほか: "受講者の動作情報と生体情報を併用するリアルタイム教育支援システム", 電子情報通信学会技術研究報告, vol. 第112巻 第500号, JPN6018025027, 22 March 2013 (2013-03-22), JP, pages 151 - 156, ISSN: 0003832672 * |
日下 大輔 ほか: "講義モニタリングシステムの設計と試験運用", 電子情報通信学会技術研究報告, vol. 第106巻 第583号, JPN6018025026, 2 March 2007 (2007-03-02), JP, pages 121 - 126, ISSN: 0003832671 * |
河辺 隆司 ほか: "身体性に着目した授業参加支援システム開発のための挙手動作パターンの分析", ヒューマンインタフェースシンポジウム2014 論文集, JPN6018044185, 9 September 2014 (2014-09-09), pages 457 - 462, ISSN: 0003916454 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020049770A1 (en) * | 2018-09-06 | 2020-03-12 | オムロン株式会社 | Information processing device, information processing system, information processing method, and information processing program |
WO2020054855A1 (en) * | 2018-09-14 | 2020-03-19 | 日本電気株式会社 | Class assistance system, determination device, class assistance method, and program |
JPWO2020054855A1 (en) * | 2018-09-14 | 2021-08-30 | 日本電気株式会社 | Class support system, judgment device, class support method and program |
JP7136216B2 (en) | 2018-09-14 | 2022-09-13 | 日本電気株式会社 | Class support system, judgment device, class support method and program |
Also Published As
Publication number | Publication date |
---|---|
JP6451608B2 (en) | 2019-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9536440B2 (en) | Question setting apparatus and method | |
CN105103182A (en) | Systems and methods for interactive, real-time tablet-based tutoring | |
JP7136216B2 (en) | Class support system, judgment device, class support method and program | |
EP3255871B1 (en) | Recording of sound information and document annotations during a meeting. | |
JP5870639B2 (en) | Image processing system, image processing apparatus, and image processing program | |
JP7553014B2 (en) | Online test support device and program | |
JP6451608B2 (en) | Lecture confirmation system | |
JP2006330464A (en) | Attendance status discriminating device, method, and program | |
JP2018074281A (en) | Image print system | |
CN114564155A (en) | Printing system, control method, and storage medium | |
JP2017156548A (en) | Test question providing system and test question providing program | |
JP6512082B2 (en) | Lecture confirmation system | |
JP5339574B2 (en) | Answer information processing apparatus, scoring information processing apparatus, answer information processing method, scoring information processing method, and program | |
WO2015178014A1 (en) | Learning support system, learning support server, learning support method, and learning support program | |
JP2017211497A (en) | Test question providing system, and test question providing program | |
JP2007133649A (en) | Apparatus, method and program for supporting lecture | |
JP2014025988A (en) | Photographing instruction system, server device, photographing instruction method, and program | |
JP2009151654A (en) | Ic card issuing system | |
JP2004272529A (en) | Image data processor and program | |
JP7428192B2 (en) | Confirmation device, confirmation system, confirmation method and confirmation program | |
JP2018017993A (en) | Learning system | |
KR20140110557A (en) | E-Learning system using image feedback | |
JP7064159B1 (en) | Information processing methods, programs, and information processing equipment | |
US20230145814A1 (en) | Multifunction peripheral, server, and system | |
CN116092208B (en) | Campus attendance system and method based on AI artificial intelligent recognition technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6451608 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |