JP2020525965A - 教学補助方法およびその方法を採用する教学補助システム - Google Patents

教学補助方法およびその方法を採用する教学補助システム Download PDF

Info

Publication number
JP2020525965A
JP2020525965A JP2020522765A JP2020522765A JP2020525965A JP 2020525965 A JP2020525965 A JP 2020525965A JP 2020522765 A JP2020522765 A JP 2020522765A JP 2020522765 A JP2020522765 A JP 2020522765A JP 2020525965 A JP2020525965 A JP 2020525965A
Authority
JP
Japan
Prior art keywords
student
recognition
image
module
classroom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020522765A
Other languages
English (en)
Other versions
JP6892558B2 (ja
Inventor
書強 王
書強 王
永燦 王
永燦 王
岳 楊
岳 楊
妍燕 申
妍燕 申
明輝 胡
明輝 胡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sibiku Technology Co Ltd
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Sibiku Technology Co Ltd
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sibiku Technology Co Ltd, Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Sibiku Technology Co Ltd
Publication of JP2020525965A publication Critical patent/JP2020525965A/ja
Application granted granted Critical
Publication of JP6892558B2 publication Critical patent/JP6892558B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Educational Technology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Administration (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明において教学補助方法およびその方法を採用する教学補助システムを提供する。教学補助方法は、設定済のデプステンソルトレーンネットワークモデルを採用することにより前記教室中の学生の行為を検出し、それにより画像を認識する精度を向上させ、計算をするハードウェアに対する要求を低減し、結合式システムをに応用させ、教学補助方法を用いるコストを低減するができる。前記教学補助方法を採用する教学補助システムによっても同じな発明の効果を獲得することができる。【選択図】図1

Description

本発明は、教学補助の分野に属し、特に、教学補助方法およびその方法を採用する教学補助システムに関するものである。
一般の教学の活動において、受業をする学生の人数と授業をする先生の人数の差が大きいので、授業をしている先生は、多い時間をかけるとともに精力を注ぐことにより受業をする学生の行為と表情を観察し、かつ学生の受業の状態を判断することができない。したがって先生は学生の受業の状態と学生が授業の内容を把握する程度を正確に判断することができない。したがって授業をしている先生は授業にのみ集中し、学生は自己の事をし、先生の授業と学生の受業は分離されるおそれがある。それにより授業中の先生は教学を有効に管理することができないので、教学の品質と効率に影響を与えるおそれがある。そのため授業に用いられる教学補助システムは教育の分野において注目を集めている。教学補助システムで先生の授業を補助することにより教学を容易に実施することができる。従来の教学補助システムは機能を強調し、その目的は、学生に自発的な学習の環境を提供し、学生に充分な学習の資料を提供し、先生の作業量を低減することにある。異なる技術的手段を採用して知能化補助システムを設計することにより先生の授業の効果と学生の学習の効率を向上させる。
従来の技術において、公開番号がCN106097790Aである中国特許には教学補助装置が公開されている。その装置は、画像認識技術によって受業中の学生の画像を認識することにより受業中の学生が受業と係っていないことをするかを判断し、認識の結果を先生に伝えることにより先生が所定の対策をとるようにする。
前記従来の技術には、画像認識モジュールによって画像を認識する方法と過程が公開されておらず、かつ画像認識モジュールによって検出される画像と予め記憶されている画像を比較する方法とその比較の結果を判断する方法も公開されていない。技術者は前記従来の技術により授業中の状況を把握しかつ補助の技術的効果を獲得することができる。すなわち従来の教学の補助方法は前記欠点を有している。
前記従来の技術的問題を解決するため、本発明は画像認識の精度が高い教学補助方法およびその方法を採用する教学補助システムを提供することを目的とする。
前記技術的問題を解決するため本発明において下記教学補助方法を提供する。前記教学補助方法は順に実施される下記ステップを含む。すなわち
採集モジュールにより教室の画像を随時に採集して認識モジュールに送信するステップs1と、
前記認識モジュールにより前記教室の画像を分析しかつ前記教室の画像中に行為が異常である学生がいるかを判断するステップs2と、
通知モジュールにより前記認識モジュールが認識した結果を授業の先生に伝達するステップs3とを含む。
前記ステップs2は前記認識モジュールは設定済のデプステンソルトレーンネットワークモデルを用いることにより前記受業中の学生の行為を検出するステップs21を含む。
好ましくは、前記ステップs2は前記認識モジュールが設定済のデプステンソルトレーンネットワークモデルにより前記受業中の学生の画像において学生の表情を認識するステップs22を更に含む。
好ましくは、前記ステップs22は、具体的に、フェース認識サブユニットにより前記採集モジュールが採集した前記教室の画像において各学生のフェース区域を検出するステップs221と、
畳み込みニューラルネットワーク分類装置により検出された前記フェース区域の表情を認識するステップs222とを含む。
好ましくは、前記ステップs1は、前記採集モジュールの画像採集モジュールを教室の前方の左側、中央、右側にそれぞれ取り付けるステップs11と、
前記画像採集モジュールは教室の学生全員の上半身の画像を採集することを目標とするステップs12とを含む。
好ましくは、前記教学補助方法は記憶モジュールに前記認識結果を同時記憶させるステップs4を更に含む。
好ましくは、前記ステップs4は、各学生に対応する前記認識結果を分類することにより各クラスの学生の電子ファイルを作成するステップs41と、
前記学生の電子ファイルにより学生の授業の状態の曲線を作成し、授業の先生は授業の内容と試験の成績により学生を適当に指導するステップs42とを含む。
好ましくは、前記教学補助方法は、ステップs1前に実施される下記ステップ、すなわち
データベースを作成するステップq1と、
前記デプステンソルトレーンネットワークモデルの設定をするステップq2と更に含む。
好ましくは、前記ステップq1は、前記採集モジュールが教室を長く撮影してえた前記教室の画像を記憶させるステップq11と、
異常な行為をしている学生の画像を選択してラベルをつけるステップq12とを含む。
好ましくは、前記ステップq2は、ニューラルネットワークモデルの多層の畳み込み層によりラベルがつけられる前記学生の画像において異常の特徴を検出し、前記異常の特徴と分解後の完全接続層のウエートマトリックス演算によってえた予測値を出力するステップq21と、
前記出力される予測値と前記学生画像中の異常な行為をする学生の実際の評価値との間の誤差により損失函数を構成するステップq22と、
前記損失函数でネットワークのパラメーターを調節することにより設定済のデプステンソルトレーンネットワークモデルを獲得するステップq23とを含む。
前記技術的問題を解決するため本発明において下記教学補助システムを提供する。その教学補助システムには、採集モジュールと、前記採集モジュールに接続される認識モジュールと、前記認識モジュールに接続される通知モジュールとが設けられ、
前記採集モジュールは教室の画像を随時に採集して認識モジュールに送信し、
前記認識モジュールは前記授業画像を分析することにより前記教室の画像に異常な行為をしている学生がいるかを判断し、前記認識モジュールは行為認識ユニットを含み、前記行為認識ユニットは設定済のデプステンソルトレーンネットワークモデルにより前記教室の画像中の学生の行為を認識し、
前記通知モジュールは前記認識モジュールの認識の結果を授業中の先生に知らせる。
好ましくは、前記教学補助システムは前記認識モジュールに接続される記憶モジュールを更に含み、前記記憶モジュールは前記認識の結果を同時に記憶させかつそれを分類して編集し、
前記認識モジュールは表情認識ユニットを更に含み、
表情認識ユニットは設定済のデプステンソルトレーンネットワークモデルにより前記受業中の学生の画像において学生の表情を認識し、
前記表情認識ユニットはフェース認識サブユニットと畳み込みニューラルネットワーク分類装置を含む。
従来の技術と比較してみると、本発明の教学補助方法は設定済のデプステンソルトレーンネットワークモデルを採用することにより前記教室中の学生の行為を検出し、それにより画像を認識する精度を向上させ、計算をするハードウェアに対する要求を低減し、教学補助方法を結合式システムをに応用させ、教学補助方法を用いるコストを低減するができる。
また、本発明において設定済のデプステンソルトレーンネットワークモデルを採用することにより前記教室中の学生の表情を認識し、その教学補助システムにより授業中の学生の異常の行為を認識する精度を一層向上させることができる。
前記教学補助方法を採用する教学補助システムによっても同じな発明の効果を獲得することができる。
教学補助方法の概略を示す流れ図である。 教学補助方法を詳細に示す流れ図である。 図1の教学補助方法が採用される教学補助システムを示す構造図である。 図3の教学補助システムの具体的な構造を示す図である。 完全接続層のウエートマトリックスが三階のテンソルに折り畳まれかつ結合されることを示す図である。 三階のテンソルのテンソルトレーン分解を示す図である。 テンソルトレーン分解を示す図である。 マトリックスのテンソルトレーン分解を示す図である。 採集モジュールの配置を示す図である。 行為認識に用いられるデプステンソルトレーンネットワークモデルの構造を示す図である。 表情認識に用いられるデプステンソルトレーンネットワークモデルの構造を示す図である。
以下、図1ないし図11を参照することにより本発明の各実施例を詳細に説明する。
図1に示される教学補助方法は順に実施される下記ステップを含む。
ステップs1において、採集モジュールは教室の画像を随時に採集して認識モジュールに送信する。
ステップs2において、前記認識モジュールは前記教室の画像を分析し、かつ前記教室の画像中に行為が異常である学生がいるかを判断する。
ステップs3において、通知モジュールは前記認識モジュールが認識した結果を授業中の先生に伝達する。
前記ステップs2は下記ステップを含む。
ステップs21において、前記認識モジュールは設定済のデプステンソル(Depth tensor)トレーンネットワークモデルを用いることにより前記受業中の学生の行為を検出する。
具体的に、ステップs21において採用するデプステンソルトレーンネットワークモデルは従来の完全接続層(fully connected layers)マトリックスに対してテンソルトレーンの分解をすることにより獲得するものである。それにより完全接続層マトリックスのテンソルのパラメーターの数量を大幅に圧縮し、計算の効率を向上させ、計算をするハードウェアに対する要求を低減し、結合式方法によりシステムを容易に配置させ、使用の利便性を向上させ、かつコストを低減するができ、教学補助システムを幅広く応用することができる。
図2に示すとおり、前記ステップs2は下記ステップを更に含む。
ステップs22において、前記認識モジュールは設定済のデプステンソルトレーンネットワークモデルにより前記受業中の学生の画像を検出することにより学生の表情を認識する。
ステップs22において、画像認識である核心算法を再び設定し、学生の画像により学生の行為を検出することと表情を認識することによりデプステンソルトレーンネットワークモデルによって一層よい認識の精度と効率を獲得することができる。デプステンソルトレーンネットワークモデルにおいてモデルのパラメーターの数量を低減し、システムの安定性(robustness)を向上させ、かつ本発明の教学補助システムにより授業中の学生の異常の行為と表情を検出する速度を有効に向上させることができる。
本実施例において、前記ステップs22は具体的に下記ステップを含む。
ステップs221において、フェース認識サブユニットにより前記採集モジュールが採集した前記教室の画像において各学生のフェース区域を検出する。
ステップs222において、畳み込みニューラルネットワーク(Convolutional Neural Networks)分類装置により検出される前記フェース区域の表情を認識する。
具体的な操作において、フェースの表情の特徴は細かく、認識モジュールは表情の特徴を直接検出しにくいので、本発明においてステップs221とステップs222により表情の認識をする。まず、フェース認識サブユニットにより採集モジュールが採集した教室の画像において各学生のフェース区域を検出する。次に、畳み込みニューラルネットワーク分類装置により検出される各フェース区域の画像中の表情を認識する。
図9に示すとおり、ステップs1は下記ステップを含む。
ステップs11において、前記採集モジュールの画像採集モジュールを教室の前方の左側、中央、右側にそれぞれ取り付ける。
他の実施例において、教室の前方の左側および右側または複数の区域に画像採集モジュールをそれぞれ取り付けることにより、単一の方向に撮影するとき学生が撮影されないことを防止することができる。
好適な実施例において、正常な授業の状態において、大部分の学生は困惑するか或いはぼんやりするか或いはいらだつ等のような異常な行為をしないので、各画像採集装置で写真を撮るタイミングの間の間隔を長くすることにより、画像の採集の頻度を低減し、画像を処理するか或いは記憶させる作業を低減することができる。
ステップs12において、前記画像採集モジュールは教室の学生全員の上半身の画像を採集することを目標とする。
具体的な実施例において、受業をしている学生の行為と表情の特徴は上半身の画像によって検出して認識することができるので、上半身の画像を採集することを目標とすることにより被写体の特徴が集まっている区域を撮影することができる。
本実施例は下記ステップを更に含む。ステップs4において記憶モジュールは前記認識結果を同時記憶させる。
本実施例において、認識結果を同時記憶させることにより認識結果を全面的に分析し利用することができる。認識結果により授業の効果を分析評価し、かつ学生の学習の状態を分析することにより、需要に対応する適当な対策をとり、次の教学の作業をより有効に管理し、教学のレベルと品質を全面的に向上させることができる。
好ましくは、前記ステップs4は下記ステップを含むことができる。
ステップs41において、各学生に対応する前記認識結果を分類することにより各クラスの学生の電子ファイルを作成する。
それにより各学生の受業の状態を検出しかつ認識結果を統計して分析し、学生が学校で授業をする状態を主動的に把握することができ、学生の成績にのみにより学生の授業の状態を判断する従来の受動的な判断方法の弊害を避けることができる。
ステップs42において、前記学生の電子ファイルにより学生の授業の状態の曲線を作成し、授業の先生は授業の内容と試験の成績により学生を適当に指導する。
また、学生の電子ファイルと教師の教学の評価により、学生の成績にのみにより授業の品質を判断するときそれを全面的に判断することができない弊害を避けることができる。
本実施例はステップs1前に実施される下記ステップを更に含むことができる。
ステップq1においてデータベースを作成する。
具体的な実施例において、行為を検出するデータベースと表情を認識するデータベースをそれぞれ作成することができる。
具体的に、行為を検出するデータベースを作成するとき、適当なデータベースを作成することは学生の異常な行為を正確に検出する基礎になり、システムの認識の性能の変化に直接に係っている。採集モジュールにより複数の教室において教室の授業の状況を長く撮影した後、異常な行為をする学生の画像を選択してラベルをつける。異常な行為とは聴講を真面目にしない任意の行為、例えば居眠り、私語、悪戯、瞑想等をする行為を指す。カメラが遮断されることと視覚の範囲を避けるため、教室の左側、中央、右側にそれぞれ取り付けられる画像採集モジュールで画像を撮影し、画像を選別することができる。かつ画像を簡単に処理し、所定のサイズを入力して画像を適当なモデルに調節することにより、ネットワークモデルのテストをするとき用いることができる。
他の実施例において、表情の特徴例えば集中していること、興味を持っていること、思考していること等を検出し、デプステンソルトレーンネットワークモデルに対して設定をすることにより、前記モデルで聴講に集中している行為を選び出すこともできる。
表情を認識するデータベースを作成するとき、フェースの表情を認識する作業は2つのステップで実施することができる。すなわちフェースを検出した後、表情を認識することにより2つのデータベースを作成する。1つは教室中の学生のフェースを検出するデータベースであり、他の1つは教室で授業をする学生の表情を指すデータベースである。
フェースを検出するデータベース
画像採集モジュールが採集した教室の画像において学生のフェースを正確に検出するため、教室中の学生のフェースを検出する小型データベースを作成する。画像採集モジュールにより複数の教室において教室の授業の状況を長く撮影することにより教室の画像を獲得する。その画像にラベルをつけ、画像中のフェースの位置を把握し、画像を簡単に処理し、所定のサイズを入力して画像を適当なモデルに調節することにより、ネットワークモデルのテストをするとき用いることができる。
授業をする学生の表情に関するデータベース
先生が授業をするとき学生が教室で受業をする状態を正確に把握し、聴講中の学生の表情を認識するため、学生が教室で受業をする場合により聴講中の学生の表情に関するデータベースを構成する。採集した教室の画像において学生のフェースの表情のピクチャーブロック(Picture block)を検出するため、聴講を真面目にする程度により表情ラベル、例えば集中していること、興味を持っていること、思考していること、困惑すること、ぼんやりすること、いらだつこと等を作成する。それにより授業をする先生は各学生が聴講をする状態と授業を把握した状態を正確に理解し、授業を適当に処理または調節することができる。
ステップq2において前記デプステンソルトレーンネットワークモデルの設定をする。
具体的に実施例において、行為の検出と表情の認識をする設定をそれぞれ実施する。相違点は異なるデータにより設定をする。
具体的に、「デプステンソルトレーンネットワーク」中の学生の異常な行為によりニューラルネットワーク(neural network)モデルを認識する。まず、多層の畳み込み層(Convolutional layer)により画像中の学生の行為の特徴を検出することを自動に学び、学んだ学生の行為の特徴に関する情報を用い、かつTT分解(テンソルトレーン分解)をしたにより教室中の学生の行為を認識し、教室において異常な行為をしている学生を検出する。
図2に示すとおり、前記ステップq1は下記ステップを含む。
ステップq11において、前記採集モジュールは教室を長く撮影してえた前記教室の画像を記憶させる。
ステップq12において、異常な行為をする学生の画像にラベルをつける。
異常な行為をする学生の画像の数量が少ないので、モデルのオーバーフィット(overfit)を避け、モデルが光線の変化等の要因による影響を受ける反干渉性能(anti−interference ability)を向上させるため、ラベルがつけられかつ異常な行為をする学生の画像のデータに対してデータエンハンスメント(data enhancement)をする。画像のコントラストを変化させ、RGBチャンネルを向上させ、ノイズを入力すること等により、画像に関するデータの見本の数量と種類を増加させる。
本実施例において、前記ステップq2は下記ステップを含む。
ステップq21において、ニューラルネットワークモデルの多層の畳み込み層によりラベルがつけられる前記学生の画像において異常の特徴を検出し、異常の特徴と分解後の完全接続層のウエートマトリックス演算により出力される予測値を獲得する。
図10はデプステンソルトレーンネットワークのモデル構造を示す図である(ここにおいて3層の畳み込み層を例として説明する)。デプステンソルトレーンネットワークモデルの構成は下記ステップを含む。
1、ネットワークモデルのパラメーターの初期化をする。
2、教室の学生の行為に関するデータが集中された画像を前記モデルに入力して設定をする。
3、画像に対してConvoluted and pooledをし、最下層の畳み込み層においてS×S×mであるテンソルを出力する。すなわち元の画像をS×S個のユニットに分割し、各ユニットを元の教室の画像の一部分に対応させ、各ユニット中の画像の特徴を前記テンソル中の一個のm次元のベクトルに対応させる。
4、改良後の完全接続により1個のS×S×(5a)のテンソルを出力する。すなわち各ユニットに対応するa個の異常な行為をする学生によりバウンダリーフレームの座標(x、y、w、h)とフレームにおいて異常な行為をする学生のコンフィデンスレベル(confidence level)を検出する。xとyは異常な行為をする学生の認識フレームの中心の座標であり、wとhは異常な行為をする学生の認識フレームの幅と高さであり、座標を一体にすることによりそれが0から1の間に入るようにする。
改良後の完全接続は従来の完全接続層のマトリックスに対してテンソルトレーン(TT)分解をすることにより、完全接続層のパラメーターの数量を大幅に圧縮し、計算の効率を向上させ、ハードウェアに対する要求を低減し、結合式装置に用いることができる。この教学補助システムにより教室において異常な行為をしている学生を迅速に検出し、結合式方法によりシステムを容易に配置させ、使用の利便性を向上させ、かつコストを低減するができ、教室において異常な行為をしている学生を検出する教学補助システムを幅広く応用することができる。
テンソルトレーン分解(TT分解)はテンソル分解モデルであり、各テンソルの各元素は複数のマトリックスのプロダクトで示す。マトリックスのテンソルトレーン分解をするときまず再構成方法を選択する必要がある。マトリックスをd階テンソルに送信した後、テンソルに対してテンソルトレーン分解をする。すなわち完全接続層のウエートマトリックスに対してテンソルトレーン分解をし、以下、その過程を詳細に説明する(説明を簡単にするため一部分のパラメーターを例として説明するが、具体的な実施例は下記パラメーターにのみ限定されるものでない)。
本実施例において、完全接続層のウエートマトリックスに対してテンソルトレーン分解をするステップは下記のとおりである。
1、図5に示すとおり、完全接続層のウエートマトリックスの行と列をいずれもd個のバーチャルの次元に折り畳み(are all folded into)、ネットワークモデルにおいてS=4、m=50、n=49であると仮定する。画像採集モジュールが撮影してえた教室の画像の各層に対してConvoluted and pooledをすることにより4x4x50=800個の特徴を検出し、下層の隠蔽層には4x4x49=784個のハイデーンノード(hidden node)が含まれ、前記完全接続層のウエートのパラメーターは800x784個のマトリックスである。図面に示すとおり、表示を簡単にするため、d=3にし、完全接続層のウエートマトリックスの行と列を3個のバーチャルの次元にする。
2、図5に示すとおり、行列に対応するバーチャルの次元を結合させる。すなわち完全接続層のウエートマトリックスをd階のテンソルに変換させる。前記実施例の方法により元の800x784のウエートマトリックスを700x32x28の3階のテンソルに変換させる。
3、図6に示すとおり、前記d階のテンソルのテンソルトレーンランク(tensor train rank)rを定義する。この場合、
本実施例において、元の700x32x28の三階のテンソルは1x700x3、3x32x3、3x28x1である3個のカーネルテンソルに分解される。完全接続層のウエートのパラメーターの数量は627200から2472個に低下する。
TT分解(テンソルトレーン分解)により完全接続層のウエートパラメーターの数量が低減されることを直感的に示すため、複数の再構成方法によりテンソルトレーン分解をするときパラメーターの規模の変化を次にとおりに示す。表に示される結果のように、テンソルトレーン分解により完全接続層のウエートのパラメーターの数量を百倍または千倍に低減することができるので、計算の効率を向上させ、ハードウェアに対する要求を低減し、この教学補助システムを結合式装置に用い、教室において異常な行為をしている学生を迅速に検出することができる。
ステップq22において、出力される予測値と前記学生画像中の異常な行為をする学生の実際の評価値との間の誤差により損失函数を構成する。
ステップq23において、損失函数でネットワークのパラメーターを調節することにより設定済のデプステンソルトレーンネットワークモデルを獲得する。
5.逆伝播アルゴリズム(Backpropagation algorithm)を用い、出力される予測値と前記学生画像中の異常な行為をする学生の実際の評価値との間の誤差により構成される損失函数L(この損失函数は平方と誤算を採用する損失函数であり、これについて以下具体的に説明する)により、ネットワークのパラメーターを調節し、精度の所定のレベルまで向上させる。次に、そのネットワークのパラメーターを記憶させる。
平方と誤算を採用する損失函数において、その損失函数は、3つの部分すなわち座標予測函数、異常な行為をする学生が含まれる認識フレームのコンフィデンスレベルを計算する函数、異常な行為をする学生が含まれない認識フレームのコンフィデンスレベルを計算する函数を含む。
好適な実施例において、図10と図11に示すとおり、表情認識設定をするためデプステンソルトレーンネットワークモデルを構成するとき、フェース認識は行為認識サブモジュールにより学生の異常な行為を検出する検出モジュールと類似し、学生の異常な行為に関するデータをフェース認識データに変換させ、フェース認識データ中の画像を用いることによりモデル設定を入力し、前記行為認識サブモジュール1〜5中の設定を繰り返すことにより、モジュールは、フェースの特徴を自動に学び、学生画像において学生のフェースの特徴を自動に検出することができる。
フェースの表情の認識を設定するとき、畳み込みニューラルネットワーク(CNN)分類装置を採用する。前記学生の聴講中の表情に関するデータにおいて表情ラベルが付いている学生のフェースのピクチャーブロックを表情認識分類装置に入力し、表情認識ネットワークモデルに対して設定をする。表情認識ネットワークモデルは図11に示すとおりである。
1、表情認識ネットワークモデルのパラメーターの初期化をする。
2、学生の聴講中の表情に関するデータにおいて表情ラベルが付いている学生のフェースのピクチャーブロックを表情認識分類装置に入力して設定をする。
3、学生のフェースのピクチャーブロックに対してConvoluted and pooledをすることによりフェースの表情の特徴を検出する。
4、改良後の完全接続により予測される学生のフェースのピクチャーブロックの表情ラベルを出力する。この場合も完全接続層のウエートマトリックスに対してTT分解をする。具体的な過程は行為認識サブモジュール(4)中の詳細な説明を参照することができるので、ここで再び説明しなし。
5、逆伝播アルゴリズムを用い、出力される予測値と表情ラベルがついている誤差により構成される損失函数Lにより、ネットワークのパラメーターを調節し、精度の所定のレベルまで向上させた後、そのネットワークのパラメーターを記憶させる。
他の実施例において、モデルの学習の正確性を検索するため、モデルテストのステップを更に含む。
行為検出のテストをするとき、前記設定済のネットワークモデルのパラメータを認識モジュール中の行為認識サブモジュールのデプステンソルトレーンネットワークに入力し、画像採集モジュールが随時に採集した教室画像を入力し、随時に採集した認識画像に異常な行為をする学生が含まれているかを判断する。含まれている場合、通知モジュールによりその認識の結果を授業中の先生に送信し、かつそれを記憶モジュールを記憶させることにより結果のデータを更に分析することができる。異常な行為であるかを判断するとき、ネットワークモデルが出力した異常な行為の確立が所定の確立の閾値よりおおきいかを判断することにより判断をする。所定の確立の閾値は複数のテストにより獲得しかつ一般人のバランスのセンシティビティーと正確度にあう値である。先生は個人の状況によりそれを適当に調節することによりこの教学補助システムの最適化をすることができる。テストをするとき検出された問題により細部を適当に調節することにより、教学補助システムの最適化を獲得し、教学補助システムを実際の応用に用いることができる。
表情認識のテストをするとき、前記設定済のネットワークモデルのパラメータを認識モジュール中の表情認識サブモジュールに入力し、画像採集モジュールが随時に採集した教室画像を入力する。まず、フェース認識ネットワークモデルにより各学生のフェースが画像中に位置している位置を検出する。次に、フェースのピクチャーブロックを簡単に処理した後、所定のサイズに調節して表情認識ネットワークモデルに入力することにより聴講中の学生の表情を認識する。それによりモデルはフェースを自動に検出しかつその表情の特徴を認識することができるので、それを実際の応用に用い、聴講中の学生の表情に関する情報を随時に認識することができる。その認識の結果と行為認識モジュールの認識の結果により、授業中の先生は聴講中の各学生の受業の状態により正確に把握し、先生は授業をしながら各学生を有効に管理することにより、教学の品質と効率を向上させることができる。
前記技術的問題を解決するため、本発明は教学補助システムを更に提供する。その教学補助システムには、採集モジュールと、前記採集モジュールに接続される認識モジュールと、前記認識モジュールに接続される通知モジュールとが設けられている。
前記採集モジュールは教室の画像を随時に採集して認識モジュールに送信する。
図9に示すとおり、採集モジュールは教室の学生全員の上半身の画像を採集することを目標とする。画像採集方法として画像採集モジュールを教室の前方の左側、中央、右側の上方にそれぞれ取り付け、画像採集モジュールの撮影の角度を調節調節することにより、被写体が遮断されることを防止しかついろいろな角度の画像を獲得することができる。画像採集モジュールが撮影する時間の間隔を設定し、採集した画像を認識モジュールに適用するサイズに調節して認識モジュールに送信することにより、学生の行為を認識するデータを提供することができる。
認識モジュールは前記授業画像を分析することにより前記教室の画像に異常な行為をしている学生がいるかを判断する。認識モジュールは具体的に下記行為認識ユニットを含む。
行為認識ユニットは設定済のデプステンソルトレーンネットワークモデルにより前記授業画像中の学生の行為を認識する。
具体的に、認識モジュールの目的は、認識画像採集モジュールが採集した聴講中の学生の具体的な行為と表情により学生が真面目に聴講をしているかを判断し、学生が授業の内容を把握する程度を判断することにある。行為認識方法は、まず、聴講をしている学生の画像のデータを採集し、所定の画像にラベルを人工的につけることにより異常な行為をしている学生を検出する。すなわち聴講を真面目にしない学生、例えば居眠り、私語、悪戯、瞑想等をする学生を検出する。次に、聴講をしている学生の画像のデータベースによりデプステンソルトレーンネットワークモデルを設定することにより、認識モジュールは画像中の特徴を自動に学習し、異常な行為をしている画像中の学生を検出する。最後に、設定済のモデルを実際の応用に用い、画像採集モジュールから送信されてくる3つの画像(本発明において3つの画像を例として説明するが、ハードウェアがよい場合、複数の画像を採集してもよい)を獲得し、画像中に異常な行為をする学生がいるかを検出し、所定の確立の閾値により異常な行為をしている学生を選別する。
前記通知モジュールは前記認識モジュールの認識の結果を授業中の先生に知らせる。
通知モジュールにおいて、通知モジュールは認識の結果を分析した後所定の方法によりその結果を授業の先生に送信する。3つの角度から撮影した画像に異常が存在しない場合、その結果を先生に送信しない。先生は確立の閾値を調節することにより認識のセンシティビティーを調節することができる。先生は通知を受けることにより教室の学生の聴講の状態と学生が授業の内容を把握する程度を判断することができ、授業の内容をよく把握していない学生を重点に指導するか或いは所定の対策をとることができる。
好ましくは、教学補助システムは前記認識モジュールに接続される記憶モジュールを更に含む。前記記憶モジュールは前記認識の結果を同時に記憶させかつそれを分類して編集する。
記憶モジュールにおいて、記憶モジュールは前記教学補助システムが認識した最終の結果をクラスを目録とし、学生を種類として学生の個人ファイルを作成しかつそれを記憶させる。学校において前記電子ファイルを充分に利用しかつ電子ファイルから有用な情報を読み出すことにより、学生が授業を把握した状況を判断しかつ教学の不足を分析して評価することができる。また、学生の学習の曲線を分析することにより、学生の成績がよくない原因を突き止め、適当な対策をとることができる。
前記認識モジュールは表情認識ユニットを更に含む。
表情認識ユニットは設定済のデプステンソルトレーンネットワークモデルにより前記受業中の学生の画像において学生の表情を認識する。
前記表情認識ユニットはフェース認識サブユニットと畳み込みニューラルネットワーク分類装置を含む。
表情認識サブモジュールの認識方法は行為認識方法と類似しており、相違点は異常である表情を選別して計算することにある。本発明において2つのサブモジュールを採用しかつ計算方法が同じであるモデルにより認識を同時にしかつ走査をすることができるが、損失函数を変化させることもできる。多任務の損失函数を採用することにより2つの任務を1つにモデルに送信して認識をすることができる。ここでそれを具体的に説明しないが、それが本発明に含まれることは勿論である。
本発明の技術的事項を採用する場合、教室の画像を分析して処理することにより先生の代わりに教学を補助する技術的問題をよく解決し、従来の教学装置において外部の画像認識装置を過度に依頼することによりハードウェアに対する要求が高くなりかつ認識の正確性が低下する欠点を避け、先生の教学の効率を向上させることができる。
以上、本発明の好適な実施例を説明してきたが、本発明は前記実施形態にのみ限定されるものでない。この技術分野の技術者は本発明の技術的事項と技術的方法により本発明を自由に改変または変更させることができる。本発明の範囲は特許請求の範囲が定めたことを基準とする。

Claims (11)

  1. 順に実施される下記ステップ、すなわち
    採集モジュールにより教室の画像を随時に採集して認識モジュールに送信するステップs1と、
    前記認識モジュールにより前記教室の画像を分析しかつ前記教室の画像中に行為が異常である学生がいるかを判断するステップs2と、
    通知モジュールにより前記認識モジュールが認識した結果を授業の先生に伝達するステップs3とを含む教学補助方法であって、
    前記ステップs2は前記認識モジュールは設定済のデプステンソルトレーンネットワークモデルを用いることにより前記受業中の学生の行為を検出するステップs21を含むことを特徴とする教学補助方法。
  2. 前記ステップs2は前記認識モジュールが設定済のデプステンソルトレーンネットワークモデルにより前記受業中の学生の画像において学生の表情を認識するステップs22を更に含むことを特徴とする請求項1に記載の教学補助方法。
  3. 前記ステップs22は、具体的に、フェース認識サブユニットにより前記採集モジュールが採集した前記教室の画像において各学生のフェース区域を検出するステップs221と、
    畳み込みニューラルネットワーク分類装置により検出される前記フェース区域の表情を認識するステップs222とを含むことを特徴とする請求項2に記載の教学補助方法。
  4. 前記ステップs1は、前記採集モジュールの画像採集モジュールを教室の前方の左側、中央、右側にそれぞれ取り付けるステップs11と、
    前記画像採集モジュールは教室の学生全員の上半身の画像を採集することを目標とするステップs12とを含むことを特徴とする請求項1に記載の教学補助方法。
  5. 前記教学補助方法は記憶モジュールに前記認識結果を同時記憶させるステップs4を更に含むことを特徴とする請求項1に記載の教学補助方法。
  6. 前記ステップs4は、各学生に対応する前記認識結果を分類することにより各クラスの学生の電子ファイルを作成するステップs41と、
    前記学生の電子ファイルにより学生の授業の状態の曲線を作成し、授業の先生は授業の内容と試験の成績により学生を適当に指導するステップs42とを含むことを特徴とする請求項5に記載の教学補助方法。
  7. 前記教学補助方法は、ステップs1前に実施される下記ステップ、すなわち
    データベースを作成するステップq1と、
    前記デプステンソルトレーンネットワークモデルの設定をするステップq2と更に含むことを特徴とする請求項1に記載の教学補助方法。
  8. 前記ステップq1は、前記採集モジュールが教室を長く撮影してえた前記教室の画像を記憶させるステップq11と、
    異常な行為をしている学生の画像を選択してラベルをつけるステップq12とを含むことを特徴とする請求項7に記載の教学補助方法。
  9. 前記ステップq2は、ニューラルネットワークモデルの多層の畳み込み層によりラベルがつけられる前記学生の画像において異常の特徴を検出し、異常の特徴と分解後の完全接続層のウエートマトリックス演算によってえた予測値を出力するステップq21と、
    前記出力される予測値と前記学生画像中の異常な行為をする学生の実際の評価値との間の誤差により損失函数を構成するステップq22と、
    前記損失函数でネットワークのパラメーターを調節することにより設定済のデプステンソルトレーンネットワークモデルを獲得するステップq23とを含むことを特徴とする請求項8に記載の教学補助方法。
  10. 教学補助システムであって、その教学補助システムには、採集モジュールと、前記採集モジュールに接続される認識モジュールと、前記認識モジュールに接続される通知モジュールとが設けられ、
    前記採集モジュールは教室の画像を随時に採集して認識モジュールに送信し、
    前記認識モジュールは前記授業画像を分析することにより前記教室の画像に異常な行為をしている学生がいるかを判断し、前記認識モジュールは行為認識ユニットを含み、前記行為認識ユニットは設定済のデプステンソルトレーンネットワークモデルにより前記教室の画像中の学生の行為を認識し、
    前記通知モジュールは前記認識モジュールの認識の結果を授業中の先生に知らせることを特徴とする教学補助システム。
  11. 前記教学補助システムは前記認識モジュールに接続される記憶モジュールを更に含み、前記記憶モジュールは前記認識の結果を同時に記憶させかつそれを分類して編集し、
    前記認識モジュールは表情認識ユニットを更に含み、
    表情認識ユニットは設定済のデプステンソルトレーンネットワークモデルにより前記受業中の学生の画像において学生の表情を認識し、
    前記表情認識ユニットはフェース認識サブユニットと畳み込みニューラルネットワーク分類装置を含むことを特徴とする請求項10に記載の教学補助システム。
JP2020522765A 2017-08-07 2017-08-07 教学補助方法およびその方法を採用する教学補助システム Active JP6892558B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/096217 WO2019028592A1 (zh) 2017-08-07 2017-08-07 一种教学辅助方法及采用该方法的教学辅助系统

Publications (2)

Publication Number Publication Date
JP2020525965A true JP2020525965A (ja) 2020-08-27
JP6892558B2 JP6892558B2 (ja) 2021-06-23

Family

ID=65273159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020522765A Active JP6892558B2 (ja) 2017-08-07 2017-08-07 教学補助方法およびその方法を採用する教学補助システム

Country Status (3)

Country Link
US (1) US11270526B2 (ja)
JP (1) JP6892558B2 (ja)
WO (1) WO2019028592A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11037330B2 (en) * 2017-04-08 2021-06-15 Intel Corporation Low rank matrix compression
CN111723617B (zh) * 2019-03-20 2023-10-27 顺丰科技有限公司 动作识别的方法、装置、设备及存储介质
CN110119702B (zh) * 2019-04-30 2022-12-06 西安理工大学 基于深度学习先验的人脸表情识别方法
CN110647807A (zh) * 2019-08-14 2020-01-03 中国平安人寿保险股份有限公司 异常行为确定方法、装置、计算机设备和存储介质
CN110728194A (zh) * 2019-09-16 2020-01-24 中国平安人寿保险股份有限公司 基于微表情和动作识别的智能培训方法、装置及存储介质
CN112580910A (zh) * 2019-09-29 2021-03-30 鸿富锦精密电子(天津)有限公司 教学调查问卷分析方法、电子装置及存储介质
CN111027584A (zh) * 2019-10-23 2020-04-17 宋飞 一种课堂行为识别方法及设备
CN111079554A (zh) * 2019-11-25 2020-04-28 恒安嘉新(北京)科技股份公司 分析学生课堂表现的方法、装置、电子设备、及存储介质
CN111126302A (zh) * 2019-12-26 2020-05-08 上海金桥信息股份有限公司 一种移动终端的多面部识别方法
CN111476690B (zh) * 2020-05-15 2023-04-14 重庆医药高等专科学校 一种多模式家校沟通系统及方法
CN111898473B (zh) * 2020-07-10 2023-09-01 华南农业大学 一种基于深度学习的司机状态实时监测方法
CN111967350A (zh) * 2020-07-30 2020-11-20 广州光大教育软件科技股份有限公司 远程课堂专注度分析方法、装置、计算机设备及存储介质
CN111857010A (zh) * 2020-07-31 2020-10-30 重庆电子工程职业学院 一种用于实训场所运维管控的辅助支持系统
CN111950708B (zh) * 2020-08-11 2023-10-03 华中师范大学 一种发现大学生日常生活习惯的神经网络结构与方法
CN112396923B (zh) * 2020-11-25 2023-09-19 贵州轻工职业技术学院 一种市场营销的教学模拟系统
CN112598550B (zh) * 2020-12-24 2024-03-26 苏州大学 基于行为分析的学生活动多维管理系统及管理方法
CN113052041B (zh) * 2021-03-17 2024-04-30 广东骏杰科技有限公司 一种具备智能化教学系统和监测方法
CN113486700A (zh) * 2021-05-08 2021-10-08 北京科技大学 一种教学场景下基于注意力机制的面部表情分析方法
CN113239915B (zh) * 2021-07-13 2021-11-30 北京邮电大学 一种课堂行为的识别方法、装置、设备及存储介质
CN113569761B (zh) * 2021-07-30 2023-10-27 广西师范大学 一种基于深度学习的学生视点估计方法
CN113792626A (zh) * 2021-08-30 2021-12-14 华中师范大学 一种基于教师非言语行为的教学过程评价方法
CN114140282B (zh) * 2021-11-19 2023-03-24 武汉东信同邦信息技术有限公司 一种基于深度学习的普教课堂答题快速评审方法及装置
CN114332007A (zh) * 2021-12-28 2022-04-12 福州大学 一种基于Transformer的工业缺陷检测和识别方法
CN114419861A (zh) * 2022-01-20 2022-04-29 牡丹江师范学院 一种基于互联网大学教学用英语智能教学辅助系统
CN114898460B (zh) * 2022-04-22 2024-04-26 华中师范大学 一种基于图卷积神经网络的教师非言语行为检测方法
CN114898449B (zh) * 2022-07-13 2022-10-04 电子科技大学成都学院 一种基于大数据的外语教学辅助方法及装置
CN115909152B (zh) * 2022-11-16 2023-08-29 北京师范大学 一种基于群体行为的教学场景智能分析系统
CN117152688A (zh) * 2023-10-31 2023-12-01 江西拓世智能科技股份有限公司 一种基于人工智能的智慧课堂行为分析方法及系统
CN117649702B (zh) * 2024-01-30 2024-05-07 山东诚海电子科技有限公司 一种基于人体姿态的教学辅助方法、设备及介质
CN117711132A (zh) * 2024-02-05 2024-03-15 青岛培诺教育科技股份有限公司 一种学生安全监测方法、装置、电子设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8491311B2 (en) * 2002-09-30 2013-07-23 Mind Research Institute System and method for analysis and feedback of student performance
CN102945624A (zh) 2012-11-14 2013-02-27 南京航空航天大学 基于云计算模型和表情信息反馈的智能化视频教学系统
US9666088B2 (en) * 2013-08-07 2017-05-30 Xerox Corporation Video-based teacher assistance
US9730643B2 (en) * 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
CN103559812B (zh) 2013-11-07 2016-01-20 大连东方之星信息技术有限公司 一种教育督导评价报告生成系统
WO2015132665A2 (en) * 2014-03-07 2015-09-11 Wolf, Lior System and method for the detection and counting of repetitions of repetitive activity via a trained network
US9641585B2 (en) * 2015-06-08 2017-05-02 Cisco Technology, Inc. Automated video editing based on activity in video conference
US9792492B2 (en) * 2015-07-07 2017-10-17 Xerox Corporation Extracting gradient features from neural networks
US9916522B2 (en) * 2016-03-11 2018-03-13 Kabushiki Kaisha Toshiba Training constrained deconvolutional networks for road scene semantic segmentation
GB201613138D0 (en) * 2016-07-29 2016-09-14 Unifai Holdings Ltd Computer vision systems
CN106097790A (zh) 2016-08-31 2016-11-09 王翠丽 一种教学辅助装置
CN106778539A (zh) 2016-11-25 2017-05-31 鲁东大学 教学效果信息获取方法及装置
US10748062B2 (en) * 2016-12-15 2020-08-18 WaveOne Inc. Deep learning based adaptive arithmetic coding and codelength regularization
CN106778745A (zh) * 2016-12-23 2017-05-31 深圳先进技术研究院 一种车牌识别方法及装置、用户设备
US11301944B2 (en) * 2017-04-13 2022-04-12 International Business Machines Corporation Configuring classroom physical resources
US11120127B2 (en) * 2017-12-27 2021-09-14 Nec Corporation Reconstruction-based anomaly detection
WO2020019236A1 (en) * 2018-07-26 2020-01-30 Intel Corporation Loss-error-aware quantization of a low-bit neural network

Also Published As

Publication number Publication date
WO2019028592A1 (zh) 2019-02-14
JP6892558B2 (ja) 2021-06-23
US11270526B2 (en) 2022-03-08
US20200175264A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP2020525965A (ja) 教学補助方法およびその方法を採用する教学補助システム
CN108399376B (zh) 学生课堂学习兴趣智能分析方法及系统
US9666088B2 (en) Video-based teacher assistance
CN108073888A (zh) 一种教学辅助方法及采用该方法的教学辅助系统
CN111915148B (zh) 一种基于信息技术的课堂教学评价方法和系统
CN110009210B (zh) 一种基于关注度和专注度的学生听课水平综合评估方法
CN110837795A (zh) 基于课堂监控视频的教学情况智能监测方法、装置及设备
CN105869085A (zh) 一种成绩录入系统及图像处理的方法
CN111339801B (zh) 一种人员注意力检测方法、装置、设备及系统
WO2015153266A1 (en) Method and system for analyzing exam-taking behavior and improving exam-taking skills
CN110969045A (zh) 一种行为检测方法、装置、电子设备和存储介质
CN114898460B (zh) 一种基于图卷积神经网络的教师非言语行为检测方法
CN110111223A (zh) 基于人工智能的自适应教育方法和系统
CN108304779B (zh) 一种学生教育管理的智能化调控方法
CN114332911A (zh) 一种头部姿态检测方法、装置及计算机设备
CN111914801A (zh) 一种用于智慧教育的课堂分析方法
CN111241926A (zh) 考勤与学情分析方法、系统、设备及可读存储介质
CN114677644A (zh) 一种基于教室监控视频的学生入座分布识别方法及系统
JP2022014889A (ja) 達成度判別プログラム
CN111199378B (zh) 学员管理方法、装置、电子设备及存储介质
Ray et al. Design and implementation of affective e-learning strategy based on facial emotion recognition
CN115829234A (zh) 基于课堂检测的自动化督导系统及其工作方法
CN116434341A (zh) 一种学生课堂异常行为的识别方法及系统
CN116433431A (zh) 一种基于图像处理技术的教师教学状态自动评价方法及系统
CN108256490A (zh) 人脸检测方法及基于人脸检测的听课率评估方法、系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191231

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210527

R150 Certificate of patent or registration of utility model

Ref document number: 6892558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250