JP7214770B2 - 重点学習コンテンツを確定するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム - Google Patents

重点学習コンテンツを確定するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム Download PDF

Info

Publication number
JP7214770B2
JP7214770B2 JP2021038793A JP2021038793A JP7214770B2 JP 7214770 B2 JP7214770 B2 JP 7214770B2 JP 2021038793 A JP2021038793 A JP 2021038793A JP 2021038793 A JP2021038793 A JP 2021038793A JP 7214770 B2 JP7214770 B2 JP 7214770B2
Authority
JP
Japan
Prior art keywords
learning
actual
stage
online
concentration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021038793A
Other languages
English (en)
Other versions
JP2022000685A (ja
Inventor
リュウ,ジュンチ
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Publication of JP2022000685A publication Critical patent/JP2022000685A/ja
Application granted granted Critical
Publication of JP7214770B2 publication Critical patent/JP7214770B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Computational Linguistics (AREA)
  • Strategic Management (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本出願の実施例はデータ処理技術分野に関し、特に画像認識、音声認識、顔認識、および関節認識の技術分野に関する。
近年、スマートフォンの急速な普及に伴い、オンライン教育方式がますます普及している。しかしオフラインの教師と学生が対面する教育方式に比べ、オンライン教育方式はより多くの態様からの干渉を受け、オンライン学習の効果が低い。
学習効果を向上させる最も有利な方法は、オンライン学習者が学習中に集中しない部分を確定し、この部分を重点学習部分として目標のある再学習スキームを提供することである。しかしながら、従来技術は、通常、学習結果のテストからこの部分の内容を逆に導き出す。
本出願の実施例は重点学習コンテンツを確定するための方法、装置、電子機器、コンピュータ可読記憶媒体およびコンピュータプログラムを提供する。
第1態様では、本出願の実施例は重点学習コンテンツを確定するための方法であって、ユーザのオンライン学習の異なるインタラクション学習段階における学習特徴データを取得することであって、インタラクション学習段階は、視聴段階、オンライン回答段階、音声インタラクション段階、動作模倣段階のうちの少なくとも一つを含む、ことと、各インタラクション学習段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、対応する実学習集中度を得ることと、実学習集中度に基づいて予め設定された学習集中度要求を満たさない対象期間を確定し、対象期間に対応する学習コンテンツを重点学習コンテンツとして確定することと、を含む、重点学習コンテンツを確定するための方法を提供する。
第2態様では、本出願の実施例は重点学習コンテンツを確定するための装置であって、ユーザのオンライン学習の異なるインタラクション学習段階における学習特徴データを取得するように構成される学習特徴データ取得ユニットであって、インタラクション学習段階は、視聴段階、オンライン回答段階、音声インタラクション段階、動作模倣段階のうちの少なくとも一つを含む、学習特徴データ取得ユニットと、各インタラクション学習段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、対応する実学習集中度を得るように構成される実学習集中度確定ユニットと、実学習集中度に基づいて予め設定された学習集中度要求を満たさない対象期間を確定し、且つ対象期間に対応する学習コンテンツを重点学習コンテンツとして確定するように構成される重点学習コンテンツ確定ユニットと、を含む、重点学習コンテンツを確定するための装置を提供する。
第3態様では、本出願の実施例は、少なくとも1つのプロセッサと、少なくとも1つのプロセッサと通信可能に接続されたメモリとを備える電子機器であって、メモリには、少なくとも1つのプロセッサによって実行可能な命令が格納されており、該命令が少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに第1態様のいずれかの実施形態に記載の重点学習コンテンツを確定するための方法を実行させる、電子機器を提供する。
第4態様では、本出願の実施例は、コンピュータ命令が格納されている非一時的コンピュータ可読記憶媒体であって、該コンピュータ命令はコンピュータに第1態様のいずれかの実施形態に記載の重点学習コンテンツを確定するための方法を実行させるために用いられる非一時的コンピュータ可読記憶媒体を提供する。
第5態様では、本出願の実施例は、プロセッサによって実行されると、第1態様のいずれかの実施形態に記載の重点学習コンテンツを確定するための方法を実現する、コンピュータプログラムを提供する。
本出願の実施例に係る重点学習コンテンツを確定するための方法、装置、電子機器、コンピュータ可読記憶媒体およびコンピュータプログラムは、まず、ユーザのオンライン学習の異なるインタラクション学習段階における学習特徴データを取得し、インタラクション学習段階は、視聴段階、オンライン回答段階、音声インタラクション段階、動作模倣段階のうちの少なくとも一つを含み、次に、各インタラクション学習段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、対応する実学習集中度を取得し、次に、実学習集中度に基づいて予め設定された学習集中度要求を満たさない対象期間を確定し、最後に、対象期間に対応する学習コンテンツを重点学習コンテンツとして確定する。
従来技術が提供する逆方向導出解決手段とは異なり、本出願に係る重点学習コンテンツを確定するための方法、装置、電子機器及び可読記憶媒体はユーザのオンライン学習過程の各インタラクション学習段階からその学習集中度に関連する特徴データを収集し、正方向で、リアルタイム集中パラメータを正確に確定し、さらに該パラメータに基づいて非集中期間に対応するコンテンツを重点学習コンテンツとして確定する。異なるインタラクション学習段階から異なる収集方式に基づいて取得された異なる学習特徴データを結合し、各段階で確定された学習集中度をより正確にさせ、さらに確定された重点学習コンテンツが極めて指向性を有することを確保し、ユーザが重点学習コンテンツを学習するために消費される時間をできるだけ短縮させ、オンライン学習効率を向上させる。
なお、発明の概要に記載された内容は、本出願の実施形態のかなめとなる特徴又は重要な特徴を限定することを意図するものではなく、本出願の範囲を限定するものでもない。本出願の他の特徴は、以下の説明によって容易に理解されるであろう。
本出願の他の特徴、目的及び利点は、以下の図面を参照してなされる非限定的な実施例に係る詳細な説明を読むことにより、より明らかになるであろう。
本出願を適用可能な例示的なシステムアーキテクチャである。 本出願に係る重点学習コンテンツを確定するための方法の一実施例を示すフローチャートである。 本出願が視聴学習段階に対して提供する学習特徴データを取得し及び実学習集中度を確定する方法のフローチャートである。 本出願がオンライン回答段階に対して提供する学習特徴データを取得し及び実学習集中度を確定する方法のフローチャートである。 本出願が音声インタラクション段階に対して提供する学習特徴データを取得し及び実学習集中度を確定する方法のフローチャートである。 本出願が動作模倣段階に対して提供する学習特徴データを取得し及び実学習集中度を確定する方法のフローチャートである。 本出願に係る重点学習コンテンツを確定するための装置の一実施例を示す構造概略図である。 本出願の実施例に係る重点学習コンテンツを確定するための方法を実現するための電子機器のブロック図である。
以下、図面及び実施例を参照しながら本出願をより詳細に説明する。ここで説明する具体的な実施例は、関連する発明を説明するためのものに過ぎず、当該発明を限定するものではないことを理解されたい。また、説明の便宜上、図面には発明に関連する部分のみが示されていることに留意されたい。
なお、本出願の実施例及び実施例における特徴は、矛盾を生じない限り、相互に組み合わせることができる。以下、図面及び実施例を参照しながら本出願を詳細に説明する。
図1は、本出願に係る重点学習コンテンツを確定するための方法、装置、電子機器およびコンピュータ可読記憶媒体の実施例を適用可能な例示的なシステムアーキテクチャ100を示している。
図1に示すように、システムアーキテクチャ100は、オンライン学習端末101、102、103、ネットワーク104、及びサーバ105を含んでもよい。ネットワーク104は、オンライン学習端末101、102、103とサーバ105の間で通信リンクの媒体を提供するために使用される。ネットワーク104は、有線、無線通信リンク又は光ファイバケーブルなどの様々なタイプの接続を含んでもよい。
ユーザは、メッセージを送受信するために、オンライン学習端末101、102、103を使用してネットワーク104を介してサーバ105と情報のやり取りをすることができる。オンライン学習端末101、102、103及びサーバ105に両者の間の情報通信を実現するための、例えばオンライン学習アプリ、オンラインデートアプリ、インスタントメッセージアプリなど、様々なアプリケーションをインストールすることができる。
オンライン学習端末101、102および103は、ハードウェアでもソフトウェアでもよい。オンライン学習端末101、102、103がハードウェアである場合、表示画面を有する様々な電子機器であってもよく、スマートフォン、タブレットコンピュータ、ラップトップコンピュータおよびデスクトップコンピュータなどを含むが、これらに限定されない。オンライン学習端末101、102、103がソフトウェアである場合、上記列挙された電子機器にインストールすることができ、それは、複数のソフトウェア若しくはソフトウェアモジュールとして実現されてもよく、又は単一のソフトウェア若しくはソフトウェアモジュールとして実現されてもよい。ここでは特に限定しない。
オンライン学習端末101、102、103及びサーバ105はいずれもハードウェアであってもよく、ソフトウェアであってもよい。オンライン学習端末101がハードウェアである場合、表示画面を有する様々な電子機器であってもよく、スマートフォン、タブレットコンピュータ、ラップトップコンピュータおよびデスクトップコンピュータなどを含むが、これらに限定されない。オンライン学習端末101がソフトウェアである場合は、上記列挙された電子機器にインストールされてもよい。それは複数のソフトウェア又はソフトウェアモジュールに実現することができ(例えば異なるインタラクション学習段階に応じて複数のモジュールに分けることができ、それぞれ1つのインタラクション学習段階の学習特徴データを収集することを担当する)、単一のソフトウェア又はソフトウェアモジュールに実現することもできる。ここでは特に限定しない。サーバ105がハードウェアである場合、複数のサーバから構成される分散サーバクラスターとしても、単一のサーバとしても実現可能である。サーバがソフトウェアである場合、複数のソフトウェア又はソフトウェアモジュール(例えば、重点学習コンテンツ確定サービスを提供するためのもの)として実現されてもよく、又は単一のソフトウェア若しくはソフトウェアモジュールとして実現されてもよい。ここでは特に限定しない。
サーバ105は、内蔵された各種のアプリケーションによって各種のサービスを提供することができ、重点学習コンテンツ確定サービスを提供可能なオンライン学習アプリケーションを例とし、サーバ105は該オンライン学習アプリケーションを実行する時に以下の効果を実現することができる:まず、ネットワーク104を介してオンライン学習端末101、102、103から、それが収集したユーザがオンライン学習の異なるインタラクション学習段階における学習特徴データを取得し、次に、各インタラクション学習段階に対応する予め設定された解析方式を利用して対応する学習特徴データを解析し、対応する実学習集中度を得、次に、実学習集中度に基づいて予め設定された学習集中度の要求を満たさない対象期間を確定し、最後に、対象期間に対応する学習コンテンツを重点学習コンテンツとして確定する。すなわち、サーバ105は、以上の処理ステップにより、最終的にユーザがオンライン学習端末を用いたオンライン学習における集中度が足りない部分の学習コンテンツを確定し、その後の該ユーザの重点学習コンテンツとして出力する。
なお、ユーザがオンライン学習の異なるインタラクション学習段階における学習特徴データはオンライン学習端末101、102、103からリアルタイムに取得することができ、サーバ105に予め記憶されてもよい。具体的には、サーバ105がローカルから該学習特徴データを直接取得することができる場合、例示的なシステムアーキテクチャ100はオンライン学習端末101、102、103及びネットワーク104を含まなくてもよい。
オンライン学習端末101、102、103は、その内蔵された複数種のセンサ又はそれとデータ接続を確立可能な外付け検出装置により、ユーザのオンライン学習の各インタラクション学習段階における学習特徴データを取得することができ、例えば顔認識カメラ、環境光強度センサ、タッチパネルクリックセンサ、ジェスチャーセンサなどである。
本出願の後続の各実施例に係る重点学習コンテンツを確定するための方法は一般的に比較的高い演算能力を有するサーバ105によって実行され、したがって、重点学習コンテンツを確定するための装置は一般的にサーバ105に設けられる。同時に注意すべきなのは、オンライン学習端末101、102、103も要求を満たす演算能力を有する場合、オンライン学習端末101、102、103もそれにインストールされたオンライン学習アプリケーションによって上記のサーバ105で行われる各演算を完成し、同様の結果を得ることができる。特に、異なる演算能力を有する複数種のオンライン学習端末を同時に使用する場合には、サーバ105の演算負荷を適切に軽減するために、より演算能力の高いオンライン学習端末(例えば、デスクトップコンピュータ)によって重点学習コンテンツを確定する方法を実行することもできる。したがって、重点学習コンテンツを確定する装置は、オンライン学習端末101、102、103にも設けられ得る。この時、例示的なシステムアーキテクチャ100は、サーバ105およびネットワーク104を含まなくてもよい。
図1におけるオンライン学習端末、ネットワーク及びサーバの数が例示的なものに過ぎないことを理解されたい。実施の必要に応じて、任意の数のオンライン学習端末、ネットワーク及びサーバを有することができる。
次に、本出願に係る重点学習コンテンツを確定するための方法の一実施例の実施流れ200を示す図2を参照する。次のステップ201~203を含む。
ステップ201:ユーザのオンライン学習の異なるインタラクション学習段階における学習特徴データを取得する。
本ステップは重点学習コンテンツを確定するための方法の実行主体(例えば図1に示すサーバ105)によりユーザのオンライン学習の異なるインタラクション学習段階における学習特徴データを取得することを目的とする。そのうち、インタラクション学習段階は、視聴段階、オンライン回答段階、音声対話段階、動作模倣段階等のうちの少なくとも一つを含むが、これらに限定されない。
視聴段階は、ユーザが視聴の方式によってオンライン学習アプリケーションから提示された動的ビデオコンテンツから知識を学習する必要がある段階であり、視聴段階でユーザは通常オンライン学習アプリケーションの再生画面のみを直視する必要があり、そのため、ユーザのいくつかの顔情報(例えば顔の向き及び目の視点)をこの段階におけるユーザの学習集中度を特徴付ける学習特徴データとすることができる。オンライン回答段階は、様々な形式でユーザが提示されたいくつかの質問に対して回答することを要求する段階であり、そのためユーザが回答する時の時間情報(例えば各質問の回答遅延及び回答にかかる時間)又は正解率情報をこの段階におけるユーザの学習集中度を特徴付ける学習特徴データとすることができる。音声インタラクション段階は、通常に文字読みを追従し又は音声返信等のシーンに出現し、そのためユーザの実音声データと予め設定された標準音声データとの間のマッチング度合いを、この段階におけるユーザの学習集中度を特徴付ける学習特徴データとすることができる。動作模倣段階は、通常ユーザが指示に従っていくつかの特定の動作を行う必要があるシーン(例えばオンライン体育クラス、形体クラス、フィットネスクラス等)及び動作によって中間導出ステップの正確性を検証するシーン(例えばローレンツ力及びアンペア力の方向を導出する等)に現れ、そのためユーザの実肢体動作情報と標準動作との間のマッチング度合いを、この段階におけるユーザの学習集中度を特徴付ける学習特徴データとすることができる。
なお、ユーザのオンライン学習の異なるインタラクション学習段階における学習特徴データは上記実行主体がローカルの記憶装置から直接取得してもよく、ローカルでない記憶装置(例えば図1に示すオンライン学習端末101、102、103)から取得してもよい。ローカルの記憶装置は上記実行主体内に設けられた一つのデータ記憶モジュールであってもよく、例えばサーバハードディスクであり、この場合、学習特徴データはローカル読み出しによって迅速に取得することができる。ローカルでない記憶装置はさらにデータを記憶するために設けられた他の任意の電子機器であってもよく、例えば一部のユーザ端末等であり、この場合、上記実行主体は該電子機器に教師モデル取得コマンドを送信することによって必要な学習特徴データを取得することができる。
ステップ202:各インタラクション学習段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、対応する実学習集中度を得る。
ステップ201に基づき、本ステップは各インタラクション学習段階から取得された学習特徴データに対応する実学習集中度を確定することを目的とし、異なるインタラクション学習段階の間の差異により、本ステップは異なるインタラクション学習段階の実学習集中度を確定する場合、統一的な解析方式に基づくのではなく、ユーザが異なるインタラクション学習段階に特徴づけられた、学習集中度に関連する異なる特徴に基づき、予め各インタラクション学習段階にその特徴に合致する解析方式を策定し、対応する解析方式により、正確な実学習集中度を確定する。
視聴段階に取得されたユーザの実際の顔の向きを例とし、実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直であるか否かを判断することによってユーザのこの段階における学習集中度を簡単に確定することができ、簡単な二分法を例とし、実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直でなければ、ユーザがオンライン学習アプリケーションに集中していないという結論を簡単に得ることができる。実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直であれば、ユーザがオンライン学習アプリケーションに集中しているという結論を簡単に得ることができる。同様の解析方式はオンライン回答段階に適用しないことは明らかであり、回答は計算プロセスを含むことが多いため、計算プロセスはオンライン学習アプリケーションの所在するオンライン学習端末で直接完了することに便利ではなく、ユーザはより書きやすいメモ用紙でこのプロセスを完了する傾向がある。そのため、オンライン回答段階に対して、実回答遅延を取得するように調整することができ、且つ該実回答遅延が予め設定された回答遅延を超えるか否かを判断することによってユーザが現在オンライン学習アプリケーションに集中していないか否かを確定し、例えばユーザがテレビを視聴し、回答すべき問題が発生した後に比較的長い時間が経ってから回答を開始する場合、この回答遅延は比較的長い。
このように類推し、実際の応用シーンにおける異なる段階の具体的な状況に応じて、柔軟に異なるインタラクション学習段階に適切な学習集中度解析方式を策定することができ、それによりいっそう正確な実学習集中度を得ることができる。なお、実学習集中度は複数の方式で表現することができ、例えば簡単な二分法で、実学習集中度は簡単に集中と集中力欠如という二つの結論に表現することができる。複雑な判別シーンで、実学習集中度はさらにより精細な量子化方式で表示することができ、ユーザの非集中を特徴づける可能性がある判断結論はいずれも満点から異なる程度の減点を行うことができ、最終的な得点を実学習集中度として使用することができる。
ステップ203:実学習集中度に基づいて予め設定された学習集中度要求を満たさない対象期間を確定し、対象期間に対応する学習コンテンツを重点学習コンテンツとして確定する。
ステップ202に基づき、本ステップは上記実行主体がまず実学習集中度に基づいて予め設定された学習集中度要求を満たさない対象期間を確定し、対象期間に対応する学習コンテンツを重点学習コンテンツとして確定することを目的とする。
なお、ステップ202における実際の応用シーンで使用する実学習集中度の表示方式に基づき、予め設定された学習集中度要求もそれと対応すべき、例えば、簡単な二分法を用いて具体的な表現が集中と非集中であるという結論を得る場合、予め設定された学習集中度要求は集中であるか否かであり、すなわち集中と表現された結論は予め設定された学習集中度要求を満たすと判定され、そうでなければ予め設定された学習集中度要求を満たさないと判定される。具体的な数値化の表示方式を用いる場合、該予め設定された学習集中度要求は百分率の60点であってもよく、すなわちユーザの非集中を表現する要因について100点から減点した後、残りの点数が60点以上であれば学習集中度要求を満たすと判定され、60点未満であれば学習集中度要求を満たさないと判定される。
ユーザがこの部分の重点学習コンテンツの学習により、自分が欠けている知識を充実させるために、対象期間に対応する学習コンテンツは最も基本的なコンテンツを含むだけでなく、他のソースからの関連学習資料を含むこともできる。
さらに、上記実行主体によって重点学習コンテンツを確定した後、重点学習コンテンツを利用するために、さらにこれらの重点学習コンテンツを対応するユーザの使用するオンライン学習端末にプッシュすることができ、それにより、該オンライン学習端末は受信した重点学習コンテンツを適切な形式、適切な時間でユーザに提示し、最終的にユーザのオンライン学習効果を向上させるという目的を達成する。
従来技術が提供する逆方向導出解決手段とは異なり、本出願が提供する重点学習コンテンツを確定するための方法はユーザのオンライン学習過程の各インタラクション学習段階においてその学習集中度に関連する特徴データを収集し、正方向で、リアルタイム集中パラメータを正確に確定し、さらに該パラメータに基づいて非集中の期間に対応するコンテンツを重点学習コンテンツとして確定する。異なるインタラクション学習段階において異なる収集方式により取得された異なる学習特徴データを結合することで、各段階に確定された学習集中度がより正確になり、さらに確定された重点学習コンテンツが極めて指向性を有することを確保し、ユーザが重点学習コンテンツを学習するために消費される時間をできるだけ短縮させ、オンライン学習効率を向上させる。
上記実施例に基づき、本実施例はさらに各具体的なインタラクション学習段階について、それぞれ学習特徴データとしてどのような情報を収集するか及び実学習集中度を確定することについて、具体的な実施形態を提供する。
視聴学習段階に対し、ユーザのこの段階における実際の顔の向き及び実際の視点位置をこの段階の学習特徴データとし、且つ実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直であるか否かを判定することにより、第1判定結果を得、実際の視点位置がオンライン学習アプリケーションの再生画面領域内にあるか否かを判定することにより、第2判定結果を得、最終的に、第1判定結果及び第2判定結果に基づいて視聴段階の実学習集中度を総合的に確定することができる。なお、上記実現手段はいずれもユーザがオンライン学習アプリケーションに集中するか否かをある程度独立して表すことができる2つの特徴データに基づいて、それぞれ対応する判断により、最終的に2つの判定結果に基づいた総合的な結果を確定することができる。簡単に言えば、上記2つの判定の判定結果のうち少なくとも一つが「はい」である場合、ユーザが現在オンライン学習アプリケーションに集中していることを確定することができる。厳密には、2つの判定の判定結果がいずれも「はい」である場合のみ、ユーザが現在オンライン学習アプリケーションに集中していると確定することができる。
簡単な二分法に基づいて実学習集中度が集中/非集中であると解析する実施形態は図3に示すフローチャートを参照することができ、ステップ301~305を含む。
ステップ301:ユーザのオンライン学習の視聴段階における実際の顔の向きと実際の視点の位置を取得する。
そのうち、実際の顔の向きはオンライン学習端末に内蔵された顔認識カメラによって取得することができ、実際の視点位置は顔画像における目に関する部分をさらに解析することによって取得することができる。
ステップ302:実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直であるか否かを判断し、そうであれば、ステップ303を実行し、そうでなければステップ304を実行する。
ステップ303:実際の視点位置がオンライン学習アプリケーションの再生画面領域内にあるか否かを判断する。
本ステップは、ステップ302において実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直であると判定された上で確立され、実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直であることは、ある程度ユーザの現在の注意力がオンライン学習アプリケーションの再生画面に集中していると表すことができるが、判定結果の精度を向上させ、誤判定率を低下させるために、本ステップは依然として上記実行主体によって実際の視点位置がオンライン学習アプリケーションの再生画面領域内にあるか否かの判定を行い、ユーザが現在オンライン学習アプリケーションの再生画面に集中しているか否かを別の角度から確定することを目的とする。
ステップ304:ユーザは現在オンライン学習アプリケーションに集中していないと判定する。
本ステップは、ステップ302において実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直でないと判定された結果、及びステップ303において実際の視点位置がオンライン学習アプリケーションの再生画面領域内に入らないと判定された結果に基づいて確立され、実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直でないということはユーザの現在の注意力がオンライン学習アプリケーションの再生画面に集中していないことを示し、実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直であるということを満たすが、実際の視点位置がオンライン学習アプリケーションの再生画面領域内に入らない場合、ユーザは再生画面が同階層にある他の画面に集中している可能性が高いことを示し、すなわちユーザは現在「偽学習」または「非応答学習」の状態にあるので現在オンライン学習アプリケーションに集中していないと判定され、すなわちユーザの視聴段階において実学習集中度が非集中である期間がある。
ステップ305:ユーザは現在オンライン学習アプリケーションに集中していると判定する。
本ステップは、ステップ303において実際の視点位置がオンライン学習アプリケーションの再生画面領域内にあるという結果に基づいて確立され、すなわち、2つの判定がいずれも「はい」である場合にユーザが現在オンライン学習アプリケーションに集中していると考えられ、すなわちユーザの視聴段階において実学習集中度が非集中である期間が存在しない。
視聴段階に対して、図3に示すフロー300はユーザが現在オンライン学習アプリケーションに集中している結論を出すために二重判定を行わなければならない実施形態を提供し、結論の正確性を効果的に確保することができ、誤判定率が低減された。
オンライン回答段階に対し、ユーザのこの段階における実回答遅延及び実回答時間をこの段階の学習特徴データとし、且つ実回答遅延が予め設定された回答遅延より大きいか否か、実回答時間が予め設定された回答時間より大きいか否かという2つの判定により、対応する第3判定結果及び第4判定結果を得、且つ最終的に第3判定結果及び第4判定結果に基づいてオンライン回答段階の実学習集中度を確定する。
簡単な二分法に基づいて実学習集中度が集中/非集中であると解析する実施形態は図4に示すフローチャートを参照することができ、ステップ401~405を含む。
ステップ401:ユーザのオンライン学習のオンライン回答段階における実回答遅延と実回答時間を取得する。
回答遅延とは、オンライン回答アプリケーションが回答対象問題を提供してから、ユーザがオンライン学習アプリケーションとの最初のヒューマンコンピュータインタラクション操作を開始するまでのこの期間の長さであり、ユーザが回答信号に応答する反応速度であると簡単に理解することができ、ユーザが集中するほど、通常該実回答遅延は小さく、ユーザの集中力が低下するほど、該実回答遅延は大きい。回答時間とはユーザがオンライン学習アプリケーションとの最初のヒューマンコンピュータインタラクション操作を開始してから、オンライン学習アプリケーションが回答終了信号を受信するまでの期間の長さであり、そのうち、回答終了信号はユーザが回答が完了した後に「終了」ボタンを自らクリックすることによって生成することができ、オンライン学習アプリケーションの所定最大回答期間を過ぎた後に「終了」ボタンがクリックされた信号が受信されていない場合に自動的に生成することもでき、問題の難易度による回答時間への影響を排除し、問題の回答にかかる時間の長さはユーザが現在問題の回答に集中しているかどうかを表すことができる。
ステップ402:実回答遅延が予め設定された回答遅延よりも大きいか否かを判定し、そうでなければ、ステップ403を実行し、そうであれば、ステップ404を実行する。
ステップ403:実回答時間が予め設定された回答時間よりも大きいか否かを判定し、そうでなければ、ステップ405を実行し、そうであれば、ステップ404を実行する。
本ステップは、ステップ402により実回答遅延が予め設定された回答遅延よりも大きくないと判定された結果を得た上で確立され、すなわちユーザの実回答遅延が比較的小さいことを意味し、ユーザが現在オンライン学習アプリケーションに集中しているか否かをさらに確認するために、本ステップは依然として上記実行主体により実回答時間が予め設定された回答時間よりも大きいか否かの判定を行う。
ステップ404:ユーザは現在オンライン学習アプリケーションに集中していないと判定する。
本ステップは、ステップ402により実回答遅延が予め設定された回答遅延よりも大きいと判定された結果、及びステップ403により実回答時間が予め設定された回答時間よりも大きいと判定された結果を前提とし、実回答遅延が大きいということはユーザが現在オンライン学習アプリケーションの再生画面に集中していないことを示し、実回答遅延が小さいが実回答時間が大きい場合、ユーザは回答待ちの提示音に基づいて迅速に閲覧し、回答画面をクリックしたが、その後他の画面に迅速に切り替えた可能性が高いと示し、すなわち回答に集中しておらず、最終的に回答終了提示音に応じて画面に戻って終了をクリックしたか又はタイムアウトにより自動的に終了したので、ユーザが現在オンライン学習アプリケーションに集中していないと判定することができ、すなわちユーザのオンライン回答段階において実学習集中度が非集中である期間が存在する。
ステップ405:ユーザは現在オンライン学習アプリケーションに集中していると判定する。
本ステップは、ステップ403により実回答時間が予め設定された回答時間以下であると判定された結果を前提とし、ユーザの比較的短い回答遅延及び比較的短い回答時間に基づき、ユーザが現在回答段階に集中していると十分に確定することができ、すなわちユーザのオンライン回答段階において実学習集中度が非集中である期間が存在しない。
オンライン回答段階に対して、図4に示すフロー400はユーザが現在オンライン学習アプリケーションに集中している結論を出すために二重判定を行わなければならない実施形態を提供し、結論の正確性を効果的に確保することができ、誤判定率が低減された。さらに迅速に応答し、迅速に確かでない回答を与えることによる上記判定結果の正確さに対する影響を与えることを排除するために、さらに解答の正確性を結合して判定結果を訂正することができる。
音声インタラクション段階に対して、ユーザはこの段階における実際の口の動き及び実音声データを学習特徴データとし、且つ実際の口の動きが実音声データのコンテンツと一致するか否かの判断により、判断結果によりユーザが現在オンライン学習アプリケーションに集中しているか否かを確定する。
簡単な二分法に基づいて実学習集中度が集中/非集中であると解析する実施形態は図5に示すフローチャートを参照することができ、ステップ501~504を含む。
ステップ501:ユーザのオンライン学習の音声インタラクション段階における実音声データを取得する。
ステップ502:実音声データのコンテンツが予め設定された標準音声データのコンテンツと一致するか否かを判定する。
通常の場合、音声インタラクション学習方式を提供することができるオンライン学習アプリケーションはいずれも収集された実音声データを実際のコンテンツに解析する能力を有し、本ステップは実音声データのコンテンツが標準解答としての予め設定された標準音声データのコンテンツと一致するか否かを判定することにより、ユーザがオンライン学習アプリケーションの要求に応じて正確な音声コンテンツを発話したか否かを効果的に発見することができる。
ステップ503:ユーザは現在オンライン学習アプリケーションに集中していないと判定する。
本ステップは、ステップ502により実音声データのコンテンツが予め設定された標準音声データのコンテンツと一致しないと判定された結果を前提とし、ユーザがオンライン学習アプリケーションの要求に応じて音声コンテンツを発話しなかったことが原因でユーザがオンライン学習アプリケーションに集中していないと確定され、すなわちユーザの音声インタラクション段階において実学習集中度が非集中である期間が存在する。
ステップ504:ユーザは現在オンライン学習アプリケーションに集中していると判定する。
本ステップは、ステップ502により実音声データのコンテンツが予め設定された標準音声データのコンテンツと一致していると判定された結果を前提とし、ユーザがオンライン学習アプリケーションの要求に応じて音声コンテンツを発話したのでユーザが現在オンライン学習アプリケーションに集中していると確定され、すなわちユーザの音声インタラクション段階において実学習集中度が非集中である期間が存在しない。
音声インタラクション段階に対して、図5に示すフロー500は実音声コンテンツが標準音声コンテンツと一致するか否かを判定することにより、ユーザが現在オンライン学習アプリケーションに集中しているか否かの結論を出すことができる実施形態を提供し、ユーザの「非応答学習」、「偽学習」行為を効果的に発見することができる。
動作模倣段階に対して、ユーザのこの段階における実肢体動作を学習特徴データとし、且つ実肢体動作が予め設定された標準肢体動作と一致するか否かの判定により、判定結果に基づいてユーザが現在オンライン学習アプリケーションに集中しているか否かを確定する。
簡単な二分法に基づいて実学習集中度が集中/非集中であると解析する実施形態は図6に示すフローチャートを参照することができ、ステップ601~604を含む。
ステップ601:ユーザのオンライン学習の動作模倣段階における実肢体動作を取得する。
ステップ602:実肢体動作が予め設定された標準肢体動作と一致するか否かを判断し、一致する場合、ステップ604を実行し、一致しない場合ステップ603を実行する。
通常、動作模倣学習方式を提供することができるオンライン学習アプリケーションはいずれも標準肢体動作とする標準解答を予め記憶しておく必要があり、取得した実肢体動作を解析することにより、標準肢体動作と照合することで、ユーザがオンライン学習アプリケーションに要求される肢体動作を行っているか否かを判定することができる。異なるユーザによる肢体動作がある程度の差異を有することを考慮し、ここでの肢体動作の一致は標準肢体動作と完全に同じであることを意味するものではなく、比較的広い一致性割合を閾値として設定することができ、本解決手段は主にユーザがオンライン学習アプリケーションに要求された肢体動作を実際に試みるか否かを発見するために用いられ、オンライン学習アプリケーションに集中していないことで所定の肢体動作が全くない「非応答学習」、「偽学習」という現象を発見するために用いられる。
ステップ603:ユーザは現在オンライン学習アプリケーションに集中していないと判定する。
本ステップは、ステップ602により実肢体動作が予め設定された標準肢体動作と一致しないと判定された結果を得た上で確立され、したがってユーザが現在オンライン学習アプリケーションに集中していないと判定し、すなわちユーザの動作模倣段階において実学習集中度が非集中である期間が存在する。
ステップ604:ユーザは現在オンライン学習アプリケーションに集中していると判定する。
本ステップは、ステップ602により実肢体動作が予め設定された標準肢体動作と一致すると判定された結果を得た上で確立され、したがってユーザが現在オンライン学習アプリケーションに集中していると判定し、すなわちユーザの動作模倣段階において実学習集中度が非集中である期間が存在しない。
動作模倣段階に対して、図6に示すフロー600は実肢体動作が予め設定された標準肢体動作と一致することにより、ユーザが現在オンライン学習アプリケーションに集中しているという結論を出す実施形態を提供し、ユーザの「非応答学習」、「偽学習」行為を効果的に発見することができる。
理解を深めるために、本出願はさらに具体的な応用シーンを結合し、具体的な実現手段を提供する。ユーザAはそのタブレットコンピュータにインストールされたオンライン英語学習アプリケーションを用いてオンライン英語学習を行い、該オンライン英語学習アプリケーションはクラススケジュールに従って本日のオンライン英語学習を視聴段階、選択回答段階、音声フォロー段階の順に行うように設計されると仮定する。
該オンライン英語学習アプリケーションは視聴段階でフロントカメラによりユーザAの実際の顔の向きを取得し、選択回答段階でタッチパネルによりモニタを用いてクリック情報を取得し、且つさらに実回答遅延に処理し、音声フォロー段階でピックアップにより実音声データを収集する。
該オンライン英語学習アプリケーションは、タブレットコンピュータを各段階に対応する学習特徴データをサーバBに送信して解析するように制御する。
サーバBは視聴段階の実際の顔の向きに基づき、オンライン英語学習アプリケーションの再生画面に垂直であるか否かを判断し、且つ具体的にこの段階における10分から15分26秒の期間で、ユーザの実際の顔の向きがオンライン英語学習アプリケーションの再生画面に垂直ではないことを発見し、且つこの期間をユーザがオンライン英語学習アプリケーションに集中していない第1期間として確定する。
サーバBは選択回答段階の実回答遅延に基づき、予め設定された回答遅延よりも大きいか否かを判断し、且つ具体的にこの段階における5分10秒から8分20秒までの期間で、ユーザが行った3つの選択問題の回答遅延がいずれも10秒の予め設定された回答遅延を超えたことを発見し、且つこの期間をユーザがオンライン英語学習アプリケーションに集中していない第2期間として確定する。
サーバBは音声フォロー段階の実音声データに基づき、実音声データが予め記憶された標準解答としての標準音声データと一致するか否かを判断し、且つ具体的にこの段階の3分5秒から7分24秒までの期間で、ユーザの実音声データが予め記憶された標準解答としての標準音声データと大きく異なることを発見し、且つこの期間をユーザがオンライン英語学習アプリケーションに集中していない第3期間として確定する。
サーバBは、バックグラウンドで記録された期間と対応する学習コンテンツとの関連情報に基づき、第1期間、第2期間、第3期間に対応する学習コンテンツを重点学習コンテンツとしてマークし、そのインデックスをユーザAのタブレットコンピュータに送信し、且つ具体的にタブレットコンピュータのオンライン英語学習アプリケーションに受信され、オンライン英語学習アプリケーションは受信されたインデックスに基づいてローカル記憶空間に対応する完全な重点学習コンテンツを確定し、且つ次回のオンライン学習の間に、これらのコンテンツを復習コンテンツとして先にユーザAに学習させる。
更に図7を参照すると、上記の各図に示された方法の実施態様として、本出願は、重点学習コンテンツを確定するための装置の一実施例を提供し、当該装置の実施例は、図2に示された方法の実施例に対応しており、当該装置は、具体的に様々な電子機器に適用することができる。
図7に示すように、本実施例の重点学習コンテンツを確定するための装置700は、学習特徴データ取得ユニット701、実学習集中度確定ユニット702、重点学習コンテンツ確定ユニット703を含むことができる。学習特徴データ取得ユニット701は、ユーザのオンライン学習の異なるインタラクション学習段階における学習特徴データを取得するように構成され、インタラクション学習段階は、視聴段階、オンライン回答段階、音声インタラクション段階、動作模倣段階のうちの少なくとも一つを含む。実学習集中度確定ユニット702は、各インタラクション学習段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、対応する実学習集中度を得るように構成される。重点学習コンテンツ確定ユニット703は、実学習集中度に基づいて予め設定された学習集中度要求を満たさない対象期間を確定し、且つ対象期間に対応する学習コンテンツを重点学習コンテンツとして確定するように構成される。
本実施例において、重点学習コンテンツを確定するための装置700において、学習特徴データ取得ユニット701、実学習集中度確定ユニット702、重点学習コンテンツ確定ユニット703の具体的な処理及びそれによる技術的効果はそれぞれ図2に対応する実施例におけるステップ201~203の関連説明を参照することができ、ここでの説明を省略する。
本実施例のいくつかの選択的な実施形態において、視聴段階について、学習特徴データ取得ユニット701はさらに、ユーザのオンライン学習の視聴段階における実際の顔の向きと実際の視点の位置を取得するように構成される。これに対応して、視聴段階について、実学習集中度確定ユニット702はさらに、実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直であり、実際の視点の位置がオンライン学習アプリケーションの再生画面領域内にある場合、視聴段階における実学習集中度が集中であると判定し、実際の顔の向きが再生画面に対して垂直でない場合、または実際の視点の位置が再生画面領域内にない場合、視聴段階における実学習集中度が非集中であると判定するように構成される。
本実施例のいくつかの選択的な実施形態において、オンライン回答段階について、学習特徴データ取得ユニット701はさらに、ユーザのオンライン学習のオンライン回答段階における実回答遅延と実回答時間を取得するように構成される。これに対応して、オンライン回答段階について、実学習集中度確定ユニット702はさらに、実回答遅延が予め設定された回答遅延よりも大きい場合、または実回答時間が予め設定された回答時間よりも大きい場合、オンライン回答段階における実学習集中度が非集中であると判定し、実回答遅延が予め設定された回答遅延以下、実回答時間が予め設定された回答時間以下である場合、オンライン回答段階における実学習集中度は集中であると判定するように構成される。
本実施例のいくつかの選択的な実施形態において、音声インタラクション段階について、学習特徴データ取得ユニット701はさらに、ユーザのオンライン学習の音声インタラクション段階における実音声データを取得するように構成される。これに対応して、音声インタラクション段階について、実学習集中度確定ユニット702はさらに、実音声データのコンテンツが予め設定された標準音声データのコンテンツと一致している場合、音声インタラクション段階における実学習集中度が集中であると判定し、実音声データのコンテンツが予め設定された標準音声データのコンテンツと一致しない場合、音声インタラクション段階における実学習集中度が非集中であると判定するように構成される。
本実施例のいくつかの選択的な実施形態において、動作模倣段階について、学習特徴データ取得ユニット701はさらに、ユーザのオンライン学習の動作模倣段階における実肢体動作を取得するように構成される。これに対応して、動作模倣段階について、実学習集中度確定ユニット702はさらに、実肢体動作が予め設定された標準肢体動作と一致している場合、動作模倣段階における実学習集中度が集中であると判定し、実肢体動作が予め設定された標準肢体動作と一致しない場合、動作模倣段階における実学習集中度が非集中であると判定するように構成される。
本実施例のいくつかの選択的な実施形態では、重点学習コンテンツを確定するための装置700はさらに、対象期間に対応する学習コンテンツを重点学習コンテンツとして確定した後、重点学習コンテンツをユーザの属するオンライン学習クライアントにプッシュし、オンライン学習クライアントがユーザに重点学習コンテンツを再提示するように構成されるプッシュユニットをさらに含むことができる。
本実施例のいくつかの選択的な実施形態では、プッシュユニットは、対象期間に対応する学習コンテンツを重点学習コンテンツとして確定した後、重点学習コンテンツをユーザの属するオンライン学習クライアントにプッシュし、オンライン学習クライアントが重点学習コンテンツを授業後の復習コンテンツとしてユーザに提示するように構成されることができる。
本実施例は上記方法の実施例に対応する装置の実施例として存在し、従来技術が提供する逆方向導出の解決手段とは異なり、本出願の実施例に係る重点学習コンテンツを確定するための装置はユーザのオンライン学習過程の各インタラクション学習段階からその学習集中度に関連する特徴データを収集し、正方向で、リアルタイム集中パラメータを正確に確定し、さらに該パラメータに基づいて非集中期間に対応するコンテンツを重点学習コンテンツとして確定する。異なるインタラクション学習段階から異なる収集方式により取得された異なる学習特徴データを結合し、ユーザの学習集中度をより正確に確定でき、さらに確定された重点学習コンテンツが極めて指向性を有することを確保し、ユーザが重点学習コンテンツを学習するために消費される時間をできるだけ短縮させることができる。
本出願の実施例によれば、本出願はさらに電子機器及びコンピュータ可読記憶媒体を提供する。
図8に示すのは、本出願の実施例に重点学習コンテンツを確定するための方法を実現するための電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、作業台、パーソナルデジタルアシスタント、サーバ、ブレード型サーバ、大型コンピュータおよびその他の適切なコンピュータ等の様々な形態のデジタルコンピュータを表す。また、電子機器は、個人デジタル処理、携帯電話、スマートフォン、ウェアラブル機器およびその他の類似するコンピューティングデバイス等の様々な形態のモバイルデバイスを表すことができる。なお、ここで示したコンポーネント、それらの接続関係、およびそれらの機能はあくまでも一例であり、ここで説明および/または要求した本出願の実現を限定することを意図するものではない。
図8に示すように、該電子機器は、1つ又は複数のプロセッサ801、メモリ802、及び各コンポーネントを接続するためのインタフェース(高速インタフェース及び低速インタフェースを含む)を含む。各コンポーネントは、互いに異なるバスで接続されており、共通のマザーボード上に実装されていてもよいし、必要に応じて他の方式で実装されていてもよい。プロセッサは電子機器内で実行される命令を処理することができ、インターフェースに結合された表示装置等の外部入出力装置に、グラフィカルユーザインタフェース(GUI,Graphical User Interface)のグラフィック情報を表示するために命令をメモリ内またはメモリ上に格納することを含む。他の実施形態では、必要に応じて、複数のプロセッサおよび/または複数のバスおよび複数のメモリを、複数のメモリとともに使用することができる。また、複数の電子機器が接続されていてもよく、各機器は、例えば、サーバアレイ、ブレードサーバ群またはマルチプロセッサシステムなど、一部の必要な動作を提供する。図8では、1つのプロセッサ801を例としている。
メモリ802は、本出願が提供する非一時的コンピュータ可読記憶媒体である。ここで、前記メモリは、少なくとも1つのプロセッサが実行可能な命令を格納しており、それにより少なくとも1つのプロセッサに本出願が提供する重点学習コンテンツを確定するための方法を実行させる。本出願の非一時的コンピュータ可読記憶媒体はコンピュータ命令を格納し、該コンピュータ命令はコンピュータに本出願が提供する重点学習コンテンツを確定するための方法を実行させるために用いられる。
メモリ802は、非一時的コンピュータ可読記憶媒体として、非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能なプログラム及びモジュールを格納することに用いることができ、例えば本出願の実施例における重点学習コンテンツを確定するための方法に対応するプログラム命令/モジュール(例えば、図7に示す学習特徴データ取得ユニット701、実学習集中度確定ユニット702、重点学習コンテンツ確定ユニット703)が挙げられる。プロセッサ801は、メモリ802に格納された非一時的ソフトウェアプログラム、命令及びモジュールを実行することにより、サーバの各種機能アプリケーション及びデータ処理を実行し、すなわち上記方法の実施例における重点学習コンテンツを確定するための方法を実現する。
メモリ802はオペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶できるプログラム記憶領域、及び電子機器が重点学習コンテンツを確定する際に作成される各種類のデータ等を記憶できるデータ記憶領域を備える。また、メモリ802は高速ランダムアクセスメモリを含むことができ、また非一時的メモリ(例えば、少なくとも1つの磁気ディスク記憶装置、フラッシュメモリデバイス又はその他の非一時的ソリッドステート記憶装置)を含むことができる。いくつかの実施例において、メモリ802は任意選択でプロセッサ801に対して遠隔に設置されたメモリを含み、これらのリモートメモリはネットワークを介して重点学習コンテンツを確定するための方法を実現することに適する電子機器に接続することができる。上記ネットワークとしては、例えば、インターネット、企業イントラネット、ローカルエリアネットワーク、移動体通信網及びこれらの組み合わせなどが挙げられるが、それらに限定されない。
重点学習コンテンツを確定するための方法を実現することに適する電子機器はさらに、入力装置803及び出力装置804を含み得る。プロセッサ801、メモリ802、入力装置803及び出力装置804は、バス又はその他の方式で接続されていてもよく、図8ではバスで接続されている例を示している。
例えばタッチパネル、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングデバイス、1つまたは複数のマウスボタン、トラックボール、ジョイスティック等の入力装置803は、入力された数字や文字情報を受信でき、重点学習コンテンツを確定するための方法を実現することに適する電子機器のユーザ設定および機能制御に関するキー信号入力を生成することができる。出力装置804は表示装置、補助照明装置(例えば、LED)及び触覚フィードバック装置(例えば、振動モータ)等を含むことができる。該表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態において、表示装置はタッチパネルであってもよい。
ここで説明するシステム及び技術の様々な実施形態はデジタル電子回路システム、集積回路システム、専用集積回路(Application Specific Integrated Circuit,ASIC)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムに実装され、該1つ又は複数のコンピュータプログラムは少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行及び/又は解釈することができ、該プログラマブルプロセッサは専用又は汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置及び少なくとも1つの出力装置からデータ及び命令を受信することができ、且つデータ及び命令を該記憶システム、該少なくとも1つの入力装置及び該少なくとも1つの出力装置に伝送することを含み得る。
これらのコンピュータプログラムは、プログラム、ソフトウェア、ソフトウェアアプリケーション又はコードとも呼ばれ、プログラマブルプロセッサの機械命令を含み、且つ高度プロセス及び/又はオブジェクト指向のプログラミング言語、及び/又はアセンブリ言語/機械言語を利用して実現することができる。ここで、「機械可読媒体」及び「コンピュータ可読媒体」という用語は、機械指令及び/又はデータをプログラマブルプロセッサに供給するための任意のコンピュータプログラム製品、装置、及び/又はデバイス(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を意味し、機械可読信号である機械指令を受信する機械可読媒体を含む。「機械可読信号」という用語は、機械指令および/またはデータをプログラマブルプロセッサに供給するための任意の信号を意味する。
ユーザとのインタラクションを提供するために、ここで説明するシステムと技術は、ユーザに情報を表示するための表示装置(例えば、陰極線管(Cathode Ray Tube,CRT)またはLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウスまたはトラックボール)とを備えるコンピュータ上で実現することができ、ユーザが該キーボード及び該ポインティングデバイスを介してコンピュータに入力を提供できる。他の種類の装置は、さらにユーザとのインタラクションを提供することに用いることができる。例えば、ユーザに提供されるフィードバックは、例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバックであるいかなる形態のセンシングフィードバックであってもよく、且つ音入力、音声入力又は、触覚入力を含むいかなる形態でユーザからの入力を受信してもよい。
ここで説明したシステム及び技術は、バックグラウンドコンポーネントを含むコンピューティングシステム(例えば、データサーバ)に実施されてもよく、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)に実施されてもよく、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ)に実施されてもよく、ユーザは該グラフィカルユーザインタフェース又はウェブブラウザを介してここで説明したシステム及び技術の実施形態とインタラクションしてもよく、又はこのようなバックグラウンドコンポーネント、ミドルウェアコンポーネント又はフロントエンドコンポーネントのいずれかの組み合わせを含むコンピューティングシステムに実施されてもよい。また、システムの各構成要素間は、通信ネットワーク等の任意の形態または媒体を介してデジタルデータ通信により接続されていてもよい。通信ネットワークとしては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットなどを含む。
コンピュータシステムは、クライアントとサーバとを含んでもよい。クライアントとサーバは、通常、互いに離れており、通信ネットワークを介してインタラクションを行う。クライアントとサーバとの関係は、互いにクライアント-サーバの関係を有するコンピュータプログラムをそれぞれのコンピュータ上で動作することによって生成される。
従来技術が提供する逆方向導出の解決手段とは異なり、本出願の実施例に係る技術手段は、ユーザのオンライン学習過程の各インタラクション学習段階からその学習集中度に関連する特徴データを収集し、正方向で、リアルタイム集中パラメータを正確に確定し、さらに該パラメータに基づいて非集中期間に対応するコンテンツを重点学習コンテンツとして確定することができる。異なるインタラクション学習段階から異なる収集方式により取得された異なる学習特徴データを結合し、ユーザの学習集中度をより正確に確定でき、さらに確定された重点学習コンテンツが極めて指向性を有することを確保し、ユーザが重点学習コンテンツを学習するために消費される時間をできるだけ短縮させることができる。
なお、上述した様々な形態のフローを用いて、ステップを改めて並び替え、追加または削除を行うことができる。例えば、本出願に記載された各ステップは、本出願に開示された技術案の所望の結果が達成できる限り、並行して実行されてもよいし、順番に実行されてもよいし、異なる順序で実行されてもよい。本明細書はここで制限しない。
上記具体的な実施形態は、本出願の保護範囲を限定するものではない。設計要件および他の要因に従って、様々な修正、組み合わせ、再組合、および置換を行うことができることを当業者は理解すべきである。本出願の精神および原理内で行われたあらゆる補正、同等置換および改善などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (15)

  1. サーバまたは電子機器によって実行される、重点学習コンテンツを確定するための方法であって、
    ユーザのオンライン学習の異なるインタラクション学習段階における学習特徴データを取得することであって、前記インタラクション学習段階は動作模倣段階少なくと含む、ことと、
    各インタラクション学習段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、対応する実学習集中度を得ることと、
    前記実学習集中度に基づいて予め設定された学習集中度要求を満たさない対象期間を確定し、前記対象期間に対応する学習コンテンツを重点学習コンテンツとして確定することと、を含
    前記動作模倣段階について、ユーザのオンライン学習の動作模倣段階における学習特徴データを取得することは、ユーザのオンライン学習の動作模倣段階における実肢体動作を取得することを含み、
    これに対応して、前記動作模倣段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、前記動作模倣段階の実学習集中度を得ることは、
    前記実肢体動作が予め設定された標準肢体動作と一致している場合、前記動作模倣段階における実学習集中度が集中であると判定することと、
    前記実肢体動作が前記予め設定された標準肢体動作と一致しない場合、前記動作模倣段階における実学習集中度が非集中であると判定することと、を含む、重点学習コンテンツを確定するための方法。
  2. 前記インタラクション学習段階が視聴段階をさらに含む場合、ユーザのオンライン学習の視聴段階における学習特徴データを取得することは、
    ユーザのオンライン学習の視聴段階における実際の顔の向きと実際の視点の位置を取得することを含み、
    これに対応して、視聴段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、視聴段階の実学習集中度を得ることは、
    前記実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直であり、前記実際の視点の位置が前記オンライン学習アプリケーションの再生画面領域内にある場合、前記視聴段階における実学習集中度が集中であると判定することと、
    前記実際の顔の向きが前記再生画面に対して垂直でない場合、または前記実際の視点の位置が前記再生画面領域内にない場合、前記視聴段階における実学習集中度が非集中であると判定することと、を含む、請求項1に記載の方法。
  3. 前記インタラクション学習段階がオンライン回答段階をさらに含む場合、ユーザのオンライン学習のオンライン回答段階における学習特徴データを取得することは、
    ユーザのオンライン学習のオンライン回答段階における実回答遅延と実回答時間を取得することを含み
    これに対応して、オンライン回答段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、オンライン回答段階の実学習集中度を得ることは、
    前記実回答遅延が予め設定された回答遅延よりも大きい場合、または前記実回答時間が予め設定された回答時間よりも大きい場合、前記オンライン回答段階における実学習集中度が非集中であると判定することと、
    前記実回答遅延が前記予め設定された回答遅延以下、前記実回答時間が前記予め設定された回答時間以下である場合、前記オンライン回答段階における実学習集中度は集中であると判定することと、を含む請求項1に記載の方法。
  4. 前記インタラクション学習段階が音声インタラクション段階をさらに含む場合、ユーザのオンライン学習の音声インタラクション段階における学習特徴データを取得することは、
    ユーザのオンライン学習の音声インタラクション段階における実音声データを取得することを含み
    これに対応して、音声インタラクション段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、音声インタラクション段階の実学習集中度を得ることは、
    前記実音声データのコンテンツが予め設定された標準音声データのコンテンツと一致している場合、前記音声インタラクション段階における実学習集中度が集中であると判定することと、
    前記実音声データのコンテンツが前記予め設定された標準音声データのコンテンツと一致しない場合、前記音声インタラクション段階における実学習集中度が非集中であると判定することと、を含む請求項1に記載の方法。
  5. 前記対象期間に対応する学習コンテンツを重点学習コンテンツとして確定した後、
    前記重点学習コンテンツを前記ユーザが属するオンライン学習クライアントにプッシュし、前記オンライン学習クライアントが前記ユーザに前記重点学習コンテンツを再提示するようにすることをさらに含む請求項1~のいずれか1項に記載の方法。
  6. 前記オンライン学習クライアントが前記ユーザに前記重点学習コンテンツを再提示することは、
    前記オンライン学習クライアントが前記重点学習コンテンツを授業終了後の復習コンテンツとして前記ユーザに提示することを含む請求項に記載の方法。
  7. 重点学習コンテンツを確定するための装置であって、
    ユーザのオンライン学習の異なるインタラクション学習段階における学習特徴データを取得するように構成される学習特徴データ取得ユニットであって、前記インタラクション学習段階は動作模倣段階少なくと含む、学習特徴データ取得ユニットと、
    各インタラクション学習段階に対応する予め設定された解析方式により対応する学習特徴データを解析し、対応する実学習集中度を得るように構成される実学習集中度確定ユニットと、
    前記実学習集中度に基づいて予め設定された学習集中度要求を満たさない対象期間を確定し、且つ前記対象期間に対応する学習コンテンツを重点学習コンテンツとして確定するように構成される重点学習コンテンツ確定ユニットと、を含
    前記学習特徴データ取得ユニットはさらに、
    ユーザのオンライン学習の動作模倣段階における実肢体動作を取得するように構成され、
    前記実学習集中度確定ユニットはさらに、
    前記実肢体動作が予め設定された標準肢体動作と一致している場合、前記動作模倣段階における実学習集中度が集中であると判定し、
    前記実肢体動作が前記予め設定された標準肢体動作と一致しない場合、前記動作模倣段階における実学習集中度が非集中であると判定するように構成される、重点学習コンテンツを確定するための装置。
  8. 前記インタラクション学習段階が視聴段階をさらに含む場合、前記学習特徴データ取得ユニットはさらに、
    ユーザのオンライン学習の視聴段階における実際の顔の向きと実際の視点の位置を取得するように構成され、
    これに対応して、前記視聴段階について、前記実学習集中度確定ユニットはさらに、
    前記実際の顔の向きがオンライン学習アプリケーションの再生画面に垂直であり、前記実際の視点の位置が前記オンライン学習アプリケーションの再生画面領域内にある場合、前記視聴段階における実学習集中度が集中であると判定し、
    前記実際の顔の向きが前記再生画面に対して垂直でない場合、または前記実際の視点の位置が前記再生画面領域内にない場合、前記視聴段階における実学習集中度が非集中であると判定するように構成される、請求項に記載の装置。
  9. 前記インタラクション学習段階がオンライン回答段階をさらに含む場合、前記学習特徴データ取得ユニットはさらに、
    ユーザのオンライン学習のオンライン回答段階における実回答遅延と実回答時間を取得するように構成され、
    これに対応して、前記オンライン回答段階について、前記実学習集中度確定ユニットはさらに、
    前記実回答遅延が予め設定された回答遅延よりも大きい場合、または前記実回答時間が予め設定された回答時間よりも大きい場合、前記オンライン回答段階における実学習集中度が非集中と判定し、
    前記実回答遅延が前記予め設定された回答遅延以下、前記実回答時間が前記予め設定された回答時間以下である場合、前記オンライン回答段階における実学習集中度は集中であると判定するように構成される、請求項に記載の装置。
  10. 前記インタラクション学習段階が音声インタラクション段階をさらに含む場合、前記学習特徴データ取得ユニットはさらに、
    ユーザのオンライン学習の音声インタラクション段階における実音声データを取得するように構成され、
    これに対応して、前記音声インタラクション段階について、前記実学習集中度確定ユニットはさらに、
    前記実音声データのコンテンツが予め設定された標準音声データのコンテンツと一致している場合、前記音声インタラクション段階における実学習集中度が集中であると判定し、
    前記実音声データのコンテンツが前記予め設定された標準音声データのコンテンツと一致しない場合、前記音声インタラクション段階における実学習集中度が非集中であると判定するように構成される、請求項に記載の装置。
  11. 前記対象期間に対応する学習コンテンツを重点学習コンテンツとして確定した後、前記重点学習コンテンツを前記ユーザの属するオンライン学習クライアントにプッシュし、前記オンライン学習クライアントが前記ユーザに前記重点学習コンテンツを再提示するように構成されるプッシュユニットをさらに含む請求項~1のいずれか1項に記載の装置。
  12. 前記プッシュユニットは、さらに
    前記対象期間に対応する学習コンテンツを重点学習コンテンツとして確定した後、前記重点学習コンテンツを前記ユーザの属するオンライン学習クライアントにプッシュし、前記オンライン学習クライアントが前記重点学習コンテンツを授業終了後の復習コンテンツとして前記ユーザに提示するように構成される請求項1に記載の装置。
  13. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備える電子機器であって、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が格納されており、前記命令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに請求項1~のいずれか1項に記載の重点学習コンテンツを確定するための方法を実行させる、電子機器。
  14. コンピュータ命令が格納されている非一時的コンピュータ可読記憶媒体であって、
    前記コンピュータ命令はンピュータに請求項1~のいずれか1項に記載の重点学習コンテンツを確定するための方法を実行させるために用いられる非一時的コンピュータ可読記憶媒体。
  15. プロセッサによって実行されると、請求項1~のいずれか1項に記載の重点学習コンテンツを確定するための方法を実現する、コンピュータプログラム。
JP2021038793A 2020-06-16 2021-03-10 重点学習コンテンツを確定するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム Active JP7214770B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010549031.8A CN111709362B (zh) 2020-06-16 2020-06-16 用于确定重点学习内容的方法、装置、设备及存储介质
CN202010549031.8 2020-06-16

Publications (2)

Publication Number Publication Date
JP2022000685A JP2022000685A (ja) 2022-01-04
JP7214770B2 true JP7214770B2 (ja) 2023-01-30

Family

ID=72540666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021038793A Active JP7214770B2 (ja) 2020-06-16 2021-03-10 重点学習コンテンツを確定するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム

Country Status (5)

Country Link
US (1) US20210225185A1 (ja)
EP (1) EP3828868A3 (ja)
JP (1) JP7214770B2 (ja)
KR (1) KR102649722B1 (ja)
CN (1) CN111709362B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230081013A (ko) * 2021-11-30 2023-06-07 주식회사 마블러스 딥러닝 기반 사람 인식 방법 및 비대면 교육 관리 방법
WO2023234119A1 (ja) * 2022-05-31 2023-12-07 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム
KR102636079B1 (ko) * 2023-06-08 2024-02-14 주식회사 화신이앤엘 (E&L) 학습자에게 맞춤형 수학 문제를 제공하기 위한 장치 및 방법
CN117235306A (zh) * 2023-11-13 2023-12-15 北京师范大学 基于人工智能的人机交互式教育视频精准推送方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345908A (ja) 2002-05-27 2003-12-05 Sharp Corp 情報提供システムおよび情報提供サーバ
CN101499216A (zh) 2008-01-28 2009-08-05 财团法人工业技术研究院 肢体交互式学习方法与装置
JP2013097311A (ja) 2011-11-04 2013-05-20 Zenrin Datacom Co Ltd 学習支援装置、学習支援方法および学習支援プログラム
JP2013242434A (ja) 2012-05-21 2013-12-05 Sony Corp 情報処理装置、情報処理方法および情報処理システム
JP2018205638A (ja) 2017-06-08 2018-12-27 大和ハウス工業株式会社 集中度評価機構
CN110334626A (zh) 2019-06-26 2019-10-15 北京科技大学 一种基于情感状态的在线学习系统

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5554033A (en) * 1994-07-01 1996-09-10 Massachusetts Institute Of Technology System for human trajectory learning in virtual environments
JP2002133390A (ja) * 2000-10-18 2002-05-10 Matsushita Electric Ind Co Ltd 学習装置および記録媒体
JP5030142B2 (ja) * 2006-09-26 2012-09-19 トヨタ自動車株式会社 集中度評価装置及びこれを用いた車両用表示装置
KR100878038B1 (ko) * 2008-06-11 2009-01-13 주식회사 씽코웰 아동학습용 매트
US8489599B2 (en) * 2008-12-02 2013-07-16 Palo Alto Research Center Incorporated Context and activity-driven content delivery and interaction
US20100255455A1 (en) * 2009-04-03 2010-10-07 Velozo Steven C Adaptive Assessment
KR20120065111A (ko) * 2010-12-10 2012-06-20 박찬시 몰입도 평가 기반 맞춤형 온라인 학습 방법 및 시스템
KR20140042055A (ko) * 2012-09-27 2014-04-07 주식회사 지식과미래 학습 집중력 영상을 제공하는 이러닝 시스템
KR20160096431A (ko) * 2015-02-05 2016-08-16 한전산업개발 주식회사 교육 콘텐츠 제공 시스템
JP6614547B2 (ja) * 2015-08-17 2019-12-04 パナソニックIpマネジメント株式会社 視聴状態検出装置、視聴状態検出システムおよび視聴状態検出方法
CN106128188A (zh) * 2016-08-31 2016-11-16 华南理工大学 桌面教育专注度分析系统及其分析方法
KR20180062000A (ko) * 2016-11-30 2018-06-08 한국전자통신연구원 학습 진단 장치, 방법 및 이를 이용한 맞춤형 학습 시스템
US20190051201A1 (en) * 2017-08-10 2019-02-14 Ewha University - Industry Collaboration Foundation Learning situation determining method and apparatus for performing the method
CN109815776B (zh) * 2017-11-22 2023-02-10 腾讯科技(深圳)有限公司 动作提示方法和装置、存储介质及电子装置
MX2020007686A (es) * 2018-01-19 2020-11-12 Univ Texas Sistemas y métodos para evaluar la emoción de compromiso y atención individual, grupal y de una multitud.
TWI684159B (zh) * 2018-03-20 2020-02-01 麥奇數位股份有限公司 用於互動式線上教學的即時監控方法
CN109117731B (zh) * 2018-07-13 2022-02-18 华中师范大学 一种课堂教学认知负荷测量系统
CN109086693B (zh) * 2018-07-16 2021-07-30 安徽国通亿创科技股份有限公司 一种在线教学学习注意力的检测技术
TWI674553B (zh) * 2018-07-27 2019-10-11 財團法人資訊工業策進會 教學品質監測系統及方法
CN113792625A (zh) * 2018-08-11 2021-12-14 昆山美卓智能科技有限公司 一种具有状态监控功能的智能桌、状态监控系统及服务器
US20210287561A1 (en) * 2018-09-14 2021-09-16 Nec Corporation Lecture support system, judgement apparatus, lecture support method, and program
CN110069707A (zh) * 2019-03-28 2019-07-30 广州创梦空间人工智能科技有限公司 一种人工智能自适应互动教学系统
CN111144321B (zh) * 2019-12-28 2023-06-09 北京如布科技有限公司 专注度检测方法、装置、设备和存储介质
CN111240486B (zh) * 2020-02-17 2021-07-02 河北冀联人力资源服务集团有限公司 一种基于边缘计算的数据处理方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345908A (ja) 2002-05-27 2003-12-05 Sharp Corp 情報提供システムおよび情報提供サーバ
CN101499216A (zh) 2008-01-28 2009-08-05 财团法人工业技术研究院 肢体交互式学习方法与装置
JP2013097311A (ja) 2011-11-04 2013-05-20 Zenrin Datacom Co Ltd 学習支援装置、学習支援方法および学習支援プログラム
JP2013242434A (ja) 2012-05-21 2013-12-05 Sony Corp 情報処理装置、情報処理方法および情報処理システム
JP2018205638A (ja) 2017-06-08 2018-12-27 大和ハウス工業株式会社 集中度評価機構
CN110334626A (zh) 2019-06-26 2019-10-15 北京科技大学 一种基于情感状态的在线学习系统

Also Published As

Publication number Publication date
US20210225185A1 (en) 2021-07-22
EP3828868A2 (en) 2021-06-02
EP3828868A3 (en) 2021-11-03
KR20210058757A (ko) 2021-05-24
JP2022000685A (ja) 2022-01-04
KR102649722B1 (ko) 2024-03-20
CN111709362A (zh) 2020-09-25
CN111709362B (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
JP7214770B2 (ja) 重点学習コンテンツを確定するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
WO2019033663A1 (zh) 视频教学互动方法、装置、设备及存储介质
US20090282339A1 (en) Method and system for controlling a space based on media content
CN111524123B (zh) 用于处理图像的方法和装置
CN111556279A (zh) 即时会话的监控方法和通信方法
CN111615002A (zh) 视频后台播放控制方法、装置、系统及电子设备
JP2022534345A (ja) データ処理方法及び装置、電子機器並びに記憶媒体
US20230237312A1 (en) Reinforcement learning techniques for selecting a software policy network and autonomously controlling a corresponding software client based on selected policy network
CN113840177B (zh) 直播互动方法、装置、存储介质与电子设备
CN113591678B (zh) 课堂注意力确定方法、装置、设备、存储介质及程序产品
CN113591515B (zh) 专注度处理方法、装置及存储介质
US20240281060A1 (en) Method, apparatus, electronic device and storage medium for line-of-sight angle adjustment
US11323402B2 (en) Spatial topic representation of messages
CN111708674A (zh) 用于确定重点学习内容的方法、装置、设备及存储介质
CN110704737B (zh) 线上教学资源的匹配方法、装置、设备和介质
CN111210673B (zh) 课程数据处理方法、装置、终端设备及计算机存储介质
CN112309390B (zh) 信息交互方法和装置
CN111638918A (zh) 用于呈现信息的方法和装置
CN114630085A (zh) 图像投影方法、装置、存储介质及电子设备
CN115052194B (zh) 学习报告生成方法、装置、电子设备及存储介质
CN112307249B (zh) 音频信息播放方法和装置
CN117216729A (zh) 多模态数据处理方法、装置、设备和存储介质
US20150064663A1 (en) Language learning program and computer readable recording medium having the same
CN115250281A (zh) 一种注意力监测方法
KR20220130336A (ko) 인터넷 강의 수강생 응답 데이터의 분석을 위한 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210930

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230118

R150 Certificate of patent or registration of utility model

Ref document number: 7214770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150