JP2022014890A - 集中度判別プログラム - Google Patents
集中度判別プログラム Download PDFInfo
- Publication number
- JP2022014890A JP2022014890A JP2021103983A JP2021103983A JP2022014890A JP 2022014890 A JP2022014890 A JP 2022014890A JP 2021103983 A JP2021103983 A JP 2021103983A JP 2021103983 A JP2021103983 A JP 2021103983A JP 2022014890 A JP2022014890 A JP 2022014890A
- Authority
- JP
- Japan
- Prior art keywords
- degree
- concentration
- user
- information
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 claims abstract description 8
- 238000013473 artificial intelligence Methods 0.000 claims description 37
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 230000008921 facial expression Effects 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 abstract description 16
- 238000012550 audit Methods 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 235000019645 odor Nutrition 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Educational Administration (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Developmental Disabilities (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Child & Adolescent Psychology (AREA)
- Public Health (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Electrically Operated Instructional Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】教育コンテンツを聴講するユーザの集中度を判別する。
【解決手段】表示された教育コンテンツを視認するユーザの画像を撮像することにより画像情報を取得する情報取得ステップと、過去に表示された教育コンテンツを視認するユーザの画像を撮像した参照用画像情報と、ユーザの集中度との3段階以上の連関度を参照し、上記情報取得ステップにおいて取得した画像情報に応じた参照用画像情報に基づき、ユーザの集中度を判別する判別ステップとを有し、上記情報取得ステップは、ユーザを撮像した画像データをディープラーニング技術を利用して解析した解析画像の特徴量に基づいて類型化した画像情報を取得し、上記判別ステップは、ユーザを撮像した画像データをディープラーニング技術を利用して解析した解析画像の特徴量に基づいて類型化した参照用画像情報と、ユーザの集中度との3段階以上の連関度を参照することをコンピュータに実行させる。
【選択図】図3
【解決手段】表示された教育コンテンツを視認するユーザの画像を撮像することにより画像情報を取得する情報取得ステップと、過去に表示された教育コンテンツを視認するユーザの画像を撮像した参照用画像情報と、ユーザの集中度との3段階以上の連関度を参照し、上記情報取得ステップにおいて取得した画像情報に応じた参照用画像情報に基づき、ユーザの集中度を判別する判別ステップとを有し、上記情報取得ステップは、ユーザを撮像した画像データをディープラーニング技術を利用して解析した解析画像の特徴量に基づいて類型化した画像情報を取得し、上記判別ステップは、ユーザを撮像した画像データをディープラーニング技術を利用して解析した解析画像の特徴量に基づいて類型化した参照用画像情報と、ユーザの集中度との3段階以上の連関度を参照することをコンピュータに実行させる。
【選択図】図3
Description
本発明は、教育コンテンツを聴講するユーザの集中度を判別する集中度判別プログラムに関する。
近年アダプティブラーニングと呼ばれる教育システムが普及している。アダプティブラーニングは、理解度や興味等に合わせて学習者としてのユーザ一人ひとりにカスタマイズした学習コンテンツを提供するものである。このアダプティブラーニングでは、学習者の得意分野や不得意分野、或いは間違いやすい傾向を分析することができる。また、分析した結果、最適な教育コンテンツやテストの問題を選択してユーザに表示する。これにより、ユーザは自分のレベルに合った教育コンテンツを聴講し、テスト問題を解くことができ、学習効率を高めることができ、しかも自分のレベルに合ったテスト問題を解くことで、自信が生まれ、学習意欲の向上にもつながる。
しかしながら、このアダプティブラーニングの教育コンテンツを受けているユーザが果たしてやる気があるのか、集中しているのか分からない場合がある。仮にユーザが集中力を欠いている場合、学習の能率が大幅に低下してしまう。またユーザが集中していないのは、ユーザに提供している教育コンテンツがそもそもユーザのレベルに合っていなかったり、ユーザにとって興味の湧くものでは無い場合も考えられ、かかる場合にはユーザに提供する教育コンテンツを変更して表示する必要がある。
しかしながら、教育コンテンツを聴講するユーザの集中力を測る方法が従来より提案されていないのが現状であった。
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、教育コンテンツを聴講するユーザの集中度を判別する集中度判別プログラムを提供することにある。
本発明は、教育コンテンツを聴講するユーザの集中度を判別する集中度判別プログラムにおいて、表示された教育コンテンツを視認するユーザの画像を撮像することにより画像情報を取得する情報取得ステップと、過去に表示された教育コンテンツを視認するユーザの画像を撮像した参照用画像情報と、ユーザの集中度との3段階以上の連関度を参照し、上記情報取得ステップにおいて取得した画像情報に応じた参照用画像情報に基づき、ユーザの集中度を判別する判別ステップとを有し、上記情報取得ステップは、ユーザを撮像した画像データをディープラーニング技術を利用して解析した解析画像の特徴量に基づいて類型化した画像情報を取得し、上記判別ステップは、ユーザを撮像した画像データをディープラーニング技術を利用して解析した解析画像の特徴量に基づいて類型化した参照用画像情報と、ユーザの集中度との3段階以上の連関度を参照することをコンピュータに実行させることを特徴とする。
特段のスキルが無くても、教育コンテンツを聴講するユーザの集中度を高精度に判別することが可能となる。
以下、本発明を適用した集中度判別プログラムについて、図面を参照しながら詳細に説明をする。
図1は、集中度判別プログラムが実装される集中度判別システム1の全体構成を示すブロック図である。集中度判別システム1は、情報取得部9と、情報取得部9に接続された判別装置2と、判別装置2に接続されたデータベース3とを備えている。
情報取得部9は、本システムを活用する者が各種コマンドや情報を入力するためのデバイスであり、具体的にはキーボードやボタン、タッチパネル、マウス、スイッチ等により構成される。情報取得部9は、テキスト情報を入力するためのデバイスに限定されるものではなく、マイクロフォン等のような音声を検知してこれをテキスト情報に変換可能なデバイスで構成されていてもよい。また情報取得部9は、カメラ等の画像を撮影可能な撮像装置として構成されていてもよい。情報取得部9は、紙媒体の書類から文字列を認識できる機能を備えたスキャナで構成されていてもよい。また情報取得部9は、後述する判別装置2と一体化されていてもよい。情報取得部9は、検知した情報を判別装置2へと出力する。また情報取得部9は地図情報をスキャニングすることで位置情報を特定する手段により構成されていてもよい。また情報取得部9は、温度センサ、湿度センサ、風向センサ、を測るための照度センサで構成されていてもよい。また情報取得部9は、天候についてのータを気象庁や民間の天気予報会社から取得する通信インターフェースで構成されていてもよい。また情報取得部9は身体に装着して身体のデータを検出するための身体センサで構成されていてもよく、この身体センサは、例えば体温、心拍数、血圧、歩数、歩く速度、加速度を検出するためのセンサで構成されていてもよい。また身体センサは人間のみならず動物の生体データを取得するものであってもよい。また情報取得部9は図面等の情報をスキャニングしたり、或いはデータベースから読み出すことで取得するデバイスとして構成されていてもよい。情報取得部9は、これら以外に臭気や香りを検知する臭気センサにより構成されていてもよい。
データベース3は、集中度判別を行う上で必要な様々な情報が蓄積される。集中度判別を行う上で必要な情報としては、過去に表示された教育コンテンツを視認するユーザの画像を撮像した参照用画像情報、過去に表示された教育コンテンツ内において出題される問題に対するユーザの解答内容に関する参照用解答内容情報、過去に表示された教育コンテンツ内において出題される問題に対するユーザの解答時間に関する参照用解答時間情報、過去に表示された教育コンテンツを聴講するユーザの属性に関する参照用属性情報、ユーザによる過去に表示された教育コンテンツを聴講する頻度に関する参照用頻度情報と、これらに対して実際に判断がなされたユーザの集中度とのデータセットが記憶されている。
つまり、データベース3には、このような参照用画像情報に加え、参照用解答内容情報、参照用解答時間情報、参照用属性情報、参照用頻度情報の何れか1以上と、ユーザの集中度が互いに紐づけられて記憶されている。
判別装置2は、例えば、パーソナルコンピュータ(PC)等を始めとした電子機器で構成されているが、PC以外に、携帯電話、スマートフォン、タブレット型端末、ウェアラブル端末等、他のあらゆる電子機器で具現化されるものであってもよい。
ユーザは、この判別装置2による探索解を得ることができる。また、この判別装置2がPCやタブレット端末等で構成される場合には、この判別装置2の表示画面上にユーザが聴講する教育コンテンツが表示される。この教育コンテンツは、ユーザに対して提供する教育用のプログラムや講義、スライドや図表で構成される。この教育コンテンツは動画像で構成されていてもよいし、静止画像の連続で構成されていてもよい。この教育用コンテンツは、講師や教師の授業や講演を録画し、動画像コンテンツとして配信するものであってもよい。また、この教育コンテンツは幼児や小学生向けに、人気キャラクターが先生の代わりに授業をしてくれるようなもので構成されていてもよい。この教育コンテンツはデータベース3に格納されている中から読み出されるものであってもよいし、遠方に設置された図示しないデータベースからインターネット回線を通じて配信されるものであってもよい。
図2は、判別装置2の具体的な構成例を示している。この判別装置2は、判別装置2全体を制御するための制御部24と、操作ボタンやキーボード等を介して各種制御用の指令を入力するための操作部25と、有線通信又は無線通信を行うための通信部26と、各種判断を行う判別部27と、ハードディスク等に代表され、実行すべき検索を行うためのプログラムを格納するための記憶部28とが内部バス21にそれぞれ接続されている。さらに、この内部バス21には、実際に情報を表示するモニタとしての表示部23が接続されている。
制御部24は、内部バス21を介して制御信号を送信することにより、判別装置2内に実装された各構成要素を制御するためのいわゆる中央制御ユニットである。また、この制御部24は、操作部25を介した操作に応じて各種制御用の指令を内部バス21を介して伝達する。
操作部25は、キーボードやタッチパネルにより具現化され、プログラムを実行するための実行命令がユーザから入力される。この操作部25は、上記実行命令がユーザから入力された場合には、これを制御部24に通知する。この通知を受けた制御部24は、判別部27を始め、各構成要素と協調させて所望の処理動作を実行していくこととなる。この操作部25は、前述した情報取得部9として具現化されるものであってもよい。
判別部27は、探索解を判別する。この判別部27は、判別動作を実行するに当たり、必要な情報として記憶部28に記憶されている各種情報や、データベース3に記憶されている各種情報を読み出す。この判別部27は、人工知能により制御されるものであってもよい。この人工知能はいかなる周知の人工知能技術に基づくものであってもよい。
表示部23は、制御部24による制御に基づいて表示画像を作り出すグラフィックコントローラにより構成されている。この表示部23は、例えば、液晶ディスプレイ(LCD)等によって実現される。
記憶部28は、ハードディスクで構成される場合において、制御部24による制御に基づき、各アドレスに対して所定の情報が書き込まれるとともに、必要に応じてこれが読み出される。また、この記憶部28には、本発明を実行するためのプログラムが格納されている。このプログラムは制御部24により読み出されて実行されることになる。
上述した構成からなる集中度判別システム1における動作について説明をする。
集中度判別システム1では、例えば図3に示すように、参照用画像情報と、集中度との3段階以上の連関度が予め設定されていることが前提となる。参照用画像情報は、教育コンテンツを受講するユーザの顔の表情や動作、しぐさをカメラ等で撮像した画像である。実際に教育コンテンツは、判別装置2の表示画面を通じて表示されるものであることから、この判別装置2の表示画面を視認するユーザの顔や身体を撮像するものであればよい。
ここでいう集中度は、判別装置2から流される教育コンテンツを受講するユーザがどの程度集中して受講しているかを示す度合いである。この集中度については、専門家や業者が、様々なユーザの顔の画像の表情を分析して、予め集中度を類型化し、或いはランク付けするようにしてもよい。集中度の類型化方法としては、例えば、物凄く集中している、目が活き活きしている、眠そう、退屈そう、見下している、分からなさそう、いろいろな方向に目が行っている(集中していない)等、実際の聴講態度も含めた類型で構成するようにしてもよい。また集中度は、物凄く集中している場合から全く集中していない場合まで複数段階(例えば、100段階、10段階等)でランク付けしてもよい。
集中度は、評価者による以前の経験に基づいてそのレベルを判断してもよいし、実際に集中しているか否かユーザにアンケートを調査したり聞き取りを行い、その集中度を判断するようにしてもよい。
これらの参照用画像情報と集中度は、以前において学習させた特徴量に基づいて判別するようにしてもよい。このとき人工知能を活用し、ユーザの画像データと、集中度を学習させておき、実際に参照用画像情報を取得する際には、これらの学習させた画像データと照らし合わせて、その集中度を判別するようにしてもよい。
図3の例では、入力データとして例えば参照用画像情報P01~P03であるものとする。このような入力データとしての参照用画像情報P01~P03は、出力としての集中度に連結している。この出力においては、出力解としての、集中度が表示されている。
参照用画像情報は、この出力解としての集中度A~Dに対して3段階以上の連関度を通じて互いに連関しあっている。参照用画像情報がこの連関度を介して左側に配列し、各集中度が連関度を介して右側に配列している。連関度は、左側に配列された参照用画像情報に対して、何れの集中度と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用画像情報が、いかなる集中度に紐付けられる可能性が高いかを示す指標であり、参照用画像情報から最も確からしい集中度を選択する上での的確性を示すものである。図3の例では、連関度としてw13~w19が示されている。このw13~w19は以下の表1に示すように10段階で示されており、10点に近いほど、中間ノードとしての各組み合わせが出力としての集中度と互いに関連度合いが高いことを示しており、逆に1点に近いほど中間ノードとしての各組み合わせが出力としての値段と互いに関連度合いが低いことを示している。
判別装置2は、このような図3に示す3段階以上の連関度w13~w19を予め取得しておく。つまり判別装置2は、実際の探索解の判別を行う上で、参照用画像情報と、その場合の集中度の何れが採用、評価されたか、過去のデータセットを蓄積しておき、これらを分析、解析することで図3に示す連関度を作り上げておく。
例えば、過去において撮像した参照用画像情報に対する集中度としては集中度Aが多く評価されたものとする。このようなデータセットを集めて分析することにより、参照用画像情報との連関度が強くなる。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用画像情報P01である場合に、過去の集中度の評価を行った結果の各種データから分析する。参照用画像情報P01である場合に、集中度Aの事例が多い場合には、この集中度の評価につながる連関度をより高く設定し、集中度Bの事例が多い場合には、この集中度の評価につながる連関度をより高く設定する。例えば参照用画像情報P01の例では、集中度Aと、集中度Cにリンクしているが、以前の事例から集中度Aにつながるw13の連関度を7点に、集中度Cにつながるw14の連関度を2点に設定している。
また、この図3に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。
かかる場合には、図4に示すように、入力データとして参照用画像情報が入力され、出力データとして集中度が出力され、入力ノードと出力ノードの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。入力ノード又は隠れ層ノードの何れか一方又は両方において上述した連関度が設定され、これが各ノードの重み付けとなり、これに基づいて出力の選択が行われる。そして、この連関度がある閾値を超えた場合に、その出力を選択するようにしてもよい。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを、以前の評価対象のユーザの画像と実際に判別・評価した集中度とのデータセットを通じて作った後に、実際にこれから新たに集中度の判別を行う上で、上述した学習済みデータを利用して集中度を探索することとなる。かかる場合には、実際に判別対象のユーザの画像情報を新たに取得する。このとき、教育コンテンツをユーザに受講させ、その受講中のユーザの顔の表情や身体を撮像することが前提となる。この撮像は、上述した情報取得部9を介して行う。
このようにして新たに取得した画像情報に基づいて、集中度を判別する。かかる場合には、予め取得した図3(表1)に示す連関度を参照する。例えば、新たに取得した画像情報がP02と同一かこれに類似するものである場合には、連関度を介して集中度Bがw15、集中度Cが連関度w16で関連付けられている。かかる場合には、連関度の高い集中度Bを優先して選択する。即ち、連関度が高いものほど選択の優先度を高くする。
このようにして、新たに取得する画像情報から、最も好適な集中度を探索し、ユーザのみならず、教育コンテンツを提供する提供業者に通知、表示することができる。この探索結果を見ることにより、提供業者は、個々の教育コンテンツに対するユーザの集中度合を知ることができ、現状の教育コンテンツが果たしてユーザに対して最適なものであるのか、検証することが可能となる。
なお、上述した画像は、通常のカメラで撮像した画像以外に、スペクトル画像や超音波画像の何れか1以上を取得してもよい。かかる場合には、参照用画像情報として、取得する画像情報に応じたスペクトル画像、可視画像、超音波画像の何れか1以上を撮像しておくことが必要になる。
図5の例では、参照用画像情報と、参照用解答内容情報との組み合わせが形成されていることが前提となる。ここで参照用解答内容情報は、教育コンテンツの中でユーザに対して質問が行われたり、問題やテストが出題されたりする場合におけるそのユーザの解答内容に関するあらゆる情報が含まれる。ここでいうユーザの解答内容は、問題や質問に対して予め正解が設定されている場合には、その正解に対する正答率で構成されていてもよいし、いかなる問題が正解であり、いかなる問題が不正解であるかを示すものであってもよい。また、参照用解答内容情報は、例えばユーザが小学生や幼児である場合、ユーザの身振りや手ぶりによる解答、ユーザの行動そのものによる解答である場合もある。かかる場合には、ユーザの身振りや手ぶり、行動の画像を撮像した画像データで参照用解答内容情報を構成してもよい。このような画像データを必要に応じてディープラーニング技術を利用した、解析画像の特徴量に基づいて自動判別し、解答内容を類型化してもよい。例えば、幼児が手を挙げたら、言われたことを理解したという類型に当てはめ、幼児が下を向いたら、質問に対して答えられないという類型に当てはめるようにしてもよい。
また参照用解答内容情報は、例えば数学における式の導出からなる解答の場合、タブレット端末にユーザが手書きモードで記載した数字や文字を読み取り、これをデータ化して得たものであってもよい。また参照用解答内容情報が、番号の入力や○又は×のキー入力、或いはマウスによるクリック等で解答する性質のものは、これらの入力データから取得するものであってもよい。更に参照用解答内容情報は、ユーザによる音声により解答されるものである場合、当該音声を既存の音声認識技術を通じてテキストデータに落とし込んで得るようにしてもよい。
参照用画像情報に加えて、参照用解答内容情報を組み合わせて判断することで、集中度をより高精度に判別することができる。このため、参照用画像情報に加えて、参照用解答内容情報を組み合わせて上述した連関度を形成しておく。
図5の例では、入力データとして例えば参照用画像情報P01~P03、参照用解答内容情報P14~17であるものとする。このような入力データとしての、参照用画像情報に対して、参照用解答内容情報が組み合わさったものが、図5に示す中間ノードである。各中間ノードは、更に出力に連結している。この出力においては、出力解としての、集中度が表示されている。
参照用画像情報と参照用解答内容情報との各組み合わせ(中間ノード)は、この出力解としての、集中度に対して3段階以上の連関度を通じて互いに連関しあっている。参照用画像情報と参照用解答内容情報がこの連関度を介して左側に配列し、集中度が連関度を介して右側に配列している。連関度は、左側に配列された参照用画像情報と参照用解答内容情報に対して、集中度と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用画像情報と参照用解答内容情報が、いかなる集中度に紐付けられる可能性が高いかを示す指標であり、参照用画像情報と参照用解答内容情報から最も確からしい集中度を選択する上での的確性を示すものである。このため、これらの参照用画像情報と参照用解答内容情報の組み合わせで、最適な集中度を探索していくこととなる。
図5の例では、連関度としてw13~w22が示されている。このw13~w22は表1に示すように10段階で示されており、10点に近いほど、中間ノードとしての各組み合わせが出力と互いに関連度合いが高いことを示しており、逆に1点に近いほど中間ノードとしての各組み合わせが出力と互いに関連度合いが低いことを示している。
判別装置2は、このような図5に示す3段階以上の連関度w13~w22を予め取得しておく。つまり判別装置2は、実際の探索解の判別を行う上で、参照用画像情報と参照用解答内容情報、並びにその場合の集中度が何れが見合うものであったか、過去のデータを蓄積しておき、これらを分析、解析することで図5に示す連関度を作り上げておく。このとき、教育コンテンツの中身や質問、テストや問題に対するユーザの表情等を写した参照用画像情報や、これらに対する解答の態様を示す参照用解答内容情報との間で連関度を形成するようにしてもよい。これにより、教育コンテンツの中身や質問、テストや問題に関連付けて、新たに取得した画像情報や解答内容情報から集中度を判別することが可能となる。
例えば、過去にあった実際の事例における参照用画像情報が、画像データαであるものとする。また参照用解答内容情報が、ユーザが解答した式の導出βであるものとする。かかる場合に、実際にその集中度がいくらであったかを示す集中度をデータセットとして学習させ、上述した連関度という形で定義しておく。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用画像情報P01で、参照用解答内容情報P16である場合に、その集中度を過去のデータから分析する。集中度がAの事例が多い場合には、この集中度Aにつながる連関度をより高く設定し、集中度Bの事例が多く、集中度Aの事例が少ない場合には、集中度Bにつながる連関度を高くし、集中度Aにつながる連関度を低く設定する。例えば中間ノード61aの例では、集中度Aと品質Bの出力にリンクしているが、以前の事例から集中度Aにつながるw13の連関度を7点に、集中度Bにつながるw14の連関度を2点に設定している。
また、この図5に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。その他、人工知能に関する構成は、図4における説明と同様である。
図5に示す連関度の例で、ノード61bは、参照用画像情報P01に対して、参照用解答内容情報P14の組み合わせのノードであり、集中度Cの連関度がw15、集中度Eの連関度がw16となっている。ノード61cは、参照用画像情報P02に対して、参照用解答内容情報P15、P17の組み合わせのノードであり、集中度Bの連関度がw17、集中度Dの連関度がw18となっている。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから集中度を判別する際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、実際に集中度を判別しようとするユーザの画像情報、解答内容情報を取得する。このユーザの画像情報や解答内容情報は、教育コンテンツの中身や質問、テストや問題の出すタイミングに連動させて取得するようにしてもよい。これにより、教育コンテンツの中身や質問、テストや問題に対するユーザの表情や解答内容を互いに関連付けて集中度を導出することができる。
このようにして新たに取得した画像情報、解答内容情報に基づいて、最適な集中度を探索する。かかる場合には、予め取得した図5(表1)に示す連関度を参照する。例えば、新たに取得した画像情報がP02と同一かこれに類似するものである場合であって、解答内容情報がP17である場合には、連関度を介してノード61dが関連付けられており、このノード61dは、集中度Cがw19、集中度Dが連関度w20で関連付けられている。かかる場合には、連関度のより高い集中度Cを最適解として選択する。
また、入力から伸びている連関度w1~w12の例を以下の表2に示す。
この入力から伸びている連関度w1~w12に基づいて中間ノード61が選択されていてもよい。つまり連関度w1~w12が大きいほど、中間ノード61の選択における重みづけを重くしてもよい。しかし、この連関度w1~w12は何れも同じ値としてもよく、中間ノード61の選択における重みづけは何れも全て同一とされていてもよい。
図6は、上述した参照用画像情報に加え、上述した参照用解答内容情報の代わりに参照用解答時間情報との組み合わせと、当該組み合わせに対する集中度との3段階以上の連関度が設定されている例を示している。
参照用解答内容情報の代わりに説明変数として加えられるこの参照用解答時間情報は、上述した解答が出るまでの時間を示すものである。解答時間とは、質問や出題がされて、解答を完了するまでの時間とする。この解答時間が長いほどユーザは集中力を欠いているものとみなすことができる。
このため、このような参照用解答時間情報に含まれる解答時間も集中力に影響を及ぼすことから、参照用画像情報と組み合わせ、連関度を通じて集中度を判別することで、判別精度を向上させることができる。
図6の例では、入力データとして例えば参照用画像情報P01~P03、参照用解答時間情報P18~21であるものとする。このような入力データとしての、参照用画像情報に対して、参照用解答時間情報が組み合わさったものが、図6に示す中間ノードである。各中間ノードは、更に出力に連結している。この出力においては、出力解としての、集中度が表示されている。
参照用画像情報と参照用解答時間情報との各組み合わせ(中間ノード)は、この出力解としての、集中度に対して3段階以上の連関度を通じて互いに連関しあっている。参照用画像情報と参照用解答時間情報がこの連関度を介して左側に配列し、集中度が連関度を介して右側に配列している。連関度は、左側に配列された参照用画像情報と参照用解答時間情報に対して、集中度と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用画像情報と参照用解答時間情報が、いかなる集中度に紐付けられる可能性が高いかを示す指標であり、参照用画像情報と参照用解答時間情報から最も確からしい集中度を選択する上での的確性を示すものである。
判別装置2は、このような図6に示す3段階以上の連関度w13~w22を予め取得しておく。つまり判別装置2は、実際の探索解の判別を行う上で、参照用画像情報と、参照用画像情報を取得する際に得た参照用解答時間情報、並びにその場合の集中度が何れが好適であったか、過去のデータを蓄積しておき、これらを分析、解析することで図6に示す連関度を作り上げておく。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用画像情報P01で、参照用解答時間情報P20である場合に、その集中度を過去のデータから分析する。集中度Aの事例が多い場合には、この集中度がAにつながる連関度をより高く設定し、集中度がBの事例が多く、集中度がAの事例が少ない場合には、集中度がBにつながる連関度を高くし、集中度がAにつながる連関度を低く設定する。例えば中間ノード61aの例では、集中度Aと集中度Bの出力にリンクしているが、以前の事例から集中度Aにつながるw13の連関度を7点に、集中度Bにつながるw14の連関度を2点に設定している。
また、この図6に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。その他、人工知能に関する構成は、図4における説明と同様である。
図6に示す連関度の例で、ノード61bは、参照用画像情報P01に対して参照用解答時間情報P18の組み合わせのノードであり、集中度Cの連関度がw15、集中度Eの連関度がw16となっている。ノード61cは、参照用画像情報P02に対して、参照用解答時間情報P19、P21の組み合わせのノードであり、集中度Bの連関度がw17、集中度Dの連関度がw18となっている。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから集中度の探索を行う際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、実際にその集中度の判別対象の画像情報と、解答時間情報とを取得する。ここで解答時間情報は、集中度を実際に見積もる際に、新たに取得するが、その取得方法は、上述した参照用解答時間情報と同様である。
このようにして新たに取得した画像情報と、解答時間情報に基づいて、最適な集中度を探索する。かかる場合には、予め取得した図6(表1)に示す連関度を参照する。例えば、新たに取得した画像情報がP02と同一かこれに類似するものである場合であって、解答時間情報がP21と同一か又は類似する場合には、連関度を介してノード61dが関連付けられており、このノード61dは、集中度Cがw19、集中度Dが連関度w20で関連付けられている。かかる場合には、連関度のより高い集中度Cを最適解として選択する。
図7は、上述した参照用画像情報に加え、上述した参照用解答内容情報の代わりに参照用属性情報との組み合わせと、当該組み合わせに対する集中度との3段階以上の連関度が設定されている例を示している。
参照用解答内容情報の代わりに説明変数として加えられるこの参照用属性情報は、ユーザの年齢や学年、レベル、その教育コンテンツの受講期間、性別、現在通学している学校、居住地、社会人であれば勤務地、勤務先、勤続年数等、ユーザの属性に関するあらゆる情報を示す。このような参照用属性情報も集中度に影響を及ぼすことから、参照用画像情報と組み合わせ、連関度を通じて集中度を判別することで、判別精度を向上させることができる。
図7の例では、入力データとして例えば参照用画像情報P01~P03、参照用属性情報P18~21であるものとする。このような入力データとしての、参照用画像情報に対して、参照用属性情報が組み合わさったものが、図7に示す中間ノードである。各中間ノードは、更に出力に連結している。この出力においては、出力解としての、集中度が表示されている。
参照用画像情報と参照用属性情報との各組み合わせ(中間ノード)は、この出力解としての、集中度に対して3段階以上の連関度を通じて互いに連関しあっている。参照用画像情報と参照用属性情報がこの連関度を介して左側に配列し、集中度が連関度を介して右側に配列している。連関度は、左側に配列された参照用画像情報と参照用属性情報に対して、集中度と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用画像情報と参照用属性情報が、いかなる集中度に紐付けられる可能性が高いかを示す指標であり、参照用画像情報と参照用属性情報から最も確からしい集中度を選択する上での的確性を示すものである。
判別装置2は、このような図7に示す3段階以上の連関度w13~w22を予め取得しておく。つまり判別装置2は、実際の探索解の判別を行う上で、参照用画像情報と、参照用画像情報を取得する際に得た参照用属性情報、並びにその場合の集中度が何れが好適であったか、過去のデータを蓄積しておき、これらを分析、解析することで図7に示す連関度を作り上げておく。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用画像情報P01で、参照用属性情報P20である場合に、その集中度を過去のデータから分析する。集中度Aの事例が多い場合には、この集中度がAにつながる連関度をより高く設定し、集中度がBの事例が多く、集中度がAの事例が少ない場合には、集中度がBにつながる連関度を高くし、集中度がAにつながる連関度を低く設定する。例えば中間ノード61aの例では、集中度Aと集中度Bの出力にリンクしているが、以前の事例から集中度Aにつながるw13の連関度を7点に、集中度Bにつながるw14の連関度を2点に設定している。
また、この図7に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。その他、人工知能に関する構成は、図4における説明と同様である。
図7に示す連関度の例で、ノード61bは、参照用画像情報P01に対して参照用属性情報P18の組み合わせのノードであり、集中度Cの連関度がw15、集中度Eの連関度がw16となっている。ノード61cは、参照用画像情報P02に対して、参照用属性情報P19、P21の組み合わせのノードであり、集中度Bの連関度がw17、集中度Dの連関度がw18となっている。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから集中度の探索を行う際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、実際にその集中度の判別対象の画像情報と、属性情報とを取得する。ここで属性情報は、集中度を実際に見積もる際に、新たに取得するが、その取得方法は、上述した参照用属性情報と同様である。属性情報、参照用属性情報の取得方法は、PCやスマートフォン等へのデバイスへのキーボード入力で取得してもよい。
このようにして新たに取得した画像情報と、属性情報に基づいて、最適な集中度を探索する。かかる場合には、予め取得した図7(表1)に示す連関度を参照する。例えば、新たに取得した画像情報がP02と同一かこれに類似するものである場合であって、属性情報がP21と同一か又は類似する場合には、連関度を介してノード61dが関連付けられており、このノード61dは、集中度Cがw19、集中度Dが連関度w20で関連付けられている。かかる場合には、連関度のより高い集中度Cを最適解として選択する。
図8は、上述した参照用画像情報に加え、上述した参照用解答内容情報の代わりに参照用頻度情報との組み合わせと、当該組み合わせに対する集中度との3段階以上の連関度が設定されている例を示している。
参照用解答内容情報の代わりに説明変数として加えられるこの参照用頻度情報は、ユーザが教育コンテンツを聴講する頻度に関するあらゆる情報である。参照用頻度情報は、例えば月又は週何回、何時間教育コンテンツを聴講するのか、を示すものであってもよいし、最近サボり気味でどの程度のインターバルがあるかを示すものであってもよい。
図8の例では、入力データとして例えば参照用画像情報P01~P03、参照用頻度情報P18~21であるものとする。このような入力データとしての、参照用画像情報に対して、参照用頻度情報が組み合わさったものが、図8に示す中間ノードである。各中間ノードは、更に出力に連結している。この出力においては、出力解としての、集中度が表示されている。
参照用画像情報と参照用頻度情報との各組み合わせ(中間ノード)は、この出力解としての、集中度に対して3段階以上の連関度を通じて互いに連関しあっている。参照用画像情報と参照用頻度情報がこの連関度を介して左側に配列し、集中度が連関度を介して右側に配列している。連関度は、左側に配列された参照用画像情報と参照用頻度情報に対して、集中度と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用画像情報と参照用頻度情報が、いかなる集中度に紐付けられる可能性が高いかを示す指標であり、参照用画像情報と参照用頻度情報から最も確からしい集中度を選択する上での的確性を示すものである。
判別装置2は、このような図8に示す3段階以上の連関度w13~w22を予め取得しておく。つまり判別装置2は、実際の探索解の判別を行う上で、参照用画像情報と、参照用頻度情報、並びにその場合の集中度が何れが好適であったか、過去のデータを蓄積しておき、これらを分析、解析することで図8に示す連関度を作り上げておく。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用画像情報P01で、参照用頻度情報P20である場合に、その集中度を過去のデータから分析する。集中度Aの事例が多い場合には、この集中度がAにつながる連関度をより高く設定し、集中度がBの事例が多く、集中度がAの事例が少ない場合には、集中度がBにつながる連関度を高くし、集中度がAにつながる連関度を低く設定する。例えば中間ノード61aの例では、集中度Aと集中度Bの出力にリンクしているが、以前の事例から集中度Aにつながるw13の連関度を7点に、集中度Bにつながるw14の連関度を2点に設定している。
また、この図8に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。その他、人工知能に関する構成は、図4における説明と同様である。
図8に示す連関度の例で、ノード61bは、参照用画像情報P01に対して参照用頻度情報P18の組み合わせのノードであり、集中度Cの連関度がw15、集中度Eの連関度がw16となっている。ノード61cは、参照用画像情報P02に対して、参照用頻度情報P19、P21の組み合わせのノードであり、集中度Bの連関度がw17、集中度Dの連関度がw18となっている。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから集中度の探索を行う際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、実際にその集中度の判別対象の画像情報と、頻度情報とを取得する。ここで頻度情報は、集中度を実際に見積もる際に、新たに取得するが、その取得方法は、上述した参照用頻度情報と同様である。
このようにして新たに取得した画像情報と、頻度情報に基づいて、最適な集中度を探索する。かかる場合には、予め取得した図8(表1)に示す連関度を参照する。例えば、新たに取得した画像情報がP02と同一かこれに類似するものである場合であって、頻度情報がP21と同一か又は類似する場合には、連関度を介してノード61dが関連付けられており、このノード61dは、集中度Cがw19、集中度Dが連関度w20で関連付けられている。かかる場合には、連関度のより高い集中度Cを最適解として選択する。
上述した連関度においては、10段階評価で連関度を表現しているが、これに限定されるものではなく、3段階以上の連関度で表現されていればよく、逆に3段階以上であれば100段階でも1000段階でも構わない。一方、この連関度は、2段階、つまり互いに連関しているか否か、1又は0の何れかで表現されるものは含まれない。
上述した構成からなる本発明によれば、特段のスキルや経験が無くても、誰でも手軽に集中度の判別・探索を行うことができる。また本発明によれば、この探索解の判断を、人間が行うよりも高精度に行うことが可能となる。更に、上述した連関度を人工知能(ニューラルネットワーク等)で構成することにより、これを学習させることでその判別精度を更に向上させることが可能となる。
なお、上述した入力データ、及び出力データは、学習させる過程で完全に同一のものが存在しない場合も多々あることから、これらの入力データと出力データを類型別に分類した情報であってもよい。つまり、入力データを構成する情報P01、P02、・・・・P15、16、・・・は、その情報の内容に応じて予めシステム側又はユーザ側において分類した基準で分類し、その分類した入力データと出力データとの間でデータセットを作り、学習させるようにしてもよい。
なお、上述した連関度では、参照用画像情報に加え、参照用解答内容情報、参照用解答時間情報、参照用属性情報、参照用頻度情報、の何れかとの組み合わせで構成されている場合を例にとり説明をしたが、これに限定されるものではない。つまり連関度は、参照用画像情報に加え、参照用解答内容情報、参照用解答時間情報、参照用属性情報、参照用頻度情報の何れか2以上との組み合わせで構成されていてもよい。また連関度は、参照用画像情報に加え、参照用解答内容情報、参照用解答時間情報、参照用属性情報、参照用頻度情報の何れか1以上に加え、他のファクターがこの組み合わせに加わって連関度が形成されていてもよい。
いずれの場合も、その連関度の参照情報に合わせたデータの入力がなされ、その連関度を利用して集中度を求める。
なお、本発明においては、求めたユーザの集中度に基づき、次に表示する教育コンテンツを選択して表示するようにしてもよい。このとき、ユーザの集中度を判別した教育コンテンツの後に、複数の選択肢があり、その選択肢毎にそれぞれ教育コンテンツが用意されている。そして、集中度を判別した結果に応じて選択肢の何れかを選択し、選択した選択肢に用意されている教育コンテンツを次に流すようにしてもよい。例えば集中力が低かった場合に選ばれる選択肢の教育コンテンツは、より集中力を高めるための気分転換的なものを含めたもので構成することも可能となる。
なお、このような教育用コンテンツを選択する場合、以下に説明するように、教育コンテンツに対する達成度を踏まえて行うようにしてもよい。
なお、本発明においては、求めたユーザの集中度に基づき、次に表示する教育コンテンツを選択して表示するようにしてもよい。このとき、ユーザの集中度を判別した教育コンテンツの後に、複数の選択肢があり、その選択肢毎にそれぞれ教育コンテンツが用意されている。そして、集中度を判別した結果に応じて選択肢の何れかを選択し、選択した選択肢に用意されている教育コンテンツを次に流すようにしてもよい。例えば集中力が低かった場合に選ばれる選択肢の教育コンテンツは、より集中力を高めるための気分転換的なものを含めたもので構成することも可能となる。
なお、このような教育用コンテンツを選択する場合、以下に説明するように、教育コンテンツに対する達成度を踏まえて行うようにしてもよい。
図9は、上述した参照用解答内容情報と、参照用解答時間情報との組み合わせと、当該組み合わせに対する達成度との3段階以上の連関度が設定されている例を示している。達成度とは、教育コンテンツにおける内容をどの程度マスターしたかを示す指標である。
図9の例では、入力データとして例えば参照用解答内容情報P01~P03、参照用解答時間情報P18~21であるものとする。このような入力データとしての、参照用解答内容情報に対して、参照用解答時間情報が組み合わさったものが、図9に示す中間ノードである。各中間ノードは、更に出力に連結している。この出力においては、出力解としての、達成度が表示されている。
参照用解答内容情報と参照用解答時間情報との各組み合わせ(中間ノード)は、この出力解としての、達成度に対して3段階以上の連関度を通じて互いに連関しあっている。参照用解答内容情報と参照用解答時間情報がこの連関度を介して左側に配列し、達成度が連関度を介して右側に配列している。連関度は、左側に配列された参照用解答内容情報と参照用解答時間情報に対して、達成度と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用解答内容情報と参照用解答時間情報が、いかなる達成度に紐付けられる可能性が高いかを示す指標であり、参照用解答内容情報と参照用解答時間情報から最も確からしい達成度を選択する上での的確性を示すものである。
判別装置2は、このような図9に示す3段階以上の連関度w13~w22を予め取得しておく。つまり判別装置2は、実際の探索解の判別を行う上で、参照用解答内容情報と、参照用解答内容情報を取得する際に得た参照用解答時間情報、並びにその場合の達成度が何れが好適であったか、過去のデータを蓄積しておき、これらを分析、解析することで図6に示す連関度を作り上げておく。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用解答内容情報P01で、参照用解答時間情報P20である場合に、その達成度を過去のデータから分析する。達成度Aの事例が多い場合には、この達成度がAにつながる連関度をより高く設定し、達成度がBの事例が多く、達成度がAの事例が少ない場合には、達成度がBにつながる連関度を高くし、達成度がAにつながる連関度を低く設定する。例えば中間ノード61aの例では、達成度Aと達成度Bの出力にリンクしているが、以前の事例から達成度Aにつながるw13の連関度を7点に、達成度Bにつながるw14の連関度を2点に設定している。
また、この図9に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。その他、人工知能に関する構成は、図4における説明と同様である。
図9に示す連関度の例で、ノード61bは、参照用解答内容情報P01に対して参照用解答時間情報P18の組み合わせのノードであり、達成度Cの連関度がw15、達成度Eの連関度がw16となっている。ノード61cは、参照用解答内容情報P02に対して、参照用解答時間情報P19、P21の組み合わせのノードであり、達成度Bの連関度がw17、達成度Dの連関度がw18となっている。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから達成度の探索を行う際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、実際にその達成度の判別対象の解答内容情報と、解答時間情報とを取得する。ここで解答時間情報は、達成度を実際に見積もる際に、新たに取得するが、その取得方法は、上述した参照用解答時間情報と同様である。
このようにして新たに取得した解答内容情報と、解答時間情報に基づいて、最適な達成度を探索する。かかる場合には、予め取得した図9(表1)に示す連関度を参照する。例えば、新たに取得した解答内容情報がP02と同一かこれに類似するものである場合であって、解答時間情報がP21と同一か又は類似する場合には、連関度を介してノード61dが関連付けられており、このノード61dは、達成度Cがw19、達成度Dが連関度w20で関連付けられている。かかる場合には、連関度のより高い達成度Cを最適解として選択する。
この達成度は、解答内容情報と、属性情報とから導くようにしてもよい。かかる場合には、参照用解答内容情報と、参照用属性情報とを有する組み合わせと、ユーザの達成度との3段階以上の連関度を予め取得しておく。そして、その連関度を参照し、新たに取得した解答内容情報に応じた参照用解答内容情報及び属性情報に応じた参照用属性情報に基づき、ユーザの達成度を判別する。
このようにして達成度を取得した後、上述した集中度と併せて、教育コンテンツを選択する。かかる場合には、達成度と集中度がそれぞれどのような度合である場合に、いかなる教育コンテンツを選択するかを予め設定しておき、実際に求めた達成度と集中度に応じてこれを選択するようにしてもよい。
また本発明は、図10に示すように参照用情報Uと参照用情報Vという2種類以上の情報の組み合わせの連関度に基づいて集中度や達成度を判別するものである。この参照用情報Yが参照用画像情報であり、参照用情報Vが参照用解答内容情報、参照用解答時間情報、参照用属性情報、参照用頻度情報の何れかであるものとする。
このとき、図10に示すように、参照用情報Uについて得られた出力をそのまま入力データとして、参照用情報Vとの組み合わせの中間ノード61を介して出力(集中度)と関連付けられていてもよい。例えば、参照用情報U(参照用画像情報)について、図3に示すように出力解を出した後、これをそのまま入力として、他の参照用情報Vとの間での連関度を利用し、出力(集中度)を探索するようにしてもよい。
また、本発明によれば、3段階以上に設定されている連関度を介して最適な解探索を行う点に特徴がある。連関度は、上述した10段階以外に、例えば0~100%までの数値で記述することができるが、これに限定されるものではなく3段階以上の数値で記述できるものであればいかなる段階で構成されていてもよい。
このような3段階以上の数値で表される連関度に基づいて最も確からしい集中度、を判別することで、探索解の可能性の候補として複数考えられる状況下において、当該連関度の高い順に探索して表示することも可能となる。このように連関度の高い順にユーザに表示できれば、より確からしい探索解を優先的に表示することも可能となる。
これに加えて、本発明によれば、連関度が1%のような極めて低い出力の判別結果も見逃すことなく判断することができる。連関度が極めて低い判別結果であっても僅かな兆候として繋がっているものであり、何十回、何百回に一度は、その判別結果として役に立つ場合もあることをユーザに対して注意喚起することができる。
更に本発明によれば、このような3段階以上の連関度に基づいて探索を行うことにより、閾値の設定の仕方で、探索方針を決めることができるメリットがある。閾値を低くすれば、上述した連関度が1%のものであっても漏れなく拾うことができる反面、より適切な判別結果を好適に検出できる可能性が低く、ノイズを沢山拾ってしまう場合もある。一方、閾値を高くすれば、最適な探索解を高確率で検出できる可能性が高い反面、通常は連関度は低くてスルーされるものの何十回、何百回に一度は出てくる好適な解を見落としてしまう場合もある。いずれに重きを置くかは、ユーザ側、システム側の考え方に基づいて決めることが可能となるが、このような重点を置くポイントを選ぶ自由度を高くすることが可能となる。
更に本発明では、上述した連関度を更新させるようにしてもよい。この更新は、例えばインターネットを始めとした公衆通信網を介して提供された情報を反映させるようにしてもよい。また参照用画像情報を初めとする各参照用情報を取得し、これらに対する集中度、改善施策に関する知見、情報、データを取得した場合、これらに応じて連関度を上昇させ、或いは下降させる。
つまり、この更新は、人工知能でいうところの学習に相当する。新たなデータを取得し、これを学習済みデータに反映させることを行っているため、学習行為といえるものである。
また、この連関度の更新は、公衆通信網から取得可能な情報に基づく場合以外に、専門家による研究データや論文、学会発表や、新聞記事、書籍等の内容に基づいてシステム側又はユーザ側が人為的に、又は自動的に更新するようにしてもよい。これらの更新処理においては人工知能を活用するようにしてもよい。
また学習済モデルを最初に作り上げる過程、及び上述した更新は、教師あり学習のみならず、教師なし学習、ディープラーニング、強化学習等を用いるようにしてもよい。教師なし学習の場合には、入力データと出力データのデータセットを読み込ませて学習させる代わりに、入力データに相当する情報を読み込ませて学習させ、そこから出力データに関連する連関度を自己形成させるようにしてもよい。
1 集中度判別システム
2 判別装置
21 内部バス
23 表示部
24 制御部
25 操作部
26 通信部
27 判別部
28 記憶部
61 ノード
2 判別装置
21 内部バス
23 表示部
24 制御部
25 操作部
26 通信部
27 判別部
28 記憶部
61 ノード
Claims (7)
- 教育コンテンツを聴講するユーザの集中度を判別する集中度判別プログラムにおいて、
表示された教育コンテンツを視認するユーザの画像を撮像することにより画像情報を取得する情報取得ステップと、
過去に表示された教育コンテンツを視認するユーザの画像を撮像した参照用画像情報と、ユーザの集中度との3段階以上の連関度を参照し、上記情報取得ステップにおいて取得した画像情報に応じた参照用画像情報に基づき、ユーザの集中度を判別する判別ステップとを有し、
上記情報取得ステップは、ユーザを撮像した画像データをディープラーニング技術を利用して解析した解析画像の特徴量に基づいて類型化した画像情報を取得し、
上記判別ステップは、ユーザを撮像した画像データをディープラーニング技術を利用して解析した解析画像の特徴量に基づいて類型化した参照用画像情報と、ユーザの集中度との3段階以上の連関度を参照することをコンピュータに実行させること
を特徴とする集中度判別プログラム。 - 上記情報取得ステップは、解析画像の特徴量に基づいて、ユーザの顔の表情や動作、しぐさを類型化した画像情報を取得し、
上記判別ステップは、解析画像の特徴量に基づいて、ユーザの顔の表情や動作、しぐさを類型化した参照用画像情報と、ユーザの集中度との3段階以上の連関度を参照すること
を特徴とする請求項1記載の集中度判別プログラム。 - 上記情報取得ステップでは、上記教育コンテンツ内において出題される問題に対する上記ユーザの解答時間に関する解答時間情報を取得し、
上記判別ステップでは、上記参照用画像情報と、過去に表示された教育コンテンツ内において出題される問題に対するユーザの解答時間に関する参照用解答時間情報とを有する組み合わせと、ユーザの集中度との3段階以上の連関度を参照し、更に上記情報取得ステップにおいて取得した解答時間情報に応じた参照用解答時間情報に基づき、ユーザの集中度を判別すること
を特徴とする請求項1記載の集中度判別プログラム。 - 上記情報取得ステップでは、上記教育コンテンツを聴講するユーザの属性に関する属性情報を取得し、
上記判別ステップでは、上記参照用画像情報と、過去に表示された教育コンテンツを聴講するユーザの属性に関する参照用属性情報とを有する組み合わせと、ユーザの集中度との3段階以上の連関度を参照し、更に上記情報取得ステップにおいて取得した属性情報に応じた参照用属性情報に基づき、ユーザの集中度を判別すること
を特徴とする請求項1記載の集中度判別プログラム。 - 上記情報取得ステップでは、上記ユーザによる上記教育コンテンツを聴講する頻度に関する頻度情報を取得し、
上記判別ステップでは、上記参照用画像情報と、ユーザによる過去に表示された教育コンテンツを聴講する頻度に関する参照用頻度情報とを有する組み合わせと、ユーザの集中度との3段階以上の連関度を参照し、更に上記情報取得ステップにおいて取得した頻度情報に応じた参照用頻度情報に基づき、ユーザの集中度を判別すること
を特徴とする請求項1記載の集中度判別プログラム。 - 上記判別ステップにおいて判別されたユーザの集中度に基づき、次に表示する教育コンテンツを選択して表示する選択ステップを更に有すること
を特徴とする請求項1~5のうち何れか1項記載の集中度判別プログラム。 - 上記判別ステップでは、人工知能におけるニューラルネットワークのノードの各出力の重み付け係数に対応する上記連関度を形成すること
を特徴とする請求項1~8のうち何れか1項記載の集中度判別プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021103983A JP2022014890A (ja) | 2020-07-07 | 2021-06-23 | 集中度判別プログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020116757A JP6906820B1 (ja) | 2020-07-07 | 2020-07-07 | 集中度判別プログラム |
JP2021103983A JP2022014890A (ja) | 2020-07-07 | 2021-06-23 | 集中度判別プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020116757A Division JP6906820B1 (ja) | 2020-07-07 | 2020-07-07 | 集中度判別プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022014890A true JP2022014890A (ja) | 2022-01-20 |
Family
ID=76919734
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020116757A Active JP6906820B1 (ja) | 2020-07-07 | 2020-07-07 | 集中度判別プログラム |
JP2021103982A Pending JP2022014889A (ja) | 2020-07-07 | 2021-06-23 | 達成度判別プログラム |
JP2021103983A Pending JP2022014890A (ja) | 2020-07-07 | 2021-06-23 | 集中度判別プログラム |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020116757A Active JP6906820B1 (ja) | 2020-07-07 | 2020-07-07 | 集中度判別プログラム |
JP2021103982A Pending JP2022014889A (ja) | 2020-07-07 | 2021-06-23 | 達成度判別プログラム |
Country Status (2)
Country | Link |
---|---|
JP (3) | JP6906820B1 (ja) |
WO (1) | WO2022009875A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230081013A (ko) * | 2021-11-30 | 2023-06-07 | 주식회사 마블러스 | 딥러닝 기반 사람 인식 방법 및 비대면 교육 관리 방법 |
KR102558675B1 (ko) * | 2022-03-21 | 2023-07-25 | 맹진영 | 에이피, 에이레벨 및 국제 바칼로레아를 교육하는 교원 양성 프로그램 운영 장치 및 방법 |
WO2023199422A1 (ja) | 2022-04-13 | 2023-10-19 | 日本電気株式会社 | 内面状態推定装置、内面状態推定方法及び記憶媒体 |
JP2024151629A (ja) * | 2023-04-12 | 2024-10-25 | ストーリア株式会社 | 情報処理システム、情報処理装置および情報処理方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012083539A (ja) * | 2010-10-12 | 2012-04-26 | Engineer Mentor Association | Web型研修システム |
JP2018165760A (ja) * | 2017-03-28 | 2018-10-25 | 富士通株式会社 | 出題制御プログラム、出題制御方法および出題制御装置 |
JP6749278B2 (ja) * | 2017-04-14 | 2020-09-02 | ダイキン工業株式会社 | 生理状態判定装置 |
WO2019176374A1 (ja) * | 2018-03-16 | 2019-09-19 | 京セラドキュメントソリューションズ株式会社 | 情報処理装置、及び情報処理方法 |
JP6621092B1 (ja) * | 2019-02-07 | 2019-12-18 | Assest株式会社 | 危険度判別プログラム及びシステム |
-
2020
- 2020-07-07 JP JP2020116757A patent/JP6906820B1/ja active Active
-
2021
- 2021-06-23 JP JP2021103982A patent/JP2022014889A/ja active Pending
- 2021-06-23 JP JP2021103983A patent/JP2022014890A/ja active Pending
- 2021-07-06 WO PCT/JP2021/025446 patent/WO2022009875A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2022014889A (ja) | 2022-01-20 |
WO2022009875A1 (ja) | 2022-01-13 |
JP6906820B1 (ja) | 2021-07-21 |
JP2022014473A (ja) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6906820B1 (ja) | 集中度判別プログラム | |
Hussain et al. | Student Engagement Predictions in an e‐Learning System and Their Impact on Student Course Assessment Scores | |
CN110678935A (zh) | 采用面部追踪和情感检测及其相关的方法应用在一种交互式自适应学习及神经认知障碍诊断系统 | |
US20130216995A1 (en) | Method, apparatus and system for learning plan analysis | |
Jena | Predicting students’ learning style using learning analytics: a case study of business management students from India | |
US9652996B2 (en) | Measuring cognitive load | |
Ilić et al. | Intelligent techniques in e-learning: a literature review | |
CN115081965B (zh) | 一种学情大数据分析系统及学情服务器 | |
JP2024511216A (ja) | 学習者の成長の追跡及び査定のためのシステム及び方法 | |
WO2019180652A1 (en) | Interactive, adaptive, and motivational learning systems using face tracking and emotion detection with associated methods | |
US11416558B2 (en) | System and method for recommending personalized content using contextualized knowledge base | |
CN112818761A (zh) | 一种基于人工智能的在线教育人机交互方法与系统 | |
Mujtaba et al. | Artificial intelligence in computerized adaptive testing | |
CN115907507A (zh) | 一种联合课堂场景的学生课堂行为检测和学情分析方法 | |
Taylor et al. | High performance coach cognition in the wild: Using applied cognitive task analysis for practical insights–cognitive challenges and curriculum knowledge | |
JP2021096836A (ja) | いじめ兆候判別プログラム及びシステム、いじめ判別プログラム及びシステム | |
JP2022014474A (ja) | 教育コンテンツ選択表示プログラム | |
JP2023003053A (ja) | 集中度判別プログラム | |
JP7427906B2 (ja) | 情報処理装置、制御方法及びプログラム | |
US11538355B2 (en) | Methods and systems for predicting a condition of living-being in an environment | |
JP2023003054A (ja) | 集中度判別プログラム | |
JP2023003055A (ja) | 達成度判別プログラム | |
JP2023003516A (ja) | 集中度判別プログラム | |
JP2023003517A (ja) | 達成度判別プログラム | |
CN115690867A (zh) | 课堂专注度检测方法、装置、设备及存储介质 |