JP6957993B2 - ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法 - Google Patents

ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP6957993B2
JP6957993B2 JP2017108752A JP2017108752A JP6957993B2 JP 6957993 B2 JP6957993 B2 JP 6957993B2 JP 2017108752 A JP2017108752 A JP 2017108752A JP 2017108752 A JP2017108752 A JP 2017108752A JP 6957993 B2 JP6957993 B2 JP 6957993B2
Authority
JP
Japan
Prior art keywords
user
question
confidence level
answer
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017108752A
Other languages
English (en)
Other versions
JP2018205447A (ja
Inventor
セバスチャン ピキャー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017108752A priority Critical patent/JP6957993B2/ja
Priority to US15/989,562 priority patent/US11176842B2/en
Publication of JP2018205447A publication Critical patent/JP2018205447A/ja
Application granted granted Critical
Publication of JP6957993B2 publication Critical patent/JP6957993B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/06Electrically-operated teaching apparatus or devices working with questions and answers of the multiple-choice answer-type, i.e. where a given question is provided with a series of answers and a choice has to be made from the answers
    • G09B7/10Electrically-operated teaching apparatus or devices working with questions and answers of the multiple-choice answer-type, i.e. where a given question is provided with a series of answers and a choice has to be made from the answers wherein a set of answers is common to a plurality of questions
    • G09B7/12Electrically-operated teaching apparatus or devices working with questions and answers of the multiple-choice answer-type, i.e. where a given question is provided with a series of answers and a choice has to be made from the answers wherein a set of answers is common to a plurality of questions characterised by modifying the teaching programme in response to a wrong answer, e.g. repeating the question, supplying further information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法に関する。
従来、質問と、質問に対する複数の選択肢とを有する問題を表示して、ユーザが選択した選択肢を入力し、解答の正誤に基づいて、ユーザの知識を判断する学習装置が提案されている(例えば、特許文献1等)。
ユーザの解答が正解の時でも、ユーザの知識に基づいて正解であった場合と、ユーザの知識は不十分であるが、適当に選択した選択肢が偶然に正解であった場合とがある。
そこで、学習装置では、ユーザが解答する時の自信レベルを求めて、自信レベルに基づいて、ユーザが自信を持って解答したのか、又は、ユーザは自信なく解答したのかを判断することが行われている。そして、ユーザの解答に対する自信レベルに基づいて、ユーザの理解度が推定される。ユーザが解答する時の自信レベルは、例えば、ユーザの視線又は脳波を測定することにより、推定することが提案されている(例えば、特許文献2〜4等)。
特開2004−152115号公報 国際公開第2007/066451号 特開2014−178358号公報 国際公開第2010/045356号
しかし、質問と、質問に対する複数の選択肢とを有する問題が表示された後、ユーザが、瞬時に選択肢を選択した場合には、ユーザが解答する時の自信レベルを求めることが困難であった。
そこで、本明細書では、ユーザが解答する時の自信レベルを推定できる情報処理プログラム、情報処理装置及び情報処理方法を提供することを課題とする。
本明細書に開示する情報処理プログラムの一形態によれば、質問と、質問に対する複数の選択肢とを有する第1の問題を表示部に表示することと、入力された、ユーザが第1の問題に解答する時のユーザの挙動を表す挙動情報に基づいて、ユーザの第1の問題に対する第1解答に対する自信レベル及び自信レベルの信頼度を求めることと、自信レベルの信頼度が所定の閾値よりも低い場合に、第1の問題の表示態様を変更して第2の問題を作成することと、第2の問題を表示部に表示することと、第1の問題に対するユーザの第1解答と、入力された第2の問題に対するユーザの第2解答とに基づいて、第1の問題に対するユーザの自信レベルを推定することと、をプロセッサに実行させる。
また、本明細書に開示する情報処理装置の一形態によれば、表示部と、入力部と、質問と、質問に対する複数の選択肢とを有する第1の問題及び第2の問題を表示部に表示させる問題表示部と、ユーザが第1の問題に解答する時のユーザの挙動を表す挙動情報に基づいて、入力部により入力されたユーザの第1の問題に対する第1解答の自信レベル及び自信レベルの信頼度を求める自信レベル計算部と、自信レベルの信頼度が所定の閾値よりも低い場合に、第1の問題の表示態様を変更して第2の問題を作成する表示態様変更部と、第1の問題に対するユーザの第1解答と、入力部により入力されたユーザの第2の問題に対する第2解答とに基づいて、第1の問題に対するユーザの自信レベルを推定する自信レベル推定部と、を有する処理部と、を備える。
更に、本明細書に開示する情報処理方法の一形態によれば、質問と、質問に対する複数の選択肢とを有する第1の問題を表示部に表示することと、入力された、ユーザが第1の問題に解答する時のユーザの挙動を表す挙動情報に基づいて、ユーザの第1の問題に対する第1解答に対する自信レベル及び自信レベルの信頼度を求めることと、自信レベルの信頼度が所定の閾値よりも低い場合に、第1の問題の表示態様を変更して第2の問題を作成することと、第2の問題を表示部に表示することと、第1の問題に対するユーザの第1解答と、入力された第2の問題に対するユーザの第2解答とに基づいて、第1の問題に対するユーザの自信レベルを推定することと、をプロセッサが実行する。
本明細書に開示する形態の一側面によれば、ユーザが解答する時の自信レベルを推定できる。
本明細書に開示する情報処理装置の一実施形態を示す図である。 (A)は、処理部を説明する図であり、(B)は、記憶部を説明する図である。 本明細書に開示する情報処理装置の動作を説明するフローチャート(その1)である。 本明細書に開示する情報処理装置の動作を説明するフローチャート(その2)である。 本明細書に開示する情報処理装置の動作を説明するフローチャート(その3)である。 (A)〜(D)は、表示態様が変更された問題を作成することを説明する図(その1)である。 (A)〜(C)は、表示態様が変更された問題を作成することを説明する図(その2)である。 本明細書に開示する情報処理装置の動作を説明するフローチャート(その4)である。 表示態様が変更された問題を作成することを説明する図(その3)である。 表示態様が変更された問題を表示することを説明する図(その1)である。 本明細書に開示する情報処理装置の動作を説明するフローチャート(その5)である。 表示態様が変更された問題を作成することを説明する図(その4)である。 表示態様が変更された問題を表示することを説明する図(その2)である。 本明細書に開示する情報処理装置の動作を説明するフローチャート(その6)である。 表示態様が変更された問題を作成することを説明する図(その6)である。 表示態様が変更された問題を作成することを説明する図(その5)である。 表示態様が変更された問題を作成することを説明する図(その7)である。 表示態様が変更された問題を作成することを説明する図(その8)である。
以下、本明細書で開示する情報処理装置の好ましい第1実施形態を、図を参照して説明する。但し、本発明の技術範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。
図1は、本明細書に開示する情報処理装置の一実施形態を示す図である。図2(A)は、処理部を説明する図であり、図2(B)は、記憶部を説明する図である。
本明細書の情報処理装置(以下、単に装置ともいう)10は、ユーザの学習を支援する学習装置である。装置10は、質問と、質問に対する複数の選択肢とを有する問題を表示し、ユーザが選択した選択肢を入力して、解答の正誤を判定する。
また、装置10は、ユーザが問題に対して解答する時のユーザの解答に対する自信レベル及び自信レベルの信頼度を求める。装置10は、ユーザの解答の正誤と、自信レベルとに基づいて、ユーザの問題に対する知識及び/又は理解度を推定する。
ユーザの解答の正誤と、自信レベルとの組み合わせてとしては、以下の4つの場合が挙げられる。(a)正解且つ高い自信レベル、(b)正解且つ低い自信レベル、(c)不正解且つ高い自信レベル、(d)不正解且つ低い自信レベル。
ユーザの解答が不正解の場合には、一般に、ユーザの知識及び/又は理解度が不十分であると推定される(c及びdのケース)。
ユーザの解答が正解であり、且つ自信レベルが高い場合には、ユーザの知識及び/又は理解度が十分であると推定される(aのケース)。
ユーザの解答が正解であり、且つ自信レベルが低い場合には、ユーザの知識及び/又は理解度が不十分であるが、適当に選択した選択肢が偶然に正解であったと推定される(bのケース)。
装置10は、ユーザの解答に対して、正解か、又は不正解かを判断する。
また、装置10では、ユーザが問題に対して解答する時のユーザの注視位置と、表示部に表示された問題の表示部の画面上の表示位置とに基づいて、ユーザが問題を解答した時のユーザの解答に対する自信レベル及び自信レベルの信頼度を求める。問題は、質問及び複数の選択肢を有する。
質問と、質問に対する複数の選択肢とを有する問題が表示された後、ユーザが、瞬時に選択肢を選択した場合には、ユーザが解答する時の自信レベルの信頼度が低くなるので、自信レベルを求めることが困難な場合がある。
装置10は、自信レベルの信頼度が低い場合には、同じ内容を有し、表示態様が変更された問題をユーザへ出題する。そして、装置10は、変更前後の問題に対するユーザの解答に基づいて、自信レベルを推定する。
以下、装置10について、更に詳述する。
装置10は、処理部11と、記憶部12と、表示部13と、操作部14と、視線検出デバイス15と、通信部16を有する。
処理部11は、一つまたは複数のプロセッサと、周辺回路とを有する。処理部11は、記憶部12に予め記憶されている所定のプログラム12aに従い、装置10の各ハードウェア構成要素の制御及び各種処理を行い、処理中に生じるデータを一時的に保存するために記憶部12を利用する。
記憶部12は、ランダムアクセスメモリ(RAM)若しくはリードオンリーメモリ(ROM)等の半導体メモリ、又は磁気ディスク若しくはフラッシュメモリ等の不揮発性メモリを有していてもよい。また、記憶部12は、非一時的な記憶媒体12dに記憶されたプログラムを、読み出し可能なドライブ(図示せず)を有していてもよい。
図2(B)に示すように、記憶部12は、所定のプログラム12aと共に、表示部13に問題及び問題の答えに関する情報を有する問題データ12bと、ユーザにより選択された解答に関する情報を有する解答データ12cを記憶する。問題データ12bは、問題と関連付けられた、問題の質問及び複数の選択肢が表示部13の画面上に表示される位置の情報も有する。解答データ12cは、ユーザにより選択された解答が問題と関連付けられた情報も有する。
また、記憶部12は、ユーザの注視位置を検出するために利用される各種のデータを記憶する。例えば、記憶部12は、プルキンエ像の重心に対する瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブル、視線方向と注視位置との関係を表す参照テーブルを記憶する。更に、記憶部12は、視線検出デバイス15から得られたユーザの眼の画像、あるいは、その画像に基づいて検出されたキャリブレーション前の生の注視位置の測定点の座標及び取得順番などを記憶する。
表示部13は、処理部11に制御されて、装置10の動作に伴う各種の情報を画面上に表示可能である。質問と、質問に対する複数の選択肢とを有する問題は、問題と関連づけられて記憶部12に記憶される画面上の所定の位置に表示される。表示部13として、例えば、液晶ディスプレイを用いることができる。
操作部14は、装置10のユーザにより操作されて、操作を入力可能である。装置10は、操作部14として、例えばキーボード又はマウスを用いることができる。また、操作部14として、操作部14と表示部13とが一体となったタッチパネルを用いてもよい。ユーザは、操作部14を操作して、複数の選択肢の内の一の選択肢を選択して、装置10に入力する。
視線検出デバイス15は、表示部13の周囲に配置され、ユーザの視線方向を表す測定データを所定の周期(例えば、1ミリ秒〜33ミリ秒)ごとに生成する。そして視線検出デバイス4は、生成した測定データを処理部11へ出力する。
例えば、視線検出デバイス15は、赤外発光ダイオード15aと、CCD又はC−MOSといった赤外線に感度を持つイメージセンサと撮像光学系を含むカメラ15bとを有する。そして視線検出デバイス15は、測定データとして、ユーザの眼の瞳孔と、赤外発光ダイオード15aから発した光が角膜で反射された角膜反射像(以下、プルキンエ像と呼ぶ)とが表された画像をカメラ15bにより生成する。
本実施形態では、視線検出デバイス15は、表示部13の上方又は下方又は側方に、表示部13と対向するユーザへ向けて配置される。視線検出デバイス15が有する赤外発光ダイオード15aは、ユーザの眼を照明する。そして視線検出デバイス15が有するカメラカメラ15bにより、表示部13を見るユーザの少なくとも一方の眼を含む、ユーザの顔全体あるいは顔の一部が写った画像が生成される。
通信部16は、例えば、図示しないネットワーク介して、情報の送受信を行う。通信部16は、送受信を行う通信回路及び通信線を有し得る。装置10は、例えば、プログラム、問題データ又は解答データを、通信部16を用いて送受信してもよい。
図2(A)に示すように、上述した処理部11は、問題表示部11aと、注視位置検出部11bと、既読割合判定部11cと、自信レベル計算部11dと、表示態様変更部11eと、自信レベル推定部11fを有する。
処理部11が有するこれらの各部は、例えば、処理部11が有するプロセッサ上で動作するコンピュータプログラムにより実現される機能モジュールである。なお、処理部11が有するこれらの各部は、それぞれ、別個の回路として、装置10に実装されてもよい。各部の説明については後述する。
問題表示部11aは、記憶部12に記憶された問題データ12bを読み出して、一又は複数の問題を作成して、各問題を、表示部13の画面上の所定の位置に表示する。また、問題表示部11aは、表示態様が変更された問題を、表示部13の画面上の所定の位置に表示する。
注視位置検出部11bは、視線検出デバイス15から処理部11が画像を取得する度に、その画像上でユーザの眼が写っている領域を検出し、眼が写っている領域内でプルキンエ像及び瞳孔を検出する。そして注視位置検出部11bは、プルキンエ像と瞳孔重心との位置関係に基づいてユーザの注視位置を検出する。
注視位置検出部11bは、先ず、眼が写っている領域を検出する。眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこで注視位置検出部11bは、画像内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そして注視位置検出部11bは、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼の領域とする。あるいは、注視位置検出部11bは、画像上の眼の像を表すテンプレートと、画像とのテンプレートマッチングにより、画像内でテンプレートに最も一致する領域を検出し、その検出した領域を眼の領域としてもよい。
更に、注視位置検出部11bは、眼の領域内で瞳孔が写っている領域を検出する。本実施形態では、注視位置検出部11bは、瞳孔に相当するテンプレートと眼の領域との間でテンプレートマッチングを行い、眼の領域内でテンプレートとの一致度が最も高くなる領域を検出する。そして注視位置検出部11bは、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。
また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこで注視位置検出部11bは、眼の領域内で、同心円状に半径の異なる2本のリングを設定する。そして注視位置検出部11bは、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。注視位置検出部11bは、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の座標として算出する。
また注視位置検出部11bは、眼の領域内で視線検出デバイス15が有する赤外発光ダイオード15aのプルキンエ像を検出する。注視位置検出部11bは、プルキンエ像に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値をプルキンエ像の重心の座標として算出する。
瞳孔重心及びプルキンエ像の重心を検出すると、注視位置検出部11bは、それらに基づいてユーザの視線方向を検出する。
角膜の表面は略球形であるため、視線方向によらず、視線検出デバイス15が有する光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ユーザの視線方向に応じて移動する。そのため、注視位置検出部11bは、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ユーザの視線方向を検出できる。
本実施形態では、注視位置検出部11bは、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして注視位置検出部11bは、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブルを参照することにより、ユーザの視線方向を特定する。
注視位置検出部11bは、ユーザの視線方向を検出すると、ユーザの視線方向及び想定されるユーザの眼と表示部13間の位置関係に基づいて、表示部13の画面上でのユーザの注視位置を検出する。
本実施形態では、注視位置検出部11bは、ユーザの眼と表示部13の画面間の想定される位置関係における、ユーザの視線方向と注視位置との関係を表す参照テーブルを参照することにより、ユーザの注視位置の測定点を求める。そして注視位置検出部11bは、ユーザの注視位置の測定点の表示部13の画面上での座標を、その取得順序とともに記憶部12に保存する。なお、注視位置の測定点の取得順序は、その順序を表す番号で表れされてもよく、あるいは、その測定点を求めるために利用した、ユーザの眼の画像の取得時刻で表されてもよい。
既読割合判定部11cは、検出された戻りスイープの数及び注視ラインの数と、表示部13の画面に表示される質問又は複数の選択肢とを比較して、その質問又は複数の選択肢における、ユーザが既読した割合を表す既読割合を判定する。文書を読む際に観察される代表的な視線の移動パターンでは、読む行が切り替えられる際に、画面上での視線位置が後退方向へ大きく移動する。戻りスイープは、そのような、読む行の切替えに相当する、視線位置の後退方向への大きな移動の軌跡をいう。また、注視ラインは、検出された時間において、又は検出された画面上の位置において隣接する二つの戻りスイープ間の一連の固視と前方方向への微動とを、一つの行のリーディングに相当する視線位置の移動の軌跡を表す。
例えば、既読割合判定部11cは、表示文書の行数に対する注視ラインの数の比を、既読割合として算出する。あるいは、既読割合判定部11cは、表示文書の行数に対する、注視ラインの数と戻りスイープの数の多い方との比を、既読割合として算出してもよい。
自信レベル計算部11dは、ユーザが問題に対して解答する時のユーザの注視位置の時間変化と、表示部13の画面における問題又は複数の選択肢の表示領域とに基づいて、ユーザが問題を解答した時のユーザの解答に対する自信レベル及び自信レベルの信頼度を求める。
自信レベル計算部11dは、例えば、自信レベル(confidence level)を、0.0〜1.0のスコアとして求める。自信レベルは、スコアが低い程、自信が低いことを意味し、スコアが高い程、自信が高いことを意味する。
また、自信レベル計算部11dは、求めた自信レベルの信頼度を、0.0〜1.0のスコアとして求める。自信レベルの信頼度は、スコアが低い程、自信レベルの信頼度が低いことを意味し、スコアが高い程、自信レベルの信頼度が高いことを意味する。
自信レベルの信頼度が高いことは、自信レベルのスコアがユーザの自信レベルを正確に示していることが統計的に高いことを意味する。一方、信頼度が低いことは、自信レベルのスコアがユーザの自信レベルを正確に示していることが統計的に低いことを意味する。
自信レベル計算部11dは、自信レベルの信頼度を、所定の閾値と比較して、自信レベルの高低を判断する。所定の閾値は、自信レベルに求められる精度に応じて適宜決定される。所定の閾値として、例えば、0.7、0.5又は0.3とすることができる。
自信レベル計算部11dは、具体的には、ユーザの注視位置と、表示部13の画面上における問題又は複数の選択肢の表示位置とに基づいて、ユーザの解答に対する自信レベル及び自信レベルの信頼度を求めるように予め学習した識別器を用いる。識別器として、例えば、K近傍法又は2分木法等を利用した回帰分析モデルが用いられる。なお、自信レベル計算部11dが、ユーザの解答に対する自信レベル及び自信レベルの信頼度を求める方法として、他の公知の方法を用いてもよい。
表示態様変更部11eは、自信レベル計算部11dが求めた自信レベルの信頼度に基づいて、ユーザが問題を解答した時のユーザの解答に対する自信レベルの信頼度が高いか又は低いかを判断する。例えば、表示態様変更部11eは、自信レベルの信頼度が、所定の閾値よりも低い場合には、自信レベルの信頼度が低いと判断する。具体的には、表示態様変更部11eは、自信レベルの信頼度が、0.7未満の場合に、0.5未満の場合に又は0.3未満の場合に、自信レベルの信頼度が低いと判断する。
自信レベルの信頼度が低い場合には、ユーザが問題を解答した時のユーザの解答に対する自信レベルが、統計的に正確であるのか否かが明確ではない(abmiguity)。そこで、装置10では、自信レベルの信頼度が低い場合、問題の表示態様を変更した新たな問題を作成し、この問題を表示部13に表示して、ユーザの解答を入力する。表示態様を変更した新たな問題は、ユーザに対して求められる知識及び/又は理解度が、変更前の問題と同等であることが好ましい。この表示態様変更部11eが、表示態様を変更した新たな問題を作成する動作については後述する。
自信レベル推定部11fは、表示態様を変更する前の問題(以下、第1の問題ともいう)に対するユーザの解答と、表示態様が変更された問題(以下、第2の問題ともいう)に対するユーザの解答とに基づいて、表示態様を変更する前の問題に対するユーザの自信レベルを推定する。例えば、第1の問題に対するユーザの解答が正解であり、第2の問題に対するユーザの解答も正解であれば、第1の問題に対するユーザの知識及び/又は理解度は十分であり、ユーザの自信レベルは高いと推定される。また、第1の問題に対するユーザの解答が正解であり、第2の問題に対するユーザの解答は不正解であれば、第1の問題に対するユーザの知識及び/又は理解度は不十分であり、ユーザの自信レベルは低いと推定される。
次に、上述した装置10の動作を、図3及び図4に示すフローチャートを参照しながら、以下に説明する。
ユーザに対して出題される全ての問題に対して、ステップS301とステップS411との間の処理が行われる。
まず、ステップS303において、処理部11の問題表示部11aは、記憶部12に記憶される問題データ12bを読み出して、問題を表示部13の画面に表示する。表示部13の画面には、例えば、図6(A)に示すように、問題が有する質問及び4つの選択肢が表示される。図6(A)では、n番目(nは、ゼロ以上の整数である)に表示部13に表示された問題nが示されている。問題nは、質問及び4つの選択肢を有する。問題nの質問及び4つの選択肢の表示部13の画面上の位置は、記憶部12に記憶される問題データ12bに含まれる情報に基づいて決定される。図6(A)に示す例では、表示部13の画面上の領域P1〜P4に選択肢が表示される。
次に、ステップS305において、処理部11の注視位置検出部11bは、ユーザが表示部13の画面上に表示された問題に対して解答する時のユーザの挙動を表す注視位置(ユーザの挙動情報)の時間変化を検出する。注視位置検出部11bは、検出したユーザの注視位置の時間変化を、問題と関連づけて記憶部12に記憶してもよい。
次に、ステップS307において、処理部11の自信レベル計算部11dは、ユーザが操作部14を用いて解答を入力したか否かを判断する。ユーザが解答を入力していない場合(ステップS305−No)、ユーザは問題に対して解答している途中なので、処理はステップS305に戻る。注視位置検出部11bは、ユーザの注視位置の時間変化の検出を続ける。
一方、ユーザが、操作部14を用いて複数の選択肢の内の何れかを選択して、解答を入力した場合(ステップS305−Yes)、自信レベル計算部11dは、ユーザの解答の正誤を判断する。そして、自信レベル計算部11dは、その判断結果と共に、ユーザが選択した選択肢及び選択肢の位置を記憶部12に記憶する(ステップS309)。
次に、ステップS311において、自信レベル計算部11dは、ユーザが問題を解答した時のユーザの解答に対する自信レベル及び自信レベルの信頼度を求める。自信レベル計算部11dは、ユーザが問題に対して解答する時のユーザの注視位置の時間変化と、表示部13の画面における複数の選択肢の表示領域とを入力情報として、自信レベル及び自信レベルの信頼度を出力する。本実施形態では、自信レベル計算部11dは、自信レベル(confidence level)を、0.0〜1.0のスコアとして求める。また、自信レベル計算部11dは、求めた自信レベルの信頼度を、0.0〜1.0のスコアとして求める。
次に、ステップS313において、表示態様変更部11eは、自信レベルの信頼度が、所定の閾値よりも低く、且つユーザの解答が正解の場合には、第1の問題の表示態様を変更して第2の問題を作成する。本実施形態では、自信レベル計算部11dは、自信レベルの信頼度が、0.5よりも低い場合に(ステップS313−Yes)、自信レベルの信頼度が低いと判断して、第2の問題を作成する(ステップS401)。上述したように、自信レベルの信頼度が低いことは、自信レベルのスコアがユーザの自信レベルを正確に示していることが統計的に低いことを意味する。本実施形態では、ユーザの解答が正解である場合のユーザの自信レベルを正確に把握することを目的とするので、ユーザの解答が不正解の場合には、第2の問題を作成しない。なお、ユーザの解答が不正解の場合にも、第2の問題を作成するようにしてもよい。
一方、自信レベル計算部11dは、自信レベルの信頼度が、0.5以上の場合には(ステップS313−No)、ユーザの解答及び自信レベルを問題と関連づけて、記憶部12に解答データ12cに含める情報として記憶する(ステップS413)。
次に、ステップS401において、表示態様変更部11eが、第1の問題の表示態様を変更して第2の問題を作成する処理について、図5〜図7を参照しながら、以下に説明する。ここで、第2の問題の内容は、第1の問題の内容と実質的に同じになるように作成されるので、第2の問題を出題することは、第1の問題に対して求められるのと同様のユーザの知識及び/又は理解度を確認することになる。
まず、ステップS501において、表示態様変更部11eは、ユーザが第1の問題における複数の選択肢それぞれを注視した注視時間を求める。具体的には、表示態様変更部11eは、ユーザの注視位置が、表示部13の画面上の一の選択肢が表示される領域P1〜P4内に滞在している時間を、注視時間として求める。
図6(B)は、表示部13の画面に表示された、図6(A)に示す問題n(第1の問題)に対して、ユーザにより各選択肢が注視された注視時間を示す。
図6(B)に示す例では、選択肢「ケニヤ山」の注視時間は1.3秒であり、選択肢「モンブラン」の注視時間は0.2秒であり、選択肢「エベレスト」の注視時間は0.4秒であり、選択肢「富士山」の注視時間は0秒である。また、質問「世界で最も高い山を選択して下さい。」の正解は、選択肢「エベレスト」である。表示態様変更部11eは、正解である選択肢「エベレスト」が、領域P3に表示されていたことを、記憶部12の問題データ12bの情報に基づいて取得する。
次に、ステップS503において、表示態様変更部11eは、ユーザの注視時間が最も短い選択肢が、正解の選択肢であるか否かを判断する。
表示態様変更部11eは、ユーザの注視時間が最も短い選択肢が正解の選択肢ではない場合(ステップS503−No)、注視時間が最も短い選択肢の位置に、正解である選択肢を配置して、表示態様を変更した問題(n+1)(第2の問題)を作成する(ステップS505)。
図6(A)及び図6(B)に示す例では、ユーザの注視時間が最も短い選択肢は、選択肢「富士山」であるので、正解である選択肢「エベレスト」とは異なる。
図6(C)に示すように、表示態様変更部11eは、注視時間が最も短い選択肢「富士山」が表示されていた領域P4に、正解である選択肢「エベレスト」を配置する。
次に、ステップS509において、図6(D)に示すように、表示態様変更部11eは、他の3つの選択肢を、領域P1〜P3にランダムに配置して、表示態様が変更された問題(n+1)(第2の問題)を作成する。このようにして、問題(n+1)は、問題nの4つの選択肢の位置が変更されて作成される。
一方、ユーザの注視時間が最も短い選択肢が正解の選択肢である場合(ステップS503−Yes)、表示態様変更部11eは、注視時間が2番目に短い選択肢の位置に、正解である選択肢を配置して、表示態様が変更された問題(n+1)(第2の問題)を作成する(ステップS507)。
図7(A)は、表示部13の画面に表示された、図6(A)に示す問題n(第1の問題)に対して、ユーザにより各選択肢が注視された注視時間を示す。図7(A)に示す例では、ユーザの注視時間が最も短い選択肢は、正解である選択肢「エベレスト」である。
図7(B)に示すように、表示態様変更部11eは、注視時間が2番目に短い選択肢「モンブラン」が表示されていた領域P2に、正解である選択肢「エベレスト」を配置する。
次に、ステップS509において、図7(C)に示すように、表示態様変更部11eは、他の3つの選択肢を、領域P1、P3、P4にランダムに配置して、表示態様が変更された問題(n+1)(第2の問題)を作成する。問題(n+1)は、問題nの4つの選択肢の位置が変更されて作成される。
ユーザが問題を解答する時には、ユーザの知識及び/又は理解度が不十分なために、ユーザは解答することをあきらめることがある。このような場合、ユーザは、最も注視していた選択肢を自動的に選択することがあり得る。そこで、本実施形態では、問題n(第1の問題)において注視時間が最も短いか又は2番目に短い選択肢の位置に正解の選択肢を配置して問題(n+1)(第2の問題)を作成する。このようにして、ユーザが、問題(n+1)(第2の問題)を解答する際に、ユーザの各選択肢の記憶の影響の低減を図っている。
以上が、ステップS401の処理の説明である。
次に、ステップS403において、図6(D)又は図7(C)に示すように、処理部11の問題表示部11aは、表示態様が変更された問題(n+1)(第2の問題)を、表示部13に表示する。
次に、ステップS405において、処理部11の自信レベル推定部11fは、ユーザの解答を入力して、解答の正誤を判定する。
次に、ステップS407において、自信レベル推定部11fは、問題n(第1の問題)に対するユーザの解答(正解)と、問題(n+1)(第2の問題)に対するユーザの解答とに基づいて、問題n(第1の問題)に対するユーザの自信レベルを推定する。自信レベル推定部11fは、問題(n+1)(第2の問題)が正解の場合には、ユーザの知識及び/又は理解度は十分であるので、問題n(第1の問題)の解答に対するユーザの自信レベルは、高いと推定する。例えば、ユーザが問題n(第1の問題)に対して解答する時に、ユーザが瞬時に選択肢を選択したことにより、解答に対するユーザの自信レベルの信頼度が低くなったとする。この理由として、ユーザが高い自信をもって正解を選択しためであると推定される。
一方、問題(n+1)(第2の問題)が不正解の場合には、自信レベル推定部11fは、ユーザの知識及び/又は理解度は不十分であるので、問題n(第1の問題)の解答に対するユーザの自信レベルは、低いと推定する。例えば、ユーザが問題n(第1の問題)に対して解答する時に、ユーザが瞬時に選択肢を選択したことにより、解答に対するユーザの自信レベルの信頼度は低くなったとする。この理由として、ユーザは解答することを諦めて、適当に解答を選択しためであると推定される。
本実施形態では、問題(n+1)(第2の問題)を解答した時のユーザの解答に対する自信レベル及び自信レベルの信頼度を求めていないが、自信レベル及び自信レベルの信頼度を求めて、ステップS407における自信レベルの推定の参考にしてもよい。
次に、ステップS411において、自信レベル推定部11fは、ユーザの解答及び自信レベルを問題と関連づけて、記憶部12に解答データ12cとして記憶する。
次に、全ての問題の出題が終わっていない場合には、ステップS301へ戻る。
なお、上述した実施形態では、自信レベルの信頼度が低い場合には、表示態様が変更された問題を一度作成してユーザに出題していたが、表示態様が変更された問題を二度以上作成してユーザに出題してもよい。この場合、ユーザの解答の正誤の判断を、正解数に基づく多数決法を用いて判断してもよい。
次に、第1の問題の表示態様を変更して第2の問題を作成する他の実施形態を、図8〜図18を参照しながら、以下に説明する。
図8〜図10は、第2実施形態の処理を説明する。
第2実施形態では、上述した第1実施形態のステップS401及びステップS403の処理が異なっている。そこで、本実施形態におけるステップS401及びステップS403に対応する処理を、以下に説明する。他の処理は、上述した第1実施形態と同様である。
まず、ステップS801(ステップS401に対応)において、処理部11の表示態様変更部11eは、表示部13に表示された4つの選択肢の内で、注視時間が最も短い選択肢の注視時間Sを取得する。そして、表示態様変更部11eは、注視時間Sに基づいて、ユーザが問題n(第1の問題)を解答した後に、問題(n+1)(第2の問題)を表示部13に表示するまでに、表示部13に表示する問題の数Qを決定する(図9参照)。
図9に示すように、ユーザが問題nに対して解答する時のユーザの注視時間は、領域P1の選択肢に対して4.1秒であり、領域P2の選択肢に対して4.7秒であり、領域P3の選択肢に対して3.5秒であり、領域P4の選択肢に対して4.2秒であった。注視時間が最も短い選択肢は、領域P3の選択肢である。
表示態様変更部11eは、領域P3の選択肢に対する注視時間S(3.5秒)の整数部分の値P(3)を取得する。表示態様変更部11eは、ユーザが問題n(第1の問題)を解答した後に、第2の問題を表示部13に表示するまでに、表示部13に表示する問題の数を、値Pに決定する。問題n(第1の問題)と、第2の問題との間に、問題n(第1の問題)とは関係のない、P個の他の問題が挿入される。
次に、ステップS803において、図10に示すように、処理部11の問題表示部11aは、問題nを表示部13に表示した後、問題n(第1の問題)とは関係のない3つの問題(n+1)、(n+2)、(n+3)を表示部13に表示して、ユーザに出題する。ユーザは、問題(n+1)、(n+2)、(n+3)に対して、操作部14を用いて解答を入力する。問題(n+1)、(n+2)、(n+3)が表示部13に表示されてユーザにより解答されるのに要する時間が、ユーザが問題n(第1の問題)を解答した後に、第2の問題が表示部13に表示されるまでの待ち時間となる。ユーザが、この待ち時間の間に他の問題に対して解答することにより、問題n(第1の問題)を解答した記憶が薄れることが期待される。
次に、ステップS805(ステップS403に対応)において、問題表示部11aは、問題(n+3)の解答を入力した後に、問題nの表示態様を変更した第2の問題を、問題n+4として、表示部13に表示する。問題n+4(第2の問題)は、上述した第1実施形態と同様に作成され得る。
ユーザは、問題を解答する時には、選択肢を注視する時間が長い程、内容を記憶する傾向がある。そこで、本実施形態では、選択肢の注視時間に応じて、問題n(第1の問題)を解答した後に第2の問題を出題するまでの待ち時間を長くして、記憶した内容の影響を低減することを図っている。
上述した本実施形態では、領域P3の選択肢に対する注視時間S(3.5秒)の整数部分の値P(3)に基づいて、問題n(第1の問題)と問題(n+1)(第2の問題)との間に挿入される問題の数を決定した。同様の考えにより、図9に示すように、領域P3の選択肢に対する注視時間S(3.5秒)の整数部分の値P(3)に基づいて、ユーザが問題n(第1の問題)を解答した後に、第2の問題を表示部に表示するまでの待ち時間Tを決定してもよい。この待ち時間の間には、問題n(第1の問題)とは関係のない他の問題を出題してもよい。
以上が、第2実施形態の説明である。
図11〜図13は、第3実施形態の処理を説明する。
第3実施形態では、上述した第1実施形態のステップS305、S401及びステップS403の処理が異なっている。そこで、本実施形態におけるステップS305、S401及びステップS403に対応する処理を、以下に説明する。他の処理は、上述した第1実施形態と同様である。
まず、ステップS1101(ステップS305に対応)において、図12に示すように、処理部11の既読割合判定部11cは、ユーザが問題n(第1の問題)を解答する時のユーザの注視位置の時間変化と、表示部13に表示された問題nの質問の表示部13の画面上の表示領域とに基づいて、ユーザが問題nの質問を読んだ既読割合を求める。本実施形態では、質問の表示された文章の長さに対する、ユーザ読んだ質問の部分の割合が、既読割合として、百分率で求められる。また、処理部11の注視位置検出部11bは、第1実施形態と同様に、ユーザの注視位置を検出する。
図12に示す例では、既読割合Kは、52%である。
次に、ステップ1103(ステップS401に対応)において、処理部11の表示態様変更部11eは、既読割合K(53%)を所定の定数C(20)で割った商(K/C)の整数部分の値P(2)を取得する。そして、表示態様変更部11eは、ユーザが問題n(第1の問題)を解答した後に、問題(n+1)(第2の問題)を表示部13に表示する問題の数を、値P(2)に決定する。
次に、ステップS1105において、図13に示すように、処理部11の問題表示部11aは、問題nを表示部13に表示した後、問題n(第1の問題)とは関係のない2つの問題(n+1)、(n+2)を表示部13に表示する。ユーザは、問題(n+1)、(n+2)に対して、操作部14を用いて解答を入力する。問題(n+1)、(n+2)が表示部13に表示されてユーザにより解答されるのに要する時間が、ユーザが問題n(第1の問題)を解答した後に、第2の問題が表示部13に表示されるまでの待ち時間となる。ユーザが、この待ち時間の間に他の問題に対して解答することにより、問題n(第1の問題)を解答した記憶が薄れることが期待される。
次に、ステップS1107(ステップS403に対応)において、問題表示部11aは、問題(n+2)の解答を入力した後に、問題nの表示態様を変更した第2の問題を、問題(n+3)として、表示部13に表示する。問題(n+3)(第2の問題)は、上述した第1実施形態と同様に作成され得る。
ユーザは、問題を解答する時に、質問を注視する時間が長い程、内容を記憶する傾向がある。そこで、本実施形態では、質問の注視時間と相関関係のある既読割合に応じて、問題n(第1の問題)を解答した後に第2の問題を出題するまでの待ち時間を長くして、記憶した内容の影響を低減することを図っている。
上述した本実施形態では、既読割合Kを所定の定数Cで割った商(K/C)の整数部分の値Pに基づいて、問題n(第1の問題)と問題(n+1)(第2の問題)との間に挿入される問題の数を決定した。同様の考えにより、既読割合Kを所定の定数Cで割った商(K/C)の整数部分の値Pに基づいて、ユーザが問題n(第1の問題)を解答した後に、第2の問題を表示部に表示するまでの待ち時間を決定してもよい。この待ち時間の間には、問題n(第1の問題)とは関係のない問題を出題してもよい。
以上が、第3実施形態の説明である。
図14〜図16は、第4実施形態の処理を説明する。
第4実施形態では、上述した第1実施形態のステップS309、S401及びステップS403の処理が異なっている。そこで、本実施形態におけるステップS309、S401及びステップS403に対応する処理を、以下に説明する。他の処理は、上述した第1実施形態と同様である。
まず、ステップS1401(ステップS309に対応)において、処理部11の注視位置検出部11bは、ユーザにより選択された選択肢を入力する。そして、注視位置検出部11bは、連続して出題された問題に対して、ユーザが複数の選択肢の内の表示部13の画面上における同じ位置に表示される選択肢を、所定の回数繰り返して選択したか否かを判断する。所定の回数は、求められる自信レベルの精度に応じて、適宜決定され得る。所定の回数として、例えば、2回又は3回とすることができる。
注視位置検出部11bは、図15に示すように、ユーザが問題に対して解答する度に、ユーザが選択した選択肢の位置に基づいて、ユーザが4つの領域P1〜P4それぞれが選択された回数の統計を求める。図15に示す例では、ユーザが4つの領域P1〜P4それぞれが選択された回数は、領域P1〜P4の順番で少なくなっている。
また、処理部11の自信レベル計算部11dは、ユーザの解答の正誤を判断し、判断結果と共に、ユーザが選択した選択肢及び選択肢の位置を記憶部12に記憶する(ステップS1401(ステップS309に対応))。
図16に示す例のように、ユーザが、問題n−1において、表示部13の画面上の領域P2の選択肢を選択し、且つ問題nにおいても、表示部13の画面上の同じ領域P2の選択肢を選択したとする。この場合、注視位置検出部11bは、ユーザが表示部13の画面上における同じ位置に表示される選択肢を、2回繰り返して選択したと判断する(ステップS1401−Yes)。ここでは、ステップS1401の所定の回数を2回とする。
図16に示す例では、各問題の4つの選択肢は、表示部13の画面上の同じ4つの領域P1〜P4に表示される。問題n−1における4つの選択肢と、問題nにおける4つの選択肢とは、表示部13の画面上の同じ位置に表示される。この場合、「表示部の画面上における同じ位置」は、表示部13の画面上の同じ領域を意味する。
また、本明細書では、「表示部の画面上における同じ位置」は、選択された選択肢の2つの位置が、他の選択肢との位置関係において相対的に同じ位置にあることも含む。図16に示す例では、問題n−1における4つの選択肢は、矩形の4隅の位置に配置される。ここで、問題nにおける4つの選択肢は、問題n−1と同様に矩形の対応する4隅に配置されていれば、矩形の寸法又は縦横比率又は表示部の画面上の位置は、問題n−1とは異なっていてもよい。問題n−1及び問題nにおいて、四角形の右上の隅に配置される選択肢が選択されることは、「表示部の画面上における同じ位置」に表示される選択肢が繰り返し選択されたことを意味する。
ユーザが表示部13の画面上における同じ位置に表示される選択肢を繰り返して選択した場合(ステップS1401−Yes)、処理部11の表示態様変更部11eは、ユーザが過去に最も選択しなかった選択肢の位置を取得する(ステップS1403(ステップS401に対応))。
図15に示すように、表示態様変更部11eは、ユーザが過去に選択した選択肢の位置の統計情報に基づいて、ユーザが過去に最も選択しなかった選択肢の位置として、領域P4を取得する。
次に、ステップS1405(ステップS401に対応)において、図16に示すように、表示態様変更部11eは、ユーザが今までの解答において最も選択しなかった選択肢の位置である領域P4に、正解である選択肢「エベレスト」を配置して、問題(n+1)(第2の問題)を作成する。
次に、ステップS1407(ステップS401に対応)において、図16に示すように、表示態様変更部11eは、他の選択肢を、残りの領域P1〜P3にランダムに配置して、表示態様が変更された問題(n+1)(第2の問題)を作成する。そして、問題表示部11aは、問題(n+1)(第2の問題)を表示部13に表示する(ステップS403に対応)。
ユーザが問題を解答する時に、ユーザの知識及び/又は理解度が不十分なために、考えて解答することをあきらめることがある。このような場合、ユーザは、表示部13の画面上の同じ位置の選択肢を繰り返して選択することがあり得る。そこで、本実施形態では、装置10は、ユーザが過去に解答した時に最も選択しなかった選択肢の位置に、正解である選択肢を配置して、問題(n+1)(第2の問題)を作成することができる。
以上が、第4実施形態の説明である。
図17は、第5実施形態の処理を説明する。
第5実施形態では、上述した第1実施形態のステップS401の処理が異なっている。そこで、本実施形態におけるステップS401に対応する処理を、以下に説明する。他の処理は、上述した第1実施形態と同様である。
本実施形態では、表示態様変更部11eは、問題n(第1の問題)における質問の表示態様と、問題n(第1の問題)における複数の選択肢の表示態様とを入れ替えて、問題(n+1)(第2の問題)を作成する。
図17に示す例の問題n(第1の問題)では、質問は、山の写真で示されており、4つの選択肢は、山の名称を文字で示している。
問題(n+1)(第2の問題)では、質問は、山を選択すること文字で示されており、4つの選択肢は、山の写真を示している。
問題n(第1の問題)の4つの選択肢それぞれの山の名称と対応する山の写真が、問題(n+1)(第2の問題)の4つの山の写真に含まれており、第2の問題の内容は、第1の問題と実質的に同じである。
このように、本実施形態では、問題n(第1の問題)における質問の表示態様である写真と、問題n(第1の問題)における複数の選択肢の表示態様である文字とを入れ替えて、問題(n+1)(第2の問題)が作成される。
ユーザの知識及び/又は理解度が十分であれば、第1の問題における質問の表示態様と複数の選択肢の表示態様とを入れ替えて作成された第2の問題に対しても、ユーザにより正解を選択してもらえることが期待できる。
本実施形態では、このような観点から、問題(n+1)(第2の問題)を作成して、解答に対するユーザの自信度を推定する。
以上が、第5実施形態の説明である。
図18は、第6実施形態の処理を説明する。
第6実施形態では、上述した第1実施形態のステップS401の処理が異なっている。そこで、本実施形態におけるステップS401に対応する処理を、以下に説明する。他の処理は、上述した第1実施形態と同様である。
本実施形態では、表示態様変更部11eは、問題n(第1の問題)における複数の選択肢に対して、新たな選択肢を追加して、問題(n+1)(第2の問題)を作成する。
図18に示す例の問題n(第1の問題)では、表示部13の画面上の領域P1〜P4に、4つの選択肢が表示されている。問題(n+1)(第2の問題)では、2つの選択肢が追加されて、表示部13の画面上の領域P1〜P6に、6つの選択肢が表示される。なお、領域P1〜P4に表示される選択肢の配置を、問題nとは異なるように変更して、問題(n+1)を作成してもよい。例えば、第1実施形態と同様の方法を用いて、領域P1〜P4に表示される選択肢を、問題nとは異なるように変更してもよい。
ユーザの知識及び/又は理解度が十分であれば、第1の問題における選択肢の数が増加しても、正解を選択してもらえることが期待できる。
本実施形態では、このような観点から、選択肢が追加された問題(n+1)(第2の問題)を作成して、ユーザの解答に対する自信度を推定する。
上述した実施形態の装置10によれば、問題n(第1の問題)に対するユーザの解答に対する自信レベルが低い時でも、表示態様が変更された第2問題を出題することにより、ユーザが解答する時の自信レベルを推定できる。
本発明では、上述した実施形態の情報処理プログラム、情報処理装置及び情報処理方法は、本発明の趣旨を逸脱しない限り適宜変更が可能である。
例えば、ユーザの解答に対する自信レベル及び自信レベルの信頼度は、ユーザの注視位置以外のユーザ情報に基づいて求めてもよい。ユーザの注視位置以外のユーザ情報として、表示部13の画面上のポインタの位置又はユーザの生体情報が挙げられる。
ユーザが第1の問題に対して解答する時のユーザの表示部13の画面上のポインタの位置は、例えば、マウス、タッチパネル上の触知された位置に基づいて取得される。画面上のポインタの位置は、注視位置と同様に、ユーザが解答を考えている時の精神状態を示すので、自信レベル及び自信レベルの信頼度を求めるユーザ情報として使用される。
また、ユーザが第1の問題に対して解答する時のユーザの生体情報としては、例えば、心拍数、瞳径、頭部姿勢、脳波を用いることができる。心拍数は、心拍数計を用いて取得される。瞳径、視線検出デバイスが有するカメラ等を用いて撮影されたユーザの眼を含む画像に基づいて取得される。頭部姿勢は、カメラを用いて撮影されたユーザの頭部を含む画像に基づいて取得される。生体情報は、注視位置と同様に、ユーザが解答を考えている時の精神状態を示すので、自信レベル及び自信レベルの信頼度を求めるユーザ情報として使用される。
これらのユーザ情報と、表示部13の画面上における問題又は複数の選択肢の表示位置とに基づいて、ユーザの解答に対する予め学習した識別器を用いて、ユーザの解答に対する自信レベルの信頼度を求めることができる。
識別器は、上述したユーザ情報毎に生成してもよいし、注視位置を含む複数のユーザ情報を用いて、識別器を生成してもよい。
また、上述した実施形態では、ステップS313において、ユーザの解答が不正解であり、且つ自信レベルの信頼度が所定の閾値よりも低い場合には、第2の問題の作成及び出題を行っていない。そこで、ステップS313において、ユーザの解答が不正解であり、且つ自信レベルの信頼度が所定の閾値よりも低い場合にも、第2の問題の作成及び出題を行ってもよい。この場合(第1の問題の解答が不正解であり、自信レベルが低い時)、第2の問題に対する解答が正解である場合には、(1)第1の問題に対する解答は、ユーザが誤って選択肢を選択したことが考えられる。または、(2)ユーザの知識及び/又は理解度は不十分であるが、第2の問題に対する解答が偶然に正解であったことが考えられる。そこで、第2の問題に対する解答が正解である場合には、更に、第2の問題の表示態様を、第1の問題とも異なるように変更した第3の問題を作成及び表示して、ユーザの解答を入力してもよい。3回のユーザの正解数が不正解数よりも多い時には、ユーザの知識及び/又は理解度は十分であり、解答に対するユーザの自信レベルは高いと推定される。そうではない時には、ユーザの知識及び/又は理解度は不十分であり、解答に対するユーザの自信レベルは低いと推定される。また、第2の問題に対する解答が不正解である場合には、ユーザの知識及び/又は理解度は十分であり、解答に対するユーザの自信レベルは低いと推定される。
ここで述べられた全ての例及び条件付きの言葉は、読者が、発明者によって寄与された発明及び概念を技術を深めて理解することを助けるための教育的な目的を意図する。ここで述べられた全ての例及び条件付きの言葉は、そのような具体的に述べられた例及び条件に限定されることなく解釈されるべきである。また、明細書のそのような例示の機構は、本発明の優越性及び劣等性を示すこととは関係しない。本発明の実施形態は詳細に説明されているが、その様々な変更、置き換え又は修正が本発明の精神及び範囲を逸脱しない限り行われ得ることが理解されるべきである。
以上の上述した各実施形態に関し、更に以下の付記を開示する。
(付記1)
質問と、質問に対する複数の選択肢とを有する第1の問題を表示部に表示することと、
入力された、ユーザが前記第1の問題に解答する時のユーザの挙動を表す挙動情報に基づいて、ユーザの前記第1の問題に対する第1解答に対する自信レベル及び自信レベルの信頼度を求めることと、
前記自信レベルの信頼度が所定の閾値よりも低い場合に、前記第1の問題の表示態様を変更して第2の問題を作成することと、
前記第2の問題を前記表示部に表示することと、
前記第1の問題に対するユーザの前記第1解答と、入力された前記第2の問題に対するユーザの第2解答とに基づいて、前記第1の問題に対するユーザの前記自信レベルを推定することと、
をプロセッサに実行させる情報処理プログラム。
(付記2)
前記第2の問題を作成することは、
前記自信レベルの信頼度が前記所定の閾値よりも低く、且つユーザの前記第1解答が正解である場合に、前記第1の問題の表示態様を変更して前記第2の問題を作成することを含む付記1に記載の情報処理プログラム。
(付記3)
前記第2の問題を作成することは、
前記第1の問題における前記複数の選択肢の位置を変更して、前記第2の問題を作成することを含む付記1又は2に記載の情報処理プログラム。
(付記4)
前記挙動情報はユーザの注視位置の時間変化であり、
前記自信レベル及び前記自信レベルの信頼度を求めることは、
ユーザが前記第1の問題に対して解答する時のユーザの注視位置の変化と、前記表示部に表示された前記第1の問題の質問又は複数の選択肢の前記表示部の画面上の表示領域とに基づいて、ユーザが前記第1の問題を解答した時のユーザの前記第1解答に対する前記自信レベル及び前記自信レベルの信頼度を求めることを含む付記1〜3の何れか一項に記載の情報処理プログラム。
(付記5)
前記第2の問題を作成することは、
ユーザが前記第1の問題における複数の選択肢それぞれを注視した注視時間に基づいて、前記第1の問題における前記複数の選択肢の配置を変更して、前記第2の問題を作成することを含む付記4に記載の情報処理プログラム。
(付記6)
前記第2の問題を作成することは、
注視時間が最も短い選択肢の位置に、前記複数の選択肢の内の正解である選択肢を配置して、前記第2の問題を作成することを含む付記5に記載の情報処理プログラム。
(付記7)
前記第2の問題を前記表示部に表示することは、
注視時間が最も短い選択肢の注視時間に基づいて、ユーザが前記第1の問題を解答した後に前記第2の問題を前記表示部に表示するまでの待ち時間を決定することを含む付記4〜6の何れか一項に記載の情報処理プログラム。
(付記8)
前記第2の問題を前記表示部に表示することは、
ユーザが前記第1の問題を解答する時のユーザの注視位置の時間変化と、前記表示部に表示された前記第1の問題の前記質問の前記表示部の画面上の表示領域とに基づいて、ユーザが前記第1の問題の前記質問を読んだ既読割合を求め、
前記既読割合に基づいて、ユーザが前記第1の問題を解答した後に前記第2の問題を前記表示部に表示するまでの待ち時間を決定することを含む付記4〜7の何れか一項に記載の情報処理プログラム。
(付記9)
前記第2の問題を作成することは、
連続して出題された問題に対して、前記複数の選択肢の内の前記表示部における同じ位置に表示される選択肢を、ユーザが繰り返して選択することで解答が入力された場合に、
ユーザが過去に選択した選択肢の位置の情報に基づいて、前記複数の選択肢の内の正解である選択肢が配置される位置を決定して、前記第2の問題を作成することを含む付記1〜3の何れか一項に記載の情報処理プログラム。
(付記10)
前記第2の問題を作成することは、
ユーザが過去に解答した時に最も選択しなかった選択肢の位置に、前記複数の選択肢の内の正解である選択肢を配置して、前記第2の問題を作成することを含む付記9に記載の情報処理プログラム。
(付記11)
前記第2の問題を作成することは、
前記第1の問題における前記質問の表示態様と、前記第1の問題における前記複数の選択肢の表示態様とを入れ替えて、前記第2の問題を作成することを含む付記1〜3の何れか一項に記載の情報処理プログラム。
(付記12)
前記第2の問題を作成することは、
前記第1の問題における前記複数の選択肢に対して、新たな選択肢を追加して、前記第2の問題を作成することを含む付記1〜3の何れか一項に記載の情報処理プログラム。
(付記13)
表示部と、
入力部と、
質問と、質問に対する複数の選択肢とを有する第1の問題及び第2の問題を前記表示部に表示させる問題表示部と、
ユーザが前記第1の問題に解答する時のユーザの挙動を表す挙動情報に基づいて、前記入力部により入力されたユーザの前記第1の問題に対する第1解答の自信レベル及び自信レベルの信頼度を求める自信レベル計算部と、
前記自信レベルの信頼度が所定の閾値よりも低い場合に、前記第1の問題の表示態様を変更して前記第2の問題を作成する表示態様変更部と、
前記第1の問題に対するユーザの前記第1解答と、前記入力部により入力されたユーザの前記第2の問題に対する第2解答とに基づいて、前記第1の問題に対するユーザの前記自信レベルを推定する自信レベル推定部と、
を有する処理部と、
を備える情報処理装置。
(付記14)
質問と、質問に対する複数の選択肢とを有する第1の問題を表示部に表示することと、
入力された、ユーザが前記第1の問題に解答する時のユーザの挙動を表す挙動情報に基づいて、ユーザの前記第1の問題に対する第1解答に対する自信レベル及び自信レベルの信頼度を求めることと、
前記自信レベルの信頼度が所定の閾値よりも低い場合に、前記第1の問題の表示態様を変更して第2の問題を作成することと、
前記第2の問題を前記表示部に表示することと、
前記第1の問題に対するユーザの前記第1解答と、入力された前記第2の問題に対するユーザの第2解答とに基づいて、前記第1の問題に対するユーザの前記自信レベルを推定することと、
をプロセッサが実行する情報処理方法。
10 情報処理装置
11 処理部
11a 問題表示部
11b 注視位置検出部
11c 既読割合判定部
11d 自信レベル計算部
11e 表示態様変更部
11f 自信レベル推定部
12 記憶部
12a プログラム
12b 問題データ
12c 解答データ
13 表示部
14 操作部(入力部)
15 視線検出デバイス
16 通信部

Claims (9)

  1. 質問と、質問に対する複数の選択肢とを有する第1の問題を表示部に表示することと、
    入力された、ユーザが前記第1の問題に解答する時のユーザの挙動を表す挙動情報に基づいて、ユーザの前記第1の問題に対する第1解答に対する自信レベル及び自信レベルの信頼度を求めることと、
    前記自信レベルの信頼度が所定の閾値よりも低い場合に、前記第1の問題の表示態様を変更して第2の問題を作成することと、
    前記第2の問題を前記表示部に表示することと、
    前記第1の問題に対するユーザの前記第1解答と、入力された前記第2の問題に対するユーザの第2解答とに基づいて、前記第1の問題に対するユーザの前記自信レベルを推定することと、
    をプロセッサに実行させる情報処理プログラム。
  2. 前記第2の問題を作成することは、
    前記自信レベルの信頼度が前記所定の閾値よりも低く、且つユーザの前記第1解答が正解である場合に、前記第1の問題の表示態様を変更して前記第2の問題を作成することを含む請求項1に記載の情報処理プログラム。
  3. 前記第2の問題を作成することは、
    前記第1の問題における前記複数の選択肢の位置を変更して、前記第2の問題を作成することを含む請求項1又は2に記載の情報処理プログラム。
  4. 前記挙動情報はユーザの注視位置の時間変化であり、
    前記自信レベル及び前記自信レベルの信頼度を求めることは、
    ユーザが前記第1の問題に対して解答する時のユーザの注視位置の変化と、前記表示部に表示された前記第1の問題の質問又は複数の選択肢の前記表示部の画面上の表示領域とに基づいて、ユーザが前記第1の問題を解答した時のユーザの前記第1解答に対する前記自信レベル及び前記自信レベルの信頼度を求めることを含む請求項1〜3の何れか一項に記載の情報処理プログラム。
  5. 前記第2の問題を作成することは、
    ユーザが前記第1の問題における複数の選択肢それぞれを注視した注視時間に基づいて、前記第1の問題における前記複数の選択肢の配置を変更して、前記第2の問題を作成することを含む請求項4に記載の情報処理プログラム。
  6. 前記第2の問題を作成することは、
    前記表示部における同じ位置に表示される前記複数の選択肢の内の一の選択肢を、ユーザが繰り返して選択することで解答が入力された場合に、
    ユーザが過去に選択した選択肢の位置の情報に基づいて、前記複数の選択肢の内の正解である選択肢が配置される位置を決定して、前記第2の問題を作成することを含む請求項1〜3の何れか一項に記載の情報処理プログラム。
  7. 前記第2の問題を作成することは、
    前記第1の問題における前記質問の表示態様と、前記第1の問題における前記複数の選択肢の表示態様とを入れ替えて、前記第2の問題を作成することを含む請求項1〜3の何れか一項に記載の情報処理プログラム。
  8. 表示部と、
    入力部と、
    質問と、質問に対する複数の選択肢とを有する第1の問題及び第2の問題を前記表示部に表示させる問題表示部と、
    ユーザが前記第1の問題に解答する時のユーザの挙動を表す挙動情報に基づいて、前記入力部により入力されたユーザの前記第1の問題に対する第1解答の自信レベル及び自信レベルの信頼度を求める自信レベル計算部と、
    前記自信レベルの信頼度が所定の閾値よりも低い場合に、前記第1の問題の表示態様を変更して前記第2の問題を作成する表示態様変更部と、
    前記第1の問題に対するユーザの前記第1解答と、前記入力部により入力されたユーザの前記第2の問題に対する第2解答とに基づいて、前記第1の問題に対するユーザの前記自信レベルを推定する自信レベル推定部と、
    を有する処理部と、
    を備える情報処理装置。
  9. 質問と、質問に対する複数の選択肢とを有する第1の問題を表示部に表示することと、
    入力された、ユーザが前記第1の問題に解答する時のユーザの挙動を表す挙動情報に基づいて、ユーザの前記第1の問題に対する第1解答に対する自信レベル及び自信レベルの信頼度を求めることと、
    前記自信レベルの信頼度が所定の閾値よりも低い場合に、前記第1の問題の表示態様を変更して第2の問題を作成することと、
    前記第2の問題を前記表示部に表示することと、
    前記第1の問題に対するユーザの前記第1解答と、入力された前記第2の問題に対するユーザの第2解答とに基づいて、前記第1の問題に対するユーザの前記自信レベルを推定することと、
    をプロセッサが実行する情報処理方法。
JP2017108752A 2017-05-31 2017-05-31 ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法 Active JP6957993B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017108752A JP6957993B2 (ja) 2017-05-31 2017-05-31 ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法
US15/989,562 US11176842B2 (en) 2017-05-31 2018-05-25 Information processing apparatus, method and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017108752A JP6957993B2 (ja) 2017-05-31 2017-05-31 ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2018205447A JP2018205447A (ja) 2018-12-27
JP6957993B2 true JP6957993B2 (ja) 2021-11-02

Family

ID=64460611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017108752A Active JP6957993B2 (ja) 2017-05-31 2017-05-31 ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法

Country Status (2)

Country Link
US (1) US11176842B2 (ja)
JP (1) JP6957993B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7099377B2 (ja) * 2019-02-05 2022-07-12 オムロン株式会社 情報処理装置及び情報処理方法
JP7263825B2 (ja) * 2019-02-19 2023-04-25 オムロン株式会社 情報処理装置、情報処理方法、および情報処理プログラム
US11645561B2 (en) * 2019-03-18 2023-05-09 International Business Machines Corporation Question answering system influenced by user behavior and text metadata generation
JP6832410B1 (ja) * 2019-11-11 2021-02-24 株式会社Z会 学習効果推定装置、学習効果推定方法、プログラム
WO2021095571A1 (ja) * 2019-11-11 2021-05-20 株式会社Z会 学習効果推定装置、学習効果推定方法、プログラム
JP6903177B1 (ja) * 2020-01-17 2021-07-14 株式会社Z会 学習効果推定装置、学習効果推定方法、プログラム
JP7404842B2 (ja) * 2019-12-16 2023-12-26 日本電気株式会社 管理装置、管理システム、及び管理方法
US20230099736A1 (en) * 2020-01-31 2023-03-30 Nec Corporation Confirmation device, confirmation system, confirmation method, and recording medium
JP7065927B1 (ja) * 2020-10-29 2022-05-12 株式会社Z会 学力推定用モデル生成装置、学力推定装置、学力推定用モデル生成方法、学力推定方法、プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPP615898A0 (en) * 1998-09-24 1998-10-15 Lewis Cadman Consulting Pty Ltd An apparatus for conducting a test
US20060029920A1 (en) * 2002-04-03 2006-02-09 Bruno James E Method and system for knowledge assessment using confidence-based measurement
US8165518B2 (en) * 2000-10-04 2012-04-24 Knowledge Factor, Inc. Method and system for knowledge assessment using confidence-based measurement
US20040014016A1 (en) * 2001-07-11 2004-01-22 Howard Popeck Evaluation and assessment system
AU2002951608A0 (en) * 2002-09-23 2002-10-10 Lewis Cadman Consulting Pty Ltd A method of delivering a test to a candidate
JP2004152115A (ja) 2002-10-31 2004-05-27 Toshiba Corp 入力修正方法および入力修正支援システム
JP2005141432A (ja) * 2003-11-05 2005-06-02 Kinesics Inc 社員採用支援方法及び社員採用支援システム
JP4064446B2 (ja) * 2005-12-09 2008-03-19 松下電器産業株式会社 情報処理システム、情報処理装置および方法
JP2010049628A (ja) * 2008-08-25 2010-03-04 Sapporo Breweries Ltd 従業員に対する教育用の情報処理装置、情報処理システム及び情報処理方法
EP2334226A4 (en) 2008-10-14 2012-01-18 Univ Ohio COGNITION AND LINGUISTIC TESTING BY EYE TRIAL
US20120208166A1 (en) * 2011-02-16 2012-08-16 Steve Ernst System and Method for Adaptive Knowledge Assessment And Learning
US20120214147A1 (en) * 2011-02-16 2012-08-23 Knowledge Factor, Inc. System and Method for Adaptive Knowledge Assessment And Learning
JP6205767B2 (ja) * 2013-03-13 2017-10-04 カシオ計算機株式会社 学習支援装置、学習支援方法、学習支援プログラム、学習支援システム、およびサーバ装置
US9368042B2 (en) * 2014-02-19 2016-06-14 Pearson Education, Inc. Educational-app engine for representing conceptual understanding using student populations' electronic response latencies
US20150242974A1 (en) * 2014-02-24 2015-08-27 Mindojo Ltd. Adaptive e-learning engine with embedded datagraph structure
US9530329B2 (en) * 2014-04-10 2016-12-27 Laurence RUDOLPH System and method for conducting multi-layer user selectable electronic testing
GB2558196A (en) * 2016-10-26 2018-07-11 Phixos Ltd An assessment system, device and server

Also Published As

Publication number Publication date
JP2018205447A (ja) 2018-12-27
US20180350257A1 (en) 2018-12-06
US11176842B2 (en) 2021-11-16

Similar Documents

Publication Publication Date Title
JP6957993B2 (ja) ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法
US10614303B2 (en) Reliability of gaze tracking data for left and right eye
EP3453316B1 (en) Eye tracking using eyeball center position
JP6056323B2 (ja) 視線検出装置、視線検出用コンピュータプログラム
EP3681371B1 (en) Reliability of gaze tracking data for left and right eye
EP3123943B1 (en) Detection device and detection method
JP5655644B2 (ja) 視線検出装置及び視線検出方法
US10146306B2 (en) Gaze position detection apparatus and gaze position detection method
US20170156585A1 (en) Eye condition determination system
US10642353B2 (en) Non-transitory computer-readable storage medium, information processing apparatus, and information processing method
JP2018197974A (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
US20210401287A1 (en) Evaluation apparatus, evaluation method, and non-transitory storage medium
KR100960269B1 (ko) 눈동자 시선 추정 장치 및 추정 방법
US20210153794A1 (en) Evaluation apparatus, evaluation method, and evaluation program
JP7255203B2 (ja) 評価装置、評価装置の作動方法、及び評価プログラム
US20210386283A1 (en) Display apparatus, display method, and display program
US20210290130A1 (en) Evaluation device, evaluation method, and non-transitory storage medium
US11937928B2 (en) Evaluation apparatus, evaluation method, and evaluation program
US20220079484A1 (en) Evaluation device, evaluation method, and medium
JP6613865B2 (ja) 読書範囲検出装置、読書範囲検出方法及び読書範囲検出用コンピュータプログラム
US20220104744A1 (en) Evaluation device, evaluation method, and medium
US20210298689A1 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP6575353B2 (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP2018120299A (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
JP2017146987A (ja) 視点検出装置および視点検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210920

R150 Certificate of patent or registration of utility model

Ref document number: 6957993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150