JP7418873B2 - 判定装置及びプログラム - Google Patents

判定装置及びプログラム Download PDF

Info

Publication number
JP7418873B2
JP7418873B2 JP2022565510A JP2022565510A JP7418873B2 JP 7418873 B2 JP7418873 B2 JP 7418873B2 JP 2022565510 A JP2022565510 A JP 2022565510A JP 2022565510 A JP2022565510 A JP 2022565510A JP 7418873 B2 JP7418873 B2 JP 7418873B2
Authority
JP
Japan
Prior art keywords
user
unit
learning
learning content
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022565510A
Other languages
English (en)
Other versions
JPWO2022114224A1 (ja
JPWO2022114224A5 (ja
Inventor
司 木村
正行 沼尾
進太郎 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHINHODO INC.
Original Assignee
SHINHODO INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHINHODO INC. filed Critical SHINHODO INC.
Publication of JPWO2022114224A1 publication Critical patent/JPWO2022114224A1/ja
Publication of JPWO2022114224A5 publication Critical patent/JPWO2022114224A5/ja
Priority to JP2023220362A priority Critical patent/JP2024026554A/ja
Application granted granted Critical
Publication of JP7418873B2 publication Critical patent/JP7418873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/052Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance

Description

本発明は、判定装置及びプログラムに関する。
従来より、生体信号を用いて身体の状態を判定する装置が知られている。例えば、失語症患者の発話訓練、言語学習、及び睡眠状態の判定装置に生体信号を組み合わせた技術が知られている。このような技術として、また、例えば、語学では、英語音声の聞き取りによる音素、品詞、英語の難易度、文の長さ、文の構造、及び音声の速度のうち少なくともひとつを脳活動から推定する技術が提案されている(例えば、特許文献1参照)。
特開2019-128533号公報
ところで、上記特許文献1に記載の技術のように、生体信号を語学に用いるものはあるものの、教育用の学習科目に対して生体信号を用いる技術はなかった。そこで、教育において、生体信号から学習科目に対する習熟度を容易に出力することができれば好適である。
本発明は、上記従来の実状に鑑みてなされたものであり、生体信号から学習科目に対する習熟度を容易に出力することが可能な判定装置及びプログラムを提供することを目的とする。
本発明は、所定の学習科目に関するユーザの習熟度を判定する判定装置であって、前記所定の学習科目に関連する視聴覚情報を視聴する前記ユーザについて、視聴中の前記ユーザの生体信号を取得する生体信号取得部と、取得された生体信号に基づいて、前記ユーザの前記学習科目に関する状態変化度合を算出する算出部と、算出された状態変化度合に基づいて、前記ユーザの前記学習科目に関する習熟度を判定する判定部と、判定結果を出力する出力部と、を備える判定装置に関する。
また、前記生体信号取得部は、前記ユーザの生体信号として前記ユーザの脳波を取得する脳波取得部であり、前記算出部は、前記ユーザの状態変化度合として、集中度を算出するのが好ましい。
また、前記生体信号取得部は、前記ユーザの生体信号として皮膚電気活動に関連する電気信号を取得する電気信号取得部であり、前記算出部は、前記ユーザの状態変化度合として、ストレス度を算出するのが好ましい。
また、前記所定の学習科目は、語学であるのが好ましい。
また、判定装置は、判定結果に応じて、前記ユーザに提供される複数の所定の学習コンテンツを取得する学習コンテンツ取得部と、取得された前記学習コンテンツを前記ユーザに提供する動画像提供部と、前記ユーザに提供される複数の前記学習コンテンツのうち、前記ユーザへの適性が最も高い前記学習コンテンツを特定する特定部と、をさらに備え、前記脳波取得部は、提供された前記学習コンテンツを視聴中の前記ユーザの脳波を取得し、前記算出部は、取得された脳波に基づいて、前記ユーザの前記学習コンテンツに対する集中度を算出し、前記特定部は、算出された集中度に基づいて、前記学習コンテンツを特定し、前記出力部は、特定された前記学習コンテンツを識別する情報を出力するのが好ましい。
また、判定装置は、判定結果に応じて、前記ユーザに提供される複数の所定の学習コンテンツを取得する学習コンテンツ取得部と、取得された前記学習コンテンツを前記ユーザに提供する動画像提供部と、前記ユーザに提供される複数の前記学習コンテンツのうち、前記ユーザへの適性が最も高い前記学習コンテンツを特定する特定部と、をさらに備え、前記皮膚電気信号取得部は、提供された前記学習コンテンツを視聴中の前記ユーザの皮膚電気活動に関連する電気信号を取得し、前記算出部は、取得された皮膚電気活動に関連する信号に基づいて、前記ユーザの前記学習コンテンツに対するストレス度を算出し、前記特定部は、算出されたストレス度に基づいて、前記学習コンテンツを特定し、前記出力部は、特定された前記学習コンテンツを識別する情報を出力するのが好ましい。
また、本発明は、所定の学習科目に関するユーザの習熟度を判定する判定装置としてコンピュータを機能させるプログラムであって、前記コンピュータを、前記所定の学習科目に関連する視聴覚情報を視聴する前記ユーザについて、視聴中の前記ユーザの脳波を取得する脳波取得部、取得された脳波に基づいて、前記ユーザの前記学習科目に関する状態変化度合を算出する算出部、算出された状態変化度合に基づいて、前記ユーザの前記学習科目に関する習熟度を判定する判定部、判定結果を出力する出力部、として機能させるプログラムに関する。
本開示によれば、生体信号から学習科目に対する習熟度を容易に出力することが可能な判定装置及びプログラムを提供することができる。
本発明の第1実施形態に係る判定装置を用いた概要を示す概略図である。 第1実施形態の判定装置の構成を示すブロック図である。 第1実施形態の判定装置の脳波と集中度との関係を示すグラフである。 第1実施形態の判定装置の動作の流れを示すフローチャートである。 本発明の第2実施形態に係る判定装置の構成を示すブロック図である。 第2実施形態の判定装置の動作の流れを示すフローチャートである。 本発明の第3実施形態に係る判定装置を用いた概要を示す概略図である。 第3実施形態の判定装置の構成を示すブロック図である。 第3実施形態の判定装置の皮膚電気活動に関連する電気信号とストレス度との関係を示すグラフである。
以下、本発明の各実施形態に係る判定装置1及びプログラムについて、図1から図9を参照して説明する。
まず、各実施形態に係る判定装置1の概要について説明する。
判定装置1は、教育に関する学習科目に関して、ユーザUの習熟度を判定する装置である。また、判定装置1は、教育に関する学習科目に関して、集中力を高めるのに優れたコンテンツをユーザUに推薦可能な装置である。判定装置1は、例えば、学習科目の1つである語学に関して、ユーザUの習熟度を測定する。また、判定装置1は、語学に関する複数の学習コンテンツのうち、ユーザUの集中力を高める効果を期待できる学習コンテンツをユーザUに推薦(提示)可能な装置である。判定装置1は、ユーザUの生体信号を用いて、ユーザUの状態変化度合を判定する。判定装置1は、特に、生体信号の一例として、ユーザUの脳波又は皮膚電気活動に関連する信号を用いて、ユーザUの状態変化度合を判定する。以下の各実施形態では、判定装置1は、ユーザUの習熟度を判定するにあたり、視聴覚情報をユーザUに視聴させ、その脳波又は皮膚電気活動に関連する信号を取得する。また、視聴覚情報は、動画像、静止画像、又は紙ベースのテキスト・写真等を含む。以下の各実施形態では、視聴覚情報は、一例として、動画像を例に説明される。なお、以下の第1実施形態では、判定装置1は、ユーザUの状態変化度合として、ユーザUの集中度を用いる。また、以下の第3実施形態では、判定装置1は、ユーザUの状態変化度合として、ユーザUのストレス度を用いる。
次に、集中力と脳波との関係について説明する。
学術的なエビデンスとして、前頭部シータ波と集中度とは、相関があることが知られている(Ishii et al., 1999;DOI: 10.1097/00001756-199903170-00003)。以下の実施形態では、語学学習への集中度として、ユーザUの前頭部シータ波を指標とする。ここで、シータ波は、高速フーリエ変換等の周波数解析によって得られる4-7Hz帯域の脳波活動である。また、以下の実施形態では、所定の動画像の視聴中及びその前後における、ユーザUのシータ波を測定することにより、集中度を算出する。
[第1実施形態]
次に、本発明の第1実施形態に係る判定装置1について、図1から図4を参照して説明する。
判定装置1は、所定の学習科目に関するユーザUの習熟度を判定する装置である。判定装置1は、図1に示すように、所定の動画像をユーザUに対して提供する。また、判定装置1は、提供された動画像を視聴するユーザUの脳波を取得することにより、ユーザUの習熟度を判定する。本実施形態において、所定の学習科目は、一例として、語学を用いて説明される。判定装置1は、図2に示すように、動画像格納部11と、動画像提供部12と、脳波取得部13と、算出部14と、判定情報格納部15と、判定部16と、出力部17と、を備える。
動画像格納部11は、例えば、ハードディスク等の記録媒体である。動画像格納部11は、ユーザUに提供される動画像を格納する。動画像格納部11は、例えば、学習科目に関する動画像を格納する。具体的には、動画像格納部11は、対象となる語学を用いた、所定の自己紹介動画を格納する。
動画像提供部12は、例えば、CPUが動作することにより実現される。動画像提供部12は、ユーザUに対して、学習科目に関する動画像を視聴可能に提供する。動画像提供部12は、動画像格納部11に格納されている動画像を取得する。動画像提供部12は、取得した動画像をユーザUに対して提供する。動画像提供部12は、例えば、図1に示すように、ディスプレイ101等に動画像を表示することにより、ユーザUに対して、視聴可能な状態で動画像を提供する。
脳波取得部13は、例えば、CPUが動作することにより実現される。脳波取得部13は、所定の学習科目に関する視聴覚情報を視聴するユーザについて、視聴中のユーザの生体信号を取得する生体信号取得部(図示せず)の一例である。脳波取得部13は、提供された動画像を視聴するユーザUについて、視聴中のユーザUの脳波を取得する。脳波取得部13は、例えば、図1に示すように、ユーザUの頭部に設置される乾式電極脳波計102から得られる脳波を取得する。本実施形態において、脳波取得部13は、例えば、動画像の視聴中及び動画像の視聴前後の脳波を取得する。
算出部14は、例えば、CPUが動作することにより実現される。算出部14は、取得された生体信号に基づいて、ユーザUの学習科目に対する状態変化度合を算出する。本実施形態において、算出部14は、取得された脳波に基づいて、ユーザUの学習科目に関する集中度を算出する。算出部14は、例えば、動画視聴中及び視聴前後の脳波に基づいてシータ波の差分を算出することにより、ユーザUの集中度を算出する。具体的には、動画視聴中及び動画視聴後の脳波について、動画視聴前の脳波との差分を算出することにより、脳波を算出する。算出部14は、例えば、動画像の視聴中及び動画像の視聴前後の所定期間の脳波から脳波の差分を算出する。
判定情報格納部15は、例えば、ハードディスク等の記録媒体である。判定情報格納部15は、ユーザUの語学レベルを判定する基準について、判定情報として格納する。判定情報格納部15は、例えば、語学レベルについて、上級者又は初級者と判定するレベルの指標を判定情報として格納する。判定情報格納部15は、例えば、シータ波の上限値及び下限値を用いて、判定する指標を判定情報として格納する。
判定部16は、例えば、CPUが動作することにより実現される。判定部16は、算出された集中度に基づいて、ユーザUの学習科目に関する習熟度を判定する。判定部16は、例えば、図3に示すように、算出部14によって算出されたユーザUのシータ波の差分を用いて、ユーザUの習熟度を判定する。判定部16は、例えば、習熟度として、上級及び初級のいずれかを判定する。判定部16は、例えば、判定情報を用いて、いずれの領域にシータ波が含まれているかによって、習熟度(上級者又は初級者)を判定する。
出力部17は、例えば、CPUが動作することにより実現される。出力部17は、判定結果を出力する。出力部17は、例えば、ディスプレイ等の表示装置に判定結果を出力する。また、出力部17は、プリンタ等の印刷装置に判定結果を出力する。
次に、判定装置1の動作について、図4を参照して説明する。
まず、動画像提供部12は、ユーザUに提供する動画を視聴可能に提供する(ステップS1)。次いで、脳波取得部13は、ユーザUの脳波を取得する(ステップS2)。
次いで、算出部14は、集中度としてシータ波の差分を算出する(ステップS3)。次いで、判定部16は、集中度を用いてユーザUの習熟度を判定する(ステップS4)。集中度が高い場合(ステップS4:YES)、処理は、ステップS5に進む。一方、集中度が低い場合(ステップS4:NO)、処理は、ステップS7に進む。
ステップS5において、判定部16は、ユーザUを上級者と判定する。次いで、出力部17は、判定結果を出力する(ステップS6)。これにより、本フローによる処理は、終了する。
ステップS7において、判定部16は、ユーザUを初級者と判定する。次いで、処理は、ステップS6に進む。
次に、プログラムについて説明する。
判定装置1に含まれる各構成は、ハードウェア、ソフトウェア又はこれらの組み合わせによりそれぞれ実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、表示プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上、本実施形態に係る判定装置1及びプログラムによれば、以下の効果を奏する。
(1)所定の学習科目に関するユーザUの習熟度を判定する判定装置1であって、所定の学習科目に関する視聴覚情報を視聴するユーザUについて、視聴中のユーザUの脳波を取得する脳波取得部13と、取得された脳波に基づいて、ユーザUの学習科目に関する集中度を算出する算出部14と、算出された集中度に基づいて、ユーザUの学習科目に関する習熟度を判定する判定部16と、判定結果を出力する出力部17と、を備える。これにより、生体信号から学習科目に対する習熟度を容易に出力することができる。例えば、習熟度を容易に可視化することができるので、ユーザUに適した学習内容を策定することが可能になる。
[第2実施形態]
次に、本発明の第2実施形態に係る判定装置1及びプログラムについて説明する。第2実施形態の説明にあたって、前述の実施形態と同一の構成要件については同一符号を付し、その説明を省略もしくは簡略化する。
第2実施形態に係る判定装置1及びプログラムは、第1実施形態で判定されたユーザUの習熟度に応じて、ユーザUの学習に供される学習コンテンツを特定する。例えば、判定装置1は、初級者であるユーザUに対して、初級者に対応する動画である学習コンテンツのうち、より初級者にとって興味のある学習コンテンツを特定する。判定装置1は、例えば、サッカーに興味のあるユーザUに対して、サッカーを含む学習コンテンツを特定する。
第2実施形態に係る判定装置1は、コンテンツ格納部18と、学習コンテンツ取得部19と、特定部20と、をさらに備える点で、第1実施形態と異なる。また、第2実施形態に係る判定装置1は、動画像提供部12、脳波取得部13、算出部14、判定部16、及び出力部17の動作が第1実施形態と異なる。
コンテンツ格納部18は、例えば、ハードディスク等の記録媒体である。コンテンツ格納部18は、複数の学習コンテンツを動画像として格納する。また、コンテンツ格納部18は、複数の学習コンテンツとして、複数のユーザUのそれぞれの好みに応じたコンテンツを格納する。コンテンツ格納部18は、例えば、サッカーに興味のあるユーザUに対して提供可能な、サッカーの紹介を語学で説明した学習コンテンツを格納する。
学習コンテンツ取得部19は、例えば、CPUが動作することにより実現される。学習コンテンツ取得部19は、判定結果に応じて、ユーザUに提供される複数の所定の学習コンテンツを取得する。コンテンツ取得部は、例えば、ユーザUの習熟度に応じた複数の学習コンテンツを取得する。
特定部20は、例えば、CPUが動作することにより実現される。特定部20は、ユーザUに提供される複数の学習コンテンツのうち、ユーザUへの適性が最も高い学習コンテンツを特定する。特定部20は、例えば、学習コンテンツの視聴中のシータ波について、最も高いシータ波の差分を得られた学習コンテンツについて、ユーザUへの適正が最も高い学習コンテンツとして特定する。特に、特定部20は、以下の算出部において算出された集中度に基づいて、学習コンテンツを特定する。特定部20は、例えば、ユーザUによって最も高い集中度を示された学習コンテンツについて、ユーザUに適した学習コンテンツとして特定する。
動画像提供部12は、取得された学習コンテンツをユーザUに提供する。動画像提供部12は、例えば、取得された複数の学習コンテンツを順次視聴可能にユーザUに提供する。
脳波取得部13は、提供された学習コンテンツを視聴中のユーザUの脳波を取得する。脳波取得部13は、複数の学習コンテンツごとに、ユーザUの脳波を取得する。
算出部14は、取得された脳波に基づいて、ユーザUの学習コンテンツに対する集中度を算出する。算出部14は、複数の学習コンテンツごとに、ユーザUの集中度を算出する。本実施形態において、算出部14は、複数の学習コンテンツごとに、ユーザUの集中度の度合いを算出する。
出力部17は、特定された学習コンテンツを識別する情報を出力する。出力部17は、例えば、ディスプレイ等の表示装置に、特定された学習コンテンツを識別する情報(動画名等)を表示する。
次いで、判定装置1の動作につい、図6を参照して説明する。
まず、学習コンテンツ取得部19は、複数の学習コンテンツを取得する(ステップS11)。次いで、動画像提供部12は、取得した学習コンテンツについて、視聴可能な状態でユーザUに提供する(ステップS12)。次いで、脳波取得部13は、学習コンテンツを視聴中のユーザUの脳波を取得する(ステップS13)。次いで、算出部14は、取得した脳波に基づいて、ユーザUの集中度を算出する(ステップS14)。
次いで、次の学習コンテンツが再生されるか否かが判断される(ステップS15)。次の学習コンテンツがない場合(ステップS15:NO)、処理は、ステップS16に進む。一方、次の学習コンテンツがある場合(ステップS15:YES)、処理は、ステップS3に戻る。
ステップS16において、特定部20は、ユーザUに対して適したコンテンツを特定する。次いで、出力部17は、特定されたコンテンツを出力する(ステップS17)。
以上、本実施形態に係る判定装置1及びプログラムによれば、以下の効果を奏する。
(2)判定装置1は、判定結果に応じて、ユーザUに提供される複数の所定の学習コンテンツを取得する学習コンテンツ取得部19と、取得された学習コンテンツをユーザUに提供する動画像提供部12と、ユーザUに提供される複数の学習コンテンツのうち、ユーザUへの適性が最も高い学習コンテンツを特定する特定部20と、をさらに備え、脳波取得部13は、提供された学習コンテンツを視聴中のユーザUの脳波を取得し、算出部14は、取得された脳波に基づいて、ユーザUの学習コンテンツに対する集中度を算出し、特定部20は、算出された集中度に基づいて、学習コンテンツを特定し、出力部17は、特定された学習コンテンツを識別する情報を出力する。これにより、より学習効果を望むことができる学習コンテンツを特定することができる。したがって、ユーザUの習熟度をより高めることができる。
[第3実施形態]
次に、本発明の第3実施形態に係る判定装置1及びプログラムについて、図7から図9を参照して説明する。第3実施形態の説明にあたって、前述の実施形態と同一の構成要件については同一符号を付し、その説明を省略もしくは簡略化する。
第3実施形態に係る判定装置1及びプログラムは、第1実施形態及び第2実施形態において生体信号として脳波を用いたのに代えて、皮膚電気活動に関連する電気信号(以下、皮膚電気信号ともいう)を用いる。皮膚電気活動に関連する電気信号は、例えば、皮膚抵抗、皮膚インピーダンス、又は皮膚電位が挙げられる。第3実施形態に係る判定装置1は、図7に示すように、ユーザUの腕部から皮膚電気信号を取得する。本実施形態において、判定装置1及びプログラムは、一例として、皮膚電気信号から皮膚コンダクタンス水準(SCL)を算出して判定に用いる。第3実施形態に係る判定装置1は、皮膚電気活動に関連する電気信号を用いて、ユーザUの学習科目に関するストレス度を算出する。また、第3実施形態に係る判定装置1は、算出されたストレス度を用いて、ユーザUの学習科目に関する習熟度を算出する。
第3実施形態に係る判定装置1及びプログラムは、図8に示すように、脳波取得部13に代えて、皮膚電気信号取得部21を備える点で、第1及び第2実施形態と異なる。また、第3実施形態に係る判定装置1及びプログラムは、算出部14が、時間ごとの皮膚電気信号の差分値を算出する点で第1及び第2実施形態と異なる。また、第3実施形態に係る判定装置1及びプログラムは、判定情報格納部15が、語学レベルについて、上級者又は初級者と判定するレベルの指標として、皮膚電気信号(皮膚コンダクタンス水準)の時間ごとの差分値を判定する指標を判定情報として格納する点で、第2及び第3実施形態と異なる。また、第3実施形態に係る判定装置1及びプログラムは、判定部16が、皮膚電気信号(皮膚コンダクタンス水準)の差分を用いて、ユーザUの習熟度を算出する点で第2及び第3実施形態と異なる。
皮膚電気信号取得部21は、例えば、CPUが動作することにより実現される。皮膚電気信号取得部21は、所定の学習科目に関する視聴覚情報を視聴するユーザについて、視聴中のユーザの生体信号を取得する生体信号取得部(図示せず)の一例である。皮膚電気信号取得部21は、提供された動画像を視聴するユーザUについて、視聴中のユーザUの皮膚電気信号に関連する電気信号を取得する。皮膚電気信号取得部21は、例えば、図7に示すように、ユーザUの腕部に巻き回しされる皮膚電気活動測定計103(例えば、リストウォッチ(リストバンド)型測定器(図示せず))から得られる皮膚電気活動に関連する電気信号を取得する。本実施形態において、皮膚電気信号取得部21は、例えば、動画像の視聴中及び動画像の視聴前後の皮膚電気信号を取得する。
算出部14は、例えば、ローパスフィルタ(図示せず)を通した皮膚電気信号の皮膚コンダクタンス水準について、伝導率の平均値(以下、単に平均値ともいう)をユーザUのストレス度として算出する。算出部14は、例えば、動画像の視聴中及び動画像の視聴前後の所定期間の皮膚電気信号から伝導率の平均値をユーザUのストレス度として算出する。
判定部16は、例えば、図9に示すように、算出部14によって算出されたユーザUの平均値の差分を用いて、ユーザUの習熟度を判定する。判定部16は、例えば、習熟度として、上級及び初級のいずれかを判定する。判定部16は、例えば、判定情報を用いて、平均値の差分値(ストレス度の変化)に応じて習熟度(上級者又は初級者)を判定する。判定部16は、例えば、図9を例として、動画像の視聴前から視聴後にかけて、平均値が上昇してる場合に初級者と判定する。すなわち、判定部16は、平均値の差分値が正である場合(ストレス度が上昇している場合)に、初級者と判定する。また、判定部16は、例えば、動画像の視聴前から視聴後にかけて、平均値が下降している場合に上級者と判定する。すなわち、判定部16は、平均値の差分値が負である場合(ストレス度が下降している場合)に、上級者と判定する。
以上、本実施形態に係る判定装置1及びプログラムによれば、以下の効果を奏する。
(3)生体信号取得部は、ユーザの生体信号として皮膚電気活動に関連する電気信号を取得する電気信号取得部である。脳波を取得する場合に比べ、皮膚電気活動測定計(リストバンド型測定器)103を用いることができるので、生体信号を容易に取得することができる。
以上、本発明の判定装置及びプログラムの好ましい各実施形態につき説明したが、本発明は、上述の実施形態に制限されるものではなく、適宜変更が可能である。
例えば、上記実施形態において、判定装置1は、ユーザUの学習状況を取得する学習状況取得部(図示せず)をさらに備えてもよい。学習状況取得部は、ユーザUのテストの点数等を取得してもよい。そして、判定部16は、取得した学習状況に応じた集中度の推移を特定することにより、習熟度に関する判定情報を予め生成するようにしてもよい。また、学習状況取得部は、ユーザUの自己紹介等を含む情報を学習状況として取得してもよい。この場合、学習コンテンツ取得部19は、学習状況に含まれるユーザUの興味に対応する学習コンテンツを取得するとともに、ユーザUに視聴可能に提供してもよい。これにより、学習コンテンツ取得部19が取得する学習コンテンツの数を少なくすることができ、ユーザUが視聴する学習コンテンツの数を減らすことができる。したがって、学習コンテンツの特定を効率化することができる。
また、上記実施形態において、脳波取得部13は、動画視聴中又は動画視聴直後の脳波のみを取得するようにしてもよい。算出部14は、動画視聴前との差分ではなく、仮に動画視聴前のシータ波のレベルを0として、シータ波の差分を算出してもよい。具体的には、算出部14は、動画視聴中のシータ波のレベル又は動画視聴直後のシータ波のレベルをシータ波の差分として算出してもよい。
また、上記実施形態において、生体信号は、脳波に限定されず、脈動、心電図等であってもよい。また、上記実施形態において、学習科目は、語学に限定されず、一般的に「学習」と呼ばれる他の科目であってもよい。
また、第3実施形態において、ローパスフィルタを通した皮膚コンダクタンス水準を用いる点を例示したが、これに制限されない。算出部は、バンドパスフィルタ又はハイパスフィルタを用いて判定用の信号を算出してもよい。
また、上記実施形態において、脳波及び皮膚電位の両者を同時に用いて習熟度を判定してもよい。また、第2実施形態において、第3実施形態のストレス度を用いてストレスの少ない学習コンテンツを特定するようにしてもよい。具体的には、特定部20は、算出されたストレス度に基づいて、学習コンテンツを特定してもよい。
1 判定装置
12 動画像提供部
13 脳波取得部
14 算出部
16 判定部
17 出力部
19 学習コンテンツ取得部
20 特定部
U ユーザ

Claims (9)

  1. 所定の学習科目に関するユーザの習熟度を判定する判定装置であって、
    前記所定の学習科目に関する視聴覚情報を視聴する前記ユーザについて、視聴中の前記ユーザの生体信号を取得する生体信号取得部と、
    取得された生体信号に基づいて、前記ユーザの前記学習科目に関する状態変化度合を算出する算出部と、
    算出された状態変化度合に基づいて、前記ユーザの前記学習科目に関する習熟度を判定する判定部と、
    判定結果を出力する出力部と、
    を備え、
    前記生体信号取得部は、前記ユーザの生体信号として前記ユーザの脳波を取得する脳波取得部であり、
    前記脳波は、シータ波であり、
    前記算出部は、前記ユーザの状態変化度合として、集中度を算出し、
    前記算出部は、視聴覚情報視聴中及び視聴前後の脳波に基づいてシータ波の差分を算出することにより集中度を算出する判定装置。
  2. 前記視聴覚情報は動画である請求項1に記載の判定装置。
  3. 前記生体信号取得部は、前記ユーザの生体信号として前記脳波に加えて皮膚電気活動に関連する電気信号を取得する皮膚電気信号取得部であり、
    前記算出部は、前記ユーザの状態変化度合として、ストレス度を算出する請求項1に記載の判定装置。
  4. 前記所定の学習科目は、語学である請求項1から3のいずれかに記載の判定装置。
  5. 判定結果に応じて、前記ユーザに提供される複数の所定の学習コンテンツを取得する学習コンテンツ取得部と、
    取得された前記学習コンテンツを前記ユーザに提供する動画像提供部と、
    前記ユーザに提供される複数の前記学習コンテンツのうち、前記ユーザへの適性が最も高い前記学習コンテンツを特定する特定部と、
    をさらに備え、
    前記脳波取得部は、提供された前記学習コンテンツを視聴中の前記ユーザの脳波を取得し、
    前記算出部は、取得された脳波に基づいて、前記ユーザの前記学習コンテンツに対する集中度を算出し、
    前記特定部は、算出された集中度に基づいて、前記学習コンテンツを特定し、
    前記出力部は、特定された前記学習コンテンツを識別する情報を出力する請求項1に記載の判定装置。
  6. 判定結果に応じて、前記ユーザに提供される複数の所定の学習コンテンツを取得する学習コンテンツ取得部と、
    取得された前記学習コンテンツを前記ユーザに提供する動画像提供部と、
    前記ユーザに提供される複数の前記学習コンテンツのうち、前記ユーザへの適性が最も高い前記学習コンテンツを特定する特定部と、
    をさらに備え、
    前記皮膚電気信号取得部は、提供された前記学習コンテンツを視聴中の前記ユーザの皮膚電気活動に関連する電気信号を取得し、
    前記算出部は、取得された皮膚電気活動に関連する信号に基づいて、前記ユーザの前記学習コンテンツに対するストレス度を算出し、
    前記特定部は、算出されたストレス度に基づいて、前記学習コンテンツを特定し、
    前記出力部は、特定された前記学習コンテンツを識別する情報を出力する請求項3に記載の判定装置。
  7. 所定の学習科目に関するユーザの習熟度を判定する判定装置としてコンピュータを機能させるプログラムであって、
    前記コンピュータを、
    前記所定の学習科目に関する視聴覚情報を視聴する前記ユーザについて、視聴中の前記ユーザの脳波のシータ波を生体信号として取得する生体信号取得部、
    取得された生体信号に基づいて、前記ユーザの前記学習科目に関する状態変化度合を算出する算出部、
    算出された状態変化度合に基づいて、前記ユーザの前記学習科目に関する習熟度を判定する判定部、
    判定結果を出力する出力部、
    として機能させ、
    前記算出部は、前記ユーザの状態変化度合として、集中度を算出し、
    前記算出部は、視聴覚情報視聴中及び視聴前後の脳波に基づいてシータ波の差分を算出することにより集中度を算出するプログラム。
  8. 前記視聴覚情報は動画である請求項7に記載のプログラム。
  9. 前記生体信号取得部は、前記生体信号として前記シータ波に加えて皮膚電気活動に関連する電気信号を取得する、請求項7または8に記載のプログラム。
JP2022565510A 2020-11-30 2021-11-30 判定装置及びプログラム Active JP7418873B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023220362A JP2024026554A (ja) 2020-11-30 2023-12-27 判定装置及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020197916 2020-11-30
JP2020197916 2020-11-30
PCT/JP2021/043888 WO2022114224A1 (ja) 2020-11-30 2021-11-30 判定装置及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023220362A Division JP2024026554A (ja) 2020-11-30 2023-12-27 判定装置及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2022114224A1 JPWO2022114224A1 (ja) 2022-06-02
JPWO2022114224A5 JPWO2022114224A5 (ja) 2023-06-22
JP7418873B2 true JP7418873B2 (ja) 2024-01-22

Family

ID=81755631

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022565510A Active JP7418873B2 (ja) 2020-11-30 2021-11-30 判定装置及びプログラム
JP2023220362A Pending JP2024026554A (ja) 2020-11-30 2023-12-27 判定装置及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023220362A Pending JP2024026554A (ja) 2020-11-30 2023-12-27 判定装置及びプログラム

Country Status (2)

Country Link
JP (2) JP7418873B2 (ja)
WO (1) WO2022114224A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229948A (ja) 2003-01-31 2004-08-19 Hitachi Ltd 学習時状況判断プログラム及びユーザ状況判断システム
JP2005055659A (ja) 2003-08-04 2005-03-03 Seiko Epson Corp 学習支援装置、学習支援システム、学習支援方法およびプログラム
JP2007130454A (ja) 2005-10-14 2007-05-31 Mitsubishi Chemicals Corp 移動体搭乗者の心身状態調整装置及び心身状態調整装置の制御方法
US20180113509A1 (en) 2015-05-12 2018-04-26 Samsung Electronics Co., Ltd. Method and device for providing content
JP2018124483A (ja) 2017-02-02 2018-08-09 日本電信電話株式会社 学習支援システム、学習支援装置および学習支援方法
JP2019215438A (ja) 2018-06-12 2019-12-19 日本電信電話株式会社 分析システム及び分析方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229948A (ja) 2003-01-31 2004-08-19 Hitachi Ltd 学習時状況判断プログラム及びユーザ状況判断システム
JP2005055659A (ja) 2003-08-04 2005-03-03 Seiko Epson Corp 学習支援装置、学習支援システム、学習支援方法およびプログラム
JP2007130454A (ja) 2005-10-14 2007-05-31 Mitsubishi Chemicals Corp 移動体搭乗者の心身状態調整装置及び心身状態調整装置の制御方法
US20180113509A1 (en) 2015-05-12 2018-04-26 Samsung Electronics Co., Ltd. Method and device for providing content
JP2018124483A (ja) 2017-02-02 2018-08-09 日本電信電話株式会社 学習支援システム、学習支援装置および学習支援方法
JP2019215438A (ja) 2018-06-12 2019-12-19 日本電信電話株式会社 分析システム及び分析方法

Also Published As

Publication number Publication date
WO2022114224A1 (ja) 2022-06-02
JP2024026554A (ja) 2024-02-28
JPWO2022114224A1 (ja) 2022-06-02

Similar Documents

Publication Publication Date Title
Bulagang et al. A review of recent approaches for emotion classification using electrocardiography and electrodermography signals
KR101535432B1 (ko) 콘텐츠 평가 시스템 및 이를 이용한 콘텐츠 평가 방법
Aigrain et al. Multimodal stress detection from multiple assessments
Larsson et al. Detection of saccades and postsaccadic oscillations in the presence of smooth pursuit
Corey et al. A comparison of the nasal cross-sectional areas and volumes obtained with acoustic rhinometry and magnetic resonance imaging
Perry et al. Using MRI for assessing velopharyngeal structures and function
US20190180636A1 (en) Comprehension-level calculation device and comprehension-level calculation method
US11301775B2 (en) Data annotation method and apparatus for enhanced machine learning
Martens et al. Prevalence and characteristics of positional nystagmus in normal subjects
Perry et al. Velopharyngeal structural and functional assessment of speech in young children using dynamic magnetic resonance imaging
US11417045B2 (en) Dialog-based testing using avatar virtual assistant
JP2015229040A (ja) 感情分析システム、感情分析方法および感情分析プログラム
US20130053720A1 (en) Information processor and processing method, program and recording media
Yiu et al. Quantitative high-speed laryngoscopic analysis of vocal fold vibration in fatigued voice of young karaoke singers
Alshehri et al. An exploratory study of detecting emotion states using eye-tracking technology
KR102183435B1 (ko) 가상현실 및 바이오피드백을 이용하여 사용자의 스트레스를 저감시키는 방법 및 시스템
JP7418873B2 (ja) 判定装置及びプログラム
Boutros et al. Evoked potentials investigations of deficit versus nondeficit schizophrenia: EEG-MEG preliminary data
Bhatia et al. Two-dimensional assessment of the nasal valve area cannot predict minimum cross-sectional area or airflow resistance
Nalborczyk et al. Dissociating facial electromyographic correlates of visual and verbal induced rumination
KR20210028200A (ko) 아동의 신경발달 장애 위험을 평가하는 방법
Perry et al. Instrumental assessment in cleft palate care
Naveen Kumar et al. A Real Time Human Emotion Recognition System Using Respiration Parameters and ECG
Watterson et al. The Reliability of Visual Ratings of Velopharyngeal Physiology for Speech
JP6151573B2 (ja) 視聴状態推定装置及びそのプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230508

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230508

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230508

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R150 Certificate of patent or registration of utility model

Ref document number: 7418873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150