JP6469242B2 - コンテンツを参照するユーザに対して提示する情報を制御するシステム及び方法 - Google Patents
コンテンツを参照するユーザに対して提示する情報を制御するシステム及び方法 Download PDFInfo
- Publication number
- JP6469242B2 JP6469242B2 JP2017544121A JP2017544121A JP6469242B2 JP 6469242 B2 JP6469242 B2 JP 6469242B2 JP 2017544121 A JP2017544121 A JP 2017544121A JP 2017544121 A JP2017544121 A JP 2017544121A JP 6469242 B2 JP6469242 B2 JP 6469242B2
- Authority
- JP
- Japan
- Prior art keywords
- understanding
- information
- content
- user
- difficulty
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16B—BIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
- G16B40/00—ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
- G16B40/20—Supervised data analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4058—Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
- A61B5/4064—Evaluating the brain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16B—BIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
- G16B99/00—Subject matter not provided for in other groups of this subclass
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/20—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0075—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
- A61B5/1455—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
- A61B5/14551—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
- A61B5/14553—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases specially adapted for cerebral tissue
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Neurology (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Evolutionary Biology (AREA)
- Biotechnology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Psychology (AREA)
- Neurosurgery (AREA)
- Physiology (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Bioethics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Electrically Operated Instructional Devices (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、コンテンツを参照するユーザに対して提示する情報を制御するシステム及び方法に関する。
近年、脳を可視化する技術の発展につれて、脳に対する生理学的な知見が充実しただけでなく、脳計測信号から人間の状態を推測することが行われている。
脳活動を非侵襲的に計測する手法としては、脳波(Electroencephalogram)の計測や、機能的核磁気共鳴画像法(fMRI:functional Magnetic Resonance Imaging)や、脳磁図法(Magnetoencephalography)、近赤外光計測法(NIRS:Near−InfraRed Spectroscopy)等がある。
本技術分野の背景技術として、特開2011−150408号公報(特許文献1)がある。この公報には、「機械を用いた作業場において、操作者の生体計測信号からの内部状態(視覚的注意・作業記憶・スキル習熟度など)を機械学習のアルゴリズムを適用して推定する。そして、ヒューマンエラーの起こりやすい状態を予測・検出し、過失の危険度が高い状態にあると推定される場合に、視覚・聴覚・触覚のいずれか若しくはそれらを組み合わせで操作者にフィードバックすることにより過失を事前に防ぐ。」と記載されている(要約参照)。
特許文献1に記載の技術には、ユーザの生体計測信号から内部状態を推定する方法が記載されているが、当該内部状態に至った原因を特定することや、当該内部状態を改善するための制御を行うことはできない。
つまり、特許文献1に記載の技術は、提示された情報を参照するユーザの生体計測信号から当該ユーザの当該情報に対する理解度を推定することができるが、当該理解度が低い状態において、当該ユーザが当該情報を理解できない原因を特定することができない。ひいては、特許文献1に記載の技術は、理解していない原因に応じた情報を提示することはできない。
また、例えば、提示された情報のうちユーザが理解できなかった内容、及び当該ユーザの理解度が低い場合における理解できない原因を、当該ユーザ自身が特定することは難しい場合が多い。そこで、本発明の一態様は、提示された情報に対するユーザの客観的な理解度、及び当該情報を理解できない場合の原因を特定し、当該理解度と当該原因とに応じた情報を提示する。
本発明の一態様は以下の構成を採用する。複数の要素からなるコンテンツを参照するユーザに対して提示する情報を制御する、システムであって、プロセッサと、記憶装置と、出力装置と、を含み、前記記憶装置は、前記コンテンツと、前記複数の要素それぞれの難易度を示す難易度情報と、前記ユーザが前記コンテンツを理解できない原因を示す理解タイプそれぞれに対応する提示情報と、を保持し、前記プロセッサは、前記コンテンツを前記出力装置に出力し、前記コンテンツに含まれる要素それぞれが前記出力装置に出力された時刻における前記ユーザの生体情報を取得し、前記取得した生体情報それぞれに基づいて、前記コンテンツに含まれる要素それぞれに対する前記ユーザの理解度を算出し、前記算出した理解度に基づいて、前記ユーザが前記コンテンツを理解していないと判定した場合、前記算出した理解度、及び理解度が第1閾値以下である要素の前記難易度情報が示す難易度に基づいて、理解タイプを決定し、前記決定した理解タイプに対応する提示情報を前記出力装置に出力する、システム。
本発明の一態様によれば、提示された情報に対するユーザの客観的な理解度、及び当該情報を理解できなかった場合における原因を特定し、当該理解度と当該原因とに応じた情報を提示することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本実施形態は、対話システムを説明する。対話システムは、ユーザに情報を提示し、当該情報を参照したユーザの生体情報から当該ユーザの当該情報に対する理解度を算出する。対話システムは、算出した理解度と提示した情報の難易度とを照合することにより、当該ユーザが当該情報を理解できない原因を示す理解タイプを特定し、理解度及び理解タイプに応じて次に提示する情報を制御する。
図1は、対話システムの構成例を示す。対話システム101は、例えば、対話装置102、タッチパネル103、及び生体情報計測器104を含む。対話装置102は、例えば、プロセッサ(CPU)121、補助記憶装置105、メモリ106、入出力インタフェース122、及び通信インタフェース123を含む計算機によって構成される。
プロセッサ121は、メモリ106に格納されたプログラムを実行する。メモリ106は、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサ121が実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。
補助記憶装置105は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置であり、プロセッサ121が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。
入出力インタフェース122は、タッチパネル103などが接続され、オペレータ等からの入力を受け、プログラムの実行結果をオペレータ等が視認可能な形式で出力するインタフェースである。タッチパネル103は、ユーザからの文字入力及び音声入力を受け付け、文字情報及び音声情報を出力する。入出力インタフェース122には、キーボード、マウス、及びマイク等の入力装置、並びにディスプレイ装置、プリンタ、及びスピーカ等の出力装置が接続されてもよい。
通信インタフェース123は、所定のプロトコルに従って、他の装置との通信を制御するネットワークインタフェース装置である。また、通信インタフェース123は、例えば、USB等のシリアルインタフェースを含む。通信インタフェース123には、例えば、ユーザの生体情報を計測する生体情報計測器104が接続される。近赤外分光法により脳機能の一例である脳血液量変化を計測する機器、は生体情報計測器104の一例である。また、生体情報計測器104は、例えば、磁場計測等の別の計測法により脳機能情報を取得してもよい。
プロセッサ121が実行するプログラムは、リムーバブルメディア(CD−ROM、フラッシュメモリなど)又はネットワークを介して対話装置102に提供され、非一時的記憶媒体である不揮発性の補助記憶装置105に格納されてもよい。このため、対話装置102は、リムーバブルメディアからデータを読み込むインタフェースを有するとよい。
対話装置102は、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムであり、同一の計算機上で別個のスレッドで動作してもよく、複数の物理的計算機資源上に構築された仮想計算機上で動作してもよい。
補助記憶装置105は、例えば、テキストデータ107、音声データ108、及び理解度判別用辞書データ109を格納する。テキストデータ107は、複数のテキストを含む。例えば、ニュース記事、ユーザが興味のある本、小学校、中学校、高校の各科目の教科書又は参考書等は、テキストデータ107に含まれる各テキストの一例である。また、マーケティングにおける広告内容や管理者等が宣伝したい内容もテキストデータ107に含まれる各テキストの一例である。テキストデータ107に含まれる各テキストの詳細については後述する。
音声データ108は、テキストデータ107に含まれる複数のテキストそれぞれに対応づけられた音声を含む。音声データに含まれる音声それぞれは、対応するテキストと同等の内容を含む。音声データに含まれる音声それぞれは、例えば、速度及び訛りを調整可能な合成音声である。また、対話装置102は、テキストデータ107と音声データ108を、必要に応じて新規追加、削除、及び編集する機能を備えていてもよい。理解度判別用辞書データ109は、後述する理解度判別用辞書生成処理で生成された理解度判別用辞書を予め格納する。理解度判別用辞書の詳細については後述する。
メモリ106は、それぞれプログラムである、情報提示部110、難易度分析部111、生体情報取得部112、理解度判別部113、照合部114、理解タイプ判別部115、及び情報制御部116を含む。
プログラムはプロセッサ121によって実行されることで、定められた処理を記憶装置及び通信ポート(通信デバイス)を用いながら行う。従って、本実施形態においてプログラムを主語とする説明は、プロセッサ121を主語とした説明でもよい。若しくは、プログラムが実行する処理は、そのプログラムが動作する計算機及び計算機システムが行う処理である。
プロセッサ121は、プログラムに従って動作することによって、所定の機能を実現する機能部(手段)として動作する。例えば、プロセッサ121は、情報提示部110に従って動作することで情報提示部(情報提示手段)として機能し、難易度分析部111に従って動作することで難易度分析部(難易度分析手段)として機能する。他のプログラムについても同様である。さらに、プロセッサ121は、各プログラムが実行する複数の処理のそれぞれを実現する機能部(手段)としても動作する。計算機及び計算機システムは、これらの機能部(手段)を含む装置及びシステムである。
情報提示部110は、例えば、ユーザからの指示に従って選択したテキストデータ107及び/又は音声データ108のコンテンツを、提示情報としてタッチパネル103に出力する。当該コンテンツは複数の要素からなる。例えば、コンテンツが文章データである場合、文章データに含まれる単語それぞれはコンテンツの要素の一例である。生体情報取得部112は、情報提示部110が出力した提示情報に対するユーザの理解活動時において、生体情報計測器104が計測したユーザの生体情報の時系列を取得する。
ユーザの理解活動とは、当該ユーザが提示情報を五感のいずれかで理解する活動を示す。例えば、当該ユーザがテキスト形式の提示情報を読むこと、及び当該ユーザが音声形式の提示情報を聞くことは当該ユーザの理解活動の一例である。なお、本実施例における生体情報の時系列は、2時点以上における生体情報を示す。また、生体情報の時系列それぞれは、1以上のチャネルの信号からなる。脳活動信号は生体情報の一例である。
難易度分析部111は、テキストデータに含まれるテキストのコンテンツ、及び音声データに含まれる音声のコンテンツの、提示時刻における難易度を分析する。理解度判別部113は、理解度判別用辞書データ109に含まれる理解度判別用辞書を参照し、生体情報取得部112が取得した提示情報に対するユーザの理解活動時の生体情報の時系列から、提示情報に対するユーザの各時刻における理解度を算出する。
照合部114は、理解度判別部113が算出したユーザの理解度と、難易度分析部111が分析した提示情報の難易度を照合し、時刻同期する。理解タイプ判別部115は、照合部114の時刻同期結果に基づいて、ユーザの理解タイプを判別する。ユーザの理解タイプとは、ユーザがコンテンツを理解していない場合における、当該ユーザが当該コンテンツを理解できない原因を示す。情報制御部116は、理解タイプ判別部115が判別したユーザの理解タイプに基づいて、次にユーザに提示する情報の制御を行う。
図2は、テキストデータ107に含まれるテキストの一例である。テキスト200は、日本人のユーザを対象とした英語学習におけるニュース記事のテキストの例である。テキスト200は、例えば、コンテンツ種別201、背景202、コンテンツ203、及び単語解釈204を含む。コンテンツ種別201は、テキスト200のコンテンツの種別を示すキーワードを含む。図2の例において、テキスト200のコンテンツは、脳科学のニュースについて英語で記載されたものである。
背景202は、テキスト200のコンテンツの背景知識を含む。背景202は、複数種類の言語の背景知識を含んでもよい。図2の例では、背景202は、英語版及び日本語版の背景知識を含む。また、背景202は、コンテンツの背景知識に関する写真等の画像データを含んでもよい。
コンテンツ203は、複数のバージョンのコンテンツを含む。図2の例では、コンテンツ203は、コンテンツ内に使用される単語レベルや構文レベルに応じた複数のバージョンのコンテンツを含む。また特に図示していないが、コンテンツ203は、コンテンツに含まれる単語を、タッチパネル103を介して出力する時刻(例えば、出力開始時刻を基準とする時刻)を示す情報を保持する。
例えば、図2における「Version1:簡単レベル」は語彙数1000以下の単語、「Version2:中級レベル」は語彙数1000以上5000以下の単語、「Version3:上級レベル」は語彙数5000以上の単語、のように各バージョンのコンテンツに対してレベルが予め付与されている。単語解釈204は、例えば、対応するバージョンのコンテンツに含まれる例えば難易度の高い単語の意味を含む。
なお、難易度分析部111が、コンテンツ203に含まれる各バージョンのコンテンツにレベルを付与してもよい。難易度分析部111は、例えば、コーパスを参照してレベルを付与する。コーパスとは、例えば、小学校から大学までの英語の教科書の文章や、英文のニュース記事等が含まれるテキスト形式の文章データベースである。コーパスは、例えば補助記憶装置105に格納されていてもよいし、対話装置102に接続された他の計算機に格納されていてもよい。
難易度分析部111は、例えば、コーパスから所定数以上の文章を取得し、取得した文章に含まれる単語を出現頻度が高い順にソートし、ソートされた単語の集合を所定の単語数ごとに複数の階層に分割する。以下、出現頻度が低い階層を高レベルに対応する階層とする。
難易度分析部111は、コンテンツに含まれる所定割合以上の単語が、N番目の階層に含まれ、かつN−1番目の階層に含まれない場合、当該コンテンツをN番目の階層に対応するレベルを付与する。例えば、N番目の階層の下限が1000語、上限が2000語である場合、N番目の階層に対応するレベルは、語彙数1000語以上2000語以下のレベルを示す。
図3は、情報提示部110が行う情報提示処理の一例を示す。情報提示部110は、タッチパネル103を介したユーザからの入力に従って、テキストデータ107に格納されたテキスト形式のコンテンツ及び/又は音声データ108に格納された当該コンテンツに対応する音声形式のコンテンツを選択する(S301)。
具体的には、情報提示部110は、コンテンツ種別及びバージョンの入力を受け付ける。情報提示部110は、入力されたコンテンツ種別201を有するテキストをテキストデータ107から選択し、入力されたバージョンのコンテンツを当該テキストのコンテンツ203から選択する。
なお、入力されたコンテンツ種別201を有する複数のテキストが存在する場合、情報提示部110は、当該複数のテキストからランダムに1つのテキストを選択してもよいし、当該複数のテキストをユーザに提示し、ユーザからの入力に従ってテキストを選択してもよい。情報提示部110は、選択したコンテンツに対応する音声形式のコンテンツを音声データ108から取得する。
情報提示部110は、タッチパネル103を介したユーザからの入力に従って、ステップS301で選択したコンテンツの提示形式を選択する(S302)。具体的には、例えば、情報提示部110は、当該コンテンツを、テキスト形式又は音声形式のいずれか一方、若しくはテキスト形式及び音声形式の双方で提示するか、を示す情報の入力を受け付け、入力された情報に従って、提示形式を選択する。
以下、本実施例においては、情報提示部110がテキスト形式と音声形式の双方を選択する例を説明するが、テキスト形式又は音声形式のいずれか一方を選択した場合における処理も、後述する処理と同様である。続いて、情報提示部110は、ステップS301で選択したコンテンツを、ステップS302で選択した提示形式により、選択したコンテンツに対応するコンテンツ203に含まれる時刻情報に従って、タッチパネル103に出力することにより、ユーザに提示する(S303)。
なお、ステップS301、ステップS302において、情報提示部110がコンテンツ及び提示形式を、テキストデータ107に含まれるコンテンツ及び/又は音声データ108に含まれるコンテンツから、例えばランダムに、選択してもよい。
図4は、ユーザがコンテンツ選択するためのユーザインタフェースであるコンテンツ選択画面の一例を示す。コンテンツ選択画面400は、例えば、コンテンツ種別選択セクション401、バージョン選択セクション402、及び提示形式選択セクション403を含む。
コンテンツ種別選択セクション401は、コンテンツ種別の入力を受け付ける。図4の例では、ユーザは、コンテンツ種別選択セクション401中の、科目別、外国語、形式、及び話題選択からコンテンツ種別を選択することができる。また、コンテンツ種別選択セクション401は、キーワードの入力を受け付けることによりコンテンツ種別の入力を受け付けてもよい。
バージョン選択セクション402はバージョンの入力を受け付ける。図4の例では、ユーザは初級、中級、及び上級からバージョンを選択することができる。提示形式選択セクション403は、提示形式の選択の入力を受け付ける。
図4は、外国語、英語、ニュース記事、脳科学をコンテンツ種別201に含むテキストの中級バージョンのコンテンツが選択され、テキストと音声による提示形式が選択された例を示している。なお、情報提示部110は、ユーザによるコンテンツ選択履歴に基づいて、ユーザが興味を持つと思われる内容のコンテンツ種別をコンテンツ種別選択セクション401内の「おすすめ」に表示してもよい。
図5は、難易度分析部111が行う提示情報の難易度分析処理の一例を示す。難易度分析部111は情報提示部110が提示するテキストデータ及び音声データの難易度をスコアリングする。
まず、難易度分析部111は、情報提示部110から、情報提示部110が提示したコンテンツ、及び当該コンテンツに含まれる各単語の出力時刻を取得する(S501)。ここでは、難易度分析部111は、テキスト形式のコンテンツ入力と音声形式のコンテンツの両方が入力されたものとする。難易度分析部111は、入力されたテキスト形式のコンテンツと音声形式のコンテンツの難易度を決定する(S502)。
難易度分析部111は、テキスト形式のコンテンツの難易度を、例えば、コンテンツ内に使用されている単語や構文等の基準で決定する。また、難易度分析部111は、音声形式のコンテンツの難易度を、例えば、再生されるコンテンツの速度や訛り等の基準で決定する。難易度決定方法の具体例については、後述する。難易度分析部は、ステップS502で生成した難易度分析結果を出力し、例えばメモリ106に保存する(S503)。
図6は、難易度分析部111が生成した難易度分析結果の一例である。図6は、英語教育に用いられる英語のコンテンツの難易度分析結果の例である。難易度分析結果600は、例えば、時刻601、単語602、単語難易度603、構文難易度604、速度難易度605、及び訛り難易度606を含む。時刻601は、対応する単語602が、例えば、テキストとしてタッチパネル103に表示される、かつ音声としてタッチパネル103から出力される時刻を示す。
単語602は、コンテンツに含まれる単語を示す。単語602に含まれる単語は、難易度分析部111によって、例えば、形態素解析等の手段を用いて、コンテンツに含まれる文章から抽出される。また、テキストデータ107及び音声データ108に含まれるコンテンツが予め単語単位で分割されていてもよい。
単語難易度603は、対応する単語602それぞれの難易度を示す。以下、難易度分析部111が各単語の単語難易度603を算出する処理の一例を説明する。難易度分析部111は、例えば、コーパス内の各単語の出現率(当該単語のコーパス内の出現回数/コーパス内の重複を含む単語総数)を算出する。難易度分析部、例えば、算出した出現率を値域が0.0〜1.0である所定の減少関数に代入した値を、当該単語の単語難易度603に決定する。これにより、コーパスにおける出現率が低い単語は、単語難易度の高い、即ち難しい単語とみなされ、出現率が高い単語は、単語難易度の低い、即ち簡単な単語とみなされる。
構文難易度604は、対応する単語602それぞれの構文の難易度を示す。以下、難易度分析部111が、各単語の構文の難易度を算出する処理の一例を説明する。難易度分析部111は、構文解析等の手段を用いて各単語が属する構文を検索する。名詞句、動詞句、助動詞付動詞句、連用修飾句、連体修飾句、固有表現等は構文の一例である。1つの単語は1以上の構文に属することもあるし、どの構文にも属さないこともある。
難易度分析部111は、各単語が属する構文それぞれのコーパス内の出現率(当該構文のコーパス内の出現回数/コーパス内の重複を含む構文総数)を算出する。難易度分析部111は、各単語に対して、例えば、当該単語が属する構文の出現率から最低の出現率を選択する。選択した出現率を値域が0.0〜1.0の所定の減少関数に代入した値を、当該単語の構文難易度604に決定する。また、難易度分析部111は、どの構文にも属さない単語の構文難易度604を、例えば0.0に決定する。これにより、コーパスにおける出現率が低い構文に属する単語は構文難易度の高い単語とみなされ、出現率が高い単語は構文難易度の低い単語とみなされる。
なお、難易度分析部111は、当該単語が属する構文の出現率から最低の出現率を選択する代わりに、例えば、ランダムに出現率を選択してもよいし、当該単語が属する構文の出現率の平均値等を算出してもよい。
速度難易度605は、対応する単語602が音声形式のコンテンツとして読み上げられる際の速度による難易度を示す。速度難易度605は、例えば、標準語音声の速度との乖離によって与えられる。以下、難易度分析部111が各単語の速度難易度605を算出する処理の一例を示す。
難易度分析部111は、各単語と同じ単語を、例えば、音声コーパスから取得する。音声コーパスとは、例えば、小学校から大学までの英語の教科書を標準語で読み上げた音声や、英文のニュース記事等を標準語で読み上げた音声が含まれる音声形式の文章データベースである。音声コーパスは、例えば補助記憶装置105に格納されていてもよいし、対話装置102に接続された他の計算機に格納されていてもよい。
難易度分析部111は、例えば、各単語に対して、音声コーパス内から取得した当該単語と同じ単語の平均速度を算出し、平均速度からの乖離を、当該単語の速度に決定する。例えば、平均速度より遅い速度は負の値、平均速度より早い速度は正の値で与えられるものとする。難易度分析部111は、決定した速度を、例えば、値域が0.0〜1.0の所定の増加関数に代入した値を、速度難易度605に決定する。これにより、速度が高い単語は速度難易度の高い単語とみなされ、速度が低い単語は速度難易度の低い単語とみなされる。
訛り難易度606は、対応する単語602が音声形式のコンテンツとして読み上げられる際の訛りによる難易度を示す。以下、難易度分析部111が各単語の訛り難易度606を算出する処理の一例を示す。難易度分析部111は、例えば、各単語のアクセントを示すパラメータを生成する。難易度分析部111は、例えば、各単語に対して、音声コーパス内から取得した当該単語と同じ単語のアクセントの平均パラメータを算出し、平均パラメータからの乖離の絶対値を、当該単語の訛りに決定する。難易度分析部111は、決定した訛りを、例えば、値域が0.0〜1.0の所定の増加関数に代入した値を、訛り難易度606に決定する。これにより、標準語のアクセントと乖離が大きい単語は訛り難易度の高い単語とみなされ、当該乖離が小さい単語は訛り難易度の低い単語とみなされる。
難易度分析部111は、以上の処理により、各単語の各種類の難易度を決定する。なお、本実施例における各種類の難易度は、値が大きいほど当該種類の難易度が示す指標が難しいことを示し、値が小さいほど当該種類の難易度が示す指標が易しいことを示す。
図7は、生体情報取得部112が取得する生体情報の一例であるヘモグロビン濃度データ、の一例である。図7のヘモグロビン濃度データの例は、理解活動を行うユーザの酸化ヘモグロビン濃度及び還元ヘモグロビン濃度の時系列を示す。例えば、生体情報計測器104の一例である近赤外光計測装置は、近赤外分光法利用して、ユーザの脳表層の複数の測定部位における血液中の酸化ヘモグロビン濃度及び/又は還元ヘモグロビン濃度の時系列的を測定する。
生体情報計測器104は、例えば、全脳におけるヘモグロビン濃度を計測してもよいし、言語を理解する言語野や認知活動を行う前頭葉のみおけるヘモグロビン濃度を計測してもよい。生体情報計測器104は、例えば、近赤外光を生体に照射する。照射した光が生体内に入射し、生体内を散乱及び吸収され、生体情報計測器104は伝播して出てきた光を検出する。
なお、生体情報計測器104は、例えば、特許文献1に記載されているユーザが理解活動を行う時の内部状態から脳内血流変化を得る方法、を用いて計測を行う。生体情報取得部112は、生体情報計測器104が計測したヘモグロビン濃度であって、ユーザが理解活動を行うときのヘモグロビン濃度、を取得する。
図8は、理解度判別用辞書データ109に格納される理解度判別用辞書の生成に用いられる脳計測データを計測する、計測システムの構成例を示す。計測システム801は、計測管理装置802、タッチパネル803、生体情報計測器804を含む。計測管理装置802は、例えば、プロセッサ(CPU)821、補助記憶装置805、メモリ806、入出力インタフェース822、及び通信インタフェース823を含む計算機によって構成される。
タッチパネル803、生体情報計測器804、プロセッサ(CPU)821、補助記憶装置805、メモリ806、入出力インタフェース822、及び通信インタフェース823それぞれの説明は、タッチパネル103、生体情報計測器104、プロセッサ(CPU)121、補助記憶装置105、メモリ106、入出力インタフェース122、及び通信インタフェース123それぞれの説明と同様であるため省略する。
メモリ806は、それぞれプログラムである情報提示部811及び生体情報取得部812を含む。補助記憶装置805は、例えば、テキストデータ807、音声データ808、及び生体データ810を格納する。テキストデータ807及び音声データ808それぞれの説明は、テキストデータ107及び音声データ108の説明と同様であるため省略する。テキストデータ807及び音声データ808に含まれるコンテンツは、テキストデータ107及び音声データ108に含まれるコンテンツと同じであってもよいし、異なっていてもよい。生体データ810は、生体情報取得部812が取得した生体情報を格納する。
情報提示部811は、例えば、ユーザからの指示に従って、テキストデータ807及び/又は音声データ808からコンテンツを選択し、タッチパネル803を介して選択したコンテンツをユーザに提示する。
具体的には、例えば、情報提示部811は、ユーザからの指示に従って、ユーザがよく理解しているコンテンツと理解し難いコンテンツとを選択する。これにより、生体情報取得部812が提示された情報をユーザが理解している状態における生体情報と、理解していない状態における生体情報の双方を取得できる。例えば、ユーザが日本人である場合、小学生レベルの日本語の単語で書かれた文章は当該ユーザが理解しているコンテンツの一例であり、当該ユーザが勉強したことのない外国語で書かれ場文章は当該ユーザが理解し難いコンテンツの一例である。
生体情報取得部812は、情報提示部811が提示した提示情報に対する理解活動を行うユーザの生体情報を生体情報計測器804から取得し、取得した生体情報を時系列データとして、例えば、ユーザがよく理解しているコンテンツに対する生体情報と、ユーザが理解し難いコンテンツに対する生体情報と、に分けて生体データ810に格納してもよい。また、生体情報取得部812は、取得した生体情報それぞれに、ユーザの識別子を付加して、生体データ810に格納してもよい。
図9は、理解度判別用辞書データ109に格納される理解度判別用辞書を生成する理解度判別用辞書生成装置の構成例を示す。理解度判別用辞書生成装置902は、例えば、プロセッサ(CPU)921、補助記憶装置905、メモリ906、入出力インタフェース922、及び通信インタフェース923を含む計算機によって構成される。
プロセッサ(CPU)921、補助記憶装置905、メモリ906、入出力インタフェース922、及び通信インタフェース923それぞれの説明は、プロセッサ(CPU)121、補助記憶装置105、メモリ106、入出力インタフェース122、及び通信インタフェース123それぞれの説明と同様であるため省略する。
メモリ906は、プログラムである理解度判別用辞書生成部911を含む。理解度判別用辞書生成部911は、生体データ910に格納された情報を用いて、理解度判別用辞書を生成し、生成した理解度判別用辞書を理解度判別用辞書データ909に格納する。
補助記憶装置905は、理解度判別用辞書データ909及び生体データ910を格納する。理解度判別用辞書データ909は、理解度判別用辞書生成部911が作成した理解度判別用辞書を生成する。生体データ910は、生体データ810に格納された生体情報と同等の生体情報を予め格納する。なお、本実施例では、対話システム101と、計測システム801と、理解度判別用辞書生成装置902と、は別のシステムとして説明しているが、1つのシステムであってもよい。
図10は、理解度判別用辞書生成処理の一例を示す。理解度判別用辞書生成部911は、生体データ910から、ユーザがよく理解しているコンテンツに対する生体情報の複数の時系列と、ユーザが理解し難いコンテンツに対する生体情報の複数の時系列と、を取得する(S1001)。以下の処理では、理解度判別用辞書生成部911は、取得したデータから生成された訓練データから理解度判別用辞書を生成する。
理解度判別用辞書生成部911は、ステップS1001で取得した生体情報の時系列それぞれに含まれる各チャネルの信号に対して前処理を施す(S1002)。例えば、生体情報計測器804の一例である近赤外光計測装置は、光を用いた非侵襲な頭部血行動態計測手法を用いた計測を行っているため、生体情報として得られる信号には脳活動に関連した信号と心拍数変動などによる全身性の血行動態に関連した情報とが含まれる。
従って、理解度判別用辞書生成部911は、取得した生体情報に対して、コンテンツに対する理解度に関連しない情報である雑音を除去するための前処理を行うことにより、理解度判別用辞書の精度を高めることができる。理解度判別用辞書生成部911は、周波数バンドパスフィルタ、多項式ベースライン補正、主成分分析、又は独立成分分析等のアルゴリズムを用いて、ステップS1002における前処理を実行する。
続いて、理解度判別用辞書生成部911は、前処理を施した生体情報の時系列それぞれから理解度識別に必要な本質的な特徴のみを抽出する(S1003)。具体的には、理解度判別用辞書生成部911は、ステップS1002における前処理を施した各時系列に対して、当該時系列に含まれるチャネルの信号から、1以上のサンプル時刻における特徴ベクトルを計算する。各サンプル時刻は、例えば、予め定められた一定間隔の時刻である。
特徴ベクトルの計算方法は種々の方法が考えられる。以下、理解度判別用辞書生成部1011が生体情報のある時系列からサンプル時刻tにおける特徴ベクトルを計算する例を説明する。なお、理解活動開始時の時刻を0とする。
まず、理解度判別用辞書生成部911は、サンプル時刻tを含む時間窓を設定する。ここでは、理解度判別用辞書生成部911は、所定の正数δに対して、t−δからt+δまでの時間を時間窓に設定する。理解度判別用辞書生成部911は、ステップS1002の前処理が施された当該時系列に含まれる各チャネルの信号から、時刻t−δから時刻t+δまでの信号を切り出す。
理解度判別用辞書生成部911は、切り出した各チャネルの信号から、所定の基本統計量(例えば、ピーク振幅値、平均値、分散、勾配、歪度、尖度など)を計算する。理解度判別用辞書生成部911は、計算した各基本統計量を基にして、最も感度の高いチャネルの信号を選択する。感度の高いチャネルとは、当該時間窓における信号の特徴を強く反映するチャネルを示す。分散のf値、ピーク振幅値、及び勾配は感度の一例である。理解度判別用辞書生成部911は、例えば、選択したチャネルの1種類以上の基本統計量を要素とする特徴ベクトルを生成する。
続いて、理解度判別用辞書生成部911は、生成した特徴ベクトルを用いて分類アルゴリズムのパラメータを最適化することにより識別関数を生成する(S1004)。識別関数は、ユーザの理解活動時の生体情報の時系列から生成されたある時刻における特徴ベクトルが入力され、当該ユーザの当該時刻の理解活動における理解度を出力する関数である。本実施例では、理解度は0以上1.0以下の数値で与えられるものとする、即ち識別関数の値域は0以上1.0以下であるものとする。理解度の値が高いほど、ユーザは当該時刻における理解活動の対象であるコンテンツをよく理解していることを示す。
ステップS1004における分類アルゴリズムのパラメータの最適化は、例えば、ユーザがよく理解しているコンテンツに対する生体情報の時系列に対応する特徴ベクトルを入力した場合における理解度がなるべく高くなるように、ユーザが理解し難いコンテンツに対する生体情報の時系列に対応する特徴ベクトルを入力した場合における理解度がなるべく低くなるように、分類アルゴリズムのパラメータを決定することを示す。
マージン最大化原理に基づくサポートベクターマシンや線形判別分析、スパースロジスティック回帰、ロジスティック回帰、非線形の分類アルゴリズム隠れマルコフモデル、及びニューラルネットワーク等は分類アルゴリズムの一例である。
続いて、理解度判別用辞書生成部911は、生成した識別関数を理解度判別辞書に含め、理解度判別辞書を理解度判別用辞書データ909に格納する(S1005)。また、理解度判別用辞書生成部911は、生成した特徴ベクトルと生成した識別関数とを照合することにより、各特徴ベクトルが所属するクラス(理解している/理解していない)を計算し、各特徴ベクトルと所属するクラスとの対応を理解度判別用辞書に含めてもよい。なお、特徴ベクトルに対応する理解度が所定値以上の場合に当該特徴ベクトルは「理解している」クラスに所属し、特徴ベクトルに対応する理解度が当該所定値未満の場合に当該特徴ベクトルは「理解していない」クラスに所属しているものとする。
なお、前述した理解度判別用辞書は、任意のユーザに適用可能な汎用的な理解度判別用辞書であるが、脳計測結果等の生体情報はユーザごとに特徴的なパターンがある。そのため、例えば、理解度判別用辞書生成部911は、生体データ910に格納された生体情報の時系列にユーザの識別子が付与されている場合には、ユーザごとに理解度判別用辞書を作成してもよい。後述する理解度判別処理において、理解度判別部113がユーザごとの理解度判別辞書を用いて理解度を算出することにより、より精度の高い理解度を得ることができる。
図11は、対話システム101における理解度判別処理の一例を示す。理解度判別部113は、生体情報取得部112から、提示情報に対する理解活動を行った際のユーザの生体情報の時系列を取得する(S1101)。理解度判別部113は、取得した生体情報の時系列に含まれる各チャネルの信号に対して、例えば、ステップS1002同様の方法で、前処理を施す(S1102)。
理解度判別部113は、前処理を施した生体情報の時系列から理解度識別に必要な本質的な特徴のみを抽出する(S1103)。具体的には、理解度判別部113は、例えば、ステップS1003と同様の方法で、前処理を施した生体情報の時系列の各時刻の特徴ベクトルを生成する。
理解度判別部113は、理解度判別用辞書データ109に格納された理解度判別用辞書に含まれる識別関数に、各時刻の特徴ベクトルを代入し、ユーザの各時刻における理解度を算出する(S1104)。なお、理解度判別用辞書がユーザごとの識別関数が格納されている場合、理解度判別部113は、ステップS1104において当該ユーザに対応する識別関数を用いることが好ましい。続いて、理解度判別部113は、例えば、算出した各時刻の理解度を出力し、メモリ106に保存する(S1105)。
図12は、理解度判別結果の一例である。図12の理解度判別結果は、理解度判別部113が算出した各時刻における理解度を示す。
図13は、照合部114による、コンテンツの難易度とユーザの理解度判別結果との照合処理の一例を示す。照合部114は、難易度分析部111が分析した音声データの難易度と、理解度判別部113が分析した理解度を時間軸で照合し、時刻同期する(S1301)。続いて、照合部114は、難易度分析部111が分析したテキストの難易度と、理解度判別部113が分析した理解度を時間軸で照合し、時刻同期する(S1302)。
ステップS1301及びステップS1302において、照合部114は、例えば、ある時間内の刻みで、難易度と理解度とを時刻同期する。続いて、照合部114は、時刻同期した音声データの難易度、テキストデータの難易度、及び理解度を出力し、例えばメモリ106に保存する(S1303)。
図14は、照合部114による照合結果の一例である。照合結果は、各時刻における理解度と、各時刻においてユーザが提示されたテキストデータの単語難易度及び構文難易度と、各時刻においてユーザが提示された音声データの速度及び訛りと、の対応を示す。
図15は、テキストの難易度、音声の難易度、及び理解度の時刻同期結果の一例を示す。照合部114は、例えば、各時刻において、例えば1000ms等の所定周期の各区間においての理解度判別結果、テキストの難易度、及び音声の難易度を照合する。
図16は、理解タイプ判別部115による理解タイプ判別処理の一例を示す。理解タイプ判別部115は、照合部114が生成した時刻同期結果を取得する(S1601)。例えば、理解度が第1閾値以下である時間が理解活動時間の第1割合を超える場合、理解タイプ判別部115は、理解度が第1閾値以下である時刻それぞれにおけるテキストの難易度情報と音声の難易度情報とを参照して、ユーザの理解活動時の理解タイプを決定する(S1602)。なお、理解度が第1閾値以下である時間が理解活動時間の第1割合以下である場合、理解タイプ判別部115は、ユーザがコンテンツを理解していると判定する。
以下、ステップS1602の理解タイプ決定処理の具体例を説明する。例えば、理解活動時間の8割以下の時間において理解度が50%以下である場合、理解タイプ判別部115は、理解度が50%以下である時刻群の時刻それぞれにおけるテキストの難易度情報と音声の難易度情報とを参照する。
例えば、単語難易度が第2閾値以上である当該時刻群の時刻が存在する場合、理解タイプ判別部115は、ユーザが単語を理解していないことが理解タイプに含まれると判定する。例えば、構文難易度が第3閾値以上である当該時刻群の時刻が存在する場合、理解タイプ判別部115は、ユーザが構文を理解していないためことが理解タイプに含まれると判定する。
例えば、速度難易度が第4閾値以上である当該時刻群の時刻が存在する場合、理解タイプ判別部115は、音声の速度が速いことが理解タイプに含まれると判定する。例えば、訛り難易度が第5閾値以上である当該時刻群の時刻が存在する場合、理解タイプ判別部115は、音声に訛りがあることが理解タイプに含まれると判定する。
また、例えば、理解活動時間の第2割合以上の時間において(第2割合は第1割合以下である)理解度が所定の閾値以下である場合、理解タイプ判別部115は、ユーザがコンテンツのトピックを理解していないことが理解タイプに含まれると判定する。
なお、理解タイプ判別部115は、複数の理解タイプが存在する場合、理解タイプ即ちユーザがコンテンツを理解できていない原因を絞り込んでもよい。例えば、理解タイプそれぞれに優先度が予め定められており、理解タイプ判別部115は、当該優先度に従って当該複数の理解タイプを所定個数の理解タイプを選択に絞り込む。
また、例えば、理解タイプ判別部115が、当該複数の理解タイプそれぞれの優先度を決定してもよい。ユーザがトピックを理解していないことが理解タイプに含まれる場合、理解タイプ判別部115は、例えば、理解度の平均値に第1重みを掛けた値を、ユーザがトピックを理解していないことに対応する優先度に決定する。
ユーザが単語を理解していないことが理解タイプに含まれる場合、理解タイプ判別部115は、例えば、理解度が第1閾値以下である単語の第2閾値以上である単語難易度の平均値に第2重みを掛けた値を、ユーザが単語を理解していないことに対応する優先度に決定する。ユーザが構文を理解していないことが理解タイプに含まれる場合、理解タイプ判別部115は、例えば、理解度が第1閾値以下である単語の第3閾値以上である構文難易度の平均値に第3重みを掛けた値を、ユーザが構文を理解していないことに対応する優先度に決定する。
音声の速度が速いことが理解タイプに含まれる場合、理解タイプ判別部115は、例えば、理解度が第1閾値以下である単語の第4閾値以上である速度難易度の平均値に第4重みを掛けた値を、音声の速度が速いことに対応する優先度に決定する。音声に訛りがあることが理解タイプに含まれる場合、理解タイプ判別部115は、例えば、理解度が第1閾値以下である単語の第5閾値以上である訛り難易度の平均値に第5重みを掛けた値を、音声に訛りがあることに対応する優先度に決定する。
図17は、理解タイプ結果の一例を示す。図17の例では、現在のユーザの理解タイプは単語が理解できていないことであり、ユーザは単語を理解できていないことにより提示した情報全体が理解できない状態である可能性が高い。つまり、情報制御部116は、提示する情報を、理解タイプに基づいて制御することにより、ユーザの理解度を向上させることができる。
図18は、情報制御部116による提示情報制御処理の一例を示す。情報制御部116は、理解タイプ判別部115が決定した理解タイプ結果を取得する(S1801)。即ち、理解タイプ判別部115は、ユーザがコンテンツを理解しているか否かを示す情報、及びユーザがコンテンツ理解していない場合にはさらに理解タイプを取得する。
情報制御部116は、取得した理解タイプ結果に従って、ユーザがコンテンツを理解しているか否かを判定する(S1802)。情報制御部116は、ユーザがコンテンツを理解していないと判定した場合(S1802:NO)、理解タイプ結果が示す理解タイプに従って、提示する情報を制御し、(S1803)、次の情報を提示する(S1804)。ステップS1803を経由した場合におけるステップS1804における次の情報の具体例は後述する。情報制御部116は、ユーザがコンテンツを理解したと判定した場合(S1802:YES)、次の情報、例えば別のコンテンツ等、を提示する(S1804)。
図19は、ステップS1603における制御内容の一例を示す。情報制御部116は、理解タイプに応じた予め定められた制御内容に従って、制御処理を行う。図19の例では、理解タイプが単語である場合の制御が「語彙数1000以下の簡単な単語で言い換える」、理解タイプが構文である場合の制御が「簡単な構文で言い換える」、理解タイプがトピックである場合の制御が「背景知識の紹介」、理解タイプが速度である場合の制御が「ゆっくり言い換える」、理解タイプが訛りである場合の制御が「標準語で言い換える」、である例を示す。
図20は、情報制御部116がタッチパネル103に出力する、警告メッセージの一例である。情報制御部116は、例えばステップS1802において、ユーザがコンテンツを理解していないと判定した場合に、図20の警告メッセージをタッチパネル103に出力する。
ユーザが「そのまま」に対応するチェックボックスを選択した場合、例えば、情報制御部116は、ステップS1802においてユーザがコンテンツを理解している場合の、ステップS1804と同様の情報を提示する。
ユーザが「情報制御」に対応するチェックボックスを選択した場合、情報制御部116は、ステップS1803において、理解タイプに従って次に提示する情報の制御を行う。以下、ユーザが「情報制御」に対応するチェックボックスを選択した場合における、ユーザへの提示画面及び情報制御部116によるステップS1803及びステップS1804の具体例を説明する。
図21Aは、ユーザが単語を理解していないことが理解タイプである場合における、情報制御部116がステップS1803においてタッチパネルに出力するユーザインタフェースの一例である。当該ユーザインタフェースは、例えば、ユーザが単語を理解していない旨及び対応策を示すメッセージ、並びに単語難易度が第2閾値以上である単語を太枠で囲んだテキスト形式のコンテンツを表示する。なお、理解度が第1閾値以下かつ単語難易度が第2閾値以上である単語が太枠で囲まれていてもよい。
ユーザが「単語の意味」に対応するチェックボックスを選択した場合、例えば、情報制御部116は、太枠で囲まれた単語の意味を単語解釈204から取得し、タッチパネル103に出力する。これによりユーザは理解度が低い単語の意味を理解することができる。
また、ユーザが「簡単バージョンで言い換える」に対応するチェックボックスを選択した場合、例えば、情報制御部116は、当該コンテンツのより簡単なバージョンのコンテンツをコンテンツ203から選択し、タッチパネル103に出力する。
図21Bは、ユーザが構文を理解していないことが理解タイプである場合における、情報制御部116がステップS1803においてタッチパネルに出力するユーザインタフェースの一例である。当該ユーザインタフェースは、例えば、ユーザが構文を理解していない旨及び対応策を示すメッセージ、並びに構文難易度が第3閾値以上である単語を太枠で囲んだテキスト形式のコンテンツを表示する。なお、理解度が第1閾値以下かつ構文難易度が第3閾値以上である単語が太枠で囲まれていてもよい。
ユーザが「そのまま」に対応するチェックボックスを選択した場合、情報制御部116は、次の情報提示において、理解タイプに構文が含まれていない場合と同様の処理を行う。ユーザが「簡単バージョン」に対応するチェックボックスを選択した場合、情報制御部116は、当該コンテンツのより簡単なバージョンのコンテンツをコンテンツ203から選択し、タッチパネル103に出力する。
図22Aは、ユーザがトピックを理解していないことが理解タイプである場合における、情報制御部116がステップS1803においてタッチパネルに出力するユーザインタフェースの一例である。当該ユーザインタフェースは、例えば、ユーザがトピックを理解していない旨及び対応策を示すメッセージ、並びにテキスト形式のコンテンツを表示する。
ユーザが「日本語」に対応するチェックボックスを選択した場合、情報制御部116は、当該コンテンツの日本語版の背景知識を背景202から選択し、タッチパネル103に出力する。ユーザが「英語」に対応するチェックボックスを選択した場合、情報制御部116は、当該コンテンツの英語版の背景知識を背景202から選択し、タッチパネル103に出力する。ユーザが「写真」に対応するチェックボックスを選択した場合、情報制御部116は、当該コンテンツの背景202から写真を選択し、タッチパネル103に出力する。
図22Bは、音声の速度が速いことが理解タイプである場合における、情報制御部116がステップS1803においてタッチパネルに出力するユーザインタフェースの一例である。当該ユーザインタフェースは、例えば、音声の速度が速いためユーザが音声を理解していない旨及び対応策を示すメッセージ、並びにテキスト形式のコンテンツを表示する。
ユーザが「そのまま」に対応するチェックボックスを選択した場合、情報制御部116は、次の情報提示において、理解タイプに速度が含まれていない場合と同様の処理を行う。ユーザが「ゆっくり」に対応するチェックボックスを選択した場合、情報制御部116は、例えば、提示したコンテンツ内の全ての単語又は速度難易度が第4閾値以上である単語、の速度を所定値下げた又は所定値まで下げた音声データを作成し、出力する。
図22Cは、音声に訛りがあることが理解タイプである場合における、情報制御部116がステップS1803においてタッチパネルに出力するユーザインタフェースの一例である。当該ユーザインタフェースは、例えば、音声に訛りがあるためユーザが音声を理解していない旨及び対応策を示すメッセージ、並びにテキスト形式のコンテンツを表示する。
ユーザが「そのまま」に対応するチェックボックスを選択した場合、情報制御部116は、次の情報提示において、理解タイプに速度が含まれていない場合と同様の処理を行う。ユーザが「標準語」に対応するチェックボックスを選択した場合、情報制御部116は、例えば、提示したコンテンツ内の全ての単語又は訛り難易度が第5閾値以上である単語、の標準語のアクセントからの乖離を所定値下げた又は所定値まで下げた音声データを作成し、出力する。
ここまで、ステップS1803において、情報制御部116が、図20〜図22Cのような画面を出力し、ユーザが画面内の情報を選択し、選択した情報に従って、次の提示情報を決定する例を説明した。
情報制御部116は、ステップS1803において、図20〜図22Cのような画面を出力せず、図20〜図22Cにおけるチェックボックスに対応する情報のいずれかを次の提示情報に自動的に決定してもよい。また、例えば、情報制御部116は、ユーザが構文を理解していないことが理解タイプである場合において、提示したコンテンツ内の単語に占める単語難易度が第2閾値以上である単語の割合が所定値以上の場合に、単語難易度が第2閾値以上である単語の意味を出力する、又は当該コンテンツのより簡単なバージョンのコンテンツを出力してもよい。
以上、本実施例の対話システム101は、提示情報に対するユーザの理解活動時の生体情報と、提示情報の難易度と、を照合することに、ユーザの提示情報に対する客観的な理解度及び理解タイプを精度よく特定することができる。また、本実施例の対話システム101は、理解度と理解タイプに基づいて、次に提示する情報を決定することにより、当該提示情報と同様の内容を有し、かつユーザの理解度に沿った情報を提示することができる。具体的には、例えば、対話システム101は、ユーザの理解度が低いかつ難易度が高い要素を、難易度が低い要素に置換した情報を提示することにより、ユーザの理解度を高めることができる。
前述した通り対話システム101は、提示情報に対するユーザの理解度を判別することが可能であるため、前述のような教育に関するコンテンツだけでなく、広告、マーケティング、及び医療等の分野のコンテンツに適用することもできる。テキストデータ107及び音声データ108にこれらの分野のコンテンツが予め格納されていればよい。
また、メモリ106は音声による言語認識を行う音声認識部を含んでもよく、例えば、情報提示部110及び情報制御部116が前述のユーザ入力を受け付ける代わりに、音声認識部がユーザから受け付けた音声言語による入力を受け付け、情報提示部110及び情報制御部116に送信する。これにより対話システム101は、自然言語による人間との対話が可能となる。
本実施例では情報提示部110はステップS302の提示形式選択において、テキストと音声の一方又は双方を選択する例を説明しあったが、音楽、画像、動画等の他の提示形式のデータが補助記憶装置105に格納されている場合は、当該他の提示形式を選択してもよい。
また、本実施例の難易度分析部111は、難易度を分析しているが、ユーザから難易度の直接入力を受け付けてもよい。例えば、対話システム101を用いて、広告の動画の理解度について市場調査をする場合において、調査者は例えば動画の所定時刻における難易度を高く設定することにより、対話システム101は当該所定時刻における調査被験者の理解タイプを出力することができる。
実施例1において、生体情報計測器104及び生体情報計測器804が脳機能計測法として近赤外分光法を用いた例を説明したが、生体情報計測器104及び生体情報計測器804は、脳波や機能的磁気共鳴画像法といった手法を用いてもよい。
また、生体情報計測器104及び生体情報計測器804は、アイトラッキング機器やカメラなどをさらに含んでもよく、さらに視線や表情を観察してもよい。このとき、生体情報取得部112及び生体情報取得部812は、さらに生体情報計測器104及び生体情報計測器804が認識した視線情報及び表情情報を取得する。
理解度判別部113及び理解度判別用辞書生成部911は、視線情報及び顔情報を含む生体情報から特徴抽出を行う。以上により、本実施例の対話システム101は、より精度の高い理解度を得ることができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることも可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
Claims (14)
- 複数の要素からなるコンテンツを参照するユーザに対して提示する情報を制御する、システムであって、
プロセッサと、記憶装置と、出力装置と、を含み、
前記記憶装置は、
前記コンテンツと、
前記複数の要素それぞれの難易度を示す難易度情報と、
前記ユーザが前記コンテンツを理解できない原因を示す理解タイプそれぞれに対応する提示情報と、を保持し、
前記プロセッサは、
前記コンテンツを前記出力装置に出力し、
前記コンテンツに含まれる要素それぞれが前記出力装置に出力された時刻における前記ユーザの生体情報を取得し、
前記取得した生体情報それぞれに基づいて、前記コンテンツに含まれる要素それぞれに対する前記ユーザの理解度を算出し、
前記算出した理解度に基づいて、前記ユーザが前記コンテンツを理解していないと判定した場合、
前記算出した理解度、及び理解度が第1閾値以下である要素の前記難易度情報が示す難易度に基づいて、理解タイプを決定し、
前記決定した理解タイプに対応する提示情報を前記出力装置に出力する、システム。 - 請求項1に記載のシステムであって、
前記記憶装置は、複数種類の前記難易度情報を保持し、
前記算出した理解度に基づいて、前記ユーザが前記コンテンツを理解していないと判定した場合、
理解度が前記第1閾値以下である第1要素を選択し、
前記選択した要素の難易度であって、当該難易度が属する難易度情報に対応する閾値以上である難易度、を前記複数種類の難易度情報から取得し、
前記取得した難易度の比較結果に基づいて、前記複数種類の難易度情報から1以上の難易度情報を選択し、
前記選択した1以上の難易度情報に基づいて、理解タイプを決定する、システム。 - 請求項1に記載のシステムであって、
前記提示情報は、前記コンテンツの1以上の要素からなる第1要素群の要素それぞれを当該要素より難易度が低い要素に置換した前記コンテンツである、第1提示情報を含み、
前記第1提示情報は、第1理解タイプに対応し、
前記プロセッサは、
前記算出した理解度に基づいて、前記ユーザが前記コンテンツを理解していないと判定した場合、
前記第1要素群の要素それぞれに対して、理解度が前記第1閾値以下かつ前記難易度情報が示す難易度が第2閾値以上である第1条件を満たすか否かを判定し、
前記第1要素群の全ての要素が前記第1条件を満たすと判定した場合、理解タイプを前記第1理解タイプに決定する、システム。 - 請求項1に記載のシステムであって、
前記提示情報は、前記コンテンツの背景知識を示す第2提示情報を含み、
前記第2提示情報は、第2理解タイプに対応し、
前記プロセッサは、前記算出した理解度のうち所定割合以上の理解度が第3閾値以下であると判定した場合、理解タイプを前記第2理解タイプに決定する、システム。 - 請求項1に記載のシステムであって、
前記コンテンツは、テキスト形式の文章データを含み、
前記複数の要素それぞれは、前記文章データに含まれる単語であり、
前記難易度情報は、前記文章データに含まれる単語それぞれの難易度と、前記文章データに含まれる単語それぞれが属する構文の難易度と、の少なくとも一方を示す、システム。 - 請求項5に記載のシステムであって、
前記難易度情報は、前記文章データに含まれる単語それぞれの難易度を示し、
前記提示情報は、前記文章データに含まれる第1単語の解釈を示す第3提示情報を含み、
前記第3提示情報は、第3理解タイプに対応し、
前記プロセッサは、
前記算出した理解度に基づいて前記ユーザが前記コンテンツを理解していないと判定し、かつ前記第1単語の理解度が前記第1閾値以下であり前記第1単語の難易度が第4閾値以上である、と判定した場合、
理解タイプを前記第3理解タイプに決定する、システム。 - 請求項5に記載のシステムであって、
前記難易度情報は、前記文章データに含まれる単語それぞれの難易度を示し、
前記プロセッサは、
複数の単語を含むテキスト形式の第1文章データを取得し、
前記文章データに含まれる単語それぞれの前記第1文章データ中の出現率、に基づいて、当該単語の難易度を決定する、システム。 - 請求項5に記載のシステムであって、
前記難易度情報は、前記文章データに含まれる単語それぞれが属する構文の難易度を示し、
前記プロセッサは、
複数の単語を含むテキスト形式の第2文章データを取得し、
前記文章データに含まれる単語それぞれが属する構文それぞれの前記第2文章データ中の出現率、に基づいて、当該単語が属する構文の難易度を決定する、システム。 - 請求項1に記載のシステムであって、
前記コンテンツは、音声形式の文章データを含み、
前記複数の要素それぞれは、前記文章データに含まれる単語であり、
前記難易度情報は、前記文章データに含まれる単語それぞれが前記出力装置に出力される際の速度の難易度と、前記文章データに含まれる単語それぞれが前記出力装置に出力される際の訛りの難易度と、の少なくとも一方を示す、システム。 - 請求項9に記載のシステムであって、
前記難易度情報は、前記文章データに含まれる単語それぞれが前記出力装置に出力される際の速度の難易度を示し、
前記プロセッサは、
複数の単語を含む音声形式の第3文章データを取得し、
前記文章データに含まれる単語それぞれが前記出力装置に出力される際の速度と、前記第3文章データに含まれる当該単語が前記出力装置に出力される際の速度と、の比較結果に基づいて、前記文章データに含まれる単語それぞれが前記出力装置に出力される際の速度の難易度を決定する、システム。 - 請求項9に記載のシステムであって、
前記難易度情報は、前記文章データに含まれる単語それぞれが前記出力装置に出力される際の訛りの難易度を示し、
前記プロセッサは、
複数の単語を含む音声形式の第4文章データを取得し、
前記文章データに含まれる単語それぞれが前記出力装置に出力される際の訛りと、前記第4文章データに含まれる当該単語が前記出力装置に出力される際の訛りと、の比較結果に基づいて、前記文章データに含まれる単語それぞれが前記出力装置に出力される際の訛りの難易度を決定する、システム。 - 請求項1に記載のシステムであって、
前記プロセッサは、
前記ユーザが理解できる第1要素と、前記ユーザが理解できない第2要素と、を前記出力装置に出力し、
前記第1要素を参照した前記ユーザの第1生体情報と、前記第2要素を参照した前記ユーザの第2生体情報と、を取得し、
前記第1生体情報と前記第2生体情報とを含む訓練データに基づいて、前記ユーザの生体情報と理解度との対応を示す理解度判別用辞書を生成し、
前記取得した生体情報それぞれと前記理解度判別用辞書とに基づいて、前記コンテンツに含まれる要素それぞれに対する前記ユーザの理解度を算出する、システム。 - 請求項1に記載のシステムであって、
前記生体情報は、脳機能情報、視線情報、及び表情情報を含む、システム。 - 出力装置を含むシステムが複数の要素からなるコンテンツを参照するユーザに対して提示する情報を制御する、方法であって、
前記システムは、
前記コンテンツと、
前記複数の要素それぞれの難易度を示す難易度情報と、
前記ユーザが前記コンテンツを理解できない原因を示す理解タイプそれぞれに対応する提示情報と、を保持し、
前記方法は、
前記システムが、
前記コンテンツを前記出力装置に出力し、
前記コンテンツに含まれる要素それぞれが前記出力装置に出力された時刻における前記ユーザの生体情報を取得し、
前記取得した生体情報それぞれに基づいて、前記コンテンツに含まれる要素それぞれに対する前記ユーザの理解度を算出し、
前記算出した理解度に基づいて、前記ユーザが前記コンテンツを理解していないと判定した場合、
前記算出した理解度、及び理解度が第1閾値以下である要素の前記難易度情報が示す難易度に基づいて、理解タイプを決定し、
前記決定した理解タイプに対応する提示情報を前記出力装置に出力する、方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/078535 WO2017060994A1 (ja) | 2015-10-07 | 2015-10-07 | コンテンツを参照するユーザに対して提示する情報を制御するシステム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017060994A1 JPWO2017060994A1 (ja) | 2018-08-02 |
JP6469242B2 true JP6469242B2 (ja) | 2019-02-13 |
Family
ID=58488218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017544121A Expired - Fee Related JP6469242B2 (ja) | 2015-10-07 | 2015-10-07 | コンテンツを参照するユーザに対して提示する情報を制御するシステム及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10699057B2 (ja) |
JP (1) | JP6469242B2 (ja) |
WO (1) | WO2017060994A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7382261B2 (ja) * | 2020-03-19 | 2023-11-16 | 株式会社日立製作所 | 情報処理装置及び方法 |
JP2023110106A (ja) * | 2020-06-05 | 2023-08-09 | 言語研究開発合同会社 | 言語学習支援装置、プログラム及び情報処理方法 |
WO2023037569A1 (ja) * | 2021-09-08 | 2023-03-16 | 日本電気株式会社 | 文章理解支援装置、文章理解支援方法およびプログラム記憶媒体 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1078743A (ja) * | 1996-09-05 | 1998-03-24 | Omron Corp | 学習制御装置、学習制御方法及び学習制御プログラム記憶媒体 |
JPH10207615A (ja) * | 1997-01-22 | 1998-08-07 | Tec Corp | ネットワークシステム |
JP4441345B2 (ja) * | 2004-07-08 | 2010-03-31 | パナソニック株式会社 | 理解度判定装置および方法 |
JP5476137B2 (ja) | 2010-01-19 | 2014-04-23 | 株式会社日立製作所 | 生体および脳機能計測に基づくヒューマンインターフェイス |
JP4983943B2 (ja) * | 2010-03-05 | 2012-07-25 | カシオ計算機株式会社 | テキスト表示装置およびプログラム |
JP5949143B2 (ja) * | 2012-05-21 | 2016-07-06 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US10068490B2 (en) * | 2013-08-21 | 2018-09-04 | Quantum Applied Science And Research, Inc. | System and method for improving student learning by monitoring student cognitive state |
JP6154728B2 (ja) * | 2013-10-28 | 2017-06-28 | 日本放送協会 | 視聴状態推定装置およびそのプログラム |
-
2015
- 2015-10-07 JP JP2017544121A patent/JP6469242B2/ja not_active Expired - Fee Related
- 2015-10-07 WO PCT/JP2015/078535 patent/WO2017060994A1/ja active Application Filing
- 2015-10-07 US US15/766,633 patent/US10699057B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2017060994A1 (ja) | 2018-08-02 |
WO2017060994A1 (ja) | 2017-04-13 |
US10699057B2 (en) | 2020-06-30 |
US20180285351A1 (en) | 2018-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gubian et al. | Using Functional Data Analysis for investigating multidimensional dynamic phonetic contrasts | |
Coutinho et al. | Psychoacoustic cues to emotion in speech prosody and music | |
Haider et al. | Emotion recognition in low-resource settings: An evaluation of automatic feature selection methods | |
Bone et al. | Robust unsupervised arousal rating: A rule-based framework withknowledge-inspired vocal features | |
Pfister et al. | Real-time recognition of affective states from nonverbal features of speech and its application for public speaking skill analysis | |
WO2018042709A1 (ja) | 理解度算出装置及び理解度算出方法 | |
US9449522B2 (en) | Systems and methods for evaluating difficulty of spoken text | |
Lyakso et al. | EmoChildRu: emotional child Russian speech corpus | |
US10755595B1 (en) | Systems and methods for natural language processing for speech content scoring | |
Barbosa | Semi-automatic and automatic tools for generating prosodic descriptors for prosody research | |
Garg et al. | Computer-vision analysis reveals facial movements made during Mandarin tone production align with pitch trajectories | |
US20230252315A1 (en) | Adjusting mental state to improve task performance | |
JP6469242B2 (ja) | コンテンツを参照するユーザに対して提示する情報を制御するシステム及び方法 | |
Gibbon | The rhythms of rhythm | |
Kim et al. | A kinematic study of critical and non-critical articulators in emotional speech production | |
MacIntyre et al. | Pushing the envelope: Evaluating speech rhythm with different envelope extraction techniques | |
Caraty et al. | Vocal fatigue induced by prolonged oral reading: Analysis and detection | |
Szekrényes | Annotation and interpretation of prosodic data in the hucomtech corpus for multimodal user interfaces | |
Dussias et al. | Visual world eye-tracking | |
Kanwal et al. | Identifying the evidence of speech emotional dialects using artificial intelligence: A cross-cultural study | |
Siew | The influence of 2-hop network density on spoken word recognition | |
CN108962397A (zh) | 一种基于笔和语音的多通道多任务神经系统疾病辅助诊断系统 | |
Montaño et al. | The role of prosody and voice quality in indirect storytelling speech: A cross-narrator perspective in four European languages | |
Zhang et al. | A study of correlation between physiological process of articulation and emotions on Mandarin Chinese | |
McTear et al. | Affective conversational interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190115 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6469242 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |