JP6115976B1 - 情報処理機器、プログラム - Google Patents

情報処理機器、プログラム Download PDF

Info

Publication number
JP6115976B1
JP6115976B1 JP2016156577A JP2016156577A JP6115976B1 JP 6115976 B1 JP6115976 B1 JP 6115976B1 JP 2016156577 A JP2016156577 A JP 2016156577A JP 2016156577 A JP2016156577 A JP 2016156577A JP 6115976 B1 JP6115976 B1 JP 6115976B1
Authority
JP
Japan
Prior art keywords
user
content
image
learning
subliminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016156577A
Other languages
English (en)
Other versions
JP2017083819A (ja
Inventor
瑞人 青砥
瑞人 青砥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dancing Einstein
Original Assignee
Dancing Einstein
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dancing Einstein filed Critical Dancing Einstein
Priority to US15/336,488 priority Critical patent/US20170124889A1/en
Application granted granted Critical
Publication of JP6115976B1 publication Critical patent/JP6115976B1/ja
Publication of JP2017083819A publication Critical patent/JP2017083819A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】記憶の効率を向上させる。【解決手段】コンピュータを、利用者の学習の対象となる対象学習要素と関連付けて、利用者の脳の第1の部位を活性化させる作用を有する第1コンテンツを再生する第1再生部と、対象学習要素と関連付けて、利用者の脳の第2の部位を活性化させる作用を有する第2コンテンツを再生する第2再生部と、第1コンテンツ及び第2コンテンツを再生した後、対象学習要素に関する質問を提示する質問提示部と、質問に対応する正解を提示する正解提示部として、機能させるプログラム。【選択図】図1

Description

本発明は、学習に用いられる管理装置及びプログラムに関する。
従来から、学習の効率化を図ったシステムが提案されている(例えば、特許文献1)。このようなシステムは、利用者が使用する端末装置と、当該端末装置と通信可能なサーバとを備えている。サーバは、各端末装置に学習要素情報を送信している。
特許文献2には、学習の対象となる単語に関連したサブリミナル画像を表示する学習装置が開示されている。
特表2014−516170号公報 特開2001−42758号公報
特許文献1の学習システムは、ユーザごとに学習の対象をカスタマイズする。特許文献2の学習システムは、サブリミナル画像を表示する。しかし、何れの学習システムも、ある学習の対象を記憶する場合に、脳においてどのような過程を経て記憶がなされているかを考慮していない。
つまり、従来の学習システムは、脳の記憶プロセスを考慮していないので、学習の対象の記憶の効率には限界があった。
本発明の目的は、記憶の効率を向上させることである。
本発明の一態様は、コンピュータを、
利用者の学習の対象となる対象学習要素と関連付けて、前記利用者の脳の第1の部位を活性化させる作用を有する第1コンテンツを再生する第1再生部と、
前記対象学習要素と関連付けて、前記利用者の脳の第2の部位を活性化させる作用を有する第2コンテンツを再生する第2再生部と、
前記第1コンテンツ及び前記第2コンテンツを再生した後、前記対象学習要素に関する質問を提示する質問提示部と、
前記質問に対応する正解を提示する正解提示部として、
機能させるプログラムである。
本実施形態の情報処理システムのブロック図。 図1の利用者情報データベースのデータ構造を示す図。 図1のコンテンツデータベースのデータ構造を示す図。 図1の認知状況データベースのデータ構造を示す図。 図1の学習状況データベースのデータ構造を示す図。 図1の優先学習項目データベースのデータ構造を示す図。 図2の利用者情報データベースと図3のコンテンツデータベースとの関係を示す図。 図1の管理サーバ及び端末装置のハードウェア構成を示す図。 本発明の実施形態の情報処理の全体フローを示すフローチャート。 図9の利用者登録工程のシーケンス図。 図9のプレテスト工程のシーケンス図。 本実施形態の第1感情判定テストの表示例を示す図。 本実施形態の第2感情判定テストの表示例を示す図。 図9のMSL工程のフローチャート。 図14のMSL工程の表示例を示す図。 図14のMSL工程の表示例を示す図。 図14のMSL工程の表示例を示す図。 図14のMSL工程の表示例を示す図。 図14のMSL工程の表示例を示す図。 図14のMSL工程の表示例を示す図。 図14のMSL工程の表示例を示す図。 図14のMSL工程の表示例を示す図。
以下、本発明の実施形態について、図面を参照して説明する。
<1.情報処理システム>
本実施形態の情報処理システムを説明する。図1は、本実施形態の情報処理システムのブロック図である。
図1に示すように、情報処理システム100は、管理サーバ1と、複数の端末装置2とを備える。各端末装置2は、インターネットなどの通信網NETを介して、管理サーバ1と通信可能である。
通信網NETは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、専用回線(一例として、イントラネット)、又は、それらの組合せである。
本実施形態の学習アプリケーションプログラムは、管理サーバ1によって実行される第1学習アプリケーションプログラムと、端末装置2によって実行される第2学習アプリケーションプログラムとを含む。
端末装置2は、利用者の学習の対象となる要素(以下「学習要素」という)と関連付けたコンテンツ(第1コンテンツ及び第2コンテンツ)を再生するように構成される。
端末装置2は、管理サーバ1にリクエストを送信する情報処理装置の一例である。端末装置2は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
管理サーバ1は、端末装置2から送信されたリクエストに応じたレスポンスを端末装置2に提供する管理装置の一例である。管理サーバ1は、例えば、ウェブサーバである。
第1コンテンツは、利用者の脳の扁桃体を活性化させる作用を有する。第1コンテンツは、例えば、サブリミナル画像、サブリミナル音、又は、それらの組合せである。「画像」とは、人間が視覚的に認識可能な像である。画像は、例えば、文字、図形、又は、それらの組合せである。
サブリミナル音は、以下の態様に大別される。
第1の態様は、周波数によってサブリミナル音が定義される。具体的には、サブリミナル音は、一般的な人間の聴覚で認識不可能な周波数を有する音である。このサブリミナル音は、聴覚では認識できないが、無意識下で脳に刺激を与えることができる音である。第1の態様のサブリミナル音は、人間に集中、記憶の定着、または、それらの組合せを促す作用を有する。
第2の態様は、再生方法によってサブリミナル音が定義される。具体的には、サブリミナル音は、人間が意識を向けなければ認識できない方法で再生される音である。換言すると、このサブリミナル音は、意識すれば聴覚で認識できる音である。例えば、このサブリミナル音は、短時間だけ再生される音、小さい音量で再生される音、又は、それらの組合せである。例えば、読書中に喫茶店で再生されている音楽は、第2態様のサブリミナル音である。第2の態様のサブリミナル音は、人間に集中、記憶の定着、または、それらの組合せを促す作用を有する。
サブリミナル画像は、以下の態様に大別される。
第1の態様は、波長によってサブリミナル画像が定義される。具体的には、サブリミナル画像は、一般的な人間の視覚で認識不可能な波長を有する色を含む画像である。このサブリミナル画像は、視覚では認識できないが、無意識下で脳に刺激を与えることができる画像である。このサブリミナル画像は、人間に集中、記憶の定着、または、それらの組合せを促す作用を有する。
第2の態様は、再生方法によってサブリミナル画像が定義される。具体的には、サブリミナル画像は、人間が意識を向けなければ認識できない方法で再生される画像である。換言すると、このサブリミナル画像は、意識すれば視覚で認識できる画像である。例えば、このサブリミナル画像は、短時間だけ再生される画像、小さいサイズで再生される画像、背景画像、又は、それらの組合せである。
第1コンテンツは、学習要素との関係で人が抱く感情に関連する。扁桃体は感情記憶を司る。このため、第1コンテンツを端末装置2で再生すると、利用者の扁桃体を活性化させることが可能となる。
第2コンテンツは、利用者の脳の海馬を活性化させる作用を有する。第2コンテンツは、例えば、学習要素の意味に関連するコンテンツ(画像、音、又は、それらの組合せ)である。第2コンテンツは、利用者の視覚又は聴覚によって認識可能である。
海馬は意味記憶を司る。このため、第2コンテンツを端末装置2で再生すると、利用者の海馬を活性化させることが可能となる。
端末装置2は、第1コンテンツ及び第2コンテンツを再生した後、学習要素に関する質問と正解を提示する際に、第3コンテンツを再生するように構成される。
第3コンテンツは、利用者の脳の腹側被蓋野においてドーパミンの放出を促す。第3コンテンツは、例えば、サブリミナル画像、サブリミナル音、又は、それらの組合せである。
一般に、腹側被蓋野においてドーパミンが放出されると、島皮質と呼ばれる部位において、感情記憶と意味記憶との連合が促進され、記憶の定着が図られることが知られている。本実施形態によれば、脳の複数の部位(例えば、扁桃体及び海馬)を活性化させ、かつ、各部位に保持された記憶(例えば、感情記憶及び意味記憶)を連合させることによって、記憶の効率を飛躍的に向上させることが可能となる。また、ドーパミンが扁桃体及び海馬の少なくとも1つに照射されることにより、扁桃体が司る感情記憶、及び、海馬が司る意味記憶の少なくとも1つが強化される。
<1−1.管理サーバの機能>
図1を参照して、管理サーバ1の機能を説明する。管理サーバ1の機能は、基本情報収集部11と、利用者学習状況計測部12と、忘却速度解析部13と、記憶定着度計測部14と、記憶部15と、学習要素情報作成部16と、通信部17と、を含む。
記憶部15には、後述するデータベースDB1〜DB5と、第1学習アプリケーションプログラムと、第2学習アプリケーションプログラムとが格納される。
第1学習アプリケーションプログラムは、管理サーバ1で実行される。
第2学習アプリケーションプログラムは、端末装置2からの要求に応じて端末装置2へ送信され、端末装置2で実行される。
<1−1−1.利用者情報データベース>
本実施形態の利用者情報データベースについて説明する。図2は、図1の利用者情報データベースのデータ構造を示す図である。
図2に示すように、利用者情報データベースDB1は、「利用者ID」フィールドと、「利用者名」フィールドと、「評価情報」フィールドと、「標準文字入力速度」フィールドと、「性別」フィールド(不図示)と、「生年月日」フィールド(不図示)と、「年齢」フィールド(不図示)と、「メールアドレス」フィールド(不図示)とを含む。各フィールドは、互いに対応付けられている。
「利用者ID」フィールドには、利用者を一意に識別する利用者IDが格納される。利用者IDは、例えば、記憶装置43に記憶された第2学習アプリケーションプログラムを一意に識別する情報、利用者が使用する端末装置2を一意に識別する情報、端末装置2に割り当てられた電話番号、利用者が登録したウェブサービスのアカウント(一例として、メールアドレス、ソーシャルネットワーキングサービスのアカウント)、又は、それらの組合せである。
「利用者名」フィールドには、利用者名を示すテキストが格納される。
「評価情報」フィールドには、端末装置2において第1コンテンツを再生した場合の利用者の反応の評価を示す評価情報が格納される。評価情報は、利用者の嗜好(例えば、利用者の感情に基づく反応)に関する情報でもある。
「評価情報」フィールドには、サブリミナル画像に関する情報と、サブリミナル音に関する情報とが格納される。
サブリミナル画像に関する情報は、「サブリミナル画像ID」フィールドと、「評価値」フィールドとを含む。各フィールドは、互いに対応付けられている。
「サブリミナル画像ID」フィールドには、n個(nは2以上の任意の自然数)のサブリミナル画像を一意に識別するサブリミナル画像ID「IDG1」〜「IDGn」が格納される。
「評価値」フィールドには、n個のサブリミナル画像の評価値「g1」〜「gn」が格納される。各評価値は、プレテスト工程(後述)において決まる。
サブリミナル音に関する情報は、「サブリミナル音ID」フィールドと、「評価値」フィールドとを含む。各フィールドは、互いに対応付けられている。
「サブリミナル音ID」フィールドには、k個(kは2以上の任意の自然数)のサブリミナル音を一意に識別するサブリミナル音ID「IDS1」〜「IDSk」が格納される。
「評価値」フィールドには、k個のサブリミナル画像の評価値「s1」〜「sk」が格納される。各評価値は、プレテスト工程(後述)において決まる。
「標準文字入力速度」フィールドには、利用者の標準文字入力速度(例えば、10秒あたりに入力可能な文字数)を示す情報が格納される。標準文字入力速度は、利用者登録工程(後述)において決まる。
<1−1−2.コンテンツデータベース>
本実施形態のコンテンツデータベースについて説明する。図3は、図1のコンテンツデータベースのデータ構造を示す図である。
図3に示すように、コンテンツデータベースDB2は、第1コンテンツデータベースDB2aと、第2コンテンツデータベースDB2bと、第3コンテンツデータベースDB2cとから構成される。
第1コンテンツデータベースDB2aは、「学習要素ID」フィールドと、「学習要素情報」フィールドと、「画像情報」フィールドと、「音情報」フィールドと、「学習レベル」フィールドと、「タグ」フィールドと、「タイプ」フィールドとを含む。各フィールドは、互いに対応付けられている。
「学習要素ID」フィールドには、学習要素を一意に識別する学習要素IDが格納される。
「学習要素情報」フィールドには、学習要素に関する情報(以下「学習要素情報」という)が格納される。この例の学習要素情報は、英単語の綴りと意味を示す単語情報である。この場合、「学習要素情報」フィールドは、「綴り」サブフィールドと、「意味」サブフィールドとを含む。「綴り」サブフィールドには、英単語の綴りを示すテキスト(例えば、英語のテキスト)が格納される。「意味」サブフィールドには、英単語の意味を示すテキスト(例えば、日本語のテキスト)が格納される。
「画像情報」フィールドには、画像情報が格納される。画像情報は、学習要素(例えば、英単語)を学習するために用いられる画像(サブリミナル画像及び通常画像)を指定する情報である。「画像情報」フィールドは、第2コンテンツデータベースDB2bに対応する。
第2コンテンツデータベースDB2bは、「サブリミナル画像ID」フィールドと、「サブリミナル画像データ」フィールドと、「通常画像ID」フィールドと、「通常画像データ」フィールドとを含む。
「サブリミナル画像ID」フィールドは、図2と同様である。
「サブリミナル画像データ」フィールドには、n個のサブリミナル画像に対応するサブリミナル画像データが格納される。
「通常画像ID」フィールドには、通常画像を一意に識別する通常画像ID「IDN1」〜「IDNp」が格納される。
「通常画像データ」フィールドには、p(pは2以上の自然数)個の通常画像に対応する通常画像データが格納される。
この例では、n個のサブリミナル画像が用いられる。1つの学習要素に対して、一又は複数のサブリミナル画像、及び、一又は複数の通常画像が割り当てられる。例えば、「Free」といった英単語に対しては、3つのサブリミナル画像(サブリミナル画像ID「IDG1」〜「IDG3」)が割り当てられる。「Blind」といった英単語に対しては、2つのサブリミナル画像(サブリミナル画像ID「IDG4」及び「IDG5」)が割り当てられる。「Happy」といった英単語に対しては、1つのサブリミナル画像(サブリミナル画像ID「IDG3」)が割り当てられる。
「音情報」フィールドには、音情報が格納される。音情報は、学習要素を学習するために用いられる音(サブリミナル音及び通常音)を指定する情報である。「音情報」フィールドは、第3コンテンツデータベースDB2cに対応する。
第3コンテンツデータベースDB2cは、「サブリミナル音ID」フィールドと、「サブリミナル音データ」フィールドと、「通常音ID」フィールドと、「通常音データ」フィールドとを含む。
「サブリミナル音ID」フィールドは、図2と同様である。
「サブリミナル音データ」フィールドには、k(kは2以上の自然数)個のサブリミナル音に対応するサブリミナル音データが格納される。
「通常音ID」フィールドには、通常音を一意に識別する通常音ID「IDS1」〜「IDSq」が格納される。
「通常音データ」フィールドには、q(qは2以上の自然数)個の通常音に対応する通常音データが格納される。
この例では、k個のサブリミナル音が用いられる。1つの学習要素に対しては、一又は複数のサブリミナル音、及び、一又は複数の通常音が割り当てられる。例えば、「Free」といった英単語に対しては、2つのサブリミナル音(サブリミナル音ID「IDS1」〜「IDS2」)が割り当てられる。「Blind」といった英単語に対しては、3つのサブリミナル音(サブリミナル音ID「IDS3」〜「IDS5」)が割り当てられる。「Happy」といった英単語に対しては、1つのサブリミナル音(サブリミナル音ID「IDS1」)が割り当てられる。
「学習レベル」フィールドには、学習要素の難易度を示す学習レベルが格納される。学習レベルは、例えば、1〜20の数値である。
「タグ」フィールドには、学習要素の意味が利用者の感情に与える刺激(以下「感情刺激」という)の種類を示す情報が格納される。
例えば、タグ「Tag1」は、感情に関連する学習要素を示す。タグ「Tag2」は、感情に関連しない学習要素を示す。タグ「Tag3」は、ポジティブな印象を与える学習要素を示す。タグ「Tag4」は、ネガティブな印象を与える学習要素を示す。
上述したように、第1コンテンツは、感情記憶に作用する一方、学習要素は、利用者の感情に作用しにくい学習要素(例えば、タグ「Tag2」に関連付けられた学習要素)を含む。利用者の感情に作用しにくい学習要素には、第1コンテンツを割り当てなくてもよい。
コンテンツデータベースDB2は、学習要素ごとに、当該要素に対応する学習要素情報と、当該要素に関連する複数の第1コンテンツとを紐付けて記憶した第1記憶部として機能する。
利用者情報データベースDB1は、人が認識できず、且つ、無意識下で人に刺激を与えることができる所定時間だけ、第1コンテンツを端末装置2で再生した場合の利用者の反応を複数の第1コンテンツの各々について評価した評価情報と利用者を識別する利用者IDとを対応付けて記憶した第2記憶部として機能する。
<1−1−3.認知状況データベース>
本実施形態の認知状況データベースについて説明する。図4は、図1の認知状況データベースのデータ構造を示す図である。
認知状況データベースDB3には、学習要素ごとに、利用者の学習要素に対する認知状況を示す情報が格納されている。
認知状況データベースDB3は、利用者IDに関連付けられている。
認知状況データベースDB3は、「学習要素ID」フィールドと、「認知タグ」フィールドとを含む。
「学習要素ID」フィールドには、学習要素IDが格納される。
「認知タグ」フィールドには、認知タグが格納される。認知タグは、認知テストデータによって決まる。
認知タグ「Tag1」は、利用者が学習要素を認知していないこと(不認知)を示す。
認知タグ「Tag2」は、認知テスト(例えば、利用者の認知レベルを図るための1回目の認知テスト)において、利用者が学習要素を認知したこと(認知)を示す。
認知タグ「Tag3」は、利用者が学習要素を短期的に記憶していること(短期記憶)を示す。
認知タグ「Tag4」は、利用者が学習要素を中期的に記憶していること(中期記憶)を示す。
認知タグ「Tag5」は、利用者が学習要素を長期的に記憶していること(長期記憶)を示す。
認知タグ「Tag6」は、利用者が学習要素を誤って認知していること(不正解)を示す。
<1−1−4.学習状況データベース>
本実施形態の学習状況データベースについて説明する。図5は、図1の学習状況データベースのデータ構造を示す図である。
利用者学習状況データベースDB4には、単語テスト(後述)の結果が格納される。
学習状況データベースDB4は、利用者IDに関連付けられている。
学習状況データベースDB4は、「学習要素ID」フィールドと、「文字入力速度差」フィールドと、「一致率」フィールドと、「一致箇所」フィールドとを含む。
「学習要素ID」フィールドには、学習要素IDが格納される。
「文字入力速度差」フィールドには、利用者の標準の文字入力速度とテストの際の文字入力速度との差分(例えば、10秒あたりの標準入力文字数とテストの際の入力文字数との差)を示す情報が格納される。
「一致率」フィールドには、出題された単語と回答として入力された文字との間の一致率を示す情報が格納される。
「一致箇所」フィールドには、出題された単語と回答として入力された文字の一致箇所を示す情報が格納されている。
<1−1−5.優先学習項目データベース>
本実施形態の優先学習項目データベースについて説明する。図6は、図1の優先学習項目データベースのデータ構造を示す図である。
優先学習項目データベースDB5には、長期記憶学習工程で用いられる学習優先順位に従って記録された単語リストが格納されている。
優先学習項目データベースDB5は、利用者IDに関連付けられている。
優先学習項目データベースDB5は、「優先順位」フィールドと、「学習要素ID」フィールドとを含む。
「優先順位」フィールドには、優先順位を示す値が格納される。優先順位は、例えば、「学習レベル」フィールドの値、「認知タグ」フィールドの情報、または、それらの組合せに基づいて決まる。
「学習要素ID」フィールドには、学習要素IDが格納される。
<1−1−6.管理サーバの機能ブロック>
図1を参照して、管理サーバの機能ブロックについて説明する。
図1の基本情報収集部11と、利用者学習状況計測部12と、忘却速度解析部13と、記憶定着度計測部14と、学習要素情報作成部16と、通信部17とは、管理サーバ1が第1学習アプリケーションプログラムを実行することにより実現される機能ブロックである。
基本情報収集部11は、利用者登録の際に利用者によって入力される情報に基づいて、上記評価情報、利用者の嗜好、性別、及び文字入力速度などの基本情報を収集し、利用者情報データベースDB1に格納する。
利用者学習状況計測部12は、後述する認知テストを実施すると共に、認知テストの結果を認知状況データベースDB3に格納する。
忘却速度解析部13は、後述する単語テストの結果に基づいて、単語毎の記憶の忘却速度の解析を行う。
記憶定着度計測部14は、利用者学習状況データベースDB4に格納されたデータに基づいて、利用者ごとに、且つ、単語ごとに、忘却速度の解析を行い、その結果をコンテンツデータベースDB2に反映させる。
学習要素情報作成部16は、優先学習項目データベースDB5を参照して、利用者ごとに英単語の学習要素情報を作成する。また、学習要素情報作成部16は、通信部17を介して、作成した学習要素情報を端末装置2に送信する。
より詳細には、学習要素情報作成部16は、端末装置2から取得した利用者IDに関連付けられた優先学習項目データベースDB5を参照して、当該利用者IDによって識別される利用者の学習要素を識別する学習要素IDを特定する。そして、学習要素情報作成部16は、特定した学習要素IDに関連付けられた学習要素情報を、コンテンツデータベースDB2から読み出す。そして、学習要素情報作成部16は、当該利用者IDに関連付けられた利用者情報データベースDB1の評価情報を参照して、コンテンツデータベースDB2において、当該学習要素に関連付けられた複数の第1コンテンツの中から、評価情報が最も良い第1コンテンツを選択する。そして、学習要素情報作成部16は、読み出した学習要素情報及び選択した第1コンテンツを端末装置2に出力する。
通信部17は、利用者学習状況計測部12によって提供される認知テストデータと、学習要素情報作成部16によって作成される学習要素情報及び選択した第1コンテンツとを、端末装置2に送信する。また、通信部17は、端末装置2から送信されるテスト結果のデータなどを、利用者学習状況計測部12、学習要素情報作成部16、または、記憶定着度計測部14に提供する。
<1−1−7.利用者情報データベースとコンテンツデータベースの関係>
本実施形態の利用者情報データベースDB1とコンテンツデータベースDB2との関係について説明する。図7は、図2の利用者情報データベースと図3のコンテンツデータベースとの関係を示す図である。
図7に示すように、学習要素「Free」に対応付けられたサブリミナル画像IDが「IDG1」〜「IDG2」であり、学習要素「Blind」に対応付けられたサブリミナル画像IDが「IDG3」〜「IDG5」であり、利用者Aの利用者IDが「A0001」であり、利用者Bの利用者IDが「B0123」であるとする。
利用者ID「A0001」によって識別される利用者(利用者名「A」)の学習要素「FREE」については、サブリミナル画像ID「IDG1」〜「IDG2」のうち、サブリミナル画像ID「IDG2」の評価値(20ms)が最も大きい。
このため、学習要素情報作成部16(図1)は、利用者(利用者名「A」)の学習の対象が学習要素情報「FREE」の場合、利用者情報データベースDB1において利用者ID「A0001」に関連付けられた評価情報を参照して、コンテンツデータベースDB2において学習要素情報「FREE」と関連付けられた複数の第1コンテンツの中から、最も評価値が大きい第1コンテンツ(サブリミナル画像ID「IDG2」)を選択し、かつ、当該学習要素情報「FREE」及び選択した第1コンテンツを端末装置2に出力する。
利用者ID「B0123」によって識別される利用者(利用者名「B」)の学習要素「BLIND」については、サブリミナル画像ID「IDG3」〜「IDG5」のうち、サブリミナル画像ID「IDG4」の評価値「15ms」が最も大きい。
このため、学習要素情報作成部16(図1)は、利用者(利用者名「B」)の学習の対象が学習要素情報「BLIND」の場合、利用者情報データベースDB1において利用者ID「B0123」と関連付けられた評価情報を参照して、コンテンツデータベースDB2において学習要素情報「BLIND」と関連付けられた複数の第1コンテンツの中から最も評価値が大きい第1コンテンツ(サブリミナル画像ID「IDG4」)を選択し、かつ、当該学習要素情報及び選択した第1コンテンツを端末装置2に出力する。
第1コンテンツは感情記憶を司る脳の扁桃体を活性化する作用を有する。本実施形態では、図2〜図7に示すように、利用者ごとに各サブリミナル画像が無意識下の利用者に与える影響が異なることを考慮して、学習要素情報に複数のサブリミナル画像を関連付ける。このため、利用者の端末装置2で測定した反応に基づいて、当該利用者にとって最も扁桃体を活性化することが可能な第1コンテンツを選択することが可能となる。
<1−2.端末装置の機能>
図1を参照して、端末装置2の機能を説明する。
端末装置2の機能は、入力部21と、通信部22と、表示部23と、記憶部24と、学習制御部25と、音出力部26と、第1再生部27Aと、第2再生部27Bと、第3再生部27Cと、質問提示部27Dと、正解提示部27Eとを含む。これらの機能ブロックは、端末装置2が第2学習アプリケーションプログラムを実行することにより実現される機能ブロックである。
入力部21は、文字入力、テスト等で提示される画像等の選択等を行う。
通信部22は、入力部21により入力した種々の情報を、管理サーバ1に送信する。また、通信部22は、管理サーバ1から送信される第2学習アプリケーションプログラム、認知テストデータ、及び、学習要素情報などを受信する。
表示部23は、学習制御部25の制御に基づいて、利用者登録の画面、認知テストの画面、または、英単語学習の画面などを表示する。
記憶部24は、通信部22によって受信した第2学習アプリケーションプログラム、認知テストデータ、及び、学習要素情報などを格納する。
学習制御部25は、記憶部24に格納された第2学習アプリケーションプログラムを実行することにより、利用者登録工程(後述)、プレテスト工程(後述)、MSL工程(後述)、及び、テスト工程(後述)を実行する。
音出力部26は、音(例えば、単語を覚えやすくする音)を出力する。
第1再生部27Aは、利用者の学習の対象となる要素(以下「対象学習要素」という)と関連付けて、利用者の脳の第1の部位を活性化させ得る第1コンテンツを再生する。第1の部位は、例えば、扁桃体である。第1再生部27Aは、第1コンテンツがサブリミナル画像である場合は、当該サブリミナル画像を表示部23に表示させる。第1再生部27Aは、第1コンテンツがサブリミナル音である場合は、当該サブリミナル音を音出力部26から出力させる。これにより、感情記憶を司る扁桃体が活性化される。
第2再生部27Bは、利用者の学習要素と関連付けて、利用者の脳の第2の部位を活性化させ得る第2コンテンツを再生する。第2の部位は、例えば、海馬、前頭葉、又は、それらの組合せである。第2再生部27Bは、第2コンテンツが通常画像である場合は、当該通常画像を表示部23に表示させる。第2再生部27Bは、第2コンテンツが通常音である場合は、当該通常音を音出力部26から出力させる。これにより、意味記憶を司る海馬、及び、予測を司る前頭葉の少なくとも1つが活性化される。
質問提示部27Dは、第1コンテンツ及び第2コンテンツを再生した後、利用者に対して画像又は音の少なくとも一方を用いて質問を提示する。具体的には、質問提示部27Dは、表示部23に質問の画像を表示させる、又は、音出力部26から質問のメッセージを出力する。
感情記憶に関係する脳の第1の部位と、意味記憶に関する脳の第2の部位を活性化させた状態で、記憶すべき学習要素ついて利用者に質問を提示すると、感情記憶と意味記憶とが連合する。これによって、記憶の定着が強固になる。
正解提示部27Eは、利用者に対して、画像又は音の少なくとも一方を用いて、質問に対応する正解を提示する。
すなわち、単に正解のみを提示するのではなく、質問提示部27Dによる質問の提示によって利用者に正解を予測させた後、正解提示部27Eが正解を提示する。利用者が正解を予測した後に正解を提示することによって、記憶の定着が強固になる。
第3再生部27Cは、質問の提示から正解の提示までの間、又は、正解の提示の後の少なくとも一方において、利用者の脳の腹側被蓋野においてドーパミンの放出を促す第3コンテンツを再生する。第3コンテンツは、例えば、サブリミナル画像、サブリミナル音、又は、それらの組合せである。脳の腹側被蓋野においてドーパミンが放出されると、島皮質において、感情記憶と意味記憶との連合が促進されるので、記憶の定着が図られる。これにより、記憶の効率をより向上させることが可能となる。
<1−3.管理サーバ及び端末装置のハードウェア構成>
管理サーバ1及び端末装置2のハードウェア構成について説明する。図8は、図1の管理サーバ及び端末装置のハードウェア構成を示す図である。
図8に示すように、管理サーバ1は、CPU(Central Processing Unit)30と、記憶装置33と、入力デバイス34と、ディスプレイ35と、通信インターフェース36とを備える。
CPU30は、管理サーバ1の全体を制御するように構成される。CPU30は、第1学習アプリケーションプログラムを実行することにより、基本情報収集部11、利用者学習状況計測部12、忘却速度解析部13、記憶定着度計測部14、及び、学習要素情報作成部16を実現する。
記憶装置33は、記憶部15(図1)を実現するハードウェアの一例である。記憶装置33は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、及び、ストレージ(一例として、ハードディスクドライブ(HDD)、光学ディスクドライブ、半導体メモリの読取装置)の組合せである。
入力デバイス34は、管理サーバ1のオペレータの入力を受け付けるように構成される。入力デバイス34は、例えば、キーボード、マウス、又は、それらの組合せである。
ディスプレイ35は、CPU30の情報処理の結果に対応する画像を表示するように構成される。
通信インターフェース36は、通信部17を実現するハードウェアの一例である。通信インターフェース36は、通信網NETを介して外部の装置(例えば、端末装置2)と通信を行うように構成される。
端末装置2は、CPU40と、記憶装置43と、入力デバイス44と、ディスプレイ45と、通信インターフェース46と、スピーカー47とを備える。
CPU40は、端末装置2の全体を制御するように構成される。CPU40は、第2学習アプリケーションプログラムを実行することにより、入力部21と、表示部23と、学習制御部25と、第1再生部27Aと、第2再生部27Bと、第3再生部27Cと、質問提示部27Dと、正解提示部27Eとを実現する。
記憶装置43は、記憶部24を実現するハードウェアの一例である。記憶装置43は、RAM、ROM、及び、ストレージの組合せである。
入力デバイス44は、入力部21を実現するハードウェアの一例である。入力デバイス44は、端末装置2の利用者の指示を受け付けるように構成される。入力デバイス44は、キーボード、マウス、テンキー、タッチパネル、又は、それらの組合せである。
ディスプレイ45は、表示部23を実現するハードウェアの一例である。ディスプレイ45は、CPU40の情報処理の結果に対応する画像を表示するように構成される。
通信インターフェース46は、通信部22を実現するハードウェアの一例である。通信インターフェース46は、通信網NETを介して、外部の装置(例えば、管理サーバ1)と通信を行うように構成される。
スピーカー47は、音出力部26を実現するハードウェアの一例である。スピーカー47は、イヤホンであってもよい。
<2.情報処理>
本実施形態の情報処理について説明する。図9は、本発明の実施形態の情報処理の全体フローを示すフローチャートである。
本実施形態の情報処理は、管理サーバ1及び端末装置2において、それぞれ、第1学習アプリケーションプログラム及び第2学習アプリケーションプログラムが実行されることにより実現される。
図9に示すように、本実施形態の情報処理では、まず、利用者登録工程(OP1)を実行する。
利用者登録工程(OP1)の後、プレテスト工程(OP2)を実行する。
プレテスト工程(OP2)の後、MSL工程(OP3)を実行する。MSL(Multi-Stimuli-Learning)とは、顕在的な画像、潜在的な画像、顕在的な音、潜在的な音、意味、エピソード、及び、予測差分などの刺激によって、脳の働きを活性化する作用を利用した学習の仕組みのことを言う。MSL工程(OP3)を実行することによって、利用者が、学習の対象を効率良く記憶することができるようになる。
MSL工程(OP3)の後、テスト工程(OP4)を実行する。テスト工程(OP4)では、MSL工程(OP3)において利用者が記憶した学習要素について、利用者の記憶の定着率を確認するためのテスト(例えば、単語テスト)が実施される。
<2−1.利用者登録工程>
本実施形態の利用者登録工程(OP1)について説明する。図10は、図9の利用者登録工程のシーケンス図である。
図10に示すように、まず、端末装置2が、利用者情報の受付(S200)を実行する。
具体的には、利用者が入力デバイス44を介して所定の指示を与えると、CPU40は、記憶装置43に記憶された第2学習アプリケーションプログラムを起動させる。
次に、CPU40は、ディスプレイ45に利用者情報の入力画面を表示させる。入力画面は、利用者情報(例えば、利用者名、性別、生年月日、年齢、及び、メールアドレス)を入力するための複数の入力欄を含む。
利用者が、入力デバイス44を介して、複数の入力欄に利用者情報を入力すると、CPU40は、利用者の標準文字入力速度を判定する。
次に、CPU40は、判定した標準文字入力速度を示す情報と、入力された利用者情報とを、通信インターフェース46を介して、管理サーバ1に送信する。
管理サーバ1は、利用者情報データベースの更新(S100)を実行する。
具体的には、CPU30は、通信インターフェース36を介して、端末装置2から送信された利用者情報を受信すると、利用者情報データベースDB1(図2)に新しいレコードを追加する。CPU30は、新しいレコードの「利用者ID」フィールドに、新しい利用者IDを格納する。また、CPU30は、新しいレコードの「標準文字入力速度」フィールドに、標準文字入力速度を示す情報を格納する。また、CPU30は、新しいレコードの「利用者名」フィールド、「性別」フィールド、及び、「生年月日」フィールドに、利用者情報を格納する。
<2−2.プレテスト工程>
本実施形態のプレテスト工程(OP2)について説明する。図11は、図9のプレテスト工程のシーケンス図である。
図11に示すように、まず、端末装置2が、管理サーバ1と通信しながら、感情判定テスト(S210)を実行する。
感情判定テスト(S210)では、第1コンテンツを利用者が認識できない程度の非常に短時間だけ再生し、かつ、第1コンテンツが無意識下の利用者に与える刺激に対する利用者の反応を測定する。感情判定テストは、第1感情判定テスト、第2感情判定テスト、又は、それらの組合せである。
<2−2−1.第1感情判定テスト>
第1感情判定テストについて説明する。図12は、本実施形態の第1感情判定テストの表示例を示す図である。
第1感情判定テストとは、第1コンテンツがサブリミナル画像である場合の感情判定テストである。
CPU40は、図12に示すように、画面50をディスプレイ45に表示させる。画面50は、例えば、「表示された三角形をクリックしてください」といったメッセージを含む。画面50の表示時間は、例えば4秒である。
次に、CPU40は、図12に示すように、画面51をディスプレイ45に表示させる。
画面51の左側の領域51aには、第1のサブリミナル画像53が表示される。画面51の右側の領域51bには、第2のサブリミナル画像54が表示される。第1のサブリミナル画像53と、第2のサブリミナル画像54とは、左右に並んで表示される。
第1のサブリミナル画像53及び第2のサブリミナル画像54は、例えば、サブリミナル画像データGa1及びGa2(図3)に対応する。第1のサブリミナル画像53及び第2のサブリミナル画像54は、例えば、四角形の画像である。
画面51の表示時間は0.01秒(つまり、画面50の表示時間より極めて短い時間)である。そのため、第1のサブリミナル画像53及び第2のサブリミナル画像54は、人間の視覚では認識することはできないが、通常、「意識」より下の部分(いわゆる潜在意識、又は、意識と潜在意識との境界領域)において、脳が認識可能である。したがって、利用者は、無意識のうちに、第1のサブリミナル画像53又は第2のサブリミナル画像54のいずれかに注目する。この現象を、「サブリミナル効果」という。本実施形態では、このサブリミナル効果を利用している。
その後、CPU40は、画面52a又は52bをディスプレイ45に表示させる。画面52aは、三角形の画像55aを含む。画面52bは、三角形の画像55bを含む。
利用者は、画面50のメッセージに従って、入力デバイス44を用いて三角形の画像55a又は55bをクリックする。
次に、CPU40は、画面52a又は52bを表示してから利用者が画像55a又は55bをクリックするまでの時間(以下「反応時間」という)を、記憶装置43に記憶する。
利用者が画面51において第1のサブリミナル画像53に注目していた場合には、三角形の画像55a及び55bのうち、画像55aが、第1のサブリミナル画像53と同じ側(つまり、第2のサブリミナル画像54と異なる側)に表示されるために、画像55aに対する反応時間が、画像55bに対する反応時間より短くなる。
利用者が、第2のサブリミナル画像54に注目していた場合には、画像55aに対する反応時間が画像55bに対する反応時間より長くなる。
第1感情判定テストは、サブリミナル画像の表示と、反応時間の測定とを、複数回繰り返す。これによって、複数のサブリミナル画像について、絶対的及び相対的な反応時間を把握することが可能となる。
<2−2−2.第2感情判定テスト>
第2感情判定テストについて説明する。図13は、本実施形態の第2感情判定テストの表示例を示す図である。
第2感情判定テストとは、第1コンテンツがサブリミナル音である場合の感情判定テストである。
CPU40は、画面60をディスプレイ45に表示させる。画面60には、「左右どちらの音が聴き取りやすいですか?」といったメッセージが表示される。
次に、CPU40は、2種類のサブリミナル音をスピーカー47から出力する。この2種類のサブリミナル音は、例えば、サブリミナル音データSa1及びSa2(図3)に対応する。
次に、CPU40は、画面61をディスプレイ45に表示させる。画面61には、「左」ボタン62と、「右」ボタン63と、「どちらも聞こえない」ボタン64とが表示される。
このとき、CPU40は、左右のイヤホンから出力するサブリミナル音を交互に切り替える。
利用者は、入力デバイス44を用いてボタン62〜64の何れかをクリックする。
第2感情判定テストは、サブリミナル音の再生と、利用者の嗜好の順位の測定とを、複数回繰り返す。これによって、複数のサブリミナル音について、利用者の相対的な嗜好を把握することが可能になる。
11に示すように、S210が終了すると、端末装置2は、テスト結果の送信(S211)を実行する。
具体的には、CPU40は、テスト結果を示すテストデータを、通信インターフェース46を介して、管理サーバ1に送信する。
第1感情判定テストのテストデータは、利用者IDと、サブリミナル画像ID(例えば、IDG1)と、反応時間を示す情報とを対応付けたデータである。反応時間を示す情報は、評価情報の一例である。
第2感情判定テストのテストデータは、利用者IDと、サブリミナル音ID(例えば、IDS1)と、利用者の嗜好の順位を示す情報とを対応付けたデータである。利用者の嗜好の順位を示す情報は、評価情報の一例である。
管理サーバ1は、利用者情報データベースの更新(S110)を実行する。
具体的には、CPU30は、S221で送信されたテストデータに含まれる利用者IDに対応する利用者情報データベースDB1(図2)を特定する。
次に、CPU30は、当該テストデータが第1感情判定テストに対応するテストデータである場合、当該テストデータに含まれるサブリミナル画像IDと、反応時間を示す情報(評価情報)とを対応付けて、特定した利用者情報データベースDB1に格納する。また、CPU30は、当該テストデータが第感情判定テストに対応するテストデータである場合、当該テストデータに含まれるサブリミナル音IDと、嗜好の順位を示す情報(評価情報)とを対応付けて、特定した利用者情報データベースDB1に記憶する。
<2−3.MSL工程>
本実施形態のMSL工程(OP3)について説明する。図14は、図9のMSL工程のフローチャートである。図15〜図22は、図14のMSL工程の表示例を示す図である。
この例では、「盲目の(Blind)」という単語が覚えさせたい単語(対象学習要素)である場合を説明する。以下の説明では、MSL工程の開始からの経過時間を(0:00)のように記載する。
図14に示すように、まず、CPU40は、MSL工程を開始すると(0:00)、対象学習要素である単語「盲目の(Blind)」と関連付けられた感情情報の効果音(サブリミナル音)を、スピーカー47から一瞬出力する(S10)。
サブリミナル音の出力(S10)と同時に、CPU40は、当該感情情報のサブリミナル画像を、画面90の第1表示欄(第1表示領域)93に一瞬表示する(S11)。
サブリミナル音とサブリミナル画像は、いずれも、対象学習要素と関連付けられ、かつ、利用者の感情に作用する。このため、利用者の扁桃体を活性化させることができる。
S10及びS11では、CPU40は、第1再生部27Aとして機能する。
この例では、対象学習要素が「盲目の(Blind)」というネガティブな意味の単語なので、CPU40は、利用者に対してネガティブな感情を醸成させるような音をスピーカー47から出力する。図15のスピーカーマーク91は、スピーカー47から音が出力されていることを示している。
また、CPU40は、ネガティブな感情を醸成させるような画像(例えば、図15の蜘蛛の画像)を第1表示欄93に表示させる。当該画像の表示時間は、例えば0.01秒である。
例えば、図7に示すように、学習要素「Blind」には、3つのサブリミナル画像(サブリミナル画像ID「IDS3」〜「IDG5」)が割り当てられているとする。サブリミナル画像ID「IDG3」は、髑髏の画像に対応し、サブリミナル画像ID「IDG4」は、しおれた花の画像に対応し、サブリミナル画像ID「IDG5」は、蜘蛛の画像に対応するとする。利用者の利用者IDが「A0001」である場合は、評価値が最も大きい(反応時間が最も長い)サブリミナル画像ID「IDG5」に対応する蜘蛛の画像が選択される。
即ち、各々の利用者について、第1コンテンツに含まれる複数のサブリミナル画像に対する反応を感情判定工程(OP2)で評価する。その評価結果に基づいて、学習要素に対応付けられた複数のサブリミナル画像の中から、利用者にとって最も効果的なサブリミナル画像を表示する。つまり、個々の利用者の感性に適したサブリミナル画像を表示する。これにより、利用者の扁桃体を活性化させることができる。
次に、CPU40は、0.01秒後に、対象学習要素に関する通常画像を第1表示欄93に表示する(0:01,S12)。
例えば、CPU40は、コンテンツデータベースDB2(図2)において、学習要素「Blind」(学習要素ID「E002」)に関連付けられた通常画像ID(例えば、「IDN2」)を特定する。
そして、CPU40は、図16に示すように、特定した通常画像ID「IDN2」によって識別される画像(目隠しされた女性の画像)を、画面90の第1表示欄93に表示する。通常画像の表示時間は、例えば0.09秒である。
表示される通常画像は、コンテンツデータベースDB2において、学習要素ID「E002」に関連付けられた「意味」フィールドの情報に関係する画像である。このため、利用者の脳の部位のうち、意味記憶を司る海馬と、予測を司る前頭葉とを活性化させることができる。
S12では、CPU40は、第2再生部27Bとして機能する。
次に、CPU40は、図17に示すように、S11において表示したサブリミナル画像を、もう一度、一瞬だけ第2表示欄(第2表示領域)96に小さく表示する(1:00,S13)。図17に示す例では、S11において表示したサブリミナル画像(蜘蛛の画像)を、S12において表示した通常画像(目隠しされた女性の画像)の下方の第2表示欄96に表示する。小さいサブリミナル画像の表示時間は、例えば0.01秒である。
S13では、CPU40は、第1再生部27Aとして機能する。
このように、第1コンテンツを再生した後に第2コンテンツを再生し、第2コンテンツの再生を開始した後に、第1コンテンツを再び再生すると、第2コンテンツが第1コンテンツで挟み込まれた状態で、利用者の脳に刺激を与える。これにより、利用者の扁桃体と海馬とをより活性化することができる。
次に、CPU40は、図18に示すように、第2表示欄(第2表示領域)96に、連想記憶要素の画像(以下「関連画像」という)を表示すると共に(S14)、関連画像が何の絵なのかを推測させる問いかけを行う(1:01,S15)。
脳は、複数のことを纏めて記憶する性質を有する。本実施形態では、この性質を利用するために、学習要素の記憶と、連想記憶要素の記憶(連想記憶)とを同時に行う。学習要素(第1の要素)は、「Blind(盲目の)」であり、連想記憶要素(第2の要素)は、「Boss(ボス)」である。第1表示欄93は、第2表示欄96より大きい。これは、第1の要素の学習の対象としての優先度が、第2の要素の学習の対象としての優先度より高いからである。即ち、第2の要素の記憶(連想記憶)は、第1の要素の記憶に対する付加的な記憶である。このため、第2の要素には、第1の要素よりも難易度が低いものが選ばれる。より具体的には、第2表示欄96に表示される画像を用いて学習する英単語の難易度は、第1表示欄93に表示される画像を用いて学習する英単語の難易度よりも低い。
このように、優先度が高い第1の要素を、優先度が低い第2の要素より目立つように表示する。第2の要素は、第1の要素より記憶の定着が進んでいる。利用者は、第2の要素から第1の要素を連想することにより、第1の要素を効率的に記憶することができる。
また、第2の要素は、第1の要素より目立たないように表示される。これにより、第2の要素が利用者による第1の要素の記憶を妨げることを防ぐことができる。
S14では、CPU40は、第2再生部27Bとして機能する。
図18に示す例では、関連画像(葉巻をくわえた男性の画像)を第2表示欄96に表示し、「何の絵かしら?」というメッセージを空白領域97に表示し、「何の絵かしら?」という音声をスピーカー47から出力する。関連画像の表示時間は、例えば2.99秒である。このようにして、利用者に対して、第1表示欄93に表示されている画像が何の絵なのかを考えさせる。これは、脳が予測したことと正解とのギャップで学習を行うことが、脳の記憶プロセスにおいて効果的だからである。
次に、CPU40は、図19に示すように、第3表示欄94と第4表示欄95に、対象学習要素の意味を日本語で表示する(4:00,S16)。
図19に示す例では、第3表示欄94に「盲目な」という文字を表示し、第4表示欄95に「ボス」という文字を表示する。これらの文字の表示時間は、例えば、0.5秒である。
S16では、CPU40は、第2再生部27Bとして機能する。
次に、CPU40は、表示された日本語に対応する英語は何かを推測させる問いかけを行う(4:50,S17)。図20に示す例では、CPU40は、「英語で?」というメッセージを空白領域97に表示する。また、CPU40は、「英語で」という音声をスピーカー47から出力する。このようにして、利用者に対して、第3表示欄94に表示されている日本語の文字に対応する英語の単語を考えさせる。空白領域97のメッセージの表示時間は、例えば2.50秒である。
S17では、CPU40は、質問提示部27Dとして機能する。
次に、CPU40は、利用者のドーパミンを放出させるサブリミナル画像を一瞬だけ第1表示欄93に表示する(7:00,S18)。図21に示す例では、CPU40は、サブリミナル画像(男女が寄り添っている画像)を第1表示欄93に表示する。このサブリミナル画像の表示時間は、例えば0.01秒である。
次に、CPU40は、図22に示すように、第3表示欄94と第4表示欄95に表示された日本語に対応する英語の正解を示す文字を表示する(7:01,S19)。図22に示す例では、CPU40は、第3表示欄94に“Blind”という文字を表示し、第4表示欄95に“Boss”という文字を表示する。これらの文字の表示時間は、例えば4.99秒である。
S19と同時に、CPU40は、正解に対応する英語の音声を、所定回数(例えば3回)だけ、スピーカー47から出力する(S20)。
S19及びS20では、CPU40は、正解提示部27Eとして機能する。
なお、S19及びS20の何れかは、省略可能である。つまり、文字のみで正解を提示してもよいし、音のみで正解を提示してもよい。
次に、CPU40は、利用者のドーパミンを放出させるサブリミナル画像をもう一度、一瞬だけ第1表示欄93に表示する(12:00,S21)。例えば、CPU40は、図21に示すように、サブリミナル画像(男女が寄り添っている画像)を第1表示欄93に表示する。このサブリミナル画像の表示時間は、例えば0.01秒である。次に、CPU40は、図22に示すように、S19において表示した画像を第1表示欄93に表示する。
これにより、利用者の脳の腹側被蓋野においてドーパミンの放出が促される。ドーパミンは、島皮質において感情記憶と意味記憶との連合を促進させるように作用するので、記憶の定着を促す。
S21では、CPU40は、第3再生部27Cとして機能する。
その後、CPU40は、対象学習要素に関する画像(例えば、図22の第1表示欄93に表示された画像)上に“TAP”の文字を表示させる(14:00,S22)。これにより、利用者に、対象学習要素に関する画像に対する操作を促す。
利用者が当該画面をタップした場合には、CPU40は、全ての単語セットについてMSL工程が終了したかどうかを判断する(S23)。全ての単語セットについてMSL工程がしていない場合には(S23−NO)、CPU40は、第2表示欄96の下方に“Next”という文字を表示させて(15:00〜20:00)、次の単語について、MSL工程を行う。
本実施形態によれば、覚えさせたい単語の文字だけでなく、当該単語に関連した画像と、当該単語に関連付けられた感情情報のサブリミナル画像とを再生し、かつ、当該単語に関連付けられた感情情報のサブリミナル音を再生する。さらに、適切なタイミングで、正解の予測を誘導する。また、ドーパミンを放出させるためのサブリミナル画像を再生する。また、当該単語と、当該単語に関連した画像と、既に覚えている単語と、当該既に覚えている単語に関連する画像とを表示することにより、連想記憶を利用して利用者に単語を覚えさせる。このようにして、複数の刺激により脳を活性化させるので、記憶の効率を飛躍的に向上させることができる。
脳の記憶プロセスにおいて、単語を覚えることに関与する脳の部位と、感情に作用する脳の部位とを同時に活性化させると、記憶の定着が図られることが知られている。したがって、感情を醸成させるような単語に関しては、感情的な音を再生し、かつ、サブリミナル画像を表示させることが好ましい。
<3.変形例>
本実施形態の変形例について説明する。以下の変形例は、本実施形態又はその他の変形例と適宜組合せ可能である。
プレテスト工程(OP2)は、第1感情判定テストと、第2感情判定テストとの組合せでもよい。
また、プレテスト工程(OP2)では、管理サーバ1は、感情判定テスト(S210)に加えて、認知テストを実行してもよい。認知テストは、学習要素ごとに、認知状況を確認するためのテストである。管理サーバ1は、認知テストを実行すると、認知テストの実行結果に基づいて、認知状況データベースDB3を更新する。そして、管理サーバ1は、MSL工程(OP3)において、認知状況データベースDB3を参照して、各ステップで再生すべきコンテンツを選択する。
感情判定テスト(第1感情判定テスト及び第2感情判定テスト)において、感情判定テストを実行する端末装置2のディスプレイ45の性能(例えば、コントラスト比、輝度、解像度、画面サイズ、色味、応答時間、又は、それらの組合せ)に基づいて、評価値を補正してもよい。
ディスプレイ45の性能は、サブリミナル画像を表示したときに、利用者が受ける印象に影響する。したがって、評価値は、ディスプレイ45の性能に応じた誤差を含む可能性がある。本変形例によれば、性能に基づいて評価値を補正するので、ディスプレイ45の性能に起因する評価値の誤差を低減することができる。その結果、扁桃体を活性化させるために最適なサブリミナル画像を選択することができる。
感情判定テストにおいて、第3コンテンツの評価値を取得してもよい。第3コンテンツの評価値の取得方法は、第1コンテンツの評価値の取得方法と同様である。この場合、取得された第3コンテンツの評価値は、第1コンテンツの評価値と同様に、利用者情報データベースDB1(図2)に格納される。
上述の実施形態では、第1コンテンツは、利用者及び学習要素に関連付けられていない。この場合、MSL工程(OP3)において、複数の利用者に対して、共通の第1コンテンツを提示する。これにより、記憶装置33又は43の少なくとも1つの記憶容量を低減することができる。
第1コンテンツは、学習要素に関連付けられてもよい。この場合、コンテンツデータベースDB2(図3)において、サブリミナル画像ID及びサブリミナル音IDが学習要素IDに関連付けられる。そして、MSL工程(OP3)において、学習要素IDに関連付けられたサブリミナル画像ID又はサブリミナル音IDの少なくとも1つを参照する。これにより、学習要素に関連付けられた第1コンテンツが利用者に提示される。
第1コンテンツは、利用者に関連付けられてもよい。この場合、利用者情報データベースDB1(図2)において、サブリミナル画像ID及びサブリミナル音IDが利用者IDに関連付けられる。そして、MSL工程(OP3)において、利用者IDに関連付けられたサブリミナル画像ID又はサブリミナル音IDの少なくとも1つを参照する。これにより、利用者に関連付けられた第1コンテンツが利用者に提示される。
また、利用者に関連付けられる第1コンテンツは、利用者の嗜好によって決められてもよい。この場合、利用者情報データベースDB1において、評価値の最も高い第1コンテンツ(例えば、サブリミナル画像)を、第1コンテンツとして提示してもよい。これにより、利用者は、嗜好に合った第1コンテンツを用いて学習することができる。
「タグ」フィールド(図3)には、さらに、神経科学において分類される感情刺激の種類を示すタグが格納されてもよい。当該タグは、例えば、以下の感情刺激を示す。
・驚きと退屈
・気力と無気力
・愛情
・慈悲と無慈悲
・喜び
・快感と不快感
・恐怖
・安心と不安
・怒り
・悲しみ
・虚しさ
・痛み
・恥
・開放
第1の感情判定テストにおいて表示する第1のサブリミナル画像53及び第2のサブリミナル画像54の組は、対立する概念の画像の組であることが好ましい。
対立する概念の画像の組は、例えば、ポジティブな印象を与える画像とネガティブな印象を与える画像である。一例として、喜びの顔の画像と悲しみの顔の画像、咲いている花の画像と枯れた花の画像、又は、抱擁する人の画像と睨み合う人の画像である。
対立する概念の画像の組のその他の例は、男性の画像と女性の画像、子供の画像と老人の画像、個人の画像と群衆の画像、昼の画像と夜の画像、又は、夏の画像と冬の画像である。
対立する概念の画像を表示することにより、人の感情に基づく嗜好の傾向を把握しやすいからである。
MSL工程(OP3)において、利用者の認知状況に応じて、対象学習要素を選択してもよい。
認知状況データベースDB3(図4)において、認知タグ「Tag1」に関連付けられた学習要素IDを特定する。次に、コンテンツデータベースDB2(図2)において、特定した学習要素IDの数をタグ毎に集計する。集計結果が最も多いタグが例えば「Tag3」である場合、MSL工程(OP3)において、タグ「Tag3」に関連付けられた学習要素IDによって識別される学習要素(つまり、ポジティブな印象を与える学習要素)を、対象学習要素として選択する。
管理サーバ1は、利用者からコンテンツの登録を受け付けてもよい。
例えば、記憶装置43には、複数の画像データが記憶されている。
ディスプレイ45には、「ご自身の好きな食べ物が写った写真をアップロードしてください」といったメッセージが表示される。
利用者は、入力デバイス44を用いて、当該複数の画像データの中から、アップロードする画像データを指定する。
次に、CPU40は、通信インターフェース46を介して、指定された画像データを管理サーバ1に送信する。
CPU30は、通信インターフェース36を介して、端末装置2から送信された画像データを受信する。
次に、CPU30は、コンテンツデータベースDB2(図3)において、学習要素「eat」を識別する学習要素IDに、受信した画像データを関連付けて記憶する。
次に、CPU30は、第1の感情判定テストにおいて、当該画像データに対応する画像を端末装置2で表示させる。
これにより、MSL工程(OP3)の対象学習要素が「eat」である場合、利用者が登録した画像が再生可能になる。
学習要素は、英単語に限定されない。学習要素は、例えば、英単語以外の言語の記憶、言語の記憶以外の学習(一例として、歴史、医学、法律、又は、資格取得のための学習)であってもよい。
管理サーバ1の機能の少なくとも1つは、端末装置2が備えてもよい。
また、端末装置2の機能の少なくとも1つは、管理サーバ1が備えてもよい。
また、記憶装置43は、端末装置2の外部に設けられてもよい。この場合、端末装置2は、通信網NETを介して記憶装置43にアクセスする。
また、記憶装置33は、管理サーバ1の外部に設けられてもよい。この場合、管理サーバ1は、通信網NETを介して記憶装置33にアクセスする。
サブリミナル画像の表示領域と通常画像の表示領域は、図15〜図22の例に限られない。
例えば、サブリミナル画像を図17の第1表示欄93に表示し、通常画像を第2表示欄96に表示してもよい。
この場合、CPU32は、サブリミナル画像の表示領域と通常画像の表示領域を、利用者の指示に応じて決定してもよい。
また、CPU32は、サブリミナル画像の表示領域と通常画像の表示領域を、利用者の学習状況、認知状況、又は、それらの組合せに応じて決定してもよい。
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態および変形例は、組合せ可能である。
1 :管理サーバ
2 :端末装置
11 :基本情報収集部
12 :利用者学習状況計測部
13 :忘却速度解析部
14 :記憶定着度計測部
15 :記憶部
16 :学習要素情報作成部
17 :通信部
21 :入力部
22 :通信部
23 :表示部
24 :記憶部
25 :学習制御部
26 :音出力部
27A :第1再生部
27B :第2再生部
27C :第3再生部
27D :質問提示部
27E :正解提示部
30 :CPU
33 :記憶装置
34 :入力デバイス
35 :ディスプレイ
36 :通信インターフェース
40 :CPU
43 :記憶装置
44 :入力デバイス
45 :ディスプレイ
46 :通信インターフェース
47 :スピーカー
100 :情報処理システム

Claims (13)

  1. コンピュータを、
    利用者の学習の対象となる対象学習要素と関連付けられた複数の第1コンテンツであって、かつ、前記利用者の脳の扁桃体を活性化させる作用を有する複数の第1コンテンツに対する利用者の反応に関する第1評価情報を生成する評価部と、
    前記複数の第1コンテンツのうち、前記第1評価情報に応じた第1コンテンツを再生する第1再生部と、
    前記対象学習要素と関連付けられた第2コンテンツであって、かつ、前記利用者の脳の海馬及び前頭葉の少なくとも1つを活性化させる作用を有する第2コンテンツを再生する第2再生部と、
    前記第1コンテンツ及び前記第2コンテンツを再生した後、前記対象学習要素に関する質問、及び、前記対象学習要素に関する正解の少なくとも1つを提示する提示部として、
    機能させるプログラム。
  2. 前記評価部は、前記利用者の反応時間を示す第1評価情報を生成する、
    請求項1に記載のプログラム。
  3. 前記コンピュータを、さらに、
    前記質問の提示から前記正解の提示までの間、又は、前記正解の提示の後の少なくとも一方において、前記利用者の脳の腹側被蓋野においてドーパミンの放出を促す作用を有する第3コンテンツを再生する第3再生部として機能させる、
    請求項1又は2に記載のプログラム。
  4. 前記評価部は、複数の第3コンテンツに対する利用者の反応に関する第2評価情報を生成し、
    前記第3再生部は、前記第2評価情報に応じた第3コンテンツを再生する、
    請求項3に記載のプログラム。
  5. 前記第3再生部は、前記質問が提示されてから前記正解が提示されるまでの間のタイミング、及び、前記正解が提示された後の少なくとも1つのタイミングで、前記第3コンテンツを再生する、
    請求項3又は4に記載のプログラム。
  6. 前記第3コンテンツは、前記対象学習要素との関係で前記利用者が抱く感情に関連するコンテンツである、
    請求項3〜5の何れかに記載のプログラム。
  7. 前記第1コンテンツは、前記対象学習要素との関係で前記利用者が抱く感情に関連するコンテンツである、
    請求項1〜6の何れかに記載のプログラム。
  8. 前記第1コンテンツは、前記対象学習要素に関連する画像を含み、
    前記第1再生部は、視覚によって認識できず、且つ、無意識下で人に刺激を与える態様で、前記画像を再生する、
    請求項1〜の何れかに記載のプログラム。
  9. 前記第1コンテンツは、前記対象学習要素に関連する音を含み、
    前記第1再生部は、聴覚によって認識できず、且つ、無意識下で人に刺激を与える態様で、前記音を再生する、
    請求項1〜の何れかに記載のプログラム。
  10. 前記第2コンテンツは、前記対象学習要素の意味に関連付けられ、且つ、視覚によって認識できる画像、及び、前記対象学習要素の意味に関連付けられ、且つ、聴覚によって認識できる音のうち少なくとも一方である、請求項1〜の何れかに記載のプログラム。
  11. 前記第2再生部は、前記対象学習要素である第1の学習要素と関連する第1通常画像を、第1サイズでディスプレイに表示させ、かつ、前記第1の学習要素より難易度が低い第2の学習要素と関連する第2通常画像を、前記第1サイズより小さい第2サイズで前記ディスプレイに表示させ、
    前記提示部は、前記第1の学習要素及び前記第2の学習要素の各々ついての質問及び正解の少なくとも1つを提示する、
    請求項1〜10の何れかに記載のプログラム。
  12. 前記提示部は、前記質問を提示することにより、前記利用者に正解を予測させる、
    請求項1〜11の何れかに記載のプログラム。
  13. 請求項1〜12の何れかに記載のプログラムを実行するプロセッサを備えた情報処理機器。
JP2016156577A 2015-10-28 2016-08-09 情報処理機器、プログラム Active JP6115976B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/336,488 US20170124889A1 (en) 2015-10-28 2016-10-27 Management apparatus, method, and computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015212373 2015-10-28
JP2015212373 2015-10-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017046039A Division JP2017102490A (ja) 2015-10-28 2017-03-10 情報処理機器、プログラム

Publications (2)

Publication Number Publication Date
JP6115976B1 true JP6115976B1 (ja) 2017-04-19
JP2017083819A JP2017083819A (ja) 2017-05-18

Family

ID=58666865

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016156577A Active JP6115976B1 (ja) 2015-10-28 2016-08-09 情報処理機器、プログラム
JP2017046039A Pending JP2017102490A (ja) 2015-10-28 2017-03-10 情報処理機器、プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017046039A Pending JP2017102490A (ja) 2015-10-28 2017-03-10 情報処理機器、プログラム

Country Status (1)

Country Link
JP (2) JP6115976B1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6304672B1 (ja) * 2017-06-27 2018-04-04 株式会社DAncing Einstein 情報処理装置、プログラム、及び、情報処理システム
JP7016526B2 (ja) * 2018-02-22 2022-02-07 株式会社DAncing Einstein 情報処理装置、プログラム、及び、情報処理システム
WO2021064778A1 (ja) * 2019-09-30 2021-04-08 三菱電機株式会社 情報処理装置、情報処理方法、映像提示装置、及び情報処理プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02235087A (ja) * 1989-03-08 1990-09-18 Toshiro Nishizawa 左右の脳の機能分担利用学習装置
JP2001042758A (ja) * 1999-08-04 2001-02-16 Kenzo Nakada 外国語音声学習方法及びこの方法に用いられる外国語音声学習教材
JP2003195736A (ja) * 2001-12-26 2003-07-09 Toshiba Corp 問題自動作成・成績評価システム
JP3803741B2 (ja) * 2002-04-22 2006-08-02 グローバルサクセス株式会社 記憶支援装置

Also Published As

Publication number Publication date
JP2017102490A (ja) 2017-06-08
JP2017083819A (ja) 2017-05-18

Similar Documents

Publication Publication Date Title
US11327556B2 (en) Information processing system, client terminal, information processing method, and recording medium
JP6254562B2 (ja) 認知症介護支援システム、認知症介護支援サーバおよび認知症介護支援プログラム
CN109074117B (zh) 提供基于情绪的认知助理系统、方法及计算器可读取媒体
KR102303323B1 (ko) 퍼소나 매칭을 통한 컨텐츠 제공 방법
JP6115976B1 (ja) 情報処理機器、プログラム
Quas et al. Stress and emotional valence effects on children's versus adolescents’ true and false memory
JP2016177483A (ja) コミュニケーション支援装置、コミュニケーション支援方法及びプログラム
KR101612782B1 (ko) 사용자 독서 관리 시스템 및 방법
US20200367798A1 (en) Wearable device for determining psycho-emotional state of user during evaluation or testing
KR20200032927A (ko) 감정 상태를 개선시키는 방법 및 그 장치
JP6450986B1 (ja) ヘルスケア支援サーバ、ヘルスケア支援方法、及びコンピュータで読み取り可能なプログラム
US20160271498A1 (en) System and method for modifying human behavior through use of gaming applications
US20060129405A1 (en) Method and device for determining a personal happiness index and improving it
US20170124889A1 (en) Management apparatus, method, and computer readable medium
JP2021026328A (ja) 勉強見守り方法、住宅及びコンピュータプログラム
US20240071601A1 (en) Method and device for controlling improved cognitive function training app
Tye-Murray Better Hearing? Game On! An auditory training game program can help you customize care for your patients.
JP6963669B1 (ja) ソリューション提供システム及び携帯端末
JP2020091609A (ja) 学習支援装置、学習支援方法およびプログラム
JP2020048871A (ja) 情報処理装置、プログラム
WO2023058210A1 (ja) コンテンツ利用記録分析システム、コンテンツ利用記録分析方法及びコンテンツ利用記録分析プログラム
JP7069390B1 (ja) 携帯端末
US20230092983A1 (en) Systems and Methods for Managing Brain Injury and Malfunction
JP7064159B1 (ja) 情報処理方法、プログラム、及び情報処理装置
JP7392306B2 (ja) 情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170315

R150 Certificate of patent or registration of utility model

Ref document number: 6115976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250