JP2014030657A - 刺激誘発装置、刺激誘発方法及びプログラム - Google Patents
刺激誘発装置、刺激誘発方法及びプログラム Download PDFInfo
- Publication number
- JP2014030657A JP2014030657A JP2012174030A JP2012174030A JP2014030657A JP 2014030657 A JP2014030657 A JP 2014030657A JP 2012174030 A JP2012174030 A JP 2012174030A JP 2012174030 A JP2012174030 A JP 2012174030A JP 2014030657 A JP2014030657 A JP 2014030657A
- Authority
- JP
- Japan
- Prior art keywords
- stimulus
- emotion
- unit
- user
- inducing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】ユーザにとって好ましい情動を発生させる刺激を、ユーザに応じて発生させることができる。
【解決手段】ユーザの視線及び周囲の音から情動を推定したら、刺激選択部は、情動/刺激テーブルに基づいて、推定された情動とは異なる情動を発生させるような刺激を選択する。刺激選択部が選択された刺激の種類を判定すると、出力制御部は、刺激の種類に応じた出力部から刺激を出力する。刺激が画像の場合には、画像データを記憶部から取得して表示部に表示する。刺激が音の場合には、音データを記憶部から取得して音声出力部から出力する。または、香り出力部を介して香りを出力する。または、空気調和部を介して温度、湿度を調整する。
【選択図】 図1
【解決手段】ユーザの視線及び周囲の音から情動を推定したら、刺激選択部は、情動/刺激テーブルに基づいて、推定された情動とは異なる情動を発生させるような刺激を選択する。刺激選択部が選択された刺激の種類を判定すると、出力制御部は、刺激の種類に応じた出力部から刺激を出力する。刺激が画像の場合には、画像データを記憶部から取得して表示部に表示する。刺激が音の場合には、音データを記憶部から取得して音声出力部から出力する。または、香り出力部を介して香りを出力する。または、空気調和部を介して温度、湿度を調整する。
【選択図】 図1
Description
本発明は、刺激誘発装置、刺激誘発方法及びプログラムに関する。
特許文献1には、映像データと連動させて、体験者が着座する椅子に設けられた振動出力部を介して椅子を振動させたり、指向性スピーカから音を発生させたりする映像体験支援システムが開示されている。
映像を観ているユーザは、映像によりある情動を発生させる。特許文献1に記載の発明においては、映像の制作者は、映像によってユーザに発生する情動を推定し、それに基づいて刺激を決定すると考えられる。しかしながら、特許文献1に記載の発明では、ユーザの情動が推定と異なる場合には、映像データと連動して発生させた刺激が、ユーザに効果的に作用しない可能性がある。
また、特許文献1に記載の発明では、映像の制作者側によりあらかじめ刺激が決定されている。例えば、同じ映像を二人のユーザが観た場合、あるユーザは「可愛い」という情動を生じるが、別のユーザは「楽しい」という情動を生じる場合がある。この場合には、ユーザに発生している情動が異なるため、ユーザに癒しや精神的な安定をもたらすことができる刺激もユーザによって異なることが考えられる。しかしながら、特許文献1に記載の発明では、ユーザ毎に刺激を選択したいというニーズにこたえることはできない。
本発明はこのような事情に鑑みてなされたもので、ユーザにとって好ましい情動を発生させる刺激を、ユーザに応じて発生させることができる刺激誘発装置、刺激誘発方法及びプログラムを提供することを目的とする。
本発明は上記の目的を達成するためになされたもので、本発明に係る刺激誘発装置は、例えば、第1の情動と、ユーザにとって好ましい情動である第2の情動を発生させる刺激とを対応付けた情動刺激関係情報が記憶された記憶部と、ユーザの情動を推定する情動推定部と、前記情動刺激関係情報に基づいて、前記推定された情動に対応する刺激を選択する刺激選択部と、前記刺激選択部により選択された刺激を出力する出力部と、を備える。
また、前記出力された刺激である第1の刺激の変更要求を受け付ける入力受付部と、前記変更要求が入力されると、前記情動刺激関係情報を修正する修正手段と、を備え、前記刺激選択部は、前記変更要求が入力されると、前記推定された情動に応じた刺激であって、前記第1の刺激とは異なる第2の刺激を選択し、前記出力部は、前記第2の刺激を出力してもよい。
また、前記ユーザが受けている刺激を取得する刺激取得部を備え、前記情動推定部は、前記刺激取得部により取得された刺激に基づいて情動を推定してもよい。
また、前記刺激取得部は、前記ユーザの視線を検出する視線検出部と、前記視線の先にある被写体を撮影する第1の撮影部と、を備え、前記情動推定部は、前記撮影された被写体に基づいて情動を推定する画像解析部を有してもよい。
また、前記刺激取得部は、前記ユーザの視線を検出する視線検出部と、前記視線の先にある被写体を撮影する第1の撮影部と、を備え、前記情動推定部は、前記撮影された被写体に基づいて情動を推定する画像解析部を有してもよい。
また、前記視線検出部は、前記視線に基づいて前記ユーザの注視点を検出し、前記撮影部は、前記注視点を含み、かつ前記注視点にピントが合った画像を撮影してもよい。
また、前記画像解析部は、前記ユーザが視認している被写体が何であるかを示す情報を、前記被写体の種類を示す語として取得することにより情動を推定してもよい。
また、前記刺激取得部は、前記ユーザの顔を撮影する第2の撮影部を備え、前記情動推定部は、前記撮影されたユーザの顔に基づいてユーザの表情を解析し、当該表情に基づいて情動を推定する表情解析部を有してもよい。
また、前記刺激取得部は、前記刺激誘発装置の周辺の音を取得する音取得部を備え、前記情動推定部は、前記音取得部により取得された音を解析して情報を推定してもよい。
また、前記音解析部は、前記取得された音から特定のキーワードを検出し、当該検出されたキーワードに基づいて情動を推定してもよい。
また、前記ユーザの脳波を測定する脳波計を備え、前記情動推定部は、前記測定された脳波に基づいて情動を推定してもよい。
また、前記刺激取得部は、前記刺激誘発装置の周辺の音を取得する音取得部を備え、前記情動推定部は、前記音取得部により取得された音を解析して情報を推定してもよい。
また、前記音解析部は、前記取得された音から特定のキーワードを検出し、当該検出されたキーワードに基づいて情動を推定してもよい。
また、前記ユーザの脳波を測定する脳波計を備え、前記情動推定部は、前記測定された脳波に基づいて情動を推定してもよい。
また、前記出力部は、画像の表示が可能な表示部であり、前記記憶部は、画像データを記憶し、前記刺激選択部は、前記刺激として画像を選択し、前記出力部は、前記選択された画像の画像データを前記記憶部から取得してもよい。
また、前記出力部は、音声出力部であり、前記記憶部は、音声データを記憶し、前記刺激選択部は、前記刺激として音声を選択し、前記出力部は、前記選択された音声の音声データを前記記憶部から取得して出力してもよい。
また、前記出力部は、複数の芳香剤が収容された芳香剤収容部と、前記芳香剤を拡散させる芳香剤拡散部と、を備えた香り出力部であり、前記刺激選択部は、前記刺激として香りの種類を選択し、前記出力部は、前記選択された種類の香りを拡散させてもよい。
また、前記出力部は、前記ユーザがいる空間の気温及び湿度を調整する空気調和部であり、前記刺激選択部は、前記刺激として室温及び湿度を選択し、前記出力部は、前記選択された室温及び湿度となるように気温及び湿度を調整してもよい。
本発明に係る刺激誘発方法は、例えば、ユーザの情動を推定するステップと、第1の情動と、前記ユーザにとって好ましい情動である第2の情動を発生させる刺激とを対応付けた情動刺激関係情報を取得するステップと、前記取得された情報に基づいて、前記第1の情動に応じた刺激を選択するステップと、前記選択された刺激を出力するステップと、を有する。
本発明に係るプログラムは、例えば、ユーザの情動を推定するステップと、第1の情動と、前記ユーザにとって好ましい情動である第2の情動を発生させる刺激とを対応付けた情動刺激関係情報を取得するステップと、前記取得された情報に基づいて、前記第1の情動に応じた刺激を選択するステップと、前記選択された刺激を出力するステップと、をコンピューターに実行させる。
現在生じている情動よりユーザにとって好ましい情動を、ユーザに発生させることができる。
以下、本発明の一実施形態について図面を参照しながら説明する。
<第1の実施形態>
図1は、刺激誘発装置1の構成を説明するための概略構成図である。図2は、刺激誘発装置1の外観を示す斜視図である。図2に示すように、刺激誘発装置1は、眼鏡本体1aを有する眼鏡型の装置である。眼鏡本体1aには、刺激誘発装置1の各機能部が設けられている。なお、眼鏡本体1aには、刺激誘発装置1の一部機能のみを設け、他の機能については、直接、或いは図示しないネットワークを介して接続された他の装置に設けられていてもよい。
図1は、刺激誘発装置1の構成を説明するための概略構成図である。図2は、刺激誘発装置1の外観を示す斜視図である。図2に示すように、刺激誘発装置1は、眼鏡本体1aを有する眼鏡型の装置である。眼鏡本体1aには、刺激誘発装置1の各機能部が設けられている。なお、眼鏡本体1aには、刺激誘発装置1の一部機能のみを設け、他の機能については、直接、或いは図示しないネットワークを介して接続された他の装置に設けられていてもよい。
刺激誘発装置1は、主として、制御部10と、情動推定部11と、記憶部12と、刺激選択部13と、視線検出部14と、撮影部15と、音取得部16と、出力制御部17と、表示部18と、音声出力部19と、入力受付部20と、通信I/F(インターフェース)21とで構成される。刺激誘発装置1は、香り出力部22と、空気調和部23と直接、或いは図示しないネットワークを介して接続される。また、刺激誘発装置1には、図示しない電源が設けられている。
制御部10は、刺激誘発装置1の各機能部に対して、全体的な情報管理を行う。制御部10はプログラムが開始されると、各機能部に対して、各種処理を行うように指示を出力する。
情動推定部11は、主として、画像解析部111と、音分析部112とを備えている。画像解析部111は、撮影部15により撮影された画像を解析して情動を推定する。音分析部112は、音取得部16により取得された音を解析して情動を推定する。情動推定部11の処理については、後に詳述する。
記憶部12には、主として、情動(画像)テーブル121と、情動(音)テーブル122と、刺激テーブル123とが予め記憶されている。
記憶部12には、主として、情動(画像)テーブル121と、情動(音)テーブル122と、刺激テーブル123とが予め記憶されている。
図3は、情動(画像)テーブル121の概略説明図である。情動(画像)テーブル121は、画像情報格納領域121aと、画像詳細情報格納領域121bと、情動格納領域121cとを有する。
画像情報格納領域121aには、画像の種類、例えば人物の顔、動物、花等の情報が格納される。
画像詳細情報格納領域121bには、画像の詳細な内容を示す情報、例えば画像が人物の顔である場合には、笑顔、泣顔、渋顔、寝顔等の情報が格納される。
画像情報格納領域121aには、画像の種類、例えば人物の顔、動物、花等の情報が格納される。
画像詳細情報格納領域121bには、画像の詳細な内容を示す情報、例えば画像が人物の顔である場合には、笑顔、泣顔、渋顔、寝顔等の情報が格納される。
情動格納領域121cには、画像詳細情報格納領域121bに格納された情報に対応する情動が記憶される。例えば、画像詳細情報格納領域121bに「笑顔」が格納されている場合には、情動格納領域121cには「楽しい」という情動が格納される。画像詳細情報格納領域121bに「泣顔」が格納されている場合には、情動格納領域121cには「悲しい」という情動が格納される。画像詳細情報格納領域121bに「渋顔」が格納されている場合には、情動格納領域121cには「怒り」という情動が格納される。画像詳細情報格納領域121bに「寝顔」が格納されている場合には、情動格納領域121cには「可愛い」という情動が格納される。
このように、情動(画像)テーブル121には、画像の種類と、画像の詳細な内容を示す情報と、情動とが関連付けて記憶されている。
このように、情動(画像)テーブル121には、画像の種類と、画像の詳細な内容を示す情報と、情動とが関連付けて記憶されている。
図4は、情動(音)テーブル122の概略説明図である。情動(音)テーブル122には、音情報格納領域122aと、音詳細情報格納領域122bと、情動格納領域122cとを有する。
音情報格納領域122aには、音の種類、例えば楽器の音、人の話し声等を示す情報が格納される。
音情報格納領域122aには、音の種類、例えば楽器の音、人の話し声等を示す情報が格納される。
音詳細情報格納領域122bには、音の詳細な内容を示す情報が格納される。例えば、音の種類が楽器の場合には、音の詳細な内容としてその楽器の種類(ピアノ、ドラム・・・等)の情報が記憶される。音の種類が人物の声である場合には、音の詳細な内容として笑い声、泣き声、叫び声等の情報が記憶される。また、音の種類が人物の声である場合には、音の詳細な内容として言葉が記憶される。言葉としては、例えば、ごはん、食事、海、山、公園等の単語が記憶される。
情動格納領域122cには、音詳細情報格納領域122bに格納された情報に対応する情動が記憶される。例えば、音詳細情報格納領域122bに「ピアノ」が格納されている場合には、情動格納領域121cには「気持ちいい」という情動が格納される。音詳細情報格納領域122bに「笑い声」が格納されている場合には、情動格納領域121cには「楽しい」という情動が格納される。画像詳細情報格納領域121bに「泣き声」が格納されている場合には、情動格納領域121cには「悲しい」という情動が格納される。画像詳細情報格納領域121bに「叫び声」が格納されている場合には、情動格納領域121cには「怒り」という情動が格納される。
さらに、音詳細情報格納領域122bに「海」、「山」、「公園」、「遊園地」、「旅行」等の行楽に関する単語が格納されている場合には、情動格納領域122cには「楽しい」という情動が格納される。
このように、情動(音)テーブル122には、音の種類と、音の詳細な内容を示す情報と、情動とが関連付けて記憶されている。
このように、情動(音)テーブル122には、音の種類と、音の詳細な内容を示す情報と、情動とが関連付けて記憶されている。
図5は、刺激テーブル123の概略説明図である。刺激テーブル123は、情動格納領域123aと、刺激(種類)格納領域123bと、刺激格納領域123cと、重みづけ格納領域123dとを有する。
情動格納領域123aには、「嬉しい」、「楽しい」、「悲しい」、「怒り」等の情動が格納される。
情動格納領域123aには、「嬉しい」、「楽しい」、「悲しい」、「怒り」等の情動が格納される。
刺激(種類)格納領域123bには、刺激格納領域123cに記憶された刺激の種類が格納される。本実施の形態では、刺激の種類として、音、画像、香り、及び温度/湿度が記憶される。
刺激格納領域123cには、情動格納領域123aに格納された情動に対応する刺激が格納される。刺激格納領域123cに格納される刺激は、情動格納領域123aに格納された情動とは異なる情動であって、ユーザにとって好ましい情動をユーザに発生させるような刺激である。例えば、情動格納領域123aに「嬉しい」という情動が格納されている場合には、「刺激A1」として「楽しい」情動を発生させるような音楽が刺激格納領域123cに格納される。また、情動格納領域123aに「嬉しい」という情動が格納されている場合には、「刺激A2」として「気持ちいい」情動を発生させるような音楽が刺激格納領域123cに格納される。
刺激(種類)格納領域123bが「音」の場合には、刺激格納領域123cには音楽の題名が記憶される。刺激(種類)格納領域123bが「画像」の場合には、刺激格納領域123cには画像の名称が記憶される。刺激(種類)格納領域123bが「香り」の場合には、刺激格納領域123cには香りの名称(例えば、ラベンダー、ベルガモット、レモン等)が記憶される。刺激(種類)格納領域123bが「温度/湿度」の場合には、刺激格納領域123cには温度、湿度の情報が記憶される。
重みづけ格納領域123dには、各刺激に対する重みづけが格納される。1つの情動に複数の刺激が記憶されるため、各刺激に対して重みづけを記憶しておくことで、刺激の優先順位を明確にしている。例えば、「嬉しい」という情動には「刺激A1」、「刺激A2」、「刺激A3」等の複数の刺激が記憶されるため、「刺激A1」には最も優先順位の高い重みづけ「A」が関連付けられ、「刺激A2」には2番目に優先順位の高い重みづけ「B」が関連付けられ、「刺激A3」には3番目に優先順位の高い重みづけ「C」が関連付けられる。なお、重みづけ格納領域123dに格納される情報は、優先順位を明確にできればよく、例えば、「80」、「50」等の数値を格納してもよい。
このように刺激テーブル123には、情動と、刺激と、重みづけが関連付けて記憶されている。なお、刺激(種類)格納領域123b及び重みづけ格納領域123dは必須ではない。例えば、情動に対して刺激が1つの場合には、刺激(種類)格納領域123b及び重みづけ格納領域123dは不要である。
なお、図3〜5は、それぞれ情動(画像)テーブル121、情動(音)テーブル122、及び刺激テーブル123の一例であり、情動(画像)テーブル121、情動(音)テーブル122、及び刺激テーブル123の形態はこれに限られない。
さらに、記憶部12は刺激記憶領域124を有する。刺激記憶領域124には、刺激テーブル123に含まれる各種刺激のデータが記憶されている。具体的には、刺激格納領域123cに記憶された題名の音楽データと、刺激格納領域123cに記憶された名称の画像データとが記憶される。
図1の説明に戻る。刺激選択部13は、情動推定部11で推定された情動に基づいて刺激を選択する。刺激選択部13の処理については、後に詳述する。
図1の説明に戻る。刺激選択部13は、情動推定部11で推定された情動に基づいて刺激を選択する。刺激選択部13の処理については、後に詳述する。
視線検出部14は、CCDカメラ等の撮像装置14a、14bを有する。図2に示すように、視線検出部14は、眼鏡本体1aの裏側、かつ左右のレンズ1b、1cの上側にそれぞれ設けられる。視線検出部14は、暗い部分である瞳孔部分を含み、かつ右目及び左目の輪郭が認識できるように、右目及び左目の画像を撮影する。右目用のレンズ1bの上に設けられた撮像装置14aは、右目を撮影する。右目用のレンズ1bの上に設けられた撮像装置14bは、左目を撮影する。
撮影部15は、CCDカメラ等の撮像装置15aを有する。図2に示すように、撮影部15は、眼鏡本体1aの表側、かつ眼鏡本体1aの略中央に設けられる。撮影部15は、視線検出部14が検出した注視点の距離を撮像装置15aの焦点距離と設定する。撮影部15は、撮像装置15aを介して、設定された焦点距離で、注視点を含む所定の範囲にある被写体が含まれる画像を撮影する。これにより、注視点にある被写体、すなわちユーザが視認している被写体にピントが合った画像を撮影することができる。
音取得部16は、少なくとも1つのマイクロフォン16aと、アナログ−デジタル変換器(図示せず)と、処理部(図示せず)とを有する。マイクロフォン16aは、眼鏡本体1aの表側の任意の位置に設けられる。図2ではマイクロフォン16aは眼鏡本体1aの右側面に設けられているが、マイクロフォン16aが設けられる位置はこれに限定されない。マイクロフォン16aは、周囲の音を集音してアナログ音声信号を生成し、そのアナログ音声信号をマイクロフォン16aに接続されたアナログ−デジタル変換器へ出力する。
アナログ−デジタル変換器は、アナログ音声信号をデジタル化することにより音データを生成する。そしてアナログ−デジタル変換器は、その音データを音分析部112へ出力する。
出力制御部17は、刺激選択部13により選択された刺激に応じて記憶部12から情報を取得し、表示部18、音声出力部19、香り出力部22、空気調和部23へ各種情報を出力する。出力制御部17の処理については、後に詳述する。
表示部18は、カラー表示が可能な液晶ディスプレイ18aと、モニタ保持部18bと、表示制御部(図示せず)を有する。図2に示すように、液晶ディスプレイ18aは、眼鏡本体1aに回動自在に設けられたモニタ保持部18bの裏面に設けられる。
表示制御部は、出力制御部17から入力され画像データを表示用の画像データに変換し、液晶ディスプレイ18aに出力する。これにより、液晶ディスプレイ18aに画像データが表示される。
なお、表示部18の形態はこれに限られない。例えば、左右のレンズ1b、1cに透明な液晶ディスプレイ18aを貼付するようにしてもよい。また、液晶ディスプレイに代えて、有機ELなど他の方式の表示装置を用いてもよい。
音声出力部19は、音声コーデック部(図示せず)と、スピーカ19a、19bとを有する。図2に示すように、スピーカ19a、19bは、眼鏡本体1aの左右側面にそれぞれ設けられる。
音声コーデック部は、出力制御部17から入力された音データをデジタル音声信号に変換し、音量調整などの音質調整処理を行い、スピーカ19a、19bに出力する。これにより、スピーカ19a、19bから音声が出力される。
なお、スピーカ19a、19bは1つでもよいし、設けられる位置も図2に示す場合に限られない。
なお、スピーカ19a、19bは1つでもよいし、設けられる位置も図2に示す場合に限られない。
入力受付部20は、図示しない電源ボタン、決定キー等を含み、ユーザからの操作指示を受け付けて、操作情報を制御部10等へ送出する。入力受付部20は、特定のボタンを押すなどの情報を各種命令に変換し、制御部10等へ出力する。例えば、電源ボタンが押下されると、刺激誘発装置1の電源が投入される。
通信I/F(インターフェース)21は、刺激誘発装置1の各機能部間、及び刺激誘発装置1と外部装置間を、信号の送受信可能に接続する。また、図示しないネットワークや各機能部間におけるインターフェースを提供する。
香り出力部22は、アロマオイルの添加された水(芳香剤)を収容する芳香剤収容部221と、芳香剤を拡散する芳香剤拡散部222とを有する。香り毎に芳香剤が異なるため、芳香剤収容部221は、衝動/刺激テーブルに記憶された刺激に含まれる香りの種類だけ芳香剤を収容する必要がある。したがって、芳香剤収容部221は、記憶された香りの数以上の数の収容部を備えている。
芳香剤拡散部222は、タンク(図示せず)と、芳香剤をタンクに注入する注入部(図示せず)と、タンクの底面に設けられた超音波振動板(図示せず)と、ファン(図示せず)と、吹き出し口(図示せず)とを有する拡散器(ディフューザー)である。芳香剤収容部221に収容された任意の芳香剤がタンクに注入されると、芳香剤は超音波振動板によって気化される。気化された芳香剤は、ファンにより、吹き出し口から拡散される。
空気調和部23は、室内の壁面等に取り付けられた空気調和を行う空調装置(エアコン)であり、室内の温度及び湿度の調整が可能である。空気調和部23としてはすでに様々な装置が公知であるため、説明を省略する。
図6は、刺激誘発装置1のハードウェア構成を示す図である。図3に示すように、刺激誘発装置1は、主として、CPU(Central Processing Unit)51と、RAM(Random Access Memory)52と、ROM(Read Only Memory)53と、通信装置54と、撮影装置(1)55と、撮影装置(2)56と、表示装置57と、マイクロフォン58と、スピーカ59と、入力装置60と、バス61とを有する。
CPU51は、数値演算及び各デバイスを制御する等、刺激誘発装置1が行う様々な主たる処理を実行する。RAM52は、演算データなどを格納する。ROM53は、プログラムやデータを格納する。通信装置54は、各種ハードウェアを制御部1に接続するインターフェースである。バス61は、刺激誘発装置1の各構成要素を接続する。
制御部10と、情動推定部11と、刺激選択部13と、出力制御部17とは、ROM53に記憶されている所定のプログラムをRAM52にロードしてCPU51で実行することで実現可能である。
記憶部12は、CPU51がRAM52と又はROM53を利用することにより実現可能である。
記憶部12は、CPU51がRAM52と又はROM53を利用することにより実現可能である。
視線検出部14は、ROM53に記憶されている所定のプログラムをRAM52にロードしてCPU51が実行し、かつCPU51が撮影装置(1)55を利用することにより実現可能である。
撮影部15は、ROM53に記憶されている所定のプログラムをRAM52にロードしてCPU51で実行し、かつCPU51が撮影装置(2)56を利用することにより実現可能である。
音取得部16は、CPU51がマイクロフォン58を利用することにより実現可能である。
表示部18は、CPU51が表示装置57を利用することで実現可能である。
音声出力部19は、CPU51がスピーカ59を利用することにより実現可能である。
入力受付部20は、CPU51が入力装置60を利用することで実現可能である。
通信I/F21は、CPU51が通信装置54を利用することで実現可能である。
音取得部16は、CPU51がマイクロフォン58を利用することにより実現可能である。
表示部18は、CPU51が表示装置57を利用することで実現可能である。
音声出力部19は、CPU51がスピーカ59を利用することにより実現可能である。
入力受付部20は、CPU51が入力装置60を利用することで実現可能である。
通信I/F21は、CPU51が通信装置54を利用することで実現可能である。
以上のように構成された刺激誘発装置1の作用を、図7〜9のフローチャートを用いて説明する。
図7は、ユーザが受けている刺激が画像である場合に、ユーザの視線を検出して情動を推定する処理の流れを示すフローチャートである。この処理は、刺激誘発装置1の電源が投入されることにより開始される。
視線検出部14は、撮像装置14a、14bを介して、ユーザの右目及び左目の画像を取得する(ステップS10)。取得した画像は、視線検出部14から画像解析部111に出力される。
視線検出部14は、撮像装置14a、14bを介して、ユーザの右目及び左目の画像を取得する(ステップS10)。取得した画像は、視線検出部14から画像解析部111に出力される。
画像解析部111は、撮影された右目及び左目の画像から暗い部分である瞳孔部分を抽出して、その位置を検出する。瞳孔部分の抽出は、画像の明暗を利用した画像処理技術(すでにさまざまな方法が公知)を用いて行うことができる。また、画像解析部111は、瞳孔部分の位置より両眼眼球の向いている方向、すなわち視線方向を検出する。また、画像解析部111は、両眼の視線が交差する位置を注視点として検出する(ステップS12)。瞳孔部分の位置より視線方向を検出する方法はすでに公知の様々な方法を用いることができる。また、注視点は、左右の目の間隔(平均値である65mmを使用できる)と、検出された視線方向とから算出することができる。
画像解析部111は、注視点の情報を撮影部15に出力する。撮影部15は、撮像装置15aを介して注視点を含み、かつ注視点にピントが合った画像を取得する(ステップS14)。取得された画像は、撮影部15から画像解析部111へ出力される。
画像解析部111は、撮影部15から出力された画像を取得し、ピントが合っている被写体を抽出する。また、刺激選択部13は、パターン認識を行い、抽出された被写体が何であるかを示す情報を取得する(ステップS16)。画像からピントが合っている被写体を抽出する方法は、すでに公知の様々な画像処理技術を用いることができる。また、パターン認識は、主成分分析を用いることができる。主成分分析に用いる各種データは、記憶部12に記憶しておけばよい。
ステップS16において、画像解析部111は、抽出された被写体が何であるかを示す情報を、人の顔、動物、自動車等の被写体の種類を示す語として取得する。また、刺激選択部13は、被写体が人の顔の場合には、その表情(笑顔、泣顔等)を含む情報を取得する。
画像解析部111は、情動(画像)テーブル121を記憶部12から取得する。そして、画像解析部111は、情動(画像)テーブル121に基づいて、ステップS16で取得された被写体に応じた情動を推定する(ステップS18)。
ステップS18の処理について、ステップS16で、被写体が人の顔であり、かつ笑顔であることが取得された場合を例に説明する。
ステップS18の処理について、ステップS16で、被写体が人の顔であり、かつ笑顔であることが取得された場合を例に説明する。
まず、画像解析部111は、情動(画像)テーブル121のなかから、画像情報格納領域121aに人物の顔が格納された情報を抽出する。図3に示す例においては、画像情報格納領域121aに「顔(人)」が格納された情報が抽出される。
次に、画像解析部111は、抽出された情報の中から、画像詳細情報格納領域121bに「笑顔」が格納された情報を抽出する。
次に、画像解析部111は、抽出された情報の中から、画像詳細情報格納領域121bに「笑顔」が格納された情報を抽出する。
そして、画像解析部111は、抽出された情報の情動格納領域121cに格納された情報を、ユーザの情動と推定する。図3に示す例においては、画像詳細情報格納領域121bに「笑顔」が格納された情報において、情動格納領域121cには「楽しい」が格納されている。したがって、ユーザの情動として「楽しい」が推定される。
これにより、ユーザの視線を検出して情動を推定する処理が終了される。情動推定部11は、ユーザの視線を検出して情動を推定する処理を、一定期間おきに自動的に行う。これは、刻々変化するユーザの視線を、その都度検出して情動の推定を行うと、推定の精度が低下すると考えられるためである。
また、ステップS14で取得された画像によっては、ステップS16で抽出された被写体が何であるかの判定結果を得られないことも考えられる。この場合には、ステップS18の処理を行わずにフローを終了するようにしてもよい。
次に、ユーザが受けている刺激が音である場合に、音から情動を推定する処理について説明する。図8は、音から情動を推定する処理の流れを示すフローチャートである。この処理は、刺激誘発装置1の電源が投入されることにより開始される。音から情動を推定する処理は、ユーザの視線を検出して情動を推定する処理(図7参照)と同時に行うことができる。
音取得部16は、マイクロフォン16aを介して、刺激誘発装置1の周囲の音を取得する(ステップS20)。音取得部16は、取得したアナログ音声信号をデジタル化して音データを生成し、音分析部112に出力する。
音分析部112は、音取得部16から出力された音データに基づいて、その音が何であるか(例えば、人の声、動物の鳴き声、楽器の音等)を分析する(ステップ22)。また、音分析部112は、音データに人の声が含まれている場合には、音データに含まれる特定のキーワードをワードスポッティングにより検出する(ステップS22)。音分析部112は、音データの分析に、周波数解析、パターン認識等のすでに公知の様々な手法を用いることができる。ワードスポッティング、パターン認識等に用いる各種データは、記憶部12に記憶しておけばよい。
音分析部112は、情動(音)テーブル122を記憶部12から取得する。そして、音分析部112は、情動(音)テーブル122に基づいて、ステップS22で分析された音及び言葉に応じた情動を推定する(ステップS24)。
ステップS24の処理について、ステップS22で分析された結果が楽器の音であり、その楽器がピアノである場合を例に説明する。まず、音分析部112は、情動(音)テーブル122のなかから、音情報格納領域122aに「楽器」が格納された情報を抽出する。次に、音分析部112は、抽出された情報の中から、音詳細情報格納領域122bに「ピアノ」が格納された情報を抽出する。
そして、音分析部112は、抽出された情報の情動格納領域122cに格納された情報を、ユーザの情動と推定する。図3に示す例においては、音詳細情報格納領域122bに「ピアノ」が格納された情報において、情動格納領域122cには「気持ちいい」が格納されている。したがって、ユーザの情動として「気持ちいい」が推定される。
また、ステップS24の処理について、ステップS22で分析された結果が「旅行」、「海」、及び「食事」というキーワードである場合について説明する。まず、音分析部112は、情動(音)テーブル122のなかから、音詳細情報格納領域122bに「旅行」、「海」、「食事」が格納された情報を抽出する。そして、音分析部112は、抽出された情報の情動格納領域122cに格納された情報であって、最も数が多い情動を、ユーザの情動と推定する。
図4に示す情動(音)テーブル122では、「旅行」及び「海」は「楽しい」という情動が関連付けられている。また、「食事」は「嬉しい」という情動が関連付けられている。つまり、「楽しい」という情動が2つ、「嬉しい」という情動が1つである。したがって、ユーザの情動として「楽しい」が推定される。
これにより、音から情動を推定する処理が終了される。情動推定部11は、視線から情動を推定する処理と同様、推定の精度が低下しないように、音から情動を推定する処理を一定期間おきに自動的に行う。
以上のようにして、情動推定部11によりユーザの情動が推定される。ユーザの視線を検出して情動を推定する処理と、音から情動を推定する処理との2通りの方法により情動が推定されるため、情動推定部11は、2通りの情動を推定する場合がある。この場合には、情動推定部11は、その前に推定された情動に近い情動を推定結果とすることができる。例えば、直近2回の推定結果が「楽しい」、「気持ちいい」であった場合に、視線から情動を推定する処理による推定結果が「楽しい」であり、音から情動を推定する処理による推定結果が「悲しい」であった場合には、情動推定部11は、すでに推定された結果である「楽しい」を、今回の推定結果とすることができる。また、情動推定部11は、ユーザの視線を検出して情動を推定する処理(音から情動を推定する処理でもよい)により推定された結果を優先して、情動推定部11による推定結果とすることができる。
また、視線から情動を推定する処理と、音から情動を推定する処理とを一定期間おきに自動的に行うため、ある時点で推定された情動が、前回推定された情動と異なる場合も考えられる。この場合には、現時点までに推定された情動に基づいて、どの推定結果を採用するか、推定結果を採用しないか等を決定することができる。例えば、直近2回の推定結果が「楽しい」、「気持ちいい」であった場合に、今回の推定結果が「怒り」であった場合には、情動推定部11は、今回の推定結果は信頼性が低いと判定し、前回の推定結果である「気持ちいい」を今回の推定結果とすることができる。
図9は、情動の推定結果に基づいて刺激を出力する処理の流れを示すフローチャートである。この処理は、情動推定部11により情動が推定され、情動推定部11から推定結果が刺激選択部13へ出力された場合に開始される。
刺激選択部13は、刺激テーブル123を記憶部12から取得する。そして、刺激選択部13は、刺激テーブル123に基づいて、情動推定部11から入力された情動に適した刺激を選択する(ステップS30)。
ステップS30の処理について、具体的に説明する。取得された情動が「嬉しい」であった場合には、刺激選択部13は、情動格納領域123aに「嬉しい」が格納された情報を刺激テーブル123から抽出する。
次に、刺激選択部13は、抽出された情報のうち、重みづけ格納領域123dの重みづけが最も重い刺激を抽出する。図5に示す刺激テーブル123には、情動格納領域123aに「嬉しい」が格納された情報として、刺激格納領域123cには、「刺激A1」、「刺激A2」、「刺激A3」・・・が格納されている。このうち、重みづけ格納領域123dの重みづけが最も重い「A」に関連付けられているのは「刺激A1」であるため、刺激選択部13は、「刺激A1」を情動に適した刺激として選択する。
刺激選択部13は、ステップS30で選択された刺激の種類が何であるかを判定する(ステップS32)。具体的には、刺激選択部13は、ステップS30で選択された刺激に関連付けられた刺激の種類を、刺激(種類)格納領域123bから取得し、その結果を判定結果とする。
刺激の種類が「画像」であった場合(ステップS32で「画像」)には、刺激選択部13は、ステップS30で選択された刺激に記載された題名を出力制御部17に出力する。出力制御部17は、画像データを刺激記憶領域124から取得して、表示部18に出力する(ステップS34)。
表示部18は、出力制御部17から入力され画像データを表示用の画像データに変換し、液晶ディスプレイ18aに表示させる(ステップS36)。
表示部18は、出力制御部17から入力され画像データを表示用の画像データに変換し、液晶ディスプレイ18aに表示させる(ステップS36)。
刺激の種類が「音」であった場合(ステップS32で「音」)には、刺激選択部13は、ステップS30で選択された刺激に記載された題名を出力制御部17に出力する。出力制御部17は、音データを刺激記憶領域124から取得して、音声出力部19に出力する(ステップS38)。
音声出力部19は、出力制御部17から入力された音データをデジタル音声信号に変換し、音量調整などの音質調整処理を行い、スピーカ19a、19bから出力する(ステップS40)。
刺激の種類が「香り」であった場合(ステップS32で「香り」)には、刺激選択部13は、ステップS30で選択された刺激に記載された香りの名称を出力制御部17に出力する。出力制御部17は、取得された香りの名称を香り出力部22に出力する。香り出力部22は、刺激選択部13から入力された種類の香りを、芳香剤収容部221からタンクに注入する(ステップS42)。
香り出力部22は、タンクに注入された芳香剤を気化して、吹き出し口から拡散させる(ステップS44)。
香り出力部22は、タンクに注入された芳香剤を気化して、吹き出し口から拡散させる(ステップS44)。
刺激の種類が「温度/湿度」であった場合(ステップS32で「温度/湿度」)には、刺激選択部13は、ステップS30で選択された刺激に記載された温度及び湿度を出力制御部17に出力する。出力制御部17は、取得された温度及び湿度を空気調和部23に出力する(ステップS46)。
空気調和部23は、刺激選択部13から入力された温度及び湿度となるように、温度及び湿度を調整する(ステップS48)。
空気調和部23は、刺激選択部13から入力された温度及び湿度となるように、温度及び湿度を調整する(ステップS48)。
刺激を出力する処理(ステップS32〜S48)が終了したら、制御部10は、入力受付部20を介して刺激の変更要求が受け付けられたか否かを判定する(ステップS50)。
入力受付部20から刺激の変更要求が受け付けられていない場合(ステップS50でNO)には、処理を終了する。
入力受付部20から刺激の変更要求が受け付けられていない場合(ステップS50でNO)には、処理を終了する。
入力受付部20から刺激の変更要求が受け付けられた場合(ステップS50でYES)には、刺激選択部13は、刺激テーブル123を記憶部12から取得する。そして、刺激選択部13は、刺激テーブル123に基づいて、情動推定部11から入力された情動に適した刺激であって、ステップS30で選択された刺激とは異なる刺激を選択する(ステップS52)。
ステップS52の処理について、具体的に説明する。例えば、情動が「嬉しい」であり、「刺激A1」を情動に適した刺激として出力したものが否定された場合には、刺激選択部13は、情動格納領域123aに「嬉しい」が格納された情報のうち、「刺激A1」の次に重みづけが最も重い刺激を選択する。図5に示す刺激テーブル123において、重みづけ格納領域123dの重みづけが「刺激A1」の次に重いのは「刺激A2」であるため、刺激選択部13は、「刺激A2」を選択する。
また、刺激選択部13は、ステップS52で選択した刺激の重みづけが一番重くなるように、刺激テーブル123を修正する(ステップS54)。
また、刺激選択部13は、ステップS52で選択した刺激の重みづけが一番重くなるように、刺激テーブル123を修正する(ステップS54)。
図10は、図5に示す刺激テーブル123が修正された場合の刺激テーブル123−1の一例である。例えば、「刺激A1」及び「刺激A2」を出力した時には刺激の変更要求が入力され、「刺激A3」を出力した時には刺激の変更要求が入力されなかった場合には、刺激選択部13は、「刺激A3」に関連付けられた重みづけ格納領域123dに「A」を格納する。
また、刺激選択部13は、これに伴い、「刺激A1」及び「刺激A2」に関連付けられた重みづけを下げる。具体的には、刺激選択部13は、「刺激A1」に関連付けられた重みづけ格納領域123dに「B」を格納する。また、刺激選択部13は、「刺激A2」に関連付けられた重みづけ格納領域123dに「C」を格納する。
これにより、刺激テーブル123が修正される(学習機能)。刺激テーブル123が修正されることで、次回同じ情動が選択された場合には、ユーザによる入力を反映した刺激を出力することができる。その後、ステップS32(出力する刺激の種類を判定するステップ)へ戻る。
本実施の形態によれば、周囲の状況から情動を推定することができる。また、推定された情動に基づいて、この情動とは異なる情動であって、ユーザにとって好ましい情動を、ユーザに発生させることができる。したがって、ユーザに癒しやノスタルジーに浸ったり、精神的な安定をもたらしたりすることができる。
例えば、図22に示すように、野山や川が写っている風景写真を見ている場合には、「綺麗だ」と思う情動が発生する。この場合に、せせらぎの音が流れたり、室温が低くなったりすると、新たに「気持ちいい」という情動が発生する。これにより、ユーザは癒しを得ることができる。
また、図23に示すように、昔の写真を見ている場合には、「懐かしい」という情動が発生する。この場合に、見ている写真に関連する音楽が流れると、より懐かしさが増して、新たに「楽しい」という情動が発生する。これにより、ユーザはノスタルジーを感じることができる。
また、本実施の形態によれば、ユーザの入力に基づいて情動/刺激テーブルが修正されるため、ユーザにとってよりよい刺激を出力することができる。さらに、刺激の受け手であるユーザが、出力(刺激)をコントロールすることができる。
なお、本実施の形態では、ユーザが視認している画像に基づいて情動を推定したが、ユーザが本、雑誌等を読んでいる場合等には、画像解析部は、本の内容を分析して情動を推定するようにしてもよい。本、雑誌等の文字は、撮影された画像中の文字を読み取り、前もって記憶されたパターンとの照合により文字を特定する文字読み取り技術(OCR)を用いて取得することができる。本、雑誌等の内容は、取得された文字から単語を読み取り、キーワードを抽出することにより分析することができる。
また、本実施の形態では、マイクロフォン16aを用いて音を取得したが、ユーザがイヤホンを介して音楽を聴いている場合も考えられる。この場合には、音取得部が、イヤホンの出力内容を直接取得するようにすればよい。
また、本実施の形態では、ユーザが刺激を選択できるが、ユーザに否定される可能性が高い刺激を出力することが避けることが望ましい。例えば、ユーザが音楽を聴いている場合にはその音楽を継続して聞きたい場合が通常である。このような場合に、刺激として音を出力することは得策ではない。したがって、音から情動を推定した結果に基づいて刺激を出力する場合には、刺激選択部は、音ではない種類の刺激(例えば、香り)を出力するようにしてもよい。これにより、元の刺激による情動なのか、出力された刺激による情動なのかを切り分けることもできる。
また、本実施の形態では、刺激選択部13が刺激テーブル123に基づいて情動推定部11から入力された情動に適した刺激を選択する処理(ステップS30)において、刺激テーブル123の重みづけ格納領域123dに格納された重みづけが最も重い刺激を抽出したが、刺激の種類に基づいて刺激を抽出するようにしてもよい。例えば、情動格納領域123aに「嬉しい」が格納された情報として、刺激格納領域123cには、「刺激A1」、「刺激A2」、「刺激A3」・・・が格納されている(図5参照)。ユーザが受けている刺激が「音」である場合には、刺激(種類)格納領域123bに格納された情報が「音」でない刺激であって、重みづけ格納領域123dの重みづけが最も重い刺激である「刺激A3」を情動に適した刺激として選択すればよい。
また、本実施の形態では、音の刺激として音楽を例に説明したが、ノイズキャンセラ等によりノイズを消す刺激を、音の刺激として出力してもよい。
また、本実施の形態では、刺激選択部13が刺激テーブル123に基づいて情動推定部11から入力された情動に適した刺激を選択する処理(ステップS30)において、刺激テーブル123の重みづけ格納領域123dに格納された重みづけが最も重い刺激を抽出したが、刺激の種類に基づいて刺激を抽出するようにしてもよい。例えば、情動格納領域123aに「嬉しい」が格納された情報として、刺激格納領域123cには、「刺激A1」、「刺激A2」、「刺激A3」・・・が格納されている(図5参照)。ユーザが受けている刺激が「音」である場合には、刺激(種類)格納領域123bに格納された情報が「音」でない刺激であって、重みづけ格納領域123dの重みづけが最も重い刺激である「刺激A3」を情動に適した刺激として選択すればよい。
また、本実施の形態では、音の刺激として音楽を例に説明したが、ノイズキャンセラ等によりノイズを消す刺激を、音の刺激として出力してもよい。
<第2の実施形態>
本発明の第1の実施の形態は、ユーザが受けている刺激(例えば、ユーザの視線や音)に基づいて情動を推定したが、情動を推定する方法はこれに限られない。
本発明の第2の実施の形態は、脳波から情動を推定する形態である。なお、第1の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
本発明の第1の実施の形態は、ユーザが受けている刺激(例えば、ユーザの視線や音)に基づいて情動を推定したが、情動を推定する方法はこれに限られない。
本発明の第2の実施の形態は、脳波から情動を推定する形態である。なお、第1の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
図11は、刺激誘発装置2の構成を説明するための概略構成図である。図12は、刺激誘発装置2の外観を示す斜視図である。図12に示すように、刺激誘発装置2は、帽子2aを有する帽子型の装置である。帽子2aには、刺激誘発装置2の各機能部が設けられている。なお、帽子2aには、刺激誘発装置2の一部機能のみを設け、他の機能については、直接、或いは図示しないネットワークを介して接続された他の装置に設けられていてもよい。
刺激誘発装置2は、主として、制御部10と、情動推定部11Aと、記憶部12Aと、刺激選択部13と、出力制御部17と、表示部18と、音声出力部19と、入力受付部20と、通信I/F(インターフェース)21と、脳波取得部24とで構成される。刺激誘発装置2は、香り出力部22と、空気調和部23と直接、或いは図示しないネットワークを介して接続される。
情動推定部11Aは、脳波取得部24により取得された脳波を解析して情動を推定する。情動推定部11Aの処理については、後に詳述する。
記憶部12には、主として、情動(脳波)テーブル125と、刺激テーブル123とが予め記憶されている。
情動推定部11Aは、脳波取得部24により取得された脳波を解析して情動を推定する。情動推定部11Aの処理については、後に詳述する。
記憶部12には、主として、情動(脳波)テーブル125と、刺激テーブル123とが予め記憶されている。
図13は、情動(脳波)テーブル125の概略説明図である。情動(脳波)テーブル125は、δ波格納領域125aと、θ波格納領域125bと、α波格納領域125cと、β波格納領域125dと、情動格納領域121eとを有する。
δ波格納領域125aには、取得された脳波のうちのδ波の割合が格納される。δ波は、0Hz以上4Hz未満の脳波を意味する。δ波は、深い睡眠時に出現する。
θ波格納領域125bには、取得された脳波のうちのθ波の割合が格納される。θ波は、4Hz以上8Hz未満の脳波を意味する。θ波は、うたた寝などの浅い眠り時に出現する。
α波格納領域125cには、取得された脳波のうちのα波の割合が格納される。α波は、8Hz以上13Hz未満の脳波を意味する。α波は、目を閉じてくつろいでいる時に出現する。
β波格納領域125dには、取得された脳波のうちのβ波の割合が格納される。β波は、13Hz以上の脳波を意味するβ波は、集中している時、緊張している時や考え事をしている時に出現する。
情動格納領域125eには、δ波格納領域125aと、θ波格納領域125bと、α波格納領域125cと、β波格納領域125dとにそれぞれ記憶された割合の時の情動が記憶される。例えば、δ波格納領域125aにA1%、θ波格納領域125bにB1%、α波格納領域125cにC1%が、β波格納領域125dに1%が格納されている場合には、情動格納領域125eには、「楽しい」という情動が格納される。
このように、情動(脳波)テーブル125には、脳波の特徴と、情動とが関連付けて記憶されている。
このように、情動(脳波)テーブル125には、脳波の特徴と、情動とが関連付けて記憶されている。
図11の説明に戻る。表示部18Aは、カラー表示が可能な液晶ディスプレイ18aと、モニタ保持部18cと、表示制御部(図示せず)を有する。図12に示すように、液晶ディスプレイ18aは、変形自在かつ帽子2aに対して回動自在に設けられたモニタ保持部18cに設けられる。なお、モニタ保持部18cの形態は図12に示す場合に限られない。
音声出力部19Aは、音声コーデック部(図示せず)と、スピーカ19cとを有する。図12に示すように、スピーカ19cは、帽子2a側面に設けられる。なお、スピーカ19cの数は2つでもよいし、設けられる位置も図12に示す場合に限られない。
脳波取得部24は、複数の電極24aを有する。図12に示すように、複数の電極24aは、帽子2aの内側の所定の位置に設けられている。頭皮を10〜20%の等間隔で区切り、計21個の電極24aを配置するのが一般的である。脳波取得部24は、複数の電極24aにより得られた電気信号に基づいて脳波を取得する。
図14は、刺激誘発装置2のハードウェア構成を示す図である。図14に示すように、刺激誘発装置1は、主として、CPU(Central Processing Unit)51と、RAM(Random Access Memory)52と、ROM(Read Only Memory)53と、通信装置54と、表示装置57と、スピーカ59と、入力装置60と、バス61と、脳波計62とを有する。
CPU51は、数値演算及び各デバイスを制御する等、刺激誘発装置1が行う様々な主たる処理を実行する。RAM52は、演算データなどを格納する。ROM53は、プログラムやデータを格納する。通信装置54は、各種ハードウェアを制御部1に接続するインターフェースである。バス61は、CPU51と、RAM52と、ROM53と、通信装置54と、脳波計62と、表示装置57と、スピーカ59と、入力装置60とを接続する。
制御部10と、情動推定部11Aと、刺激選択部13と、出力制御部17とは、ROM53に記憶されている所定のプログラムをRAM52にロードしてCPU51で実行することで実現可能である。
記憶部12Aは、CPU51がRAM52と又はROM53を利用することにより実現可能である。
表示部18Aは、CPU51が表示装置57を利用することで実現可能である。
音声出力部19Aは、CPU51がスピーカ59を利用することにより実現可能である。
脳波取得部24は、CPU51が脳波計62を利用することで実現可能である。脳波計62の構成及び作用はすでに公知であるため、説明を省略する。
記憶部12Aは、CPU51がRAM52と又はROM53を利用することにより実現可能である。
表示部18Aは、CPU51が表示装置57を利用することで実現可能である。
音声出力部19Aは、CPU51がスピーカ59を利用することにより実現可能である。
脳波取得部24は、CPU51が脳波計62を利用することで実現可能である。脳波計62の構成及び作用はすでに公知であるため、説明を省略する。
以上のように構成された刺激誘発装置2の作用を、図15のフローチャートを用いて説明する。図15は、音から情動を推定する処理の流れを示すフローチャートである。この処理は、刺激誘発装置2の電源が投入されることにより開始される。
脳波取得部24は、電極24aを介してユーザの脳波を取得する(ステップS60)。脳波取得部24は、取得した脳波を情動推定部11Aに出力する。
脳波取得部24は、電極24aを介してユーザの脳波を取得する(ステップS60)。脳波取得部24は、取得した脳波を情動推定部11Aに出力する。
情動推定部11Aは、入力された脳波を解析して、δ波、θ波、α波及びβ波の割合を取得する(ステップS62)。脳波を解析する方法はすでに公知であるため、説明を省略する。
情動推定部11Aは、情動(脳波)テーブル125を記憶部12Aから取得する。そして、情動推定部11Aは、情動(脳波)テーブル125に基づいて、ステップS6で分析された脳波に応じた情動を推定する(ステップS64)。情動推定部11Aは、ステップS62で取得されたδ波、θ波、α波及びβ波の割合に最も近い組み合わせの情報を、情動(脳波)テーブル125から抽出する。そして、情動推定部11Aは、抽出された情報の情動格納領域122cに格納された情報を、ユーザの情動と推定する。
これにより、脳波から情動を推定する処理が終了される。情動推定部11Aは、推定の精度が低下しないように、脳波から情動を推定する処理を一定期間おきに自動的に行う。
脳波から情動を推定する処理が終了したら、情動の推定結果に基づいて刺激を出力する処理を行う。情動の推定結果に基づいて刺激を出力する処理は、第1の実施の形態(図9)と同様であるため、説明を省略する。
本実施の形態によれば、脳波を用いることで、ユーザの情動をより簡単に推定することができる。また、脳波を用いることで、リラックスできていない時に発生する否定的な情動も容易に推定できるため、うつ状態のユーザの気分を改善するような用途に用いることもできる。
なお、本実施の形態では、入力受付部20から刺激の変更要求が入力されたか否か(ステップS50、図9参照)に基づいて刺激の変更(ステップS52、図9参照)及び情動(脳波)テーブル125の修正(ステップS54、図9参照)を行ったが、脳波の解析結果に基づいて刺激の変更(ステップS52)及び情動(脳波)テーブル125の修正(ステップS54)を行ってもよい。この場合には、脳波を取得し、その脳波に基づいて情動を推定し、推定した情動が怒り等の不快を示す情動であれば刺激を変更し(ステップS52)推定した情動が楽しい等の快適を示す情動であれば処理を終了するようにすればよい。
また、本実施の形態では、脳波に基づいて情動を推定するが、情動を推定するのに脈拍を用いてもよいし、脳波及び脈拍を用いてもよい。脈拍は、すでに公知の脈拍計を用いることが出来る。
<第3の実施形態>
本発明の第1の実施の形態は、ユーザが装着する装置を用いて、ユーザが受けている刺激に基づいて情動を推定したが、情動を推定する装置の形態はこれに限られない。
<第3の実施形態>
本発明の第1の実施の形態は、ユーザが装着する装置を用いて、ユーザが受けている刺激に基づいて情動を推定したが、情動を推定する装置の形態はこれに限られない。
本発明の第3の実施の形態は、据え置き型の装置を用いて情動を推定する形態である。なお、第1の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
図16は、刺激誘発装置3の構成を説明するための概略構成図である。図17は、刺激誘発装置3の外観を示す斜視図である。図17に示すように、刺激誘発装置3は、本体部3aと、表示部3bとを備えた据え置き型の装置である。表示部3bには、表示部18Bが設けられ、本体部3aには、刺激誘発装置3の表示部18B以外の各機能部が設けられている。なお、本体部3aには、刺激誘発装置3の一部機能のみを設け、他の機能については、直接、或いは図示しないネットワークを介して接続された他の装置に設けられていてもよい。
刺激誘発装置3は、主として、制御部10と、情動推定部11Bと、記憶部12Bと、刺激選択部13と、視線検出部14Aと、出力制御部17と、表示部18Bと、音声出力部19Bと、入力受付部20と、通信I/F(インターフェース)21と、顔撮影部25とで構成される。刺激誘発装置2は、香り出力部22と、空気調和部23と直接、或いは図示しないネットワークを介して接続される。
情動推定部11Bは、主として、視認対象解析部113と、表情解析部114とを備えている。視認対象解析部113は、視線検出部14Aにより取得された目の画像から視認対象を解析して情動を推定する。表情解析部114は、顔撮影部25により撮影されたユーザの顔画像から表情を認識して情動を推定する。情動推定部11Bの処理については、後に詳述する。
記憶部12Bには、主として、情動(画像)テーブル121と、情動(表情)テーブル126とが予め記憶されている。
図18は、情動(表情)テーブル126の概略説明図である。情動(表情)テーブル126は、表情格納領域126aと、情動格納領域126bとを有する。
記憶部12Bには、主として、情動(画像)テーブル121と、情動(表情)テーブル126とが予め記憶されている。
図18は、情動(表情)テーブル126の概略説明図である。情動(表情)テーブル126は、表情格納領域126aと、情動格納領域126bとを有する。
表情格納領域126aには、表情の情報、例えば笑顔、泣顔の情報が格納される。情動格納領域126bには、表情格納領域126aに格納された表情に対応する情動が格納される。すなわち、情動(表情)テーブル126には、表情と、情動とが関連付けて記憶される。
図16の説明に戻る。視線検出部14Aは、CCDカメラ等の撮像装置14cを有する。図17に示すように、視線検出部14Aは、本体部3a前面に設けられる。視線検出部14Bは、暗い部分である瞳孔部分を含み、かつ右目及び左目の輪郭が認識できるように、右目及び左目を含む画像を撮影する。
表示部18Bは、カラー表示が可能な液晶ディスプレイ18dと、表示制御部(図示せず)を有する。図17に示すように、液晶ディスプレイ18dは、表示部3bの前面に設けられる。
表示制御部は、出力制御部17から入力され画像データを表示用の画像データに変換し、液晶ディスプレイ18dに出力する。これにより、液晶ディスプレイ18dに画像データが表示される。
音声出力部19は、音声コーデック部(図示せず)と、スピーカ19dとを有する。図17に示すように、スピーカ19dは、本体部3aの前面に設けられる。
音声出力部19は、音声コーデック部(図示せず)と、スピーカ19dとを有する。図17に示すように、スピーカ19dは、本体部3aの前面に設けられる。
音声コーデック部は、出力制御部17から入力された音データをデジタル音声信号に変換し、音量調整などの音質調整処理を行い、スピーカ19dに出力する。これにより、スピーカ19dから音声が出力される。
なお、スピーカ19dは複数でもよいし、設けられる位置も図17に示す場合に限られない。
なお、スピーカ19dは複数でもよいし、設けられる位置も図17に示す場合に限られない。
顔撮影部25は、CCDカメラ等の撮像装置25a、25bを有する。図17に示すように、撮像装置25a、25bは、本体部3a前面、かつ撮像装置14cの左右に設けられる。撮像装置25a、25bは、左右からユーザの顔を撮影する。これにより、ユーザの顔を立体的に認識し、表情が精度よく認識できるようになる。ただし、撮像装置は1つでも表情認識は可能である。
図19は、刺激誘発装置3のハードウェア構成を示す図である。図19に示すように、刺激誘発装置1は、主として、CPU(Central Processing Unit)51と、RAM(Random Access Memory)52と、ROM(Read Only Memory)53と、通信装置54と、撮影装置(1)55と、表示装置57と、スピーカ59と、入力装置60と、バス61と、撮影装置(3)63とを有する。
制御部10と、情動推定部11Bと、刺激選択部13と、出力制御部17とは、ROM53に記憶されている所定のプログラムをRAM52にロードしてCPU51で実行することで実現可能である。
記憶部12Bは、CPU51がRAM52と又はROM53を利用することにより実現可能である。
記憶部12Bは、CPU51がRAM52と又はROM53を利用することにより実現可能である。
視線検出部14Aは、ROM53に記憶されている所定のプログラムをRAM52にロードしてCPU51が実行し、かつCPU51が撮影装置(1)55を利用することにより実現可能である。
顔撮影部25は、ROM53に記憶されている所定のプログラムをRAM52にロードしてCPU51で実行し、かつCPU51が撮影装置(3)63を利用することにより実現可能である。
表示部18Bは、CPU51が表示装置57を利用することで実現可能である。
以上のように構成された 刺激誘発装置3の作用を、図20、21のフローチャートを用いて説明する。
表示部18Bは、CPU51が表示装置57を利用することで実現可能である。
以上のように構成された 刺激誘発装置3の作用を、図20、21のフローチャートを用いて説明する。
図20は、視線に基づいて情動を推定する処理の流れを示すフローチャートである。図20の処理は、刺激誘発装置3の電源が投入されることにより開始される。
視線検出部14Aは、撮像装置14cを介して、ユーザの右目及び左目の画像を取得する(ステップS70)。取得した画像は、視線検出部14Aから視認対象解析部113に出力される。
視認対象解析部113は、ステップS70で取得された画像に基づいて、ユーザが液晶ディスプレイ18dを視認しているか否かを判定する(ステップS72)。ステップS72の処理について具体的に説明する。
視認対象解析部113は、撮影された右目及び左目の画像から暗い部分である瞳孔部分を抽出して、その位置を検出する。瞳孔部分の抽出は、画像の明暗を利用した画像処理技術(すでにさまざまな方法が公知)を用いて行うことができる。また、視認対象解析部113は、瞳孔部分の位置より両眼眼球の向いている方向、すなわち視線方向を検出する。また、視認対象解析部113は、両眼の視線が交差する位置を注視点として検出する。瞳孔部分の位置より視線方向を検出する方法はすでに公知の様々な方法を用いることができる。また、注視点は、左右の目の間隔(平均値である65mmを使用できる)と、検出された視線方向とから算出することができる。
視認対象解析部113は、ユーザと液晶ディスプレイ18dとの位置関係に基づいて、このようにして算出された注視点が液晶ディスプレイ18d上であるか否かを判定する。視認対象解析部113は、注視点が液晶ディスプレイ18d上である場合にはユーザが液晶ディスプレイ18dを視認していると判定する。ユーザと液晶ディスプレイ18dとの位置関係は、視線検出部14Aで撮影された画像の目の位置及び大きさから推定することが出来る。
ユーザが液晶ディスプレイ18dを視認していない場合(ステップS72でNO)には、視認対象解析部113は、処理を終了する。
ユーザが液晶ディスプレイ18dを視認していない場合(ステップS72でNO)には、視認対象解析部113は、処理を終了する。
ユーザが液晶ディスプレイ18dを視認している場合(ステップS72でYES)には、視認対象解析部113は、液晶ディスプレイ18dに表示している画像と、注視点の位置とに基づいて、ユーザが視認している画像が何であるかを示す情報を取得する(ステップS74)。液晶ディスプレイ18dに表示している画像は、表示制御部から取得することができる。
視認対象解析部113は、情動(画像)テーブル121を記憶部12から取得する。そして、視認対象解析部113は、情動(画像)テーブル121に基づいて、ステップS74で取得された画像に応じた情動を推定する(ステップS76)。ステップS76の処理は、ステップS18の処理と同様の内容であるため、説明を省略する。
図21は、ユーザの表情に基づいて情動を推定する処理の流れを示すフローチャートである。図21の処理は、刺激誘発装置3の電源が投入されることにより開始される。
撮像装置25a、25bは、ユーザの顔を撮影することにより、ユーザの顔画像を取得する(ステップS80)。顔撮影部25は、取得した顔画像を表情解析部114に出力する。
表情解析部114は、取得された顔画像を解析して、ユーザの表情を認識する(ステップS82)。ユーザの表情を認識する方法は、パターン認識等のすでに公知の方法を用いることが出来る。
表情解析部114は、情動(表情)テーブル126を記憶部12Bから取得する。そして、表情解析部114は、情動(表情)テーブル126に基づいて、ユーザの表情に応じた情動を推定する(ステップS84)。例えば、表情が笑顔である場合には、「楽しい」という情動が推定される。
情動を推定する処理が終了したら、情動の推定結果に基づいて刺激を出力する処理を行う。情動の推定結果に基づいて刺激を出力する処理は、第1の実施の形態(図9)と同様であるため、説明を省略する。
本実施の形態によれば、ユーザの表情を用いることで、より正確な情動を把握することが出来る。
本実施の形態によれば、ユーザの表情を用いることで、より正確な情動を把握することが出来る。
なお、本実施の形態では、ユーザが視認している画像と、ユーザの表情とに基づいて情動を推定したが、ユーザの表情にのみ基づいて情動を推定してもよい。また、ユーザが視認している画像に基づいて推定された情動と、ユーザの表情に基づいて推定された情動とが異なる場合には、ユーザの表情に基づいて推定された情動に基づいて刺激を出力すればよい。
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。また、本発明は、刺激誘発装置に限らず、刺激誘発装置を含むシステムとして提供しても良いし、刺激誘発装置に適用するプログラムとして提供することもできる。
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。また、本発明は、刺激誘発装置に限らず、刺激誘発装置を含むシステムとして提供しても良いし、刺激誘発装置に適用するプログラムとして提供することもできる。
1、2、3:刺激誘発装置、11、11A、11B:情動推定部、12、12A、12B:記憶部、13:刺激選択部、14、14A、14B:視線検出部、15:撮影部、16:音取得部、17:出力制御部、18、18A、18B:表示部、19、19A:音声出力部、20:入力受付部、21:通信I/F、22:香り出力部、23:空気調和部、24:脳波取得部、25:顔撮影部、51:CPU、52:RAM、53:ROM、54:通信装置、57:表示装置、58:マイクロフォン、59:スピーカ、60:入力装置、61:バス、62:脳波計、111:画像解析部、112:音分析部、113:視認対象解析部、114:表情解析部、121:画像/情動テーブル、122:音/情動テーブル、123:情動/刺激テーブル、124:刺激記憶領域、125:脳波/情動テーブル、126:表情/情動テーブル
Claims (16)
- 第1の情動と、ユーザにとって好ましい情動である第2の情動を発生させる刺激とを対応付けた情動刺激関係情報が記憶された記憶部と、
ユーザの情動を推定する情動推定部と、
前記情動刺激関係情報に基づいて、前記推定された情動に対応する刺激を選択する刺激選択部と、
前記刺激選択部により選択された刺激を出力する出力部と、
を備えたことを特徴とする刺激誘発装置。 - 請求項1に記載の刺激誘発装置であって、
前記出力された刺激である第1の刺激の変更要求を受け付ける入力受付部と、
前記変更要求が入力されると、前記情動刺激関係情報を修正する修正手段と、を備え、
前記刺激選択部は、前記変更要求が入力されると、前記推定された情動に応じた刺激であって、前記第1の刺激とは異なる第2の刺激を選択し、
前記出力部は、前記第2の刺激を出力する
ことを特徴とする刺激誘発装置。 - 請求項1又は2に記載の刺激誘発装置であって、
前記ユーザが受けている刺激を取得する刺激取得部を備え、
前記情動推定部は、前記刺激取得部により取得された刺激に基づいて情動を推定する
ことを特徴とする刺激誘発装置。 - 請求項3に記載の刺激誘発装置であって、
前記刺激取得部は、
前記ユーザの視線を検出する視線検出部と、前記視線の先にある被写体を撮影する第1の撮影部と、を備え、
前記情動推定部は、前記撮影された被写体に基づいて情動を推定する画像解析部を有する
ことを特徴とする刺激誘発装置。 - 請求項4に記載の刺激誘発装置であって、
前記視線検出部は、前記視線に基づいて前記ユーザの注視点を検出し、
前記撮影部は、前記注視点を含み、かつ前記注視点にピントが合った画像を撮影する
ことを特徴とする刺激誘発装置。 - 請求項5に記載の刺激誘発装置であって、
前記画像解析部は、前記ユーザが視認している被写体が何であるかを示す情報を、前記被写体の種類を示す語として取得することにより情動を推定する
ことを特徴とする刺激誘発装置。 - 請求項3に記載の刺激誘発装置であって、
前記刺激取得部は、前記ユーザの顔を撮影する第2の撮影部を備え、
前記情動推定部は、前記撮影されたユーザの顔に基づいてユーザの表情を解析し、当該表情に基づいて情動を推定する表情解析部を有する
ことを特徴とする刺激誘発装置。 - 請求項3に記載の刺激誘発装置であって、
前記刺激取得部は、前記刺激誘発装置の周辺の音を取得する音取得部を備え、
前記情動推定部は、前記音取得部により取得された音を解析して情報を推定する音解析部を有する
ことを特徴とする刺激誘発装置。 - 請求項8に記載の刺激誘発装置であって、
前記音解析部は、前記取得された音から特定のキーワードを検出し、当該検出されたキーワードに基づいて情動を推定する
ことを特徴とする刺激誘発装置。 - 請求項1又は2に記載の刺激誘発装置であって、
前記ユーザの脳波を測定する脳波計を備え、
前記情動推定部は、前記測定された脳波に基づいて情動を推定する
ことを特徴とする刺激誘発装置。 - 請求項1から10のいずれか1項に記載の刺激誘発装置であって、
前記出力部は、画像の表示が可能な表示部であり、
前記記憶部は、画像データを記憶し、
前記刺激選択部は、前記刺激として画像を選択し、
前記出力部は、前記選択された画像の画像データを前記記憶部から取得して表示する
ことを特徴とする刺激誘発装置。 - 請求項1から11のいずれか1項に記載の刺激誘発装置であって、
前記出力部は、音声出力部であり、
前記記憶部は、音声データを記憶し、
前記刺激選択部は、前記刺激として音声を選択し、
前記出力部は、前記選択された音声の音声データを前記記憶部から取得して出力する
ことを特徴とする刺激誘発装置。 - 請求項1から12のいずれか1項に記載の刺激誘発装置であって、
前記出力部は、複数の芳香剤が収容された芳香剤収容部と、前記芳香剤を拡散させる芳香剤拡散部と、を備えた香り出力部であり、
前記刺激選択部は、前記刺激として香りの種類を選択し、
前記出力部は、前記選択された種類の香りを拡散させる
ことを特徴とする刺激誘発装置。 - 請求項1から13のいずれか1項に記載の刺激誘発装置であって、
前記出力部は、前記ユーザがいる空間の気温及び湿度を調整する空気調和部であり、
前記刺激選択部は、前記刺激として室温及び湿度を選択し、
前記出力部は、前記選択された室温及び湿度となるように気温及び湿度を調整する
ことを特徴とする刺激誘発装置。 - ユーザの情動を推定するステップと、
第1の情動と、前記ユーザにとって好ましい情動である第2の情動を発生させる刺激とを対応させた情動刺激関係情報を取得するステップと、
前記取得された情報に基づいて、前記第1の情動に応じた刺激を選択するステップと、
前記選択された刺激を出力するステップと、
を有することを特徴とする刺激誘発方法。 - ユーザの情動を推定するステップと、
第1の情動と、前記ユーザにとって好ましい情動である第2の情動を発生させる刺激とを対応させた情動刺激関係情報を取得するステップと、
前記取得された情報に基づいて、前記第1の情動に応じた刺激を選択するステップと、
前記選択された刺激を出力するステップと、
をコンピューターに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012174030A JP2014030657A (ja) | 2012-08-06 | 2012-08-06 | 刺激誘発装置、刺激誘発方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012174030A JP2014030657A (ja) | 2012-08-06 | 2012-08-06 | 刺激誘発装置、刺激誘発方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014030657A true JP2014030657A (ja) | 2014-02-20 |
Family
ID=50280961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012174030A Pending JP2014030657A (ja) | 2012-08-06 | 2012-08-06 | 刺激誘発装置、刺激誘発方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014030657A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107355947A (zh) * | 2017-07-19 | 2017-11-17 | 珠海格力电器股份有限公司 | 一种空调系统及其控制方法 |
JP2020116173A (ja) * | 2019-01-24 | 2020-08-06 | パナソニックIpマネジメント株式会社 | 印象評価システム、及び、印象評価方法 |
CN112149610A (zh) * | 2020-10-09 | 2020-12-29 | 支付宝(杭州)信息技术有限公司 | 一种目标对象的识别的方法和系统 |
WO2021172160A1 (ja) * | 2020-02-26 | 2021-09-02 | 株式会社ジョリーグッド | コンテンツ表示装置、コンテンツ表示方法及びプログラム |
-
2012
- 2012-08-06 JP JP2012174030A patent/JP2014030657A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107355947A (zh) * | 2017-07-19 | 2017-11-17 | 珠海格力电器股份有限公司 | 一种空调系统及其控制方法 |
JP2020116173A (ja) * | 2019-01-24 | 2020-08-06 | パナソニックIpマネジメント株式会社 | 印象評価システム、及び、印象評価方法 |
WO2021172160A1 (ja) * | 2020-02-26 | 2021-09-02 | 株式会社ジョリーグッド | コンテンツ表示装置、コンテンツ表示方法及びプログラム |
CN112149610A (zh) * | 2020-10-09 | 2020-12-29 | 支付宝(杭州)信息技术有限公司 | 一种目标对象的识别的方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2953539C (en) | Voice affect modification | |
US9503824B2 (en) | Method for adjusting parameters of a hearing aid functionality provided in a consumer electronics device | |
US20190033957A1 (en) | Information processing system, client terminal, information processing method, and recording medium | |
US20160210407A1 (en) | Method and device for processing content based on bio-signals | |
JP2004310034A (ja) | 対話エージェントシステム | |
CN110520041B (zh) | 脑波数据分析系统、信息处理终端、电子设备以及用于认知症检查的信息的呈现方法 | |
US11782508B2 (en) | Creation of optimal working, learning, and resting environments on electronic devices | |
CN110326300A (zh) | 信息处理设备、信息处理方法及程序 | |
US11220008B2 (en) | Apparatus, method, non-transitory computer-readable recording medium storing program, and robot | |
JP2019213617A (ja) | 表示制御装置、表示制御方法及び表示制御プログラム | |
CN109259724A (zh) | 一种用眼监控方法、装置、存储介质及穿戴式设备 | |
JP7364099B2 (ja) | 出力制御装置、出力制御方法およびプログラム | |
CN109119057A (zh) | 音乐创作方法、装置及存储介质和穿戴式设备 | |
JP2014030657A (ja) | 刺激誘発装置、刺激誘発方法及びプログラム | |
US10643636B2 (en) | Information processing apparatus, information processing method, and program | |
JP7279121B2 (ja) | ユーザ行動支援装置、方法およびプログラム | |
WO2018168247A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2016191791A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN108563322B (zh) | Vr/ar设备的控制方法和装置 | |
KR20170041346A (ko) | 눈깜빡임앱이 탑재된 스마트기기 | |
JP2017091255A (ja) | コミュニケーション支援システム及びコミュニケーション支援方法 | |
JP7069390B1 (ja) | 携帯端末 | |
JP6963669B1 (ja) | ソリューション提供システム及び携帯端末 | |
WO2019026396A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
EP4328928A1 (en) | Method and device for controlling improved cognitive function training app |