JP6761598B2 - 感情推定システム、感情推定モデル生成システム - Google Patents

感情推定システム、感情推定モデル生成システム Download PDF

Info

Publication number
JP6761598B2
JP6761598B2 JP2016207696A JP2016207696A JP6761598B2 JP 6761598 B2 JP6761598 B2 JP 6761598B2 JP 2016207696 A JP2016207696 A JP 2016207696A JP 2016207696 A JP2016207696 A JP 2016207696A JP 6761598 B2 JP6761598 B2 JP 6761598B2
Authority
JP
Japan
Prior art keywords
user
information
emotion
detection means
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016207696A
Other languages
English (en)
Other versions
JP2018072876A (ja
Inventor
彰 一星
彰 一星
タプリヤ ローシャン
タプリヤ ローシャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016207696A priority Critical patent/JP6761598B2/ja
Priority to US15/583,098 priority patent/US10452982B2/en
Publication of JP2018072876A publication Critical patent/JP2018072876A/ja
Application granted granted Critical
Publication of JP6761598B2 publication Critical patent/JP6761598B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • A61B5/741Details of notification to user or communication with user or patient ; user input means using sound using synthesised speech
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Description

本発明は、感情推定システム、および感情推定モデル生成システムに関する。
特許文献1には、利用者との対話時における利用者の表情から得た感情、音声から得た感情、口調、およびテキストの情報を組み合わせることにより利用者の性格を分類し、分類に応じて応答を変化させる対話エージェントが開示されている。
特許文献2には、被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類の手段で感情を推定した感情推定結果を取得する感情推定装置、感情推定方法およびプログラムが開示されている。
特開2006−071936号公報 特開2012−59107号公報
本発明は、利用者の感情を、単に外面情報、生体情報それぞれ単独、或いは組み合わせることにより推定した場合と比較して、より正確に推定することのできる感情推定システム及び感情推定モデル生成システムを提供することを目的とする。
請求項1に係る本発明は、
外面情報及び生体情報を入力して、利用者の感情を出力する学習モデルと、
第1の検出手段により検出された利用者の外面情報に対する重み付けと第2の検出手段により検出された当該利用者の生体情報に対する重み付けとを、前記利用者の周囲の状況に応じて変化させ、前記重み付けによりそれぞれ変化した外面情報と生体情報とを前記学習モデルに入力することにより出力された感情を、前記利用者の感情として推定する推定手段と、
を備える感情推定システムである。
請求項2に係る本発明は、請求項1記載の発明に係り、前記利用者の周囲の環境情報を検出する第3の検出手段により検出された環境情報に基づいて前記利用者の周囲の状況を判定する感情推定システムである。
請求項3に係る本発明は、請求項2記載の発明に係り、前記推定手段は、利用者の周囲の状況が公的な状況、又は緊張を引き起こしやすい状況であると判断した場合に、前記生体情報に対する重み付けを、前記外面情報に対する重み付けよりも大きくする感情推定システムである。
請求項4に係る本発明は、請求項2記載の発明に係り、前記推定手段は、利用者の周囲の状況が私的な状況、又はくつろぎやすい状況であると判断した場合、前記生体情報に対する重み付けを、前記外面情報に対する重み付けよりも小さくする感情推定システムである。
請求項5に係る本発明は、請求項1から4のいずれかに記載の発明に係り、前記推定手段は、利用者の感情が表情又は動作に表われにくいタイプであると判断した場合、前記生体情報に対する重み付けを、前記外面情報に対する重み付けよりも大きくする感情推定システムである。
請求項6に係る本発明は、請求項1から4のいずれかに記載の発明に係り、前記推定手段は、利用者の感情が表情又は動作に表われやすいタイプであると判断した場合、前記生体情報に対する重み付けを、前記外面情報に対する重み付けよりも小さくする感情推定システムである。
請求項7に係る本発明は、
外面情報及び生体情報を入力して、利用者の感情を出力する複数の学習モデルと、
利用者の周囲の状況に応じて、使用する学習モデルを選択する選択手段と、
第1の検出手段により検出された利用者の外面情報と第2の検出手段により検出された当該利用者の生体情報とを選択された学習モデルに入力することにより出力された感情を、前記利用者の感情として推定する推定手段と、
を備える感情推定システムである。
請求項8に係る本発明は、請求項7に記載の発明に係り、前記利用者の周囲の環境情報を検出する第3の検出手段をさらに備え、前記選択手段は、前記第3の検出手段により検出された環境情報に基づいて前記利用者の周囲の状況を判定する感情推定システムである。
請求項9に係る本発明は、
第1の検出手段および第2の検出手段を備える対話型ロボットと、
制御サーバと、
外面情報、生体情報及び利用者の周囲の環境情報を入力して、利用者の感情を出力する
学習モデルと、
第1の検出手段により検出された当該利用者の外面情報、第2の検出手段により検出された当該利用者の生体情報及び第3の検出手段により検出された当該利用者の周囲の環境情報を前記学習モデルに入力することにより出力された感情を、前記利用者の感情として推定する推定手段と、
を備え
対話型ロボットは、前記制御サーバに対して現在位置を送信し、
前記制御サーバは、前記対話型ロボットから取得した現在位置情報に該当する位置に設置されている環境センサによって当該利用者の周囲の環境情報を検出し、前記対話型ロボットに送信する感情推定システムである。
請求項10に係る発明は、請求項1から9のいずれか記載の発明に係り、前記第1の検出手段は、前記外面情報として、利用者の表情、音声の少なくとも一つを検出し、前記第2の検出手段は、前記生体情報として、利用者の皮膚電位、心拍の少なくとも一つを検出する感情推定システムである。
請求項11に係る発明は、請求項1からのいずれか記載の発明に係り、対話型ロボットが前記第1の検出手段および前記第2の検出手段を備えている感情推定システムである。
請求項12に係る発明は、請求項11記載の発明に係り、前記対話型ロボットが存在する付近に設置された環境センサによって利用者の周囲の環境情報を検出する感情推定システムである。
請求項13に係る発明は、請求項12記載の発明に係り、前記感情推定システムは制御サーバを含み、前記対話型ロボットは前記制御サーバに対して現在位置情報を送信し、前記制御サーバは、前記対話型ロボットから取得した現在位置情報に該当する位置に設置されている環境センサから取得した当該利用者の周囲の環境情報を前記対話型ロボットに送信する感情推定システムである。
請求項14に係る発明は、請求項13記載の発明に係り、前記制御サーバは、前記対話型ロボットから取得した現在位置情報に該当する位置に設置されている環境センサに対して、当該利用者の周囲の環境情報を取得するよう要求する感情推定システムである。
請求項15に係る発明は、
第1の検出手段により検出された利用者の外面情報と第2の検出手段により検出された当該利用者の生体情報とから、当該利用者の感情に関する特徴量を抽出する抽出手段と、
前記抽出手段により抽出された特徴量を用いた機械学習を行うことにより、前記抽出手段により抽出された特徴量を入力して利用者の感情を出力する、利用者の周囲の状況に応じた複数の学習モデルを生成する生成手段と、
を備える感情推定モデル生成システムである。
請求項1に係る本発明によれば、利用者の感情を、単に外面情報、生体情報それぞれ単独、或いは組み合わせることにより推定した場合と比較して、より正確に推定することのできる感情推定システムを提供できる。
請求項2に係る本発明によれば、利用者の周囲の環境を考慮しない場合に比較して、利用者の感情をより正確に推定することが可能となる。
請求項3に係る本発明によれば、利用者の感情が外面に表われにくい状況の場合であっても、本発明の構成を有しない場合に比べて利用者の感情をより正確に推定することが可能となる。
請求項4に係る本発明によれば、利用者の感情が外面に表われやすい状況の場合に、本発明の構成を有しない場合に比べて利用者の感情をより正確に推定することが可能となる。
請求項5に係る本発明によれば、利用者が感情を外面に表わしにくい性格である場合であっても、本発明の構成を有しない場合に比べて利用者の感情をより正確に推定することが可能となる。
請求項6に係る本発明によれば、利用者が感情を外面に表わしやすい性格である場合に、本発明の構成を有しない場合に比べて利用者の感情をより正確に推定することが可能となる。
請求項7に係る本発明によれば、利用者の感情を、単に外面情報、生体情報それぞれ単独、或いは組み合わせることにより推定した場合と比較して、より正確に推定することのできる感情推定システムを提供できる。
請求項8に係る本発明によれば、利用者の周囲の環境を考慮しない場合に比較して、利用者の感情をより正確に推定することが可能となる。
請求項9に係る本発明によれば、利用者と対話を行いながらその際の反応に応じて、利用者の感情を、単に外面情報、生体情報それぞれ単独、或いは組み合わせることにより推定した場合と比較して、より正確に推定することのできる感情推定システムを提供できる。また、複数の環境センサが設置されている場合に、感情を推定すべき利用者の周囲の環境情報を、最もふさわしい環境センサによって取得することが可能となる。
請求項10に係る本発明によれば、他の要素を検出する場合に比較して、利用者の感情をより正確に推定することが可能となる。
請求項11に係る本発明によれば、利用者と対話を行いながらその際の反応に応じて利用者の感情を推定することが可能となる。
請求項12に係る本発明によれば、利用者と対話型ロボットとが対話を行っている場所の周囲の環境情報を取得することが可能となる。
請求項13に係る本発明によれば、複数の環境センサが設置されている場合に、感情を推定すべき利用者の周囲の環境情報を、最もふさわしい環境センサによって取得することが可能となる。
請求項14に係る本発明によれば、環境センサを必要に応じて稼働させて利用者周囲の環境情報を取得することが可能となる。
請求項15に係る本発明によれば、利用者の感情を、単に外面情報、生体情報それぞれ単独、或いは組み合わせることにより推定した場合と比較して、より正確に推定することのできる感情推定モデル生成システムを提供できる。
本発明の一実施形態の感情推定システム10の一例を示す説明図である。 実施形態における対話型ロボット20のハードウェア構成図である。 実施形態における対話型ロボット20の機能ブロック図である。 実施形態における制御サーバ40のハードウェア構成図である。 実施形態における制御サーバ40の機能ブロック図である。 利用者70の周囲の環境毎に生成される学習モデルの概念図である。 利用者70の外面情報、生体情報、および環境情報を入力とした場合の学習モデルの概念図である。 実施形態の感情推定システム10における学習モデルの作成処理の流れを示すフローチャートである。 実施形態の感情推定システム10における感情推定処理の一例を示すフローチャートである。 実勢形態の感情推定システム10における感情推定処理の一例を示すフローチャートである。 実勢形態の感情推定システム10における感情推定処理の他の一例を示すフローチャートである。
本発明の一実施形態の感情推定システム10を、図1を参照して説明する。本実施形態の感情推定システム10は、オフィスビルのフロア等の比較的大きな所定の領域(以下、ワークプレイスという)100に配置される対話型ロボット20と、ワークプレイス100の天井や壁面に配置される複数の環境センサ30と、制御サーバ40と、を備えて構成され、制御サーバ40は、対話型ロボット20および環境センサ30にネットワーク50によって接続される。特に、制御サーバ40と対話型ロボット20とは、ワークプレイス10の壁面等に設置されたアクセスポイント60を介して無線により接続される。さらに、ワークプレイス10には、利用者70が存在しており、利用者70の手首或いは腕には生体センサ80が取り付けられ、生体センサと制御サーバ40とはアクセスポイント60を介して無線により接続されている。
環境センサ30は、利用者70の表情、姿勢、顔の色といった外面情報を検出することに加え、利用者70が存在する状況についての情報を検出する。利用者70が存在する状況には、例えば、座っている、立っている、会議中である、雑談しているといったものが含まれる。また、環境センサ30により検出される情報には、利用者70が誰であるかを推定する情報も含まれる。
生体センサ80は、利用者70の手首或いは腕に装着されるもので、利用者70の生体情報を検出する。生体情報は、例えば、利用者70の皮膚抵抗、心拍数、体温に関するデータを含む。皮膚抵抗に関する情報には、現在の皮膚抵抗値だけでなく、平常時に対する皮膚抵抗値の変化、また単位時間当たりの皮膚抵抗値の変動のデータも含まれる。同様に、心拍数に関する情報には、され、現在の心拍数だけでなく、平常時に対する心拍数の変化、また単位時間当たりの心拍数の変動のデータが含まれる。また、体温に関するデータには、現在の体温に加えて、平常時に対する体温の変化、単位時間当たりの体温の変化が含まれる。
まず、図2、3を参照して、本実施形態の対話型ロボット20について説明する。図2は、対話型ロボット20のハードウェア構成図である。図2に示すように、対話型ロボット20は、制御用マイクロプロセッサ211、メモリ212、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等の記憶装置213、通信インタフェース214、カメラ215、マイクロフォン216、スピーカ217、モータ218、現在位置検出装置219を備えて構成され、それぞれ制御バス220に接続されている。
制御用マイクロプロセッサ211は、記憶装置213に記憶された制御プログラムに基づいて対話型ロボット20の各部の動作を制御統括する。メモリ212には、対話型ロボット20が利用者と行った対話時の対話の音声、対話内容、カメラ215により撮影された利用者50の表情、挙動、身体の状態の画像等が一時的に記憶される。記憶装置213には対話型ロボット20の各部を制御するための制御プログラムが記憶される。通信インタフェース214は、対話型ロボット20がアクセスポイント60を介して制御サーバ40と通信を行うための通信制御を行う。
カメラ215は、利用者の表情、挙動、身体の状態の変化等を撮影し、メモリ212に記憶する。マイクロフォン216は、利用者と対話を行った際に、利用者の音声を検出し、メモリ212に記憶、つまり録音する。メモリ212には、音声を直接録音するのではなく、音声内容を解釈した後の対話内容、および音の高さや言葉の速さを記憶させてもよい。スピーカ217は、対話型ロボット20の後述する対話制御部が生成した音声を出力する。モータ218は、後述する移動制御部において生成された移動制御情報に基づいて対話型ロボット20を所定の位置に移動させる。現在位置検出装置219は、加速度センサ、GPS信号受信装置、或いは位置情報信号受信装置等を含んで構成されており、対話型ロボット20の現在位置を特定して、メモリ212に一時的に記憶させる。
図3は、対話型ロボット20の機能ブロック図である。対話型ロボット20は、記憶装置213に記憶されている制御プログラムを制御用マイクロプロセッサ211において実行することにより、図3に示されるように、センサ情報送信部221、対話制御部222、移動制御部223、認識情報受信部224として機能する。
センサ情報送信部221は、対話型ロボット20のカメラ215およびマイクロフォン216によって検出された利用者70の外面情報を制御サーバ40に送信する。外面情報には、カメラ215によって撮影された利用者70の表情、挙動についてのデータ、マイクロフォン216によって検出された利用者70の音声の高さ、言葉やの速さについてのデータが含まれる。
対話制御部222は、対話型ロボット20が利用者70と行う対話を制御するとともに、利用者に対する応答内容を生成する。例えば、メモリ212に記憶された対話内容に応じて応答メッセージを生成し、スピーカ217に出力する。その際、対話制御部222は、後述する認識情報受信部224において受信した利用者70の感情に応じてメッセージの出力音声の大きさや発話速度を調整する。
移動制御部223は、対話型ロボット20の移動を制御する。移動制御部223は、利用者70の位置、制御サーバ40から移動指示があった場合に、現在位置から目的位置まで移動する移動制御情報を生成し、現在位置検出装置219によって検出される現在位置の情報を参照しつつモータ218の動作を制御し、対話型ロボット20を移動させる。
認識情報受信部224は、制御サーバ40によって推定された利用者70の感情を受信し、メモリ212に一時的に記憶する。
次に、図4、5を参照して、本実施形態の制御サーバ40について説明する。図4は、制御サーバ40のハードウェア構成図である。図4に示すように、制御サーバ40のハードウェア構成図である。図4に示すように、制御サーバ40は、CPU401、メモリ402、記憶装置403、通信インタフェース404、ユーザインタフェース405を備えて構成され、それぞれ制御バス406に接続されている。CPU401は、記憶装置403に記憶された制御プログラムに基づいて制御サーバ40各部の動作を制御統括する。メモリ402には、環境センサ30から送信されてきた利用者70の位置情報、対話型ロボット20から送信されてきた対話型ロボット20の位置情報や利用者70の外面情報、利用者70に取り付けられた生体センサ80から送信されてきた利用者70の生体情報が記憶される。
記憶装置403は、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等であり、制御サーバ40を制御するための制御プログラムが記憶されている。さらに、記憶装置403には、後述するが、制御サーバ40が利用者70の感情を推定する際に使用する学習モデルが記憶されている。
通信インタフェース404は、制御サーバ40がアクセスポイント60を介して対話型ロボット20、環境センサ30、および利用者70に取り付けられた生体センサ70と各種データの送受信を行うための通信制御を行う。ユーザインタフェース405は、液晶ディスプレイ等の表示装置、キーボードやマウス等の入力装置によって構成されており、記憶装置403に記憶されている制御プログラムを管理者が調整したりするためのものである。
図5は、制御サーバ40の機能ブロック図を示す。制御サーバ40は、記憶装置403に記憶されている制御プログラムをCPU401において実行することにより、図5に示されるように、センサ情報取得部411、特徴量抽出部412、状況特定部413、学習モデル生成部414、学習モデル選択部415、感情推定部416、認識情報送信部417、学習モデル記憶部418として機能する。
センサ情報取得部411は、対話型ロボット20や環境センサ30から送信されてきた利用者70の外面情報、および利用者70に装着された生体センサ80から送信されてきた利用者70の生体情報を受信してメモリ402に記憶する。
特徴量抽出部412は、センサ情報取得部411によって取得された外面情報、生体情報から利用者70の感情を判定する際に必要となる特徴およびその特徴量を抽出する。この特徴は大量の外面情報および生体情報をセンサ情報取得部411によって取得し、機械学習により抽出してもよいし、制御サーバ40の管理者によって特定されてもよい。例えば、特徴には、利用者70の表情、特に、平常時に対する口角の変異や単位時間当たりの変動、利用者70の平常時に対する声の高さの変異や単位時間当たりの変動、利用者70の平常時に対する皮膚電位の変異や単位時間当たりの変動、平常時に対する心拍数の変異や単位時間当たりの変動が含まれ、特徴量はそれぞれの特徴を数値化したものである。
状況特定部413は、環境センサ30によって検出される利用者70の現在位置や、利用者70が現在置かれている状況についての情報、対話型ロボット20の現在位置検出装置219によって取得された利用者70の現在位置についての情報に基づいて、利用者70の置かれている状況、例えば、会議中、オフィスでの雑談、通路で立ち話等を特定する。そして、特定した状況が公的な状況、又は緊張を引き起こしやすい状況か、それとも私的な状況、又はくつろぎやすい状況かのいずれに該当するかといった判断を行うようにしても良い。さらに、状況特定部413は、利用者70の本来の性格について、感情が表情や動作に出やすいタイプなのか、それとも感情が表情や動作に出にくいタイプなのかを判断する。
学習モデル生成部414は、センサ情報取得部411から利用者70についての外面情報、生体情報を大量に取得し、機械学習を行うことにより特徴量抽出部412において抽出された特徴に応じてそれぞれの感情に特有の学習モデルを生成する。ここで、学習モデルとは、少なくとも2つの特徴量によって定まる値を複数含んで構成される特定の領域とある特定の感情とを関連付けて定義したものである。さらに、学習モデルは、少なくとも2つの特徴量で定まるある値が入力された場合に、その値が上記特定の領域に含まれるか否かを判断することにより、その値が上記特定の感情に当てはまるか否かを判定し出力する処理をも含むものとする。例えば、利用者70の外面情報に基づく一つの特徴量を横軸にとり、利用者70の生体情報に基づく一つの特徴量を縦軸にとることで表される2次元平面において、ある関数曲線で特定される領域内に、センサ情報取得部411によって取得されたある特徴量が存在する場合に利用者70は所定の感情であると定義する。感情の定義付けは教師データを用いた機械学習により行ってもよいし、それ以外の方法で行ってもよい。また、ある関数曲線で特定される領域に一意の感情が定義されるまで機械学習を行うようにしてもよい。生成された学習モデルは、学習モデル記憶部418に記憶される。学習モデル生成部414は、状況特定部413によって特定された利用者70の状況毎に異なる学習モデルを生成してもよい。また、利用者70毎に異なる学習モデルを生成してもよい。もちろん、利用者70毎、かつ、利用者70の状況毎に異なる学習モデルを生成してもよい。
学習モデル選択部415は、状況特定部413において特定された利用者70の現在の状況に応じて、学習モデル記憶部418を参照し、適用する学習モデルを選択する。
感情推定部416は、センサ情報取得部411により取得した利用者70の外面情報、生体情報に基づいて、外面情報に対する重み付けと生体情報に対する重み付けと、を、状況特定部413において特定された利用者70の現在の状況に応じて変化させるとともに、学習モデル選択部415によって選択された学習モデルを適用し、利用者70の現在の感情を推定する。
認識情報送信部417は、感情推定部416において推定された利用者70の感情を、アクセスポイント60を介して対話型ロボット20に送信する。学習モデル記憶部418は、学習モデル生成部414において生成された利用者70の状況毎の学習モデルを記憶する。
ここで、学習モデル生成部414において生成され、学習モデル記憶部418に記憶される学習モデルについて、図6、7を参照して説明する。図6は利用者70の周囲の環境毎に生成される学習モデルの概念図である。図6に示される学習モデルは、横軸を外面情報の特徴量Eで表し、縦軸を生体情報の特徴量Iで表している。外面情報を構成する特徴は、実際には表情、声の高さ等複数の要素で構成され、生体情報を構成する特徴は皮膚電位、心拍数等複数の複数の要素で構成されている。したがって、学習モデルは、実際には図6に示すように2次元の図では表すことはできないが、本実施形態においては、説明を簡単に行うため、簡易的に2次元の図で表現している。
図6の学習モデルにおいて、例えば、第1の領域601は「積極的」、第2の領域602は「普通」、第3の領域603は「消極的」とそれぞれ定義されている。ここで、外面情報の特徴量の値がE1、生体情報の特徴量の値I1が学習モデルに入力されると、外面情報の特徴量の値、および生体情報の特徴量の値で構成されるベクトル量で表される利用者70の感情P1は第1の領域601内に含まれるから、利用者70の感情は「積極的」であることが推定される。同様に、外面情報の特徴量の値E2、生体情報の特徴量の値I2が学習モデルに入力された場合、利用者70の感情は「普通」であることが推定され、外面情報の特徴量の値E3、生体情報の特徴量の値I3が学習モデルに入力された場合には、利用者70の感情は「消極的」であることが推定される。また、図6の学習モデルにおける領域601〜603は、それぞれ学習モデル生成部414にて生成されるある関数曲線で特定される領域に対応する。当該領域に一意の感情が定義されるまで機械学習が行われた場合等は、領域601〜603は、外面情報に基づく軸と、利用者70の生体情報に基づく軸とで表される2次元平面において、図6に示すようにそれぞれが重ならないものとなる。それぞれの領域が重なっていないため、外面情報と利用者70の生体情報の入力に対して、予め定義された感情が一意に特定されることになる。
なお、図6の学習モデルは利用者70の周囲の環境毎に生成され、上述の学習モデル選択部415が、利用者70の周囲の環境に応じて、外面情報の特徴量の値、生体情報の特徴量の値を入力する学習モデルを選択する。
図7は利用者70の外面情報、生体情報、および環境情報を入力とした場合の学習モデルの概念図である。図7の学習モデルは、図6で説明した2次元で表される学習モデルに対して利用者70の周囲の環境情報の特徴量の値を第3軸として追加することにより、3次元の空間で表現したものである。この学習モデルにおいては、外面情報の特徴量E、生体情報の特徴量I、および環境情報の特徴量Aで表される3次元空間の所定領域がそれぞれ「積極的」、「普通」、「消極的」と定義されている。感情推定部416により、外面情報の特徴量の値、生体所法の特徴量の値、環境情報の特徴量の値(例えばE1、I1、A1)がそれぞれ学習モデルに入力されると、それらの値で構成されるベクトル量P1で表される利用者70の感情がどの領域に該当するかが判断され、該当する感情が出力される。
次に、図8を参照して、感情推定システム10における学習モデルの生成処理について説明する。図8は、実施形態の感情推定システム10における学習モデルの作成処理の流れを示すフローチャートである。ステップS801において、対話型ロボット20のマイクロフォン216は利用者70の音声を検出し、検出された音声データをセンサ情報送信部221により制御サーバ40に送信する。制御サーバ40に送信する音声データは、利用者70の音声をサンプリングしてデジタル信号化したデータであってもよいし、音声の高さや言葉の速さに関するデータであってもよい。制御サーバ40のセンサ情報取得部411は、対話型ロボット20から受信した音声データをメモリ402に記憶し、ステップS803に進む。
ステップS801と並行して行われるステップS802において、対話型ロボット20のカメラ215は利用者70の表情、挙動を撮影し、撮影されたデータをセンサ情報送信部221により制御サーバ40に送信する。制御サーバ40に送信する撮影データは、利用者70の顔画像や身体画像であってもよいし、顔画像を解析して得られる情報、例えば、口角の変化や、眉の角度についての情報であってもよい。対話型ロボット20のカメラ215に加えて、環境センサ30において利用者70の表情、挙動を撮影し、撮影されたデータを制御サーバ40に送信してもよい。制御サーバ40のセンサ情報取得部411は、対話型ロボット20および環境センサ30から受信した画像データをメモリ402に記憶し、ステップS803に進む。
ステップS803において、制御サーバ40の特徴量抽出部412は、センサ情報取得部411によって取得された外面情報、つまり、対話型ロボット20および環境センサ30によって撮影された利用者70の表情、挙動についてのデータ、対話型ロボット20によって検出された利用者70の音声データから、利用者70の感情を判定するための特徴を抽出する。この特徴は、大量の外面情報を取得し、機械学習によって抽出してもよいし、制御サーバ40の管理者によって人為的に決定してもよい。抽出される外面情報の特徴は、例えば、平常時に対する口角の変異や単位時間当たりの変動、利用者70の平常時に対する声の高さの変異や単位時間当たりの変動である。処理は続くステップS806に進む。
ステップS801〜S803と並行して行われるステップS804において、利用者70に装着されている生体センサ80は、利用者70の生体情報を検出する。生体情報は、例えば、利用者70の皮膚抵抗値、心拍数、体温である。検出された生体情報は、制御サーバ40に送信される。制御サーバ40のセンサ情報取得部411は、生体センサ80から受信した音声データをメモリ402に記憶し、ステップS805に進む。
ステップS805において、制御サーバ40の特徴量抽出部412は、センサ情報取得部411によって取得された生体情報、つまり、生体センサ80によって検出された利用者70の皮膚抵抗値、心拍数、体温等の生体データから、利用者70の感情を判定するための特徴を抽出する。この特徴は、大量の生体情報を取得し、機械学習によって抽出してもよいし、制御サーバ40の管理者によって人為的に決定してもよい。抽出される生体情報の特徴は、例えば、平常に対する皮膚抵抗値の変化、平常時に対する心拍数の変化等である。処理は続くステップS806に進む。
ステップS806において、制御サーバ40の学習モデル生成部414は、センサ情報取得部411から利用者70についての外面情報、生体情報を大量に取得し、機械学習を行うことにより特徴量抽出部412において抽出された特徴に応じてそれぞれの感情に特有の学習モデルを生成し、生成された学習モデルを、学習モデル記憶部418に記憶し、処理を終了する。学習モデル生成部414は、状況特定部413によって特定された利用者70の状況毎に異なる学習モデルを生成してもよい。
次に、図9を参照し、本実施形態の感情推定システム10における利用者70の感情推定処理の一例について説明する。図9は、実施形態の感情推定システム10における感情推定処理の一例を示すフローチャートである。ステップS901において、対話型ロボット20のマイクロフォン216は利用者70の音声を検出し、検出した音声データをセンサ情報送信部221により制御サーバ40に送信する。制御サーバ40のセンサ情報取得部411は、受信した音声データをメモリ402に記憶し、ステップS906に進む。
ステップS901と並行して行われるステップS902において、対話型ロボット20のカメラ215は利用者70の表情、挙動を撮影し、撮影したデータをセンサ情報送信部221により制御サーバ40に送信する。制御サーバ40のセンサ情報取得部411は、受信した画像データをメモリ402に記憶し、ステップS906に進む。
ステップS901、およびステップS902と並行して行われるステップS903において、利用者70に装着された生体センサ80は、利用者70の生体情報を検出する。生体情報は、例えば、利用者70の皮膚抵抗値、心拍数、体温である。検出された生体情報は制御サーバ40に送信される。制御サーバ40のセンサ情報取得部411は、受信した生体情報をメモリ402に記憶し、ステップS907に進む。
ステップS901〜S903と並行して行われるステップS904において、環境センサ30は、利用者70が存在する状況についての情報を検出し、その情報を制御サーバ40に送信する。ステップS905において、制御サーバ40の状況特定部413は、センサ情報取得部411において取得した、利用者70が存在する状況についての情報に基づいて、利用者70が誰であるか、また利用者70が置かれている状況を特定し、続くステップS906、S907に進む。利用者70が誰であるか、例えば、利用者70の名前、会社内でのIDや役職等は、各利用者の情報が格納されているサーバへ問い合わせることにより特定される。また、利用者70の性格のタイプ等が特定されるようにしてもよい。例えば、感情が表情や動作に表れやすいタイプなのか、表れにくいタイプなのか等が特定されるようにしてもよい。利用者70が置かれている状況は、例えば、公的な状況(複数人と会話している状況、会議に参加している状況等)、私的な状況(ロボット以外に、室内や近くには当該利用者しかいない状況等)、緊張を引き起こしやすい状況(会社組織において役職が利用者70よりも上の者と会話している状況等)、又はくつろぎやすい状況(利用者70が物を食べている状況等)等がある。
これらの状況について、予め状況毎にそれを満たす条件をテーブルとして記憶装置403に記憶しておき、これを参照することによって利用者70の置かれている状況を特定する。例えば、「利用者70が複数人と会話している」、又は「会議に参加している」という条件を「公的な状況」と対応づけてテーブルとして記憶しておく。「室内に人がいない」、又は「予め定めた距離(例えば、半径5m等)以内に人がいない」という条件を「私的な状況」と対応づけてテーブルとして記憶しておく。「利用者70よりも会社組織の役職が上の者と会話している」という条件を「緊張を引き起こしやすい状況」と対応づけてテーブルとして記憶しておく。また、「利用者70が物を食べている」又は「利用者70が飲み物を飲んでいる」という条件を「くつろぎやすい状況」と対応づけてテーブルとして管理しておく。
そして、状況特定部413は、センサ情報取得部から得られた情報に基づいて、上記テーブルの条件のいずれの条件に該当するかを判断し、該当すると判断された条件に対応する状況を、利用者70が置かれている状況であると特定する。上記テーブルの条件のいずれの条件に該当するかの判断においては、センサ情報取得部411から、利用者70が会話をしている人数、会話している相手(役職、性別、年齢、又は名前等)、利用者70の動作(飲み物を飲んでいる、物を食べている)を示す情報等をさらに取得し、これらを用いて判断するようにしても良い。なお、会話をしている相手の個人に関する情報は例えば、次のようにして入手する。センサ情報取得部411から得られた相手の顔に関する情報に基づいて顔認証を行うことで個人を特定し、当該個人について予め記憶装置403に記憶されている情報を取得するようにする。
ステップS906において、制御サーバ40の感情推定部416は、センサ情報取得部411において取得した利用者70の音声データ、および利用者70の表情や挙動の画像データに基づいて外面特徴量の値を算出する。この際、感情推定部416は、算出された外面特徴量の値に対し、上記ステップS905で特定された利用者70の置かれている状況に応じた重み付けを付与し、ステップS908に進む。なお、算出される外面特徴量は一つの外面特徴で決まる一つの値であってもよいし、複数の外面特徴で決まる複数の値であってもよい。
ステップS906と並行して行われるステップS907において、制御サーバ40の感情推定部416は、センサ情報取得部411において取得した利用者70の生体情報に基づいて生体特徴量の値を算出する。この際、感情推定部416は、算出された生体特徴量の値に対し、上記ステップS905で推定された利用者の置かれている状況に応じた重み付けを付与し、ステップS908に進む。なお、算出する生体特徴量は一つの生体特徴で決まる一つの値であってもよいし、複数の生体特徴で決まる複数の値であってもよい。なお、上記ステップS906、S907でそれぞれ外面特徴量の値、生体特徴量の値に対して付与される重み付けについては、例えば、公的な状況、又は緊張を引き起こしやすい状況では生体特徴量の値に対して付与される重み付けが外面特徴量の値に対して付与される重み付けよりも大きくなるようにする。逆に、私的な状況、又はくつろぎやすい状況では生体特徴量の値に対して付与される重み付けが外面特徴量の値に対して付与される重み付けよりも小さくなるようにする。
別な例としては、利用者70のおかれている状況が会議中であると特定された場合は、生体特徴量の値に対して付与される重み付けが外面特徴量の値に対して付与される重み付けよりも大きくなるようにする。逆に、利用者70のおかれている状況がオフィスでの雑談、又は通路での立ち話であると特定された場合では、生体特徴量の値に対して付与される重み付けが外面特徴量の値に対して付与される重み付けよりも小さくなるようにする。
また、感情推定部416は、特定された利用者70の性格のタイプに応じて、外面特徴量の値、生体特徴量の値に対して付与される重み付けを変えるようにしてもよい。例えば、利用者70が、感情が表情又は動作に表れにくいタイプであると特定された場合には生体特徴量の値に対して付与される重み付けが外面特徴量の値に対して付与される重み付けよりも大きくなるようにする。逆に、利用者70が、感情が表情又は動作に表れにくいタイプであると特定された場合には生体特徴量の値に対して付与される重み付けが外面特徴量の値に対して付与される重み付けよりも小さくなるようにする。
ステップS908において、感情推定部416は、上記ステップS906、S907で算出された外面特徴量の値、生体特徴量の値を学習モデル記憶部418に記憶された学習モデルに入力する。そして、ステップS909において、感情推定部416は、学習モデルから出力された感情を利用者の感情として推定する。推定された感情は、認識情報送信部417により対話型ロボット20に送信される。対話型ロボット20の認識情報受信部224は制御サーバ40から送信されてきた利用者70の感情についての情報を受信し、対話制御部222がその感情に合わせて対話内容や対話方法を変化させ、利用者70との対話を行い、処理を終了する。
次に図10を参照し、本実施形態の感情推定システム10における利用者70の感情推定処理の他の一例について説明する。図10は、実施形態の感情推定システム10における感情推定処理の他の一例を示すフローチャートである。なお、図10の感情推定処理におけるステップS1001〜S1005までの処理は、図9の感情推定処理におけるステップS901〜S905までの処理と同一であるので、説明を省略する。
ステップS1006において、制御サーバ40の感情推定部416は、センサ情報取得部411において取得した利用者70の音声データ、および利用者70の表情や挙動の画像データに基づいて外面特徴量の値を算出する。なお、算出される外面特徴量は一つの外面特徴で決まる一つの値であってもよいし、複数の外面特徴で決まる複数の値であってもよい。処理は続くステップS1009に進む。
ステップS1006と並行して行われるステップS1007において、制御サーバ40の感情推定部416は、センサ情報取得部411において取得した利用者70の生体情報に基づいて生体特徴量の値を算出する。なお、算出される生体特徴量は一つの生体特徴で決まる一つの値であってもよいし、複数の生体特徴で決まる複数の値であってもよい。処理は続くステップS1009に進む。
また、ステップS1005の処理に続くステップS1008において、学習モデル選択部415は、上記ステップS1005において推定された利用者70の置かれている状況、利用者70毎、又は利用者70の性格のタイプ等に応じて使用する学習モデルを、学習モデル記憶部418に記憶されている複数の学習モデルの中から選択し、ステップS1009に進む。
ステップS1009において、感情推定部416は、上記ステップS1006、S707で算出された外面特徴量の値、生体特徴量の値を学習モデル記憶部418に記憶された学習モデルに入力する。
ステップS1010において、感情推定部416は、学習モデルから出力された感情を利用者の感情として推定する。推定された感情は、認識情報送信部417により対話型ロボット20に送信される。対話型ロボット20の認識情報受信部224は制御サーバ40から送信されてきた利用者70の感情についての情報を受信し、対話制御部222がその感情に合わせて対話内容や対話方法を変化させ、利用者70との対話を行い、処理を終了する。
なお、上記の例においては、外面情報、生体情報それぞれの特徴量の値を算出し、それぞれの値に対して利用者70の置かれた状況に応じた重み付けを付与した場合、或いは利用者70の置かれた状況に応じた学習モデルを適用した場合について説明したが、本発明は、外面情報、生体情報に加えて、環境情報、つまり利用者70の置かれた状況対してそれぞれ特徴量の値を求め、これら3つの要素に対応するベクトル値を算出し、所定の学習モデルを適用し、学習モデルにおけるベクトル値が該当する利用者70の感情を推定するようにしてもよい。この場合の処理の流れを、図11を参照して説明する。図11は、実施形態の感情推定システム10における感情推定処理の他の一例を示すフローチャートである。
図11の感情推定処理におけるステップS1101〜S1104までの処理は、図9の感情推定処理におけるステップS901〜S904までの処理と同一であるので、説明を省略する。ステップS1105において、制御サーバ40の感情推定部416は、センサ情報取得部411において取得した利用者70の音声データ、および利用者70の表情や挙動の画像データに基づいて外面特徴量の値を算出し、ステップS1108に進む。ステップS1105と並行して行われるステップS1106において、制御サーバの感情推定部416は、センサ情報取得部411において取得した利用者70の生体情報に基づいて生体特徴量の値を算出し、ステップS1108に進む。
ステップS1105、S1106と並行して行われるステップS1107において、制御サーバ40の状況特定部413は、センサ情報取得部411において取得した、利用者70の周囲の環境情報に基づいて環境特徴量の値を算出し、ステップS1108に進む。ステップS1108において、感情推定部416は、上記ステップS1105〜S1107で算出された外面特徴量の値、生体特徴量の値、および環境特徴量の値を学習モデル記憶部418に記憶された学習モデルに入力する。そして、ステップS1109において、感情推定部416は、学習モデルから出力された感情を利用者の感情として推定する。推定された感情は、認識情報送信部417により対話型ロボット20に送信される。対話型ロボット20の認識情報受信部224は、制御サーバ40から送信されてきた利用者70の感情についての情報を受信し、対話制御部222がその感情に合わせて対話内容や対話方法を変化させ、利用者70との対話を行い、処理を終了する。
なお、上記の例において使用する学習モデルは、図7に示すような外面情報の特徴量、生体情報の特徴量、および環境情報の特徴量を入力した際に、利用者70の感情を出力するものを使用する。
[変形例]
以上、上記の例においては、制御サーバ40において利用者70の感情を推定する例を説明したが、本発明は制御サーバ40が利用者70の感情を推定する方法に限定されず、本実施形態の各構成要素を対話型ロボット20が備えるように構成することによって対話型ロボット20が利用者70の感情を推定するように構成してもよい。
その場合、対話型ロボット20は、利用者70の場所まで移動し、カメラ215によって撮影した利用者70の画像、およびマイクロフォン216によって検出した利用者70の音声に基づいて利用者70についての生体情報と外面情報とを取得する。生体情報は、例えば、利用者70の心拍数、体温についての情報が含まれ、外面情報は、例えば、利用者70の表情についての情報が含まれる。さらに、対話型ロボット20は、利用者70が存在する状況についての情報を、移動先付近に設置されている環境センサ30から取得する。
その際、対話型ロボット20は、環境センサ30から利用者70が存在する状況についての情報を取得するために、例えば、対話型ロボット20の現在位置検出装置219によって検出された対話型ロボット20の移動先の位置情報を制御サーバ40に送信し、その位置情報に該当する環境センサ30が検出した情報を、対話型ロボット20に送り返すような構成としてもよい。制御サーバ40において当該位置情報に該当する情報が取得されていない場合、制御サーバ40は、当該位置情報によって特定される位置の近くに存在する環境センサ30を駆動し(つまり、環境情報を取得するように指示し)、環境センサ30に利用者70が存在する状況についての情報を検出させる。検出された情報は制御サーバ40により取得された後、対話型ロボット20に送信される。
対話型ロボット20は、取得した外面情報に基づいて外面特徴量の値を算出し、また、取得した生体情報に基づいて生体特徴量の値を算出し、それぞれの値に対して利用者70が存在する状況についての情報に基づいて重み付けを付与し、学習モデルに入力することにより、利用者70の感情を推定する。或いは、利用者70が存在する状況についての情報に基づいて、適用する学習モデルを選択し、選択された学習モデルに外面特徴量の値、および生体特徴量の値を入力することにより、利用者70の感情を推定する。或いは、利用者70が存在する状況についての情報に基づいて環境情報に基づく特徴量の値を算出し、算出された値と、外面特徴量の値、および生体特徴量の値を学習モデルに入力することにより、利用者70の感情を推定する。
10 感情推定システム
20 対話型ロボット
30 環境センサ
40 制御サーバ
50 ネットワーク
60 アクセスポイント
70 利用者
80 生体センサ
100 ワークプレイス
211 制御用マイクロプロセッサ
212 メモリ
213 記憶装置
214 通信インタフェース
215 カメラ
216 マイクロフォン
217 スピーカ
218 モータ
219 現在位置検出装置
220 制御バス
221 センサ情報送信部
222 対話制御部
223 移動制御部
224 認識情報受信部
401 CPU
402 メモリ
403 記憶装置
404 通信インタフェース
405 ユーザインタフェース
406 制御バス
411 センサ情報取得部
412 特徴量抽出部
413 状況特定部
414 学習モデル生成部
415 学習モデル選択部
416 感情推定部
417 認識情報送信部
418 学習モデル記憶部

Claims (15)

  1. 外面情報及び生体情報を入力して、利用者の感情を出力する学習モデルと、
    第1の検出手段により検出された利用者の外面情報に対する重み付けと第2の検出手段により検出された当該利用者の生体情報に対する重み付けとを、前記利用者の周囲の状況に応じて変化させ、前記重み付けによりそれぞれ変化した外面情報と生体情報とを前記学習モデルに入力することにより出力された感情を、前記利用者の感情として推定する推定手段と、
    を備える感情推定システム。
  2. 前記利用者の周囲の環境情報を検出する第3の検出手段により検出された環境情報に基づいて前記利用者の周囲の状況を判定する請求項1記載の感情推定システム。
  3. 前記推定手段は、利用者の周囲の状況が公的な状況、又は緊張を引き起こしやすい状況であると判断した場合に、前記生体情報に対する重み付けを、前記外面情報に対する重み付けよりも大きくする請求項2記載の感情推定システム。
  4. 前記推定手段は、利用者の周囲の状況が私的な状況、又はくつろぎやすい状況であると判断した場合、前記生体情報に対する重み付けを、前記外面情報に対する重み付けよりも小さくする請求項2記載の感情推定システム。
  5. 前記推定手段は、利用者の感情が表情又は動作に表われにくいタイプであると判断した場合、前記生体情報に対する重み付けを、前記外面情報に対する重み付けよりも大きくする請求項1から4のいずれかに記載の感情推定システム。
  6. 前記推定手段は、利用者の感情が表情又は動作に表われやすいタイプであると判断した場合、前記生体情報に対する重み付けを、前記外面情報に対する重み付けよりも小さくする請求項1から4のいずれかに記載の感情推定システム。
  7. 外面情報及び生体情報を入力して、利用者の感情を出力する複数の学習モデルと、
    利用者の周囲の状況に応じて、使用する学習モデルを選択する選択手段と、
    第1の検出手段により検出された利用者の外面情報と第2の検出手段により検出された当該利用者の生体情報とを選択された学習モデルに入力することにより出力された感情を、前記利用者の感情として推定する推定手段と、
    を備える感情推定システム。
  8. 前記利用者の周囲の環境情報を検出する第3の検出手段をさらに備え、
    前記選択手段は、前記第3の検出手段により検出された環境情報に基づいて前記利用者の周囲の状況を判定する請求項7記載の感情推定システム。
  9. 第1の検出手段および第2の検出手段を備える対話型ロボットと、
    制御サーバと、
    外面情報、生体情報及び利用者の周囲の環境情報を入力して、利用者の感情を出力する学習モデルと、
    第1の検出手段により検出された当該利用者の外面情報、第2の検出手段により検出された当該利用者の生体情報及び第3の検出手段により検出された当該利用者の周囲の環境情報を前記学習モデルに入力することにより出力された感情を、前記利用者の感情として推定する推定手段と、
    を備え
    対話型ロボットは、前記制御サーバに対して現在位置を送信し、
    前記制御サーバは、前記対話型ロボットから取得した現在位置情報に該当する位置に設置されている環境センサによって当該利用者の周囲の環境情報を検出し、前記対話型ロボットに送信する感情推定システム。
  10. 前記第1の検出手段は、前記外面情報として、利用者の表情、音声の少なくとも一つを検出し、
    前記第2の検出手段は、前記生体情報として、利用者の皮膚電位、心拍の少なくとも一つを検出する請求項1から9いずれかに記載の感情推定システム。
  11. 対話型ロボットが前記第1の検出手段および前記第2の検出手段を備えている請求項1からいずれかに記載の感情推定システム。
  12. 前記対話型ロボットが存在する付近に設置された環境センサによって利用者の周囲の環境情報を検出する請求項11記載の感情推定システム。
  13. 前記感情推定システムは制御サーバを含み、
    前記対話型ロボットは前記制御サーバに対して現在位置情報を送信し、
    前記制御サーバは、前記対話型ロボットから取得した現在位置情報に該当する位置に設置されている環境センサから取得した当該利用者の周囲の環境情報を前記対話型ロボットに送信する請求項12記載の感情推定システム。
  14. 前記制御サーバは、前記対話型ロボットから取得した現在位置情報に該当する位置に設置されている環境センサに対して、当該利用者の周囲の環境情報を取得するよう要求する請求項13記載の感情推定システム。
  15. 第1の検出手段により検出された利用者の外面情報と第2の検出手段により検出された当該利用者の生体情報とから、当該利用者の感情に関する特徴量を抽出する抽出手段と、
    前記抽出手段により抽出された特徴量を用いた機械学習を行うことにより、前記抽出手段により抽出された特徴量を入力して利用者の感情を出力する、利用者の周囲の状況に応じた複数の学習モデルを生成する生成手段と、
    を備える感情推定モデル生成システム。
JP2016207696A 2016-10-24 2016-10-24 感情推定システム、感情推定モデル生成システム Active JP6761598B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016207696A JP6761598B2 (ja) 2016-10-24 2016-10-24 感情推定システム、感情推定モデル生成システム
US15/583,098 US10452982B2 (en) 2016-10-24 2017-05-01 Emotion estimating system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016207696A JP6761598B2 (ja) 2016-10-24 2016-10-24 感情推定システム、感情推定モデル生成システム

Publications (2)

Publication Number Publication Date
JP2018072876A JP2018072876A (ja) 2018-05-10
JP6761598B2 true JP6761598B2 (ja) 2020-09-30

Family

ID=61969809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016207696A Active JP6761598B2 (ja) 2016-10-24 2016-10-24 感情推定システム、感情推定モデル生成システム

Country Status (2)

Country Link
US (1) US10452982B2 (ja)
JP (1) JP6761598B2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11484685B2 (en) * 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US10318799B2 (en) * 2017-02-16 2019-06-11 Wipro Limited Method of predicting an interest of a user and a system thereof
KR102497042B1 (ko) * 2018-01-29 2023-02-07 삼성전자주식회사 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법
WO2019246239A1 (en) 2018-06-19 2019-12-26 Ellipsis Health, Inc. Systems and methods for mental health assessment
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
CN108922564B (zh) * 2018-06-29 2021-05-07 北京百度网讯科技有限公司 情绪识别方法、装置、计算机设备及存储介质
JP7048893B2 (ja) * 2018-07-26 2022-04-06 日本電信電話株式会社 学習装置、学習方法及びコンピュータプログラム
KR20200036680A (ko) * 2018-09-28 2020-04-07 삼성전자주식회사 감정 정보 획득을 위한 전자 장치 및 방법
CN109227558A (zh) * 2018-10-09 2019-01-18 北京智合大方科技有限公司 可实时调校的智能外呼机器人
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
JP6868049B2 (ja) * 2019-02-19 2021-05-12 Necパーソナルコンピュータ株式会社 情報処理装置、見守りシステム、見守り方法、及び見守りプログラム
EP3932311A4 (en) * 2019-02-28 2022-02-09 NEC Corporation EMOTION ASSESSMENT DEVICE AND METHOD AND COMPUTER READABLE RECORDING MEDIA
KR102218468B1 (ko) * 2019-06-17 2021-02-22 주식회사 오니온파이브 텍스트의 내용 및 감정 분석에 기반한 답변 추천 시스템 및 방법
CN110267052B (zh) * 2019-06-19 2021-04-16 云南大学 一种基于实时情绪反馈的智能弹幕机器人
JP7379788B2 (ja) * 2019-07-05 2023-11-15 株式会社Nttドコモ 感情推定装置、及び、感情推定システム
JP7342491B2 (ja) 2019-07-25 2023-09-12 オムロン株式会社 推論装置、推論方法、及び推論プログラム
US10796561B1 (en) * 2019-09-10 2020-10-06 International Business Machines Corporation Cognitive safety alert generation
CN110534135A (zh) * 2019-10-18 2019-12-03 四川大学华西医院 一种基于语言引导与心率反应来评估情绪特征的方法
JP7371759B2 (ja) * 2020-02-28 2023-10-31 日本電気株式会社 サーバ装置、会議支援システム、会議支援方法及びプログラム
JP7396133B2 (ja) 2020-03-11 2023-12-12 オムロン株式会社 パラメータ調整装置、推論装置、パラメータ調整方法、及びパラメータ調整プログラム
JP6951004B1 (ja) * 2021-03-29 2021-10-20 株式会社pluszero 情報処理システム及び仮想人材
KR102359344B1 (ko) * 2021-09-13 2022-02-08 가온플랫폼 주식회사 인공지능 기반의 영유아 행동 및 심리분석 스마트 보육환경 모니터링 시스템 및 그 방법
KR102454737B1 (ko) 2021-12-17 2022-10-19 주식회사 하이 심리 상태 분류 서버, 단말기, 심리 상태 분류 방법, 및 심리 상태 분류 서비스를 제공하는 방법

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2967058B2 (ja) * 1997-02-14 1999-10-25 株式会社エイ・ティ・アール知能映像通信研究所 階層的感情認識装置
AU768353B2 (en) * 1998-09-10 2003-12-11 Sony Corporation Robot apparatus, method of controlling robot apparatus, method of display, and medium
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
EP1247624A1 (en) * 2000-03-24 2002-10-09 Sony Corporation Method for determining action of robot and robot
KR20020067669A (ko) * 2001-02-16 2002-08-23 산요 덴키 가부시키가이샤 로봇 시스템 및 로봇
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
JP4525712B2 (ja) * 2002-12-11 2010-08-18 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
US7113848B2 (en) * 2003-06-09 2006-09-26 Hanson David F Human emulation robot system
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2006071936A (ja) 2004-09-01 2006-03-16 Matsushita Electric Works Ltd 対話エージェント
US20070074114A1 (en) * 2005-09-29 2007-03-29 Conopco, Inc., D/B/A Unilever Automated dialogue interface
JP4704952B2 (ja) * 2006-05-01 2011-06-22 株式会社エイ・ジー・アイ 心的状態判定装置、およびプログラム
TWI293571B (en) * 2006-08-25 2008-02-21 Benq Corp Device for animating facial expression
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
US10679749B2 (en) * 2008-08-22 2020-06-09 International Business Machines Corporation System and method for virtual world biometric analytics through the use of a multimodal biometric analytic wallet
TWI447660B (zh) * 2009-12-16 2014-08-01 Univ Nat Chiao Tung Robot autonomous emotion expression device and the method of expressing the robot's own emotion
JP2012059107A (ja) * 2010-09-10 2012-03-22 Nec Corp 感情推定装置、感情推定方法およびプログラム
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
JP2013105232A (ja) * 2011-11-11 2013-05-30 Nippon Telegr & Teleph Corp <Ntt> 感情推定装置及び感情推定方法
WO2014085910A1 (en) * 2012-12-04 2014-06-12 Interaxon Inc. System and method for enhancing content using brain-state data
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
JP6388824B2 (ja) * 2014-12-03 2018-09-12 日本電信電話株式会社 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム
US20180077095A1 (en) * 2015-09-14 2018-03-15 X Development Llc Augmentation of Communications with Emotional Data
JP2017151517A (ja) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 ロボット制御システム
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム

Also Published As

Publication number Publication date
US10452982B2 (en) 2019-10-22
JP2018072876A (ja) 2018-05-10
US20180114125A1 (en) 2018-04-26

Similar Documents

Publication Publication Date Title
JP6761598B2 (ja) 感情推定システム、感情推定モデル生成システム
Mead et al. Autonomous human–robot proxemics: socially aware navigation based on interaction potential
JP7003400B2 (ja) 対話制御システム
JP6738555B2 (ja) ロボット制御システム
KR101295003B1 (ko) 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법
Rossi et al. An extensible architecture for robust multimodal human-robot communication
CN107077847A (zh) 关键短语用户识别的增强
CN107430501A (zh) 对语音触发进行响应的竞争设备
KR102449630B1 (ko) 전자 장치 및 이의 제어 방법
KR102426435B1 (ko) 사용자 입력에 기반한 문장을 제공하는 장치 및 방법
US10785489B2 (en) System and method for visual rendering based on sparse samples with predicted motion
KR102222911B1 (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
JP2020173714A (ja) 対話支援装置、対話支援システム、及び対話支援プログラム
US11115409B2 (en) User authentication by emotional response
US10244013B2 (en) Managing drop-ins on focal points of activities
JP6887035B1 (ja) 制御システム、制御装置、制御方法及びコンピュータプログラム
US11388116B2 (en) Augmented reality enabled communication response
Karunasena et al. Devi: Open-source human-robot interface for interactive receptionist systems
JP2023120130A (ja) 抽出質問応答を利用する会話型aiプラットフォーム
JP6866731B2 (ja) 音声認識装置、音声認識方法、及びプログラム
US11929169B2 (en) Personalized sensory feedback
KR102643720B1 (ko) 로봇용 인공지능 인터페이스 시스템
JP6235148B2 (ja) 対話システム、および情報処理方法
WO2023017753A1 (ja) 学習装置、学習方法、およびプログラム
JP2023551169A (ja) 何らかの音声コマンドを実行する間にar(拡張現実)ベースで周囲からの音を選択的に包含すること

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200820

R150 Certificate of patent or registration of utility model

Ref document number: 6761598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350