JP2021108021A - 感情分析システムおよび感情分析方法 - Google Patents

感情分析システムおよび感情分析方法 Download PDF

Info

Publication number
JP2021108021A
JP2021108021A JP2019239263A JP2019239263A JP2021108021A JP 2021108021 A JP2021108021 A JP 2021108021A JP 2019239263 A JP2019239263 A JP 2019239263A JP 2019239263 A JP2019239263 A JP 2019239263A JP 2021108021 A JP2021108021 A JP 2021108021A
Authority
JP
Japan
Prior art keywords
care
emotion
caregiver
care recipient
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019239263A
Other languages
English (en)
Other versions
JP2021108021A5 (ja
Inventor
ジョーン ローレンソン マシュー
John Lawrenson Matthew
ジョーン ローレンソン マシュー
ジョン ライト クリストファー
John Wright Christopher
ジョン ライト クリストファー
エリオット ボウマン バーナデット
Bowman Bernadette Elliott
エリオット ボウマン バーナデット
マイケル デュフィー ディビッド
Michael Duffy David
マイケル デュフィー ディビッド
毅 吉原
Takeshi Yoshihara
毅 吉原
昭年 泉
Akitoshi Izumi
昭年 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019239263A priority Critical patent/JP2021108021A/ja
Publication of JP2021108021A publication Critical patent/JP2021108021A/ja
Publication of JP2021108021A5 publication Critical patent/JP2021108021A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】介護スタッフおよび被介護者に向けた快適な介護サービスの授受の実現を効率的に支援する。【解決手段】感情分析システムは、介護者および被介護者のうち少なくとも一方の発話に基づく音声を収音するマイクと、介護者および被介護者を撮像した画像を取得するカメラと、マイクにより収音された発話の音声データとカメラにより撮像された介護者および被介護者の画像データとのうち少なくとも一方に基づいて、介護者および被介護者のそれぞれの相手に対する感情を示す感情データを導出する感情処理部と、介護者および被介護者のそれぞれの感情データに基づいて、介護者へのアクションプランを決定し、介護者が所持する介護者端末に通知するフィードバック部と、を備える。【選択図】図2

Description

本開示は、感情分析システムおよび感情分析方法に関する。
特許文献1には、複数の月間サービス提供票の介護サービス単位を介護事業所の予定マトリックスに分布させて、介護サービスマトリックス分布を参考にスタッフ数およびその勤務時間シフトを調整することで、最少スタッフ数と最少勤務時間でミスマッチのない介護サービス管理を行う、訪問介護看護のためのマトリックスイノベーション管理法が開示されている。
特開2015−180984号公報
特許文献1の技術では最少スタッフ数と最少勤務時間で効率的に介護サービスを提供することがフォーカスされており、介護サービスを受ける被介護者(例えば高齢者)と介護スタッフとの間の人的な相性の良し悪しを考慮して介護サービスの割り当てを行うことはできない。実際の介護サービスの現場では人的な相性の良し悪しによる各種の問題が発生していることが少なくなく、介護スタッフにとっても被介護者にとっても快適な介護サービスの授受の実現を行う上で、改善の余地があったと考えられる。
本開示は、上述した従来の状況に鑑みて案出され、介護スタッフおよび被介護者に向けた快適な介護サービスの授受の実現を効率的に支援する感情分析システムおよび感情分析方法を提供することを目的とする。
本開示は、介護者および被介護者のうち少なくとも一方の発話に基づく音声を収音するマイクと、前記介護者および被介護者を撮像した画像を取得するカメラと、前記マイクにより収音された前記発話の音声データと前記カメラにより撮像された前記介護者および被介護者の画像データとのうち少なくとも一方に基づいて、前記介護者および被介護者のそれぞれの相手に対する感情を示す感情データを導出する感情処理部と、前記介護者および被介護者のそれぞれの前記感情データに基づいて、前記介護者へのアクションプランを決定し、前記介護者が所持する介護者端末に通知するフィードバック部と、を備える、感情分析システムである。
本開示によれば、介護スタッフおよび被介護者に向けた快適な介護サービスの授受の実現を効率的に支援できる。
実施の形態1に係る感情分析システムの概要の一例を示す図 感情分析システムのハードウェア構成例を示す図 実施の形態1に係る感情分析システムの動作手順例を示すフローチャート 共感推定テーブルの登録内容の一例を示す図 発話量・フィードバックテーブルの登録内容の一例を示す図 テンポ・フィードバックテーブルの登録内容の一例を示す図 ストレス・フィードバックテーブルの登録内容を示す図 感情・ストレステーブルの登録内容の一例を示す図
以下、適宜図面を参照しながら、本開示に係る感情分析システムおよび感情分析方法を具体的に開示した実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明および実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
図1は、実施の形態1に係る感情分析システム5の概要の一例を示す図である。ここでは、被介護者oh1は、例えば、介護が必要となる高齢者であり、車イスに座ったまま移動する。介護者の一例としての介護スタッフsf1は、例えば、被介護者oh1を介護する介護施設等に勤務する女性スタッフである。なお、介護スタッフst1は男性スタッフでもよいことは言うまでもない。監視ロボット100は、被介護者oh1および介護スタッフsf1のそれぞれの状況等をモニタリングする監視装置の一例である。
監視ロボット100は、例えば、駆動輪および従動輪を備えた単一の自立走行型ロボットであり、病院あるいは老人ホーム等の介護施設内を自由に移動自在である。監視ロボット100は、カメラ101、マイク102および通信部103を有し、カメラ101で被介護者oh1および介護スタッフsf1を撮像し、マイク102で被介護者oh1および介護スタッフsf1が発話する音声を収音する。監視ロボット100は、通信部103でこれらの画像データおよび音声データのそれぞれのペアをサーバ200(図2参照)に常時あるいは定期的に送信する。
例えば、監視ロボット100は、カメラ101で撮像された画像を解析して被介護者oh1および介護スタッフsf1を認識すると、被介護者oh1および介護スタッフsf1のいる場所に近づき、被介護者oh1および介護スタッフsf1の顔部分をズームアップしてカメラ101で撮像する。また同時に、監視ロボット100は、マイク102で両者(つまり、被介護者oh1および介護スタッフsf1)が発話する音声を収音する。なお、監視ロボット100は、介護スタッフsf1または被介護者oh1のいずれか一方を画像解析によって認識し、そのいずれか一方の後に付いていくように移動することも可能である。
なお、監視ロボット100の代わりに、介護施設内の1箇所もしくは複数の箇所にそれぞれ設置された、マイク付きの監視カメラが、被介護者oh1および介護スタッフsf1を撮像するとともに、被介護者oh1および介護スタッフsf1の会話の音声を収音してもよい。
また、監視ロボット100は、被介護者oh1および介護スタッフsf1が映る画像データと被介護者oh1および介護スタッフsf1の音声データをサーバ200(後述参照)に送信することなく、これらの画像データおよび音声データの少なくとも一方を用いて被介護者oh1および介護スタッフsf1のそれぞれの感情を推定して両者の共感度を推定し、この共感度に対応するアクションプランを決定することも可能である。監視ロボット100は、決定したアクションプランを介護スタッフsf1にフィードバックする必要がある場合、例えば介護スタッフsf1が所持する介護スタッフ端末301にメッセージとして送る。メッセージは、感情分析結果およびアクションプランを含む。また、監視ロボット100は、例えば介護スタッフの上司、および介護スタッフを雇用または派遣する会社に対し、アクションプランを通知してもよい。
図2は、感情分析システム5のハードウェア構成例を示す図である。図5の感情分析システム5は、監視ロボット100と、サーバ200と、少なくとも1台の端末300と、を含む構成である。監視ロボット100、サーバ200および端末300は、ネットワークNWを介して相互にデータ通信が可能に接続される。
監視ロボット100(図1参照)は、被介護者oh1と介護スタッフsf1をモニタリングする。監視ロボット100は、プロセッサ110、メモリ111、通信部103、カメラ101、マイク102、および駆動部115を少なくとも有する。
カメラ101は、CCD(Charge Coupled Device),CMOS(Complementary Metal−Oxide Semiconductor)等の固体撮像素子(イメージセンサ)を有し、被写体からの光を撮像面に結像し、結像した光学像を電気信号に変換して映像信号を出力する。カメラ101で撮像された画像データは、メモリ111に記憶される。なお、カメラ101の台数は、1台に限らず、複数台であってもよい。また、カメラ101は、夜間あるいは暗所等で撮像できるように、近赤外光を照射してその反射光を受光可能な赤外線カメラを備えてもよい。カメラ101は、固定カメラでもよいし、パン・チルト・ズーム可能なPTZ(Pan Tilt Zoom)カメラであってもよい。また、カメラ101は、一対のカメラによって被写体の立体映像(3D画像)を撮像可能なステレオカメラであってもよい。
マイク102は、指向性マイクあるいは無指向性マイクのいずれでもよい。マイクは、高音質小型エレクトレットコンデンサーマイクロホン(ECM:Electret Condenser Microphone)の単体、複数のECMで構成されるマイクアレイでもよい。
プロセッサ110は、メモリ111に保持されたプログラムを実行することで各種機能を実現する。プロセッサは、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphical Processing Unit)等を含んでよい。また、ASIC(Application Specific Integrated Circuit)等で設計された専用の電子回路、FPGA(Field Programmable Gate Array)等で再構成可能に設計された電子回路で構成されてもよい。
メモリ111は、プロセッサ110のワーキングメモリとして使用される他、各種データ、情報、プログラムを記憶する。メモリ111は、一次記憶装置(例えばRAM(Random Access Memory)またはROM(Read Only Memory))を含む。メモリ111は、二次記憶装置(例えばHDD(Hard Disk Drive)、SSD(Solid State Drive))、または三次記憶装置(例えば光ディスク、SDカード)を含んでよい。
通信部103は、ネットワークNWに接続されたサーバ200および端末300のそれぞれとの間で通信(例えば無線通信)を行う。通信部103は、ネットワークNWに接続可能なネットワークインターフェース、近距離無線通信インターフェース等を有する。通信部103は、カメラ101で撮像された画像データ、およびマイク102で収音された音声データをサーバ200に送信する。また、通信部103は、サーバ200から感情分析結果に基づくアクションプランを受信した場合、ネットワークNWを介して端末300にアクションプランを転送してもよい。通信部による通信方式は、例えば、WAN(Wide Area Network)、LAN(Locak Area Network)、LTE(Long Term Evolution)、電力線通信、近距離無線通信(例えばBluetooth(登録商標)通信)、携帯電話用の通信等の通信方式を含んでよい。
駆動部115は、プロセッサ110の指示に従い、監視ロボット100に備えられる駆動輪(図示略)を回転駆動する。
サーバ200は、監視ロボット100から送られた被介護者oh1および介護スタッフsf1の画像データおよび音声データのうち少なくとも一方を用いて、被介護者oh1および介護スタッフsf1の感情を推定して両者の共感度を推定する。サーバ200は、この推定された共感度に基づいて、その共感度に対応する介護スタッフsf1へのアクションプラン(例えば取るべき行動あるいはその指針)を決定する。
サーバ200は、監視ロボット100から送られた、被介護者oh1および介護スタッフsf1の音声データおよび画像データを基に、被介護者oh1および介護スタッフsf1の双方の感情(つまり、一方が他方に対する感情)を推定し、感情の推定結果を基に共感度(言い換えると、相性)を推定する。サーバ200は、両者の相性が良いと判定した場合には特に何もしないが、両者の相性が良くないと判定した場合にはアクションプランを実行する。サーバ200は、プロセッサ201、メモリ202、通信部203、およびストレージ204を有する。
プロセッサ201は、メモリ202に保持されたプログラムを実行することで実現する各種機能、具体的に感情推定部211、共感推定部212、ミスマッチ検知部213、およびアクション決定部214を含む。プロセッサは、CPU、DSP、GPU等を含んでよい。また、ASIC等で設計された専用の電子回路、FPGA等で再構成可能に設計された電子回路で構成されてもよい
感情処理部の一例としての感情推定部211は、介護スタッフsf1および被介護者oh1が発話する音声の音声データと介護スタッフsf1および被介護者oh1の生体データ(いわゆるバイタルデータ)とのうち少なくとも1つに基づいて、介護スタッフsf1および被介護者oh1のそれぞれの感情を推定する。生体データとして、ここでは、カメラ101で介護スタッフsf1および被介護者oh1を撮像し、撮像画像に含まれる介護スタッフsf1および被介護者oh1のそれぞれの肌色部分の変化を基に推定される心拍の変動を示すデータが用いられる。なお、介護スタッフsf1および被介護者oh1等の人物が発話する音声の音声データおよび人物の心拍変動データを基に、感情を推定する技術は、公知である。
後述する動作例1では、感情推定部211は、介護スタッフsf1および被介護者oh1のそれぞれの音声の音声データを基に、両者の感情を推定する。
後述する動作例2では、感情推定部211は、介護スタッフsf1および被介護者oh1のそれぞれの心拍変動データを基に、両者の感情を推定する。
感情処理部の一例としての共感推定部212は、感情推定部211により推定された被介護者oh1の感情および介護スタッフsf1の感情を基に、共感推定テーブルTb1(図4参照)に従い、両者の共感度(つまり、介護スタッフsf1および被介護者oh1間の心理的な相性の良し悪し)を推定する。
感情処理部の一例としてのミスマッチ検知部213は、共感推定部212の出力に基づいて被介護者oh1および介護スタッフsf1間の相性が良くないと判定した場合に、介護サービスを提供する上での両者の組み合わせはミスマッチである旨を検知する。
フィードバック部の一例としてのアクション決定部214は、ミスマッチ検知部213によってミスマッチが検知された場合、介護スタッフsf1に対するアクションプランを決定する。アクションプランとして、例えば被介護者oh1にヒアリングを行うこと、介護スタッフsf1を指導すること等が挙げられる。介護スタッフsf1への指導は、メッセージとして、決定したアクションプランをフィードバックすることで行われる。
メモリ202は、プロセッサのワーキングメモリとして使用される他、各種データ、情報、プログラムを記憶する。メモリ202は、一次記憶装置(例えばRAMまたはROM)を含む。メモリ202は、二次記憶装置(例えばHDD、SSD)、または三次記憶装置(例えば光ディスク、SDカード)を含んでよい。
通信部203は、ネットワークNWを介して無線又は有線で監視ロボット100および端末300との間で通信(例えば無線通信)する。サーバ200が被介護者oh1および介護スタッフsf1に対しアクションプランを行う場合、通信部203は、ネットワークNWを介して端末300に直接にフィードバックしてもよいし、監視ロボット100が転送する場合、ネットワークNWを介して監視ロボット100にアクションプランをフィードバックしてもよい。通信部203による通信方式は、例えば、WAN、LAN、LTE、5G等の移動体通信、電力線通信、近距離無線通信(例えばBluetooth(登録商標)通信)、携帯電話用の通信等の通信方式を含んでよい。
ストレージ204は、HDDまたはSSDで構成される。ストレージ204は、推定された被介護者oh1および介護スタッフsf1のそれぞれの感情データ、共感度をそれぞれ示すデータ等を、被介護者oh1の識別IDおよび介護スタッフsf1の識別IDとともに関連付けて蓄積するデータベースである。ストレージ204は、例えば被介護者oh1の感情が「心地良い」、「快適」等、リラックスしている場合に値が高くなるような、介護スタッフsf1を評価する評価データを蓄積してもよい。
端末300は、介護スタッフsf1が所持する介護スタッフ端末301、介護スタッフsf1の上司が所持する上司端末302、および介護スタッフを雇用または派遣する会社の会社端末303を含む。特に、これらの端末を区別する必要が無い場合、単に端末300と称する。端末300は、スマートフォン、タブレット端末、ノートパソコン等である。
なお、ここでは、サーバ200は、被介護者oh1および介護スタッフsf1の音声データおよび画像データを基に、被介護者oh1および介護スタッフsf1の双方の感情を推定して両者の相性を推定し、両者の相性が良くない場合にアクションプランを実行した。これらの動作は、サーバ200の代わりに、監視ロボット100が一括して行ってもよい。監視ロボット100が行う場合、感情分析システムは、サーバ200を省いて構成される。
次に、実施の形態1に係る感情分析システム5の動作例を順に説明する。
(動作例1:音声データを用いた感情推定)
動作例1では、被介護者oh1および介護スタッフsf1のそれぞれが発話する音声の音声データを基に、被介護者oh1および介護スタッフsf1の双方の感情を推定する場合を示す。ここで、発話する音声の音声データを用いて、人物の感情を推定する技術は、公知の技術である。例えば、特開2015−99304号公報には、複数の感情スコアをそれぞれモデル化した感情モデル集合を記憶し、対話者の入力音声信号からフレームごとに音響特徴量を抽出し、音響特徴量から感情モデル集合を用いてフレームごとに感情スコアを計算する、共感反感箇所検出装置が開示されている。この共感反感箇所検出装置は、計算された感情スコアに基づいてフレームごとに共感反感箇所推定スコアを計算し、この共感反感箇所推定スコアに基づいて対話者の共感反感箇所を推定する。
図3は、実施の形態1に係る感情分析システム5の動作手順例を示すフローチャートである。
図3において、監視ロボット100は、カメラ101により撮像される撮像画像に映る人物(例えば被介護者oh1および介護スタッフsf1)を認識すると、駆動部115によって駆動輪を駆動し、被介護者oh1および介護スタッフsf1の近くに移動する。監視ロボット100は、顔等の肌色が判別できるように、ズームアップしてカメラ101で被介護者oh1および介護スタッフsf1を撮像し、被介護者oh1および介護スタッフsf1の画像データを取得する(S1)。また、監視ロボット100は、マイク102で被介護者oh1および介護スタッフsf1が発話する音声を収音して被介護者oh1および介護スタッフsf1の音声データを取得する(S1)。監視ロボット100の通信部103は、ステップS1で取得された被介護者oh1および介護スタッフsf1の画像データおよび音声データをサーバ200に送信する。
サーバ200の通信部203は、監視ロボット100から被介護者oh1および介護スタッフsf1の画像データおよび音声データを受信する。感情推定部211は、被介護者oh1および介護スタッフsf1の双方の音声データを基に、それぞれの感情を推定する(S2)。以下の説明において、声の音声に基づいて推定される感情は、声感情あるいは表面感情とも称される。
共感推定部212は、感情推定部211によって、推定された被介護者oh1および介護スタッフsf1の双方の感情を基に、共感推定テーブルTb1に従い、被介護者oh1および介護スタッフsf1の両者の共感度(つまり、相性の良し悪し)を推定する(S3)。
サーバ200のプロセッサ201は、推定された被介護者oh1および介護スタッフsf1の感情データおよび共感度データを、被介護者oh1の識別IDおよび介護スタッフsf1の識別IDとともにストレージ204に蓄積する。また、プロセッサ201は、例えば被介護者oh1の感情が「心地良い」、「快適」等、リラックスしている場合に値が高くなるような、介護スタッフsf1を評価する評価データをストレージ204に蓄積してもよい。
図4は、共感推定テーブルTb1の登録内容の一例を示す図である。共感推定テーブルTb1では、被介護者oh1および介護スタッフsf1の感情は、「怒り」、「落ち込み」、「喜び」、「快適」の4つに分類される。
例えば、被介護者oh1の感情が「怒り」または「落ち込み」であり、介護スタッフsf1の感情が「怒り」または「落ち込み」である場合、両者の共感度が極めて低く、相性が悪いとして、被介護者oh1と介護スタッフsf1の組み合わせを変更することを介護スタッフsf1に指示するためのアクションプランが登録されている。
また例えば、被介護者oh1の感情が「喜び」または「快適」であり、介護スタッフsf1の感情が「怒り」または「落ち込み」である場合、両者の共感度が低く、相性が良くないとして、被介護者oh1にヒアリングし、介護スタッフsf1を指導することを介護スタッフsf1に指示するためのアクションプランが登録されている。
また例えば、被介護者oh1の感情が「怒り」または「落ち込み」であり、介護スタッフsf1の感情が「喜び」または「快適」である場合、同様に、両者の共感度が低く、相性が良くないとして、被介護者oh1にヒアリングし、介護スタッフsf1を指導することを介護スタッフsf1に指示するためのアクションプランが登録されている。
また例えば、被介護者oh1の感情が「喜び」または「快適」であり、介護スタッフsf1の感情が「喜び」または「快適」である場合、両者の共感度が高く、相性が良いとして、介護スタッフsf1に対するアクションプラン無しが登録されている。なお、感情は、上記4つに限らず、「刺激」、「疲労」等を含んでもよく、より適切な感情表現が可能となる。
アクション決定部214は、介護スタッフsf1に対するアクションプランを選択する(S4)。サーバ200は、アクション決定部214によって選択されたアクションプランの指示(通知)を実行する。例えば、プロセッサ201は、通信部203を介して、アクション決定部214により決定されたアクションプランを介護スタッフsf1が所持する介護スタッフ端末301に送信してフィードバックする。なお、プロセッサ201は、アクションプランと同時に、被介護者oh1の評価データを送信してもよい。例えば、プロセッサ201は、評価データを含むアクションプランを作成し、介護スタッフsf1にメッセージとして通知してもよい。
サーバ200の通信部203は、介護スタッフsf1の他、作成されたメッセージを介護スタッフsf1の上司が所持する上司端末302、または介護スタッフsf1を雇用あるいは派遣している会社の会社端末303に送信する。メッセージは、介護スタッフsf1への指導内容を含む。なお、アクション決定部214は、被介護者oh1に対するアクションプラン(例えば、被介護者oh1との間でヒアリングを行うこと)を決定してもよい。また、アクション決定部214は、介護スタッフsf1に対するアクションプランを決定する際、後述する発話量・フィードバックテーブルTb2またはテンポ・フィードバックテーブルTb3を用いてもよい。
図5は、発話量・フィードバックテーブルTb2の登録内容の一例を示す図である。発話量・フィードバックテーブルTb2には、一定期間分の介護スタッフsf1の発話量と被介護者oh1の発話量との比率を基に、介護スタッフsf1へのフィードバック内容が登録されている。一定期間として、例えば10分、1時間、3日間、1週間、1ケ月が挙げられる。共感推定部212は、一定期間分の発話量の比率を用いて両者の共感度を推定する。これにより、被介護者oh1と介護スタッフsf1との双方について導出した感情の信頼性が向上する。
具体的に、介護スタッフsf1の発話量と被介護者oh1の発話量の比率が、10対0から5対5までの範囲にある場合、介護スタッフsf1へのアクションプランは、「もっと被介護者の話を聞く、質問するように促す」が登録されている。
また、介護スタッフsf1の発話量と被介護者oh1の発話量の比率が、4対6から2対8までの範囲にある場合、介護スタッフsf1へのアクションプランは、「概ね適切である」が登録されている。
なお、アクションプランが「概ね適切である」である場合、介護スタッフsf1にメッセージが通知されなくてもよい。また、介護スタッフsf1の発話量と被介護者oh1の発話量の比率が、1対9から0対10までの範囲にある場合、介護スタッフsf1へのアクションプランは、「もっと被介護者に話しかけるように促す」が登録されている。
なお、ここでは、アクションプランの決定には、一定期間分の単なる発話量が用いられたが、発話量に含まれる子音あるいは母音の数、または母音と子音の比率を用いて、アクションプランが決定されてもよい。これにより、発話量と感情との因果関係がより明瞭になる。
図6は、テンポ・フィードバックテーブルTb3の登録内容の一例を示す図である。テンポ・フィードバックテーブルTb3には、一定時間分の会話のテンポ(話速)を基に、介護スタッフsf1へのアクションプランが登録されている。例えば、介護スタッフsf1の発話速度と被介護者oh1の発話速度との比率が算出され、この比率が閾値と比べて大きいか否かによってアクションプランが決定される。
感情分析システム5は、被介護者oh1または介護スタッフsf1の発話時のテンポ(つまり話速)に偏りがある場合、被介護者oh1および介護スタッフsf1の相性が良くないと判断し、また、テンポがほぼ同じであると被介護者oh1および介護スタッフsf1の相性が良いと判断することで、相性を適正に判断できる。また、一定期間分のテンポを用いることで、感情の導出結果の信頼性が向上する。
具体的に、介護スタッフsf1のテンポが被介護者oh1のテンポに比べ、著しく早い場合、介護スタッフsf1へのアクションプランは、「もう少しゆっくり話すよう促す」が登録されている。
また、介護スタッフsf1のテンポが被介護者oh1のテンポに比べ、早い、ほぼ同じまたは遅い場合、介護スタッフsf1へのアクションプランは、「概ね適切である」が登録されている。
なお、アクションプランが「概ね適切である」である場合、介護スタッフsf1にメッセージが通知されなくてもよい。また、介護スタッフsf1のテンポが被介護者oh1のテンポに比べ、著しく遅い場合、介護スタッフsf1へのアクションプランは、「もう少し早く話すよう促す」が登録されている。
このように、感情分析システム5の動作例1では、サーバ200は、監視ロボット100が収音した被介護者oh1および介護スタッフsf1の双方が発話する時の音声の音声データを基に、被介護者oh1および介護スタッフsf1の双方の感情を推定し、共感度に基づくアクションプランの介護スタッフsf1への指示を実行する。つまり、サーバ200は、アクションプランに相当するメッセージを作成して介護スタッフsf1に通知する。これにより、感情分析システム5は、被介護者oh1および介護スタッフsf1の会話時の音声の音声データを用いて被介護者oh1および介護スタッフsf1の両者の感情を推定し、その感情に基づいて得られた共感度に基づくアクションプランの指示を介護スタッフsf1に実行することで、被介護者oh1に対する介護サービスの質を向上できる。なお、動作例1では、感情分析システム5は、被介護者oh1および介護スタッフsf1の双方が発話する音声を収音したが、一方が発話する声だけを収音して被介護者oh1および介護スタッフsf1双方の感情を推定し、共感度を推定してアクションプランの通知を実行してもよい。
(動作例2:バイタルデータを用いた感情推定)
動作例1では、被介護者oh1および介護スタッフsf1の会話時の音声の音声データを基にして被介護者oh1および介護スタッフsf1の両者の感情(言い換えると、音声により導かれる表面的な感情)を推定した。動作例2では、被介護者oh1および介護スタッフsf1の顔部分が映る撮像画像に基づいて得られる両者のバイタルデータを基に内面感情を推定する場合を示す。
バイタルデータとして、例えば、被介護者oh1および介護スタッフsf1の会話時における心拍変動データを用いる。ここで、心拍変動を基に内面感情(特に、ストレス度)を分析する技術は、公知の技術である。例えば、特許第6358506号公報には、被験者が撮像された画像データを入力し、入力された画像データの複数フレームにわたる肌色部分の画素値の周期を基に脈拍数を推定することが開示される。同様に、国際公開第2017/154477号には、撮像画像から肌色領域を検出し、肌色領域から抽出した情報に基づき脈波信号を検出し、脈波信号に基づき被検体の脈拍を推定することが開示される。
また、心臓の拍動に起因する心拍間隔(RRI)を基に、心拍変動の時系列データとして、ストレス指数が得られることが知られている。心拍変動に基づくストレス指数として、例えば交感神経と副交感神経の全体のバランスを表すLF/HFが挙げられる。LF(低周波)は、心拍変動の時系列データの0.004〜0.15Hzの低周波を表し、メイヤー波と呼ばれる約10秒周期の血圧変化を信号源とする変動波である。HF(高周波)は、0.15〜0.4Hzの高周波数を表し、3秒から4秒程度の周期を持つ呼吸を信号源とする変動波である。ストレス指数であるLF/HFが高い場合、被験者は、交感神経が優位の状態にある。ストレス指数であるLF/HFが低い場合、被験者は、副交感神経が優位の状態にある。
また、心拍変動とリラックスとの間の関係が知られている。例えばリラックス状態では上述した心拍間隔(RRI)がある程度変動し、ストレス状態では心拍間隔(RRI)がほぼ同じ値である。また、5つの感情、「喜び」、「怒り」、「恐れ」、「悲しみ」、「落ち着き」では、平均のRRIに比べ、CVRR(Coefficient of Variation of R−R interval)が大きく変化する。ストレスとリラックスの判別精度は、71.4%である。また、5つの感情の判別精度は、56.9%である。
感情分析システム5は、動作例2において、動作例1と同様に、図3に示す動作手順に従って感情分析の処理を行う。動作例2では、監視ロボット100のカメラ101は、被介護者oh1および介護スタッフsf1の両者の顔部分が写る(映る)ように、被介護者oh1および介護スタッフsf1を撮像し、画像データをサーバ200に送信する。サーバ200の通信部203が監視ロボット100から被介護者oh1および介護スタッフsf1双方の画像データを受信すると、感情推定部211は、被介護者oh1および介護スタッフsf1の双方の、会話時の心拍変動だけでなくストレス度を算出する。共感推定部212は、被介護者oh1および介護スタッフsf1の双方のストレス度を基に、後述するストレス・フィードバックテーブルTb4に従い、被介護者oh1および介護スタッフsf1の共感度(つまり、相性の良し悪し)を推定する。アクション決定部214は、共感推定部212により推定された共感度を基に、ストレス・フィードバックテーブルTb4に従い、介護スタッフsf1へ指示するべきアクションプランを選択する。アクション決定部214は、選択されたアクションプランに相当するメッセージを作成して介護スタッフsf1の所持する介護スタッフ端末301等にフィードバックする。
図7は、ストレス・フィードバックテーブルTb4の登録内容の一例を示す図である。ストレス・フィードバックテーブルTb4には、ストレスの有無を示すストレス有無データとして、介護スタッフsf1および被介護者oh1の双方がストレスを感じている場合、共感度が著しく低い、つまり被介護者oh1と介護スタッフsf1との相性が良くないとして、介護スタッフsf1を交代させるかもしくは介護スタッフsf1の指導を行うことが登録されている。
また、介護スタッフsf1がストレスを感じており、かつ被介護者oh1がリラックスしている場合、共感度が低い、例えば介護スタッフsf1がまだ仕事に慣れていないとして、介護スタッフsf1の教育を強化することが登録されている。
また、介護スタッフsf1がリラックスしており、かつ被介護者oh1がストレスを感じている場合、共感度が低い、例えば介護スタッフsf1が被介護者oh1の感情に気付いていないとして、介護スタッフsf1の指導を行うことが登録されている。
また、介護スタッフsf1および被介護者oh1の双方がリラックスしている場合、共感度が高く、特に問題なしとすることが登録されている。
このように、感情分析システム5の動作例2では、サーバ200は、監視ロボット100が取得した被介護者oh1および介護スタッフsf1の画像データに基づく生体データ(心拍変動データの一例)を基に、被介護者oh1および介護スタッフsf1の双方の感情を推定し、推定された感情により得られた共感度に基づくアクションプランの指示を実行する。つまり、サーバ200は、アクションプランに相当するメッセージを作成して介護スタッフsf1に通知する。これにより、感情分析システム5は、生体情報である心拍変動データを用いて、表に現れにくい被介護者oh1の内面感情を推定でき、内面感情による共感度に基づくアクションプランを実行することで、被介護者oh1に対する介護サービスの質を向上できる。
(動作例3:音声データとバイタルデータとを用いた感情推定)
動作例3では、被介護者oh1が発話する音声の音声データを基に被介護者oh1の表面感情を推定するとともに、被介護者oh1の心拍変動データを基に内面感情を表すストレス度を算出する場合を示す。つまり、動作例3は、動作例1と動作例2とを組み合わせた動作例である。
動作例3では、サーバ200の通信部203が監視ロボット100から被介護者oh1の声の音声データおよび顔等の画像データを受信すると、感情推定部211は、被介護者oh1の声の音声データを基に感情を推定するとともに、画像データを基に被介護者oh1の心拍変動データを取得してストレス度を算出する。共感推定部212は、感情推定部211によって推定された被介護者oh1の感情とストレス度とを基に、感情・ストレステーブルTb5にしたがい、被介護者oh1および介護スタッフsf1の共感度(つまり、相性の良し悪し)を推定する。アクション決定部214は、被介護者oh1および介護スタッフsf1の共感度を基に、感情・ストレステーブルTb5に従い、介護スタッフsf1への指示するべきアクションプランを選択する。アクション決定部214は、通信部203を介して、選択されたアクションプランに相当するメッセージを作成して介護スタッフsf1の所持する介護スタッフ端末301に送信してフィードバックする。
図8は、感情・ストレステーブルTb5の登録内容の一例を示す図である。感情・ストレステーブルTb5には、被介護者oh1の声感情と被介護者oh1のストレス度を基に介護スタッフsf1に対するアクションプランが登録される。
具体的に、被介護者oh1の感情は、「怒り」、「落ち込み」、「喜び」、「快適」の4つに分類される。また、被介護者oh1のストレス度は、「ストレス」もしくは「平常」の2通りである。「ストレス」は、被介護者oh1が強いストレスを感じている状態を表す。「平常」は、被介護者oh1が強いストレスを感じていない状態を表す。なお、「平常」の代わりに「リラックス」の表現が用いられてもよい。
感情・ストレステーブルTb5には、被介護者oh1が「ストレス」の状態にあり、かつ感情が「怒り」である場合、長期ストレスによって怒りやすくなっているとして、丁寧かつ優しく接することが登録されている。
また、被介護者oh1が「ストレス」の状態にあり、かつ感情が「落ち込み」である場合、うつ病長期的な要因に要注意であるとして、定期的にヒアリングして報告することが登録されている。
また、被介護者oh1が「ストレス」の状態にあり、かつ感情が「喜び」である場合、話前後でストレス度の変化を見たいとして、できるだけ声掛けすることが登録されている。この場合、被介護者oh1が介護スタッフsf1と会話することでストレス度が軽減されることが期待される。
また、被介護者oh1が「ストレス」の状態にあり、かつ感情が「快適」である場合、「喜び」である場合と同様、話前後でストレス度の変化を見たいとして、できるだけ声掛けすることが登録されている。この場合も、被介護者oh1が介護スタッフsf1と会話することでストレス度が軽減されることが期待される。
一方、被介護者oh1が「平常」の状態にあり、かつ感情が「怒り」である場合、単発的な怒りであり、会話の内容または介護スタッフの対応に問題があるかもしれないとして、にこやかに接することが登録されている。
また、被介護者oh1が「平常」の状態にあり、かつ感情が「落ち込み」である場合、会話の内容で感情が変わったとして、優しく接することが登録されている。
また、被介護者oh1が「平常」の状態にあり、かつその感情が「喜び」である場合、健全な状態であり、介護スタッフsf1と相性が良く、特に何もしないことが登録されている。
また、被介護者oh1が「平常」の状態にあり、かつ感情が「快適」である場合、「喜び」である場合と同様、健全な状態であり、介護スタッフsf1と相性が良く、特に何もしないことが登録されている。
なお、ここでは、感情推定部211は、被介護者oh1に対し、声の音声データを基に感情を推定し、画像データを基に会話時の心拍変動データを取得してストレス度を算出したが、併せて、介護スタッフsf1に対しても、声の音声データを基に感情を推定し、画像データを基に会話時の心拍変動データを取得してストレス度を算出してもよい。
このように、感情分析システム5の動作例3では、感情分析システム5は、監視ロボット100が収音した被介護者oh1の声の音声データ、および取得した被介護者oh1の画像データに基づく心拍変動データを基に、被介護者oh1の感情(つまり表面感情)およびストレス度(つまり内面感情))を推定し、被介護者oh1および介護スタッフsf1の共感度に対応するアクションプランを選択し、介護スタッフsf1に対しアクションプランの指示を実行する。これにより、アクション決定部214は、被介護者oh1に対するより適切なアクションプランを選択できる。したがって、感情分析システム5は、被介護者の感情およびストレス度を基に感情分析を行うことができ、介護サービスの質を向上できる。
以上により、感情分析システム5は、介護スタッフsf1および被介護者oh1のうち少なくとも一方の発話に基づく音声をマイク102において収音する。感情分析システム5は、介護スタッフsf1および被介護者oh1を撮像した画像をカメラ101において取得する。感情分析システム5は、マイク102により収音された発話の音声データとカメラ101により撮像された介護スタッフsf1および被介護者oh1の画像データとのうち少なくとも一方に基づいて、介護スタッフsf1および被介護者oh1のそれぞれの感情を感情推定部において推定する(つまり、相手に対する感情を示す感情データを導出する)。感情分析システム5は、介護スタッフsf1および被介護者oh1のそれぞれの感情データに基づいて、被介護者oh1へのアクションプランをアクション決定部214において決定し、被介護者oh1が所持する介護スタッフ端末301に通知する。
これにより、感情分析システム5は、被介護者oh1と介護スタッフsf1との間の相性を基に、介護スタッフsf1に対して適切なアドバイスを行うことができる。したがって、被介護者oh1に対する介護サービスの質が向上する。つまり、感情分析システム5によれば、介護スタッフsf1および被介護者oh1に向けた快適な介護サービスの授受の実現を効率的に支援できる。
また、感情推定部211は、介護スタッフsf1の被介護者oh1に対する感情(第1の感情データの一例)と、被介護者oh1の介護スタッフsf1に対する感情(第2の感情データの一例)とを導出する。共感推定部212は、これらの感情に基づいて、被介護者oh1と介護スタッフsf1との間の相性の良し悪しを決定する。アクション決定部214は、被介護者oh1と介護スタッフsf1との間の相性の良し悪しの決定結果に基づいて、介護スタッフsf1へのアクションプランを決定する。これにより、感情分析システム5は、被介護者oh1と介護スタッフsf1間の相性が良くなるように、アクションプランを実行できる。
また、感情推定部211は、一定期間分の介護スタッフsf1の発話量と被介護者oh1の発話量との比率に基づいて感情を導出する。アクション決定部214は、感情の導出結果に基づいて、介護スタッフsf1へのアクションプランを決定する。これにより、感情分析システムは、被介護者oh1または介護スタッフsf1の発話量に偏りがある場合、相性が良くないと判断し、また、発話量がほぼ同じであると相性が良いと判断することで、相性を数値化できる。したがって、相性の判断精度が向上する。また、一定期間分の発話量を基に比率を算出することで、感情の導出結果の信頼性が向上する。
また、感情推定部211は、一定期間分の介護スタッフsf1のテンポ(言い換えると、発話速度)と被介護者oh1のテンポとの比率に基づいて感情を導出する。アクション決定部214は、感情の導出結果に基づいて、介護スタッフsf1へのアクションプランを決定する。これにより、感情分析システム5は、被介護者oh1または介護スタッフsf1のテンポに偏りがある場合、相性が良くないと判断し、また、テンポがほぼ同じであると相性が良いと判断することで、相性を適正に判断できる。また、一定期間分のテンポを用いることで、感情の導出結果の信頼性が向上する。
また、感情推定部211は、介護スタッフsf1および被介護者oh1の顔部分が映る画像データに基づいて、介護スタッフsf1および被介護者oh1のそれぞれの心拍の変動に対応するストレスの有無を示すストレス度(ストレス有無データ)を算出(導出)する。アクション決定部214は、介護スタッフsf1のストレス度と被介護者oh1のストレス度とに基づいて、介護スタッフsf1へのアクションプランを決定する。これにより、感情分析システム5は、介護スタッフsf1および被介護者oh1それぞれの表面に現れない感情、つまり内面感情を考慮して介護スタッフsf1へのアクションプランを選択できる。したがって、被介護者oh1に対する介護サービスの質がより向上する。
また、感情推定部211は、発話の音声データに基づいて被介護者oh1の表面感情である声感情(第3の感情データの一例)を導出するとともに、被介護者oh1の顔部分が映る画像データに基づいて被介護者oh1の内面感情を示すストレス度(第4の感情データの一例)を導出する。アクション決定部214は、声感情とストレス度とに基づいて、被介護者oh1へのアクションプランを決定する。これにより、感情分析システム5は、被介護者oh1の表面感情と内面感情の双方を考慮して、介護スタッフsf1へのアクションプランを選択できる。したがって、被介護者oh1に対する介護サービスの質がより一層向上する。
また、マイク102、カメラ101、感情推定部211、共感推定部212、ミスマッチ検知部213およびアクション決定部214は、単一の自律走行型の監視ロボット100に収容される。これにより、監視ロボット100が例えば施設内を巡回して介護サービスの向上を図れる。
また、感情分析システム5は、通信部203、感情推定部211、共感推定部212、ミスマッチ検知部213およびアクション決定部214を備えるサーバ200と、カメラ101により取得された画像の画像データ、およびマイク102により収音された発話の音声データをサーバ200に送信する通信部103(通信装置の一例)と、を備える。通信部203は、画像データおよび音声データを受信する。これにより、サーバ200は、別体に設けられたカメラおよびマイクを集中管理できる。また、カメラとマイクの数を増減させることで、感情分析システムの拡張・縮小が容易である。
また、感情分析システム5では、被介護者oh1および介護スタッフsf1は、いずれも1名である。これにより、感情分析システム5は、例えばマンツーマンで介護を行う場合に介護サービスの質を向上できる。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
例えば、上述した実施の形態1では、1名の介護スタッフが1名の被介護者を介護する場合を示したが、複数名の介護スタッフが1人の被介護者を介護する場合にも、本開示は同様に適用可能である。例えば、複数名の介護スタッフが介護する場合、感情分析システム5は、複数名の介護スタッフに対し推定された感情を平均化し、平均化された感情を基にアクションプランを決定してもよい。また、1名もしくは複数名の介護スタッフが複数名の被介護者を介護する場合も同様に、例えば、感情分析システムは、複数名の被介護者に対し推定された感情を平均化し、平均化された感情を基にアクションプランを決定してもよい。
また、上述した実施の形態1では、介護スタッフsf1と被介護者oh1との間における相性の良し悪しが推定されたが、被介護者oh1の家族と介護スタッフsf1との間における相性の良し悪しが推定されてもよい。この場合には、被介護者oh1の代わりに、被介護者oh1の家族の感情データが算出される。
また、上述した実施の形態1では、感情分析システム5は、介護スタッフsf1が被介護者oh1を介護するサービスに適用される場合を示したが、介護に限らず、家庭教師サービスにおいて先生と生徒間の感情を分析する場合、社内において上司と部下の間の感情を分析する場合等、様々な分野において適用可能である。
また、音声データに基づく声感情の推定、心拍変動データに基づく内面感情の推定、および共感度の推定は、機械学習を用いたアルゴリズムで行われてもよい。
また、上述した実施の形態1では、画像データを得るためのカメラ101と、音声データを得るためのマイク102を使用したが、介護スタッフsf1と被介護者oh1が着用するスマートウォッチ、リストバンド等のスマートウェアラブル機器を用いて、音声により発話する声と心臓音(つまり心拍信号)の両方のデータを取得してもよい。スマートウェアラブル機器を用いることで、さらに血圧、血糖値等のバイタルデータを得ることも可能であり、感情の推定に反映できる。
本開示は、介護スタッフおよび被介護者に向けた快適な介護サービスの授受の実現を効率的に支援する感情分析システムおよび感情分析方法として有用である。
100 監視ロボット
101 カメラ
102 マイク
103、203 通信部
111、202 メモリ
115 駆動部
200 サーバ
201 プロセッサ
211 感情推定部
212 共感推定部
213 ミスマッチ検知部
214 アクション決定部

Claims (10)

  1. 介護者および被介護者のうち少なくとも一方の発話に基づく音声を収音するマイクと、
    前記介護者および被介護者を撮像した画像を取得するカメラと、
    前記マイクにより収音された前記発話の音声データと前記カメラにより撮像された前記介護者および被介護者の画像データとのうち少なくとも一方に基づいて、前記介護者および被介護者のそれぞれの相手に対する感情を示す感情データを導出する感情処理部と、
    前記介護者および被介護者のそれぞれの前記感情データに基づいて、前記介護者へのアクションプランを決定し、前記介護者が所持する介護者端末に通知するフィードバック部と、を備える、
    感情分析システム。
  2. 前記感情処理部は、前記感情データとして、前記介護者の前記被介護者に対する感情を示す第1の感情データと、前記被介護者の前記介護者に対する感情を示す第2の感情データとを導出し、前記第1の感情データおよび前記第2の感情データに基づいて、前記介護者と前記被介護者との間の相性の良し悪しを決定し、
    前記フィードバック部は、前記介護者と前記被介護者との間の相性の良し悪しの決定結果に基づいて、前記介護者へのアクションプランを決定する、
    請求項1に記載の感情分析システム。
  3. 前記感情処理部は、一定期間分の前記介護者の発話量と前記被介護者の発話量との比率に基づいて、前記感情データを導出し、
    前記フィードバック部は、前記感情データの導出結果に基づいて、前記介護者へのアクションプランを決定する、
    請求項1に記載の感情分析システム。
  4. 前記感情処理部は、一定期間分の前記介護者の発話速度と前記被介護者の発話速度との比率に基づいて、前記感情データを導出し、
    前記フィードバック部は、前記感情データの導出結果に基づいて、前記介護者へのアクションプランを決定する、
    請求項1に記載の感情分析システム。
  5. 前記感情処理部は、前記感情データとして、前記介護者および被介護者の顔部分が映る画像データに基づいて、前記介護者および被介護者のそれぞれの心拍の変動に対応するストレスの有無を示すストレス有無データを導出し、
    前記フィードバック部は、前記介護者のストレス有無データと前記被介護者のストレス有無データとに基づいて、前記介護者へのアクションプランを決定する、
    請求項1に記載の感情分析システム。
  6. 前記感情処理部は、前記感情データとして、前記発話の音声データに基づいて前記被介護者の感情を示す第3の感情データを導出するとともに、前記被介護者の顔部分が映る画像データに基づいて前記被介護者のそれぞれの感情を示す第4の感情データを導出し、
    前記フィードバック部は、前記第3の感情データと前記第4の感情データとに基づいて、前記介護者へのアクションプランを決定する、
    請求項1に記載の感情分析システム。
  7. 前記マイクと前記カメラと前記感情処理部と前記フィードバック部は、単一の自律走行型の監視ロボットに収容される、
    請求項1〜6のうちいずれか一項に記載の感情分析システム。
  8. 前記感情分析システムは、
    通信部と前記感情処理部と前記フィードバック部とを備えるサーバと、
    前記カメラにより取得された前記画像の画像データ、および前記マイクにより収音された前記発話の音声データを前記サーバに送信する通信装置と、を備え、
    前記サーバは、前記通信装置から送信された前記画像データおよび前記音声データを前記通信部において受信する、
    請求項1に記載の感情分析システム。
  9. 前記介護者および前記被介護者は、いずれも1名である、
    請求項1に記載の感情分析システム。
    の感情分析システム。
  10. 感情分析システムにより実行される感情分析方法であって、
    マイクにより、介護者および被介護者のうち少なくとも一方の発話に基づく音声を収音するステップと、
    カメラにより、前記介護者および被介護者を撮像した画像を取得するステップと、
    前記マイクにより収音された前記発話の音声データと前記カメラにより撮像された前記介護者および被介護者の画像データとのうち少なくとも一方に基づいて、前記介護者および被介護者のそれぞれの相手に対する感情を示す感情データを導出するステップと、
    前記介護者および被介護者のそれぞれの前記感情データに基づいて、前記介護者へのアクションプランを決定し、前記介護者が所持する介護者端末に通知するステップと、を有する、
    感情分析方法。
JP2019239263A 2019-12-27 2019-12-27 感情分析システムおよび感情分析方法 Pending JP2021108021A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019239263A JP2021108021A (ja) 2019-12-27 2019-12-27 感情分析システムおよび感情分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019239263A JP2021108021A (ja) 2019-12-27 2019-12-27 感情分析システムおよび感情分析方法

Publications (2)

Publication Number Publication Date
JP2021108021A true JP2021108021A (ja) 2021-07-29
JP2021108021A5 JP2021108021A5 (ja) 2022-12-23

Family

ID=76968222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019239263A Pending JP2021108021A (ja) 2019-12-27 2019-12-27 感情分析システムおよび感情分析方法

Country Status (1)

Country Link
JP (1) JP2021108021A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022259596A1 (ja) * 2021-06-10 2022-12-15 ソニーグループ株式会社 ロボット運用システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022259596A1 (ja) * 2021-06-10 2022-12-15 ソニーグループ株式会社 ロボット運用システム

Similar Documents

Publication Publication Date Title
US11607170B2 (en) Detection of physical abuse or neglect using data from ear-wearable devices
US11395076B2 (en) Health monitoring with ear-wearable devices and accessory devices
US20220054092A1 (en) Eyewear with health assessment, risk monitoring and recovery assistance
WO2019169142A1 (en) Health monitoring with ear-wearable devices and accessory devices
JP6927989B2 (ja) コールの優先度レベルおよび/または会話継続時間を決定するための通信装置および方法
US20200268265A1 (en) Integration of sensor-based cardiovascular measures into physical benefit measure related to hearing instrument use
JP7422797B2 (ja) 療養支援システム
EP3481086B1 (en) A method for adjusting hearing aid configuration based on pupillary information
US20210321208A1 (en) Passive fitting techniques
US10701210B2 (en) Systems and methods for matching subjects with care consultants in telenursing call centers
US9686509B2 (en) Supporting patient-centeredness in telehealth communications
US20220148597A1 (en) Local artificial intelligence assistant system with ear-wearable device
US11961382B2 (en) Method for operating a hearing system
JP2021108021A (ja) 感情分析システムおよび感情分析方法
US20220036878A1 (en) Speech assessment using data from ear-wearable devices
US11716580B2 (en) Health monitoring with ear-wearable devices and accessory devices
WO2022065446A1 (ja) 感情判定装置、感情判定方法及び感情判定プログラム
US20220054842A1 (en) Assessing responses to sensory events and performing treatment actions based thereon
CN114830692A (zh) 包括计算机程序、听力设备和压力评估设备的系统
JP2021108021A5 (ja)
WO2024080069A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20230105048A1 (en) Robot control method and information providing method
WO2023199422A1 (ja) 内面状態推定装置、内面状態推定方法及び記憶媒体
JP2023155861A (ja) 健康管理・安全見守りロボットシステム
Mehta INTERSPEECH 2017 TUTORIAL PROPOSAL

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240305