JP2019072371A - システム及び意思疎通を図るために行うアクションの評価方法 - Google Patents

システム及び意思疎通を図るために行うアクションの評価方法 Download PDF

Info

Publication number
JP2019072371A
JP2019072371A JP2017202182A JP2017202182A JP2019072371A JP 2019072371 A JP2019072371 A JP 2019072371A JP 2017202182 A JP2017202182 A JP 2017202182A JP 2017202182 A JP2017202182 A JP 2017202182A JP 2019072371 A JP2019072371 A JP 2019072371A
Authority
JP
Japan
Prior art keywords
computer
state
action
evaluation
state feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017202182A
Other languages
English (en)
Other versions
JP6910919B2 (ja
Inventor
朝 康博
Yasuhiro Asa
康博 朝
佐藤 大樹
Daiki Sato
大樹 佐藤
利昇 三好
Toshinori Miyoshi
利昇 三好
崇志 沼田
Takashi Numata
崇志 沼田
ミャオメイ レイ
Miaomei Lei
ミャオメイ レイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017202182A priority Critical patent/JP6910919B2/ja
Priority to US15/912,833 priority patent/US20190114934A1/en
Publication of JP2019072371A publication Critical patent/JP2019072371A/ja
Application granted granted Critical
Publication of JP6910919B2 publication Critical patent/JP6910919B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass

Abstract

【課題】コミュニケーションにおいて、互いの共感度が高まり、心的状態が安定するアクションの学習を実現する。【解決手段】複数の対象物が意思疎通を図るために行うアクションを評価するシステムであって、複数の対象物から、対象物がアクションを行ったときの対象物の内部状態を評価する状態値の算出に用いる信号を取得し、信号を用いて状態値から構成される状態特徴量を算出し、状態特徴量に基づいて、複数の対象物の内部状態の類似性を視覚的に示すための評価空間における複数の対象物の内部状態の位置関係を表示するための表示情報を生成する。【選択図】 図1

Description

ヒトの心的状態の推定結果に基づいて行われるアクションを介したコミュニケーションの訓練を支援する技術に関する。
良好な人間関係を形成するためには、相手に共感する対人コミュニケーション能力(共感的コミュニケーション能力)が必要不可欠である。
ここで、対人コミュニケーションとは、相手の心的状態を推定し、推定結果に基づいてアクションを行うことによって意思、感情、及び思考を伝達することを表す。アクションは、言語、表情、及び仕草等を発する行為を表す。また、共感的コミュニケーションとは、相手と同一又は類似の心的状態の下で行われるコミュニケーションを表す。例えば、相手が悲しんでいる場合には悲しみ、相手が笑っている時は笑う行為が、共感的コミュニケーションである。
日常的な対人コミュニケーションを介して相手の身体的及び精神的な変化を察知することができるため、医療の場面においては病気予防等に活用できる。また、コミュニケーションロボットのようなAIを活用する場面においては、人間との共存を図るためにAIが高い対人コミュニケーション能力を持つことが望ましい。
前述したように、共感的コミュニケーションを行うためには相手の心的状態を推定する必要がある。しかし、相手が初対面のヒト又は感性が異なるヒトの場合、相手の心的状態を推定することが難しい。したがって、様々な相手と共感的コミュニケーションを行うための訓練及び支援を行うことが重要である。
共感的コミュニケーションの訓練及び支援を行うためには、相手の心的状態及びお互いの心的状態の関係を示す情報を提示することが有効である(例えば、特許文献1を参照)。
特許文献1には、「評価装置は、複数の被験者間のコミュニケーションにおける、被験者間の関係を評価する。非言語情報測定部は、複数の被験者それぞれの非言語情報を観測し、複数の被験者それぞれについて、非言語情報を数値化した時系列信号である第1信号を生成する。波形解析部は、複数の被験者それぞれについて得られた第1信号にもとづいて、複数の被験者それぞれの非言語情報のリズムとしての特性に関連する量である第2信号を生成する。関係評価部は、複数の被験者それぞれに対応する複数の第2信号の相対的な関係にもとづき、複数の被験者の間の関係にかかわる心的状態を示す指標である第3信号S3を生成する。」ことが記載されている。
国際公開第2014/091766号
特許文献1に記載の技術では、非言語情報を用いた統計処理等を実行することによって得られるリズム関連量の相対的な関係に基づいて、共感、信頼感等の複数人の心的状態を評価している。しかし、特許文献1には、一人一人の心的状態を評価する詳細な方法について言及していない。
複数人の心的状態を示す数値等の指標を表示しただけでは、自分とコミュニケーション相手との間の心的状態の具体的な関係を把握できない。そのため、ユーザはコミュニケーション相手との共感度を上げるためにどのようなアクションを行えばよいのかを判断できない。したがって、特許文献1のような従来技術をコミュニケーションの訓練に適用することが困難である。
本発明は共感的コミュニケーション能力を獲得するためのアクションの訓練に活用できる情報を提供するシステム及び方法を実現する。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、複数の対象物が意思疎通を図るために行うアクションを評価するシステムであって、前記システムは、演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを有する、少なくとも一つの計算機を備え、前記少なくとも一つの計算機は、前記複数の対象物から、前記対象物が前記アクションを行ったときの前記対象物の内部状態を評価する状態値の算出に用いる信号を取得し、前記信号を用いて、前記状態値から構成される状態特徴量を算出し、前記状態特徴量に基づいて、前記複数の対象物の内部状態の類似性を視覚的に示すための評価空間における前記複数の対象物の内部状態の位置関係を表示するための表示情報を生成することを特徴とする。
本発明の一形態によれば、アクションを行った対象物の内部状態の類似性を視覚的に確認することによって、望ましいコミュニケーションを実現するためのアクションの学習を実現できる。上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
実施例1のコミュニケーション訓練システムの構成例を示す図である。 実施例1の生体信号管理情報のデータ構造の一例を示す図である。 実施例1の状態特徴量管理情報のデータ構造の一例を示す図である。 実施例1のモデルの一例を示す図である。 実施例1の計算機が実行する処理の一例を説明するフローチャートである。 実施例1の表示装置に表示される評価画面の一例を説明する図である。 実施例2の表示装置に表示される評価画面の一例を示す図である。 実施例3の計算機が実行する処理の一例を説明するフローチャートである。 実施例3の表示装置に表示される画面の一例を説明する図である。 実施例4の表示装置に表示される評価画面の一例を示す図である。 実施例5の計算機が実行する処理の一例を説明するフローチャートである。 実施例5の表示装置に表示される画面の一例を説明する図である。
以下、添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではない。
まず、本明細書の用語について説明する。コミュニケーションとは、言語、文字、及び身振りを介して、互いに意思、感情、及び思考を伝達することを表す。本明細書では、意思等を伝達するために言語等を用いてコミュニケーションを行う相手に刺激を与える行為をアクションと記載する。アクションは、例えば、言語、表情、及び仕草等を発する行為である。
図1は、実施例1のコミュニケーション訓練システム10の構成例を示す図である。
コミュニケーション訓練システム10は、コミュニケーションの訓練を行う複数のヒト101−1、101−2の間で行われたアクション103を評価し、コミュニケーションの訓練に必要な情報を表示するシステムである。コミュニケーション訓練システム10は、計算機100及び表示装置102から構成される。以下の説明では、ヒト101−1、101−2を区別しない場合、ヒト101とも記載する。
共感的コミュニケーションにおけるアクション103の評価は、アクション103を行ったヒト101の心的状態の類似性に基づいて行われる。なぜならば、共感的コミュニケーションは、自分及び相手の心的状態が同一又は類似した状況下で行われるコミュニケーションだからである。訓練を行うヒト101は、類似する心的状態の下で行われたアクション103を学習することによって共感的コミュニケーション能力を獲得することができる。
計算機100及び表示装置102は、直接又はネットワークを介して互いに接続される。ネットワークはLAN(Local Area Network)及びWAN(Wide Area Network)等である。
本実施例では、二人のヒト101のコミュニケーションの訓練を目的としているが、ヒト101及びAIのコミュニケーションの訓練が目的でもよい。この場合、ヒト101−1、101−2のいずれかがAIに置き換わる。また、三人以上のヒト101のコミュニケーションの訓練を目的としてもよい。
計算機100は、コミュニケーション中にヒト101から生体信号を取得し、生体信号を用いて状態特徴量を算出する。ここで、状態特徴量は、アクション103を行ったヒト101の心的状態を評価する状態値から構成される。また、計算機100は、状態特徴量を含むアクション103の訓練に必要な情報を表示するための表示情報を生成する。
なお、心的状態は、アクション103を行った動機及びアクション103の選択理由等、ヒト101がアクション103を制御するための一種の内部状態(パラメータ)を示すものである。
計算機100は、演算装置110、主記憶装置111、副記憶装置112、入力インタフェース113、及び出力インタフェース114を有する。
演算装置110は、プロセッサ、GPU(Graphics Processing Unit)、及びFPGA(Field Programmable Gate Array)等の装置であり、主記憶装置111に格納されるプログラムを実行する。演算装置110がプログラムにしたがって処理を実行することによって、特定の機能を実現する機能部(モジュール)として動作する。以下の説明では、機能部を主語に処理を説明する場合、演算装置110が当該機能部を実現するプログラムを実行していることを示す。
主記憶装置111は、ROM(Random Access Memory)等の不揮発性の記憶素子又はRAM(Random Access Memory)RAM等の揮発性の記憶素子から構成されるメモリ等であり、演算装置110が実行するプログラム及びプログラムが使用する情報を格納する。本実施例では、主記憶装置111にプログラムが格納され、また、後述する副記憶装置112にプログラムが使用する情報が格納される。主記憶装置111に格納されるプログラムについては後述する。
副記憶装置112は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の大容量かつ不揮発性の記憶装置である。副記憶装置112に格納される情報については後述する。
なお、主記憶装置111に格納されるプログラム及び情報は、副記憶装置112に格納されてもよい。この場合、演算装置110は、副記憶装置112からプログラム及び情報を読み出し、主記憶装置111にロードする。また、演算装置110は、主記憶装置111にロードされたプログラムを実行する。
入力インタフェース113は、ヒト101から生体信号を取得するデバイスである。入力インタフェース113は、例えば、マイク、カメラ、デプスセンサ(距離センサ)、視線入力センサ、脈波センサ、体温センサ、心電センサ、及びNIRS(Near Infrared Spectroscopy)脳計測装置等を含む。
出力インタフェース114は、各種情報を出力するデバイスであり、例えば、所定のプロトコルにしたがって画面情報を送信するインタフェースである。なお、出力インタフェース114は、ネットワークインタフェースでもよい。
ここで、主記憶装置111に格納されるプログラム、及び、副記憶装置112に格納される情報について説明する。
副記憶装置112は、生体信号管理情報131、状態特徴量管理情報132、及びモデル管理情報133を格納する。
生体信号管理情報131は、ヒト101から取得された生体信号を管理するための情報である。生体信号管理情報131の詳細は図2を用いて説明する。
状態特徴量管理情報132は、生体信号を用いて算出された状態特徴量を管理するための情報である。状態特徴量管理情報132の詳細は図3を用いて説明する。
モデル管理情報133は、アクション103を行ったヒト101の心的状態の類似性を視覚的に表示するために用いられるモデルを管理するための情報である。モデル管理情報133には、例えば、ラッセルの感情円環モデルに関する情報が格納される。なお、モデル管理情報133には、複数のモデルに関する情報が格納されてもよい。この場合、ヒト101が使用するモデルを指定する。
主記憶装置111は、データ格納部121、心的状態推定部122、及び表示情報生成部123を実現するプログラムを格納する。
データ格納部121は、入力インタフェース113を介して取得されたヒト101の生体信号を副記憶装置112に格納する。具体的には、データ格納部121は、ヒト101の生体信号を生体信号管理情報131に格納する。
心的状態推定部122は、ヒト101の心的状態を推定する。具体的には、心的状態推定部122は、生体信号管理情報131に格納される生体信号を用いて、心的状態を特徴づける状態特徴量を算出し、状態特徴量管理情報132に算出された状態特徴量を格納する。また、心的状態推定部122は、状態特徴量に基づいてヒト101の心的状態の類似性を示す共感度を算出する。
表示情報生成部123は、ヒト101の心的状態の類似性を視覚的に表示するための評価空間における心的状態の位置関係等、コミュニケーションの訓練に必要な情報を表示するための表示情報を生成する。ここで、モデル管理情報133に基づいて管理される評価空間は、状態特徴量を構成する状態値に対応する座標軸が定義された座標空間である。
なお、図1では物理的な計算機として計算機100を表しているが、仮想的な計算機でもよい。また、計算機が有する各機能部(モジュール)については、複数の機能部を一つの機能部にまとめてもよいし、一つの機能部を機能毎に複数の機能部に分けてもよい。
図2は、実施例1の生体信号管理情報131のデータ構造の一例を示す図である。
生体信号管理情報131は、ヒト101毎に生体信号の時系列データを格納する管理表200を含む。図2に示す生体信号管理情報131は、ヒト101−1の生体信号を格納する管理表200−1及びヒト101−2の生体信号を格納する管理表200−2を含む。なお、管理表200にはヒト101の識別情報が付与される。
管理表200は、日時201、心拍数202、声量203、脳波204、顔特徴量205、及び皮膚抵抗206から構成されるエントリを含む。一つのタイムスタンプに対して一つのエントリが存在する。管理表200には日時順にエントリが格納される。
日時201は、生体信号が計測された日時(タイムスタンプ)を格納するフィールドである。心拍数202、声量203、脳波204、顔特徴量205、及び皮膚抵抗206は、生体信号の値を格納するフィールドである。
本実施例では、心拍数、声量、脳波、表情、皮膚抵抗が生体信号として取得されるものとする。なお、前述の生体信号は一例であってこれに限定されない。
ここで、本実施例の生体信号管理情報131の更新方法について説明する。
計算機100のデータ格納部121は、入力インタフェース113を介してヒト101から生体信号を周期的に取得する。生体信号にはタイムスタンプが含まれるものとする。また、生体信号にはヒト101の識別情報が付与されているものとする。
なお、本発明は、生体信号を取得するタイミングに限定されない。例えば、イベントが発生した場合に生体信号が取得されてもよい。また、各ヒト101から生体信号を取得するタイミングは同一でもよいし、また、異なっていてもよい。本実施例では、各ヒト101から生体信号を取得するタイミングは同一であるものとする。
データ格納部121は、ヒト101の識別情報に対応する管理表200を検索する。ヒト101の識別情報に対応する管理表200が存在しない場合には、データ格納部121は、新たに管理表200を生成する。
データ格納部121は、管理表200にエントリを追加し、追加されたエントリの日時201にタイムスタンプを設定する。また、データ格納部121は、追加されたエントリの心拍数202、声量203、脳波204、顔特徴量205、及び皮膚抵抗206に生体信号の値を設定する。
生体信号管理情報131は、生体信号の値そのものを格納するだけではなく、画像等の生体信号から抽出された顔特徴量の相対座標値等を格納してもよい。
図3は、実施例1の状態特徴量管理情報132のデータ構造の一例を示す図である。図4は、実施例1のモデルの一例を示す図である。
状態特徴量管理情報132は、ヒト101毎に状態特徴量の時系列データを格納する管理表300を含む。図3に示す状態特徴量管理情報132は、ヒト101−1の状態特徴量の時系列データを格納する管理表300−1を含む。なお、管理表300にはヒト101の識別情報が付与される。
管理表300は、日時301、快−不快302、覚醒−眠気303、喜304、怒305、哀306、楽307、及びリラックス度308から構成されるエントリを含む。一つのタイムスタンプに対して一つのエントリが存在する。
日時301は、日時201と同一のフィールドである。快−不快302、覚醒−眠気303、喜304、怒305、哀306、楽307、及びリラックス度308は、状態特徴量を構成する要素である状態値を格納するフィールドである。状態値は評価空間(モデル)毎に異なる。本実施例では各評価空間に対応する状態値が算出される。なお、図3に示す状態特徴量は一例であってこれに限定されない。
本実施例では、状態値と生体信号との間の関係が数式等を用いて定義される。当該定義の情報は、例えば、モデル管理情報133に格納される。なお、全て又は一部の状態値が生体信号そのものの値として定義されてもよい。
感情及び情動等のような客観的な評価が困難な心的状態を推定する方法が様々考案されている。図4では、心的状態を客観的に示すモデルの一つであるラッセルの感情円環モデルを示す。感情円環モデルでは、全ての心的状態(感情)は、「快−不快」及び「覚醒−眠気」の二軸からなる二次元平面上に円環状に並んでいるものと定義される。
ラッセルの感情円環モデルを用いた場合、脈波は「快−不快」の軸と対応づけることができると考えられ、脈波が小さい場合、不快であることを示し、脈波が大きい場合、快適であることを示すとされる。また、脳波は「覚醒−眠気」の軸に対応づけることができると考えられ、脳波が大きいほど覚醒していることを示すとされている。
図5は、実施例1の計算機100が実行する処理の一例を説明するフローチャートである。図6は、実施例1の表示装置102に表示される評価画面600の一例を説明する図である。
計算機100は、コミュニケーションが開始された場合、以下の処理を開始する。ここでは、計算機100には使用するモデルが入力されているものとする。なお、入力するモデルは、ランダムに選択されていてもよいし、アクション103を評価するヒト101が選択してもよい。
心的状態推定部122は、コミュニケーションが終了したか否かを判定する(ステップS501)。
例えば、心的状態推定部122は、終了を知らせる通知を受け付けた場合、コミュニケーションが終了したと判定する。また、心的状態推定部122は、生体信号管理情報131を監視し、一定期間、当該情報が更新されていない場合、コミュニケーションが終了したと判定する。
コミュニケーションが終了したと判定された場合、心的状態推定部122は、処理を終了する。
コミュニケーションが終了していないと判定された場合、心的状態推定部122は、表示情報の生成処理の実行契機を検出したか否かを判定する(ステップS502)。
例えば、心的状態推定部122は、表示要求を受け付けた場合、表示情報の生成処理の実行契機を検出したと判定する。また、心的状態推定部122は、予め設定された実行周期を経過した場合、表示情報の生成処理の実行契機を検出したと判定してもよい。
表示情報の生成処理の実行契機を検出していないと判定された場合、心的状態推定部122は、待ち状態に移行し、一定期間経過した後にステップS501に戻る。
表示情報の生成処理の実行契機を検出したと判定された場合、心的状態推定部122は、生体信号管理情報131から生体信号の時系列データを読み出し、読み出された生体信号の時系列データを用いて状態特徴量を算出する(ステップS503)。具体的には、以下のような処理が実行される。
(1)心的状態推定部122は、生体信号管理情報131に含まれる管理表200の中からターゲット管理表200を選択する。心的状態推定部122は、状態特徴量管理情報132にターゲット管理表200に対応する管理表300を生成する。
(2)心的状態推定部122は、ターゲット管理表200に含まれるエントリの中からターゲットエントリを選択する。本実施例では、日時が最新であるエントリがターゲットエントリとして選択される。心的状態推定部122は、管理表300にターゲットエントリに対応するエントリを追加する。心的状態推定部122は、追加された行の日時301にターゲットエントリの日時201に格納されるタイムスタンプを設定する。
(3)心的状態推定部122は、状態値を算出するための数式にターゲットエントリに設定された生体信号の値を代入することによって状態値を算出する。心的状態推定部122は、追加されたエントリに算出された状態値を設定する。基本的には、指定されたモデルに関連する状態値のみが算出される。なお、全てのモデルに関連する状態値が算出されてもよい。本実施例では、全てのモデルに関連する状態値が算出されるものとする。
心的状態推定部122は、管理表200に含まれる全てのエントリに(2)から(3)までの処理を実行する。また、心的状態推定部122は、全ての管理表200に対して(1)から(3)までの処理を実行する。
前述した処理では、タイムスタンプが最新の生体信号の値、すなわち、最新の時系列データを用いて状態値を算出しているが別の算出方法でもよい。
(算出方法のバリエーション1)例えば、心的状態推定部122は、式(1)に示すように、過去の状態値(複数の時系列データ)を加味した状態値を算出してもよい。例えば、現在時刻から30秒前までの時系列データを用いて状態値が算出される。
Figure 2019072371
ここで、数式について説明する。
mはヒト101を識別する添え字である。iは状態特徴量を構成する要素の種別、すなわち、状態値の種別を表す添え字である。本実施例では、iが「1」の場合「快−不快」を表し、iが「2」の場合「覚醒−眠気」を表し、iが「3」の場合「喜」を表し、iが「4」の場合「怒」を表し、iが「5」の場合「哀」を表し、iが「6」の場合「楽」を表し、iが「7」の場合「リラックス度」を表す。
nは管理表200におけるターゲットエントリの順番を表す添字である。jは加味する過去の状態値の数、すなわち、エントリの数を表す添字である。v (n)は、ヒト101−mに対応する管理表200のn番目のエントリに設定された要素iの状態値を表す。より具体的には、v (n)はヒト101−1のn番目のエントリに設定された要素iの状態値を表す。v (n)はヒト101−2のn番目のエントリに設定された要素iの状態値を表す。図2に示す例では、v (2)は、「85」である。
(n)は補正後の要素iの状態値を表す。wは重みを表し、0から1の間の値である。V (n−j)は、ターゲットエントリのj個前のエントリに設定された要素iの状態値を表す。本実施例では、J個前までの状態特徴量を加味してターゲットエントリの要素iの状態値が算出される。以上が数式の説明である。
なお、リアルタイムな処理ではなく、過去の生体信号の履歴を用いた分析処理等が実行される場合、心的状態推定部122は、対象の時刻に、当該時刻より先の時刻の心的状態(未来の心的状態)を加味して補正された状態値を算出してもよい。
(算出方法のバリエーション2)心的状態推定部122は、式(2)に示すように、コミュニケーション相手の状態値(複数の時系列データ)を加味した状態値を算出してもよい。
Figure 2019072371
w’は重みを表し、0から1の間である。V’ (n−k)は、ターゲットエントリに対応する、コミュニケーション相手に対応する管理表300のn番目のエントリのk個前の要素iの状態値を表す。
現在から時刻が遠い状態値の影響を小さくする場合、wはjが大きいほど小さい値を設定し、また、w’は、kが大きいほど小さい値を設定すればよい。
式(1)又は式(2)に基づいて算出された状態値は管理表300とは別の表に格納されてもよい。
なお、本実施例では、表示情報の生成処理の実行契機が検出された場合に、状態特徴量の算出を行っているがこれに限定されない。生体信号を取得した場合に、状態対特徴量が算出されてもよい。これによって、表示情報の生成処理の処理速度を向上させることができる。以上がステップS503の処理の説明である。
次に、心的状態推定部122は、状態特徴量及びモデル管理情報133に基づいて共感度を算出する(ステップS504)。
心的状態推定部122は、例えば、式(3)を用いて共感度を算出する。なお、L(n)は式(4)で定義される。
Figure 2019072371
Figure 2019072371
Iは評価空間に定義された座標軸の種別である。例えば、ラッセルの感情円環モデルに対応する評価空間の場合、Iが「1」は「快−不快」を表し、I=「2」は「覚醒−眠気」を表す。Lmaxは距離の最大値を表す。Lmaxは予め設定されている。E(n)は管理表200のn行目に対応する日時における共感度を表す。L(n)は管理表200のn行目に対応する日時における、評価空間のヒト101の心的状態のユークリッド距離を表す。式(3)に示すように、評価空間における心的状態の距離が短いほど、すなわち、心的状態が類似するほど共感度は大きくなる。
なお、心的状態推定部122は、距離又は共感度の大きさに基づいて、アクション103の妥当性を評価してもよい。例えば、心的状態推定部122は、距離が第1閾値より小さい場合「Perfect」、第1閾値以上かつ第2閾値より小さい場合「excellent」、第2閾値以上かつ第3閾値より小さい場合「good」、第3閾値かつ第4閾値より小さい場合「fair」、第4閾値以上の場合「poor」と判定する。
次に、表示情報生成部123は、表示情報を生成し、表示装置102に生成された表示情報を出力する(ステップS505)。その後、計算機100は、ステップS501に戻り、同様の処理を実行する。ステップS505では、以下のような処理が実行される。
表示情報生成部123は、モデル管理情報133から評価空間の定義情報を取得し、評価空間上に心的状態(状態特徴量)をプロットしたグラフを表示するための第1表示データを生成する。第1表示データは、評価空間におけるヒト101の心的状態の位置関係を表示するための情報である。また、表示情報生成部123は、評価空間における心的状態の距離及び共感度を表示するための第2表示データを生成する。
表示情報生成部123は、第1表示データ及び第2表示データを含む表示情報を表示装置102に出力する。
なお、表示情報生成部123は、アクション103の妥当性の評価結果を表示する第3表示データを表示情報に含めてもよい。以上がステップS505の処理の説明である。
ここで、図6を用いて表示情報に基づいて表示装置102に表示される評価画面600の一例を説明する。評価画面600は、グラフ表示欄601、距離表示欄602、妥当性表示欄603、及び共感度表示欄604を含む。
グラフ表示欄601は評価空間におけるヒト101の心的状態の位置関係を示すグラフを表示する領域である。図6のグラフ表示欄601には、ラッセルの感情円環モデルに対応する評価空間に、ヒト101−1及びヒト101−2の心的状態を示す点611、612がプロットされたグラフが表示される。
距離表示欄602は、評価空間における心的状態の距離を表示する領域である。妥当性表示欄603は、アクション103の妥当性の評価結果を表示する領域である。共感度表示欄604は共感度を表示する領域である。
共感度表示欄604には、算出された共感度及び共感度の大きさを視覚的に示す図形が表示される。本実施例では、円形の図形が共感度表示欄604に表示される。共感度の大きさ及び円の大きさは比例する。
なお、図6に示す評価画面600の画面構成及び表示方法は一例であってこれに限定されない。
実施例1では、ヒト101間のコミュニケーションを対象にしたシステムであるが、ヒト101の一方又は両方が、AI(Artificial Intelligence)でもよい。
AIの場合、計算機100は、アクションを制御するアルゴリズムにおいて定義されたパラメータの値を生体信号の代わりに取得すればよい。また、計算機100は、パラメータの値を用いて、AIの内部状態、すなわち、AIの心的状態を算出する。
以上に示したように、実施例1によれば、ヒト101は、表示装置102に表示された評価画面600を参照することによって、コミュニケーションにおける自分(ヒト又はAI)と相手(ヒト又はAI)との間の心的状態の類似性を評価空間の位置関係(距離)として把握できる。したがって、ヒト101は、評価空間の心的状態の距離が短くなるようなアクション103を集中的に学習できる。これによって、共感的コミュニケーション能力を効率的に獲得できる。
実施例2では、提示する評価空間が実施例1の評価空間と異なる。
実施例1では、指定されたモデルに対応する評価空間が用いられていた。しかし、扱う生体信号の種類が二つ以上の場合、評価空間の各座標軸と生体信号との間の関係を定義するのが難しい場合がある。また、モデルに依存した評価空間を用いた場合、一つの評価空間では共感度が高くなるが、一方の評価空間では共感度が低い場合がある。したがって、扱う評価空間によってアクション103の妥当性の判定結果が異なる可能性がある。
そこで、実施例2では、計算機100は、特定の意味をなさない座標軸で定義された評価空間(距離空間)を用いて表示情報を生成する。ここで、距離空間は集合に含まれる任意の元に対して距離(距離関数)が定義された集合を示す。以下、実施例1との差異を中心に実施例2について説明する。
実施例2のシステム構成は実施例1のシステム構成と同一である。また、実施例2の計算機100のハードウェア構成及びソフトウェア構成は実施例1と同一である。
実施例2の計算機100が実行する処理は、実施例1の計算機が実行する処理と一部異なる。
ステップS503では、心的状態推定部122は、モデル管理情報133に登録されている全てのモデルに関する状態値を算出する。例えば、心的状態推定部122は、図2に示すような5種類の生体信号から図3に示すような7種類の状態値を算出する。
ステップS504では、心的状態推定部122は、全ての状態値を要素とするベクトルとして入力する関数を用いて心的状態の距離を算出する。数式としては式(4)に示す数式が考えられる。ただし、式(4)のIは全ての評価空間の座標軸が対象となる。さらに、心的状態推定部122は、古典的多次元尺度法及び非計量的多次元尺度法等の公知の方法を用いて、算出された距離から二次元又は三次元の空間座標系を算出する。
古典的多次元尺度法について簡単に説明する。式(5)に示す距離行列D(2)を、式(6)に示す座標行列Xを用いて式(7)に示すように表現する。ここで、距離行列D(2)にヤングハウスホルダー変換を施し、固有値分解をすると式(8)のようになる。ここで、式(9)はN個の点の重心を原点とするr次元空間の座標値とみなせる。固有値λの大きい順に二個を選択し、対応する固有ベクトルPの要素値が二次元空間の座標値となる。また、固有値λの大きい順に3個を選択し、対応する固有ベクトルPの要素値が三次元空間の座標値となる。
Figure 2019072371
Figure 2019072371
Figure 2019072371
Figure 2019072371
Figure 2019072371
実施例2のステップS501、ステップS502、及びステップS505の処理は、実施例1と同一の処理である。
図7は、実施例2の表示装置102に表示される評価画面600の一例を示す図である。
評価画面600のグラフ表示欄601には、三次元のユークリッド距離が定義された距離空間に心的状態を示す点701、702が距離関係を維持するようにプロットされる。エッジ711は、心的状態の距離を示す。
実施例2によれば、実施例1と同様の効果を奏する。また、実施例2では、モデルに依存しない評価空間上に心的状態の位置関係を表示することができるため、モデルの相違によるアクション103の妥当性の判定結果のブレを小さくできる。
実施例3では、共感度とは別に安定度を表示する点が実施例1と異なる。以下、実施例1との差異を中心に実施例3について説明する。
実施例3のシステム構成は実施例1のシステム構成と同一である。また、実施例3の計算機100のハードウェア構成及びソフトウェア構成は、実施例1と同一である。
実施例3では、計算機100が実行する処理が一部異なる。図8は、実施例3の計算機100が実行する処理の一例を説明するフローチャートである。図9は、実施例3の表示装置102に表示される画面の一例を説明する図である。
ステップS501からステップS504までの処理は実施例1と同一である。
ステップS504の処理が実行された後、心的状態推定部122は、安定度を算出する(ステップS511)。具体的には、以下のような処理が実行される。
(1)心的状態推定部122は、状態特徴量管理情報132に含まれる管理表300の中からターゲット管理表300を選択する。
(2)心的状態推定部122は、ターゲット管理表300に含まれるエントリの中からターゲットエントリを選択する。本実施例では、日時が新しい順に任意の数のターゲットエントリが選択される。
(3)心的状態推定部122は、任意の数式に基づいて安定度S(n)を算出する。例えば、式(10)又は式(11)を用いて安定度が算出される。なお、v m_ave(n)は式(12)で定義される。
Figure 2019072371
Figure 2019072371
Figure 2019072371
次に、表示情報生成部123は、表示情報を生成し、表示装置102に生成された表示情報を出力する(ステップS505)。ステップS505では、安定度を表示するための第4表示データが生成される点が異なる。
図9に示すように、実施例3の評価画面600には新たに安定度表示欄605が含まれる。安定度表示欄605は、ステップS511において算出された安定度を表示する領域である。
安定度は心的状態の変化量を表す指標である。したがって、安定度が小さい場合、アクション103が安定していることを示す。したがって、実施例3によれば、ヒト101は、安定度を参照することによって、コミュニケーションが安定しているか否かを判定できるため、安定したコミュニケーションを実現するアクション103を学習できる。
実施例4では、評価画面600に心的状態の時間変化を表示する点が実施例1と異なる。以下、実施例1との差異を中心に実施例4について説明する。
実施例4のシステム構成は実施例1のシステム構成と同一である。また、実施例4の計算機100のハードウェア構成及びソフトウェア構成は、実施例1と同一である。
実施例4では、予め、計算機100に学習対象のヒト101を指定する。ここでは、ヒト101−1を学習対象のヒト101とする。
実施例4では、計算機100が実行する処理が一部異なる。ステップS501からステップS504までの処理は実施例1と同一である。
ステップS505では、心的状態推定部122は、状態特徴量管理情報132から、ヒト101−2の過去の心的状態を示す状態特徴量の時系列データを取得する。心的状態推定部122は、取得した時系列データを用いて評価空間における心的状態の変化を表示するための第5表示データを生成する。
図10は、実施例4の表示装置102に表示される評価画面600の一例を示す図である。
評価画面600のグラフ表示欄601に表示される評価空間には、ヒト101−1の現在の心的状態を示す点1011、ヒト101−2の現在の心的状態を示す点1012がプロットされる。また、評価空間には、ヒト101−2の過去の心的状態を示す点1013、1014、1015がプロットされる。なお、心的状態の変化が分かるように、心的状態の時間変化を示す経路、当該経路に囲まれる面積等を強調表示してもよい。
アクション103の妥当性を評価する場合、点1012と、各点1013、1014、1015との間の距離の平均値を用いればよい。
本実施例では、ヒト101−2の心的状態の時間変化をヒト101−1に提示しているが、ヒト101−1の心的状態の時間変化をヒト101−2に提示してもよい。
実施例4によれば、ヒト101−1は、図10に示す評価画面600を参照することによって心的状態の変遷を考慮したアクション103の学習が可能となる。例えば、ヒト101−2の脈波が時間とともに大きくなっている場合、ヒト101−2の現在の心的状態より生き生きとかつ興奮気味の心的状態に対応するアクション103を行うことによって共感度を高めることができる。また、ヒト101−2の心的状態の時間変化が大きい場合、安定したコミュニケーションが成り立っていないことを把握できる。
実施例5では、計算機100がヒト101の将来の心的状態を予測し、ヒト101に表示する点が実施例1と異なる。以下、実施例1との差異を中心に実施例5について説明する。
実施例5のシステム構成は実施例1のシステム構成と同一である。また、実施例5の計算機100のハードウェア構成及びソフトウェア構成は、実施例1と同一である。
実施例5では、予め、計算機100に学習対象のヒト101を指定する。ここでは、ヒト101−1を学習対象のヒト101とする。
実施例5では、計算機100が実行する処理が一部異なる。図11は、実施例5の計算機100が実行する処理の一例を説明するフローチャートである。図12は、実施例5の表示装置102に表示される画面の一例を説明する図である。
ステップS501からステップS504までの処理は実施例1と同一である。
ステップS504の処理が実行された後、心的状態推定部122は、ヒト101−2の心的状態を予測する(ステップS521)。
例えば、心的状態推定部122は、式(13)に示すような線形予測法を用いてヒト101−2の心的状態を予測する。
Figure 2019072371
ここで、V 2(n+1)は次の取得周期の経過時のヒト101−2の心的状態の予測値である。αは予想係数であり、式(14)を満たす。
Figure 2019072371
次に、表示情報生成部123は、表示情報を生成し、表示装置102に生成された表示情報を出力する(ステップS505)。ステップS505では、ヒト101−2の心的状態の予測結果を表示するための第6表示データが生成される。
図12に示すように、評価画面600のグラフ表示欄601に表示される評価空間には、ヒト101−1の現在の心的状態を示す点1211、ヒト101−2の現在の心的状態を示す点1212がプロットされる。また、評価空間には、ヒト101−2の過去の心的状態を示す点1213、1214がプロットされる。本実施例では、点1214、点1213、及び点1212の順にヒト101−2の心的状態が変化したものとする。
また、グラフ表示欄601には、ヒト101−2の将来の心的状態の予測結果である予測領域1221が表示される。
実施例5によれば、ヒト101は、予測結果を参照することによって妥当なアクション103を事前に選択できる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
10 コミュニケーション訓練システム
100 計算機
101 ヒト
102 表示装置
103 アクション
110 演算装置
111 主記憶装置
112 副記憶装置
113 入力インタフェース
114 出力インタフェース
121 データ格納部
122 心的状態推定部
123 表示情報生成部
131 生体信号管理情報
132 状態特徴量管理情報
133 モデル管理情報
600 評価画面
601 グラフ表示欄
602 距離表示欄
603 評価表示欄
604 共感度表示欄
605 安定度表示欄

Claims (14)

  1. 複数の対象物が意思疎通を図るために行うアクションを評価するシステムであって、
    前記システムは、演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを有する、少なくとも一つの計算機を備え、
    前記少なくとも一つの計算機は、
    前記複数の対象物から、前記対象物が前記アクションを行ったときの前記対象物の内部状態を評価する状態値の算出に用いる信号を取得し、
    前記信号を用いて、前記状態値から構成される状態特徴量を算出し、
    前記状態特徴量に基づいて、前記複数の対象物の内部状態の類似性を視覚的に示すための評価空間における前記複数の対象物の内部状態の位置関係を表示するための表示情報を生成することを特徴とするシステム。
  2. 請求項1に記載のシステムであって、
    前記少なくとも一つの計算機は、
    前記状態値に対応する座標軸が定義された評価空間の情報であるモデルを管理するためのモデル管理情報を保持し、
    前記モデル管理情報に基づいて、第1評価空間の座標軸に対応する前記状態値から構成される前記状態特徴量を算出し、
    前記第1評価空間における前記複数の対象物の内部状態の距離を算出し、
    前記距離を含む前記表示情報を生成することを特徴とするシステム。
  3. 請求項1に記載のシステムであって、
    前記少なくとも一つの計算機は、
    前記状態値に対応する座標軸が定義された評価空間の情報であるモデルを管理するためのモデル管理情報を保持し、
    前記モデル管理情報に基づいて、前記モデル管理情報を用いて管理される前記評価空間の各々の座標軸に対応する前記状態値から構成される前記状態特徴量を算出し、
    前記状態特徴量をベクトルとして入力する関数を用いて前記複数の対象物の内部状態の距離を算出し、
    前記評価空間として、前記距離を用いて距離空間を算出し、
    前記距離を含む前記表示情報を生成することを特徴とするシステム。
  4. 請求項2又は請求項3に記載のシステムであって、
    前記少なくとも一つの計算機は、
    前記距離に基づいて、前記対象物の内部状態の類似性を示す共感度を算出し、
    前記共感度を含む前記表示情報を生成することを特徴とするシステム。
  5. 請求項2又は請求項3に記載のシステムであって、
    前記少なくとも一つの計算機は、
    前記状態特徴量の算出履歴を保持し、
    前記状態特徴量の算出履歴に基づいて、前記対象物の前記状態特徴量の変化量を安定度として算出し、
    前記安定度を含む前記表示情報を生成することを特徴とするシステム。
  6. 請求項2又は請求項3に記載のシステムであって、
    前記少なくとも一つの計算機は、
    前記距離に基づいて、前記アクションが妥当であるか否かを判定し、
    前記判定の結果を含む前記表示情報を生成することを特徴とするシステム。
  7. 請求項2又は請求項3に記載のシステムであって、
    前記少なくとも一つの計算機は、
    前記状態特徴量の算出履歴を保持し、
    前記状態特徴量の算出履歴に基づいて、次回のアクションが行われた場合の前記対象物の状態特徴量を予測し、
    前記予測の結果を含む前記表示情報を生成することを特徴とするシステム。
  8. 少なくとも一つの計算機を有するシステムが実行する複数の対象物が意思疎通を図るために行うアクションの評価方法であって、
    前記少なくとも一つの計算機は、演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを有し、
    前記アクションの評価方法は、
    前記少なくとも一つの計算機が、前記複数の対象物から、前記対象物が前記アクションを行ったときの前記対象物の内部状態を評価する状態値の算出に用いる信号を取得する第1のステップと、
    前記少なくとも一つの計算機が、前記信号を用いて、前記状態値から構成される状態特徴量を算出する第2のステップと、
    前記少なくとも一つの計算機が、前記状態特徴量に基づいて、前記複数の対象物の内部状態の類似性を視覚的に示すための評価空間における前記複数の対象物の内部状態の位置関係を表示するための表示情報を生成する第3のステップと、を含むことを特徴とするアクションの評価方法。
  9. 請求項8に記載のアクションの評価方法であって、
    前記少なくとも一つの計算機は、前記状態値に対応する座標軸が定義された評価空間の情報であるモデルを管理するためのモデル管理情報を保持し、
    前記第2のステップは、
    前記少なくとも一つの計算機が、前記モデル管理情報に基づいて、第1評価空間の座標軸に対応する前記状態値から構成される前記状態特徴量を算出するステップと、
    前記少なくとも一つの計算機が、前記第1評価空間における前記複数の対象物の内部状態の距離を算出するステップと、を含み、
    前記第3のステップは、前記少なくとも一つの計算機が、前記距離を含む前記表示情報を生成するステップを含むことを特徴とするアクションの評価方法。
  10. 請求項8に記載のアクションの評価方法であって、
    前記少なくとも一つの計算機は、前記状態値に対応する座標軸が定義された評価空間の情報であるモデルを管理するためのモデル管理情報を保持し、
    前記第2のステップは、
    前記少なくとも一つの計算機が、前記モデル管理情報に基づいて、前記モデル管理情報を用いて管理される前記評価空間の各々の座標軸に対応する前記状態値から構成される前記状態特徴量を算出するステップと、
    前記少なくとも一つの計算機が、前記状態特徴量をベクトルとして入力する関数を用いて前記複数の対象物の内部状態の距離を算出するステップと、
    前記少なくとも一つの計算機が、前記評価空間として、前記距離を用いて距離空間を算出するステップと、を含み、
    前記第3のステップは、前記少なくとも一つの計算機が、前記距離を含む前記表示情報を生成するステップを含むことを特徴とするアクションの評価方法。
  11. 請求項9又は請求項10に記載のアクションの評価方法であって、
    前記少なくとも一つの計算機が、前記距離に基づいて、前記対象物の内部状態の類似性を示す共感度を算出するステップを含み、
    前記第3のステップは、前記少なくとも一つの計算機が、前記共感度を含む前記表示情報を生成するステップを含むことを特徴とするアクションの評価方法。
  12. 請求項9又は請求項10に記載のアクションの評価方法であって、
    前記少なくとも一つの計算機は、前記状態特徴量の算出履歴を保持し、
    前記アクションの評価方法は、
    前記少なくとも一つの計算機が、前記状態特徴量の算出履歴に基づいて、前記対象物の前記状態特徴量の変化量を安定度として算出するステップを含み、
    前記第3のステップは、前記少なくとも一つの計算機が、前記安定度を含む前記表示情報を生成するステップを含むことを特徴とするアクションの評価方法。
  13. 請求項9又は請求項10に記載のアクションの評価方法であって、
    前記少なくとも一つの計算機が、前記距離に基づいて、前記アクションが妥当であるか否かを判定するステップを含み、
    前記第3のステップは、前記少なくとも一つの計算機が、前記判定の結果を含む前記表示情報を生成するステップを含むことを特徴とするアクションの評価方法。
  14. 請求項9又は請求項10に記載のアクションの評価方法であって、
    前記少なくとも一つの計算機は、前記状態特徴量の算出履歴を保持し、
    前記アクションの評価方法は、
    前記少なくとも一つの計算機が、前記状態特徴量の算出履歴に基づいて、次回のアクションが行われ場合の前記対象物の状態特徴量を予測するステップを含み、
    前記第3のステップは、前記少なくとも一つの計算機が、前記予測の結果を含む前記表示情報を生成するステップを含むことを特徴とするアクションの評価方法。
JP2017202182A 2017-10-18 2017-10-18 システム及び意思疎通を図るために行うアクションの評価方法 Active JP6910919B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017202182A JP6910919B2 (ja) 2017-10-18 2017-10-18 システム及び意思疎通を図るために行うアクションの評価方法
US15/912,833 US20190114934A1 (en) 2017-10-18 2018-03-06 System and method for evaluating actions performed to achieve communications

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017202182A JP6910919B2 (ja) 2017-10-18 2017-10-18 システム及び意思疎通を図るために行うアクションの評価方法

Publications (2)

Publication Number Publication Date
JP2019072371A true JP2019072371A (ja) 2019-05-16
JP6910919B2 JP6910919B2 (ja) 2021-07-28

Family

ID=66096520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017202182A Active JP6910919B2 (ja) 2017-10-18 2017-10-18 システム及び意思疎通を図るために行うアクションの評価方法

Country Status (2)

Country Link
US (1) US20190114934A1 (ja)
JP (1) JP6910919B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074129A1 (ja) * 2021-11-01 2023-05-04 ソニーグループ株式会社 情報処理装置、コミュニケーション支援装置、およびコミュニケーション支援システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11151883B2 (en) * 2017-11-03 2021-10-19 International Business Machines Corporation Empathic autonomous vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008064431A1 (en) * 2006-12-01 2008-06-05 Latrobe University Method and system for monitoring emotional state changes
JP2010264038A (ja) * 2009-05-14 2010-11-25 Panasonic Electric Works Co Ltd 心理状態評価装置および該方法
JP2013052049A (ja) * 2011-09-02 2013-03-21 National Institute Of Information & Communication Technology 対人コミュニケーションにおける同調性検出装置
WO2014091766A1 (ja) * 2012-12-15 2014-06-19 国立大学法人東京工業大学 人間の心的状態の評価装置
WO2016170810A1 (ja) * 2015-04-23 2016-10-27 ソニー株式会社 情報処理装置、制御方法、およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9015084B2 (en) * 2011-10-20 2015-04-21 Gil Thieberger Estimating affective response to a token instance of interest
DE102015113931A1 (de) * 2014-08-21 2016-02-25 Affectomatics Ltd. Berechnung von Nachwirkung aus affektiven Reaktionen
US9805381B2 (en) * 2014-08-21 2017-10-31 Affectomatics Ltd. Crowd-based scores for food from measurements of affective response
US11494390B2 (en) * 2014-08-21 2022-11-08 Affectomatics Ltd. Crowd-based scores for hotels from measurements of affective response
US11269891B2 (en) * 2014-08-21 2022-03-08 Affectomatics Ltd. Crowd-based scores for experiences from measurements of affective response
DE102016101661A1 (de) * 2015-01-29 2016-08-04 Affectomatics Ltd. Auf datenschutzüberlegungen gestützte offenlegung von auf der grundlage von messwerten der affektiven reaktion berechneten crowd-basierten bewertungen
US11232466B2 (en) * 2015-01-29 2022-01-25 Affectomatics Ltd. Recommendation for experiences based on measurements of affective response that are backed by assurances

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008064431A1 (en) * 2006-12-01 2008-06-05 Latrobe University Method and system for monitoring emotional state changes
JP2010264038A (ja) * 2009-05-14 2010-11-25 Panasonic Electric Works Co Ltd 心理状態評価装置および該方法
JP2013052049A (ja) * 2011-09-02 2013-03-21 National Institute Of Information & Communication Technology 対人コミュニケーションにおける同調性検出装置
WO2014091766A1 (ja) * 2012-12-15 2014-06-19 国立大学法人東京工業大学 人間の心的状態の評価装置
WO2016170810A1 (ja) * 2015-04-23 2016-10-27 ソニー株式会社 情報処理装置、制御方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074129A1 (ja) * 2021-11-01 2023-05-04 ソニーグループ株式会社 情報処理装置、コミュニケーション支援装置、およびコミュニケーション支援システム

Also Published As

Publication number Publication date
JP6910919B2 (ja) 2021-07-28
US20190114934A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
US20190239795A1 (en) Emotion estimation apparatus, method, and program
CA2977429C (en) Method of and system for processing signals sensed from a user
US9101261B2 (en) Method, medium, and apparatus generating health state based avatars
JP6662535B2 (ja) 生活習慣管理支援装置および生活習慣管理支援方法
JP2018142258A (ja) 生産管理装置、方法およびプログラム
JP2018142259A (ja) 作業管理装置、方法およびプログラム
JP6916527B2 (ja) 感性評価装置、感性評価方法および感性多軸モデル構築方法
JP6930277B2 (ja) 提示装置、提示方法、通信制御装置、通信制御方法及び通信制御システム
US11687849B2 (en) Information processing apparatus, information processing method, and program
BR112021005417A2 (pt) sistema e método para melhorar a interação entre os usuários através do monitoramento do estado emocional dos usuários e reforço dos estados-objetivos
CN108135498A (zh) 有用信息呈现装置
KR102166124B1 (ko) 기계학습 기반 여성생체신호 분석과 월경통증 예측 통한 여성 질환 예방 방안
Patt et al. Disentangling working memory processes during spatial span assessment: A modeling analysis of preferred eye movement strategies
JP6910919B2 (ja) システム及び意思疎通を図るために行うアクションの評価方法
JP7311118B2 (ja) 感情推定方法および感情推定システム
CN110868930A (zh) 信息处理系统
JP2009066186A (ja) 脳活動状態推定方法および情報処理システム
JP2019017946A (ja) 気分推定システム
WO2022049727A1 (ja) 情報処理装置、制御方法及び記憶媒体
JP2021041067A (ja) 推定装置、推定システム、推定方法、および推定用プログラム
JP7435965B2 (ja) 情報処理装置、情報処理方法、学習モデルの生成方法、及びプログラム
WO2023171162A1 (ja) 心理状態推定装置および心理状態推定方法
JP7408103B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2024071027A1 (ja) 脳情報の分析によるレコメンデーション
JP6670413B1 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R150 Certificate of patent or registration of utility model

Ref document number: 6910919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150