JP7452558B2 - 処理装置、処理方法及びプログラム - Google Patents

処理装置、処理方法及びプログラム Download PDF

Info

Publication number
JP7452558B2
JP7452558B2 JP2021577735A JP2021577735A JP7452558B2 JP 7452558 B2 JP7452558 B2 JP 7452558B2 JP 2021577735 A JP2021577735 A JP 2021577735A JP 2021577735 A JP2021577735 A JP 2021577735A JP 7452558 B2 JP7452558 B2 JP 7452558B2
Authority
JP
Japan
Prior art keywords
person
event
human relationship
stress level
persons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021577735A
Other languages
English (en)
Other versions
JPWO2021161387A1 (ja
JPWO2021161387A5 (ja
Inventor
浩司 福田
靖夫 飯村
孝文 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021161387A1 publication Critical patent/JPWO2021161387A1/ja
Publication of JPWO2021161387A5 publication Critical patent/JPWO2021161387A5/ja
Application granted granted Critical
Publication of JP7452558B2 publication Critical patent/JP7452558B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、処理装置、処理方法及び記憶媒体に関する。
特許文献1は、ウェアラブル端末で園児(監視対象者)の生体情報を検出し、当該生体情報に基づき園児毎の体調や感情の分析を行うシステムを開示している。また、当該システムは、上記分析結果に基づき、例えば誰と接触している時に感情が盛り上がっていたか、あるいは感情が落ち込みがちであったか等の人間関係に関する分析を行うことを開示している。
特開2018-93978号公報
特許文献1に記載の技術で把握できる人間関係は、一方の人物から他方の人物に向けられる気持ちであり、両者の相互間の気持ちを反映した人間関係ではない。本発明は、相互間の気持ちを反映した人間関係を把握できるようにすることを課題とする。
本発明によれば、
各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得手段と、
人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段と、
人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出手段と、
を有する処理装置が提供される。
また、本発明によれば、
コンピュータが、
各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得し、
人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出し、
人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する処理方法が提供される。
また、本発明によれば、
コンピュータを、
各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得手段、
人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段、
人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出手段、
として機能させるプログラムを記憶した記憶媒体が提供される。
本発明によれば、相互間の気持ちを反映した人間関係を把握できるようになる。
上述した目的、および、その他の目的、特徴および利点は、以下に述べる好適な実施の形態、および、それに付随する以下の図面によって、さらに明らかになる。
本実施形態の処理装置のハードウエア構成の一例を示す図である。 本実施形態の処理装置の機能ブロック図の一例である。 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置の機能ブロック図の一例である。 本実施形態の処理装置の機能ブロック図の一例である。 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。
<第1の実施形態>
最初に、本実施形態の処理装置の概要を説明する。処理装置は、刑務所、学校、幼稚園、職場等の集団で活動する場所や施設における人間関係を把握するために利用される。
まず、一定期間の間、各人物の生体情報や、各人物と他の人物との間で生じたイベント(接近、会話等)を示すデータが収集される。そして、各人物の生体情報、及び、他の人物との間で生じたイベントを示すイベント情報が、処理装置に入力される。
処理装置は、各人物の生体情報及びイベント情報を取得すると、取得した情報に基づき、人物毎に、他の人物各々に対する気持ちを示す気持ち指標を算出する。そして、処理装置は、人物のペア毎に、両者の相手に対する気持ちを示す気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する。
次に、処理装置の構成を詳細に説明する。まず、処理装置のハードウエア構成の一例を説明する。
処理装置の各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
図1は、処理装置のハードウエア構成を例示するブロック図である。図1に示すように、処理装置は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。処理装置は周辺回路4Aを有さなくてもよい。なお、処理装置は物理的及び/又は論理的に分かれた複数の装置で構成されてもよいし、物理的及び/又は論理的に一体となった1つの装置で構成されてもよい。処理装置が物理的及び/又は論理的に分かれた複数の装置で構成される場合、複数の装置各々が上記ハードウエア構成を備えることができる。
バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサー、カメラ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク、物理ボタン、タッチパネル等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
図2に、処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、取得部11と、第1の算出部12と、第2の算出部13とを有する。
取得部11は、各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する。
上述の通り、処理装置10による人間関係算出のための前準備として、一定期間の間、各人物の生体情報や、各人物と他の人物との間で生じたイベント(接近、会話等)を示すデータが収集される。これらのデータは、各人物が装着したウェアラブル端末や、施設内に設置された各種装置により収集される。そして、収集されたデータに基づき生成された生体情報及びイベント情報が、任意の手段で処理装置10に入力される。収集された複数種類のデータは、各々日時情報が紐づけられ、互いに同期可能(発生タイミングの対応付け可能)となっている。
生体情報は、脈拍、心拍、血圧、皮膚電位、体温、発声音、身体の振動、視線の動き、脳波等が例示される。各人物は、カメラ、マイク、センサー等の生体情報を収集する各種装置の中の少なくとも1つを備えるウェアラブル端末を装着した状態で、一定期間活動を行う。ウェアラブル端末の一例としては、靴に入れるインソール型の端末/指輪/腕輪/バンド型/時計/眼鏡/帽子/衣服/ネームプレート型/キーホルダー型などが挙げられる。なお、ウェアラブル端末を利用しない実施形態も考えられる。この場合、例えば、施設内に設置された任意の装置(カメラ、マイク、センサ等)により、各人物の生体情報が取得されてもよい。そして、同一装置により、生体情報及びイベント情報が取得されてもよい。
各人物と他の人物との間で生じたイベントは、他の人物との接近、他の人物との会話、他の人物と同一空間にいる(同じ部屋で作業をしているなど)、視界に他の人物が映る程度近くに他の人物が存在する、単に近くに他の人物が居る、他の人物が接近して遠ざかる、などが挙げられる。また、近くにいる他の人物の生体情報に変化があったこと、具体的には、「近くにいる他の人物の脈拍/心拍が上昇(変化)した」、「近くにいる他の人物の身体が震えた」、「近くにいる他の人物が発声した」等を、各人物と他の人物との間で生じたイベントとしてもよい。なお、他の人物は、ウェアラブル端末を装着した人物であってもよいし、ウェアラブル端末を装着していない人物であってもよい。
イベントを示すデータは、マイクで収集した音声であってもよい。各人物がマイクを装着してもよいし、施設内の任意の位置にマイクが設置されてもよい。このデータの場合、例えば声紋を利用してデータに含まれる音声の発話者を特定することで、誰と誰が会話したか、どちらから話しかけたか、また、誰と誰が会話できる程度に接近したか等を特定できる。
その他、イベントを示すデータは、カメラで生成した画像であってもよい。各人物の前方や各人物の視線方向等を撮影するように各人物がカメラを装着してもよいし、施設内の任意の位置にカメラが設置されてもよい。このデータの場合、例えば顔の特徴等を利用して画像内の人物を特定することで、誰と誰が接近したか等を特定できる。
その他、イベントを示すデータは、各人物の位置情報であってもよい。例えば、各人物にビーコンを装着させ、ビーコンからの信号を検出することで、各人物の位置情報が生成されてもよいし、その他の手段で各人物の位置情報が生成されてもよい。このデータによれば、誰と誰が接近したか等を特定できる。
上述のようなイベントを示すデータを処理することで、各人物と他の人物との間で生じたイベントを示すイベント情報が生成される。図3に、イベント情報の一例を模式的に示す。図示するデータは、2020年1月9日に、人物識別情報「001319」の人物と他の人物との間で生じたイベントを示す。
図2に戻り、第1の算出部12は、人物毎に、生体情報及びイベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する。人物Aの人物Bに対する気持ちを示す気持ち指標を算出する処理の一例は、例えば次のようになる。まず、第1の算出部12は、人物Aのイベント情報に基づき、人物Bとの間で生じたイベントを特定する。そして、第1の算出部12は、特定したイベント発生時における人物Aの生体情報に基づき、人物Aの人物Bに対する気持ちを示す気持ち指標を算出する。
人物Aの他の人物に対する気持ちを示す気持ち指標を算出する処理の他の一例は、例えば次のようになる。例えば、人物Aの生体情報(心拍等)の変動を示す時系列なデータに基づき、平常時の生体情報との差が閾値よりも大きい時刻を特定するとともに、その時刻に発生したイベントとを特定する。そして、特定したイベントに基づき、人物Aの他の人物に対する気持ちを示す気持ち指標を算出する。
気持ち指標は定量化されてもよい。一例として、気持ち指標は、1次元の値で示されてもよい。例えば、気持ち指標は、好意度を示す値であってもよい。その他、気持ち指標は、多次元の値で示されてもよい。例えば、気持ち指標は、好意度、尊敬度、関心度等の各種項目各々を示す値の集合であってもよい。
また、気持ち指標は定性化されてもよい。例えば、気持ち指標は、「好意がある」、「好意がない」、「尊敬している」、「尊敬していない」、「関心がある」、「関心がない」等の指標で示されてもよい。
第1の算出部12は、予め用意された演算アルゴリズムと、上記生体情報やイベント情報から算出したパラメータ値とに基づき、上述のような気持ち指標を算出する。演算アルゴリズムは、機械学習で生成された推定モデルであってもよいし、演算式であってもよいし、その他であってもよい。
ここで、パラメータ値の一例を説明する。パラメータ値は、イベント情報を統計処理した結果であってもよい。統計処理の結果は、例えば、各人物と他の人物各々との間で起きた各イベントの回数(接近回数、会話回数等)や、各人物と他の人物各々との間で起きた各イベントのトータル時間や、各人物と他の人物各々との間で起きた各イベントの1回あたりの平均時間等が例示される。
また、パラメータ値は、各人物と他の人物各々との間でイベントが生じている時の各人物の生体情報に基づき算出された値であってもよい。算出される値は、例えば、脈拍、心拍、血圧、皮膚電位、体温、発声音、身体の振動、視線の動き、脳波等に基づき算出したストレス度や感情等であってもよい。
また、パラメータ値は、各人物と他の人物各々との間でイベントが生じている時間帯の中の所定のタイミングにおける各人物の生体情報に基づき算出された値(上記ストレス度や感情等)であってもよい。所定のタイミングは、イベントが生じている時間帯の冒頭、すなわちイベントが生じた時であってもよい。
また、パラメータ値は、各人物と他の人物各々との間でイベントが生じている時の各人物の生体情報に基づき算出された値(上記ストレス度や感情等)と、そのイベントが生じる前の各人物の生体情報に基づき算出された値(上記ストレス度や感情等)との変化を示す値であってもよい。変化を示す値は、両方の値の差分であってもよいし、変化の割合を示す値であってもよいし、両方の値をペアとした2次元の値であってもよい。
また、パラメータ値は、各人物と他の人物各々との間でイベントが生じている時の各人物の生体情報に基づき算出された値(上記ストレス度や感情等)と、そのイベントが終了した後の各人物の生体情報に基づき算出された値(上記ストレス度や感情等)との変化を示す値であってもよい。
また、パラメータ値は、各人物と他の人物各々との距離と、その距離の変化に応じた上記値(上記ストレス度や感情等)との相関関係、すなわち距離の接近に伴うストレス度や感情の変化を示す値であってもよい。例えば、距離が所定量近づいた時のストレス度の変化量や変化の割合であってもよいし、距離が所定量近づく前後の値(ストレス度や感情)をペアとして2次元の値であってもよい。
第2の算出部13は、人物のペア毎に、気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する。第2の算出部13は、人物Aの人物Bに対する気持ちを示す気持ち指標と、人物Bの人物Aに対する気持ちを示す気持ち指標とに基づき、人物Aと人物Bとの人間関係を示す人間関係指標を算出する。
人間関係指標は定量化されてもよい。一例として、人間関係指標は、1次元の値で示されてもよい。例えば、人間関係指標は、友好度を示す値であってもよい。その他、人間関係指標は、多次元の値で示されてもよい。例えば、人間関係指標は、友好度、互いの関心度等の各種項目各々を示す値の集合であってもよい。
また、人間関係指標は定性化されてもよい。例えば、人間関係指標は、「友好」、「敵対関係」、「無関心」、「関心あり」等の指標で示されてもよい。
第2の算出部13は、予め用意された演算アルゴリズムと、各ペアに属する人物各々の相手に対する気持ちを示す気持ち指標とに基づき、各ペアに属する人物間の人間関係を示す人間関係指標を算出する。演算アルゴリズムは、機械学習で生成された推定モデルであってもよいし、演算式であってもよいし、その他であってもよい。
処理装置10は、出力装置を介して、第2の算出部13が算出した各ペアの人間関係指標を出力する。例えば、複数のペア各々の人間関係指標が一覧表示されてもよい。また、ある人物が指定されると、その人物と他の人物各々との人間関係指標が一覧表示されてもよい。
また、処理装置10は、出力装置を介して、第1の算出部12が算出した各人物の他の人物各々に対する気持ち指標を出力してもよい。例えば、複数の人物各々の他の人物各々に対する気持ち指標が、人物毎にまとめて一覧表示されてもよい。また、ある人物が指定されると、その人物他の人物各々に対する気持ち指標が一覧表示されてもよい。
出力装置は、ディスプレイ、投影装置、プリンター、メーラ、スピーカ等が例示されるが、これらに限定されない。
次に、図4のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。
処理装置10は、各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得すると(S10)、人物毎に、生体情報及びイベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する(S11)。次いで、処理装置10は、人物のペア毎に、各ペアに属する人物各々の相手に対する気持ちを示す気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する(S12)。そして、処理装置10は、S12での算出結果を出力する(S13)。
次に、本実施形態の作用効果を説明する。処理装置10は、人物毎に、他の人物各々に対する気持ちを示す気持ち指標を算出し、人物のペア毎に、各ペアに属する人物各々の相手に対する気持ちを示す気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出することができる。このような処理装置10によれば、ユーザは、相互間の気持ちを反映した人間関係を把握できるようになる。そして、ユーザは、把握した内容に基づき所定の人物の所属先を変更する等の組織改編を行うことで、人間関係に基づくトラブルの発生を未然に防止することができる。
また、上述のような特徴的なパラメータ値に基づき気持ち指標を算出し、当該気持ち指標に基づき人間関係指標を算出する処理装置10によれば、2人の人物間の人間関係を精度よく推定することができる。
<第2の実施形態>
図5に、本実施形態の処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、取得部11と、第1の算出部12と、第2の算出部13と、警告部15とを有する。
警告部15は、第1の警告手段及び第2の警告手段の少なくとも一方を有する。
第1の警告手段は、人間関係指標が第1の警告条件を満たす人物のペアを抽出し、抽出したペアを通知する。第1の警告手段は、人間関係が所定レベルよりも悪い(友好的でない)人物のペアを抽出することを目的とする。第1の警告条件は、このような目的を達成可能な内容となっている。
第2の警告手段は、気持ち指標が第2の警告条件を満たす人物と、当該気持ち指標で示される気持ちが向けられる人物とのペアを抽出し、抽出したペアを通知する。第2の警告手段は、所定の人物のことを所定レベルよりも悪く思っている(友好的でない)人物とその相手のペアを抽出することを目的とする。第2の警告条件は、このような目的を達成可能な内容となっている。
警告部15は、ディスプレイ、投影装置、プリンター、メーラ、スピーカ等の出力装置を介して、抽出したペアをユーザに通知する。例えば、抽出したペアに属する2人の人物の識別情報が出力装置を介して出力されてもよい。
処理装置10のその他の構成は、第1の実施形態と同様である。
以上説明した本実施形態の処理装置10によれば、第1の実施形態と同様の作用効果が実現される。また、本実施形態の処理装置10によれば、ユーザは、人間関係が所定レベルよりも悪い人物のペアや、少なくとも一方が他方のことを所定レベルよりも悪く思っている人物のペア、すなわち、人物の所属先の変更等の組織改編等が必要な箇所を容易に把握することができる。
<第3の実施形態>
図6に、本実施形態の処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、取得部11と、第1の算出部12と、第2の算出部13と、人間関係マップ生成部14とを有する。なお、処理装置10は、警告部15を有してもよい。
人間関係マップ生成部14は、複数の人物相互間の人間関係指標を示した人間関係マップを生成する。人間関係マップ生成部14は、人間関係マップにおいて、第1の算出部12が算出した気持ち指標をさらに示してもよい。
図7に、人間関係マップの一例を模式的に示す。図示する例では、各人物に対応するアイコンと、各人物の識別情報(A乃至D)と、各人物間の人間関係を示す人間関係指標と、各人物の他の人物各々に対する気持ちを示す気持ち指標と、接近回数とが示されている。人間関係指標は、敵視、友好、興味、無関心等の定性的な指標となっている。気持ち指標は、定量的な値であり、値が大きいほど好意があることを示す。
なお、接近回数に代えて、会話回数等のその他のイベントの発生回数が示されてもよい。また、アイコンに代えて、各人物の実際の画像が表示されてもよい。また、図示する例では、4人の人間関係を示すが、この数字はあくまで一例であり、これに限定されない。
また、図7では示さないが、人間関係マップ生成部14は、人間関係マップにおいて、人間関係指標が上記第1の警告条件を満たす人物のペアを識別表示(例えば、強調表示)してもよい。また、人間関係マップ生成部14は、人間関係マップにおいて、気持ち指標が第2の警告条件を満たす人物と、その気持ち指標で示される気持ちが向けられる人物とのペアを識別表示してもよい。
処理装置10は、ディスプレイ、投影装置、プリンター、メーラ等の出力装置を介して、当該人間関係マップを出力する。
処理装置10のその他の構成は、第1及び第2の実施形態と同様である。
以上説明した本実施形態の処理装置10によれば、第1及び第2の実施形態と同様の作用効果が実現される。また、本実施形態の処理装置10によれば、ユーザは、図7に示すような人間関係マップに基づき、複数の人物相互間の複雑な人間関係を直感的に容易に把握することが可能となる。
以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限定されない。
1. 各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得手段と、
人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段と、
人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出手段と、
を有する処理装置。
2. 複数の人物相互間の前記人間関係指標を示した人間関係マップを生成する人間関係マップ生成手段をさらに有する1に記載の処理装置。
3. 前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記気持ち指標をさらに示す2に記載の処理装置。
4. 前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記人間関係指標が第1の警告条件を満たす人物のペアを識別表示する2又は3に記載の処理装置。
5. 前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記気持ち指標が第2の警告条件を満たす人物と、前記気持ち指標で示される気持ちが向けられる人物とのペアを識別表示する2から4のいずれかに記載の処理装置。
6. 前記人間関係指標が第1の警告条件を満たす人物のペアを抽出し、抽出したペアを通知する第1の警告処理を行う第1の警告手段をさらに有する1から5のいずれかに記載の処理装置。
7. 前記気持ち指標が第2の警告条件を満たす人物と、前記気持ち指標で示される気持ちが向けられる人物とのペアを抽出し、抽出したペアを通知する第2の警告処理を行う第2の警告手段をさらに有する1から6のいずれかに記載の処理装置。
8. コンピュータが、
各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得し、
人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出し、
人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する処理方法。
9. コンピュータを、
各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得手段、
人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段、
人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出手段、
として機能させるプログラムを記憶した記憶媒体。

Claims (9)

  1. 各人物が装着したウェアラブル端末又は施設に設置された生体情報を取得する装置を介して各人物の生体情報を取得するとともに、各人物が装着したマイク、施設に設置されたマイク、各人物が装着したカメラ、施設に設置されたカメラ、又は各人物が装着した位置検出装置を介して取得したデータに基づき、イベントの発生を示すイベント情報を生成する取得手段と、
    人物毎に、前記生体情報及び前記イベント情報に基づき、所定のパラメータ値を算出し、前記所定のパラメータ値に基づき他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段と、
    人物のペア毎に、双方の他方に対する気持ちを示す前記気持ち指標に基づく演算処理で、人物間の人間関係を示す人間関係指標を算出する第2の算出手段と、
    を有し、
    前記イベントは、
    各人物と他の人物との接近、各人物と他の人物との会話、各人物と他の人物が同一空間にいること、各人物に他の人物が接近して遠ざかったこと、又は各人物の近くにいる他の人物の生体情報の変化を含み、
    前記所定のパラメータ値は、
    前記イベントの発生回数、前記イベントが発生しているトータル時間、前記イベント1回あたりの平均時間、前記イベントが発生している間の各人物のストレス度、前記イベントが発生している間の各人物の感情、前記イベントが発生している間の所定のタイミングにおける各人物のストレス度、前記イベントが発生している間の所定のタイミングにおける各人物の感情、各人物の前記イベントが発生する前のストレス度から前記イベントが発生中のストレス度への変化、各人物の前記イベントが発生する前の感情から前記イベントが発生中の感情への変化、各人物の前記イベントが発生中のストレス度から前記イベントが終了後のストレス度への変化、各人物の前記イベントが発生中の感情から前記イベントが終了後の感情への変化、各人物と他の人物との距離の変化に応じた各人物のストレス度の変化、又は各人物と他の人物との距離の変化に応じた各人物の感情の変化を示し、
    前記人間関係指標は、
    ペアとなっている人物間の友好度、ペアとなっている人物間の互いへの関心度、又はペアとなっている人物間の人間関係が予め定義された複数の関係性のいずれに該当するかを示す処理装置。
  2. 複数の人物各々に対応する人物情報を表示するとともに、表示された前記人物情報で生成されるペア毎にそのペアの人物間の人間関係を示す人間関係情報を表示した人間関係マップを生成する人間関係マップ生成手段をさらに有し、
    前記人物情報は、各人物の画像、アイコン、又は識別情報を含む請求項1に記載の処理装置。
  3. 前記人間関係マップ生成手段は、前記人間関係マップにおいて、各人物の他の人物に対する前記気持ち指標をさらに示す請求項2に記載の処理装置。
  4. 前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記人間関係指標が第1の警告条件を満たす人物のペアに対応する前記人物情報のペアを識別表示する請求項2又は3に記載の処理装置。
  5. 前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記気持ち指標が第2の警告条件を満たす人物と、前記第2の警告条件を満たす人物の前記気持ち指標で示される気持ちが向けられる人物とのペアに対応する前記人物情報のペアを識別表示する請求項2から4のいずれか1項に記載の処理装置。
  6. 前記第2の算出手段が算出した人物のペア毎の前記人間関係指標に基づき、前記第2の算出手段が前記人間関係指標を算出した人物のペアの中から、前記人間関係指標が第1の警告条件を満たす人物のペアを抽出し、抽出したペアを通知する第1の警告処理を行う第1の警告手段をさらに有する請求項1から5のいずれか1項に記載の処理装置。
  7. 前記第1の算出手段が生成した人物毎の前記気持ち指標に基づき、前記第1の算出手段が前記気持ち指標を算出した人物の中から、前記気持ち指標が第2の警告条件を満たす人物を抽出し、抽出した人物と、抽出した人物の前記気持ち指標で示される気持ちが向けられる人物とのペアを通知する第2の警告処理を行う第2の警告手段をさらに有する請求項1から6のいずれか1項に記載の処理装置。
  8. コンピュータが、
    各人物が装着したウェアラブル端末又は施設に設置された生体情報を取得する装置を介して各人物の生体情報を取得するとともに、各人物が装着したマイク、施設に設置されたマイク、各人物が装着したカメラ、施設に設置されたカメラ、又は各人物が装着した位置検出装置を介して取得したデータに基づき、イベントの発生を示すイベント情報を生成する取得工程と、
    人物毎に、前記生体情報及び前記イベント情報に基づき、所定のパラメータ値を算出し、前記所定のパラメータ値に基づき他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出工程と、
    人物のペア毎に、双方の他方に対する気持ちを示す前記気持ち指標に基づく演算処理で、人物間の人間関係を示す人間関係指標を算出する第2の算出工程と、
    を実行し、
    前記イベントは、
    各人物と他の人物との接近、各人物と他の人物との会話、各人物と他の人物が同一空間にいること、各人物に他の人物が接近して遠ざかったこと、又は各人物の近くにいる他の人物の生体情報の変化を含み、
    前記所定のパラメータ値は、
    前記イベントの発生回数、前記イベントが発生しているトータル時間、前記イベント1回あたりの平均時間、前記イベントが発生している間の各人物のストレス度、前記イベントが発生している間の各人物の感情、前記イベントが発生している間の所定のタイミングにおける各人物のストレス度、前記イベントが発生している間の所定のタイミングにおける各人物の感情、各人物の前記イベントが発生する前のストレス度から前記イベントが発生中のストレス度への変化、各人物の前記イベントが発生する前の感情から前記イベントが発生中の感情への変化、各人物の前記イベントが発生中のストレス度から前記イベントが終了後のストレス度への変化、各人物の前記イベントが発生中の感情から前記イベントが終了後の感情への変化、各人物と他の人物との距離の変化に応じた各人物のストレス度の変化、又は各人物と他の人物との距離の変化に応じた各人物の感情の変化を示し、
    前記人間関係指標は、
    ペアとなっている人物間の友好度、ペアとなっている人物間の互いへの関心度、又はペアとなっている人物間の人間関係が予め定義された複数の関係性のいずれに該当するかを示す処理方法。
  9. コンピュータを、
    各人物が装着したウェアラブル端末又は施設に設置された生体情報を取得する装置を介して各人物の生体情報を取得するとともに、各人物が装着したマイク、施設に設置されたマイク、各人物が装着したカメラ、施設に設置されたカメラ、又は各人物が装着した位置検出装置を介して取得したデータに基づき、イベントの発生を示すイベント情報を生成する取得手段、
    人物毎に、前記生体情報及び前記イベント情報に基づき、所定のパラメータ値を算出し、前記所定のパラメータ値に基づき他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段、
    人物のペア毎に、双方の他方に対する気持ちを示す前記気持ち指標に基づく演算処理で、人物間の人間関係を示す人間関係指標を算出する第2の算出手段、
    として機能させ
    前記イベントは、
    各人物と他の人物との接近、各人物と他の人物との会話、各人物と他の人物が同一空間にいること、各人物に他の人物が接近して遠ざかったこと、又は各人物の近くにいる他の人物の生体情報の変化を含み、
    前記所定のパラメータ値は、
    前記イベントの発生回数、前記イベントが発生しているトータル時間、前記イベント1回あたりの平均時間、前記イベントが発生している間の各人物のストレス度、前記イベントが発生している間の各人物の感情、前記イベントが発生している間の所定のタイミングにおける各人物のストレス度、前記イベントが発生している間の所定のタイミングにおける各人物の感情、各人物の前記イベントが発生する前のストレス度から前記イベントが発生中のストレス度への変化、各人物の前記イベントが発生する前の感情から前記イベントが発生中の感情への変化、各人物の前記イベントが発生中のストレス度から前記イベントが終了後のストレス度への変化、各人物の前記イベントが発生中の感情から前記イベントが終了後の感情への変化、各人物と他の人物との距離の変化に応じた各人物のストレス度の変化、又は各人物と他の人物との距離の変化に応じた各人物の感情の変化を示し、
    前記人間関係指標は、
    ペアとなっている人物間の友好度、ペアとなっている人物間の互いへの関心度、又はペアとなっている人物間の人間関係が予め定義された複数の関係性のいずれに該当するかを示すプログラム。
JP2021577735A 2020-02-10 2020-02-10 処理装置、処理方法及びプログラム Active JP7452558B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/005149 WO2021161387A1 (ja) 2020-02-10 2020-02-10 処理装置、処理方法及び記憶媒体

Publications (3)

Publication Number Publication Date
JPWO2021161387A1 JPWO2021161387A1 (ja) 2021-08-19
JPWO2021161387A5 JPWO2021161387A5 (ja) 2022-09-28
JP7452558B2 true JP7452558B2 (ja) 2024-03-19

Family

ID=77291445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021577735A Active JP7452558B2 (ja) 2020-02-10 2020-02-10 処理装置、処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7452558B2 (ja)
WO (1) WO2021161387A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175829A1 (ja) * 2022-03-17 2023-09-21 日本電気株式会社 監視システム、監視装置、監視方法、および記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287690A (ja) 2007-04-20 2008-11-27 Hitachi Ltd グループ可視化システム及びセンサネットワークシステム
JP2012150680A (ja) 2011-01-20 2012-08-09 Fujitsu Ltd 人間関係マップ作成支援装置,人間関係マップ作成支援方法および人間関係マップ作成支援プログラム
JP2015046070A (ja) 2013-08-28 2015-03-12 ヤフー株式会社 情報処理装置、判定方法および判定プログラム
JP2018045545A (ja) 2016-09-16 2018-03-22 パナソニックIpマネジメント株式会社 ストレスマネジメントシステム及びストレスマネジメント方法
JP2019213231A (ja) 2014-11-07 2019-12-12 ソニー株式会社 情報処理システム、制御方法、および記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287690A (ja) 2007-04-20 2008-11-27 Hitachi Ltd グループ可視化システム及びセンサネットワークシステム
JP2012150680A (ja) 2011-01-20 2012-08-09 Fujitsu Ltd 人間関係マップ作成支援装置,人間関係マップ作成支援方法および人間関係マップ作成支援プログラム
JP2015046070A (ja) 2013-08-28 2015-03-12 ヤフー株式会社 情報処理装置、判定方法および判定プログラム
JP2019213231A (ja) 2014-11-07 2019-12-12 ソニー株式会社 情報処理システム、制御方法、および記憶媒体
JP2018045545A (ja) 2016-09-16 2018-03-22 パナソニックIpマネジメント株式会社 ストレスマネジメントシステム及びストレスマネジメント方法

Also Published As

Publication number Publication date
WO2021161387A1 (ja) 2021-08-19
JPWO2021161387A1 (ja) 2021-08-19

Similar Documents

Publication Publication Date Title
JP6447108B2 (ja) 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム
CN104850846B (zh) 一种基于深度神经网络的人体行为识别方法及识别系统
US8715179B2 (en) Call center quality management tool
JP6772023B2 (ja) ユーザー状態検出による集団相互作用の方法及びシステム
Min et al. Exploring audio and kinetic sensing on earable devices
EP3287075A1 (en) Information processing device, control method, and program
WO2016195474A1 (en) Method for analysing comprehensive state of a subject
JP6756236B2 (ja) アクション指示プログラム、アクション指示方法及び画像生成装置
US20110201899A1 (en) Systems for inducing change in a human physiological characteristic
CN109765991A (zh) 社交互动系统、用于帮助用户进行社交互动的系统及非暂时性计算机可读存储介质
US20120072121A1 (en) Systems and methods for quality control of computer-based tests
JP4716119B2 (ja) インタラクション情報出力装置、インタラクション情報出力方法、及びプログラム
WO2019086856A1 (en) Systems and methods for combining and analysing human states
JP2015229040A (ja) 感情分析システム、感情分析方法および感情分析プログラム
US20190008466A1 (en) Life log utilization system, life log utilization method, and recording medium
JP2002042115A (ja) 疲労緩和システム、疲労緩和方法及び記録媒体
WO2016123777A1 (zh) 一种基于生物特征的对象呈现、推荐方法和装置
JP4868360B2 (ja) 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム
Al-Btoush et al. New features for eye-tracking systems: Preliminary results
JP7452558B2 (ja) 処理装置、処理方法及びプログラム
JP2017224166A (ja) 画像生成装置、画像生成プログラム及び画像生成方法
Banjar et al. Fall event detection using the mean absolute deviated local ternary patterns and BiLSTM
KR102029760B1 (ko) 사용자 감정 분석을 이용한 이벤트 탐지 시스템 및 방법
JP4604225B2 (ja) インタラクションデータ抽出装置
Virvou et al. Emotion recognition: empirical studies towards the combination of audio-lingual and visual-facial modalities through multi-attribute decision making

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220804

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R151 Written notification of patent or utility model registration

Ref document number: 7452558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151