JP7253860B1 - 感情情報管理装置及び感情情報管理アプリケーション - Google Patents

感情情報管理装置及び感情情報管理アプリケーション Download PDF

Info

Publication number
JP7253860B1
JP7253860B1 JP2022210137A JP2022210137A JP7253860B1 JP 7253860 B1 JP7253860 B1 JP 7253860B1 JP 2022210137 A JP2022210137 A JP 2022210137A JP 2022210137 A JP2022210137 A JP 2022210137A JP 7253860 B1 JP7253860 B1 JP 7253860B1
Authority
JP
Japan
Prior art keywords
information
user terminal
emotion
user
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022210137A
Other languages
English (en)
Inventor
精治 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2022210137A priority Critical patent/JP7253860B1/ja
Application granted granted Critical
Publication of JP7253860B1 publication Critical patent/JP7253860B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】感情情報の利用者が抱える課題を解決するサポートすることの可能な、感情情報管理装置を提供する。【解決手段】ネットワーク15又はエッジ処理を介して対象者情報を取得する管理サーバ11であって、対象者情報を処理して対象者の感情情報を生成する感情情報生成部25と、生成された感情情報を利用する利用者の課題を解決するきっかけとなる補助情報を生成する補助情報生成部26と、利用者が利用する利用者端末12へ感情情報及び補助情報を提供する感情情報提供部27と、を有する管理サーバ11を構成した。【選択図】図1

Description

本開示は、対象者の感情情報を処理する感情情報管理装置及び感情情報管理アプリケーションに関する。
対象者の感情情報を処理する感情情報管理装置の一例が、特許文献1乃至特許文献4に記載されている。特許文献1に記載されている会議支援システムは、会議の出席者の感情表現を検出する感情分析部と、感情表現に基づいて出席者が発言の意図を有するか予測する予測部と、出席者が発言の意図を有すると予測された場合、出席者に意見を尋ねる質問部と、を有する。感情分析部は、カメラが生成した時系列の顔画像のデータから、出席者の感情表現を検出する。検出される出席者の感情は、悲しみ、怒り、喜び等である。特許文献1に記載された会議支援システムは、会議アプリケーションによって起動する。
また、特許文献2には、顧客端末及び担当者端末に対してネットワークを介して接続される提案支援システムが記載されている。提案支援システムは、担当者が顧客の課題に対する提案を行う場合、面談時における顧客の感情をカメラ映像から分析することに加え、顧客の日々の動きに応じた提案資料を提示し得る技術が記載されている。さらに、特許文献3には、面接システムが記載されている。面接システムは、面接装置で取得された顔の映像情報に基づいて応募者の時間経過に伴って変化する様子を分析し、質疑応答時における感情の種類を判別する制御装置と、制御装置で判別された感情の種類と、面接装置で取得された応答情報とが、応募者に対応付けて蓄積された応募者情報データベースを記憶する記憶装置と、応募者情報データベースにアクセス可能な端末装置と、を有する。
さらに、特許文献4に記載されたコンピュータプログラムは、会議の議事録を生成するコンピュータに用いられるコンピュータプログラムであって、会議の出席者の顔の画像を入力する処理と、入力された画像に基づいて出席者ごとの感情を判別する感情判別処理と、出席者の音声を入力する処理と、入力された音声に基づいて、出席者の発言の内容を示すテキストデータを生成する処理と、入力された音声のパターンを分析することにより、発言を行った出席者である発言者を特定する処理と、感情判別処理の結果、テキストデータ、及び発言者に基づいて、発言の内容と当該発言を行った出席者と当該発言があったときの各出席者の感情とを記録した議事録を生成する処理と、をコンピュータに実行させる。
特開2022-139436号公報 特開2020-184216号公報 特開2018-32164号公報 特許第4458888号公報
本願発明者は、特許文献1、特許文献2、特許文献3及び特許文献4に記載されている感情情報管理技術によると、感情情報の利用者が抱える課題を解決するサポートということについて、未だ改善の余地があるという問題を認識した。
本開示の目的は、感情情報の利用者が抱える課題を解決するサポートすることの可能な、感情情報管理装置及び感情情報管理アプリケーションを提供することにある。
本開示は、ネットワーク又はエッジ処理介して、対象者の生体情報を取得する感情情報管理装置であって、前記対象者情報を処理して対象者の感情情報を生成する感情情報生成部と、生成された前記感情情報を利用する利用者の課題を解決するきっかけとなる補助情報を生成する補助情報生成部と、前記利用者が利用する利用者端末へ前記感情情報及び前記補助情報を提供する感情情報提供部と、を有する。
本開示によれば、感情情報の利用者が抱える課題を解決するサポートになり得る。
感情情報管理装置の一実施形態である管理サーバを含む感情情報管理システムのブロック図である。 管理サーバが取得する対象者情報の一例を示す図表である。 管理サーバが生成する感情情報の一例を示す図表である。 感情情報管理システムで行われる制御例1を示すフローチャートである。 感情情報管理システムで行われる制御例2を示すフローチャートである。 図6(A)は、制御例1で利用者端末の表示部に表示される情報の一例であり、図6(B)は、制御例2で利用者端末の表示部に表示される情報の一例である。
(概要)
本開示では、感情情報管理装置を含む感情情報管理システムの実施形態を、図面を参照して説明する。各図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。図1に示す感情情報管理システム10は、感情情報管理装置の一例である管理サーバ11、利用者端末12、対象者情報検出装置13、ゲートウェイ14等を含む。利用者端末12及びゲートウェイ14は、ネットワーク15又はエッジ処理を介して管理サーバ11へ接続される。管理サーバ11と利用者端末12との間で、相互に信号の行き来が可能である。対象者情報検出装置13は、対象者情報を検出し、検出された対象者情報に応じた信号を出力する。対象者情報は、後述する。
対象者情報検出装置13は、カメラ16及び腕時計型センサ17を含む。カメラ16は、例えば、赤外線カメラであり対象者の皮膚から検出される脈波を動画で撮影し、撮影された脈波情報を信号化してゲートウェイへ送信する。また、カメラ16から送信される脈波情報には、付帯情報とが含まれる。付帯情報は、映像の撮影日時、映像の撮影場所等が含まれる。カメラ16は、建物の内部及び外部、通路、車両の内部、イベント会場、店舗内、観光地等、何れの場所に設置されていてもよい。
ゲートウェイ14は、カメラ16から送信される信号を受信し、かつ、受信した信号をネットワーク15を介して管理サーバ11へ送信する接続器である。接続器は、ハブ、アクセスポイント等を有していてもよい。腕時計型センサ17は、対象者の腕に装着されるものであり、腕時計型センサ17は、対象者の生体情報を検出して信号を出力する。生体情報は、所定時間当たりの心拍数等を含む。
(管理サーバの説明)
管理サーバ11は、感情情報管理アプリケーションの提供者(ベンダー)により管理及び運営される。管理サーバ11は、ネットワーク15上に感情情報の管理環境を提供するクラウドサーバである。管理サーバ11は、利用者端末12から取得する信号、対象者情報検出装置13から取得する信号、予め記憶されているプログラム、アプリケーション、データ等の情報に基づいて、各種の処理、判断、決定、分析等を行う。
管理サーバ11は、制御部18、記憶部19及び通信部20を有する。通信部20は、ネットワーク15を介して利用者端末12へ信号及び情報を送る機能と、利用者端末12からネットワーク15を介して信号及び情報を取得する機能と、ゲートウェイ14を介して入力されるカメラ16の信号を取得する機能と、を有する。
制御部18は、入力ポート、出力ポート及び演算処理回路を有する。制御部18は、記憶部19及び通信部20との間で、相互に信号及び情報の授受を行うことができる。記憶部19には、制御部18が各種の判断、処理、分析、情報の生成を行うために起動される感情情報管理アプリケーション21、プログラム、各種のデータ、マップ等が記憶されている。また、記憶部19には、制御部18がネットワーク15上にSNS(ソーシャルネットワークサービス)環境を提供するためのSNS提供アプリケーション38が記憶されていてもよい。
また、制御部18は、利用者端末12から取得した利用者情報を記憶部19へ記憶(記録)し、かつ、記憶部19に記憶されている情報を更新する処理を行う。制御部18は、記憶部19に記憶されている感情情報管理アプリケーション21を起動させることにより、利用者情報処理部22、映像情報処理部23、生体情報処理部24、感情情報生成部25、補助情報生成部26、感情情報提供部27等を構成できる。制御部18は、記憶部19に記憶されているSNS提供アプリケーション38を起動させることにより、サービス提供部36、検索結果提供部37を構成できる。
利用者情報処理部22は、利用者端末12から取得する利用者情報を処理する。利用者情報は、利用者端末12から取得するものである。利用者情報は、利用者端末12の端末情報及び利用者の個人識別情報を含む。利用者端末12の端末情報は、利用者端末12毎に付される固有の識別番号、メールアドレス等を含む。個人識別情報は、利用者毎に付される利用者ID、パスワード、メールアドレス、利用者の氏名、生年月日、年齢、性別、住所、電話番号、プロフィール等を含む。利用者の氏名は、ニックネームまたはハンドルネームでもよい。プロフィールは、公開を目的とした情報であり、趣味、食べ物の好み、好きな動物、関心のあること、マイブーム等の情報を含む。
映像情報処理部23は、ネットワーク15を介して取得する映像情報を処理する。図2に示すように、映像情報は、映像の撮影日時、映像の撮影場所等の付帯情報と、を含む。感情情報生成部25は、ネットワーク15を介して取得する対象者情報を処理して感情情報を生成する。図2に示すように、対象者情報は、対象者の映像情報及び生体情報を含む。対象者とは、映像情報及び生体情報に基づいて、感情が分析される被検者である。なお、本実施形態において、対象者は、利用者端末を利用する利用者、利用者端末を利用しない人間の何れでもよい。
感情情報は、図3に示すように、対象者の感情の分析結果、及び付帯情報を含む。感情情報生成部25は、例えば、ネットワーク15を介して取得する対象者の映像情報及び生体情報、予め記憶部19に記憶されている情報、データ、等を用いて、人工知能(AI:artificial intelligence)が機械学習を用いた処理、推論、判断等を実行することにより、利用者の感情(心理)を分析する。利用者の感情には、喜び、満足、怒り、哀しみ、平静、落ち着き、楽しみ、驚き、集中、退屈、眠気、興奮、空腹、恐怖、落胆(落ち込み)、酔い、関心、快適、不快、安心、リラックス、賛成、反対、異議、疑問、混乱等が含まれる。
これらの感情は、顔を含む上半身の映像に含まれる、瞼の開度、視線、眉の動作、鼻の皺の有無、口の動き、口の開度、瞳孔の開度、等を処理して推定可能である。また、これらの感情は、対象者の上半身の動作、例えば、首をかしげたか否か、頷いたか否か、手の動作等からも推定可能である。推定された感情は、それぞれ数値化され、かつ、表またはグラフ等を生成できる。
なお、対象者の顔を含む映像情報等に基づいて、対象者の感情を分析する技術は、例えば、特許第6868422号公報、特許第6703893号公報、特許第6042015号公報、特許第3953024号公報、特許第4458888号公報、特開2015-229040号公報、特開2018-32164号公報、特開2022-139436号公報、特開2020-184216号公報等に示されているように、公知技術であるため、その具体的な説明は、省略する。
さらに、生体情報は、図2に示すように、所定時間当たりの心拍数(脈拍数)、所定時間当たりの呼吸回数等が用いられる。例えば、呼吸回数または心拍数が増加した場合は、対象者が興奮していると推定可能である。
また、生体情報の取得方法は、映像情報から間接的に推定する方法と、対象者が体に装着する腕時計型センサ17等から取得する方法と、を含む。映像情報から心拍数を推定する技術は、特許第6717424号公報、特開2016-190022、特開2022-141984号公報等に示され、映像情報から対象者の呼吸回数を推定する技術は、特許第4284538号公報、特開2016-190022号公報に示されているように、公知技術であるため、その具体的な説明は、省略する。さらに、付帯情報は、対象者を撮影した映像の撮影日時、映像の撮影場所、撮影場所の状況及び環境等である。
さらに、補助情報生成部26は、補助情報を生成する。補助情報は、感情情報と共に利用者端末12へ提供するために生成される。補助情報は、感情情報を取得する利用者端末12の利用者における課題を解決・解消するためのサポートまたはきっかけとなる情報である。補助情報は、例えば、提案及びレコメンド等を含む。補助情報の具体的な内容は、後述する。なお、感情情報生成部25で生成された感情情報、及び補助情報生成部26で生成された補助情報は、記憶部19へ記憶される。さらに、感情情報提供部27は、感情情報生成部25で生成された感情情報、及び補助情報生成部26で生成された補助情報を、利用者端末12へ提供する。サービス提供部36は、複数の利用者端末12同士がネットワーク15上で情報を共有できるSNS環境を提供する。検索結果提供部37は、利用者端末12が操作されてSNS環境にある情報等の検索が行われた場合に、その検索結果を利用者端末12へ提供する。
なお、図1に示す管理サーバ11は、単数のコンピュータとして示されているが、管理サーバ11は、利用者端末12の近くに配置される複数のコンピュータの組み合わせにより構成されていてもよい。この場合、複数のコンピュータにより、制御部18の機能が分担(分散)される。つまり、管理サーバ11は、エッジ処理、つまり、分散エッジコンピューティングによって対象者情報を取得してもよい。また、ネットワーク15に接続されたコンピュータに制御部18及び通信部20が設けられ、そのコンピュータに記憶部19が外付けで接続されていてもよい。
(利用者端末の説明)
利用者端末12は、管理サーバ11から感情情報管理アプリケーション21をダウンロード及びインストールして、管理サーバ11が提供する感情情報の管理環境にアクセスしてもよいし、感情情報管理アプリケーション21をインストールすることなく、ウェブブラウザを利用して、感情情報の管理環境にアクセスすることもできる。利用者端末12は、利用者端末12A,12Bを含む。利用者端末12Aは、単数または複数の何れであってもよい。利用者端末12Bは、単数または複数の何れであってもよい。利用者端末12A,12Bは、共に、管理サーバ11から感情情報及び補助情報を取得しようとする利用者により利用される。本実施形態では、便宜上、利用者端末12Aの利用者は、感情が分析される対象者となり得る。このため、利用者端末12Aの利用者を、対象者と記載することがある。
これに対して、利用者端末12Bの利用者は、感情が分析される被検者となり得ないものとする。利用者端末12Bの利用者は、自社の商品、サービス等を提供するため、実店舗及び仮想店舗(オンラインショップ)を設けることができる。実店舗は、実在する店舗であり、利用者が実際に訪れて商品の購入及びサービスの提供を受けることができる。仮想店舗は、ネットワーク15のウェブサイトに展開され、利用者は、利用者端末12Aをウェブサイトに接続させて、商品、サービスの提供等を受けることができる。
利用者端末12Aは、デスクトップ型パーソナルコンピュータ、ノート型パーソナルコンピュータ、スマートフォン、タブレット端末等のうちの何れでもよい。利用者端末12は、制御部28、操作部29、表示部30、カメラ31、現在位置検出部32、記憶部33、通信部34、スピーカ35等を有する。制御部は25、演算処理回路、入力ポート及び出力ポートを有する。制御部は25、記憶部33及び通信部34との間で相互に信号の送信及び受信を行うことができる。記憶部33には、利用者端末12Aで実行される処理、判断等に使用されるプログラム、アプリケーション、データ等の情報が記憶される。また、記憶部33は、管理サーバ11から取得された感情情報管理アプリケーション21を記憶できることに加え、ネットワーク15から取得されたSNS提供アプリケーション38を記憶できる。
通信部34は、信号及び情報をネットワーク15を介して管理サーバ11へ送信する機能と、管理サーバ11からネットワーク15を介して信号及び情報を取得する機能と、を有する。通信部34が管理サーバ11へ信号及び情報を送る場合、端末情報と個人識別情報とが関連付けて送られる。
操作部29は、タッチスイッチ、液晶パネル等の表示画面のうちの少なくとも1要素により構築されている。また、利用者端末12Aが、デスクトップ型パーソナルコンピュータまたはノート型パーソナルコンピュータであると、操作部29は、キーボード、マウス、スキャナ等を有していてもよい。利用者が操作部29を操作すると、その操作に応じた信号が、制御部28へ入力される。
表示部30は、タッチパネル、液晶パネル等により構築されている。表示部30には、利用者端末12Aで入力される情報、及び管理サーバ11から取得する感情情報及び補助情報等が表示される。表示部30に表示される内容は、制御部28により制御される。利用者端末12Aがスマートフォン、またはタブレット端末であると、操作部29は、表示部30に表示される操作メニュー(操作ボタン)に相当する。制御部28は、通信部34を介して入力される信号及び情報、操作部29の操作に応じた信号、及び記憶部33に記憶されているアプリケーション、プログラム、情報に基づいて、処理、比較、判断等を行う。
カメラ31は、利用者端末12Aの本体に直接に設けられる構造、または、利用者端末12Aに信号ケーブルを介して接続される構造の何れでもよい。カメラ31は、利用者の顔を含む映像を撮影し、撮影した映像情報の信号が制御部28へ入力される。カメラ31が撮影する映像は動画となる。カメラ31で撮影された映像には、撮影日時、撮影場所、等の付帯情報が添付される。カメラ31は、前述した対象者情報検出装置13の一部を構成する。
現在位置検出部32は、利用者端末12Aが位置する地球上の現在位置(場所)を検出して信号を出力する。スピーカ35は、制御部28により制御され、かつ、管理サーバ11から提供される感情情報及び補助情報に含まれる音声等を出力できる。そして、利用者端末12から管理サーバ11へ情報及び要求を送信する場合、端末情報及び利用者情報に紐付けて送信される。なお、利用者端末12Bは、利用者端末12Aと同様に構成されているが、利用者端末12Bは、カメラ31及びスピーカ35を有していなくてもよい。
(制御例1)
感情情報管理システム10で行われる制御例1、つまり、感情情報管理方法の一例が、図4に示されている。対象者情報検出装置13は、ステップS10において対象者情報を送信する。対象者情報検出装置13のうち、カメラ16から送信される対象者情報としての映像情報は、ゲートウェイ14及びネットワーク15を介して管理サーバ11へ送信される。また、対象者情報検出装置13のうち、カメラ31及び腕時計型センサ17で取得された対象者情報は、利用者端末12及びネットワーク15を介して管理サーバ11へ送信される。
一方、利用者端末12は、ステップS20において、利用者情報及び端末情報を管理サーバ11へ送信する。管理サーバ11は、利用者端末12から送信される利用者情報及び端末情報をステップS30において取得し、取得した利用者情報及び端末情報をステップS31で処理し、かつ、処理結果を記憶部19へ記憶する。
また、管理サーバ11は、ステップS10で対象者情報検出装置13から送信された対象者情報を、ステップS32において取得する。管理サーバ11は、ステップS32において、時々刻々、対象者情報を取得している。さらに、管理サーバ11は、ステップS33において、対象者情報に含まれる映像情報及び生体情報を処理及び分析することにより、感情情報を生成する。さらに、管理サーバ11は、ステップS33において、感情情報に付加する補助情報を生成する。補助情報は、顔・頭の揺れ(ユーザに提供する場合の補助情報の場合、文字、表、グラフ、映像)等の情報を含む。そして、管理サーバ11は、生成した感情情報及び補助情報をステップS33において、記憶部19へ記憶及び蓄積する。
利用者端末12は、ステップS21において、管理サーバ11へ感情情報及び補助情報を要求する。管理サーバ11は、利用者端末12から送信される要求を、ステップS34において受け付ける。要求を受け付けた管理サーバ11は、ステップS35において、感情情報及び補助情報を利用者端末12へ提供、つまり、送信する。利用者端末12は、ステップS22において、管理サーバ11から感情情報及び補助情報を取得する。
なお、ステップS10、ステップS32、ステップS33の処理は、ステップS20、ステップS30、ステップS31の処理より前に行われてもよい。また、ステップS10、ステップS32、ステップS33の処理と、ステップS20、ステップS30、ステップS31の処理とが、並行して行われてもよい。さらに、管理サーバ11は、ステップS33の処理を行った後、ステップS34をスキップしてステップS35の処理を行ってもよい。つまり、管理サーバ11は、ステップS21の有無に関わりなく、ステップS35を実行できる。
(感情情報を生成する環境)
感情情報管理システム10が、対象者情報を取得し、かつ、生成した感情情報及び補助情報を利用者端末12へ提供する環境として、次のようなものが含まれる。
(1)車両(自動車)関連
管理サーバ11は、車両の室内に設けられるカメラ16から得られる映像情報を処理することにより、感情情報を生成して利用者端末12Bへ送信する。また、管理サーバ11は、車両の室内に置かれている利用者端末12Aから得られる情報を処理することにより、感情情報を生成して利用者端末12Bへ送信することもできる。カメラ16は、車両の室内に設けられており、利用者は、利用者端末12Aを所持して車両の室内に居る。この環境において、感情情報に眠気、酔い、心拍停止等が含まれる場合、補助情報は、スピーカ35から車両の運転者へ注意を喚起する音声として出力される。
感情情報に、集中、退屈、眠気、恐怖等が含まれる場合、補助情報は、安全運転評価として生成される。感情情報に、快適及び不快等が含まれる場合、補助情報は、車両の乗り心地の評価、室内空間の評価、車両開発に利用できる情報として生成される。感情情報に、乗り物酔い(動揺病)が含まれる場合、補助情報は、車両に搭載されている各種装置の制御情報として生成される。車両の制御情報は、エンジンの制御、変速機の制御、空調装置、制動装置の制御等である。
(2)実店舗関連
管理サーバ11は、実店舗に設けられるカメラ16から得られる映像情報を処理することにより、感情情報を生成して利用者端末12Bへ送信する。カメラ16は、実店舗の商品売り場、例えば、商品棚、天井、壁等に複数設けられている。カメラ16は、実店舗へ来た対象者(商品の購入予定者)の映像を撮影する。また、カメラ16が撮影する映像情報に付加される付帯情報には、実店舗における売り場の位置、具体的な商品名等が含まれる。利用者端末12Bは、例えば、実店舗の社員(店員・利用者)により利用される。利用者端末12Bで取得する感情情報が、関心、興味等を含んでいると、社員は、対象者が商品を購入することにつながるような説明、対象者への声掛けタイミング及び声掛け方法等を判断できる。また、管理サーバ11から利用者端末12Bへ、対象者が商品を購入することにつながるような説明、対象者への声掛けタイミング及び声掛け方法等を、レコメンドすることもできる。
管理サーバ11から利用者端末12Bへ送信される感情情報が、関心または興味を示すか、混乱または疑問を示すかにより、実店舗の社員は、商品またはサービスの評価を行うことができる。また、管理サーバ11から利用者端末12Bへ、商品またはサービスの評価を向上させるようなレコメンドを行うこともできる。
管理サーバ11から利用者端末12Bへ送信される感情情報が、退屈、関心、興味、驚き、快、不快等を含んでいると、実店舗の社員は、実店舗における商品のレイアウト、ディスプレイ棚等を評価することができる。また、管理サーバ11から利用者端末12Bへ、対象者の購買意欲が増すように、実店舗における商品のレイアウト、ディスプレイ棚等をレコメンドすることもできる。管理サーバ11から利用者端末12Bへ送信される感情情報が、関心、興味、驚き等を含んでいると、実店舗の社員は、対象者による新しい好みの商品またはサービスを発見できる。
(3)オフィス
管理サーバ11は、会社内に設けられるカメラ16から取得する映像情報、会社内及び会社外において利用される利用者端末12Aから取得する情報を処理することにより、感情情報を生成して利用者端末12Bへ送信できる。
管理サーバ11が取得する感情情報が、眠気または退屈等を含んでいると、管理サーバから利用者端末12Bへ、社員の業務改善または動機付けにつながるような、エンゲージメント・タイミングをレコメンドすることができる。また、管理サーバから利用者端末12Bへ、仕事環境の最適化・改善を提案することもできる。例えば、社員のストレス軽減、社員同士のコミュニケーションが促進されやすいチーム編成、個別の生産性向上につながる提案を行うことができる。さらに、管理サーバから利用者端末12Bへ、社員の休憩をレコメンドすることができる。
さらに、管理サーバ11が、1日の間における感情の変化状況を取得すると、利用者端末12Bへ、社員の1日の間における仕事リズムをレコメンドすることができる。また、会社の社員は、1日の間における仕事リズムを自己認知することができる。さらに、管理サーバ11から利用者端末12Bへ、ワーク・エンゲージメント・レポートを提供することができる。
(4)教育
管理サーバ11は、教育機関に設けられるカメラ16から取得する映像情報、教育機関の生徒が利用する利用者端末12Aから取得する情報を処理することにより、感情情報を生成して、教育機関の管理者が利用する利用者端末12Bへ送信できる。教育機関は、大学、高等学校、中学校、小学校、学習塾等を含む。管理サーバ11から利用者端末12Bへ、生徒のストレス可視化、ストレス可視化による生徒の心のケア手段を提案できる。管理サーバ11が教室全体における生徒の理解度、生徒の集中度、生徒の興味及び関心等の感情情報を取得すると、管理サーバ11から利用者端末12Bへ、教育カリキュラムを改善または指導する提案を行うことができる。
管理サーバ11が、生徒の理解度、生徒の集中度、生徒の眠気等の感情情報を、覚醒と毎に個別に取得すると、管理サーバ11から利用者端末12Bへ、生徒毎に、エンゲージメント向上のレコメンドを行うことができる。管理サーバ11が各種の感情情報を取得すると、管理サーバ11から利用者端末12Bへ、感情統計を提案することができる。さらに、管理サーバ11が、生徒の恐怖、生徒の継続的なストレス等の感情情報を取得すると、管理サーバ11から利用者端末12Bへ、いじめ早期発見の提案を行うことができる。
(5)観光・ホテル
管理サーバ11が、観光地を訪れた対象者の感情情報を取得すると、管理サーバ11から利用者端末12Bへ、感情ヒートマップによる観光資産の有効活用を提案できる。管理サーバ11が、観光地またはホテルに居る対象者の関心、興味、空腹等の感情情報を取得すると、感情を満たす目的地(行き先)の情報、目的地までの経路等を、利用者端末12Aへレコメンドできる。
管理サーバ11が、観光地またはホテルに居る対象者の各種の感情情報を取得すると、管理サーバ11から利用者端末12A,12Bへ、感情情報と観光地とを対応させた感情旅行マップを、提案することができる。また、管理サーバ11が各種の感情情報を取得すると、管理サーバ11から利用者端末12Bへ、旅行社及び観光地向けの新商品開発指標を提案することができる。さらに、管理サーバ11から利用者端末12Bへ、旅行社及び観光地向けとして、リピーター獲得のためのサービス向上提案、寛げる空間判定等を行うことができる。
(6)仮想空間
対象者は、利用者端末12Aをネットワーク15に接続することにより、利用者端末12Bが提供する仮想空間を表示部30で閲覧し、かつ、操作部29を操作できる。管理サーバ11は、利用者端末12Aから得られる情報を処理することにより、感情情報を生成して利用者端末12Bへ送信する。例えば、対象者は、利用者端末12Aをネットワーク15に接続し、かつ、仮想空間にある仮想店舗で商品及びサービスを表示部30で閲覧できる。対象者と仮想店舗との提供者との間で、電子商取引(EC:Electronic Commerce)が行われる。商品及びサービスは、各種物品の販売、旅行案内、ホテルの予約等を含む。
カメラ31は、対象者が表示部30を閲覧している環境で対象者の映像を撮影する。また、腕時計型センサ17により対象者の生体情報が検出される。そして、カメラ31で撮影された映像及び付帯情報、腕時計型センサ17で検出された生体情報は、利用者端末12Aから管理サーバ11へ送られる。利用者端末12Bが取得する対象者の感情情報が、関心または興味を含んでいると、利用者端末12Bは、対象者による商品またはサービスの購入につながる割引クーポンの提案、送料無料の提案等の処理を行うことができる。
管理サーバ11から利用者端末12Bへ送信される感情情報が、関心または興味を示すか、混乱または疑問を示すかにより、仮想店舗の社員は、商品またはサービスの評価を行うことができる。また、管理サーバ11から利用者端末12Bへ、商品またはサービスの評価を向上させるようなレコメンドを行うこともできる。管理サーバ11から利用者端末12Bへ送信される感情情報が、関心、興味、驚き等を含んでいると、仮想舗の社員は、対象者による新しい好みの商品またはサービスを発見できる。
(7)健康管理
管理サーバ11は、介護または遠隔医療現場における対象者、例えば、お年寄り、要介護者、患者等の感情情報を取得する。対象者の家族、対象者を介護する利用者、患者を診療・治療する医師、看護師等が利用者端末12Bを利用する。管理サーバ11から利用者端末12Bへ、対象者に対するメンタルケア、対象者に対するコミュニケーションの促進、対象者の生活リズムの管理、対象者のニーズ汲み取りによるケア促進等を提案できる。管理サーバ11から利用者端末12A,12Bへ、対象者の自活を誘導する提案を行うことができる。管理サーバ11から利用者端末12A,12Bへ、対象者の自活を誘導する提案を行うことができる。また、管理サーバ11から利用者端末12Bへ、対象者の異常を知らせる提案を行うことができる。さらに、管理サーバ11から利用者端末12Bへ、自閉症患者の感情認識をサポートする提案を行うことができる。
(8)メディア/ゲーム
対象者は、テレビジョン番組の視聴、ネットワーク15上のウェブサイトの閲覧、ゲームに興じる等のうち、少なくとも1つの行為を行う。テレビジョン番組、ネットワーク15上のウェブサイト、ゲームは、サービスの提供者により制作されている。管理サーバ11は、対象者の感情情報を取得することにより、対象者が、テレビジョンの番組、ウェブサイトのコンテンツ、ゲームのコンテンツまたは作品等に関心を示しているか否かを検証し、検証結果を、サービスの提供者(利用者)が使用する利用者端末12Bへ提案できる。また、管理サーバ11から利用者端末12Bへ、対象者の感情(心理)状態に基づくレコメンドを行える。さらに、管理サーバ11から利用者端末12Bへ、対象者の感情(心理)状態に基づくゲームシナリオ、イベントコンテンツ等のレコメンドを行える。
(9)広告/消費財/検索エンジン
ネットワーク15上のウェブサイトには、各種の広告が掲載されている。また、ネットワーク15上の仮想店舗において、消費財が販売されている。検索エンジンは、ネットワーク15に提供されているウェブサイトから、所定のキーワードに関連性の高いウェブサイトを検索し、かつ、一覧表示してくれるシステムである。管理サーバ11は、利用者端末12Aから、広告を閲覧した対象者(消費者)の感情情報、仮店舗の消費財を見た対象者の感情情報を取得できる。管理サーバ11は、ウェブサイトの提供者が消費者に抱いてもらいたい感情を、対象者に誘発されたか否かを判断できる。つまり、広告のプロモーション効果を判定できる。管理サーバ11は、利用者端末12Bに対し、広告のプロモーション効果の判定結果に応じてより的確な広告レコメンドを行える。
管理サーバ11は、利用者端末12Aから、検索エンジンを利用してウェブサイトを検索した対象者の感情情報を取得できる。管理サーバ11は、利用者端末12Bに対し、対象者が満足するようなウェブサイトの検索結果を得られたか否かを判定できる。管理サーバ11は、利用者端末12Bに対し、ウェブサイトの検索結果の感情に応じたレコメンドを行える。
(10)金融/保険
金融機関が、対象者へ資金を貸与する(融資)場合、または、対象者が株式を新規上場(IPO:Initial Public Offering)する場合、等において、管理サーバ11は、対象者の利用者端末12Aから感情情報を取得できる。管理サーバ11は、経営者の嘘、虚偽判定等を行い、判定結果に応じた提案を、金融機関が利用する利用者端末12Bに対して行える。管理サーバ11は、保険に加入している対象者の利用者端末12Aから感情情報を取得できる。管理サーバ11は、対象者の利用者端末12Aに対して、メンタル管理によるストレス軽減、うつ病の予防に役立つ提案を行うことができる。
(11)その他
管理サーバ11は、カジノに設置されているカメラ16の映像情報を処理して、カジノの対象者(顧客)の感情情報を生成できる。そして、管理サーバ11は、興奮、退屈等の感情情報を生成すると、ディーラー側の勝敗加減を調整するように、カジノが利用する利用者端末12Bへ提案を行うことができる。これにより、カジノは、顧客のエンゲージメントを継続できる。管理サーバ11は、カメラ16の映像情報を処理して対象者の感情情報、例えば、眠気、バイオリズムの低下等を推定できる。管理サーバ11は、自宅の照明装置を消灯するように、対象者の利用者端末12Aへ提案できる。
(12)免許更新センター
管理サーバ11は、免許更新センターに設けられるカメラ16から取得する映像情報を処理することにより、講習会参加の対象者の感情情報を生成して、免許更新センターの管理者が利用する利用者端末12Bへ送信できる。管理サーバ11が講習会における対象者の理解度、対象者の集中度、対象者の興味及び関心等の感情情報を取得すると、管理サーバ11から利用者端末12Bへ、講習会カリキュラムを改善または対象者へ指導する提案を行うことができる。
(実施形態の効果)
本開示によれば、管理サーバ11は、対象者の感情分析結果に基づいて、対象者またはサービス・商品の提供者、企業、教育機関、メディア・エンターティンメント製作者、介護・医療関係者、金融・保険業界、Webサイト制作会社、免許更新センター等が抱える課題を解決・解消するきっかけとなる提案、レコメンドを行うことができる。
(制御例2)
感情情報管理システム10で行われる制御例2、つまり、感情情報管理方法の他の例が、図5に示されている。制御例2は、制御例1と併行して行われる。管理サーバ11は、ステップS40においてSNS環境をネットワーク15上に提供する。利用者端末12Aは、ステップS41において、SNS環境にアクセスする。すると、管理サーバ11は、ステップS42において、SNS環境の利用画面を利用者端末12Aへ提供する。利用者端末12Aは、ステップS43において、表示部30に利用画面を表示させる。利用者は、利用者端末12Aを操作して、表示部30の利用画面に表示される情報、例えば、他者の投稿、商品、ニュース等を閲覧できる。
また、利用者は、ステップS44において、利用者端末12Aの操作部29を操作し、所定のキーワードを含む情報を検索することができる。すると、管理サーバ11は、ステップS45において、検索結果を利用者端末12Aへ提供する。利用者端末12Aは、スイ46において管理サーバ11から検索結果を取得し、かつ、表示部30で検索結果を表示させる。
本実施形態では、利用者端末12AがSNS環境にアクセスしている間、利用者端末12Aを利用している利用者を対象者として、図4に示すステップS10の処理が行われる。また、管理サーバ11は、図4に示すステップS32及びステップS33の処理を行う。
そして、管理サーバ11は、ステップS45で検索結果を利用者端末12Aへ提供するにあたり、利用者端末12Aの利用者と同様の感情を持つ他の利用者から投稿された情報を、利用者端末12Aの利用者とは異なる感情を持つ利用者から投稿された情報より上位として検索結果を提供する。したがって、利用者端末12Aを操作して情報の検索を行った利用者は、同じような感情を持つ利用者とつながり易くなり、かつ、互いに共感し合うことがきる。
(画面例)
図6(A)には、制御例1に対応する画面の一例が示されている。利用者端末12Aの表示部30に、映像表示部50、感情表示部51、提案表示部52が表示されている。映像表示部50には対象者の映像が表示され、感情表示部51には感情の分析結果が表示され、提案表示部52は、提案及びレコメンドが表示される。感情は、例えば、百分率(%)で表示される。
図6(B)には、制御例2に対応する利用画面の一例が示されている。利用者端末12Aの表示部30に、検索項目表示部60、検索結果表示部61が表示されている。検索項目表示部60は、図5のステップS44で入力した検索項目が表示される。検索結果表示部61には、図5のステップS46で取得した検索結果が表示される。検索結果には、アカウント、検索された情報、投稿者の感情情報等が含まれる。検索結果表示部61に表示される複数の情報は、検索結果表示部61における表示位置が上方であるほど、優先度の高い上位の情報である。
(補足説明)
本実施形態で説明した事項の技術的意味の一例は、次の通りである。管理サーバ11は、感情情報管理装置の一例である。感情情報生成部25は、感情情報生成部の一例である。補助情報生成部26は、補助情報生成部の一例である。感情情報提供部27は、感情情報提供部の一例である。サービス提供部36は、サービス提供部の一例である。検索結果提供部37は、検索結果提供部の一例である。仮想店舗または実店舗を運営する会社・企業、商品またはサービスを提供する会社・企業等が、サービス提供者の一例である。
本実施形態は、図面を用いて開示されたものに限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。例えば、感情情報管理装置は、サーバ、ワークステーション、メインフレーム、スーパーコンピュータ等のうちの少なくとも1つにより構成可能である。また、各コンピュータは、複数のデバイス、システムなどにより構成されていてもよい。
感情情報生成部25は、感情情報生成手段として把握することも可能である。補助情報生成部26は、補助情報生成手段として把握することも可能である。感情情報提供部27は、感情情報提供手段として把握することも可能である。サービス提供部36は、サービス提供手段として把握することも可能である。検索結果提供部37は、検索結果提供手段として把握することも可能である。
本実施形態には、次のような感情情報管理方法も記載されている。例えば、ネットワークを介して対象者情報を取得する感情情報管理装置が実行する感情情報管理方法であって、前記対象者情報を処理して対象者の感情情報を生成する感情情報生成ステップと、生成された前記感情情報を利用する利用者の課題を解決するきっかけとなる補助情報を生成する補助情報生成ステップと、前記利用者が利用する利用者端末へ前記感情情報及び前記補助情報を提供する感情情報提供ステップと、を有する、感情情報管理方法が記載されている。図4に示すステップS33は、感情情報生成ステップ及び補助情報生成ステップに相当し、ステップS35は、感情情報提供ステップに相当する。
本開示は、対象者の感情情報を処理する感情情報管理装置及び感情情報管理アプリケーションとして利用可能である。
11…管理サーバ、21…感情情報管理アプリケーション、25…感情情報生成部、26…補助情報生成部、27…感情情報提供部、36…サービス提供部、37…検索結果提供部

Claims (4)

  1. ネットワーク又はエッジ処理を介して対象者情報を取得する感情情報管理装置であって、
    前記対象者情報を処理して対象者の感情情報を生成する感情情報生成部と、
    生成された前記感情情報を利用する利用者の課題を解決するきっかけとなる補助情報を生成する補助情報生成部と、
    前記利用者が利用する利用者端末へ前記感情情報及び前記補助情報を提供する感情情報提供部と、
    前記ネットワーク上で複数の前記利用者端末同士が相互に情報を共有できるソーシャルネットワークサービス環境を提供するサービス提供部と、
    前記対象者が前記利用者端末を操作して前記ソーシャルネットワークサービス環境で検索を行った場合に、検索を行った前記対象者と同様の感情情報をもつ利用者が使用する前記利用者端末から前記ネットワーク上に投稿された情報を、検索を行った前記対象者とは異なる感情情報をもつ利用者が使用する前記利用者端末から前記ネットワーク上に投稿された情報より上位とする検索結果を、検索が行われた前記利用者端末へ提供する検索結果提供部と、
    を有する、感情情報管理装置。
  2. 請求項1記載の感情情報管理装置において、
    前記対象者情報は、前記対象者の生体情報を含み、
    前記利用者端末を利用する利用者は、前記対象者であり、
    前記補助情報は、前記対象者の課題を解決するきっかけとなる情報である、感情情報管理装置。
  3. 請求項1記載の感情情報管理装置において、
    前記利用者端末は、前記対象者へサービスを提供するサービス提供者が使用するものを含み、
    前記補助情報は、前記対象者へサービスを提供する前記サービス提供者における課題を解決するきっかけとなる情報である、感情情報管理装置。
  4. ネットワーク又はエッジ処理を介して対象者情報を取得する感情情報管理装置を、
    前記対象者情報を処理して対象者の感情情報を生成する感情情報生成部、
    生成された前記感情情報を利用する利用者の課題を解決するきっかけとなる補助情報を生成する補助情報生成部、
    前記利用者が利用する利用者端末へ前記感情情報及び前記補助情報を提供する感情情報提供部、
    前記ネットワーク上で複数の前記利用者端末同士が相互に情報を共有できるソーシャルネットワークサービス環境を提供するサービス提供部、
    前記対象者が前記利用者端末を操作して前記ソーシャルネットワークサービス環境で検索を行った場合に、検索を行った前記対象者と同様の感情情報をもつ利用者が使用する前記利用者端末から前記ネットワーク上に投稿された情報を、検索を行った前記対象者とは異なる感情情報をもつ利用者が使用する前記利用者端末から前記ネットワーク上に投稿された情報より上位とする検索結果を、検索が行われた前記利用者端末へ提供する検索結果提供部、
    として機能させる、感情情報管理アプリケーション。
JP2022210137A 2022-12-27 2022-12-27 感情情報管理装置及び感情情報管理アプリケーション Active JP7253860B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022210137A JP7253860B1 (ja) 2022-12-27 2022-12-27 感情情報管理装置及び感情情報管理アプリケーション

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022210137A JP7253860B1 (ja) 2022-12-27 2022-12-27 感情情報管理装置及び感情情報管理アプリケーション

Publications (1)

Publication Number Publication Date
JP7253860B1 true JP7253860B1 (ja) 2023-04-07

Family

ID=85795590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022210137A Active JP7253860B1 (ja) 2022-12-27 2022-12-27 感情情報管理装置及び感情情報管理アプリケーション

Country Status (1)

Country Link
JP (1) JP7253860B1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020184243A (ja) * 2019-05-09 2020-11-12 株式会社Empath 営業支援装置、営業支援方法、営業支援プログラム
JP2021189573A (ja) * 2020-05-27 2021-12-13 パナソニックIpマネジメント株式会社 情報処理システム、及び、情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020184243A (ja) * 2019-05-09 2020-11-12 株式会社Empath 営業支援装置、営業支援方法、営業支援プログラム
JP2021189573A (ja) * 2020-05-27 2021-12-13 パナソニックIpマネジメント株式会社 情報処理システム、及び、情報処理方法

Similar Documents

Publication Publication Date Title
Lalmas et al. Measuring user engagement
Croes et al. Social attraction in video-mediated communication: The role of nonverbal affiliative behavior
Garrison et al. Embodying power: A preregistered replication and extension of the power pose effect
Rebelo et al. Using virtual reality to assess user experience
Riva et al. Affective interactions using virtual reality: the link between presence and emotions
Lazar et al. A systematic review of the use of technology for reminiscence therapy
Loveys et al. The effect of design features on relationship quality with embodied conversational agents: a systematic review
US20220392625A1 (en) Method and system for an interface to provide activity recommendations
Ackerman et al. You wear me out: The vicarious depletion of self-control
US8065240B2 (en) Computational user-health testing responsive to a user interaction with advertiser-configured content
Bailenson et al. Digital chameleons: Automatic assimilation of nonverbal gestures in immersive virtual environments
Bernieri et al. Interactional synchrony and rapport: Measuring synchrony in displays devoid of sound and facial affect
Lakin et al. Using nonconscious behavioral mimicry to create affiliation and rapport
Batson et al. Empathy, attitudes, and action: Can feeling for a member of a stigmatized group motivate one to help the group?
Stevens et al. Implementing a clinically based fall prevention program
US20090112621A1 (en) Computational user-health testing responsive to a user interaction with advertiser-configured content
US20090112616A1 (en) Polling for interest in computational user-health test output
Mays et al. Treating addiction with tunes: A systematic review of music therapy for the treatment of patients with addictions
US20090112620A1 (en) Polling for interest in computational user-health test output
Herrera et al. Virtual reality perspective-taking at scale: Effect of avatar representation, choice, and head movement on prosocial behaviors
Sels et al. Actual and perceived emotional similarity in couples’ daily lives
US20180254103A1 (en) Computational User-Health Testing Responsive To A User Interaction With Advertiser-Configured Content
Miralles et al. Enhancing in vivo exposure in the treatment of panic disorder and agoraphobia using location-based technologies: A case study
Wennekers et al. First see, then nod: The role of temporal contiguity in embodied evaluative conditioning of social attitudes
Loveys et al. The impact of virtual humans on psychosomatic medicine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230208

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7253860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150