JP2019162207A - 情報処理装置及び情報処理プログラム - Google Patents
情報処理装置及び情報処理プログラム Download PDFInfo
- Publication number
- JP2019162207A JP2019162207A JP2018050719A JP2018050719A JP2019162207A JP 2019162207 A JP2019162207 A JP 2019162207A JP 2018050719 A JP2018050719 A JP 2018050719A JP 2018050719 A JP2018050719 A JP 2018050719A JP 2019162207 A JP2019162207 A JP 2019162207A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- estimation
- detection period
- information processing
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【課題】対象者の感情を推測するのに用いる物理量の検出期間を設定するのに、推測結果を用いて検出期間を設定することができる情報処理装置を提供する。【解決手段】情報処理装置の検出手段は、対象者における物理量を検出し、設定手段は、前記検出手段毎に、推測に用いる物理量の検出期間を設定し、推測手段は、前記設定手段によって設定された検出期間における複数の前記検出手段が検出した物理量に応じて、前記対象者の感情を推測し、前記設定手段は、前記推測手段による推測結果に基づいて、次回の推測のために用いる検出期間を設定する。【選択図】図1
Description
本発明は、情報処理装置及び情報処理プログラムに関する。
特許文献1には、ライフログ情報に対応する使用者の心的状態を知ることができる生体情報処理システム、サーバーシステム、生体情報処理装置、生体情報処理方法及びプログラムを提供することを課題とし、生体情報処理システムは、生体センサーで測定された生体情報を取得する生体情報取得部と、生体情報に基づいて、ユーザーの心的状態情報の推定処理を行う処理部と、ライフログ情報を記憶する記憶部と、を含み、処理部は、生体情報に基づいて推定された心的状態情報を、インデックスとしてライフログ情報に付与し、記憶部は、心的状態情報がインデックスとして付与されたライフログ情報を記憶することが開示されている。
特許文献2には、ユーザが必要とする情報を容易に取出すことができるライフログ記録装置を提供することを課題とし、ユーザの移動経路情報、運動状態情報、生命状況情報、及び移動中の周囲環境情報の中の少なくとも1つを記録するライフログ記録装置において、前記移動経路情報、前記運動状態情報、前記生命状況情報、及び前記周囲環境情報の中の少なくとも1つを検出する検出部と、前記検出部により検出された各種情報を記憶する記憶部と、前記検出部により検出された各種情報に基づいて特異な状況を判別する特異状況判別部と、前記特異状況判別部により特異な状況であると判別された場合に、前記記憶部において記憶されている前記各種情報に対して重要度に関する情報を付加する重要度付加部とを備えることが開示されている。
人間の感情を推測するのに、複数のセンサーを用いて対象者における物理量を検出することが行われている。しかし、センサー毎に、推測に用いるのに適した物理量の検出期間が異なる。そして、その検出期間を設定することは困難である。
本発明は、対象者の感情を推測するのに用いる物理量の検出期間を設定するのに、推測結果を用いて検出期間を設定することができる情報処理装置及び情報処理プログラムを提供することを目的としている。
本発明は、対象者の感情を推測するのに用いる物理量の検出期間を設定するのに、推測結果を用いて検出期間を設定することができる情報処理装置及び情報処理プログラムを提供することを目的としている。
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、対象者における物理量を検出する複数の検出手段と、前記検出手段毎に、推測に用いる物理量の検出期間を設定する設定手段と、前記設定手段によって設定された検出期間における複数の前記検出手段が検出した物理量に応じて、前記対象者の感情を推測する推測手段を有し、前記設定手段は、前記推測手段による推測結果に基づいて、次回の推測のために用いる検出期間を設定する、情報処理装置である。
請求項1の発明は、対象者における物理量を検出する複数の検出手段と、前記検出手段毎に、推測に用いる物理量の検出期間を設定する設定手段と、前記設定手段によって設定された検出期間における複数の前記検出手段が検出した物理量に応じて、前記対象者の感情を推測する推測手段を有し、前記設定手段は、前記推測手段による推測結果に基づいて、次回の推測のために用いる検出期間を設定する、情報処理装置である。
請求項2の発明は、前記検出手段は、複数の種類があり、前記設定手段は、前記検出手段の種類毎に前記検出期間を設定する、請求項1に記載の情報処理装置である。
請求項3の発明は、前記設定手段は、全ての前記検出手段による最長の検出期間を設定した後に、該検出手段の種類毎に前記検出期間を設定する、請求項2に記載の情報処理装置である。
請求項4の発明は、前記設定手段は、前記検出期間を定めるフィルターを用い、前記フィルターは、閾値によって検出期間を定める、請求項2に記載の情報処理装置である。
請求項5の発明は、前記フィルターの形は、過去の物理量に基づき、動的に生成する、請求項4に記載の情報処理装置である。
請求項6の発明は、前記フィルターは、累積ガウス分布を用い、前記設定手段は、前記推測結果と推測に用いた物理量を用いて、ガウス分布の平均、分散を決定することによって、累積ガウス分布である前記フィルターを生成し、前記閾値より大きい又は以上である検出期間を設定する、請求項5に記載の情報処理装置である。
請求項7の発明は、前記設定手段は、前記推測結果と前記対象者の状況に応じて、前記検出期間を設定する、請求項1に記載の情報処理装置である。
請求項8の発明は、前記対象者の位置又は予定に応じて、該対象者の状況を検知する検知手段をさらに有し、前記推測手段は、前記検知手段によって検知された前記対象者の状況を用いて、該対象者の感情を推測する、請求項7に記載の情報処理装置である。
請求項9の発明は、前記推測手段は、機械学習によって生成されたモデルを用いて推測を行う、請求項1に記載の情報処理装置である。
請求項10の発明は、コンピュータを、対象者における物理量を検出する複数の検出手段と、前記検出手段毎に、推測に用いる物理量の検出期間を設定する設定手段と、前記設定手段によって設定された検出期間における複数の前記検出手段が検出した物理量に応じて、前記対象者の感情を推測する推測手段として機能させ、前記設定手段は、前記推測手段による推測結果に基づいて、次回の推測のために用いる検出期間を設定する、情報処理プログラムである。
請求項1の情報処理装置によれば、対象者の感情を推測するのに用いる物理量の検出期間を設定するのに、推測結果を用いて検出期間を設定することができる。
請求項2の情報処理装置によれば、検出手段の種類毎に検出期間を設定することができる。
請求項3の情報処理装置によれば、全ての検出手段による最長の検出期間を設定した後に、検出手段の種類毎に検出期間を設定することができる。
請求項4の情報処理装置によれば、検出期間を定めるフィルターを用い、フィルターは、閾値によって検出期間を定めることができる。
請求項5の情報処理装置によれば、フィルターの形は、過去の物理量(センシングデータ)に基づき、動的に生成する。
請求項6の情報処理装置によれば、累積ガウス分布であるフィルターを用いて、閾値より大きい又は以上である検出期間を設定することができる。
請求項7の情報処理装置によれば、推測結果と対象者の状況に応じて、検出期間を設定することができる。
請求項8の情報処理装置によれば、対象者の位置又は予定に応じて、その対象者の状況を検知することができる。
請求項9の情報処理装置によれば、機械学習によって生成されたモデルを用いて推測を行うことができる。
請求項10の情報処理プログラムによれば、対象者の感情を推測するのに用いる物理量の検出期間を設定するのに、推測結果を用いて検出期間を設定することができる。
以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するという意味である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係、ログイン等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態にしたがって、又はそれまでの状況・状態にしたがって定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。また、「A、B、C」等のように事物を列挙した場合は、断りがない限り例示列挙であり、その1つのみを選んでいる場合(例えば、Aのみ)を含む。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスク、RAM(Random Access Memory)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unit)内のレジスタ等を含んでいてもよい。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するという意味である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係、ログイン等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態にしたがって、又はそれまでの状況・状態にしたがって定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。また、「A、B、C」等のように事物を列挙した場合は、断りがない限り例示列挙であり、その1つのみを選んでいる場合(例えば、Aのみ)を含む。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスク、RAM(Random Access Memory)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unit)内のレジスタ等を含んでいてもよい。
本実施の形態である情報処理装置100は、人間の感情を推測するものであって、図1の例に示すように、受付モジュール115、設定モジュール120、ユーザー状況検知モジュール125、推測モジュール130を有している。対象者190の感情を推測するのに、複数のセンサー(センサーデバイスともいわれる)を用いて対象者190における物理量(センシングデータともいわれる)を検出している。
センシング対象の人物の感情は、センシングデータの発生要因である(発生要因と想定している)。感情の推測は、センシングしたデータを時系列データとして分析処理して行う。そのためセンシングの期間(検出期間、具体的には、フレーム数)を定める必要がある。
しかし、最適な期間を設定することが困難である。それは以下の理由による。
(1)推測に最適なフレーム数は、モーダル毎に異なる。
人の感情が変化するとき、顔の表情、声、体温それぞれで反応の仕方(速度)は異なる。
(2)シーンが異なると、同一人物、同一モーダルであっても、推測に最適なフレーム数は異なる。
本実施の形態は、モーダル毎に、そのモーダルに適した検出期間を調節している。
例えば、入力のフレームセットにフィルター([0,1]の値)をかけ、感情の推測に必要となるフレームを制御する。
そのフィルターの形を、過去(数分前、数秒前等)のセンシングデータに基づき、動的に生成する。
この生成は、モーダル別に行う。
しかし、最適な期間を設定することが困難である。それは以下の理由による。
(1)推測に最適なフレーム数は、モーダル毎に異なる。
人の感情が変化するとき、顔の表情、声、体温それぞれで反応の仕方(速度)は異なる。
(2)シーンが異なると、同一人物、同一モーダルであっても、推測に最適なフレーム数は異なる。
本実施の形態は、モーダル毎に、そのモーダルに適した検出期間を調節している。
例えば、入力のフレームセットにフィルター([0,1]の値)をかけ、感情の推測に必要となるフレームを制御する。
そのフィルターの形を、過去(数分前、数秒前等)のセンシングデータに基づき、動的に生成する。
この生成は、モーダル別に行う。
対象者190における物理量の検出装置は、複数の種類があり、例えば、カメラ105、センサー107がある。例えば、検出装置は、いわゆるマルチモーダル(multimodal、マルチモーダルインタフェースともいわれる)といわれるセンサーが該当する。検出装置は、複数の機能を有する1つのセンサーであってもよいし、複数種類のセンサーが組み合わされたものであってもよい。
カメラ105は、情報処理装置100内の受付モジュール115の検出結果受付モジュール110Aと接続されている。カメラ105は、対象者190を撮影する。
センサー107(センサー107−1、センサー107−2等)は、情報処理装置100内の受付モジュール115の検出結果受付モジュール110Bと接続されている。センサー107は、対象者190の物理量を検出する。センサー107として、例えば、マイク、加速度センサー、温度センサー、血圧計、脈拍計等がある。また、対象者190の操作を受け付けるマウス、キーボード、タッチパネル等を含めてもよい。センサー107は、対象者190が所持していてもよいし、ウェアラブルセンサーであってもよい。
具体的には、顔の特徴点のトラッキングに特化したカメラ、表面温度センサー、マイク等の複数種類のセンサーを用いて、ある人物一人(対象者190)を対象としたヒューマンセンシングを行ってもよい。この文脈において、顔の特徴点、表面温度、音声データ等のそれぞれをモーダル(物理量)と呼び、また、各センサーとモーダルは、1対1対応していてもよい。
カメラ105は、情報処理装置100内の受付モジュール115の検出結果受付モジュール110Aと接続されている。カメラ105は、対象者190を撮影する。
センサー107(センサー107−1、センサー107−2等)は、情報処理装置100内の受付モジュール115の検出結果受付モジュール110Bと接続されている。センサー107は、対象者190の物理量を検出する。センサー107として、例えば、マイク、加速度センサー、温度センサー、血圧計、脈拍計等がある。また、対象者190の操作を受け付けるマウス、キーボード、タッチパネル等を含めてもよい。センサー107は、対象者190が所持していてもよいし、ウェアラブルセンサーであってもよい。
具体的には、顔の特徴点のトラッキングに特化したカメラ、表面温度センサー、マイク等の複数種類のセンサーを用いて、ある人物一人(対象者190)を対象としたヒューマンセンシングを行ってもよい。この文脈において、顔の特徴点、表面温度、音声データ等のそれぞれをモーダル(物理量)と呼び、また、各センサーとモーダルは、1対1対応していてもよい。
受付モジュール115は、検出結果受付モジュール110A、検出結果受付モジュール110B、検出結果受付モジュール110C等を有しており、設定モジュール120、推測モジュール130と接続されている。受付モジュール115は、検出装置の検出結果を受け取る。例えば、受付モジュール115と検出装置との間で通信回線を介した通信を行って、検出結果を受け取るようにしてもよい。この通信回線は、無線、有線、これらの組み合わせであってもよい。また、検出装置の検出結果を記憶した記憶媒体(USBメモリ等)から、検出結果を読み出してもよい。
検出結果受付モジュール110(検出結果受付モジュール110A、検出結果受付モジュール110B、検出結果受付モジュール110C等)は、カメラ105又はセンサー107と接続されている。検出結果受付モジュール110は、カメラ105又はセンサー107が検出した対象者190における物理量を取得する。
例えば、検出結果受付モジュール110Aは、カメラ105から画像を取得する。また、検出装置であるマイクから音声データを取得する。
また、検出結果受付モジュール110は、検出装置から取得したデータを分析して特徴データ(モーダル)としてもよい。
検出結果受付モジュール110(検出結果受付モジュール110A、検出結果受付モジュール110B、検出結果受付モジュール110C等)は、カメラ105又はセンサー107と接続されている。検出結果受付モジュール110は、カメラ105又はセンサー107が検出した対象者190における物理量を取得する。
例えば、検出結果受付モジュール110Aは、カメラ105から画像を取得する。また、検出装置であるマイクから音声データを取得する。
また、検出結果受付モジュール110は、検出装置から取得したデータを分析して特徴データ(モーダル)としてもよい。
設定モジュール120は、受付モジュール115、推測モジュール130と接続されている。設定モジュール120は、検出装置毎に、推測に用いる物理量の検出期間を設定する。
そして、設定モジュール120は、推測モジュール130による推測結果に基づいて、次回の推測のために用いる検出期間を設定する。
また、設定モジュール120は、検出装置の種類毎に検出期間を設定するようにしてもよい。
そして、設定モジュール120は、全ての検出装置による最長の検出期間を設定した後に、その検出装置の種類毎に検出期間を設定するようにしてもよい。具体的には、(1)全てのモーダルで共通して使う、最長の検出期間を設定する、(2)モーダル毎にフィルターをかける、という処理を行う。
また、設定モジュール120は、検出期間を定めるフィルターを用いてもよい。そして、そのフィルターは、閾値によって検出期間を定めるものであってもよい。
また、そのフィルターの形は、過去の物理量に基づき、動的に生成するようにしてもよい。ここで「過去」として、例えば、数分又は数秒前等がある。
そして、設定モジュール120は、推測モジュール130による推測結果に基づいて、次回の推測のために用いる検出期間を設定する。
また、設定モジュール120は、検出装置の種類毎に検出期間を設定するようにしてもよい。
そして、設定モジュール120は、全ての検出装置による最長の検出期間を設定した後に、その検出装置の種類毎に検出期間を設定するようにしてもよい。具体的には、(1)全てのモーダルで共通して使う、最長の検出期間を設定する、(2)モーダル毎にフィルターをかける、という処理を行う。
また、設定モジュール120は、検出期間を定めるフィルターを用いてもよい。そして、そのフィルターは、閾値によって検出期間を定めるものであってもよい。
また、そのフィルターの形は、過去の物理量に基づき、動的に生成するようにしてもよい。ここで「過去」として、例えば、数分又は数秒前等がある。
また、フィルターとして、累積ガウス分布を用い、設定モジュール120は、推測結果と推測に用いた物理量を用いて、ガウス分布の平均、分散を決定することによって、累積ガウス分布であるフィルターを生成し、閾値より大きい又は以上である検出期間を設定するようにしてもよい。ここで「ガウス分布の平均」は、フィルターの時間軸上の位置を定めることになり、「ガウス分布の分散」は、フィルターの減衰勾配を定めることになる。
また、設定モジュール120は、推測結果と対象者190の状況に応じて、期間を設定するようにしてもよい。ここで「対象者の状況」として、例えば、プレゼンテーション、ブレインストーミング、デスクワーク等を含む。
また、設定モジュール120は、推測結果と対象者190の状況に応じて、期間を設定するようにしてもよい。ここで「対象者の状況」として、例えば、プレゼンテーション、ブレインストーミング、デスクワーク等を含む。
ユーザー状況検知モジュール125は、推測モジュール130と接続されている。ユーザー状況検知モジュール125は、対象者190の位置又は予定に応じて、その対象者190の状況(シーンを含む)を検知する。ここで「位置」として、例えば、緯度、経度、又は、部屋名等を用いてもよい。また、「状況」として、例えば、プレゼンテーション、ブレインストーミング、デスクワーク等のように、センシング対象の人物(対象者190)が行っていること又は関わっている環境等がある。
例えば、対象者190が有している携帯端末のGPSから位置情報を取得してもよいし、対象者190のスケジュール情報を取得して、現在の位置、現在の状況を特定してもよい。
例えば、対象者190が有している携帯端末のGPSから位置情報を取得してもよいし、対象者190のスケジュール情報を取得して、現在の位置、現在の状況を特定してもよい。
推測モジュール130は、受付モジュール115、設定モジュール120、ユーザー状況検知モジュール125と接続されている。推測モジュール130は、設定モジュール120によって設定された検出期間における複数の検出装置が検出した物理量に応じて、対象者190の感情を推測する。センシングデータから感情を推測する技術は、既存の技術を用いればよい。
また、推測モジュール130は、ユーザー状況検知モジュール125によって検知された対象者190の状況を用いて、その対象者190の感情を推測するようにしてもよい。ここで、「対象者の位置に応じて状況を検知する」として、例えば、会議室である場合は、プレゼンテーション、ブレインストーミング等であると検知し、居室である場合は、デスクワーク等であると検知してもよい。
また、「対象者の予定に応じて状況を検知する」として、例えば、対象者のスケジュールから、現在の時間は会議である場合、プレゼンテーション、ブレインストーミング等であると検知し、現在の時間においては予定が記載されていない場合は、デスクワーク等であると検知してもよい。
また、推測モジュール130は、機械学習によって生成されたモデルを用いて推測を行うようにしてもよい。例えば、感情が分かっているときのカメラ105、センサー107の検出結果(物理量)の組み合わせを教師データとして機械学習を行い、モデルを生成すればよい。
また、推測モジュール130は、ユーザー状況検知モジュール125によって検知された対象者190の状況を用いて、その対象者190の感情を推測するようにしてもよい。ここで、「対象者の位置に応じて状況を検知する」として、例えば、会議室である場合は、プレゼンテーション、ブレインストーミング等であると検知し、居室である場合は、デスクワーク等であると検知してもよい。
また、「対象者の予定に応じて状況を検知する」として、例えば、対象者のスケジュールから、現在の時間は会議である場合、プレゼンテーション、ブレインストーミング等であると検知し、現在の時間においては予定が記載されていない場合は、デスクワーク等であると検知してもよい。
また、推測モジュール130は、機械学習によって生成されたモデルを用いて推測を行うようにしてもよい。例えば、感情が分かっているときのカメラ105、センサー107の検出結果(物理量)の組み合わせを教師データとして機械学習を行い、モデルを生成すればよい。
図2は、本実施の形態を利用したシステム構成例を示す説明図である。
ユーザー端末280、情報処理装置100A、情報処理装置100Bは、通信回線299を介してそれぞれ接続されている。通信回線299は、無線、有線、これらの組み合わせであってもよく、例えば、通信インフラとしてのインターネット、イントラネット等であってもよい。また、情報処理装置100による機能は、クラウドサービスとして実現してもよい。
会議室200A内には、情報処理装置100A、カメラ105Aが設置されており、対象者190A1、対象者190A2が在室している。対象者190A1には、センサー107A1−1、センサー107A1−2が取り付けられている。対象者190A2には、センサー107A2−1、センサー107A2−2が取り付けられている。情報処理装置100Aは、対象者190A1、対象者190A2の感情を推測して、その結果をユーザー端末280に送信する。
オフィス200B内には、情報処理装置100B、カメラ105Bが設置されており、対象者190B1、対象者190B2、対象者190B3が在室している。対象者190B1には、センサー107B1−1、センサー107B1−2が取り付けられている。対象者190B2には、センサー107B2−1、センサー107B2−2が取り付けられている。対象者190B3には、センサー107B3−1、センサー107B3−2が取り付けられている。情報処理装置100Bは、対象者190B1、対象者190B2、対象者190B3の感情を推測して、その結果をユーザー端末280に送信する。
ユーザー端末280は、情報処理装置100A、情報処理装置100Bからの感情の推測結果を受け付けて、表示装置等を用いて、ユーザー290に提示する。
ユーザー端末280、情報処理装置100A、情報処理装置100Bは、通信回線299を介してそれぞれ接続されている。通信回線299は、無線、有線、これらの組み合わせであってもよく、例えば、通信インフラとしてのインターネット、イントラネット等であってもよい。また、情報処理装置100による機能は、クラウドサービスとして実現してもよい。
会議室200A内には、情報処理装置100A、カメラ105Aが設置されており、対象者190A1、対象者190A2が在室している。対象者190A1には、センサー107A1−1、センサー107A1−2が取り付けられている。対象者190A2には、センサー107A2−1、センサー107A2−2が取り付けられている。情報処理装置100Aは、対象者190A1、対象者190A2の感情を推測して、その結果をユーザー端末280に送信する。
オフィス200B内には、情報処理装置100B、カメラ105Bが設置されており、対象者190B1、対象者190B2、対象者190B3が在室している。対象者190B1には、センサー107B1−1、センサー107B1−2が取り付けられている。対象者190B2には、センサー107B2−1、センサー107B2−2が取り付けられている。対象者190B3には、センサー107B3−1、センサー107B3−2が取り付けられている。情報処理装置100Bは、対象者190B1、対象者190B2、対象者190B3の感情を推測して、その結果をユーザー端末280に送信する。
ユーザー端末280は、情報処理装置100A、情報処理装置100Bからの感情の推測結果を受け付けて、表示装置等を用いて、ユーザー290に提示する。
図3は、本実施の形態による処理例を示すフローチャートである。
ステップS302では、受付モジュール115の検出結果受付モジュール110は、カメラ105、センサー107等から検出結果を受け付ける。例えば、検出データテーブル400を受け付ける。図4は、検出データテーブル400のデータ構造例を示す説明図である。検出データテーブル400は、センサーID欄410、日時欄420、検出データ欄430を有している。センサーID欄410は、本実施の形態において、検出装置(カメラ105、センサー107等)を一意に識別するための情報(センサーID:IDentification)を記憶している。日時欄420は、そのセンサーが検出した日時(年、月、日、時、分、秒、秒以下、又はこれらの組み合わせであってもよい)を記憶している。検出データ欄430は、そのセンサーによる検出データを記憶している。
ステップS302では、受付モジュール115の検出結果受付モジュール110は、カメラ105、センサー107等から検出結果を受け付ける。例えば、検出データテーブル400を受け付ける。図4は、検出データテーブル400のデータ構造例を示す説明図である。検出データテーブル400は、センサーID欄410、日時欄420、検出データ欄430を有している。センサーID欄410は、本実施の形態において、検出装置(カメラ105、センサー107等)を一意に識別するための情報(センサーID:IDentification)を記憶している。日時欄420は、そのセンサーが検出した日時(年、月、日、時、分、秒、秒以下、又はこれらの組み合わせであってもよい)を記憶している。検出データ欄430は、そのセンサーによる検出データを記憶している。
ステップS304では、設定モジュール120は、前回の推測結果を用いて、フィルターの設定を行う。
具体的には、次のような処理を行う。
全てのモーダル(検出装置)で共通して用いる、最長の検出期間を設定する。この最長の検出期間は、予め定められている。例えば、推測モジュール130内に、最長検出期間データ500が設定されている。
例えば、最長検出期間データ500に、30秒間を最長の検出期間として設定する。このことは、30秒間のセンシングデータを入力する都度に、感情を推測することを意味する。なお、推測する感情を潜在変数ともいう。
一般的に、センサー107−1とセンサー107−2ではセンシング周波数が異なるため、30秒間に対応する検出回数(具体的には、フレーム数)は異なる。図7の例を用いて説明する。図7は、本実施の形態による処理例を示す説明図である。フィルターとして、ステップ関数を用いたものである。
最長期間740が、最長検出期間データ500に設定されていた値である。センサー107−1(図ではModalA)では、最長期間740の間にモーダルセンシングデータA710を出力する。センサー107−2(図ではModalB)では、最長期間740の間にモーダルセンシングデータB720を出力する。センサー107−1はセンシング周波数がセンサー107−2よりも高いため、モーダルセンシングデータB720内の測定データ数よりもモーダルセンシングデータA710内の測定データ数が多い。
そして、推測モジュール130によって、モーダルセンシングデータA710とモーダルセンシングデータB720(センシングデータ730)を用いて、推測潜在要因750が出力される。なお、推測潜在要因750は、推測モジュール130によって推測された感情である。
具体的には、次のような処理を行う。
全てのモーダル(検出装置)で共通して用いる、最長の検出期間を設定する。この最長の検出期間は、予め定められている。例えば、推測モジュール130内に、最長検出期間データ500が設定されている。
例えば、最長検出期間データ500に、30秒間を最長の検出期間として設定する。このことは、30秒間のセンシングデータを入力する都度に、感情を推測することを意味する。なお、推測する感情を潜在変数ともいう。
一般的に、センサー107−1とセンサー107−2ではセンシング周波数が異なるため、30秒間に対応する検出回数(具体的には、フレーム数)は異なる。図7の例を用いて説明する。図7は、本実施の形態による処理例を示す説明図である。フィルターとして、ステップ関数を用いたものである。
最長期間740が、最長検出期間データ500に設定されていた値である。センサー107−1(図ではModalA)では、最長期間740の間にモーダルセンシングデータA710を出力する。センサー107−2(図ではModalB)では、最長期間740の間にモーダルセンシングデータB720を出力する。センサー107−1はセンシング周波数がセンサー107−2よりも高いため、モーダルセンシングデータB720内の測定データ数よりもモーダルセンシングデータA710内の測定データ数が多い。
そして、推測モジュール130によって、モーダルセンシングデータA710とモーダルセンシングデータB720(センシングデータ730)を用いて、推測潜在要因750が出力される。なお、推測潜在要因750は、推測モジュール130によって推測された感情である。
ステップS306では、推測モジュール130は、フィルター処理を行う。
図8の例を用いて説明する。図8は、本実施の形態による処理例を示す説明図である。モーダル毎にフィルターをかけている例を示している。
具体的には、モーダルセンシングデータA710に対して、フィルター800Aを掛けている。このフィルター800Aによって、モーダルセンシングデータA710は、非検出期間812、検出期間814に分かれる。この検出期間814が抽出センシングデータ850となり、感情の推測に用いられる。そして、モーダルセンシングデータB720に対して、フィルター800Bを掛けている。このフィルター800Bによって、モーダルセンシングデータB720は、非検出期間822、検出期間824に分かれる。この検出期間824が抽出センシングデータ860となり、感情の推測に用いられる。
図8の例を用いて説明する。図8は、本実施の形態による処理例を示す説明図である。モーダル毎にフィルターをかけている例を示している。
具体的には、モーダルセンシングデータA710に対して、フィルター800Aを掛けている。このフィルター800Aによって、モーダルセンシングデータA710は、非検出期間812、検出期間814に分かれる。この検出期間814が抽出センシングデータ850となり、感情の推測に用いられる。そして、モーダルセンシングデータB720に対して、フィルター800Bを掛けている。このフィルター800Bによって、モーダルセンシングデータB720は、非検出期間822、検出期間824に分かれる。この検出期間824が抽出センシングデータ860となり、感情の推測に用いられる。
ステップS308では、推測モジュール130は、感情の推測処理を行う。
ステップS310では、推測モジュール130は、処理が終了したか否かを判断し、終了した場合は処理を終了し(ステップS399)、それ以外の場合はステップS302へ戻る。
ステップS310では、推測モジュール130は、処理が終了したか否かを判断し、終了した場合は処理を終了し(ステップS399)、それ以外の場合はステップS302へ戻る。
フィルターの形、閾値は、検出期間テーブル600によって管理される。図6は、検出期間テーブル600のデータ構造例を示す説明図である。検出期間テーブル600は、センサーID欄610、日時欄620、検出期間欄630、閾値欄640、平均欄650、分散欄660を有している。検出期間テーブル600の1行は、1回の推測処理に用いられるものである。センサーID欄610は、センサーIDを記憶している。したがって、フィルターは、検出装置毎に定められることになる。日時欄620は、日時を記憶している。この日時欄620内の日時は、図10の例に示す最長検出期間1010の先頭の検出データの検出日時である。つまり、この日時欄620内の値と最長検出期間データ500内の値によって、図10の例に示す最長検出期間1010が特定されることになる。検出期間欄630は、その検出装置における検出期間を記憶している。この検出期間は、前回の推測に用いられた平均欄650、分散欄660内のデータによって定まるフィルター、そして、閾値欄640内の閾値によって定まる。閾値欄640は、閾値を記憶している。平均欄650は、その検出期間内の検出データの平均値を記憶している。分散欄660は、その検出期間内の検出データの分散値を記憶している。なお、閾値は、検出装置毎に固定としてもよい。その場合、検出装置と閾値との対応テーブルを作成しておけば、検出期間テーブル600内の閾値欄640は削除してもよい。
図8の例では、フィルター(フィルター800A、フィルター800B)として、ステップ関数を用いたが、以下のようにしてもよい。
フィルターは以下を満たすものである。
(1)パラメトリックであること。
フィルターの形を、少数のパラメータを調整することで制御ができるようにするためである。このパラメータは少ない方が、調整を行いやすい。後述する例では、パラメータとして前回の感情推測で対象としたセンシングデータの平均値、分散値を用いることによって、フィルターの形を調整している。
(2)微分可能であること。
勾配法で学習を行うためである。
フィルターは以下を満たすものである。
(1)パラメトリックであること。
フィルターの形を、少数のパラメータを調整することで制御ができるようにするためである。このパラメータは少ない方が、調整を行いやすい。後述する例では、パラメータとして前回の感情推測で対象としたセンシングデータの平均値、分散値を用いることによって、フィルターの形を調整している。
(2)微分可能であること。
勾配法で学習を行うためである。
具体的には、累積ガウス分布を用いる。図9の例を用いて説明する。図9は、本実施の形態による処理例を示す説明図である。
(1)閾値γを設定する。例えば、0.1等である。図9(a)の例では、閾値902A、閾値902Bが該当する。
(1)閾値γを設定する。例えば、0.1等である。図9(a)の例では、閾値902A、閾値902Bが該当する。
(2)ガウス分布の平均(μ)と分散(σ)を、過去データから動的に決定する。μで、フィルターの時間軸上の位置を、σで、フィルターの減衰勾配を決定する。詳細については、後述する。なお、このμとσの決定処理は、機械学習時、テスト(運用)時ともに行う。図9(a)のModalAの例では、フィルター900Aの形は、平均904A、分散906Aによって決定されることになる。つまり、平均904Aによって、フィルター900Aの時間軸上の位置(図9の例では、左右方向の位置)を定め、分散906Aによって、フィルター900Aの減衰勾配(図9の例では、フィルター900Aの左端から右端までの傾きかげん)を定めている。同様に、図9(a)のModalBの例では、フィルター900Bの形は、平均904B、分散906Bによって決定されることになる。つまり、平均904Bによって、フィルター900Bの時間軸上の位置(図9の例では、左右方向の位置)を定め、分散906Bによって、フィルター900Bの減衰勾配(図9の例では、フィルター900Bの左端から右端までの勾配)を定めている。
(3)μとσを用いて累積ガウス分布を生成し、確率(フィルターの値)がγ以上の検出データ(フレーム)を、入力データとして用いる。図9(a)のModalAの例では、フィルター900Aを閾値902Aが分けている点(フィルター900Aと閾値902Aの交点)で、モーダルセンシングデータA910を分ける。そして、モーダルセンシングデータA910の右部分(図9(b)の例に示す抽出センシングデータ950)を入力データとして、感情の推測を行う。同様に、フィルター900Bを閾値902Bが分けている点(フィルター900Bと閾値902Bの交点)で、モーダルセンシングデータB920を分ける。そして、モーダルセンシングデータB920の右部分(図9(b)の例に示す抽出センシングデータ960)を入力データとして、感情の推測を行う。
次に、平均(μ)と分散(σ)の生成について、図10、図11、図12の例を用いて説明する。図10は、本実施の形態による処理例を示す説明図である。具体的には、平均(μ)と分散(σ)の生成するにあたって、対象とするデータを抽出する処理例を示すものである。
図10(a)の例に示すセンシングデータ1000は、検出装置による検出結果であって、フィルター処理前のものである。このセンシングデータ1000を最長の検出期間で分割する。どれだけの時間(又は、フレーム)をずらすかをズラシ量1015によって定めている。なお、ズラシ量1015は、予め定められた値である。
具体的には、まず、図10(b1)の例に示すように、センシングデータ1000の最初から最長検出期間1010だけのセンシングデータ1020を抽出する。センシングデータ1020(なお、センシングデータ1020内の全てのデータでなくてもよい)を用いて、推測潜在要因1025を出力することになる。
次に、図10(b2)の例に示すように、センシングデータ1020の左端の位置からズラシ量1015だけずらして、センシングデータ1000から最長検出期間1010だけのセンシングデータ1030を抽出する。センシングデータ1030(なお、センシングデータ1030内の全てのデータでなくてもよい)を用いて、推測潜在要因1035を出力することになる。
そして、図10(b3)の例に示すように、センシングデータ1030の左端の位置からズラシ量1015だけずらして、センシングデータ1000から最長検出期間1010だけのセンシングデータ1040を抽出する。センシングデータ1040(なお、センシングデータ1040内の全てのデータでなくてもよい)を用いて、推測潜在要因1045を出力することになる。
図10(a)の例に示すセンシングデータ1000は、検出装置による検出結果であって、フィルター処理前のものである。このセンシングデータ1000を最長の検出期間で分割する。どれだけの時間(又は、フレーム)をずらすかをズラシ量1015によって定めている。なお、ズラシ量1015は、予め定められた値である。
具体的には、まず、図10(b1)の例に示すように、センシングデータ1000の最初から最長検出期間1010だけのセンシングデータ1020を抽出する。センシングデータ1020(なお、センシングデータ1020内の全てのデータでなくてもよい)を用いて、推測潜在要因1025を出力することになる。
次に、図10(b2)の例に示すように、センシングデータ1020の左端の位置からズラシ量1015だけずらして、センシングデータ1000から最長検出期間1010だけのセンシングデータ1030を抽出する。センシングデータ1030(なお、センシングデータ1030内の全てのデータでなくてもよい)を用いて、推測潜在要因1035を出力することになる。
そして、図10(b3)の例に示すように、センシングデータ1030の左端の位置からズラシ量1015だけずらして、センシングデータ1000から最長検出期間1010だけのセンシングデータ1040を抽出する。センシングデータ1040(なお、センシングデータ1040内の全てのデータでなくてもよい)を用いて、推測潜在要因1045を出力することになる。
次に、平均(μ)と分散(σ)を生成する。図11は、本実施の形態による処理例を示す説明図である。具体的には、推測モジュール130がフィルター処理を行った後に、平均(μ)と分散(σ)を生成する。
図11(a1)の例に示すように、図10(b1)の例で示したセンシングデータ1020内のデータから、平均1122、分散1124を算出し、推測潜在要因1025を出力する。なお、センシングデータ1020は、最初であるので、フィルター処理は行っていない(又は、全部を抽出するフィルター処理を行う)。
この平均1122、分散1124を用いて、次回のフィルター1130の形を決定する。そして、図11(a2)の例に示すように、図10(b2)の例で示したセンシングデータ1030内のデータに対して、フィルター1130によるフィルター処理を行う。これによって、センシングデータ1030内が非検出期間1137と検出期間1139に分かれる。検出期間1139を用いて、平均1132、分散1134を算出し、推測潜在要因1035を出力する。
同様に、この平均1132、分散1134を用いて、次回のフィルター1140の形を決定する。そして、図11(a3)の例に示すように、図10(b3)の例で示したセンシングデータ1040内のデータに対して、フィルター1140によるフィルター処理を行う。これによって、センシングデータ1040内が非検出期間1147と検出期間1149に分かれる。検出期間1149を用いて、平均1142、分散1144を算出し、推測潜在要因1045を出力する。以下、同様な処理を行う。
図11(a1)の例に示すように、図10(b1)の例で示したセンシングデータ1020内のデータから、平均1122、分散1124を算出し、推測潜在要因1025を出力する。なお、センシングデータ1020は、最初であるので、フィルター処理は行っていない(又は、全部を抽出するフィルター処理を行う)。
この平均1122、分散1124を用いて、次回のフィルター1130の形を決定する。そして、図11(a2)の例に示すように、図10(b2)の例で示したセンシングデータ1030内のデータに対して、フィルター1130によるフィルター処理を行う。これによって、センシングデータ1030内が非検出期間1137と検出期間1139に分かれる。検出期間1139を用いて、平均1132、分散1134を算出し、推測潜在要因1035を出力する。
同様に、この平均1132、分散1134を用いて、次回のフィルター1140の形を決定する。そして、図11(a3)の例に示すように、図10(b3)の例で示したセンシングデータ1040内のデータに対して、フィルター1140によるフィルター処理を行う。これによって、センシングデータ1040内が非検出期間1147と検出期間1149に分かれる。検出期間1149を用いて、平均1142、分散1144を算出し、推測潜在要因1045を出力する。以下、同様な処理を行う。
図11とは異なる方法で、平均(μ)と分散(σ)を生成する方法について説明する。図12は、本実施の形態による処理例を示す説明図である。具体的には、推測結果(図12では、推測潜在要因1235等)をも用いて、次回のフィルターの形を決定している。
図12(a3)の例を用いて説明する。
前回の平均1232、分散1234を用いて、フィルター1240の形を決定する。フィルター1240によるフィルター処理を行う。これによって、センシングデータ1040内が非検出期間1247と検出期間1249に分かれる。検出期間1249を用いて、平均1242、分散1244を算出し、推測潜在要因1245を出力する。そして、この平均1242、分散1244、推測潜在要因1245を、推測潜在要因1235を用いて調整する。具体的には、機械学習を行う際に、推測潜在要因1235を入力して、平均1242、分散1244、推測潜在要因1245を調整するモデルを生成しておけばよい。したがって、平均1242、分散1244は、検出期間1249の単なる平均、分散ではなく、推測潜在要因1235によって調整されたものである。この後、次のステップとして、平均1242、分散1244を用いて、フィルター1250の形を決定し、以下、同様に処理を行う。図12(a3)より前の処理も同様に行われている。
図12(a3)の例を用いて説明する。
前回の平均1232、分散1234を用いて、フィルター1240の形を決定する。フィルター1240によるフィルター処理を行う。これによって、センシングデータ1040内が非検出期間1247と検出期間1249に分かれる。検出期間1249を用いて、平均1242、分散1244を算出し、推測潜在要因1245を出力する。そして、この平均1242、分散1244、推測潜在要因1245を、推測潜在要因1235を用いて調整する。具体的には、機械学習を行う際に、推測潜在要因1235を入力して、平均1242、分散1244、推測潜在要因1245を調整するモデルを生成しておけばよい。したがって、平均1242、分散1244は、検出期間1249の単なる平均、分散ではなく、推測潜在要因1235によって調整されたものである。この後、次のステップとして、平均1242、分散1244を用いて、フィルター1250の形を決定し、以下、同様に処理を行う。図12(a3)より前の処理も同様に行われている。
図12の例では、フィルターの形を決定するのに、平均、分散の値(平均1242、分散1244等)に前回の推測結果(推測潜在要因1235等)を用いて調整することを行ったが、前回の推測結果だけでなく、対象者の状況をも用いて調整するようにしてもよい。
この対象者の状況の具体例として、スケジュール情報テーブル1300がある。図13は、スケジュール情報テーブル1300のデータ構造例を示す説明図である。スケジュール情報テーブル1300は、ユーザーID欄1310、開始日時欄1320、終了日時欄1330、内容欄1340、場所欄1350を有している。ユーザーID欄1310は、対象者190であるユーザーのユーザーIDを記憶している。開始日時欄1320以降で、そのユーザーのスケジュール情報を記憶している。開始日時欄1320は、予定の開始日時を記憶している。終了日時欄1330は、予定の終了日時を記憶している。内容欄1340は、予定の内容を記憶している。場所欄1350は、その予定が行われる場所を記憶している。
設定モジュール120は、対象者190に該当するスケジュール情報テーブル1300を、例えば、スケジュール管理装置から取得する。そして、設定モジュール120は、現在の日時に該当するスケジュール情報テーブル1300内の内容欄1340又は場所欄1350内のデータを用いて、フィルターの形を決定する平均、分散の値を調整するようにしてもよい。具体的には、機械学習を行う際に、前回の推測結果、内容欄1340内のデータ、場所欄1350内のデータを入力して、平均、分散を調整するモデルを生成しておけばよい。さらに、前回の推測結果、内容欄1340内のデータ、場所欄1350内のデータを入力して、今回の推測結果、平均、分散を調整するモデルを生成してもよい。
この対象者の状況の具体例として、スケジュール情報テーブル1300がある。図13は、スケジュール情報テーブル1300のデータ構造例を示す説明図である。スケジュール情報テーブル1300は、ユーザーID欄1310、開始日時欄1320、終了日時欄1330、内容欄1340、場所欄1350を有している。ユーザーID欄1310は、対象者190であるユーザーのユーザーIDを記憶している。開始日時欄1320以降で、そのユーザーのスケジュール情報を記憶している。開始日時欄1320は、予定の開始日時を記憶している。終了日時欄1330は、予定の終了日時を記憶している。内容欄1340は、予定の内容を記憶している。場所欄1350は、その予定が行われる場所を記憶している。
設定モジュール120は、対象者190に該当するスケジュール情報テーブル1300を、例えば、スケジュール管理装置から取得する。そして、設定モジュール120は、現在の日時に該当するスケジュール情報テーブル1300内の内容欄1340又は場所欄1350内のデータを用いて、フィルターの形を決定する平均、分散の値を調整するようにしてもよい。具体的には、機械学習を行う際に、前回の推測結果、内容欄1340内のデータ、場所欄1350内のデータを入力して、平均、分散を調整するモデルを生成しておけばよい。さらに、前回の推測結果、内容欄1340内のデータ、場所欄1350内のデータを入力して、今回の推測結果、平均、分散を調整するモデルを生成してもよい。
図14を参照して、本実施の形態の情報処理装置100のハードウェア構成例について説明する。図14に示す構成は、例えばパーソナルコンピュータ(PC)等によって構成されるものであり、スキャナ等のデータ読み取り部1417と、プリンタ等のデータ出力部1418を備えたハードウェア構成例を示している。
CPU(Central Processing Unit)1401は、前述の実施の形態において説明した各種のモジュール、すなわち、検出結果受付モジュール110、受付モジュール115、設定モジュール120、ユーザー状況検知モジュール125、推測モジュール130等の各モジュールの実行シーケンスを記述したコンピュータ・プログラムにしたがった処理を実行する制御部である。
ROM(Read Only Memory)1402は、CPU1401が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)1403は、CPU1401の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバス等から構成されるホストバス1404により相互に接続されている。
ホストバス1404は、ブリッジ1405を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス1406に接続されている。
キーボード1408、マウス等のポインティングデバイス1409は、操作者により操作されるデバイスである。ディスプレイ1410は、液晶表示装置又はCRT(Cathode Ray Tube)等があり、各種情報をテキストやイメージ情報として表示する。また、ポインティングデバイス1409とディスプレイ1410の両方の機能を備えているタッチスクリーン等であってもよい。その場合、キーボードの機能の実現について、キーボード1408のように物理的に接続しなくても、画面(タッチスクリーン)上にソフトウェアでキーボード(いわゆるソフトウェアキーボード、スクリーンキーボード等ともいわれる)を描画して、キーボードの機能を実現するようにしてもよい。
HDD(Hard Disk Drive)1411は、ハードディスク(フラッシュ・メモリ等であってもよい)を内蔵し、ハードディスクを駆動し、CPU1401によって実行するプログラムや情報を記録又は再生させる。ハードディスクには、各種センサー107による検出結果、カメラ105による画像、検出データテーブル400、最長検出期間データ500、検出期間テーブル600、推測結果等が格納される。さらに、その他の各種データ、各種コンピュータ・プログラム等が格納される。
ドライブ1412は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体1413に記録されているデータ又はプログラムを読み出して、そのデータ又はプログラムを、インタフェース1407、外部バス1406、ブリッジ1405、及びホストバス1404を介して接続されているRAM1403に供給する。なお、リムーバブル記録媒体1413も、データ記録領域として利用可能である。
接続ポート1414は、外部接続機器1415を接続するポートであり、USB、IEEE1394等の接続部を持つ。接続ポート1414は、インタフェース1407、及び外部バス1406、ブリッジ1405、ホストバス1404等を介してCPU1401等に接続されている。通信部1416は、通信回線に接続され、外部とのデータ通信処理を実行する。データ読み取り部1417は、例えばスキャナであり、ドキュメントの読み取り処理を実行する。データ出力部1418は、例えばプリンタであり、ドキュメントデータの出力処理を実行する。
なお、図14に示す情報処理装置100のハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図14に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続している形態でもよく、さらに図14に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、パーソナルコンピュータの他、携帯情報通信機器(携帯電話、スマートフォン、モバイル機器、ウェアラブルコンピュータ等を含む)、情報家電、ロボット、複写機、ファックス、スキャナ、プリンタ、複合機(スキャナ、プリンタ、複写機、ファックス等のいずれか2つ以上の機能を有している画像処理装置)などに組み込まれていてもよい。
なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digital)メモリーカード等が含まれる。
そして、前記のプログラムの全体又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分若しくは全部であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digital)メモリーカード等が含まれる。
そして、前記のプログラムの全体又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分若しくは全部であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
100…情報処理装置
105…カメラ
107…センサー
110…検出結果受付モジュール
115…受付モジュール
120…設定モジュール
125…ユーザー状況検知モジュール
130…推測モジュール
190…対象者
200A…会議室
200B…オフィス
280…ユーザー端末
290…ユーザー
299…通信回線
105…カメラ
107…センサー
110…検出結果受付モジュール
115…受付モジュール
120…設定モジュール
125…ユーザー状況検知モジュール
130…推測モジュール
190…対象者
200A…会議室
200B…オフィス
280…ユーザー端末
290…ユーザー
299…通信回線
Claims (10)
- 対象者における物理量を検出する複数の検出手段と、
前記検出手段毎に、推測に用いる物理量の検出期間を設定する設定手段と、
前記設定手段によって設定された検出期間における複数の前記検出手段が検出した物理量に応じて、前記対象者の感情を推測する推測手段
を有し、
前記設定手段は、前記推測手段による推測結果に基づいて、次回の推測のために用いる検出期間を設定する、
情報処理装置。 - 前記検出手段は、複数の種類があり、
前記設定手段は、前記検出手段の種類毎に前記検出期間を設定する、
請求項1に記載の情報処理装置。 - 前記設定手段は、全ての前記検出手段による最長の検出期間を設定した後に、該検出手段の種類毎に前記検出期間を設定する、
請求項2に記載の情報処理装置。 - 前記設定手段は、前記検出期間を定めるフィルターを用い、
前記フィルターは、閾値によって検出期間を定める、
請求項2に記載の情報処理装置。 - 前記フィルターの形は、過去の物理量に基づき、動的に生成する、
請求項4に記載の情報処理装置。 - 前記フィルターは、累積ガウス分布を用い、
前記設定手段は、前記推測結果と推測に用いた物理量を用いて、ガウス分布の平均、分散を決定することによって、累積ガウス分布である前記フィルターを生成し、前記閾値より大きい又は以上である検出期間を設定する、
請求項5に記載の情報処理装置。 - 前記設定手段は、前記推測結果と前記対象者の状況に応じて、前記検出期間を設定する、
請求項1に記載の情報処理装置。 - 前記対象者の位置又は予定に応じて、該対象者の状況を検知する検知手段
をさらに有し、
前記推測手段は、前記検知手段によって検知された前記対象者の状況を用いて、該対象者の感情を推測する、
請求項7に記載の情報処理装置。 - 前記推測手段は、機械学習によって生成されたモデルを用いて推測を行う、
請求項1に記載の情報処理装置。 - コンピュータを、
対象者における物理量を検出する複数の検出手段と、
前記検出手段毎に、推測に用いる物理量の検出期間を設定する設定手段と、
前記設定手段によって設定された検出期間における複数の前記検出手段が検出した物理量に応じて、前記対象者の感情を推測する推測手段
として機能させ、
前記設定手段は、前記推測手段による推測結果に基づいて、次回の推測のために用いる検出期間を設定する、
情報処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018050719A JP2019162207A (ja) | 2018-03-19 | 2018-03-19 | 情報処理装置及び情報処理プログラム |
US16/167,543 US20190286225A1 (en) | 2018-03-19 | 2018-10-23 | Information processing apparatus and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018050719A JP2019162207A (ja) | 2018-03-19 | 2018-03-19 | 情報処理装置及び情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019162207A true JP2019162207A (ja) | 2019-09-26 |
Family
ID=67905679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018050719A Pending JP2019162207A (ja) | 2018-03-19 | 2018-03-19 | 情報処理装置及び情報処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190286225A1 (ja) |
JP (1) | JP2019162207A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021193032A1 (ja) * | 2020-03-23 | 2021-09-30 | ヤマハ株式会社 | 演奏エージェントの訓練方法、自動演奏システム、及びプログラム |
JPWO2021193033A1 (ja) * | 2020-03-24 | 2021-09-30 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009105725A (ja) * | 2007-10-24 | 2009-05-14 | Canon Inc | フィルタ演算方法及び装置、パターン識別方法、プログラム |
JP2012517291A (ja) * | 2009-02-09 | 2012-08-02 | エドワーズ ライフサイエンシーズ コーポレイション | 心臓血管パラメータの計算 |
JP2013208311A (ja) * | 2012-03-30 | 2013-10-10 | Seiko Epson Corp | 拍動検出装置、電子機器及びプログラム |
US20150199010A1 (en) * | 2012-09-14 | 2015-07-16 | Interaxon Inc. | Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data |
JP2016115057A (ja) * | 2014-12-12 | 2016-06-23 | セイコーエプソン株式会社 | 生体情報処理システム、サーバーシステム、生体情報処理装置、生体情報処理方法及びプログラム |
JP2017099527A (ja) * | 2015-11-30 | 2017-06-08 | 株式会社人間と科学の研究所 | 心身状態診断支援装置および生体情報管理システム |
US20180032126A1 (en) * | 2016-08-01 | 2018-02-01 | Yadong Liu | Method and system for measuring emotional state |
WO2018043061A1 (ja) * | 2016-09-01 | 2018-03-08 | 株式会社ワコム | 座標入力処理装置、感情推定装置、感情推定システム及び感情推定用データベースの構築装置 |
-
2018
- 2018-03-19 JP JP2018050719A patent/JP2019162207A/ja active Pending
- 2018-10-23 US US16/167,543 patent/US20190286225A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009105725A (ja) * | 2007-10-24 | 2009-05-14 | Canon Inc | フィルタ演算方法及び装置、パターン識別方法、プログラム |
JP2012517291A (ja) * | 2009-02-09 | 2012-08-02 | エドワーズ ライフサイエンシーズ コーポレイション | 心臓血管パラメータの計算 |
JP2013208311A (ja) * | 2012-03-30 | 2013-10-10 | Seiko Epson Corp | 拍動検出装置、電子機器及びプログラム |
US20150199010A1 (en) * | 2012-09-14 | 2015-07-16 | Interaxon Inc. | Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data |
JP2016115057A (ja) * | 2014-12-12 | 2016-06-23 | セイコーエプソン株式会社 | 生体情報処理システム、サーバーシステム、生体情報処理装置、生体情報処理方法及びプログラム |
JP2017099527A (ja) * | 2015-11-30 | 2017-06-08 | 株式会社人間と科学の研究所 | 心身状態診断支援装置および生体情報管理システム |
US20180032126A1 (en) * | 2016-08-01 | 2018-02-01 | Yadong Liu | Method and system for measuring emotional state |
WO2018043061A1 (ja) * | 2016-09-01 | 2018-03-08 | 株式会社ワコム | 座標入力処理装置、感情推定装置、感情推定システム及び感情推定用データベースの構築装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021193032A1 (ja) * | 2020-03-23 | 2021-09-30 | ヤマハ株式会社 | 演奏エージェントの訓練方法、自動演奏システム、及びプログラム |
JPWO2021193032A1 (ja) * | 2020-03-23 | 2021-09-30 | ||
JP7388542B2 (ja) | 2020-03-23 | 2023-11-29 | ヤマハ株式会社 | 演奏エージェントの訓練方法、自動演奏システム、及びプログラム |
JPWO2021193033A1 (ja) * | 2020-03-24 | 2021-09-30 | ||
WO2021193033A1 (ja) * | 2020-03-24 | 2021-09-30 | ヤマハ株式会社 | 訓練済みモデルの確立方法、推定方法、演奏エージェントの推薦方法、演奏エージェントの調整方法、訓練済みモデルの確立システム、推定システム、訓練済みモデルの確立プログラム及び推定プログラム |
JP7420220B2 (ja) | 2020-03-24 | 2024-01-23 | ヤマハ株式会社 | 訓練済みモデルの確立方法、推定方法、演奏エージェントの推薦方法、演奏エージェントの調整方法、訓練済みモデルの確立システム、推定システム、訓練済みモデルの確立プログラム及び推定プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20190286225A1 (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110473525B (zh) | 获取语音训练样本的方法和装置 | |
US9700200B2 (en) | Detecting visual impairment through normal use of a mobile device | |
JP7003400B2 (ja) | 対話制御システム | |
CN109214501B (zh) | 用于识别信息的方法和装置 | |
CN109670444A (zh) | 姿态检测模型的生成、姿态检测方法、装置、设备及介质 | |
WO2020195821A1 (ja) | 情報処理装置、情報処理方法、情報処理プログラム | |
JP5418717B1 (ja) | 情報処理装置及び情報処理プログラム | |
Mukherjee et al. | Monitoring, recognition and attendance automation in online class: combination of image processing, cryptography in IoT security | |
JP2019162207A (ja) | 情報処理装置及び情報処理プログラム | |
JP2018151828A (ja) | 情報処理装置および情報処理方法 | |
JP2015131069A (ja) | 印象推定装置、その方法、及びプログラム | |
JP7483095B2 (ja) | 産業システムのための多目的異常検出システム | |
US9811719B2 (en) | Information processing apparatus and method, and non-transitory computer readable medium | |
JP6985230B2 (ja) | 業務分析サーバ、業務分析方法、および業務分析プログラム | |
JP2018060478A (ja) | 情報管理装置、方法、及びコンピュータプログラム | |
JP7214986B2 (ja) | 反射性判定装置、反射性判定方法、プログラム | |
WO2023045578A1 (en) | Head-movement-based user interface and control | |
EP3937035A1 (en) | Method and apparatus for preventing forgery of data, method and apparatus for detecting forgery of data | |
CN114298403A (zh) | 预测作品的关注度的方法和装置 | |
US11087798B2 (en) | Selective curation of user recordings | |
US8880823B2 (en) | Information processing system, information processing apparatus, and non-transitory computer readable medium storing information processing program | |
JP6804639B2 (ja) | 属性識別装置、属性識別方法、プログラム | |
JP2021185465A (ja) | 音響認識システム、音響認識方法 | |
JP2020201536A (ja) | 情報処理装置、情報処理システム及び情報処理プログラム | |
JP2020042338A (ja) | 選択方法、及び選択プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211228 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220621 |