JP2018190318A - データ収集装置及び学習装置 - Google Patents

データ収集装置及び学習装置 Download PDF

Info

Publication number
JP2018190318A
JP2018190318A JP2017094519A JP2017094519A JP2018190318A JP 2018190318 A JP2018190318 A JP 2018190318A JP 2017094519 A JP2017094519 A JP 2017094519A JP 2017094519 A JP2017094519 A JP 2017094519A JP 2018190318 A JP2018190318 A JP 2018190318A
Authority
JP
Japan
Prior art keywords
data
emotion
person
type
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017094519A
Other languages
English (en)
Other versions
JP6911505B2 (ja
Inventor
安藤 丹一
Tanichi Ando
丹一 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017094519A priority Critical patent/JP6911505B2/ja
Priority to PCT/JP2018/016704 priority patent/WO2018207619A1/en
Publication of JP2018190318A publication Critical patent/JP2018190318A/ja
Application granted granted Critical
Publication of JP6911505B2 publication Critical patent/JP6911505B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】対象人物の感情を誘発した要因を推定可能にする技術を提供する。
【解決手段】発明の一側面に係るデータ収集装置は、人物の感情が表出する第1データを取得する第1取得部と、前記第1データの取得に並行して、前記人物の感情に影響を及ぼし得る因子に関する第2データを取得する第2取得部と、取得した前記第1データに基づいて、任意の時刻における前記人物の感情の種別を特定する感情特定部と、前記任意の時刻における前記人物の感情の誘発に関連する誘発時間内に取得した前記第2データを、特定した前記任意の時刻における前記人物の感情の種別に関連付けて保存することで、前記人物の感情の種別ごとに前記第2データを分類する分類処理部と、を備える。
【選択図】図5

Description

本発明はデータ収集装置及び学習装置に関する。
特許文献1には、不特定人物の表情を認識して、その人物の感情を推定する感情推定装置が提案されている。具体的には、特許文献1には、所定の感情に関連付けられた特定人物の表情画像を利用して表情マップを作成し、作成した表情マップ及び不特定人物の表情画像に基づいて、当該不特定人物の感情を推定することが提案されている。
特開2008−146318号公報
従来、特許文献1に例示されるように、対象人物の表情画像からその対象人物の感情を推定する技術が存在する。しかしながら、本件発明者は、このような従来の技術では、対象人物の感情を推定することはできても、その感情を誘発した要因までは推定することができないという問題点があることを見出した。
本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、対象人物の感情を誘発した要因を推定可能にする技術を提供することである。
本発明は、上述した課題を解決するために、以下の構成を採用する。
すなわち、本発明の一側面に係るデータ収集装置は、人物の感情が表出する第1データを取得する第1取得部と、前記第1データの取得に並行して、前記人物の感情に影響を及ぼし得る因子に関する第2データを取得する第2取得部と、取得した前記第1データに基づいて、任意の時刻における前記人物の感情の種別を特定する感情特定部と、前記任意の時刻における前記人物の感情の誘発に関連する誘発時間内に取得した前記第2データを、特定した前記任意の時刻における前記人物の感情の種別に関連付けて保存することにより、前記人物の感情の種別ごとに前記第2データを分類する分類処理部と、を備える。
上記構成に係るデータ収集装置は、人物の感情が表出する第1データと、人物の感情に影響を及ぼし得る因子に関する第2データとを同一の時系列に対応付けて並行的に取得する。第1データは、人物の感情が表出し得る何らかのデータであればよく、例えば、人物の顔を写した画像データ等である。また、第2データは、人物の感情に影響を及ぼし得る因子に関する何らかのデータであればよく、例えば、人物の生体データ、人物の周囲の環境を示す環境データ等である。
そして、上記構成に係るデータ収集装置は、第1データに基づいて対象人物の感情の種別を特定し、その感情の誘発に関連する誘発時間内に取得した第2データを、特定した感情の種別に関連付けて保存する。これにより、上記構成に係るデータ収集装置によれば、対象人物の感情に影響を及ぼし得る因子に関する第2データを当該対象人物の感情の種別ごとに分類して収集することができる。すなわち、対象人物の感情を誘発した要因となり得る影響因子のデータ(第2データ)を感情の種別ごとに分類したデータベースを作成することができる。この感情の種別ごとに分類した影響因子のデータを利用すれば、対象人物の感情を誘発した要因を分析することができる。したがって、上記構成によれば、対象人物の感情を誘発した要因を推定可能にする技術を提供することができる。
上記一側面に係るデータ収集装置において、前記感情特定部は、前記第1データを入力すると、前記第1データに表出する前記人物の感情の種別を示す値を出力するように学習した学習済みの学習器を用いて、前記任意の時刻における前記人物の感情の種別を特定するように構成されてよい。学習器は、例えば、ニューラルネットワーク等で構成されてよい。当該構成によれば、第1データに表れる対象人物の感情の種別を容易かつ適切に特定することができる。
上記一側面に係るデータ収集装置において、前記誘発時間は、前記第2データの種類ごとに設定されてよい。当該構成によれば、第2データの種類に応じて、適切な誘発時間を設定することができる。これにより、感情の種別ごとに分類した第2データのデータ量を、影響因子の種類に応じた適切なデータ量にすることができる。
上記一側面に係るデータ収集装置において、前記分類処理部は、前記人物の感情の種別ごとに分類する前記第2データに前記人物の属性を更に関連付けてよい。当該構成によれば、対象人物の感情に影響を及ぼし得る因子に関する第2データを、感情の種別ごと及び人物の属性ごとに分類して収集することができる。また、人物に誘発される感情は、当該人物の属性によって大きく相違する可能性がある。これに対して、当該構成によれば、第2データと対象人物の属性とを関連付けることで、感情の誘発要因を推定するために利用するデータの検索性を向上させることができると共に、誘発要因の推定精度を向上させることができる。
上記一側面に係るデータ収集装置において、前記人物の属性は、性別、身長、体重、血液型、年齢、誕生日、出身地、国籍、及び職業の少なくともいずれかにより特定されてよい。当該構成によれば、人物の属性を適切に規定することができる。
上記一側面に係るデータ収集装置は、前記感情の種別ごとに分類された前記第2データを解析することで、前記感情を誘発した要因を推定する要因推定部を更に備えてよい。当該構成によれば、感情の種別ごとに分類して収集した第2データを利用して、対象人物の感情を誘発した要因を推定することができる。
上記一側面に係るデータ収集装置において、前記分類処理部は、いずれの感情の種別にも分類されなかった前記第2データを削除するように構成されてもよい。当該構成によれば、不要なデータを削除することで、データを保存する記憶部を効率的に利用することができる。
上記一側面に係るデータ収集装置において、前記第1データは、前記人物の顔を写した画像データ、ポリグラフにより得られたデータ、前記人物の声を録音した音声データ、及び前記人物からの回答データの少なくともいずれかを含んでよい。当該構成によれば、人物の感情の特定に利用しやすい第1データを取得することができる。
上記一側面に係るデータ収集装置において、前記第2データは、前記人物から得られる生体データ、前記人物の周囲の環境を示す環境データ、及び前記人物に起きた出来事を示すイベントデータの少なくともいずれかを含んでよい。当該生体データは、心拍数、脈拍数、呼吸数、体温、血圧、脳波、姿勢、及び筋電の少なくともいずれかを示してよい。また、当該環境データは、温度、湿度、明るさ、天気、気圧、騒音、振動、及び臭気の少なくともいずれかを示してよい。当該構成によれば、対象人物に対して対象の感情を誘発した要因となり得る影響因子に関するデータを適切に収集することができる。
上記一側面に係るデータ収集装置において、前記第2データは、前記生体データ、前記環境データ、及び前記イベントデータのうちの少なくとも2つを含んでよく、前記誘発時間は、前記生体データ、前記環境データ、及び前記イベントデータそれぞれで相違するように設定されてよい。当該構成によれば、第2データの種類に応じて、適切な誘発時間を設定することができる。これにより、感情の種別ごとに分類した第2データのデータ量を、影響因子の種類に応じた適切なデータ量にすることができる。
また、本発明の一側面に係る学習装置は、人物の感情に影響を及ぼし得る因子に関する影響因子データであって、当該人物の感情の種別ごとに分類された影響因子データを取得するデータ取得部と、前記影響因子データを入力すると、入力した前記影響因子データに関連付けられた感情の種別を示す値を出力するように学習器を学習させる学習処理部と、を備える。当該構成によれば、対象人物の感情を誘発した要因を推定可能な学習済みの学習器を構築することができる。なお、当該構成に係る学習装置のデータ取得部は、感情の種別ごとに分類された影響因子データを上記各形態に係るデータ収集装置から取得してもよい。
上記一側面に係る学習装置において、前記データ取得部は、前記人物の属性を示す属性データを更に取得してもよく、前記学習処理部は、前記影響因子データ及び前記属性データを入力すると、入力した前記影響因子データに関連付けられた感情の種別を示す値を出力するように学習器を学習させてもよい。当該構成によれば、対象人物の属性に応じて、当該対象人物の感情を誘発した要因を推定可能な学習済みの学習器を構築することができる。
また、本発明の一側面に係る学習装置は、人物の感情が表出する感情表出データを取得するデータ取得部と、前記感情表出データを入力すると、入力された前記感情表出データに表出した前記人物の感情の種別を示す値を出力するように学習器を学習させる学習処理部と、を備える。当該構成によれば、対象人物の感情の種別を推定可能な学習済みの学習器を構築することができる。
なお、上記各形態に係るデータ収集装置及び学習装置の別の形態として、以上の各構成を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。
例えば、本発明の一側面に係るデータ収集方法は、コンピュータが、人物の感情が表出する第1データを取得するステップと、前記第1データの取得に並行して、前記人物の感情に影響を及ぼし得る因子に関する第2データを取得するステップと、取得した前記第1データに基づいて、任意の時刻における前記人物の感情の種別を特定するステップと、前記任意の時刻における前記人物の感情の誘発に関連する誘発時間内に取得した前記第2データを、特定した前記任意の時刻における前記人物の感情の種別に関連付けて保存することにより、前記人物の感情の種別ごとに前記第2データを分類するステップと、を実行する情報処理方法である。
また、例えば、本発明の一側面に係るデータ収集プログラムは、コンピュータに、人物の感情が表出する第1データを取得するステップと、前記第1データの取得に並行して、前記人物の感情に影響を及ぼし得る因子に関する第2データを取得するステップと、取得した前記第1データに基づいて、任意の時刻における前記人物の感情の種別を特定するステップと、前記任意の時刻における前記人物の感情の誘発に関連する誘発時間内に取得した前記第2データを、特定した前記任意の時刻における前記人物の感情の種別に関連付けて保存することにより、前記人物の感情の種別ごとに前記第2データを分類するステップと、を実行させるためのプログラムである。
また、例えば、本発明の一側面に係る学習方法は、コンピュータが、人物の感情に影響を及ぼし得る因子に関する影響因子データであって、当該人物の感情の種別ごとに分類された影響因子データを取得するステップと、前記影響因子データを入力すると、入力した前記影響因子データに関連付けられた感情の種別を示す値を出力するように学習器を学習させるステップと、を実行する情報処理方法である。
また、例えば、本発明の一側面に係る学習プログラムは、コンピュータに、人物の感情に影響を及ぼし得る因子に関する影響因子データであって、当該人物の感情の種別ごとに分類された影響因子データを取得するステップと、前記影響因子データを入力すると、入力した前記影響因子データに関連付けられた感情の種別を示す値を出力するように学習器を学習させるステップと、を実行させるためのプログラムである。
また、例えば、本発明の一側面に係る学習方法は、コンピュータが、人物の感情が表出する感情表出データを取得するステップと、前記感情表出データを入力すると、入力された前記感情表出データに表出した前記人物の感情の種別を示す値を出力するように学習器を学習させるステップと、を実行する情報処理方法である。
また、例えば、本発明の一側面に係る学習プログラムは、コンピュータに、人物の感情が表出する感情表出データを取得するステップと、前記感情表出データを入力すると、入力された前記感情表出データに表出した前記人物の感情の種別を示す値を出力するように学習器を学習させるステップと、を実行させるためのプログラムである。
本発明によれば、対象人物の感情を誘発した要因を推定可能にする技術を提供することができる。
図1は、実施の形態に係るデータ収集装置及び各学習装置の適用場面の一例を模式的に例示する。 図2は、実施の形態に係るデータ収集装置のハードウェア構成の一例を模式的に例示する。 図3は、実施の形態に係る第1学習装置のハードウェア構成の一例を模式的に例示する。 図4は、実施の形態に係る第2学習装置のハードウェア構成の一例を模式的に例示する。 図5は、実施の形態に係るデータ収集装置の機能構成の一例を模式的に例示する。 図6は、誘発時間内に取得した影響因子データを特定した感情の種別に関連付ける場面の一例を模式的に例示する。 図7は、実施の形態に係る第1学習装置の機能構成の一例を模式的に例示する。 図8は、実施の形態に係る第2学習装置の機能構成の一例を模式的に例示する。 図9は、実施の形態に係るデータ収集装置の処理手順の一例を例示する。 図10は、実施の形態に係る第1学習装置の処理手順の一例を例示する。 図11は、実施の形態に係る第2学習装置の処理手順の一例を例示する。 図12は、変形例に係るデータ収集装置の機能構成の一例を模式的に例示する。 図13は、変形例に係る第1学習装置の機能構成の一例を模式的に例示する。 図14は、変形例に係る第2学習装置の機能構成の一例を模式的に例示する。 図15は、変形例に係るデータ収集装置の機能構成の一例を模式的に例示する。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係るデータ収集装置1、第1学習装置2、及び第2学習装置3の適用場面の一例を模式的に例示する。
図1に示すとおり、データ収集装置1は、人物の感情に影響を及ぼし得る因子に関する影響因子データ123を感情の種別ごとに収集する情報処理装置である。具体的には、データ収集装置1は、第1センサ51を利用して、人物の感情が表出する感情表出データ122を取得する。この感情表出データ122は、本発明の「第1データ」に相当し、人物の感情が表出し得る何らかのデータであればよい。例えば、感情表出データ122は、人物の顔を写した画像データ、ポリグラフにより得られたデータ、人物の声を録音した音声データ、人物からの回答データ等であってよい。第1センサ51は、取得する感情表出データ122の種類に応じて、適宜選択される。例えば、第1センサ51は、カメラ、ポリグラフ、マイクロフォン、回答を行うための入力装置等であってよい。
また、データ収集装置1は、感情表出データ122の取得に並行して、人物の感情に影響を及ぼし得る因子に関する影響因子データ123を取得する。すなわち、データ収集装置1は、感情表出データ122及び影響因子データ123を同一の時系列に対応付けて取得する。この影響因子データ123は、本発明の「第2データ」に相当し、人物の感情に影響を及ぼし得る因子に関する何らかのデータであればよい。例えば、影響因子データ123は、対象人物から得られる生体データ、対象人物の周囲の環境を示す環境データ、対象人物に起きた出来事を示すイベントデータ等であってよい。第2センサ52は、取得する影響因子データ123の種類に応じて、適宜選択される。例えば、第2センサ52は、人物の身体から心拍数等を取得する生体センサ、人物の周囲の温度等を取得する環境センサ等であってよい。
次に、データ収集装置1は、感情表出データ122に基づいて、任意の時刻における対象人物の感情の種別を特定する。そして、データ収集装置1は、任意の時刻における対象人物の感情の誘発に関連する誘発時間内に取得した影響因子データ123を、特定した任意の時刻における対象人物の感情の種別に関連付けて保存する。これにより、データ収集装置1は、影響因子データ123を感情の種別ごとに分類して収集する。なお、図1の例では、感情の種別は、「喜び」、「怒り」、「哀しみ」、「楽しい」等の固有の状態で示されている。しかしながら、感情の種別の表現は、このような例に限定されなくてもよい。例えば、「安定」に対して「不安定」、「好き」に対して「嫌い」等、対となる感情の表現を用いて示してよい。また、対となる感情の表現を用いる場合、「安定」と「不安定」との間の状態を示す「やや不安定」等、当該対となる感情の中間の状態を示す表現を用いてもよい。また、複数の感情の表現の1又は複数を組み合せて、対象人物の感情を表現してもよい。なお、感情の種別は、1又は複数のパラメータを利用した数値表現で示されてもよい。感情表出データ122に基づく感情の種別の特定は、例えば、後述する機械学習により得られる学習済みの学習器(学習済みのニューラルネットワーク6)を用いて行う事ができる。
一方、第1学習装置2は、対象人物の感情の種別ごとに分類された影響因子データを利用して、影響因子に基づいて対象人物に誘発される感情の種別を推定する学習済みの学習器を構築する情報処理装置である。具体的には、第1学習装置2は、対象人物の感情の種別ごとに分類された影響因子データを取得する。例えば、第1学習装置2は、ネットワーク等を介してデータ収集装置1から、感情の種別ごとに分類された影響因子データ123を取得する。そして、第1学習装置2は、影響因子データ123を入力すると、入力した影響因子データ123に関連付けられた感情の種類を示す値を出力するように学習器(後述するニューラルネットワーク7)を学習させる。これにより、第1学習装置2は、影響因子に基づいて対象人物に誘発される感情の種別を推定する学習済みの学習器を構築する。
なお、第1学習装置2は、構築した学習器を利用して、影響因子データ123と同形式のデータに基づいて、対象人物に誘発される感情の種別を推定するように構成されていてよい。また、第1学習装置2から構築された学習器又はその複製物を取得して、影響因子データ123と同形式のデータに基づいて、対象人物に誘発される感情の種別を推定する第1学習結果利用装置(後述する誘発感情推定装置)を設けてもよい。
また、第2学習装置3は、対象人物の感情が表出する感情表出データを利用して、感情表出データに表出する感情の種別を特定する学習済みの学習器を構築する情報処理装置である。具体的には、第2学習装置3は、対象人物の感情が表出する感情表出データを取得する。そして、第2学習装置3は、感情表出データを入力すると、入力した感情表出データに表出した対象人物の感情の種別を示す値を出力するように学習器(後述するニューラルネットワーク8)を学習させる。これにより、第2学習装置3は、感情表出データに表出する感情の種別を特定する学習済みの学習器を構築する。
この第2学習装置3により作成される学習済みの学習器は、データ収集装置1において、感情表出データ122に基づいて、任意の時刻における対象人物の感情の種別を特定する処理に利用することができる。そこで、本実施形態に係るデータ収集装置1は、ネットワーク等を介して、第2学習装置3により作成された学習済みの学習器を取得する。そして、本実施形態に係るデータ収集装置1は、第2学習装置3により作成された学習済みの学習器を利用して、感情表出データ122に表出する対象人物の感情の種別を特定する。
以上のとおり、本実施形態に係るデータ収集装置1によれば、対象人物の感情に影響を及ぼし得る因子に関する影響因子データ123を感情の種別ごとに分類して収集することができる。この感情の種別ごとに分類された影響因子データ123を利用すれば、対象人物の感情を誘発した要因を分析することができる。例えば、感情の種別ごとに分類された影響因子データ123を統計的手法、機械学習を利用した手法等により、その感情を誘発した要因を分析することができる。したがって、本実施形態に係るデータ収集装置1によれば、対象人物の感情を誘発した要因の推定を可能にすることができる。また、感情の種別ごとに分類された影響因子データ123を利用すれば、第1学習装置2で実施されるとおり、影響因子に基づいて対象人物に誘発される感情の種別を推定する学習済みの学習器を構築することができる。そのため、本実施形態によれば、影響因子に関するデータから対象人物に誘発する感情を推定することができるようになる。
§2 構成例
[ハードウェア構成]
<データ収集装置>
次に、図2を用いて、本実施形態に係るデータ収集装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係るデータ収集装置1のハードウェア構成の一例を模式的に例示する。
図2に示されるとおり、本実施形態に係るデータ収集装置1は、制御部11、記憶部12、外部インタフェース13、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。なお、図2では、外部インタフェースを「外部I/F」と記載している。
制御部11は、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。記憶部12は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、制御部11で実行される収集プログラム121、感情表出データ122、影響因子データ123、表出感情学習結果データ124等を記憶する。
収集プログラム121は、影響因子データ123を収集し、感情の種別ごとに分類する後述の処理(図9)をデータ収集装置1に実行させるためのプログラムである。また、表出感情学習結果データ124は、感情表出データ122に表出する対象人物の感情の種別を特定する処理に利用する学習済みの学習器の設定を行うためのデータである。詳細は後述する。
外部インタフェース13は、外部装置と接続するためのインタフェースであり、接続する外部装置に応じて適宜構成される。外部インタフェース13は、ネットワークを介して他のコンピュータと接続するための通信インタフェースであってもよい。本実施形態では、データ収集装置1は、外部インタフェース13を介して、第1センサ51及び第2センサ52に接続される。第1センサ51は、例えば、カメラ、ポリグラフ、マイクロフォン、回答を行うための入力装置等であり、感情表出データ122の取得に利用される。一方、第2センサ52は、例えば、生体センサ、環境センサ、入力装置等であり、影響因子データ123の取得に利用される。
第1センサ51及び第2センサ52それぞれの種類は、取得する感情表出データ122及び影響因子データ123それぞれの種類に応じて、適宜選択されてよい。また、複数台の第1センサ51及び第2センサ52をデータ収集装置1に接続してもよい。なお、感情表出データ122として画像データを利用する場合、暗視カメラ、赤外線カメラ等を第1センサ51として利用してもよい。これにより、人の顔の写る画像データを暗所でも取得することができる。
入力装置14は、例えば、マウス、キーボード等の入力を行うための装置である。出力装置15は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。
ドライブ16は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体91に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ16の種類は、記憶媒体91の種類に応じて適宜選択されてよい。上記収集プログラム121、感情表出データ122、影響因子データ123、及び表出感情学習結果データ124は、この記憶媒体91に記憶されていてもよい。
記憶媒体91は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。データ収集装置1は、この記憶媒体91から、上記収集プログラム121、感情表出データ122、影響因子データ123、及び表出感情学習結果データ124の少なくとも一つを取得してもよい。
ここで、図2では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
なお、データ収集装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。データ収集装置1は、複数台のコンピュータで構成されてもよい。また、データ収集装置1は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、PC(Personal Computer)等であってもよい。
<第1学習装置>
次に、図3を用いて、本実施形態に係る第1学習装置2のハードウェア構成の一例を説明する。図3は、本実施形態に係る第1学習装置2のハードウェア構成の一例を模式的に例示する。
図3に示されるとおり、本実施形態に係る第1学習装置2は、制御部21、記憶部22、外部インタフェース23、入力装置24、出力装置25、及びドライブ26が電気的に接続されたコンピュータである。なお、図3では、図2と同様に、外部インタフェースを「外部I/F」と記載している。
制御部21〜ドライブ26及び記憶媒体92はそれぞれ、上記データ収集装置1の制御部11〜ドライブ16及び記憶媒体91と同様である。ただし、第1学習装置2の記憶部22は、学習器の学習に利用する、感情の種別ごとに分類された影響因子データ123、制御部21で実行される機械学習であって、学習器が、影響因子データ123に基づいて対象人物に誘発される感情を推定する学習を実行するための第1学習プログラム221(「誘発感情学習プログラム」と称してもよい)、第1学習プログラム221の実行で作成される誘発感情学習結果データ223等を記憶する。第1学習プログラム221は、第1学習装置2に後述する学習器の学習処理(図10)を実行させるためのプログラムである。詳細は後述する。
なお、上記データ収集装置1と同様に、第1学習プログラム221及び影響因子データ123は、記憶媒体92に記憶されていてもよい。これに応じて、第1学習装置2は、第1学習プログラム221及び影響因子データ123の少なくともいずれかを記憶媒体92から取得してもよい。
また、上記データ収集装置1と同様に、第1学習装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。第1学習装置2には、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、PC等が用いられてもよい。
<第2学習装置>
次に、図4を用いて、本実施形態に係る第2学習装置3のハードウェア構成の一例を説明する。図4は、本実施形態に係る第2学習装置3のハードウェア構成の一例を模式的に例示する。
図4に示されるとおり、本実施形態に係る第2学習装置3は、制御部31、記憶部32、外部インタフェース33、入力装置34、出力装置35、及びドライブ36が電気的に接続されたコンピュータである。なお、図4では、図2及び図3と同様に、外部インタフェースを「外部I/F」と記載している。
制御部31〜ドライブ36及び記憶媒体93はそれぞれ、上記データ収集装置1の制御部11〜ドライブ16及び記憶媒体91と同様である。ただし、第2学習装置3の記憶部32は、学習器の学習に利用する学習データ322、制御部31で実行される機械学習であって、学習器が、学習データ322に基づいて対象人物の感情を推定する学習を実行するための第2学習プログラム321(「表出感情学習プログラム」と称してもよい)、第2学習プログラム321の実行で作成される表出感情学習結果データ124等を記憶する。第2学習プログラム321は、第2学習装置3に後述する学習器の学習処理(図11)を実行させるためのプログラムである。詳細は後述する。
なお、上記データ収集装置1と同様に、第2学習プログラム321及び学習データ322は、記憶媒体93に記憶されていてもよい。これに応じて、第2学習装置3は、第2学習プログラム321及び学習データ322の少なくともいずれかを記憶媒体93から取得してもよい。
また、上記データ収集装置1と同様に、第2学習装置3の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。第2学習装置3には、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、PC等が用いられてもよい。
<その他>
なお、上記のとおり、本実施形態では、第1学習装置2から構築された学習器又はその複製物を取得して、影響因子データ123と同形式のデータに基づいて、対象人物に誘発される感情の種別を推定する第1学習結果利用装置(後述する誘発感情推定装置)を設けてもよい。この第1学習結果利用装置(不図示)は、上記各装置1〜3と同様に、制御部、記憶部、外部インタフェース、入力装置、出力装置、及びドライブが電気的に接続されたコンピュータで構成することができる。
記憶部には、上記第1学習装置2から取得した誘発感情学習結果データ223が保存される。また、第1学習結果利用装置は、外部インタフェースを介して、第2センサ52と同種の第3センサに接続される。これにより、第1学習結果利用装置は、記憶部に保存される誘発感情学習結果データ223によって、誘発感情の推定するための学習を行った学習済みの学習器の設定を行うことができる。また、第1学習結果利用装置は、影響因子データ123と同形式のデータを第3センサから取得し、第3センサから取得したデータを設定した学習済みの学習器に入力することで、当該学習済みの学習器から対象人物に誘発され得る感情の種別を示す情報を得ることができる。
[機能構成]
<データ収集装置>
次に、図5を用いて、本実施形態に係るデータ収集装置1の機能構成の一例を説明する。図5は、本実施形態に係るデータ収集装置1の機能構成の一例を模式的に例示する。
データ収集装置1の制御部11は、記憶部12に記憶された収集プログラム121をRAMに展開する。そして、制御部11は、RAMに展開された収集プログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図5に示されるとおり、本実施形態に係るデータ収集装置1は、第1取得部111、第2取得部112、感情特定部113、及び分類処理部114を備えるコンピュータとして機能する。
第1取得部111は、第1センサ51を利用して、人物の感情が表出する感情表出データ122を取得する。第2取得部112は、第2センサ52を利用して、感情表出データ122の取得に並行して、人物の感情に影響を及ぼし得る因子に関する影響因子データ123を取得する。これにより、データ収集装置1は、感情表出データ122及び影響因子データ123を同一の時系列に対応付けて取得する。
なお、感情表出データ122は、対象人物の顔を写した画像データ、ポリグラフにより得られたデータ、対象人物の声を録音した音声データ、及び対象人物からの回答データの少なくともいずれかを含んでよい。感情表出データ122として画像データを利用する場合、当該画像データには、複数の対象人物の顔が写っていてもよい。この場合、感情表出データ122に基づいて、複数の人物の感情を一度に特定することができる。また、回答データは、例えば、対象人物が入力装置により自身の感情を回答することで得られてよい。ただし、回答データの取得は、このような例に限定されなくてもよく、対象人物の感情の回答は、対象人物自身ではなく、第三者によって行われてもよい。影響因子データ123については後述する。
また、感情表出データ122及び影響因子データ123を並行的に取得するとは、感情表出データ122及び影響因子データ123の取得期間が必ずしも一致していなくてもよく、感情表出データ122及び影響因子データ123の取得期間が少なくとも一部で重複していればよい。つまり、感情表出データ122に表出する対象人物の感情を誘発した影響因子が存在し得る時間における影響因子データ123が取得可能であればよい。そのため、感情表出データ122及び影響因子データ123の取得の開始時刻及び終了時刻は異なっていてもよい。また、感情表出データ122及び影響因子データ123の取得のタイミングも異なっていてもよい。
感情特定部113は、感情表出データ122に基づいて、任意の時刻における対象人物の感情の種別を特定する。図5に示すとおり、本実施形態では、感情特定部113は、感情表出データ122を入力すると、感情表出データ122に表出する対象人物の感情の種別を示す値を出力するように学習した学習済みの学習器(ニューラルネットワーク6)を用いて、任意の時刻における対象人物の感情の種別を特定する。分類処理部114は、任意の時刻における対象人物の感情の誘発に関連する誘発時間内に取得した影響因子データ123を、特定した任意の時刻における対象人物の感情の種別に関連付けて記憶部12に保存することにより、感情の種別ごとに影響因子データ123を分類する。
(分類処理)
ここで、図6を更に用いて、影響因子データ123を感情の種別ごとに分類する処理について説明する。図6は、誘発時間内に取得した影響因子データ123を特定した感情の種別に関連付ける場面の一例を模式的に例示する。図6では、点線で囲まれた各種データが、誘発時間内に取得された各種データを示している。なお、図5及び図6の例では、上記図1の例と同様に、「喜び」、「怒り」等の固有の状態で感情の種別を示している。しかしながら、上記のとおり、感情の種別の表現は、このような例に限定されなくてもよく、1又は複数のパラメータを利用した数値表現等で示されてよい。
図6の例では、影響因子データ123は、生体データ1231、環境データ1232、及びイベントデータ1233を含んでいる。生体データ1231は、対象人物の身体に取り付けた生体センサから取得可能なデータであり、例えば、心拍数、脈拍数、呼吸数、体温、血圧、脳波、姿勢、及び筋電の少なくともいずれかを示すデータであってよい。環境データ1232は、対象人物の周囲の環境に関するデータであり、例えば、温度、湿度、明るさ、天気、気圧、騒音、振動、及び臭気の少なくともいずれかを示すデータであってよい。また、イベントデータ1233は、対象人物に起きた出来事を示すデータであり、例えば、対象人物が自身に起きた出来事を入力装置により入力することで得られる。なお、イベントデータ1233の内容は、対象人物に起きた何らかの出来事の種類を示すことができればよく、対象人物による入力に限らず、上記生体データ1231及び環境データ1232により特定されてもよい。例えば、対象人物に加速度センサを搭載し、当該加速度センサの取得値が所定値よりも大きくなった場合に、所定のイベントが発生したことを特定してもよい。この場合、所定のイベントは、例えば、対象人物に物体が衝突する、対象人物が倒れる等の加速度に基づいて検知可能なイベントである。これにより、入力装置を介した入力によらず、所定のイベントを検知することができる。また、イベントデータ1233の入力は、対象人物自身ではなく、第三者によって行われてもよい。
任意の時刻における対象人物の感情は、その時刻からその時刻よりも前の時刻の間に生じた影響因子によって誘発されていると想定される。そこで、本実施形態では、この任意の時刻における対象人物の感情の誘発に関連する時間、換言すると、任意の時刻における対象人物の感情を誘発した影響因子が存在し得る時間を誘発時間として設定する。例えば、誘発時間は、感情表出データ122により対象人物の感情の種別を特定した時刻からその時刻より所定の時間分だけ前の時刻までの間の時間に設定されてよい。ただし、誘発時間は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。誘発時間の終点は、感情の種別を特定した時刻から前後してもよい。なお、誘発時間は、感情特定部113により実行される、感情表出データ122に基づく感情の種別の特定の処理に基づいて、自動的に設定されてよい。例えば、感情特定部113が、所定の時刻(または、期間)の感情表出データ122に基づいて、所定の感情の種別を特定したとき、当該所定の時刻(または、期間)を基準に、所定の時間幅を設けて、誘発時間とすることができる。
この誘発時間は、影響因子データ123の各種類で共通であってよい。すなわち、分類処理部114は、共通の誘発時間内に取得された生体データ1231、環境データ1232、及びイベントデータ1233を、特定した感情の種別に関連付けて保存してもよい。ただし、影響因子が感情の誘発に作用する時間は、当該影響因子の種類によって相違し得ると想定される。具体的には、感情の誘発を起こしやすい影響因子は誘発時間が短く、感情の誘発を起こしにくい影響因子は誘発時間が長くなると想定される。そこで、誘発時間は、影響因子データ123の種類ごとに設定されてよい。
本実施形態では、生体データ1231により示される影響因子が感情の誘発に最も影響しやすく、環境データ1232により示される影響因子が次に感情の誘発に影響しやすく、イベントデータ1233により示される影響因子が感情の誘発に最も影響し難いと想定している。そのため、図6の例では、生体データ1231に対して設定された誘発時間が最も短くなっており、環境データ1232に対して設定された誘発時間が次に短くなっており、イベントデータ1233に対して設定された誘発時間が最も長くなっている。ただし、誘発時間の設定は、このような例に限定されなくてもよい。例えば、イベントデータ1233に対して設定された誘発時間が最も短くなっていてもよい。なお、生体データ1231が、例えば、心拍数、脈拍数、呼吸数、体温、血圧、脳波、姿勢、及び筋電から選択した複数種類のデータを含む場合、誘発時間は、生体データ1231の各種類で相違していてもよい。環境データ1232及びイベントデータ1233についても同様である。
また、生体データ1231は、対象人物に感情を誘発させる影響因子を示すデータであるとともに、対象人物に生じた(誘発された)感情の結果として変動し得るデータであると想定される。例えば、「怒り」の感情が誘発された結果、生体データ1231に含まれる血圧が上昇することが想定される。したがって、対象人物に生じた(誘発された)感情の前後でデータを取得するために、生体データ1231に対して設定された誘発時間の終点は、環境データ1232、イベントデータ1233、のそれと比較して、相対的に遅く設定されてよい。
分類処理部114は、このような各誘発時間内に取得した生体データ1231、環境データ1232、及びイベントデータ1233を、特定した感情の種別に関連付けることにより、感情の種別ごとに影響因子データ123を分類する。そして、分離処理部114は、感情の種別ごとに分類した影響因子データ123を記憶部12に保存する。関連付けは、公知の方法で適宜行われてよい。例えば、関連付けは、タグ付け等のラベリングにより行われてもよい。すなわち、分類処理部114は、関連付けの処理として、特定した感情の種別を示すタグ(識別データ)を、誘発時間内に取得した各種データ1231〜1233に付してもよい。この場合、付されたタグによって、各種データ1231〜1233が関連付けられた感情の種別を識別することができる。
また、本実施形態では、感情の種別を特定する時刻及び誘発時間の設定によっては、いずれの感情の種別にも関連付けされない影響因子データ123が発生し得る。図6の例では、点線で囲まれていないデータが、関連付けされない影響因子データ123に相当する。また、このような関連付けされない影響因子データ123は、感情表出データ122により特定された感情がデータ収集の対象としない感情である場合、及び感情表出データ122により任意の時刻における対象人物の感情が特定できなかった場合にも発生し得る。そこで、本実施形態に係る分類処理部114は、いずれの感情の種別にも分類されなかった影響因子データ123を削除するように構成される。
なお、特定の感情は、所定の時刻に生じるだけでなく、所定の期間を有して継続的に生じることも想定される。この場合にも、誘発時間は、特定の感情が所定の時刻に生じた場合と同様に設定することができる。すなわち、誘発時間は、特定の感情が生じた所定の期間の開始時刻より所定の第1の時間分だけ前の時刻までの間の時間に設定されてよい。また、誘発時間は、特定の感情が生じた所定の期間の終了時刻より所定の第2の時間分だけ後の時刻までの間の時間に設定されてよい。ここで、第1の時間分は、第2の時間分より長いことが好ましい。
(学習器)
次に、学習器について説明する。図5に示されるとおり、本実施形態に係るデータ収集装置1は、感情表出データ122に表出する対象人物の感情を特定するための学習を行った学習済みの学習器として、ニューラルネットワーク6を利用する。ニューラルネットワーク6は、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力側から順に、入力層61、中間層(隠れ層)62、及び出力層63を備えている。
図5では、ニューラルネットワーク6は1層の中間層62を備えており、入力層61の出力が中間層62の入力となり、中間層62の出力が出力層63の入力となっている。ただし、中間層62の数は1層に限られなくてもよく、ニューラルネットワーク6は、中間層62を2層以上備えてもよい。
各層61〜63は、1又は複数のニューロンを備えている。例えば、入力層61のニューロンの数は、感情表出データ122に応じて設定することができる。中間層62のニューロンの数は、実施の形態に応じて適宜設定することができる。また、出力層63のニューロンの数は、データ収集の対象とする感情の種別の数に応じて設定することができる。
隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が設定されている。図5の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。
各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。感情特定部113は、このようなニューラルネットワーク6の入力層61に任意の時刻における感情表出データ122を入力することで出力層63から得られる出力値に基づいて、当該任意の時刻における対象人物の感情の種別を特定する。
なお、このようなニューラルネットワーク6の構成(例えば、ニューラルネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報は、表出感情学習結果データ124に含まれている。データ収集装置1は、表出感情学習結果データ124を参照して、任意の時刻における感情表出データ122に表出する対象人物の感情の種別を特定する処理に用いる学習済みニューラルネットワーク6の設定を行う。
<第1学習装置>
次に、図7を用いて、本実施形態に係る第1学習装置2の機能構成の一例を説明する。図7は、本実施形態に係る第1学習装置2の機能構成の一例を模式的に例示する。
第1学習装置2の制御部21は、記憶部22に記憶された第1学習プログラム221をRAMに展開する。そして、制御部21は、RAMに展開された第1学習プログラム221をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図7に示されるとおり、本実施形態に係る第1学習装置2は、データ取得部211及び学習処理部212を備えるコンピュータとして機能する。
データ取得部211は、感情の種別ごとに分類された影響因子データを学習データ222として取得する。本実施形態では、データ取得部211は、データ収集装置1から、感情の種別ごとに分類された影響因子データ123を取得する。影響因子データ123が入力データとなり、影響因子データ123に関連付けられた感情の種別を示す値1234、換言すると、影響因子データ123により示される影響因子により誘発される感情を示す値1234が教師データとなる。学習処理部212は、影響因子データ123を入力すると、入力した影響因子データ123に関連付けられた感情の種別を示す値1234を出力するように学習器を学習させる。なお、教師データは、正解データと称してもよい。
図7に示されるとおり、本実施形態では、影響因子から誘発感情を推定する能力を機械学習する対象となる学習器は、ニューラルネットワーク7である。学習器の一例であるニューラルネットワーク7は、上記ニューラルネットワーク6と同様に構成可能である。すなわち、ニューラルネットワーク7は、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力側から順に、入力層71、中間層(隠れ層)72、及び出力層73を備えている。中間層72の数、各層71〜73のニューロンの数、及び隣接する層のニューロンの結合は、実施の形態に応じて適宜設定されてよい。
学習処理部212は、ニューラルネットワークの学習処理により、影響因子データ123を入力層71に入力すると、入力した影響因子データ123に関連付けられた感情の種別を示す値1234を出力層73から出力するニューラルネットワーク7を構築する。そして、学習処理部212は、構築したニューラルネットワーク7の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を誘発感情学習結果データ223として記憶部22に格納する。
<第2学習装置>
次に、図8を用いて、本実施形態に係る第2学習装置3の機能構成の一例を説明する。図8は、本実施形態に係る第2学習装置3の機能構成の一例を模式的に例示する。
第2学習装置3の制御部31は、記憶部32に記憶された第2学習プログラム321をRAMに展開する。そして、制御部31は、RAMに展開された第2学習プログラム321をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図8に示されるとおり、本実施形態に係る第2学習装置3は、データ取得部311及び学習処理部312を備えるコンピュータとして機能する。
データ取得部311は、感情表出データに表出する対象人物の感情を特定する能力を機械学習するのに利用する複数件の学習データ322を取得する。各件の学習データ322は、例えば、人物の感情が表出する感情表出データ3221と、当該感情表出データ3221に表出する人物の感情の種別を示す値3222との組み合わせで構成される。感情表出データ3221は、上記感情表出データ122と同様であり、第1センサ51を利用して取得可能である。感情表出データ3221は、入力データである。一方、感情表出データ3221に表出する人物の感情の種別を示す値3222は、教師データである。学習処理部312は、感情表出データ3221を入力すると、入力された感情表出データ3221に表出した人物の感情の種別を示す値3222を出力するように学習器を学習させる。
図8に示されるとおり、本実施形態では、感情表出データに表出する対象人物の感情を特定する能力を機械学習する対象となる学習器は、ニューラルネットワーク8である。学習器の一例であるニューラルネットワーク8は、上記ニューラルネットワーク6と同様に構成可能である。すなわち、ニューラルネットワーク8は、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力側から順に、入力層81、中間層(隠れ層)82、及び出力層83を備えている。中間層82の数、各層81〜83のニューロンの数、及び隣接する層のニューロンの結合は、実施の形態に応じて適宜設定されてよい。
学習処理部312は、ニューラルネットワークの学習処理により、感情表出データ3221を入力層81に入力すると、入力した感情表出データ3221に表出した人物の感情の種別を示す値3222を出力層83から出力するニューラルネットワーク8を構築する。そして、学習処理部312は、構築したニューラルネットワーク8の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を表出感情学習結果データ124として記憶部32に格納する。
<その他>
データ収集装置1、第1学習装置2、及び第2学習装置3の各機能に関しては後述する動作例で詳細に説明する。なお、本実施形態では、データ収集装置1、第1学習装置2、及び第2学習装置3の各機能がいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上の機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、データ収集装置1、第1学習装置2、及び第2学習装置3それぞれの機能構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。
§3 動作例
[データ収集装置]
次に、図9を用いて、データ収集装置1の動作例を説明する。図9は、データ収集装置1の処理手順の一例を示すフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(起動)
まず、利用者は、データ収集装置1を起動する。これに応じて、起動したデータ収集装置1の制御部11は、収集プログラム121を実行する。また、制御部11は、表出感情学習結果データ124を参照して、ニューラルネットワーク6の構造、各ニューロン間の結合の重み及び各ニューロンの閾値の設定を行う。そして、制御部11は、以下の処理手順に従って、感情の種別ごとに影響因子データ123を収集する処理を行う。
(ステップS101)
ステップS101では、制御部11は、第1取得部111として機能し、人物の感情が表出する感情表出データ122を継続的に取得する。また、制御部11は、第2取得部112として機能し、感情表出データ122の継続的な取得に並行して、人物の感情に影響を及ぼし得る因子に関する影響因子データ123を継続的に取得する。
感情表出データ122は、例えば、対象人物の顔を写した画像データ、ポリグラフにより得られたデータ、対象人物の声を録音した音声データ、及び対象人物からの回答データの少なくともいずれかである。この感情表出データ122は、カメラ、ポリグラフ、マイクロフォン、回答を行うための入力装置等を第1センサ51として利用することで取得可能である。
また、影響因子データ123は、例えば、生体データ1231、環境データ1232、及びイベントデータ1233を含む。生体データ1231は、例えば、心拍数、脈拍数、呼吸数、体温、血圧、脳波、姿勢、及び筋電の少なくともいずれかを示すデータである。環境データ1232は、例えば、温度、湿度、明るさ、天気、気圧、騒音、振動、及び臭気の少なくともいずれかを示すデータである。イベントデータ1233は、対象人物に起きた出来事を示すデータである。このような影響因子データ123は、生体センサ、環境センサ、入力装置等を第2センサ52として利用することで取得可能である。
なお、感情表出データ122及び影響因子データ123の取得は、データ収集装置1以外の1又は複数の他の情報処理装置により行われてもよい。この場合、1又は複数の他の情報処理装置は、第1センサ51及び第2センサ52を利用して、感情表出データ122及び影響因子データ123を取得することができる。そして、制御部11は、ネットワーク、記憶媒体91等を介して、1又は複数の他の情報処理装置から感情表出データ122及び影響因子データ123を取得することができる。すなわち、制御部11は、感情表出データ122及び影響因子データ123を、直接的に取得するのではなく、間接的に取得してもよい。
(ステップS102)
次のステップS102では、制御部11は、感情特定部113として機能し、感情表出データ122に基づいて、任意の時刻における対象人物の感情の種別を特定する。本実施形態では、学習済みのニューラルネットワーク6を用いて、感情表出データ122に表出する任意の時刻における対象人物の感情の種別を特定する。本実施形態では、学習済みのニューラルネットワーク6は、後述する第2学習装置3による機械学習の結果として得られる表出感情学習結果データ124に基づいて、その内部構造が設定される。
具体的には、制御部11は、上記ステップS101で取得した任意の時刻における感情表出データ122をニューラルネットワーク6の入力層61に入力する。入力する感情表出データ122と入力層61の各ニューロンとの対応関係は、実施の形態に応じて適宜設定されてよい。次に、制御部11は、順伝搬の方向に各層61〜63に含まれる各ニューロンの発火判定を行うことで、ニューラルネットワーク6の出力層63から、任意の時刻における感情表出データ122に表出する対象人物の感情の種別を示す出力値を得る。これにより、制御部11は、感情表出データ122に表出する任意の時刻における対象人物の感情の種別を特定する。この「任意の時刻」は、同一種の感情が継続することを想定して、「所定の期間」に置き換えられてもよい。すなわち、制御部11は、感情表出データ122に表出する所定の期間における対象人物の感情の種別を特定してもよい。
(ステップS103)
次のステップS103では、制御部11は、分類処理部114として機能し、任意の時刻における対象人物の感情の誘発に関連する誘発時間内に取得した影響因子データ123を、ステップS102で特定した任意の時刻(または、所定の期間)における対象人物の感情の種別に関連付けて保存する。これにより、制御部11は、感情の種別ごとに影響因子データ123を分類して記憶部12に格納する。
本実施形態では、上記のとおり、生体データ1231、環境データ1232、及びイベントデータ1233それぞれに異なる長さの誘発時間が設定されている。制御部11は、それぞれに設定された誘発時間内に取得した生体データ1231、環境データ1232、及びイベントデータ1233に、ステップS102で特定した感情の種別を示すタグを付す。これによって、制御部11は、任意の時刻における対象人物の感情の誘発に関連する誘発時間内に取得した影響因子データ123を、ステップS102で特定した任意の時刻(または、所定の期間)における対象人物の感情の種別に関連付けて保存する。すなわち、感情の種別と紐づく感情表出データ122に基づいて感情を特定し、当該感情の誘発時間に取得した影響因子データ123(生体データ1231、環境データ1232、イベントデータ1233)と、特定された感情の種別とを紐づける。
なお、影響因子データ123を保存する形式は、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、公知のデータベースの技術を利用して、感情の種別をクエリとして与えると、当該感情の種別に関連付けられた影響因子データ123を出力するデータベースを構築してもよい。
(ステップS104)
次のステップS104では、制御部11は、分類処理部114として機能し、ステップS103において、いずれの感情の種別にも分類されなかった影響因子データ123を削除する。例えば、制御部11は、上記図6の例における点線で囲まれていない影響因子データ123を削除する。ステップS104の処理が完了すると、制御部11は、本動作例に係る処理を終了する。
[第1学習装置]
次に、図10を用いて、第1学習装置2の動作例を説明する。図10は、第1学習装置2の処理手順の一例を示すフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS201)
ステップS201では、制御部21は、データ取得部211として機能し、感情の種別ごとに分類された影響因子データを取得する。例えば、制御部21は、ネットワーク、記憶媒体92等を介して、データ収集装置1により収集された感情の種別ごとに分類された影響因子データ123を取得する。対象人物の感情を特定した各時刻の誘発時間内に取得した影響因子データ123を1件のデータとして取り扱うことで、感情の種別ごとに分類された影響因子データ123を複数件の学習データ222として利用することができる。
なお、制御部21は、上記データ収集装置1による方法以外の方法で収集された、感情の種別ごとに分類された影響因子データ123を取得してもよい。感情の種別ごとに分類された影響因子データ123の収集は、例えば、次のように行うことができる。すなわち、対象人物に誘発されている感情を特定可能な状態で、第2センサ52により、影響因子データ123を取得する。そして、オペレータが入力装置により入力することで、取得した影響因子データ123に、対象人物に誘発されている感情の種別を示す値を紐付ける。この一連の処理を繰り返すことで、感情の種別ごとに分類された影響因子データ123を収集することができる。
この感情の種別ごとに分類された影響因子データ123の収集は、第1学習装置2により行われてもよいし、第1学習装置2以外の情報処理装置により行われてもよい。第1学習装置2が上記方法により影響因子データ123を収集する場合には、制御部21は、本ステップS201において、上記影響因子データ123の収集処理を実行することで、感情の種別ごとに分類された影響因子データ123を取得することができる。一方、第1学習装置2以外の他の情報処理装置が上記方法により影響因子データ123を収集する場合には、制御部21は、ネットワーク、記憶媒体92等を介して、他の情報処理装置により収集された、感情の種別ごとに分類された影響因子データ123を取得することができる。
(ステップS202)
次のステップS202では、制御部21は、学習処理部212として機能して、ステップS201で取得した複数件の学習データ222を用いて、ニューラルネットワーク7の機械学習を実施する。
具体的には、まず、制御部21は、機械学習を実施する対象となるニューラルネットワーク7を用意する。用意するニューラルネットワーク7の構成、各ニューロン間の結合の重みの初期値、及び各ニューロンの閾値の初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。また、再学習を行う場合には、制御部21は、再学習を行う対象となる誘発感情学習結果データ223に基づいて、ニューラルネットワーク7を用意してもよい。
次に、制御部21は、ステップS201で取得した影響因子データ123を入力データとし、当該影響因子データ123に関連付けられた感情の種別を示す値1234を教師データとして利用して、ニューラルネットワーク7の学習処理を実施する。このニューラルネットワーク7の学習処理には、勾配降下法、確率的勾配降下法等が用いられてよい。
例えば、制御部21は、影響因子データ123を入力層71に入力して、ニューラルネットワーク7の順伝播方向の演算処理を行う。これにより、制御部21は、ニューラルネットワーク7の出力層73から出力値を得る。次に、制御部21は、出力層73から得た出力値と対応する感情の種別を示す値1234との誤差を算出する。続いて、制御部21は、誤差逆伝搬法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。そして、制御部21は、算出した各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値の更新を行う。
制御部21は、各件の学習データ222について、出力層73から出力される出力値が対応する感情の種別を示す値1234と一致するまでこの一連の処理を繰り返すことにより、ニューラルネットワーク7の学習を行う。これにより、影響因子データ123を入力すると、入力した影響因子データ123に関連付けられた感情の種別を示す値1234を出力する学習済みのニューラルネットワーク7を構築することができる。
(ステップS203)
次のステップS203では、制御部21は、学習処理部212として機能して、構築したニューラルネットワーク7の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を誘発感情学習結果データ223として記憶部22に格納する。これにより、制御部21は、本動作例に係るニューラルネットワーク7の学習処理を終了する。
なお、制御部21は、上記ステップS203の処理が完了した後に、作成した誘発感情学習結果データ223を、学習済みニューラルネットワーク7の利用を所望する装置(以下、「誘発感情推定装置」と称する)に転送してもよい。また、制御部21は、上記ステップS201〜S203の学習処理を定期的に実行することで、誘発感情学習結果データ223を定期的に更新してもよい。そして、制御部21は、作成した誘発感情学習結果データ223を当該学習処理の実行毎に誘発感情推定装置に転送することで、誘発感情推定装置の保持する誘発感情学習結果データ223を定期的に更新してもよい。
[第2学習装置]
次に、図11を用いて、第2学習装置3の動作例を説明する。図11は、第2学習装置3の処理手順の一例を示すフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS301)
ステップS301では、制御部31は、データ取得部311として機能して、機械学習に利用する複数件の学習データ322を取得する。学習データ322は、人物の感情が表出する感情表出データ3221と、当該感情表出データ3221に表出する人物の感情の種別を示す値3222との組み合わせで構成される。
この学習データ322は、例えば、次のような方法で収集することができる。すなわち、第1センサ51により、様々な人物の感情が表出した複数件の感情表出データ3221を取得する。例えば、感情表出データ3221として画像データを利用する場合には、各感情の種別に応じた表情を様々な人物に作らせ、その表情が写るように各人物をカメラで撮影することで、様々な人物の感情が表出した複数件の感情表出データ3221を取得することができる。そして、オペレータが入力装置により入力することで、取得した各件の感情表出データ3221に、当該各件の感情表出データ3221に表出している感情の種別を示す値3222を紐付ける。これにより、複数件の学習データ322を収集することができる。
この複数件の学習データ322の収集処理は、第2学習装置3により行われてもよいし、第2学習装置3以外の情報処理装置により行われてもよい。第2学習装置3が上記方法により複数件の学習データ322を収集する場合には、制御部31は、本ステップS301において、上記学習データ322の収集処理を実行することで、複数件の学習データ322を取得することができる。一方、第2学習装置3以外の他の情報処理装置が上記方法により複数件の学習データ322を収集する場合には、制御部31は、本ステップS301において、ネットワーク、記憶媒体93等を介して、他の情報処理装置により収集された複数件の学習データ322を取得することができる。
(ステップS302)
次のステップS302では、制御部31は、学習処理部312として機能して、ステップS301で取得した複数件の学習データ322を用いて、ニューラルネットワーク8の機械学習を実施する。
ニューラルネットワーク8の機械学習は、上記ステップS202と同様の方法で実施することができる。すなわち、制御部31は、各件の学習データ322について、感情表出データ3221を入力層81に入力することで出力層83から出力される出力値が対応する感情の種別を示す値3222と一致するまで、上記各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値を更新する一連の処理を繰り返す。これにより、制御部31は、感情表出データ3221を入力すると、入力した感情表出データ3221に表出した人物の感情の種別を示す値3222を出力する学習済みのニューラルネットワーク8を構築することができる。
(ステップS303)
次のステップS303では、制御部31は、学習処理部312として機能して、構築したニューラルネットワーク8の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を表出感情学習結果データ124として記憶部32に格納する。これにより、制御部31は、本動作例に係るニューラルネットワーク8の学習処理を終了する。
なお、制御部31は、上記ステップS303の処理が完了した後に、作成した表出感情学習結果データ124をデータ収集装置1に転送してもよい。また、制御部31は、上記ステップS301〜S303の学習処理を定期的に実行することで、表出感情学習結果データ124を定期的に更新してもよい。そして、制御部31は、作成した表出感情学習結果データ124を当該学習処理の実行毎にデータ収集装置1に転送することで、データ収集装置1の保持する表出感情学習結果データ124を定期的に更新してもよい。
[作用・効果]
以上のとおり、本実施形態に係るデータ収集装置1によれば、上記ステップS101〜S103の処理により、対象人物の感情に影響を及ぼし得る因子に関する影響因子データ123を感情の種別ごとに分類して収集することができる。この感情の種別ごとに分類された影響因子データ123を利用すれば、対象人物の感情を誘発した要因を分析することができる。したがって、本実施形態に係るデータ収集装置1によれば、対象人物の感情を誘発した要因の推定を可能にすることができる。また、感情が表出する所定の誘発時間に限り、取得した影響因子データ123を保存するので、保存するデータ量を抑制することができる。
また、本実施形態では、上記ステップS102において、感情表出データ122に表出する対象人物の感情の種別を特定するのに、学習済みのニューラルネットワーク6を利用している。これにより、例えば、顔の写っている画像データ、声を録音した音声データ等の比較的に表出している感情を特定しにくい感情表出データ122を利用した場合でも、当該感情表出データ122に表れる対象人物の感情の種別を容易にかつ適切に特定することができる。
また、本実施形態では、上記ステップS103において、特定した感情の種別に関連付ける時間幅を規定する誘発時間は、影響因子データ123の種類ごとに設定される。更に、上記ステップS104において、いずれの感情の種別にも分類されなかった影響因子データ123を削除する。したがって、本実施形態によれば、誘発した感情の影響因子を表わす適切なデータ量の影響因子データ123を収集することができ、これによって、影響因子データ123を格納する記憶部12を効率的に利用することができる。
また、本実施形態に係る第1学習装置2は、感情の種別ごとに分類された影響因子データ123を利用して、影響因子に基づいて対象人物に誘発される感情の種別を推定する学習器(学習済みのニューラルネットワーク7)を構築する。この学習済みのニューラルネットワーク7によれば、影響因子データから対象人物に誘発する感情を推定することができるようになる。また、所定の誘発時間に限って取得され、感情の種別ごとに分類された影響因子データ123を使用した機械学習により学習器を構築するので、学習時間を短縮させることができるとともに、誘発要因の推定精度に優れた学習器を構築することができる。
例えば、学習済みのニューラルネットワーク7を利用すれば、自動車が自動運転で走行している間に、ドライバ及び同乗者から取得した生体データ及び車内環境から取得した環境データに基づいて、ドライバ及び同乗者に誘発する感情を推定することができる。これにより、ドライバ及び同乗者が快適に感じるように自動運転及び車内環境の調節を行うことができる。
また、例えば、学習済みのニューラルネットワーク7を利用すれば、工場などの作業現場で、作業員から取得した生体データ及び工場内の作業環境から取得した環境データに基づいて、作業員に誘発する感情を推定することができる。これにより、作業員が快適に感じるように、作業現場の改善点を見つけ出すことができる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<4.1>
上記実施形態では、上記ステップS102において、感情表出データ122に表出する対象人物の感情の種別を特定するのに、学習済みのニューラルネットワーク6を利用している。しかしながら、感情表出データ122に表出する対象人物の感情の種別を特定する方法は、このような例に限定されなくてもよく、学習済みのニューラルネットワーク6を利用しなくてもよい。
例えば、ポリグラフにより得られたデータ、対象人物からの回答データ等の感情の種別をそのままで示し得る感情表出データ122を利用する場合、制御部11は、上記ステップS102において、感情表出データ122の示す値を閾値判定する等により、当該感情表出データ122に表出する対象人物の感情の種別を特定してもよい。また、例えば、対象人物の顔を写した画像データを感情表出データ122として利用する場合、制御部11は、上記ステップS102において、公知の画像解析を画像データに適用することで、当該画像データに表出する対象人物の感情の種別を特定してもよい。また、例えば、対象人物の声を録音した音声データを感情表出データ122として利用する場合、制御部11は、上記ステップS102において、公知の音声解析を音声データに適用することで、当該音声データに表出する対象人物の感情の種別を特定してもよい。
<4.2>
上記実施形態では、影響因子データ123は、生体データ1231、環境データ1232、及びイベントデータ1233を含んでいる。しかしながら、影響因子データ123の構成は、このような例に限定されなくてもよく、例えば、生体データ1231、環境データ1232、及びイベントデータ1233の少なくともいずれかは省略されてもよい。また、影響因子データ123は、上記生体データ1231、環境データ1232、及びイベントデータ1233のうちの少なくとも2つを含むように構成されてよい。この場合にも、誘発時間は、上記実施形態と同様に、生体データ1231、環境データ1232、及びイベントデータ1233それぞれで相違するように設定されてよい。
<4.3>
上記実施形態では、制御部11は、上記ステップS103において、誘発時間内に取得した影響因子データ123を、任意の時刻において特定した感情の種別に関連付けている。しかしながら、特定した感情の種別に関連付けるデータは、影響因子データ123に限られなくてもよい。
例えば、制御部11は、ステップS102で特定した感情の種別に、その感情の種別の特定に利用した任意の時刻における感情表出データ122を関連付けてもよい。この場合、上記第1学習装置2は、感情の種別ごとに分類された感情表出データ122及び影響因子データ123をデータ収集装置1から取得してもよい。そして、第1学習装置2は、感情表出データ122及び影響因子データ123を入力すると、対応する感情の種別を示す値を出力する学習済みのニューラルネットワーク7を構築してもよい。
また、例えば、図12〜図14に例示されるように、制御部11は、ステップS102で特定した感情の種別に、対象人物の属性を示す属性データを関連付けてもよい。図12〜図14は、本変形例に係るデータ収集装置1A、第1学習装置2A、及び第2学習装置3Aの機能構成の一例を模式的に例示する。
図12に例示されるように、本変形例に係るデータ収集装置1Aの分類処理部114は、対象人物の感情の種別ごとに分類した影響因子データ123に対象人物の属性を示す属性データ125を更に関連付けるように構成される。また、学習済みのニューラルネットワーク6Aは、感情表出データ122及び属性データ125を入力すると、対応する感情の種別を示す値を出力するように構築される。ニューラルネットワーク6Aは、属性データ125を入力層に入力可能になっている点を除き、上記ニューラルネットワーク6と同様に構成可能である。表出感情学習結果データ124Aは、この学習済みのニューラルネットワーク6Aの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を含む。これらの点を除き、データ収集装置1Aは、上記データ収集装置1と同様に構成される。なお、本変形例において、学習済みのニューラルネットワーク6Aは、上記学習済みのニューラルネットワーク6と同様に、感情表出データ122を入力すると、対応する感情の種別を示す値を出力するように構築されてもよい。
本変形例の場合、制御部11は、対象人物の属性データ125を適宜取得する。例えば、制御部11は、上記ステップS101の処理の前に、オペレータ等に対して、対象とする人物の属性の入力を受け付け、受け付けた入力に基づいて、属性データ125を取得する。対象人物の属性は、例えば、性別、身長、体重、血液型、年齢、誕生日、出身地、国籍、及び職業の少なくともいずれかにより規定されてよい。
次に、上記ステップS102では、制御部11は、学習済みのニューラルネットワーク6Aの入力層に感情表出データ122及び属性データ125を入力することで、感情表出データ122に表出する対象人物の感情の種別を示す値を出力層から取得する。そして、制御部11は、上記ステップS103において、取得した属性データ125を、感情の種別ごとに分類して保存する影響因子データ123に関連付けてよい。これにより、対象人物の感情に影響を及ぼし得る因子に関する影響因子データ123を、対象人物の属性ごと及び感情の種別ごとに分類して保存することができる。
また、図13に例示されるとおり、本変形例に係る第1学習装置2Aのデータ取得部211は、対象人物の属性ごと及び感情の種別ごとに分類された影響因子データ123を取得するように構成される。そして、学習処理部212は、影響因子データ123及び属性データ125を入力すると、対応する感情の種別を示す値1234を出力するようにニューラルネットワーク7Aを学習させるように構成される。ニューラルネットワーク7Aは、属性データ125を入力層に更に入力可能になっている点を除き、上記ニューラルネットワーク7と同様に構成可能である。これらの点を除き、第1学習装置2Aは、上記第1学習装置2と同様に構成される。
本変形例の場合、制御部21は、上記ステップS201において、対象人物の属性ごと及び感情の種別ごとに分類された影響因子データ123を、例えば、データ収集装置1Aから取得する。次に、制御部21は、上記ステップS202の学習処理により、影響因子データ123及び属性データ125を入力すると、対応する感情の種別を示す値1234を出力するニューラルネットワーク7Aを構築する。そして、制御部21は、上記ステップS203において、構築したニューラルネットワーク7Aの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を誘発感情学習結果データ223Aとして記憶部22に格納する。これにより、対象人物の属性及び影響因子に基づいて当該対象人物に誘発される感情の種別を推定する学習済みのニューラルネットワーク7Aを構築することができる。そのため、本変形例によれば、対象人物に誘発される感情の種別の推定精度の高い学習済みのニューラルネットワーク7Aを構築することができる。
また、図14に例示されるとおり、本変形例に係る第2学習装置3Aのデータ取得部311は、対象人物の属性を示す属性データ125に関連付けられた学習データ322を取得するように構成される。そして、学習処理部312は、感情表出データ3221及び属性データ125を入力すると、感情表出データ3221に表出している感情の種別を示す値3222を出力するようにニューラルネットワーク8Aを学習させるように構成される。ニューラルネットワーク8Aは、属性データ125を入力層に入力可能になっている点を除き、上記ニューラルネットワーク8と同様に構成可能である。これらの点を除き、第2学習装置3Aは、上記第2学習装置3と同様に構成される。
本変形例の場合、制御部31は、上記ステップS301において、対象人物の属性を示す属性データ125に関連付けられた学習データ322を取得する。次に、制御部31は、上記ステップS302の学習処理により、感情表出データ3221及び属性データ125を入力すると、感情表出データ3221に表出している感情の種別を示す値3222を出力するニューラルネットワーク8Aを構築する。そして、制御部31は、上記ステップS303において、構築したニューラルネットワーク8Aの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を表出感情学習結果データ124Aとして記憶部32に格納する。これにより、上記データ収集装置1Aで利用する学習済みのニューラルネットワーク6Aを設定するための表出感情学習結果データ124Aを得ることができる。
<4.4>
上記実施形態では、上記ステップS101〜S103の処理により、対象人物の感情に影響を及ぼし得る因子に関する影響因子データ123を感情の種別ごとに分類して収集することができる。そこで、上記実施形態に係るデータ収集装置1は、感情の種別ごとに分類した影響因子データ123を利用して、対象人物の感情を誘発した要因を分析するように構成されてよい。
図15は、本変形例に係るデータ収集装置1Bの機能構成の一例を模式的に例示する。図15に例示されるように、本変形例に係るデータ収集装置1Bは、感情の種別ごとに分類された影響因子データ123を解析することで、感情を誘発した要因を推定する要因推定部115を更に備える点を除き、上記データ収集装置1と同様に構成される。この場合、制御部11は、上記ステップS103の処理の後に、要因推定部115として機能し、感情の種別ごとに分類された影響因子データ123を解析することで、各感情を誘発する要因を推定する。解析手法は、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、出現頻度等を利用した統計的手法により、感情の種別ごとに分類された影響因子データ123から各感情を誘発する要因を推定してもよい。また、例えば、制御部11は、教師なし学習、強化学習等の機械学習を利用した手法により、感情の種別ごとに分類された影響因子データ123から各感情を誘発する要因を推定してもよい。当該変形例によれば、感情の種別ごとに分類して収集した影響因子データ123を利用して、対象人物の感情を誘発した要因を推定することができる。
<4.5>
上記実施形態では、各ニューラルネットワーク6〜8として、多層構造を有する一般的な順伝播型ニューラルネットワークが用いられている。しかしながら、各ニューラルネットワーク6〜8の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各ニューラルネットワーク6〜8には、畳み込み層及びプーリング層を備える畳み込みニューラルネットワーク、中間層から入力層等のように出力側から入力側に再帰する結合を有する再帰型ニューラルネットワーク等を用いてもよい。また、各ニューラルネットワーク6〜8に含まれる各ニューロンの内部構造も、上記実施形態の例に限定されなくてもよい。例えば、各ニューロンには、内部電位hに基づいて確率Pで発火してパルスを生成するスパイキングニューロンが用いられてもよい。
<4.6>
上記実施形態では、各学習器は、ニューラルネットワークにより構成されている。しかしながら、学習器の種類は、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各学習器には、サポートベクターマシン、自己組織化マップ、強化学習により学習を行う学習器等が用いられてよい。
<4.7>
上記実施形態では、ステップS104により、いずれの感情の種別にも分類されなかった影響因子データ123を削除している。しかしながら、データ収集装置1の処理手順は、このような例に限定されなくてもよい。いずれの感情の種別にも分類されなかった影響因子データ123も保存する場合、上記ステップS104の処理は省略されてもよい。
<4.8>
また、上記実施形態では、データ収集装置1、第1学習装置2、第2学習装置3、及びその他の情報処理装置(例えば、誘発感情推定装置)はそれぞれ別のコンピュータにより構成されている。しかしながら、データ収集装置1、第1学習装置2、第2学習装置3、及びその他の情報処理装置の構成は、このような例に限定されなくてもよい。データ収集装置1、第1学習装置2、第2学習装置3、及びその他の情報処理装置の少なくともいずれか2つは一体に構成されてもよい。なお、データ収集装置1、第1学習装置2、第2学習装置3、及びその他の情報処理装置の少なくともいずれか2つを一体に構成する場合には、一体に構成する各装置に備わる各構成要素を結合(和集合)すればよい。すなわち、一体的に構成される情報処理装置は、各プログラム、各学習データ、各学習結果データ等の各装置に固有の構成要素を個別に含むようにし、制御部、記憶部、入力装置、出力装置等は共通で含むように構成すればよい。
<4.9>
また、上記実施形態では、表出感情学習結果データ124及び誘発感情学習結果データ223は、各ニューラルネットワーク(6、7)の構成を示す情報を含んでいる。しかしながら、各学習結果データ(124、223)の構成は、このような例に限定されなくてもよい。例えば、利用するニューラルネットワークの構成が各装置で共通化されている場合には、各学習結果データ(124、223)は、各ニューラルネットワーク(6、7)の構成を示す情報を含んでいなくてもよい。
1・1A・1B…データ収集装置、
11…制御部、12…記憶部、13…外部インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
111…第1取得部、112…第2取得部、
113…感情特定部、114…分類処理部、
115…要因推定部、
121…収集プログラム、122…感情表出データ、
123…影響因子データ、
1231…生体データ、1232…環境データ、1233…イベントデータ、
124…表出感情学習結果データ、
125…属性データ、
2・2A…第1学習装置、
21…制御部、22…記憶部、23…外部インタフェース、
24…入力装置、25…出力装置、26…ドライブ、
211…データ取得部、212…学習処理部、
221…第1学習プログラム、222…(誘発感情用)学習データ、
223…誘発感情学習結果データ、
3・3A…第2学習装置、
31…制御部、32…記憶部、33…外部インタフェース、
34…入力装置、35…出力装置、36…ドライブ、
311…データ取得部、312…学習処理部、
321…第2学習プログラム、322…(表出感情用)学習データ、
51…第1センサ、52…第2センサ、
6…ニューラルネットワーク、
61…入力層、62…中間層(隠れ層)、63…出力層、
7…ニューラルネットワーク、
71…入力層、72…中間層(隠れ層)、73…出力層、
8…ニューラルネットワーク、
81…入力層、82…中間層(隠れ層)、83…出力層、
91・92・93…記憶媒体

Claims (15)

  1. 人物の感情が表出する第1データを取得する第1取得部と、
    前記第1データの取得に並行して、前記人物の感情に影響を及ぼし得る因子に関する第2データを取得する第2取得部と、
    取得した前記第1データに基づいて、任意の時刻における前記人物の感情の種別を特定する感情特定部と、
    前記任意の時刻における前記人物の感情の誘発に関連する誘発時間内に取得した前記第2データを、特定した前記任意の時刻における前記人物の感情の種別に関連付けて保存することにより、前記人物の感情の種別ごとに前記第2データを分類する分類処理部と、
    を備える、
    データ収集装置。
  2. 前記感情特定部は、前記第1データを入力すると、前記第1データに表出する前記人物の感情の種別を示す値を出力するように学習した学習済みの学習器を用いて、前記任意の時刻における前記人物の感情の種別を特定する、
    請求項1に記載のデータ収集装置。
  3. 前記誘発時間は、前記第2データの種類ごとに設定される、
    請求項1又は2に記載のデータ収集装置。
  4. 前記分類処理部は、前記人物の感情の種別ごとに分類する前記第2データに前記人物の属性を更に関連付ける、
    請求項1から3のいずれか1項に記載のデータ収集装置。
  5. 前記人物の属性は、性別、身長、体重、血液型、年齢、誕生日、出身地、国籍、及び職業の少なくともいずれかにより特定される、
    請求項4に記載のデータ収集装置。
  6. 前記感情の種別ごとに分類された前記第2データを解析することで、前記感情を誘発した要因を推定する要因推定部を更に備える、
    請求項1から5のいずれか1項に記載のデータ収集装置。
  7. 前記分類処理部は、いずれの感情の種別にも分類されなかった前記第2データを削除するよう構成される、
    請求項1から6のいずれか1項に記載のデータ収集装置。
  8. 前記第1データは、前記人物の顔を写した画像データ、ポリグラフにより得られたデータ、前記人物の声を録音した音声データ、及び前記人物からの回答データの少なくともいずれかを含む、
    請求項1から7のいずれか1項に記載のデータ収集装置。
  9. 前記第2データは、前記人物から得られる生体データ、前記人物の周囲の環境を示す環境データ、及び前記人物に起きた出来事を示すイベントデータの少なくともいずれかを含む、
    請求項1から8のいずれか1項に記載のデータ収集装置。
  10. 前記第2データは、前記生体データ、前記環境データ、及び前記イベントデータのうちの少なくとも2つを含み、
    前記誘発時間は、前記生体データ、前記環境データ、及び前記イベントデータそれぞれで相違する、
    請求項9に記載のデータ収集装置。
  11. 前記生体データは、心拍数、脈拍数、呼吸数、体温、血圧、脳波、姿勢、及び筋電の少なくともいずれかを示す、
    請求項9又は10に記載のデータ収集装置。
  12. 前記環境データは、温度、湿度、明るさ、天気、気圧、騒音、振動、及び臭気の少なくともいずれかを示す、
    請求項9から11のいずれか1項に記載のデータ収集装置。
  13. 人物の感情に影響を及ぼし得る因子に関する影響因子データであって、当該人物の感情の種別ごとに分類された影響因子データを取得するデータ取得部と、
    前記影響因子データを入力すると、入力した前記影響因子データに関連付けられた感情の種別を示す値を出力するように学習器を学習させる学習処理部と、
    を備える、
    学習装置。
  14. 前記データ取得部は、前記人物の属性を示す属性データを更に取得し、
    前記学習処理部は、前記影響因子データ及び前記属性データを入力すると、入力した前記影響因子データに関連付けられた感情の種別を示す値を出力するように学習器を学習させる、
    請求項13に記載の学習装置。
  15. 人物の感情が表出する感情表出データを取得するデータ取得部と、
    前記感情表出データを入力すると、入力された前記感情表出データに表出した前記人物の感情の種別を示す値を出力するように学習器を学習させる学習処理部と、
    を備える、
    学習装置。
JP2017094519A 2017-05-11 2017-05-11 データ収集装置及び学習装置 Active JP6911505B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017094519A JP6911505B2 (ja) 2017-05-11 2017-05-11 データ収集装置及び学習装置
PCT/JP2018/016704 WO2018207619A1 (en) 2017-05-11 2018-04-25 Data collection apparatus and learning apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017094519A JP6911505B2 (ja) 2017-05-11 2017-05-11 データ収集装置及び学習装置

Publications (2)

Publication Number Publication Date
JP2018190318A true JP2018190318A (ja) 2018-11-29
JP6911505B2 JP6911505B2 (ja) 2021-07-28

Family

ID=62530521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094519A Active JP6911505B2 (ja) 2017-05-11 2017-05-11 データ収集装置及び学習装置

Country Status (2)

Country Link
JP (1) JP6911505B2 (ja)
WO (1) WO2018207619A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021060310A1 (ja) * 2019-09-26 2021-04-01 富士フイルム株式会社 情報処理システム及び方法並びに情報処理装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109741190A (zh) * 2018-12-27 2019-05-10 清华大学 一种个股公告分类的方法、系统及设备
CN115374130B (zh) * 2022-10-26 2022-12-20 中科三清科技有限公司 一种大气污染历史数据存储方法及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127057A (ja) * 2004-10-27 2006-05-18 Canon Inc 推定装置、及びその制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4757787B2 (ja) 2006-12-08 2011-08-24 株式会社トヨタIt開発センター 感情推定装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127057A (ja) * 2004-10-27 2006-05-18 Canon Inc 推定装置、及びその制御方法
US20070270664A1 (en) * 2004-10-27 2007-11-22 Canon Kabushiki Kaisha Estimation Apparatus and Its Control Method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021060310A1 (ja) * 2019-09-26 2021-04-01 富士フイルム株式会社 情報処理システム及び方法並びに情報処理装置
JPWO2021060310A1 (ja) * 2019-09-26 2021-04-01
JP7217813B2 (ja) 2019-09-26 2023-02-03 富士フイルム株式会社 情報処理システム及び方法並びに情報処理装置
JP7451786B2 (ja) 2019-09-26 2024-03-18 富士フイルム株式会社 情報処理システム及び方法

Also Published As

Publication number Publication date
WO2018207619A1 (en) 2018-11-15
JP6911505B2 (ja) 2021-07-28

Similar Documents

Publication Publication Date Title
US11769056B2 (en) Synthetic data for neural network training using vectors
Vinola et al. A survey on human emotion recognition approaches, databases and applications
CN106956271B (zh) 预测情感状态的方法和机器人
CN109475294A (zh) 用于治疗精神障碍的移动和可穿戴视频捕捉和反馈平台
US20210397954A1 (en) Training device and training method
KR102476675B1 (ko) 대화형 뇌-컴퓨터 인터페이스 기반 스마트 홈 제어 방법 및 서버
CN110291542B (zh) 主要原因估计装置、主要原因估计系统以及主要原因估计方法
CN113673244B (zh) 医疗文本处理方法、装置、计算机设备和存储介质
Demiris et al. Information processing in the mirror neuron system in primates and machines
JP6911505B2 (ja) データ収集装置及び学習装置
US11386288B2 (en) Movement state recognition model training device, movement state recognition device, methods and programs therefor
KR20130082701A (ko) 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법
Kampouraki et al. e-Doctor: a web based support vector machine for automatic medical diagnosis
Helaly et al. Deep convolution neural network implementation for emotion recognition system
Schuller Multimodal user state and trait recognition: An overview
JP2020169956A (ja) 車両の行先提案システム
Moosavi et al. Early mental stress detection using q-learning embedded starling murmuration optimiser-based deep learning model
Yusuf et al. Evolving an emotion recognition module for an intelligent agent using genetic programming and a genetic algorithm
KR20220060976A (ko) 효율적인 멀티모달 특징그룹과 모델 선택 기반 감정인식을 위한 딥러닝 방법 및 장치
Rincon et al. Using emotions for the development of human-agent societies
KR20220005945A (ko) 얼굴 표정에 관한 데이터 세트를 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
GB2572182A (en) Emotion signals to train AI
KR20230049486A (ko) 정치성향 분석 장치 및 이를 이용한 서비스 제공 방법
KR20220086878A (ko) 사용자의 감정을 디지털 상에 복제하는 감정 디지털 트윈을 생성하는 방법 및 장치
Gamage et al. Academic depression detection using behavioral aspects for Sri Lankan university students

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R150 Certificate of patent or registration of utility model

Ref document number: 6911505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150