JP7082444B2 - Machine learning equipment and machine learning programs - Google Patents

Machine learning equipment and machine learning programs Download PDF

Info

Publication number
JP7082444B2
JP7082444B2 JP2019505810A JP2019505810A JP7082444B2 JP 7082444 B2 JP7082444 B2 JP 7082444B2 JP 2019505810 A JP2019505810 A JP 2019505810A JP 2019505810 A JP2019505810 A JP 2019505810A JP 7082444 B2 JP7082444 B2 JP 7082444B2
Authority
JP
Japan
Prior art keywords
feature amount
label
user
voice
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019505810A
Other languages
Japanese (ja)
Other versions
JPWO2018168369A1 (en
Inventor
清美 淺井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sekisui House Ltd
Original Assignee
Sekisui House Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sekisui House Ltd filed Critical Sekisui House Ltd
Publication of JPWO2018168369A1 publication Critical patent/JPWO2018168369A1/en
Application granted granted Critical
Publication of JP7082444B2 publication Critical patent/JP7082444B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、個人特定や感情認識、体調推測に用いられる特徴量を蓄積する機械学習装置および機械学習プログラムに関する。 The present invention relates to a machine learning device and a machine learning program for accumulating features used for individual identification, emotion recognition, and physical condition estimation.

コンピューティングパワーの増大に伴い、顔や音声から個人の特定や感情の認識ができるようになってきている。また、ウェアラブル機器(スマートウォッチ、活動量計)の普及に伴い、体の動き・体温・心拍などの人の生体状態も取得できる。これに伴い、個人を特定して当該個人の感情まで認識することで、人とロボットの対話をスムーズにしたり、健康・運動管理の面からアドバイスするサービスが提供されたりしている。 With the increase in computing power, it has become possible to identify individuals and recognize emotions from faces and voices. In addition, with the spread of wearable devices (smart watches, activity meters), it is possible to acquire the biological conditions of a person such as body movement, body temperature, and heart rate. Along with this, by identifying an individual and recognizing the emotion of the individual, a service that facilitates dialogue between a person and a robot and provides advice from the aspect of health and exercise management is provided.

個人特定や感情認識の実現には、機械学習という技術が用いられている。機械学習には、事物のデータ(訓練データ)からパターンをコンピュータが見つけ出す学習と、学習した後に未知の事物のデータから何の事物かを判断する推測との、2つの過程がある。訓練データには事物を示すラベルが付与されており、個人特定では個人識別情報のラベル、感情認識では喜び・怒りなどのラベルが付与される。通常は、学習した後に推測するが、推測の精度を上げるために、学習を繰り返し行うこと(再学習)もある。 Machine learning is used to identify individuals and realize emotion recognition. Machine learning has two processes: learning that a computer finds a pattern from the data of things (training data), and guessing what the thing is from the data of unknown things after learning. Labels indicating things are given to the training data, and labels such as personal identification information are given for personal identification and labels such as joy and anger are given for emotion recognition. Normally, the guess is made after learning, but in order to improve the accuracy of the guess, the learning may be repeated (re-learning).

特許文献1に記載の技術は、機械学習の1つであり、利用者の個性を認識して個人特定や感情認識の精度を向上することを目指している。 The technique described in Patent Document 1 is one of machine learning, and aims to improve the accuracy of individual identification and emotion recognition by recognizing the individuality of a user.

特開2001-83984号公報Japanese Unexamined Patent Publication No. 2001-83984

特許文献1に記載の発明においては、感情認識精度、引いては個人特定精度を向上させるために、認識した感情の正否を利用者に問い合わせていた(特許文献1の図15と段落0063参照)。この問い合わせを行うタイミングは、感情を認識した後であり(特許文献1の図7のステップ102と段落0036参照)、繰り返し実行される。
しかしながら、人の感情は本人ですら確実に認識できるとは限らず、感情を繰り返し回答するのは、利用者にとって非常に煩わしく、できる限り問い合わせを減らすことが望ましい。また、体調の認識については記載がない。
In the invention described in Patent Document 1, in order to improve the emotion recognition accuracy and, by extension, the individual identification accuracy, the user is inquired about the correctness of the recognized emotion (see FIG. 15 and paragraph 0063 of Patent Document 1). .. The timing of making this inquiry is after recognizing the emotion (see step 102 and paragraph 0036 of FIG. 7 of Patent Document 1), and is repeatedly executed.
However, a person's emotions cannot always be recognized reliably even by the person himself / herself, and it is very troublesome for the user to repeatedly answer the emotions, and it is desirable to reduce the number of inquiries as much as possible. In addition, there is no description about recognition of physical condition.

そこで、本発明は、個人特定や感情認識、体調推測の精度を向上させることができる機械学習装置および機械学習プログラムを提供することを課題とする。 Therefore, it is an object of the present invention to provide a machine learning device and a machine learning program capable of improving the accuracy of individual identification, emotion recognition, and physical condition estimation.

前記の課題を解決するため、本発明は、カメラとマイクが接続された機械学習装置であって、前記カメラが撮影した前記機械学習装置の利用者の顔データから顔特徴量を算出する顔特徴量算出部と、前記マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出部と、前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを記憶する記憶部と、前記ラベルデータベースを更新するキャリブレーション機能部と、前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定部と、前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定部とを備え、前記キャリブレーション機能部は、前記顔個人特定部が前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出部が算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出部が算出した顔特徴量に更新し、前記音声個人特定部が前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出部が算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出部が算出した音声特徴量に更新することを特徴とする機械学習装置とした。 In order to solve the above-mentioned problems, the present invention is a machine learning device in which a camera and a microphone are connected, and a face feature that calculates a facial feature amount from the face data of a user of the machine learning device taken by the camera. The amount calculation unit, the voice feature amount calculation unit that calculates the voice feature amount from the voice data of the user collected by the microphone, the face feature amount or the voice feature amount, the user's personal identification label, and the user. , A storage unit that stores a label database that stores records including personal identification information of the user, a calibration function unit that updates the label database, and a face that is close to the face feature amount calculated by the face feature amount calculation unit. A record including a face personal identification unit that outputs a user's personal identification label by searching a record containing a feature amount in the label database and a voice feature amount close to the voice feature amount calculated by the voice feature amount calculation unit. Is provided with a voice personal identification unit that outputs the user's personal identification label by searching the label database, and the calibration function unit outputs the user's personal identification label by the face personal identification unit. When the difference between the face feature amount calculated by the face feature amount calculation unit and the face feature amount of the user in the label database becomes larger than a predetermined value, the user in the label database The face feature amount is updated to the face feature amount calculated by the face feature amount calculation unit, and the voice feature calculated by the voice feature amount calculation unit when the voice personal identification unit outputs the user's personal identification label. When the difference between the amount and the voice feature amount of the user in the label database becomes larger than a predetermined value, the voice feature amount calculation unit calculates the voice feature amount of the user in the label database. It is a machine learning device characterized by updating to the voice features.

本発明によれば、個人特定や感情認識、体調推測の精度を向上させることができる機械学習装置および機械学習プログラムを提供することが可能となる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a machine learning device and a machine learning program capable of improving the accuracy of individual identification, emotion recognition, and physical condition estimation.

本実施形態に係る機械学習装置のソフトウェア機能の構成を示す図である。It is a figure which shows the structure of the software function of the machine learning apparatus which concerns on this embodiment. 本実施形態に係る機械学習装置の機能構成を例示する図である。It is a figure which illustrates the functional structure of the machine learning apparatus which concerns on this embodiment. 感情を快適度・覚醒度・疲労度の3つの軸を用いて表すことを示す図である。It is a figure which shows that the emotion is expressed by using the three axes of comfort degree, arousal degree, and fatigue degree. 感情を快適度・覚醒度の2軸で示した図である。It is a figure which showed emotion by two axes of comfort degree and arousal degree. 本実施形態に係るラベルDBのデータ構成を例示する図である。It is a figure which illustrates the data structure of the label DB which concerns on this embodiment. 本実施形態に係る一時ラベルDBのデータ構成を例示する図である。It is a figure which illustrates the data structure of the temporary label DB which concerns on this embodiment. 本実施形態に係るラベル履歴DBのデータ構成を例示する図である。It is a figure which illustrates the data structure of the label history DB which concerns on this embodiment. 本実施形態に係る機械学習処理全体のフローチャートである。It is a flowchart of the whole machine learning process which concerns on this embodiment. 本実施形態に係るラベルDB更新処理の中で顔個人ラベル処理と音声個人ラベル処理と顔感情ラベル処理とのフローチャートである。It is a flowchart of face personal label processing, voice personal label processing, and face emotion label processing in the label DB update process which concerns on this embodiment. 本実施形態に係るラベルDB更新処理の中で音声感情ラベル処理と心拍ラベル処理、および、ラベル履歴DB更新処理のフローチャートである。It is a flowchart of the voice emotion label processing, the heartbeat label processing, and the label history DB update processing in the label DB update processing which concerns on this embodiment.

≪ソフトウェア構成≫
以下、本発明を実施するための形態を各図を参照して説明する。図1は、本実施形態に係る機械学習装置800のソフトウェア機能の構成を示す図である。ソフトウェア機能は、コンフィグ設定801、結果出力機能803、センシングデータ受信機能804、信号処理機能805、機械学習機能807、特徴量算出機能808、個人・感情推測機能809、体調推測機能810、故障診断機能811、キャリブレーション機能812を含む。
≪Software configuration≫
Hereinafter, embodiments for carrying out the present invention will be described with reference to each figure. FIG. 1 is a diagram showing a configuration of software functions of the machine learning device 800 according to the present embodiment. The software functions include config setting 801 and result output function 803, sensing data reception function 804, signal processing function 805, machine learning function 807, feature amount calculation function 808, personal / emotion estimation function 809, physical condition estimation function 810, and failure diagnosis function. 811 includes calibration function 812.

機械学習装置800には、カメラ、マイク、心拍センサなどのセンサ820がケーブルや近距離無線通信などを用いて接続されていて、設定DB(Database)802とラベルDB56と一時ラベルDB57とラベル履歴DB58とを備える。
コンフィグ設定801は、人やモノを含めた外部環境をセンシングするセンサ820や機械学習装置800であるコンピュータのハードウェア環境に関するパラメータを設定する機能である。設定DB802は、コンフィグ設定801を用いて設定されたパラメータが格納されるデータベースである。結果出力機能803は、後述する個人・感情推測機能809、体調推測機能810などが推測した結果を出力する機能である。
Sensors 820 such as a camera, a microphone, and a heart rate sensor are connected to the machine learning device 800 by using a cable, short-range wireless communication, or the like, and a setting DB (Database) 802, a label DB 56, a temporary label DB 57, and a label history DB 58 are connected. And prepare.
The config setting 801 is a function for setting parameters related to the hardware environment of a computer such as a sensor 820 that senses an external environment including people and things and a machine learning device 800. The setting DB 802 is a database in which the parameters set by using the config setting 801 are stored. The result output function 803 is a function that outputs the results estimated by the individual / emotion estimation function 809 and the physical condition estimation function 810, which will be described later.

センシングデータ受信機能804は、センサ820からのデータを受信する機能である。信号処理機能805は、センサ820から受信した画像、音声などのデータを処理する機能であり、フーリエ変換、画像処理、フィルタリングなどを行う。
機械学習機能807は、ニューラルネットワークや遺伝的プログラミング、サポートベクタマシンなど各種機械学習モデルを用いた汎用の機械学習の機能である。特徴量算出機能808は、センシングデータ受信機能804が受信したデータを信号処理機能805で処理して、特徴量を算出し、機械学習機能807に入力させる。音声の特徴量には声のピッチ・高さなどがあり、顔の特徴量には目や口の端点の位置関係などがある。
The sensing data receiving function 804 is a function of receiving data from the sensor 820. The signal processing function 805 is a function for processing data such as images and sounds received from the sensor 820, and performs Fourier transform, image processing, filtering, and the like.
The machine learning function 807 is a general-purpose machine learning function using various machine learning models such as neural networks, genetic programming, and support vector machines. The feature amount calculation function 808 processes the data received by the sensing data reception function 804 with the signal processing function 805, calculates the feature amount, and causes the machine learning function 807 to input the feature amount. Voice features include voice pitch and pitch, and facial features include the positional relationship between the end points of the eyes and mouth.

個人・感情推測機能809は、人(機械学習装置800の利用者)のセンシングデータから機械学習機能807を用いて個人を特定したり感情を推測したりする。体調推測機能810は、人のセンシングデータから機械学習機能807を用いて体調を推測する。故障診断機能811は、機器のセンシングデータから機械学習機能807を用いてその機器の故障原因を診断したり故障を予測したりする。個人・感情推測機能809、体調推測機能810、故障診断機能811が推測・診断した結果は、結果出力機能803を用いて出力される。 The individual / emotion estimation function 809 uses the machine learning function 807 to identify an individual or infer emotions from the sensing data of a person (user of the machine learning device 800). The physical condition estimation function 810 estimates the physical condition from human sensing data using the machine learning function 807. The failure diagnosis function 811 diagnoses the cause of failure of the device or predicts the failure by using the machine learning function 807 from the sensing data of the device. The results estimated / diagnosed by the individual / emotion estimation function 809, the physical condition estimation function 810, and the failure diagnosis function 811 are output using the result output function 803.

キャリブレーション機能812は、特徴量算出機能808が算出する特徴量と、個人・感情推測機能809、体調推測機能810、故障診断機能811が推測・診断した結果(個人識別情報のラベルや怒り・喜びなどの感情のラベルなど)との関係を更新する。
ラベルDB56には、個人特定や感情認識(推測)に用いられるラベルと特徴量の関係が含まれる。一時ラベルDB57には、推測された結果であるラベルが一時的に格納される。ラベル履歴DB58には、感情や体調の経年変化をモニタするために、推測されたラベルの履歴が格納される。上記3つのDBには、個人の情報が含まれるため、安全に記憶される必要がある。
以下で説明する個人特定や感情認識、体調推測の精度を向上させることができる機械学習装置800は、上記のソフトウェア機能を用いて実現される。
The calibration function 812 is the feature amount calculated by the feature amount calculation function 808, and the result of estimation / diagnosis by the individual / emotion estimation function 809, the physical condition estimation function 810, and the failure diagnosis function 811 (label of personal identification information and anger / joy). Update relationships with emotional labels such as).
The label DB 56 includes a relationship between a label used for individual identification and emotion recognition (guessing) and a feature amount. The label that is the estimated result is temporarily stored in the temporary label DB 57. The label history DB 58 stores the history of the inferred label in order to monitor the secular variation of emotions and physical condition. Since the above three DBs contain personal information, they need to be stored safely.
The machine learning device 800 capable of improving the accuracy of individual identification, emotion recognition, and physical condition estimation described below is realized by using the above software function.

≪機械学習装置の機能構成≫
図2は、本実施形態に係る機械学習装置800の機能構成を例示する図である。機械学習装置800は、入出力部822、制御部823、記憶部824、ハイパーバイザ825、リアルタイムOS826、セキュアOS827、リッチOS828、特徴量算出機能808、機械学習機能807、キャリブレーション機能812、個人・感情・体調推測部52、ラベルDB56、一時ラベルDB57、ラベル履歴BD58を備える。また、機械学習装置800には、カメラ21、マイク22、心拍センサ23が接続される。
≪Functional configuration of machine learning device≫
FIG. 2 is a diagram illustrating a functional configuration of the machine learning device 800 according to the present embodiment. The machine learning device 800 includes an input / output unit 822, a control unit 823, a storage unit 824, a hypervisor 825, a real-time OS826, a secure OS827, a rich OS828, a feature amount calculation function 808, a machine learning function 807, a calibration function 812, and an individual. It includes an emotion / physical condition estimation unit 52, a label DB 56, a temporary label DB 57, and a label history BD 58. Further, a camera 21, a microphone 22, and a heart rate sensor 23 are connected to the machine learning device 800.

入出力部822は、通信ネットワークカード他から構成され、カメラ21やタッチパネル(不図示)などの装置・機器とのデータの送受信を行う。センシングデータ受信機能804は、入出力部822を経由してカメラ21、マイク22、心拍センサ23からのデータを受信する。記憶部824は、RAM(Random Access Memory)やROM(Read Only Memory)、ハードディスクから構成され、各種プログラムを記憶したり、ラベルDB56、一時ラベルDB57、ラベル履歴DB58を記憶したりする。制御部823は、CPU(Central Processing Unit)から構成され、記憶部824に記憶されている図1に記載の各種機能のプログラムやその他のプログラムを実行することで機械学習装置800を機能させる。 The input / output unit 822 is composed of a communication network card and the like, and transmits / receives data to / from a device / device such as a camera 21 or a touch panel (not shown). The sensing data receiving function 804 receives data from the camera 21, the microphone 22, and the heart rate sensor 23 via the input / output unit 822. The storage unit 824 is composed of a RAM (Random Access Memory), a ROM (Read Only Memory), and a hard disk, and stores various programs, and stores a label DB 56, a temporary label DB 57, and a label history DB 58. The control unit 823 is composed of a CPU (Central Processing Unit), and operates the machine learning device 800 by executing a program of various functions and other programs stored in FIG. 1 stored in the storage unit 824.

ハイパーバイザ825は、1つのコンピュータ上で複数のコンピュータ(OS(Operating System))を仮想的に動作させるプログラムである。リアルタイムOS826は、ハイパーバイザ825上で動作し、処理時間保証が求められるアプリケーションプログラムが動作するOSである。セキュアOS827は、ハイパーバイザ825上で動作し、高いセキュリティが求められるアプリケーションプログラムが動作したり、データが格納されたりするOSである。リッチOS828は、高度なGUI(Graphical User Interface)が必要なアプリケーションプログラムが動作するOSである。 The hypervisor 825 is a program that virtually operates a plurality of computers (OS (Operating System)) on one computer. The real-time OS 826 is an OS that operates on the hypervisor 825 and operates an application program for which a processing time guarantee is required. The secure OS 827 is an OS that operates on the hypervisor 825, operates an application program that requires high security, and stores data. The rich OS 828 is an OS on which an application program that requires an advanced GUI (Graphical User Interface) operates.

特徴量算出機能808は、顔特徴量算出部31、音声特徴量算出部32、心拍数取得部33を備えていて、実時間処理が求められるのでリアルタイムOS826で動作する。機械学習機能807は、顔感情分析部41、顔個人特定部42、音声感情分析部43、音声個人特定部44、心拍分析部45を備えていて、実時間処理が求められるのでリアルタイムOS826で動作する。
個人情報を扱うために、キャリブレーション機能812は、セキュアOS827上で動作し、ラベルDB56、一時ラベルDB57、ラベル履歴BD58は、セキュアOS827上に格納される。
The feature amount calculation function 808 includes a face feature amount calculation unit 31, a voice feature amount calculation unit 32, and a heart rate acquisition unit 33, and operates on a real-time OS 826 because real-time processing is required. The machine learning function 807 includes a face emotion analysis unit 41, a face individual identification unit 42, a voice emotion analysis unit 43, a voice individual identification unit 44, and a heart rate analysis unit 45, and operates on a real-time OS 826 because real-time processing is required. do.
In order to handle personal information, the calibration function 812 operates on the secure OS 827, and the label DB 56, the temporary label DB 57, and the label history BD 58 are stored on the secure OS 827.

顔特徴量算出部31は、カメラ21が撮影した映像データから、利用者の顔の特徴量を算出する。顔特徴量算出部31が算出した特徴量は、顔感情分析部41と顔個人特定部42とに出力される。
音声特徴量算出部32は、マイク22が収音した利用者の音声の特徴量を算出する。音声特徴量算出部32が算出した特徴量は、音声感情分析部43と音声個人特定部44とに出力される。
心拍数取得部33は、心拍センサ23が検出した利用者の心拍数を取得して、心拍分析部45に出力する。
The facial feature amount calculation unit 31 calculates the facial feature amount of the user from the video data taken by the camera 21. The feature amount calculated by the face feature amount calculation unit 31 is output to the face emotion analysis unit 41 and the face individual identification unit 42.
The voice feature amount calculation unit 32 calculates the feature amount of the user's voice collected by the microphone 22. The feature amount calculated by the voice feature amount calculation unit 32 is output to the voice emotion analysis unit 43 and the voice individual identification unit 44.
The heart rate acquisition unit 33 acquires the heart rate of the user detected by the heart rate sensor 23 and outputs it to the heart rate analysis unit 45.

顔感情分析部41は、顔特徴量算出部31が算出した特徴量から、利用者の感情を分析(推測)して、感情ラベルを出力する。感情ラベルには、喜怒哀楽の感情ラベルの他に、後述する図3Aでの座標を示す数値パラメータまたは図3B記載の感情ラベルがある。
図3Aと図3Bは、本実施形態に係る感情種別を説明するための図である。図3Aは、感情を快適度・覚醒度・疲労度の3つの軸を用いて表すことを示している。例えば、「感情:1,-2,0」というラベルは、快適度が1、覚醒度が-2、疲労度が0の状態を示す感情ラベルである。図3Bは、感情を快適度・覚醒度の2軸で示している。「感情:1,2」というラベルは、快適度が1、覚醒度が2の状態を示す感情ラベルである。2つの数値の替わりに、図3Bに示した興奮や警戒などのラベルを用いてもよい。
The facial emotion analysis unit 41 analyzes (estimates) the user's emotion from the feature amount calculated by the facial feature amount calculation unit 31, and outputs an emotion label. In addition to the emotion label of emotions, the emotion label includes a numerical parameter indicating the coordinates in FIG. 3A, which will be described later, or an emotion label shown in FIG. 3B.
3A and 3B are diagrams for explaining the emotion type according to the present embodiment. FIG. 3A shows that emotions are expressed using three axes of comfort, arousal, and fatigue. For example, the label "emotion: 1, -2, 0" is an emotion label indicating a state in which the comfort level is 1, the arousal level is -2, and the fatigue level is 0. FIG. 3B shows emotions on the two axes of comfort and arousal. The label "emotion: 1, 2" is an emotion label indicating a state in which the comfort level is 1 and the arousal level is 2. Instead of the two numbers, labels such as excitement and alert shown in FIG. 3B may be used.

図2の説明に戻り、顔感情分析部41は、顔特徴量算出部31が出力した特徴量に最も近い特徴量をもつレコードをラベルDB56の中で検索して、感情を分析(推測)する。
図4は、本実施形態に係るラベルDB56のデータ構成を例示する図である。ラベルDB56はテーブル形式のデータベースであり、1つの行(レコード)は1つのラベルの関連情報を表している。ラベルDB56は、種別561と、特徴量562と、ラベル563と、個人ID564と、更新日時565との列(属性)から構成される。
Returning to the explanation of FIG. 2, the face emotion analysis unit 41 searches the label DB 56 for a record having a feature amount closest to the feature amount output by the face feature amount calculation unit 31, and analyzes (estimates) the emotion. ..
FIG. 4 is a diagram illustrating the data structure of the label DB 56 according to the present embodiment. The label DB 56 is a database in a table format, and one row (record) represents the related information of one label. The label DB 56 is composed of columns (attributes) of a type 561, a feature amount 562, a label 563, an individual ID 564, and an update date and time 565.

種別561は、当該レコードの種別を示す。種別には、顔特徴量と感情ラベルを含む顔感情、顔特徴量と個人識別ラベルを含む顔個人、音声特徴量と感情ラベルを含む声感情、音声特徴量と個人識別ラベルを含む声個人、心拍数を含む心拍がある。
特徴量562は、当該レコードを代表する特徴量である。特徴量562の形式や内容は、種別561によって変わる。例えば、種別561が顔感情ならば、特徴量562は、顔特徴量算出部31が算出した特徴量の形式をしている。例えば、種別561が心拍ならば、特徴量562は、心拍数取得部33が取得した心拍数である。
Type 561 indicates the type of the record. Types include facial emotions including facial features and emotion labels, face individuals including facial features and personal identification labels, voice emotions including voice features and emotion labels, and voice individuals including voice features and personal identification labels. There is a heartbeat that includes the heart rate.
The feature amount 562 is a feature amount representing the record. The format and contents of the feature amount 562 vary depending on the type 561. For example, if the type 561 is a facial emotion, the feature amount 562 is in the form of a feature amount calculated by the facial feature amount calculation unit 31. For example, if the type 561 is a heart rate, the feature amount 562 is the heart rate acquired by the heart rate acquisition unit 33.

ラベル563は、当該レコードのラベルを示す。ラベルの形式は、種別561によって変わる。例えば、種別561が顔感情ならば、ラベル563は、図3Bで説明した快適度と覚醒度との2つのパラメータを用いて感情を表現したラベル(感情ラベル)である。種別561が顔個人ならば、ラベル563は、「個人164」といった個人識別情報を示すラベル(個人識別ラベル)である。他に「体調:不良」などの体調ラベルがある。 Label 563 indicates the label of the record. The label format varies depending on the type 561. For example, if the type 561 is a facial emotion, the label 563 is a label (emotion label) expressing emotions using the two parameters of comfort and arousal described in FIG. 3B. If the type 561 is a face individual, the label 563 is a label (individual identification label) indicating personal identification information such as "individual 164". There are other physical condition labels such as "Physical condition: Poor".

個人ID564は、当該レコードが特定個人か一般かを示し、特定個人ならばその個人識別情報であって、一般ならば「000」である。個人ID564が特定個人ならば、特徴量562は当該個人の特徴量を代表する特徴量である。個人ID564が「000」(一般)ならば、特徴量562は個人によらない平均的な特徴量を示す。
更新日時565は当該レコードが作成された日時を示す。
The personal ID 564 indicates whether the record is a specific individual or a general, and if it is a specific individual, it is the personal identification information, and if it is a general, it is "000". If the individual ID 564 is a specific individual, the feature amount 562 is a feature amount representing the feature amount of the individual. If the individual ID 564 is "000" (general), the feature amount 562 indicates an average feature amount that does not depend on the individual.
The update date and time 565 indicates the date and time when the record was created.

図2の説明に戻り、顔感情分析部41は、種別561が顔感情であって、顔特徴量算出部31が出力した特徴量に最も近い特徴量562をもつレコードをラベルDB56の中で検索して、当該レコードのラベル563を出力することで、感情を推測して、感情のラベル563を一時ラベルDB57と個人・感情・体調推測部52とに出力する。本処理の詳細は、図7を参照して、詳しく後述する。 Returning to the explanation of FIG. 2, the face emotion analysis unit 41 searches the label DB 56 for a record in which the type 561 is a face emotion and the feature amount 562 is the closest to the feature amount output by the face feature amount calculation unit 31. Then, by outputting the label 563 of the record, the emotion is estimated, and the emotion label 563 is output to the temporary label DB 57 and the individual / emotion / physical condition estimation unit 52. The details of this process will be described in detail later with reference to FIG. 7.

図5は、本実施形態に係る一時ラベルDB57のデータ構成を例示する図である。一時ラベルDB57はテーブル形式のデータベースである。1つの行は、顔感情分析部41、顔個人特定部42、音声感情分析部43、音声個人特定部44、または、心拍分析部45が出力したラベルを含むレコードである。一時ラベルDB57は、種別571と、特徴量572と、ラベル573と、確度574と、取得日時575との列から構成される。 FIG. 5 is a diagram illustrating the data structure of the temporary label DB 57 according to the present embodiment. The temporary label DB 57 is a table format database. One line is a record including a label output by the face emotion analysis unit 41, the face individual identification unit 42, the voice emotion analysis unit 43, the voice individual identification unit 44, or the heart rate analysis unit 45. The temporary label DB 57 is composed of columns of type 571, feature amount 572, label 573, accuracy 574, and acquisition date and time 575.

種別571は、ラベルDB56の種別561と同様に、当該レコードの種別を示す。
特徴量572は、当該レコードの特徴量を示し、例えば、当該レコードが、顔感情分析部41が出力したレコードならば、顔特徴量算出部31が出力した特徴量である。
ラベル573は、ラベルDB56のラベル563と同様に当該レコードのラベルを示す。
確度574は、当該レコードのラベル573の確からしさを示し、特徴量572とラベルDB56の検索されたレコードの特徴量562とが近いほど大きな値になる。
取得日時575は、当該レコードが作成された日時である。
The type 571 indicates the type of the record, similarly to the type 561 of the label DB 56.
The feature amount 572 indicates the feature amount of the record. For example, if the record is a record output by the face emotion analysis unit 41, the feature amount is the feature amount output by the face feature amount calculation unit 31.
The label 573 indicates the label of the record in the same manner as the label 563 of the label DB 56.
The accuracy 574 indicates the certainty of the label 573 of the record, and the closer the feature amount 572 and the feature amount 562 of the searched record of the label DB 56 are, the larger the value becomes.
The acquisition date and time 575 is the date and time when the record was created.

図2の説明に戻って、顔個人特定部42は、顔特徴量算出部31が算出した特徴量から、ラベルDB56を検索し、個人を特定(推測)して、個人識別ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
音声感情分析部43は、音声特徴量算出部32が算出した特徴量から、ラベルDB56を検索し、感情を分析(推測)して、感情ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
Returning to the explanation of FIG. 2, the face individual identification unit 42 searches for the label DB 56 from the feature amount calculated by the face feature amount calculation unit 31, identifies (estimates) the individual, and assigns the personal identification label to the temporary label DB 57. And output to the individual / emotion / physical condition estimation unit 52.
The voice emotion analysis unit 43 searches for the label DB 56 from the feature amount calculated by the voice feature amount calculation unit 32, analyzes (estimates) the emotion, and uses the emotion label as the temporary label DB 57 and the individual / emotion / physical condition estimation unit 52. Output to.

音声個人特定部44は、音声特徴量算出部32が算出した特徴量から、ラベルDB56を検索し、個人を特定(推測)して、個人識別ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
心拍分析部45は、心拍数取得部33が出力した心拍数から、ラベルDB56を検索し、感情や体調を分析(推測)して、感情ラベルや体調ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
The voice individual identification unit 44 searches for the label DB 56 from the feature amount calculated by the voice feature amount calculation unit 32, identifies (guesses) the individual, and sets the personal identification label as the temporary label DB 57 and the individual / emotion / physical condition estimation unit. Output to 52.
The heart rate analysis unit 45 searches the label DB 56 from the heart rate output by the heart rate acquisition unit 33, analyzes (estimates) emotions and physical condition, and temporarily labels the emotion label and physical condition label with the personal / emotion / physical condition DB 57. It is output to the estimation unit 52.

キャリブレーション機能812は、一時ラベルDB57から、レコードを取得して、ラベルDB56やラベル履歴DB58を更新する。個人のラベル(個人ID564が個人の識別情報)が追加されることで、感情分析の精度を上げることができる。キャリブレーション機能812の処理は、図8と図9を参照して、詳細に後述する。
図6は、本実施形態に係るラベル履歴DB58のデータ構成を例示する図である。ラベル履歴DB58には、検出された感情や体調が分類され、履歴として記録される。ラベル履歴DB58はテーブル形式のデータベースであり、1つの行(レコード)は1つの感情が表れた時間を示している。ラベル履歴DB58は、個人ID581と、ラベル582と、取得日時583と、出現時間584との列から構成される。
The calibration function 812 acquires a record from the temporary label DB 57 and updates the label DB 56 and the label history DB 58. By adding a personal label (personal ID 564 is personal identification information), the accuracy of sentiment analysis can be improved. The processing of the calibration function 812 will be described in detail later with reference to FIGS. 8 and 9.
FIG. 6 is a diagram illustrating the data structure of the label history DB 58 according to the present embodiment. In the label history DB 58, the detected emotions and physical conditions are classified and recorded as a history. The label history DB 58 is a table-type database, and one row (record) indicates the time when one emotion appears. The label history DB 58 is composed of columns of an individual ID 581, a label 582, an acquisition date and time 583, and an appearance time 584.

個人ID581は当該レコードの感情が推測された個人の識別情報である。ラベル582は当該レコードの感情ラベルである。取得日時583はラベル582の感情が推測された日時を示す。出現時間584は当該レコードの感情が推測された累積時間を示す。
個人・感情・体調推測部52は、個人・感情推測機能809(図1参照)と体調推測機能810とが組み合わされて実現され、顔感情分析部41と、顔個人特定部42と、音声感情分析部43と、音声個人特定部44と、心拍分析部45とが出力したラベルから総合的に個人を特定したり、感情や体調を分析したりする。個人・感情・体調推測部52が特定した個人は、後述するラベルDB更新処理(図8と図9参照)で参照される。
The personal ID 581 is personal identification information in which the emotion of the record is inferred. Label 582 is the emotion label of the record. The acquisition date and time 583 indicates the date and time when the emotion of the label 582 was estimated. The appearance time 584 indicates the cumulative time in which the emotion of the record is estimated.
The individual / emotion / physical condition estimation unit 52 is realized by combining the individual / emotion estimation function 809 (see FIG. 1) and the physical condition estimation function 810, and is realized by the face emotion analysis unit 41, the face individual identification unit 42, and the voice emotion. Individuals are comprehensively identified from the labels output by the analysis unit 43, the voice individual identification unit 44, and the heart rate analysis unit 45, and emotions and physical conditions are analyzed. The individual identified by the individual / emotion / physical condition estimation unit 52 is referred to in the label DB update process (see FIGS. 8 and 9) described later.

≪機械学習処理≫
図7は、本実施形態に係る機械学習処理全体のフローチャートである。図7を参照して、特徴量算出機能808、機械学習機能807、キャリブレーション機能812の処理を説明する。ステップS111~S114の一連の処理とステップS121~S124の一連の処理とステップS131~S132の一連の処理との3つの一連の処理は、それぞれ非同期的に独立して処理される。例えば、ステップS131~S132の一連の処理が1回実行される間にステップS111~S114の一連の処理が数回実行されることもある。
≪Machine learning process≫
FIG. 7 is a flowchart of the entire machine learning process according to the present embodiment. With reference to FIG. 7, the processing of the feature amount calculation function 808, the machine learning function 807, and the calibration function 812 will be described. The three series of processes of the series of processes of steps S111 to S114, the series of processes of steps S121 to S124, and the series of processes of steps S131 to S132 are processed asynchronously and independently. For example, the series of processes of steps S111 to S114 may be executed several times while the series of processes of steps S131 to S132 is executed once.

ステップS111において、顔特徴量算出部31は、カメラ21から利用者の顔画像を取得する。
ステップS112において、顔特徴量算出部31は、顔画像から顔の特徴量を算出して、顔感情分析部41と顔個人特定部42とに出力する。特徴量としては、目の両端と中点と上下点、口の両端と中点と上下点、鼻の先、鼻孔、眉の両端と中点などの点の相対位置関係がある。
In step S111, the face feature amount calculation unit 31 acquires the user's face image from the camera 21.
In step S112, the face feature amount calculation unit 31 calculates the face feature amount from the face image and outputs it to the face emotion analysis unit 41 and the face individual identification unit 42. As feature quantities, there is a relative positional relationship between points such as both ends of the eye and the midpoint and the upper and lower points, both ends of the mouth and the middle point and the upper and lower points, the tip of the nose, the nostrils, and both ends of the eyebrows and the middle point.

ステップS113において、顔感情分析部41は、顔の特徴量から感情を分析(推測)して、感情ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。詳しくは、顔感情分析部41は、ラベルDB56(図4参照)の中で、種別561が顔感情であり、顔特徴量算出部31が出力した特徴量に最も近い特徴量562をもつレコードを検索して、当該レコードのラベル563を出力することで、感情を分析する。 In step S113, the facial emotion analysis unit 41 analyzes (estimates) emotions from facial features and outputs emotion labels to the temporary label DB 57 and the individual / emotion / physical condition estimation unit 52. Specifically, the face emotion analysis unit 41 records in the label DB 56 (see FIG. 4) that the type 561 is a face emotion and has a feature amount 562 closest to the feature amount output by the face feature amount calculation unit 31. The emotion is analyzed by searching and outputting the label 563 of the record.

但し、個人・感情・体調推測部52が利用者個人を特定済みならば、顔感情分析部41は、以下のように感情を分析して、感情ラベルを出力する。(1)個人ID564が当該個人の識別情報であるレコードの中で最も近い特徴量562を検索し、顔特徴量算出部31が出力した特徴量との距離を算出する。次に、(2)個人ID564が「000」であるレコードの中で最も近い特徴量562をもつレコードを検索し、顔特徴量算出部31が出力した特徴量との距離を算出する。(1)のレコードが存在して(1)の距離が(2)で算出した距離の所定の倍数より小さいならば、(1)のレコードのラベル563を出力し、そうでなければ(2)のレコードのラベル563を出力する。 However, if the individual / emotion / physical condition estimation unit 52 has already identified the individual user, the facial emotion analysis unit 41 analyzes the emotion as follows and outputs an emotion label. (1) The personal ID 564 searches for the closest feature amount 562 in the record that is the identification information of the individual, and calculates the distance from the feature amount output by the face feature amount calculation unit 31. Next, (2) the record having the closest feature amount 562 among the records having the personal ID 564 of "000" is searched, and the distance from the feature amount output by the face feature amount calculation unit 31 is calculated. If the record of (1) exists and the distance of (1) is smaller than a predetermined multiple of the distance calculated in (2), the label 563 of the record of (1) is output, otherwise (2). The label 563 of the record of is output.

なお、ラベルを一時ラベルDB57に出力するとは、一時ラベルDB57にレコードを追加し、種別571は顔感情、特徴量572は顔特徴量算出部31が出力した特徴量、ラベル573はラベル563、確度574は特徴量の近さ、取得日時575は現在時刻に更新することである。 To output the label to the temporary label DB 57, a record is added to the temporary label DB 57, the type 571 is the facial emotion, the feature amount 572 is the feature amount output by the face feature amount calculation unit 31, the label 573 is the label 563, and the accuracy. 574 is the closeness of the feature amount, and the acquisition date and time 575 is updated to the current time.

ステップS114において、顔個人特定部42は、顔の特徴量から個人を特定(推測)して、個人識別ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。詳しくは、顔個人特定部42は、ラベルDB56の中で、種別561が顔個人であり、顔特徴量算出部31が出力した特徴量に所定の近さの特徴量562をもつレコードを検索して、当該レコードのラベル563を出力することで、個人を特定する。 In step S114, the face individual identification unit 42 identifies (estimates) an individual from the facial features, and outputs the individual identification label to the temporary label DB 57 and the individual / emotion / physical condition estimation unit 52. Specifically, the face individual identification unit 42 searches the label DB 56 for a record in which the type 561 is a face individual and the feature amount 562 is close to the feature amount output by the face feature amount calculation unit 31. Then, the individual is identified by outputting the label 563 of the record.

所定の近さの特徴量562をもつレコードが存在しなければ、顔個人特定部42は、未登録の利用者としてラベルDB56に新規にレコードを追加する。当該レコードの種別561は顔個人、特徴量562は顔特徴量算出部31が出力した特徴量、ラベル563は新規の個人識別ラベル、個人ID564は新規の個人識別情報、更新日時565は現在時刻である。なお、個人が特定済みであり、ラベルDB56にある当該個人のレコードの特徴量562と、顔特徴量算出部31が出力した特徴量とが所定の近さであれば、個人特定済みの個人識別ラベルを出力する。
ステップS113とS114の処理は、それぞれ非同期的に独立して処理される。
If there is no record having the feature amount 562 of a predetermined proximity, the face personal identification unit 42 newly adds a record to the label DB 56 as an unregistered user. The type 561 of the record is a face individual, the feature amount 562 is the feature amount output by the face feature amount calculation unit 31, the label 563 is a new personal identification label, the personal ID 564 is the new personal identification information, and the update date and time 565 is the current time. be. If the individual has been identified and the feature amount 562 of the record of the individual on the label DB 56 and the feature amount output by the face feature amount calculation unit 31 are close to each other, the individual identification has already been identified. Output the label.
The processes of steps S113 and S114 are processed asynchronously and independently.

ステップS121~S124の処理は、カメラ21がマイク22に替わり、顔が音声に替わったステップS111~S114と同様の処理である。音声の特徴量としては、ケプストラム分析によるフォルマトン周波数とピーク値、フーリエ変換しての周波数パワー分布、音素を抽出しての喋りの速度などがある。
ステップS131において、心拍数取得部33は、心拍センサ23から利用者の心拍数を取得する。
ステップS132において、心拍分析部45は、ラベルDB56の中で心拍数の近いレコードを検索することで心拍数から感情や体調を分析(推測)して、感情ラベルまたは体調ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
The processing of steps S121 to S124 is the same as that of steps S111 to S114 in which the camera 21 is replaced with the microphone 22 and the face is replaced with voice. Speech features include formaton frequency and peak value by cepstrum analysis, frequency power distribution by Fourier transform, and speaking speed by extracting phonemes.
In step S131, the heart rate acquisition unit 33 acquires the user's heart rate from the heart rate sensor 23.
In step S132, the heart rate analysis unit 45 analyzes (estimates) emotions and physical conditions from the heart rate by searching for a record having a similar heart rate in the label DB 56, and sets the emotion label or the physical condition label as the temporary label DB 57 and the individual. -Output to the emotion / physical condition estimation unit 52.

ステップS113、S114、S123、S124またはS132において、一時ラベルDB57が更新されると、ステップS151以降のキャリブレーション機能812の処理が始まる。なお、個人・感情・体調推測部52は、出力されたラベルを参照して利用者の個人特定、感情推測、体調推測を行う。特定された利用者の個人識別情報は、後述するステップS151やラベルDB更新処理(ステップS152)で参照される。
ステップS151において、キャリブレーション機能812は、直近に追加された個人識別ラベルに示される特定された個人が既に特定されていた個人と同一であるか判断して、同一(Y)ならステップS154に進み、同一でない(N)ならステップS152に進む。
When the temporary label DB 57 is updated in steps S113, S114, S123, S124 or S132, the processing of the calibration function 812 after step S151 starts. The individual / emotion / physical condition estimation unit 52 refers to the output label to identify the user, estimate the emotion, and estimate the physical condition. The identified user's personal identification information is referred to in step S151 and the label DB update process (step S152) described later.
In step S151, the calibration function 812 determines whether the identified individual indicated on the most recently added personal identification label is the same as the already identified individual, and if the same (Y), proceeds to step S154. If they are not the same (N), the process proceeds to step S152.

ステップS152において、キャリブレーション機能812はラベルDB更新処理を行う。本処理の詳細は、図8と図9を参照して、詳細に後述する。
ステップS153において、キャリブレーション機能812は、一時ラベルDB57にあるレコードを全て削除する。
ステップS154において、キャリブレーション機能812は、前回のラベルDB更新処理から所定の時間が経過したか判断して、経過していないならば(N)、最初の処理であるステップS111、S121、S131に戻り、経過していれば(Y)、ステップS152に進む。
In step S152, the calibration function 812 performs the label DB update process. The details of this process will be described in detail later with reference to FIGS. 8 and 9.
In step S153, the calibration function 812 deletes all the records on the temporary label DB 57.
In step S154, the calibration function 812 determines whether a predetermined time has elapsed since the previous label DB update process, and if it has not elapsed (N), the calibration function 812 is set to steps S111, S121, and S131, which are the first processes. If it returns and has passed (Y), the process proceeds to step S152.

≪ラベルDB更新処理≫
図8は、本実施形態に係るラベルDB更新処理の中で顔個人ラベル処理と音声個人ラベル処理と顔感情ラベル処理とのフローチャートである。図9は、本実施形態に係るラベルDB更新処理の中で音声感情ラベル処理と心拍ラベル処理、および、ラベル履歴DB更新処理のフローチャートである。図8と図9を参照して、ステップS152に当たる、キャリブレーション機能812がラベルDB56を更新する処理を説明する。
≪Label DB update process≫
FIG. 8 is a flowchart of a face personal label process, a voice personal label process, and a face emotion label process in the label DB update process according to the present embodiment. FIG. 9 is a flowchart of the voice emotion label process, the heartbeat label process, and the label history DB update process in the label DB update process according to the present embodiment. With reference to FIGS. 8 and 9, a process corresponding to step S152 in which the calibration function 812 updates the label DB 56 will be described.

≪ラベルDB更新処理:顔個人と音声個人≫
ステップS212において、キャリブレーション機能812は、一時ラベルDB57(図5参照)のレコードの中で、顔個人の確度が低下していないかを判断する。詳しくは、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔個人のレコードを検索し、確度574の平均値が所定の値より低いか判断する。キャリブレーション機能812は、所定の値より低い確度574のレコードが所定の比率より高ければ、確度が低下したと判断してもよい。
≪Label DB update process: Face individual and voice individual≫
In step S212, the calibration function 812 determines whether the accuracy of the individual face is reduced in the record of the temporary label DB 57 (see FIG. 5). Specifically, the calibration function 812 searches the record of the temporary label DB 57 for the record of the individual face of the type 571, and determines whether the average value of the accuracy 574 is lower than the predetermined value. The calibration function 812 may determine that the accuracy has decreased if the record with the accuracy 574 lower than the predetermined value is higher than the predetermined ratio.

ステップS213において、キャリブレーション機能812は、確度が低下した(Y)と判断したらステップS214に進み、低下していない(N)と判断したらステップS215に進む。
ステップS214において、キャリブレーション機能812は、新しい特徴量を算出してラベルDB56の当該個人識別ラベルのレコードを更新する。ラベルDB56の当該個人識別ラベルのレコードとは、ラベル563が特定済みの個人に当たる個人識別ラベルであり、種別561が顔個人であるレコードのことである。
In step S213, the calibration function 812 proceeds to step S214 when it is determined that the accuracy has decreased (Y), and proceeds to step S215 when it is determined that the accuracy has not decreased (N).
In step S214, the calibration function 812 calculates a new feature amount and updates the record of the personal identification label of the label DB 56. The record of the personal identification label of the label DB 56 is a personal identification label in which the label 563 corresponds to the identified individual, and a record in which the type 561 is a face individual.

キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔個人のレコードを検索し、当該レコードの特徴量572から新しい特徴量を算出して、ラベルDB56の当該個人識別ラベルのレコードの特徴量562を更新する。新しい特徴量を算出するには、一時ラベルDB57から抽出した特徴量572の平均的な特徴量を算出してもよいし、特徴量572が最も密集しているところから代表となる特徴量を選定してもよい。また、新しい特徴量でラベルDB56の特徴量562を更新してもよいし、新しい特徴量とラベルDB56の特徴量562との中間となる特徴量で更新してもよい。キャリブレーション機能812は、更新日時565を現在時刻に更新する。 The calibration function 812 searches for a record of an individual face of type 571 in the record of the temporary label DB 57, calculates a new feature amount from the feature amount 572 of the record, and features the record of the personal identification label of the label DB 56. Update 562. In order to calculate a new feature amount, the average feature amount of the feature amount 572 extracted from the temporary label DB 57 may be calculated, or a representative feature amount is selected from the place where the feature amount 572 is most densely packed. You may. Further, the feature amount 562 of the label DB 56 may be updated with a new feature amount, or the feature amount may be updated with a feature amount intermediate between the new feature amount and the feature amount 562 of the label DB 56. The calibration function 812 updates the update date and time 565 to the current time.

ステップS215において、キャリブレーション機能812は、ラベルDB56の当該個人識別ラベルのレコードが前回更新から所定の期間が過ぎていないか判断する。詳しくは、キャリブレーション機能812は、ラベルDB56のレコードでラベル563が特定済みの個人に当たる個人識別ラベルであり、種別561が顔個人であるレコードの更新日時565が所定の期間より以前でないか判断する。 In step S215, the calibration function 812 determines whether the record of the personal identification label of the label DB 56 has passed a predetermined period from the previous update. Specifically, the calibration function 812 determines whether the update date and time 565 of the record in which the label 563 is a specified individual in the record of the label DB 56 is an individual identification label and the type 561 is a face individual is not before a predetermined period. ..

ステップS216において、キャリブレーション機能812は、所定の期間が過ぎた(Y)と判断したらステップS217に進み、過ぎていない(N)と判断したらステップS222に進む。
ステップS217において、キャリブレーション機能812は、ラベルDB56の当該個人識別ラベルのレコードを更新する。更新の方法は、ステップS214と同様である。
ステップS222~S227は、ステップS212~S217の顔が音声に替わった同様の処理である。
In step S216, the calibration function 812 proceeds to step S217 when it is determined that the predetermined period has passed (Y), and proceeds to step S222 when it is determined that the predetermined period has not passed (N).
In step S217, the calibration function 812 updates the record of the personal identification label of the label DB 56. The method of updating is the same as in step S214.
Steps S222 to S227 are similar processes in which the face of steps S212 to S217 is replaced with voice.

≪ラベルDB更新処理:顔感情と音声感情≫
ステップS231において、キャリブレーション機能812は、顔感情で特徴量が近いレコードであって所定の時間のあいだ連続したものがあるか、一時ラベルDB57を検索する。詳しくは、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔感情のレコードを検索し、特徴量572が近いレコードで、取得日時575が所定の時間のあいだ連続したレコードがあるか検索する。
≪Label DB update process: facial emotions and voice emotions≫
In step S231, the calibration function 812 searches the temporary label DB 57 for records having similar facial features and features that are continuous for a predetermined time. Specifically, the calibration function 812 searches for records of type 571 of facial emotions in the records of the temporary label DB 57, and searches for records of which the feature amount 572 is close and the acquisition date and time 575 is continuous for a predetermined time. do.

ステップS232において、キャリブレーション機能812は、ステップS231の検索結果のレコードが存在すれば(Y)、ステップS233に進み、そのようなレコードが存在しなければ、ステップT1(図9のステップS241)に進む。
ステップS233において、キャリブレーション機能812は、検索結果のレコードの特徴量572に近い特徴量562を含む顔感情のレコードをラベルDB56の中で検索する。詳しくは、キャリブレーション機能812は、ラベルDB56のレコードの中で、種別561が顔感情、特徴量562が検索結果の特徴量572に所定の値より近いレコードを検索する。
In step S232, the calibration function 812 proceeds to step S233 if there is a record of the search result of step S231 (Y), and if such a record does not exist, it goes to step T1 (step S241 of FIG. 9). move on.
In step S233, the calibration function 812 searches the label DB 56 for a record of facial emotions including a feature amount 562 that is close to the feature amount 572 of the search result record. Specifically, the calibration function 812 searches the records of the label DB 56 for records in which the type 561 is facial emotion and the feature amount 562 is closer to the feature amount 572 in the search result than a predetermined value.

ステップS234において、キャリブレーション機能812は、ステップS233の検索の結果、近いレコードが存在すれば(Y)、ステップS235に進み、そのようなレコードが存在しなければ、ステップT1(図9のステップS241)に進む。
ステップS235において、キャリブレーション機能812は、ステップS233の検索であるラベルDB56のレコードの個人ID564が特定済みの個人の識別情報であれば、ラベルDB56に登録済みとして、ステップT1(図9のステップS241)に進む。個人ID564が特定済みの個人の識別情報でなければ、キャリブレーション機能812は、ラベルの内容が正しいかを利用者に確認した後に、当該ラベルをラベルDB56に登録する。
In step S234, the calibration function 812 proceeds to step S235 if a close record exists as a result of the search in step S233 (Y), and if such a record does not exist, step T1 (step S241 in FIG. 9). ).
In step S235, if the personal ID 564 of the record of the label DB 56, which is the search in step S233, is the identification information of the identified individual, the calibration function 812 considers that the personal ID 564 has been registered in the label DB 56, and steps T1 (step S241 in FIG. 9). ). If the personal ID 564 is not the identified personal identification information, the calibration function 812 registers the label in the label DB 56 after confirming with the user whether the content of the label is correct.

詳しくは、キャリブレーション機能812は、ステップS233の検索結果であるレコードのラベル573に示される感情に、取得日時575の頃の感情が近かったか、近くなかったらどのような感情だったかを図3Bの図をタッチパネル(不図示)に表示して問い合わせる。次に、キャリブレーション機能812は、レコードを追加し、種別561を顔感情に、特徴量562をステップS233の検索結果のレコードにある特徴量572の平均値に、ラベル563を問い合わせの結果のラベルに、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。特徴量572の平均値の替わりに、ステップS214で説明した代表となる特徴量でもよい。 Specifically, the calibration function 812 indicates whether the emotion shown at the record label 573, which is the search result of step S233, was close to the emotion at the time of acquisition date / time 575, or what kind of emotion it was if it was not. Display the figure on the touch panel (not shown) and make an inquiry. Next, the calibration function 812 adds a record, sets the type 561 as facial emotion, the feature amount 562 as the average value of the feature amount 572 in the search result record of step S233, and labels 563 as the result of the inquiry. In addition, the personal ID 564 is updated to the identification information of the identified individual, and the update date and time 565 is updated to the current time. Instead of the average value of the feature amount 572, the representative feature amount described in step S214 may be used.

ステップS241~S245は、ステップS231~S235の顔感情が音声感情に替わった同様の処理である。
≪ラベルDB更新処理:心拍≫
ステップS251において、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が心拍のレコードを検索し、特徴量572の心拍数が所定の値より高いレコードまたは所定の値より低いレコードで、取得日時575が所定の時間のあいだ連続したレコードがあるか検索する。
Steps S241 to S245 are similar processes in which the facial emotions of steps S231 to S235 are replaced with voice emotions.
≪Label DB update process: Heart rate≫
In step S251, the calibration function 812 searches for a record of heart rate of type 571 in the record of the temporary label DB 57, and the acquisition date and time is a record in which the heart rate of the feature amount 572 is higher than a predetermined value or lower than a predetermined value. 575 searches for consecutive records for a given time.

ステップS252において、キャリブレーション機能812は、ステップS251の検索結果のレコードが存在すれば(Y)、ステップS253に進み、存在しなければ(N)、ステップS261に進む。
ステップS253において、キャリブレーション機能812は、ステップS251での検索結果のレコードにある取得日時575当時の感情ラベルから、所定の心拍数より高くて感情が興奮状態(図3B参照)か、所定の心拍数より低くて感情が沈静状態かに分類されるか判断する。感情ラベルは、取得日時575がステップS251の検索結果のレコードにある取得日時575当時であり、種別571が顔感情または音声感情のレコードのラベル573から取得できる。
In step S252, the calibration function 812 proceeds to step S253 if the search result record of step S251 exists (Y), and proceeds to step S261 if it does not exist (N).
In step S253, the calibration function 812 is in a state of emotion excitement (see FIG. 3B) higher than the predetermined heart rate from the emotion label at the time of acquisition date / time 575 in the record of the search result in step S251, or the predetermined heart rate. Determine if emotions are classified as calm below the number. The emotion label has the acquisition date and time 575 at the time of acquisition date and time 575 in the search result record of step S251, and the type 571 can be acquired from the label 573 of the record of facial emotion or voice emotion.

ステップS254において、キャリブレーション機能812は、分類される(Y)のであればステップS255に進み、分類されない(N)のであればステップS256に進む。
ステップS255において、キャリブレーション機能812は、ステップS253の顔感情または音声感情に示される感情に、取得日時575の当時の感情が近かったか、近くなかったらどのような感情だったかを図3Bの感情の図を提示して問い合わせる。次に、キャリブレーション機能812は、ラベルDB56にレコードを追加し、種別561を心拍に、特徴量562をステップS251の検索結果であるレコードの特徴量572の平均値に、ラベル563を問い合わせの結果のラベルに、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。なお、個人向けラベルとしてラベルDB56に登録済み(特徴量562が特徴量572の平均値に近く、個人ID564が特定済み個人の識別情報であるレコードが存在する)ならば、本処理は不要である。
In step S254, the calibration function 812 proceeds to step S255 if it is classified (Y), and proceeds to step S256 if it is not classified (N).
In step S255, the calibration function 812 indicates whether the emotion at the time of acquisition date and time 575 was close to the emotion shown in the facial emotion or voice emotion in step S253, and what kind of emotion it was if it was not. Present the figure and inquire. Next, the calibration function 812 adds a record to the label DB 56, sets the type 561 to the heartbeat, sets the feature amount 562 to the average value of the feature amount 572 of the record which is the search result of step S251, and queries the label 563. In the label of, the personal ID 564 is updated to the identification information of the identified individual, and the update date and time 565 is updated to the current time. If the label is registered in the label DB 56 as a label for individuals (there is a record in which the feature amount 562 is close to the average value of the feature amount 572 and the personal ID 564 is the identification information of the identified individual), this process is not necessary. ..

ステップS256において、キャリブレーション機能812は、取得日時575の頃に体調が悪かったか利用者に問い合わせる。
ステップS257において、キャリブレーション機能812は、問い合わせの結果、体調が悪くなければ(N)、ステップS261に進み、悪ければ(Y)、ステップS258に進む。
ステップS258において、キャリブレーション機能812は、体調不良ラベルのレコードをラベルDB56に追加する。詳しくは、キャリブレーション機能812は、ラベルDB56にレコードを追加し、種別561を心拍に、特徴量562をステップS251の検索結果のレコードに含まれる特徴量572の平均値に、ラベル563を「体調:不良」に、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。
In step S256, the calibration function 812 asks the user if he / she was in poor physical condition around the acquisition date / time 575.
In step S257, the calibration function 812 proceeds to step S261 if the physical condition is not bad (N) as a result of the inquiry, and proceeds to step S258 if it is bad (Y).
In step S258, the calibration function 812 adds a record of the poor physical condition label to the label DB 56. Specifically, the calibration function 812 adds a record to the label DB 56, sets the type 561 to the heartbeat, sets the feature amount 562 to the average value of the feature amount 572 included in the search result record of step S251, and sets the label 563 to "physical condition". In ": Bad", the personal ID 564 is updated to the identified personal identification information, and the update date and time 565 is updated to the current time.

≪履歴DB更新処理≫
ステップS261において、キャリブレーション機能812は、検出された感情を分類して、検出された累積時間をラベル履歴DB58(図6参照)に格納する。感情の分類には、図3Bのグラフにおいて原点から所定の近さの領域またはそれ以外の興奮/沈静と快適/不快とで区分けされる4つの象限領域のどこに位置するかで分類される。詳しくは、キャリブレーション機能812は、種別571が顔感情または音声感情であって、ラベル573にある感情ラベルの2つの値が所定値より小さいならば、「感情:0,0」のラベルを付け、興奮で快適な感情と分析されれば「感情:1,1」とラベルを付けて分類する。他の象限も同様である。取得日時575の間隔を検出された時間として、5領域の感情ごとに累積時間を算出して、レコードを追加する。レコードの個人ID581は特定された個人の識別情報、ラベル582は上記に示した感情ラベル、取得日時583は現在時刻、出現時間584は上記の累積時間である。
≪History DB update process≫
In step S261, the calibration function 812 classifies the detected emotions and stores the detected cumulative time in the label history DB 58 (see FIG. 6). Emotions are classified according to where they are located in the region within a predetermined distance from the origin in the graph of FIG. 3B or in the other four quadrant regions divided into excitement / tranquility and comfort / discomfort. Specifically, the calibration function 812 labels "emotion: 0,0" if the type 571 is a facial emotion or a voice emotion and the two values of the emotion label on the label 573 are smaller than the predetermined values. If it is analyzed as an excitement and comfortable emotion, it is classified by labeling it as "emotion: 1,1". The same is true for other quadrants. The cumulative time is calculated for each emotion in the five areas, and a record is added, with the acquisition date and time 575 as the detected time. The personal ID 581 of the record is the identification information of the specified individual, the label 582 is the emotion label shown above, the acquisition date and time 583 is the current time, and the appearance time 584 is the cumulative time described above.

≪変形例≫
上記の実施形態では、キャリブレーション機能812のラベルDB更新処理は、所定の時間が経過したときに実行される(図7のステップS154)。顔感情で所定の時間連続した近い特徴量を取得したとき(図8のステップ231)、音声感情で所定の時間連続した近い特徴量を取得したとき(図9のステップ241)、所定の心拍数より高い心拍数が連続したとき(図9のステップS251)、または、所定の心拍数より低い心拍数が連続したとき(ステップS251)に、ラベルDB更新処理を開始してもよい。感情や体調に関する問い合わせが発生する場合(ステップS235、S245、S255、S256)に、発生を検出したときに問い合わせることでより正確な感情や体調を得ることができる。
≪Variation example≫
In the above embodiment, the label DB update process of the calibration function 812 is executed when a predetermined time has elapsed (step S154 in FIG. 7). When the facial emotions acquire close features that are continuous for a predetermined time (step 231 in FIG. 8), and the voice emotions acquire close features that are continuous for a predetermined time (step 241 in FIG. 9), the predetermined heart rate. The label DB update process may be started when a higher heart rate is continuous (step S251 in FIG. 9) or when a heart rate lower than a predetermined heart rate is continuous (step S251). When an inquiry regarding emotions and physical condition occurs (steps S235, S245, S255, S256), more accurate emotions and physical condition can be obtained by inquiring when the occurrence is detected.

上記の実施形態では、生体状態取得のために、カメラやマイク、心拍センサを使っている。これに限らず、体温を取得するセンサや3次元加速度センサを用いて生体状態を取得してもよい。例えば、腕または脚に装着したウェアラブル機器を使って、心拍の他に体温や血圧、体の震えを取得することができる。また、カメラで取得した顔の特徴量から顔の向きや視線の向きを検出することができ、顔の向きや視線の向きの変化量、体の震え量(震えの大きさ、周波数、時間)から発作を含めた体調不良の特徴量を得ることができて、個人・感情・体調推測部52が体調不良を推測できる。 In the above embodiment, a camera, a microphone, and a heart rate sensor are used to acquire the biological state. Not limited to this, a biological state may be acquired by using a sensor that acquires body temperature or a three-dimensional acceleration sensor. For example, a wearable device worn on an arm or leg can be used to obtain body temperature, blood pressure, and tremor in addition to heart rate. In addition, it is possible to detect the direction of the face and the direction of the line of sight from the feature amount of the face acquired by the camera, the amount of change in the direction of the face and the direction of the line of sight, and the amount of body tremor (magnitude, frequency, time of tremor). The characteristic amount of poor physical condition including seizures can be obtained from, and the individual / emotion / physical condition estimation unit 52 can infer the poor physical condition.

機械学習装置800が自動車に搭載されれば、体調不良を推測した時点、または、体調不良の特徴量より異常な心拍や体の震え量などを取得した時点で自動車を止める、または、減速することができ、事故を予防することができる。また、ステップS261において、感情の履歴の他に、体調不良のレコードを集計してラベル履歴DB58に格納することで、体調の経年変化を把握することができる。
なお、他の生体状態情報として、体重、体脂肪率、会話量、睡眠時間、紫外線被爆量、呼吸数、運動量、発声量などを用いてもよい。また、温度、湿度、光量、照度、紫外線量、気圧、騒音などの環境情報を用いて感情や体調を推測し、経年変化をモニタしてもよい。
If the machine learning device 800 is mounted on a car, the car is stopped or decelerated when it is estimated that the car is in poor physical condition, or when an abnormal heartbeat or body tremor is obtained from the feature amount of the poor physical condition. And can prevent accidents. Further, in step S261, in addition to the emotional history, the records of poor physical condition are aggregated and stored in the label history DB 58, so that the secular change of the physical condition can be grasped.
In addition, as other biological state information, body weight, body fat percentage, conversation amount, sleep time, ultraviolet exposure amount, respiratory rate, exercise amount, vocalization amount and the like may be used. In addition, emotions and physical conditions may be estimated using environmental information such as temperature, humidity, amount of light, illuminance, amount of ultraviolet rays, atmospheric pressure, and noise, and changes over time may be monitored.

キャリブレーション機能812は、ステップS151において特定された個人(利用者)が、それ以前に特定されていた個人と異なっていると判断すると、ラベルDB更新処理を実行していた。ただ1回の一時ラベルDB57の更新で異なる個人と判断するのではなく、所定の時間のあいだ異なる個人と判定されてからラベルDB更新処理を開始してもよい。こうすることで、カメラの写り具合や別人の音声混入などにより個人特定が不安定になっても、ラベルDB更新処理が無駄に頻繁に実行されてしまうことを防ぐことができる。 When the calibration function 812 determines that the individual (user) specified in step S151 is different from the individual specified before that, the calibration function 812 has executed the label DB update process. Instead of determining that the individual is different by updating the temporary label DB 57 only once, the label DB update process may be started after it is determined that the individual is different for a predetermined time. By doing so, it is possible to prevent the label DB update process from being unnecessarily and frequently executed even if the individual identification becomes unstable due to the appearance of the camera or the voice of another person.

≪効果≫
上記の実施形態では、個人を特定する特徴量が、ラベルDB56にある特徴量から変化した場合(図8のステップS212、ステップS222)や一定時間経過したとき(ステップS215、ステップS225)に、特徴量を更新している。これにより、経年変化が起きた場合でも、個人が特定できなくなることを防止することができる。また、この経年変化した個人特定の特徴量を用いて、より高精度に個人を特定することができる。
≪Effect≫
In the above embodiment, when the feature amount for identifying an individual changes from the feature amount on the label DB 56 (step S212, step S222 in FIG. 8) or when a certain period of time has elapsed (step S215, step S225), the feature amount is characterized. The amount is being updated. This makes it possible to prevent an individual from becoming unidentifiable even if secular variation occurs. In addition, it is possible to identify an individual with higher accuracy by using the characteristic amount of individual identification that has changed over time.

上記の実施形態では、顔の特徴量や音声の特徴量に表れた感情は、感情が表れた直後ではなく、所定の時間あいだに連続して表れたのち(図8のステップS231、図9のステップS241)に利用者に問い合わせてラベルDB56に登録している。感情が所定の時間のあいだ連続しているので、利用者は当該感情を認識しやすく、正確な感情を得てラベルDB56に登録できる。引いては、個人・感情・体調推測部52が、感情をより正確に推測することができる。 In the above embodiment, the emotions appearing in the facial features and the voice features appear continuously for a predetermined time, not immediately after the emotions appear (steps S231 and 9 in FIG. 8). The user is inquired in step S241) and registered in the label DB 56. Since the emotions are continuous for a predetermined time, the user can easily recognize the emotions, obtain accurate emotions, and register them in the label DB 56. As a result, the individual / emotion / physical condition estimation unit 52 can infer emotions more accurately.

また、問い合わせの前に、ラベルDB56に特定個人レコードとして未登録である(ステップS235、ステップS245)ことを確認している。このため、利用者への問い合わせ回数を削減することができ、回答する煩雑さを軽減することができる。
特定個人の特徴量562と、当該個人に問い合わせた感情のラベル563とを含んだレコードが登録されることで、個々の利用者の感情表現に合わせたラベルDB56を作成することができ、ついては、より精度の高い感情の推測が可能となる。
ラベル履歴DB58(図6参照)から、長期間にわたる利用者の感情の経年変化を把握することができる。例えば、「感情:-1,-1」というラベル582の出現時間584が増加傾向にあれば、利用者が鬱状態に変化していることが分かり、メンタル面で問題が生じている可能性があることを利用者に警告することができる。
Further, before making an inquiry, it is confirmed that the record is not registered in the label DB 56 as a specific personal record (step S235, step S245). Therefore, the number of inquiries to the user can be reduced, and the complexity of answering can be reduced.
By registering a record including the feature amount 562 of a specific individual and the emotional label 563 inquiring to the individual, it is possible to create a label DB 56 that matches the emotional expression of each user. It enables more accurate emotion estimation.
From the label history DB 58 (see FIG. 6), it is possible to grasp the secular variation of the user's emotion over a long period of time. For example, if the appearance time 584 of the label 582 "emotion: -1, -1" is on the increase, it means that the user is in a depressed state, and there is a possibility that a mental problem has occurred. It is possible to warn the user that there is.

21 カメラ
22 マイク
23 心拍センサ
31 顔特徴量算出部
32 音声特徴量算出部
33 心拍数取得部
41 顔感情分析部
42 顔個人特定部
43 音声感情分析部
44 音声個人特定部
45 心拍分析部
52 個人・感情・体調推測部
56 ラベルDB
57 一時ラベルDB
58 ラベル履歴DB
800 機械学習装置
807 機械学習機能
808 特徴量算出機能
812 キャリブレーション機能
21 Camera 22 Mike 23 Heart rate sensor 31 Face feature amount calculation unit 32 Voice feature amount calculation unit 33 Heart rate acquisition unit 41 Face emotion analysis unit 42 Face individual identification unit 43 Voice emotion analysis unit 44 Voice individual identification unit 45 Heart rate analysis unit 52 Individual・ Emotion / physical condition estimation part 56 Label DB
57 Temporary label DB
58 Label history DB
800 Machine learning device 807 Machine learning function 808 Feature calculation function 812 Calibration function

Claims (3)

カメラとマイクが接続された機械学習装置であって、
前記カメラが撮影した前記機械学習装置の利用者の顔データから顔特徴量を算出する顔特徴量算出部と、
前記マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出部と、
前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを記憶する記憶部と、
前記ラベルデータベースを更新するキャリブレーション機能部と、
前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定部と、
前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定部とを備え、
前記キャリブレーション機能部は、
前記顔個人特定部が前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出部が算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出部が算出した顔特徴量に更新し、
前記音声個人特定部が前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出部が算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出部が算出した音声特徴量に更新し、
前記ラベルデータベースは、前記顔特徴量または前記音声特徴量、感情ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに格納し、
前記キャリブレーション機能部は、
所定の時間のあいだ前記顔特徴量算出部が算出する顔特徴量が所定の近さにあって、当該顔特徴量に近い顔特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記顔特徴量算出部が算出する顔特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加し、
所定の時間のあいだ前記音声特徴量算出部が算出する音声特徴量が所定の近さにあって、当該音声特徴量に近い音声特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記音声特徴量算出部が算出する音声特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する
ことを特徴とする機械学習装置。
A machine learning device with a camera and microphone connected
A face feature amount calculation unit that calculates a face feature amount from the face data of a user of the machine learning device taken by the camera, and a face feature amount calculation unit.
A voice feature amount calculation unit that calculates a voice feature amount from the voice data of the user collected by the microphone, and a voice feature amount calculation unit.
A storage unit that stores a label database that stores a record containing the face feature amount or the voice feature amount, the user's personal identification label, and the user's personal identification information.
The calibration function unit that updates the label database,
A face personal identification unit that outputs a user's personal identification label by searching the label database for a record containing a face feature amount close to the face feature amount calculated by the face feature amount calculation unit.
It is provided with a voice personal identification unit that outputs a user's personal identification label by searching the label database for a record containing a voice feature amount close to the voice feature amount calculated by the voice feature amount calculation unit.
The calibration function unit is
The difference between the face feature amount calculated by the face feature amount calculation unit when the face individual identification unit outputs the user's personal identification label and the face feature amount of the user in the label database is predetermined. When it becomes larger than the value, the face feature amount of the user in the label database is updated to the face feature amount calculated by the face feature amount calculation unit.
The difference between the voice feature amount calculated by the voice feature amount calculation unit when the voice individual identification unit outputs the user's personal identification label and the voice feature amount of the user in the label database is predetermined. When it becomes larger than the value, the voice feature amount of the user in the label database is updated to the voice feature amount calculated by the voice feature amount calculation unit.
The label database further stores a record containing the face feature amount or the voice feature amount, the emotion label, and the user's personal identification information.
The calibration function unit is
The label is a record in which the face feature amount calculated by the face feature amount calculation unit is close to a predetermined value for a predetermined time, and the face feature amount close to the face feature amount and the user's personal identification information are included. Includes the facial feature amount calculated by the facial feature amount calculation unit when it does not exist in the database, the personal identification information of the user, and the emotional label of the emotion as a result obtained by inquiring the user about the emotion. Add the record to the label database and
The label is a record in which the voice feature amount calculated by the voice feature amount calculation unit is close to a predetermined value for a predetermined time, and the voice feature amount close to the voice feature amount and the user's personal identification information are included. Includes the voice feature amount calculated by the voice feature amount calculation unit when it does not exist in the database, the personal identification information of the user, and the emotion label of the result obtained by inquiring the user about the emotion. A machine learning device characterized by adding records to the label database .
心拍センサ、血圧センサまたは3次元加速度センサが接続され、
前記ラベルデータベースは、心拍数、血圧または体の震え量、感情ラベルまたは体調ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに記憶し、
前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを、前記ラベルデータベースで検索することで前記利用者の感情ラベルを出力する顔感情分析部と、
前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを、前記ラベルデータベースで検索することで前記利用者の感情ラベルを出力する音声感情分析部とをさらに備え、
前記キャリブレーション機能部は、
前記心拍センサが接続された場合には、所定の時間のあいだ心拍センサで計測された心拍数が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記心拍数と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加し、
前記血圧センサが接続された場合には、所定の時間のあいだ血圧センサで計測された血圧が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記血圧と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加し、
前記3次元加速度センサが接続された場合には、所定の時間のあいだ3次元加速度センサで計測された体の震え量が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記体の震え量と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加する
ことを特徴とする請求項に記載の機械学習装置。
A heart rate sensor, blood pressure sensor or 3D accelerometer is connected,
The label database further stores records containing heart rate, blood pressure or body tremor, emotional or physical condition labels, as well as the user's personally identifiable information.
A face emotion analysis unit that outputs a user's emotion label by searching the label database for a record containing a face feature amount close to the face feature amount calculated by the face feature amount calculation unit.
A voice emotion analysis unit that outputs a user's emotion label by searching the label database for a record containing a voice feature amount close to the voice feature amount calculated by the voice feature amount calculation unit is further provided.
The calibration function unit is
When the heart rate sensor is connected, the heart rate measured by the heart rate sensor is out of the predetermined range for a predetermined time, and the emotion label output by the facial emotion analysis unit or the voice emotion analysis unit is displayed. When the predetermined conditions are not met, a record including the heart rate, the personal identification information of the user, and a physical condition label indicating the physical condition obtained by inquiring the user about the physical condition is stored in the label database. Add and
When the blood pressure sensor is connected, the blood pressure measured by the blood pressure sensor for a predetermined time is out of the predetermined range, and the emotion label output by the facial emotion analysis unit or the voice emotion analysis unit is predetermined. When the condition of is not satisfied, a record including the blood pressure, the personal identification information of the user, and the physical condition label indicating the physical condition obtained by inquiring the user about the physical condition is added to the label database. ,
When the three-dimensional acceleration sensor is connected, the amount of body tremor measured by the three-dimensional acceleration sensor during a predetermined time is out of the predetermined range, and the facial emotion analysis unit or the voice emotion analysis unit is used. When the emotional label output by is not satisfied with the predetermined conditions, the amount of tremor of the body, the personal identification information of the user, and the physical condition label indicating the physical condition obtained by inquiring the user about the physical condition. The machine learning apparatus according to claim 1 , wherein a record including the above is added to the label database.
カメラが撮影した利用者の顔データから顔特徴量を算出する顔特徴量算出手順と、
マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出手順と、
前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを操作する手順と、
前記顔特徴量算出手順で算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定手順と、
前記音声特徴量算出手順で算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定手順と、
前記顔個人特定手順で前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出手順で算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出手順で算出した顔特徴量に更新する手順と、
前記音声個人特定手順で前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出手順で算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出手順で算出した音声特徴量に更新する手順と
をコンピュータに実行させる機械学習プログラムであって、
前記ラベルデータベースは、前記顔特徴量または前記音声特徴量、感情ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに格納し、さらに、
所定の時間のあいだ前記顔特徴量算出手順が算出する顔特徴量が所定の近さにあって、当該顔特徴量に近い顔特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記顔特徴量算出手順が算出する顔特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する手順と、
所定の時間のあいだ前記音声特徴量算出手順が算出する音声特徴量が所定の近さにあって、当該音声特徴量に近い音声特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記音声特徴量算出手順が算出する音声特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する手順と
前記コンピュータに実行させる機械学習プログラム。
The facial feature amount calculation procedure for calculating the facial feature amount from the user's face data taken by the camera, and the facial feature amount calculation procedure.
A voice feature calculation procedure for calculating a voice feature from the user's voice data collected by the microphone, and a voice feature calculation procedure.
A procedure for operating a label database that stores a record containing the face feature amount or the voice feature amount, the user's personal identification label, and the user's personal identification information.
A face individual identification procedure that outputs a user's personal identification label by searching the label database for a record containing a face feature amount close to the face feature amount calculated by the face feature amount calculation procedure.
A voice personal identification procedure for outputting a user's personal identification label by searching the label database for a record containing a voice feature amount close to the voice feature amount calculated by the voice feature amount calculation procedure.
The difference between the face feature amount calculated by the face feature amount calculation procedure when the user's personal identification label is output in the face individual identification procedure and the face feature amount of the user in the label database is predetermined. When the value becomes larger than the value, the procedure for updating the facial feature amount of the user in the label database to the facial feature amount calculated by the facial feature amount calculation procedure, and
The difference between the voice feature amount calculated by the voice feature amount calculation procedure when the user's personal identification label is output in the voice individual identification procedure and the voice feature amount of the user in the label database is predetermined. When the value becomes larger than the value, the procedure for updating the voice feature amount of the user in the label database to the voice feature amount calculated by the voice feature amount calculation procedure and the procedure.
Is a machine learning program that lets a computer execute
The label database further stores a record containing the face feature amount or the voice feature amount, the emotion label, and the user's personal identification information, and further stores the record.
The label is a record in which the facial feature amount calculated by the facial feature amount calculation procedure is close to a predetermined value for a predetermined time, and the facial feature amount close to the facial feature amount and the personal identification information of the user are included. Includes the facial feature amount calculated by the facial feature amount calculation procedure when it does not exist in the database, the personal identification information of the user, and the emotional label of the emotion obtained by inquiring the user about the emotion. The procedure for adding a record to the label database and
The label is a record in which the voice feature amount calculated by the voice feature amount calculation procedure is close to a predetermined value for a predetermined time, and the voice feature amount close to the voice feature amount and the user's personal identification information are included. Includes the voice feature amount calculated by the voice feature amount calculation procedure when it does not exist in the database, the personal identification information of the user, and the emotion label of the result obtained by inquiring the user about the emotion. The procedure for adding a record to the label database
A machine learning program that causes the computer to execute.
JP2019505810A 2017-03-14 2018-02-21 Machine learning equipment and machine learning programs Active JP7082444B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017048259 2017-03-14
JP2017048259 2017-03-14
PCT/JP2018/006267 WO2018168369A1 (en) 2017-03-14 2018-02-21 Machine learning device and machine learning program

Publications (2)

Publication Number Publication Date
JPWO2018168369A1 JPWO2018168369A1 (en) 2020-01-30
JP7082444B2 true JP7082444B2 (en) 2022-06-08

Family

ID=63521992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019505810A Active JP7082444B2 (en) 2017-03-14 2018-02-21 Machine learning equipment and machine learning programs

Country Status (3)

Country Link
JP (1) JP7082444B2 (en)
TW (1) TW201833802A (en)
WO (1) WO2018168369A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11664033B2 (en) 2020-06-15 2023-05-30 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7276763B2 (en) * 2019-01-04 2023-05-18 株式会社DSi identification system
JP7086020B2 (en) * 2019-03-13 2022-06-17 株式会社日立ビルシステム Work support device, elevator system and work support method
KR20200141672A (en) * 2019-06-11 2020-12-21 주식회사 룩시드랩스 Method for emotion recognition and device for emotion recognition using the same
JP7453169B2 (en) 2021-02-24 2024-03-19 Kddi株式会社 Model, device, and method for estimating emotions through emotion type group identification
DE102021205970A1 (en) * 2021-06-11 2022-12-15 Volkswagen Aktiengesellschaft Method for diagnosing a disease, preferably a respiratory disease
JP7444820B2 (en) * 2021-08-05 2024-03-06 Necパーソナルコンピュータ株式会社 Emotion determination device, emotion determination method, and program
JP7445933B2 (en) 2022-06-02 2024-03-08 ソフトバンク株式会社 Information processing device, information processing method, and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126813A (en) 2002-09-30 2004-04-22 Toshiba Corp Personal identification system, personal identification method, entry/exit management system and entry/exit management method
JP2006017936A (en) 2004-06-30 2006-01-19 Sharp Corp Telephone communication device, relay processor, communication authentication system, control method of telephone communication device, control program of telephone communication device, and recording medium recorded with control program of telephone communication device
JP2006113546A (en) 2004-09-14 2006-04-27 Honda Motor Co Ltd Information transmission device
JP2006263348A (en) 2005-03-25 2006-10-05 Toshiba Corp Device, method, and program for identifying user
JP2011223173A (en) 2010-04-06 2011-11-04 Olympus Imaging Corp Photographing device, face image synthesizing device, face image synthesizing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126813A (en) 2002-09-30 2004-04-22 Toshiba Corp Personal identification system, personal identification method, entry/exit management system and entry/exit management method
JP2006017936A (en) 2004-06-30 2006-01-19 Sharp Corp Telephone communication device, relay processor, communication authentication system, control method of telephone communication device, control program of telephone communication device, and recording medium recorded with control program of telephone communication device
JP2006113546A (en) 2004-09-14 2006-04-27 Honda Motor Co Ltd Information transmission device
JP2006263348A (en) 2005-03-25 2006-10-05 Toshiba Corp Device, method, and program for identifying user
JP2011223173A (en) 2010-04-06 2011-11-04 Olympus Imaging Corp Photographing device, face image synthesizing device, face image synthesizing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11664033B2 (en) 2020-06-15 2023-05-30 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Also Published As

Publication number Publication date
TW201833802A (en) 2018-09-16
JPWO2018168369A1 (en) 2020-01-30
WO2018168369A1 (en) 2018-09-20

Similar Documents

Publication Publication Date Title
JP7082444B2 (en) Machine learning equipment and machine learning programs
US11089985B2 (en) Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
CN107209807B (en) Wearable equipment of pain management
US8190544B2 (en) Identifying and generating biometric cohorts based on biometric sensor input
EP3355761B1 (en) Emotional/behavioural/psychological state estimation system
CN109765991A (en) Social interaction system is used to help system and non-transitory computer-readable storage media that user carries out social interaction
WO2019137538A1 (en) Emotion representative image to derive health rating
WO2019086856A1 (en) Systems and methods for combining and analysing human states
KR102453304B1 (en) A system that provides virtual reality content for dementia prevention and self-diagnosis
US20200074361A1 (en) Performance measurement device, performance measurement method and performance measurement program
JP2022546644A (en) Systems and methods for automatic anomaly detection in mixed human-robot manufacturing processes
Sanchez et al. Hidden markov models for activity recognition in ambient intelligence environments
Severin et al. Head gesture recognition using a 6DOF inertial IMU
Aggelides et al. A gesture recognition approach to classifying allergic rhinitis gestures using wrist-worn devices: a multidisciplinary case study
US20200305801A1 (en) Determining health state of individuals
Nazlı et al. Classification of Coronary Artery Disease Using Different Machine Learning Algorithms
NL1044171B1 (en) A method performed by an information processing device, a program product and a system for processing context related operational and human mental brain activity data.
US10079074B1 (en) System for monitoring disease progression
KR20220005945A (en) Method, system and non-transitory computer-readable recording medium for generating a data set on facial expressions
WO2023199839A1 (en) Internal state estimation device, internal state estimation method, and storage medium
US20230210503A1 (en) Systems and Methods for Generating Menstrual Cycle Cohorts and Classifying Users into a Cohort
JP7464759B2 (en) Method and system for improving sleep data measurement by user classification based on sleeper type - Patents.com
US20240215882A1 (en) Systems and Methods for Using Mobile and Wearable Video Capture and Feedback Plat-Forms for Therapy of Mental Disorders
Çokçetn et al. Machine Learning-Based Biometric Authentication with Photoplethysmography Signal
Sohail et al. A CNN-based Deep Learning Framework for Driver's Drowsiness Detection.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R150 Certificate of patent or registration of utility model

Ref document number: 7082444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150