JP7082444B2 - Machine learning equipment and machine learning programs - Google Patents
Machine learning equipment and machine learning programs Download PDFInfo
- Publication number
- JP7082444B2 JP7082444B2 JP2019505810A JP2019505810A JP7082444B2 JP 7082444 B2 JP7082444 B2 JP 7082444B2 JP 2019505810 A JP2019505810 A JP 2019505810A JP 2019505810 A JP2019505810 A JP 2019505810A JP 7082444 B2 JP7082444 B2 JP 7082444B2
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- label
- user
- voice
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 44
- 230000008451 emotion Effects 0.000 claims description 169
- 230000006870 function Effects 0.000 claims description 110
- 238000004364 calculation method Methods 0.000 claims description 70
- 238000000034 method Methods 0.000 claims description 70
- 230000001815 facial effect Effects 0.000 claims description 46
- 230000002996 emotional effect Effects 0.000 claims description 8
- 206010044565 Tremor Diseases 0.000 claims description 7
- 230000036772 blood pressure Effects 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 3
- 230000008909 emotion recognition Effects 0.000 description 9
- 230000037007 arousal Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000003745 diagnosis Methods 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 4
- 230000036760 body temperature Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 206010010904 Convulsion Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 210000000577 adipose tissue Anatomy 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 230000004622 sleep time Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N99/00—Subject matter not provided for in other groups of this subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明は、個人特定や感情認識、体調推測に用いられる特徴量を蓄積する機械学習装置および機械学習プログラムに関する。 The present invention relates to a machine learning device and a machine learning program for accumulating features used for individual identification, emotion recognition, and physical condition estimation.
コンピューティングパワーの増大に伴い、顔や音声から個人の特定や感情の認識ができるようになってきている。また、ウェアラブル機器(スマートウォッチ、活動量計)の普及に伴い、体の動き・体温・心拍などの人の生体状態も取得できる。これに伴い、個人を特定して当該個人の感情まで認識することで、人とロボットの対話をスムーズにしたり、健康・運動管理の面からアドバイスするサービスが提供されたりしている。 With the increase in computing power, it has become possible to identify individuals and recognize emotions from faces and voices. In addition, with the spread of wearable devices (smart watches, activity meters), it is possible to acquire the biological conditions of a person such as body movement, body temperature, and heart rate. Along with this, by identifying an individual and recognizing the emotion of the individual, a service that facilitates dialogue between a person and a robot and provides advice from the aspect of health and exercise management is provided.
個人特定や感情認識の実現には、機械学習という技術が用いられている。機械学習には、事物のデータ(訓練データ)からパターンをコンピュータが見つけ出す学習と、学習した後に未知の事物のデータから何の事物かを判断する推測との、2つの過程がある。訓練データには事物を示すラベルが付与されており、個人特定では個人識別情報のラベル、感情認識では喜び・怒りなどのラベルが付与される。通常は、学習した後に推測するが、推測の精度を上げるために、学習を繰り返し行うこと(再学習)もある。 Machine learning is used to identify individuals and realize emotion recognition. Machine learning has two processes: learning that a computer finds a pattern from the data of things (training data), and guessing what the thing is from the data of unknown things after learning. Labels indicating things are given to the training data, and labels such as personal identification information are given for personal identification and labels such as joy and anger are given for emotion recognition. Normally, the guess is made after learning, but in order to improve the accuracy of the guess, the learning may be repeated (re-learning).
特許文献1に記載の技術は、機械学習の1つであり、利用者の個性を認識して個人特定や感情認識の精度を向上することを目指している。
The technique described in
特許文献1に記載の発明においては、感情認識精度、引いては個人特定精度を向上させるために、認識した感情の正否を利用者に問い合わせていた(特許文献1の図15と段落0063参照)。この問い合わせを行うタイミングは、感情を認識した後であり(特許文献1の図7のステップ102と段落0036参照)、繰り返し実行される。
しかしながら、人の感情は本人ですら確実に認識できるとは限らず、感情を繰り返し回答するのは、利用者にとって非常に煩わしく、できる限り問い合わせを減らすことが望ましい。また、体調の認識については記載がない。In the invention described in
However, a person's emotions cannot always be recognized reliably even by the person himself / herself, and it is very troublesome for the user to repeatedly answer the emotions, and it is desirable to reduce the number of inquiries as much as possible. In addition, there is no description about recognition of physical condition.
そこで、本発明は、個人特定や感情認識、体調推測の精度を向上させることができる機械学習装置および機械学習プログラムを提供することを課題とする。 Therefore, it is an object of the present invention to provide a machine learning device and a machine learning program capable of improving the accuracy of individual identification, emotion recognition, and physical condition estimation.
前記の課題を解決するため、本発明は、カメラとマイクが接続された機械学習装置であって、前記カメラが撮影した前記機械学習装置の利用者の顔データから顔特徴量を算出する顔特徴量算出部と、前記マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出部と、前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを記憶する記憶部と、前記ラベルデータベースを更新するキャリブレーション機能部と、前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定部と、前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定部とを備え、前記キャリブレーション機能部は、前記顔個人特定部が前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出部が算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出部が算出した顔特徴量に更新し、前記音声個人特定部が前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出部が算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出部が算出した音声特徴量に更新することを特徴とする機械学習装置とした。 In order to solve the above-mentioned problems, the present invention is a machine learning device in which a camera and a microphone are connected, and a face feature that calculates a facial feature amount from the face data of a user of the machine learning device taken by the camera. The amount calculation unit, the voice feature amount calculation unit that calculates the voice feature amount from the voice data of the user collected by the microphone, the face feature amount or the voice feature amount, the user's personal identification label, and the user. , A storage unit that stores a label database that stores records including personal identification information of the user, a calibration function unit that updates the label database, and a face that is close to the face feature amount calculated by the face feature amount calculation unit. A record including a face personal identification unit that outputs a user's personal identification label by searching a record containing a feature amount in the label database and a voice feature amount close to the voice feature amount calculated by the voice feature amount calculation unit. Is provided with a voice personal identification unit that outputs the user's personal identification label by searching the label database, and the calibration function unit outputs the user's personal identification label by the face personal identification unit. When the difference between the face feature amount calculated by the face feature amount calculation unit and the face feature amount of the user in the label database becomes larger than a predetermined value, the user in the label database The face feature amount is updated to the face feature amount calculated by the face feature amount calculation unit, and the voice feature calculated by the voice feature amount calculation unit when the voice personal identification unit outputs the user's personal identification label. When the difference between the amount and the voice feature amount of the user in the label database becomes larger than a predetermined value, the voice feature amount calculation unit calculates the voice feature amount of the user in the label database. It is a machine learning device characterized by updating to the voice features.
本発明によれば、個人特定や感情認識、体調推測の精度を向上させることができる機械学習装置および機械学習プログラムを提供することが可能となる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a machine learning device and a machine learning program capable of improving the accuracy of individual identification, emotion recognition, and physical condition estimation.
≪ソフトウェア構成≫
以下、本発明を実施するための形態を各図を参照して説明する。図1は、本実施形態に係る機械学習装置800のソフトウェア機能の構成を示す図である。ソフトウェア機能は、コンフィグ設定801、結果出力機能803、センシングデータ受信機能804、信号処理機能805、機械学習機能807、特徴量算出機能808、個人・感情推測機能809、体調推測機能810、故障診断機能811、キャリブレーション機能812を含む。≪Software configuration≫
Hereinafter, embodiments for carrying out the present invention will be described with reference to each figure. FIG. 1 is a diagram showing a configuration of software functions of the
機械学習装置800には、カメラ、マイク、心拍センサなどのセンサ820がケーブルや近距離無線通信などを用いて接続されていて、設定DB(Database)802とラベルDB56と一時ラベルDB57とラベル履歴DB58とを備える。
コンフィグ設定801は、人やモノを含めた外部環境をセンシングするセンサ820や機械学習装置800であるコンピュータのハードウェア環境に関するパラメータを設定する機能である。設定DB802は、コンフィグ設定801を用いて設定されたパラメータが格納されるデータベースである。結果出力機能803は、後述する個人・感情推測機能809、体調推測機能810などが推測した結果を出力する機能である。Sensors 820 such as a camera, a microphone, and a heart rate sensor are connected to the
The
センシングデータ受信機能804は、センサ820からのデータを受信する機能である。信号処理機能805は、センサ820から受信した画像、音声などのデータを処理する機能であり、フーリエ変換、画像処理、フィルタリングなどを行う。
機械学習機能807は、ニューラルネットワークや遺伝的プログラミング、サポートベクタマシンなど各種機械学習モデルを用いた汎用の機械学習の機能である。特徴量算出機能808は、センシングデータ受信機能804が受信したデータを信号処理機能805で処理して、特徴量を算出し、機械学習機能807に入力させる。音声の特徴量には声のピッチ・高さなどがあり、顔の特徴量には目や口の端点の位置関係などがある。The sensing
The
個人・感情推測機能809は、人(機械学習装置800の利用者)のセンシングデータから機械学習機能807を用いて個人を特定したり感情を推測したりする。体調推測機能810は、人のセンシングデータから機械学習機能807を用いて体調を推測する。故障診断機能811は、機器のセンシングデータから機械学習機能807を用いてその機器の故障原因を診断したり故障を予測したりする。個人・感情推測機能809、体調推測機能810、故障診断機能811が推測・診断した結果は、結果出力機能803を用いて出力される。
The individual /
キャリブレーション機能812は、特徴量算出機能808が算出する特徴量と、個人・感情推測機能809、体調推測機能810、故障診断機能811が推測・診断した結果(個人識別情報のラベルや怒り・喜びなどの感情のラベルなど)との関係を更新する。
ラベルDB56には、個人特定や感情認識(推測)に用いられるラベルと特徴量の関係が含まれる。一時ラベルDB57には、推測された結果であるラベルが一時的に格納される。ラベル履歴DB58には、感情や体調の経年変化をモニタするために、推測されたラベルの履歴が格納される。上記3つのDBには、個人の情報が含まれるため、安全に記憶される必要がある。
以下で説明する個人特定や感情認識、体調推測の精度を向上させることができる機械学習装置800は、上記のソフトウェア機能を用いて実現される。The
The label DB 56 includes a relationship between a label used for individual identification and emotion recognition (guessing) and a feature amount. The label that is the estimated result is temporarily stored in the temporary label DB 57. The label history DB 58 stores the history of the inferred label in order to monitor the secular variation of emotions and physical condition. Since the above three DBs contain personal information, they need to be stored safely.
The
≪機械学習装置の機能構成≫
図2は、本実施形態に係る機械学習装置800の機能構成を例示する図である。機械学習装置800は、入出力部822、制御部823、記憶部824、ハイパーバイザ825、リアルタイムOS826、セキュアOS827、リッチOS828、特徴量算出機能808、機械学習機能807、キャリブレーション機能812、個人・感情・体調推測部52、ラベルDB56、一時ラベルDB57、ラベル履歴BD58を備える。また、機械学習装置800には、カメラ21、マイク22、心拍センサ23が接続される。≪Functional configuration of machine learning device≫
FIG. 2 is a diagram illustrating a functional configuration of the
入出力部822は、通信ネットワークカード他から構成され、カメラ21やタッチパネル(不図示)などの装置・機器とのデータの送受信を行う。センシングデータ受信機能804は、入出力部822を経由してカメラ21、マイク22、心拍センサ23からのデータを受信する。記憶部824は、RAM(Random Access Memory)やROM(Read Only Memory)、ハードディスクから構成され、各種プログラムを記憶したり、ラベルDB56、一時ラベルDB57、ラベル履歴DB58を記憶したりする。制御部823は、CPU(Central Processing Unit)から構成され、記憶部824に記憶されている図1に記載の各種機能のプログラムやその他のプログラムを実行することで機械学習装置800を機能させる。
The input / output unit 822 is composed of a communication network card and the like, and transmits / receives data to / from a device / device such as a
ハイパーバイザ825は、1つのコンピュータ上で複数のコンピュータ(OS(Operating System))を仮想的に動作させるプログラムである。リアルタイムOS826は、ハイパーバイザ825上で動作し、処理時間保証が求められるアプリケーションプログラムが動作するOSである。セキュアOS827は、ハイパーバイザ825上で動作し、高いセキュリティが求められるアプリケーションプログラムが動作したり、データが格納されたりするOSである。リッチOS828は、高度なGUI(Graphical User Interface)が必要なアプリケーションプログラムが動作するOSである。
The
特徴量算出機能808は、顔特徴量算出部31、音声特徴量算出部32、心拍数取得部33を備えていて、実時間処理が求められるのでリアルタイムOS826で動作する。機械学習機能807は、顔感情分析部41、顔個人特定部42、音声感情分析部43、音声個人特定部44、心拍分析部45を備えていて、実時間処理が求められるのでリアルタイムOS826で動作する。
個人情報を扱うために、キャリブレーション機能812は、セキュアOS827上で動作し、ラベルDB56、一時ラベルDB57、ラベル履歴BD58は、セキュアOS827上に格納される。The feature
In order to handle personal information, the
顔特徴量算出部31は、カメラ21が撮影した映像データから、利用者の顔の特徴量を算出する。顔特徴量算出部31が算出した特徴量は、顔感情分析部41と顔個人特定部42とに出力される。
音声特徴量算出部32は、マイク22が収音した利用者の音声の特徴量を算出する。音声特徴量算出部32が算出した特徴量は、音声感情分析部43と音声個人特定部44とに出力される。
心拍数取得部33は、心拍センサ23が検出した利用者の心拍数を取得して、心拍分析部45に出力する。The facial feature
The voice feature
The heart
顔感情分析部41は、顔特徴量算出部31が算出した特徴量から、利用者の感情を分析(推測)して、感情ラベルを出力する。感情ラベルには、喜怒哀楽の感情ラベルの他に、後述する図3Aでの座標を示す数値パラメータまたは図3B記載の感情ラベルがある。
図3Aと図3Bは、本実施形態に係る感情種別を説明するための図である。図3Aは、感情を快適度・覚醒度・疲労度の3つの軸を用いて表すことを示している。例えば、「感情:1,-2,0」というラベルは、快適度が1、覚醒度が-2、疲労度が0の状態を示す感情ラベルである。図3Bは、感情を快適度・覚醒度の2軸で示している。「感情:1,2」というラベルは、快適度が1、覚醒度が2の状態を示す感情ラベルである。2つの数値の替わりに、図3Bに示した興奮や警戒などのラベルを用いてもよい。The facial emotion analysis unit 41 analyzes (estimates) the user's emotion from the feature amount calculated by the facial feature
3A and 3B are diagrams for explaining the emotion type according to the present embodiment. FIG. 3A shows that emotions are expressed using three axes of comfort, arousal, and fatigue. For example, the label "emotion: 1, -2, 0" is an emotion label indicating a state in which the comfort level is 1, the arousal level is -2, and the fatigue level is 0. FIG. 3B shows emotions on the two axes of comfort and arousal. The label "emotion: 1, 2" is an emotion label indicating a state in which the comfort level is 1 and the arousal level is 2. Instead of the two numbers, labels such as excitement and alert shown in FIG. 3B may be used.
図2の説明に戻り、顔感情分析部41は、顔特徴量算出部31が出力した特徴量に最も近い特徴量をもつレコードをラベルDB56の中で検索して、感情を分析(推測)する。
図4は、本実施形態に係るラベルDB56のデータ構成を例示する図である。ラベルDB56はテーブル形式のデータベースであり、1つの行(レコード)は1つのラベルの関連情報を表している。ラベルDB56は、種別561と、特徴量562と、ラベル563と、個人ID564と、更新日時565との列(属性)から構成される。Returning to the explanation of FIG. 2, the face emotion analysis unit 41 searches the
FIG. 4 is a diagram illustrating the data structure of the
種別561は、当該レコードの種別を示す。種別には、顔特徴量と感情ラベルを含む顔感情、顔特徴量と個人識別ラベルを含む顔個人、音声特徴量と感情ラベルを含む声感情、音声特徴量と個人識別ラベルを含む声個人、心拍数を含む心拍がある。
特徴量562は、当該レコードを代表する特徴量である。特徴量562の形式や内容は、種別561によって変わる。例えば、種別561が顔感情ならば、特徴量562は、顔特徴量算出部31が算出した特徴量の形式をしている。例えば、種別561が心拍ならば、特徴量562は、心拍数取得部33が取得した心拍数である。
The
ラベル563は、当該レコードのラベルを示す。ラベルの形式は、種別561によって変わる。例えば、種別561が顔感情ならば、ラベル563は、図3Bで説明した快適度と覚醒度との2つのパラメータを用いて感情を表現したラベル(感情ラベル)である。種別561が顔個人ならば、ラベル563は、「個人164」といった個人識別情報を示すラベル(個人識別ラベル)である。他に「体調:不良」などの体調ラベルがある。
個人ID564は、当該レコードが特定個人か一般かを示し、特定個人ならばその個人識別情報であって、一般ならば「000」である。個人ID564が特定個人ならば、特徴量562は当該個人の特徴量を代表する特徴量である。個人ID564が「000」(一般)ならば、特徴量562は個人によらない平均的な特徴量を示す。
更新日時565は当該レコードが作成された日時を示す。The
The update date and
図2の説明に戻り、顔感情分析部41は、種別561が顔感情であって、顔特徴量算出部31が出力した特徴量に最も近い特徴量562をもつレコードをラベルDB56の中で検索して、当該レコードのラベル563を出力することで、感情を推測して、感情のラベル563を一時ラベルDB57と個人・感情・体調推測部52とに出力する。本処理の詳細は、図7を参照して、詳しく後述する。
Returning to the explanation of FIG. 2, the face emotion analysis unit 41 searches the
図5は、本実施形態に係る一時ラベルDB57のデータ構成を例示する図である。一時ラベルDB57はテーブル形式のデータベースである。1つの行は、顔感情分析部41、顔個人特定部42、音声感情分析部43、音声個人特定部44、または、心拍分析部45が出力したラベルを含むレコードである。一時ラベルDB57は、種別571と、特徴量572と、ラベル573と、確度574と、取得日時575との列から構成される。
FIG. 5 is a diagram illustrating the data structure of the
種別571は、ラベルDB56の種別561と同様に、当該レコードの種別を示す。
特徴量572は、当該レコードの特徴量を示し、例えば、当該レコードが、顔感情分析部41が出力したレコードならば、顔特徴量算出部31が出力した特徴量である。
ラベル573は、ラベルDB56のラベル563と同様に当該レコードのラベルを示す。
確度574は、当該レコードのラベル573の確からしさを示し、特徴量572とラベルDB56の検索されたレコードの特徴量562とが近いほど大きな値になる。
取得日時575は、当該レコードが作成された日時である。The
The
The
The
The acquisition date and
図2の説明に戻って、顔個人特定部42は、顔特徴量算出部31が算出した特徴量から、ラベルDB56を検索し、個人を特定(推測)して、個人識別ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
音声感情分析部43は、音声特徴量算出部32が算出した特徴量から、ラベルDB56を検索し、感情を分析(推測)して、感情ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。Returning to the explanation of FIG. 2, the face
The voice emotion analysis unit 43 searches for the
音声個人特定部44は、音声特徴量算出部32が算出した特徴量から、ラベルDB56を検索し、個人を特定(推測)して、個人識別ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
心拍分析部45は、心拍数取得部33が出力した心拍数から、ラベルDB56を検索し、感情や体調を分析(推測)して、感情ラベルや体調ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。The voice
The heart
キャリブレーション機能812は、一時ラベルDB57から、レコードを取得して、ラベルDB56やラベル履歴DB58を更新する。個人のラベル(個人ID564が個人の識別情報)が追加されることで、感情分析の精度を上げることができる。キャリブレーション機能812の処理は、図8と図9を参照して、詳細に後述する。
図6は、本実施形態に係るラベル履歴DB58のデータ構成を例示する図である。ラベル履歴DB58には、検出された感情や体調が分類され、履歴として記録される。ラベル履歴DB58はテーブル形式のデータベースであり、1つの行(レコード)は1つの感情が表れた時間を示している。ラベル履歴DB58は、個人ID581と、ラベル582と、取得日時583と、出現時間584との列から構成される。The
FIG. 6 is a diagram illustrating the data structure of the
個人ID581は当該レコードの感情が推測された個人の識別情報である。ラベル582は当該レコードの感情ラベルである。取得日時583はラベル582の感情が推測された日時を示す。出現時間584は当該レコードの感情が推測された累積時間を示す。
個人・感情・体調推測部52は、個人・感情推測機能809(図1参照)と体調推測機能810とが組み合わされて実現され、顔感情分析部41と、顔個人特定部42と、音声感情分析部43と、音声個人特定部44と、心拍分析部45とが出力したラベルから総合的に個人を特定したり、感情や体調を分析したりする。個人・感情・体調推測部52が特定した個人は、後述するラベルDB更新処理(図8と図9参照)で参照される。The
The individual / emotion / physical condition estimation unit 52 is realized by combining the individual / emotion estimation function 809 (see FIG. 1) and the physical condition estimation function 810, and is realized by the face emotion analysis unit 41, the face
≪機械学習処理≫
図7は、本実施形態に係る機械学習処理全体のフローチャートである。図7を参照して、特徴量算出機能808、機械学習機能807、キャリブレーション機能812の処理を説明する。ステップS111~S114の一連の処理とステップS121~S124の一連の処理とステップS131~S132の一連の処理との3つの一連の処理は、それぞれ非同期的に独立して処理される。例えば、ステップS131~S132の一連の処理が1回実行される間にステップS111~S114の一連の処理が数回実行されることもある。≪Machine learning process≫
FIG. 7 is a flowchart of the entire machine learning process according to the present embodiment. With reference to FIG. 7, the processing of the feature
ステップS111において、顔特徴量算出部31は、カメラ21から利用者の顔画像を取得する。
ステップS112において、顔特徴量算出部31は、顔画像から顔の特徴量を算出して、顔感情分析部41と顔個人特定部42とに出力する。特徴量としては、目の両端と中点と上下点、口の両端と中点と上下点、鼻の先、鼻孔、眉の両端と中点などの点の相対位置関係がある。In step S111, the face feature
In step S112, the face feature
ステップS113において、顔感情分析部41は、顔の特徴量から感情を分析(推測)して、感情ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。詳しくは、顔感情分析部41は、ラベルDB56(図4参照)の中で、種別561が顔感情であり、顔特徴量算出部31が出力した特徴量に最も近い特徴量562をもつレコードを検索して、当該レコードのラベル563を出力することで、感情を分析する。
In step S113, the facial emotion analysis unit 41 analyzes (estimates) emotions from facial features and outputs emotion labels to the
但し、個人・感情・体調推測部52が利用者個人を特定済みならば、顔感情分析部41は、以下のように感情を分析して、感情ラベルを出力する。(1)個人ID564が当該個人の識別情報であるレコードの中で最も近い特徴量562を検索し、顔特徴量算出部31が出力した特徴量との距離を算出する。次に、(2)個人ID564が「000」であるレコードの中で最も近い特徴量562をもつレコードを検索し、顔特徴量算出部31が出力した特徴量との距離を算出する。(1)のレコードが存在して(1)の距離が(2)で算出した距離の所定の倍数より小さいならば、(1)のレコードのラベル563を出力し、そうでなければ(2)のレコードのラベル563を出力する。
However, if the individual / emotion / physical condition estimation unit 52 has already identified the individual user, the facial emotion analysis unit 41 analyzes the emotion as follows and outputs an emotion label. (1) The
なお、ラベルを一時ラベルDB57に出力するとは、一時ラベルDB57にレコードを追加し、種別571は顔感情、特徴量572は顔特徴量算出部31が出力した特徴量、ラベル573はラベル563、確度574は特徴量の近さ、取得日時575は現在時刻に更新することである。
To output the label to the
ステップS114において、顔個人特定部42は、顔の特徴量から個人を特定(推測)して、個人識別ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。詳しくは、顔個人特定部42は、ラベルDB56の中で、種別561が顔個人であり、顔特徴量算出部31が出力した特徴量に所定の近さの特徴量562をもつレコードを検索して、当該レコードのラベル563を出力することで、個人を特定する。
In step S114, the face
所定の近さの特徴量562をもつレコードが存在しなければ、顔個人特定部42は、未登録の利用者としてラベルDB56に新規にレコードを追加する。当該レコードの種別561は顔個人、特徴量562は顔特徴量算出部31が出力した特徴量、ラベル563は新規の個人識別ラベル、個人ID564は新規の個人識別情報、更新日時565は現在時刻である。なお、個人が特定済みであり、ラベルDB56にある当該個人のレコードの特徴量562と、顔特徴量算出部31が出力した特徴量とが所定の近さであれば、個人特定済みの個人識別ラベルを出力する。
ステップS113とS114の処理は、それぞれ非同期的に独立して処理される。If there is no record having the
The processes of steps S113 and S114 are processed asynchronously and independently.
ステップS121~S124の処理は、カメラ21がマイク22に替わり、顔が音声に替わったステップS111~S114と同様の処理である。音声の特徴量としては、ケプストラム分析によるフォルマトン周波数とピーク値、フーリエ変換しての周波数パワー分布、音素を抽出しての喋りの速度などがある。
ステップS131において、心拍数取得部33は、心拍センサ23から利用者の心拍数を取得する。
ステップS132において、心拍分析部45は、ラベルDB56の中で心拍数の近いレコードを検索することで心拍数から感情や体調を分析(推測)して、感情ラベルまたは体調ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。The processing of steps S121 to S124 is the same as that of steps S111 to S114 in which the
In step S131, the heart
In step S132, the heart
ステップS113、S114、S123、S124またはS132において、一時ラベルDB57が更新されると、ステップS151以降のキャリブレーション機能812の処理が始まる。なお、個人・感情・体調推測部52は、出力されたラベルを参照して利用者の個人特定、感情推測、体調推測を行う。特定された利用者の個人識別情報は、後述するステップS151やラベルDB更新処理(ステップS152)で参照される。
ステップS151において、キャリブレーション機能812は、直近に追加された個人識別ラベルに示される特定された個人が既に特定されていた個人と同一であるか判断して、同一(Y)ならステップS154に進み、同一でない(N)ならステップS152に進む。When the
In step S151, the
ステップS152において、キャリブレーション機能812はラベルDB更新処理を行う。本処理の詳細は、図8と図9を参照して、詳細に後述する。
ステップS153において、キャリブレーション機能812は、一時ラベルDB57にあるレコードを全て削除する。
ステップS154において、キャリブレーション機能812は、前回のラベルDB更新処理から所定の時間が経過したか判断して、経過していないならば(N)、最初の処理であるステップS111、S121、S131に戻り、経過していれば(Y)、ステップS152に進む。In step S152, the
In step S153, the
In step S154, the
≪ラベルDB更新処理≫
図8は、本実施形態に係るラベルDB更新処理の中で顔個人ラベル処理と音声個人ラベル処理と顔感情ラベル処理とのフローチャートである。図9は、本実施形態に係るラベルDB更新処理の中で音声感情ラベル処理と心拍ラベル処理、および、ラベル履歴DB更新処理のフローチャートである。図8と図9を参照して、ステップS152に当たる、キャリブレーション機能812がラベルDB56を更新する処理を説明する。≪Label DB update process≫
FIG. 8 is a flowchart of a face personal label process, a voice personal label process, and a face emotion label process in the label DB update process according to the present embodiment. FIG. 9 is a flowchart of the voice emotion label process, the heartbeat label process, and the label history DB update process in the label DB update process according to the present embodiment. With reference to FIGS. 8 and 9, a process corresponding to step S152 in which the
≪ラベルDB更新処理:顔個人と音声個人≫
ステップS212において、キャリブレーション機能812は、一時ラベルDB57(図5参照)のレコードの中で、顔個人の確度が低下していないかを判断する。詳しくは、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔個人のレコードを検索し、確度574の平均値が所定の値より低いか判断する。キャリブレーション機能812は、所定の値より低い確度574のレコードが所定の比率より高ければ、確度が低下したと判断してもよい。≪Label DB update process: Face individual and voice individual≫
In step S212, the
ステップS213において、キャリブレーション機能812は、確度が低下した(Y)と判断したらステップS214に進み、低下していない(N)と判断したらステップS215に進む。
ステップS214において、キャリブレーション機能812は、新しい特徴量を算出してラベルDB56の当該個人識別ラベルのレコードを更新する。ラベルDB56の当該個人識別ラベルのレコードとは、ラベル563が特定済みの個人に当たる個人識別ラベルであり、種別561が顔個人であるレコードのことである。In step S213, the
In step S214, the
キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔個人のレコードを検索し、当該レコードの特徴量572から新しい特徴量を算出して、ラベルDB56の当該個人識別ラベルのレコードの特徴量562を更新する。新しい特徴量を算出するには、一時ラベルDB57から抽出した特徴量572の平均的な特徴量を算出してもよいし、特徴量572が最も密集しているところから代表となる特徴量を選定してもよい。また、新しい特徴量でラベルDB56の特徴量562を更新してもよいし、新しい特徴量とラベルDB56の特徴量562との中間となる特徴量で更新してもよい。キャリブレーション機能812は、更新日時565を現在時刻に更新する。
The
ステップS215において、キャリブレーション機能812は、ラベルDB56の当該個人識別ラベルのレコードが前回更新から所定の期間が過ぎていないか判断する。詳しくは、キャリブレーション機能812は、ラベルDB56のレコードでラベル563が特定済みの個人に当たる個人識別ラベルであり、種別561が顔個人であるレコードの更新日時565が所定の期間より以前でないか判断する。
In step S215, the
ステップS216において、キャリブレーション機能812は、所定の期間が過ぎた(Y)と判断したらステップS217に進み、過ぎていない(N)と判断したらステップS222に進む。
ステップS217において、キャリブレーション機能812は、ラベルDB56の当該個人識別ラベルのレコードを更新する。更新の方法は、ステップS214と同様である。
ステップS222~S227は、ステップS212~S217の顔が音声に替わった同様の処理である。In step S216, the
In step S217, the
Steps S222 to S227 are similar processes in which the face of steps S212 to S217 is replaced with voice.
≪ラベルDB更新処理:顔感情と音声感情≫
ステップS231において、キャリブレーション機能812は、顔感情で特徴量が近いレコードであって所定の時間のあいだ連続したものがあるか、一時ラベルDB57を検索する。詳しくは、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔感情のレコードを検索し、特徴量572が近いレコードで、取得日時575が所定の時間のあいだ連続したレコードがあるか検索する。≪Label DB update process: facial emotions and voice emotions≫
In step S231, the
ステップS232において、キャリブレーション機能812は、ステップS231の検索結果のレコードが存在すれば(Y)、ステップS233に進み、そのようなレコードが存在しなければ、ステップT1(図9のステップS241)に進む。
ステップS233において、キャリブレーション機能812は、検索結果のレコードの特徴量572に近い特徴量562を含む顔感情のレコードをラベルDB56の中で検索する。詳しくは、キャリブレーション機能812は、ラベルDB56のレコードの中で、種別561が顔感情、特徴量562が検索結果の特徴量572に所定の値より近いレコードを検索する。In step S232, the
In step S233, the
ステップS234において、キャリブレーション機能812は、ステップS233の検索の結果、近いレコードが存在すれば(Y)、ステップS235に進み、そのようなレコードが存在しなければ、ステップT1(図9のステップS241)に進む。
ステップS235において、キャリブレーション機能812は、ステップS233の検索であるラベルDB56のレコードの個人ID564が特定済みの個人の識別情報であれば、ラベルDB56に登録済みとして、ステップT1(図9のステップS241)に進む。個人ID564が特定済みの個人の識別情報でなければ、キャリブレーション機能812は、ラベルの内容が正しいかを利用者に確認した後に、当該ラベルをラベルDB56に登録する。In step S234, the
In step S235, if the
詳しくは、キャリブレーション機能812は、ステップS233の検索結果であるレコードのラベル573に示される感情に、取得日時575の頃の感情が近かったか、近くなかったらどのような感情だったかを図3Bの図をタッチパネル(不図示)に表示して問い合わせる。次に、キャリブレーション機能812は、レコードを追加し、種別561を顔感情に、特徴量562をステップS233の検索結果のレコードにある特徴量572の平均値に、ラベル563を問い合わせの結果のラベルに、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。特徴量572の平均値の替わりに、ステップS214で説明した代表となる特徴量でもよい。
Specifically, the
ステップS241~S245は、ステップS231~S235の顔感情が音声感情に替わった同様の処理である。
≪ラベルDB更新処理:心拍≫
ステップS251において、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が心拍のレコードを検索し、特徴量572の心拍数が所定の値より高いレコードまたは所定の値より低いレコードで、取得日時575が所定の時間のあいだ連続したレコードがあるか検索する。Steps S241 to S245 are similar processes in which the facial emotions of steps S231 to S235 are replaced with voice emotions.
≪Label DB update process: Heart rate≫
In step S251, the
ステップS252において、キャリブレーション機能812は、ステップS251の検索結果のレコードが存在すれば(Y)、ステップS253に進み、存在しなければ(N)、ステップS261に進む。
ステップS253において、キャリブレーション機能812は、ステップS251での検索結果のレコードにある取得日時575当時の感情ラベルから、所定の心拍数より高くて感情が興奮状態(図3B参照)か、所定の心拍数より低くて感情が沈静状態かに分類されるか判断する。感情ラベルは、取得日時575がステップS251の検索結果のレコードにある取得日時575当時であり、種別571が顔感情または音声感情のレコードのラベル573から取得できる。In step S252, the
In step S253, the
ステップS254において、キャリブレーション機能812は、分類される(Y)のであればステップS255に進み、分類されない(N)のであればステップS256に進む。
ステップS255において、キャリブレーション機能812は、ステップS253の顔感情または音声感情に示される感情に、取得日時575の当時の感情が近かったか、近くなかったらどのような感情だったかを図3Bの感情の図を提示して問い合わせる。次に、キャリブレーション機能812は、ラベルDB56にレコードを追加し、種別561を心拍に、特徴量562をステップS251の検索結果であるレコードの特徴量572の平均値に、ラベル563を問い合わせの結果のラベルに、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。なお、個人向けラベルとしてラベルDB56に登録済み(特徴量562が特徴量572の平均値に近く、個人ID564が特定済み個人の識別情報であるレコードが存在する)ならば、本処理は不要である。In step S254, the
In step S255, the
ステップS256において、キャリブレーション機能812は、取得日時575の頃に体調が悪かったか利用者に問い合わせる。
ステップS257において、キャリブレーション機能812は、問い合わせの結果、体調が悪くなければ(N)、ステップS261に進み、悪ければ(Y)、ステップS258に進む。
ステップS258において、キャリブレーション機能812は、体調不良ラベルのレコードをラベルDB56に追加する。詳しくは、キャリブレーション機能812は、ラベルDB56にレコードを追加し、種別561を心拍に、特徴量562をステップS251の検索結果のレコードに含まれる特徴量572の平均値に、ラベル563を「体調:不良」に、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。In step S256, the
In step S257, the
In step S258, the
≪履歴DB更新処理≫
ステップS261において、キャリブレーション機能812は、検出された感情を分類して、検出された累積時間をラベル履歴DB58(図6参照)に格納する。感情の分類には、図3Bのグラフにおいて原点から所定の近さの領域またはそれ以外の興奮/沈静と快適/不快とで区分けされる4つの象限領域のどこに位置するかで分類される。詳しくは、キャリブレーション機能812は、種別571が顔感情または音声感情であって、ラベル573にある感情ラベルの2つの値が所定値より小さいならば、「感情:0,0」のラベルを付け、興奮で快適な感情と分析されれば「感情:1,1」とラベルを付けて分類する。他の象限も同様である。取得日時575の間隔を検出された時間として、5領域の感情ごとに累積時間を算出して、レコードを追加する。レコードの個人ID581は特定された個人の識別情報、ラベル582は上記に示した感情ラベル、取得日時583は現在時刻、出現時間584は上記の累積時間である。≪History DB update process≫
In step S261, the
≪変形例≫
上記の実施形態では、キャリブレーション機能812のラベルDB更新処理は、所定の時間が経過したときに実行される(図7のステップS154)。顔感情で所定の時間連続した近い特徴量を取得したとき(図8のステップ231)、音声感情で所定の時間連続した近い特徴量を取得したとき(図9のステップ241)、所定の心拍数より高い心拍数が連続したとき(図9のステップS251)、または、所定の心拍数より低い心拍数が連続したとき(ステップS251)に、ラベルDB更新処理を開始してもよい。感情や体調に関する問い合わせが発生する場合(ステップS235、S245、S255、S256)に、発生を検出したときに問い合わせることでより正確な感情や体調を得ることができる。≪Variation example≫
In the above embodiment, the label DB update process of the
上記の実施形態では、生体状態取得のために、カメラやマイク、心拍センサを使っている。これに限らず、体温を取得するセンサや3次元加速度センサを用いて生体状態を取得してもよい。例えば、腕または脚に装着したウェアラブル機器を使って、心拍の他に体温や血圧、体の震えを取得することができる。また、カメラで取得した顔の特徴量から顔の向きや視線の向きを検出することができ、顔の向きや視線の向きの変化量、体の震え量(震えの大きさ、周波数、時間)から発作を含めた体調不良の特徴量を得ることができて、個人・感情・体調推測部52が体調不良を推測できる。 In the above embodiment, a camera, a microphone, and a heart rate sensor are used to acquire the biological state. Not limited to this, a biological state may be acquired by using a sensor that acquires body temperature or a three-dimensional acceleration sensor. For example, a wearable device worn on an arm or leg can be used to obtain body temperature, blood pressure, and tremor in addition to heart rate. In addition, it is possible to detect the direction of the face and the direction of the line of sight from the feature amount of the face acquired by the camera, the amount of change in the direction of the face and the direction of the line of sight, and the amount of body tremor (magnitude, frequency, time of tremor). The characteristic amount of poor physical condition including seizures can be obtained from, and the individual / emotion / physical condition estimation unit 52 can infer the poor physical condition.
機械学習装置800が自動車に搭載されれば、体調不良を推測した時点、または、体調不良の特徴量より異常な心拍や体の震え量などを取得した時点で自動車を止める、または、減速することができ、事故を予防することができる。また、ステップS261において、感情の履歴の他に、体調不良のレコードを集計してラベル履歴DB58に格納することで、体調の経年変化を把握することができる。
なお、他の生体状態情報として、体重、体脂肪率、会話量、睡眠時間、紫外線被爆量、呼吸数、運動量、発声量などを用いてもよい。また、温度、湿度、光量、照度、紫外線量、気圧、騒音などの環境情報を用いて感情や体調を推測し、経年変化をモニタしてもよい。If the
In addition, as other biological state information, body weight, body fat percentage, conversation amount, sleep time, ultraviolet exposure amount, respiratory rate, exercise amount, vocalization amount and the like may be used. In addition, emotions and physical conditions may be estimated using environmental information such as temperature, humidity, amount of light, illuminance, amount of ultraviolet rays, atmospheric pressure, and noise, and changes over time may be monitored.
キャリブレーション機能812は、ステップS151において特定された個人(利用者)が、それ以前に特定されていた個人と異なっていると判断すると、ラベルDB更新処理を実行していた。ただ1回の一時ラベルDB57の更新で異なる個人と判断するのではなく、所定の時間のあいだ異なる個人と判定されてからラベルDB更新処理を開始してもよい。こうすることで、カメラの写り具合や別人の音声混入などにより個人特定が不安定になっても、ラベルDB更新処理が無駄に頻繁に実行されてしまうことを防ぐことができる。
When the
≪効果≫
上記の実施形態では、個人を特定する特徴量が、ラベルDB56にある特徴量から変化した場合(図8のステップS212、ステップS222)や一定時間経過したとき(ステップS215、ステップS225)に、特徴量を更新している。これにより、経年変化が起きた場合でも、個人が特定できなくなることを防止することができる。また、この経年変化した個人特定の特徴量を用いて、より高精度に個人を特定することができる。≪Effect≫
In the above embodiment, when the feature amount for identifying an individual changes from the feature amount on the label DB 56 (step S212, step S222 in FIG. 8) or when a certain period of time has elapsed (step S215, step S225), the feature amount is characterized. The amount is being updated. This makes it possible to prevent an individual from becoming unidentifiable even if secular variation occurs. In addition, it is possible to identify an individual with higher accuracy by using the characteristic amount of individual identification that has changed over time.
上記の実施形態では、顔の特徴量や音声の特徴量に表れた感情は、感情が表れた直後ではなく、所定の時間あいだに連続して表れたのち(図8のステップS231、図9のステップS241)に利用者に問い合わせてラベルDB56に登録している。感情が所定の時間のあいだ連続しているので、利用者は当該感情を認識しやすく、正確な感情を得てラベルDB56に登録できる。引いては、個人・感情・体調推測部52が、感情をより正確に推測することができる。
In the above embodiment, the emotions appearing in the facial features and the voice features appear continuously for a predetermined time, not immediately after the emotions appear (steps S231 and 9 in FIG. 8). The user is inquired in step S241) and registered in the
また、問い合わせの前に、ラベルDB56に特定個人レコードとして未登録である(ステップS235、ステップS245)ことを確認している。このため、利用者への問い合わせ回数を削減することができ、回答する煩雑さを軽減することができる。
特定個人の特徴量562と、当該個人に問い合わせた感情のラベル563とを含んだレコードが登録されることで、個々の利用者の感情表現に合わせたラベルDB56を作成することができ、ついては、より精度の高い感情の推測が可能となる。
ラベル履歴DB58(図6参照)から、長期間にわたる利用者の感情の経年変化を把握することができる。例えば、「感情:-1,-1」というラベル582の出現時間584が増加傾向にあれば、利用者が鬱状態に変化していることが分かり、メンタル面で問題が生じている可能性があることを利用者に警告することができる。Further, before making an inquiry, it is confirmed that the record is not registered in the
By registering a record including the
From the label history DB 58 (see FIG. 6), it is possible to grasp the secular variation of the user's emotion over a long period of time. For example, if the
21 カメラ
22 マイク
23 心拍センサ
31 顔特徴量算出部
32 音声特徴量算出部
33 心拍数取得部
41 顔感情分析部
42 顔個人特定部
43 音声感情分析部
44 音声個人特定部
45 心拍分析部
52 個人・感情・体調推測部
56 ラベルDB
57 一時ラベルDB
58 ラベル履歴DB
800 機械学習装置
807 機械学習機能
808 特徴量算出機能
812 キャリブレーション機能21
57 Temporary label DB
58 Label history DB
800
Claims (3)
前記カメラが撮影した前記機械学習装置の利用者の顔データから顔特徴量を算出する顔特徴量算出部と、
前記マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出部と、
前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを記憶する記憶部と、
前記ラベルデータベースを更新するキャリブレーション機能部と、
前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定部と、
前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定部とを備え、
前記キャリブレーション機能部は、
前記顔個人特定部が前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出部が算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出部が算出した顔特徴量に更新し、
前記音声個人特定部が前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出部が算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出部が算出した音声特徴量に更新し、
前記ラベルデータベースは、前記顔特徴量または前記音声特徴量、感情ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに格納し、
前記キャリブレーション機能部は、
所定の時間のあいだ前記顔特徴量算出部が算出する顔特徴量が所定の近さにあって、当該顔特徴量に近い顔特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記顔特徴量算出部が算出する顔特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加し、
所定の時間のあいだ前記音声特徴量算出部が算出する音声特徴量が所定の近さにあって、当該音声特徴量に近い音声特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記音声特徴量算出部が算出する音声特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する
ことを特徴とする機械学習装置。 A machine learning device with a camera and microphone connected
A face feature amount calculation unit that calculates a face feature amount from the face data of a user of the machine learning device taken by the camera, and a face feature amount calculation unit.
A voice feature amount calculation unit that calculates a voice feature amount from the voice data of the user collected by the microphone, and a voice feature amount calculation unit.
A storage unit that stores a label database that stores a record containing the face feature amount or the voice feature amount, the user's personal identification label, and the user's personal identification information.
The calibration function unit that updates the label database,
A face personal identification unit that outputs a user's personal identification label by searching the label database for a record containing a face feature amount close to the face feature amount calculated by the face feature amount calculation unit.
It is provided with a voice personal identification unit that outputs a user's personal identification label by searching the label database for a record containing a voice feature amount close to the voice feature amount calculated by the voice feature amount calculation unit.
The calibration function unit is
The difference between the face feature amount calculated by the face feature amount calculation unit when the face individual identification unit outputs the user's personal identification label and the face feature amount of the user in the label database is predetermined. When it becomes larger than the value, the face feature amount of the user in the label database is updated to the face feature amount calculated by the face feature amount calculation unit.
The difference between the voice feature amount calculated by the voice feature amount calculation unit when the voice individual identification unit outputs the user's personal identification label and the voice feature amount of the user in the label database is predetermined. When it becomes larger than the value, the voice feature amount of the user in the label database is updated to the voice feature amount calculated by the voice feature amount calculation unit.
The label database further stores a record containing the face feature amount or the voice feature amount, the emotion label, and the user's personal identification information.
The calibration function unit is
The label is a record in which the face feature amount calculated by the face feature amount calculation unit is close to a predetermined value for a predetermined time, and the face feature amount close to the face feature amount and the user's personal identification information are included. Includes the facial feature amount calculated by the facial feature amount calculation unit when it does not exist in the database, the personal identification information of the user, and the emotional label of the emotion as a result obtained by inquiring the user about the emotion. Add the record to the label database and
The label is a record in which the voice feature amount calculated by the voice feature amount calculation unit is close to a predetermined value for a predetermined time, and the voice feature amount close to the voice feature amount and the user's personal identification information are included. Includes the voice feature amount calculated by the voice feature amount calculation unit when it does not exist in the database, the personal identification information of the user, and the emotion label of the result obtained by inquiring the user about the emotion. A machine learning device characterized by adding records to the label database .
前記ラベルデータベースは、心拍数、血圧または体の震え量、感情ラベルまたは体調ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに記憶し、
前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを、前記ラベルデータベースで検索することで前記利用者の感情ラベルを出力する顔感情分析部と、
前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを、前記ラベルデータベースで検索することで前記利用者の感情ラベルを出力する音声感情分析部とをさらに備え、
前記キャリブレーション機能部は、
前記心拍センサが接続された場合には、所定の時間のあいだ心拍センサで計測された心拍数が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記心拍数と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加し、
前記血圧センサが接続された場合には、所定の時間のあいだ血圧センサで計測された血圧が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記血圧と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加し、
前記3次元加速度センサが接続された場合には、所定の時間のあいだ3次元加速度センサで計測された体の震え量が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記体の震え量と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加する
ことを特徴とする請求項1に記載の機械学習装置。 A heart rate sensor, blood pressure sensor or 3D accelerometer is connected,
The label database further stores records containing heart rate, blood pressure or body tremor, emotional or physical condition labels, as well as the user's personally identifiable information.
A face emotion analysis unit that outputs a user's emotion label by searching the label database for a record containing a face feature amount close to the face feature amount calculated by the face feature amount calculation unit.
A voice emotion analysis unit that outputs a user's emotion label by searching the label database for a record containing a voice feature amount close to the voice feature amount calculated by the voice feature amount calculation unit is further provided.
The calibration function unit is
When the heart rate sensor is connected, the heart rate measured by the heart rate sensor is out of the predetermined range for a predetermined time, and the emotion label output by the facial emotion analysis unit or the voice emotion analysis unit is displayed. When the predetermined conditions are not met, a record including the heart rate, the personal identification information of the user, and a physical condition label indicating the physical condition obtained by inquiring the user about the physical condition is stored in the label database. Add and
When the blood pressure sensor is connected, the blood pressure measured by the blood pressure sensor for a predetermined time is out of the predetermined range, and the emotion label output by the facial emotion analysis unit or the voice emotion analysis unit is predetermined. When the condition of is not satisfied, a record including the blood pressure, the personal identification information of the user, and the physical condition label indicating the physical condition obtained by inquiring the user about the physical condition is added to the label database. ,
When the three-dimensional acceleration sensor is connected, the amount of body tremor measured by the three-dimensional acceleration sensor during a predetermined time is out of the predetermined range, and the facial emotion analysis unit or the voice emotion analysis unit is used. When the emotional label output by is not satisfied with the predetermined conditions, the amount of tremor of the body, the personal identification information of the user, and the physical condition label indicating the physical condition obtained by inquiring the user about the physical condition. The machine learning apparatus according to claim 1 , wherein a record including the above is added to the label database.
マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出手順と、
前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを操作する手順と、
前記顔特徴量算出手順で算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定手順と、
前記音声特徴量算出手順で算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定手順と、
前記顔個人特定手順で前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出手順で算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出手順で算出した顔特徴量に更新する手順と、
前記音声個人特定手順で前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出手順で算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出手順で算出した音声特徴量に更新する手順と
をコンピュータに実行させる機械学習プログラムであって、
前記ラベルデータベースは、前記顔特徴量または前記音声特徴量、感情ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに格納し、さらに、
所定の時間のあいだ前記顔特徴量算出手順が算出する顔特徴量が所定の近さにあって、当該顔特徴量に近い顔特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記顔特徴量算出手順が算出する顔特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する手順と、
所定の時間のあいだ前記音声特徴量算出手順が算出する音声特徴量が所定の近さにあって、当該音声特徴量に近い音声特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記音声特徴量算出手順が算出する音声特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する手順と
を前記コンピュータに実行させる機械学習プログラム。 The facial feature amount calculation procedure for calculating the facial feature amount from the user's face data taken by the camera, and the facial feature amount calculation procedure.
A voice feature calculation procedure for calculating a voice feature from the user's voice data collected by the microphone, and a voice feature calculation procedure.
A procedure for operating a label database that stores a record containing the face feature amount or the voice feature amount, the user's personal identification label, and the user's personal identification information.
A face individual identification procedure that outputs a user's personal identification label by searching the label database for a record containing a face feature amount close to the face feature amount calculated by the face feature amount calculation procedure.
A voice personal identification procedure for outputting a user's personal identification label by searching the label database for a record containing a voice feature amount close to the voice feature amount calculated by the voice feature amount calculation procedure.
The difference between the face feature amount calculated by the face feature amount calculation procedure when the user's personal identification label is output in the face individual identification procedure and the face feature amount of the user in the label database is predetermined. When the value becomes larger than the value, the procedure for updating the facial feature amount of the user in the label database to the facial feature amount calculated by the facial feature amount calculation procedure, and
The difference between the voice feature amount calculated by the voice feature amount calculation procedure when the user's personal identification label is output in the voice individual identification procedure and the voice feature amount of the user in the label database is predetermined. When the value becomes larger than the value, the procedure for updating the voice feature amount of the user in the label database to the voice feature amount calculated by the voice feature amount calculation procedure and the procedure.
Is a machine learning program that lets a computer execute
The label database further stores a record containing the face feature amount or the voice feature amount, the emotion label, and the user's personal identification information, and further stores the record.
The label is a record in which the facial feature amount calculated by the facial feature amount calculation procedure is close to a predetermined value for a predetermined time, and the facial feature amount close to the facial feature amount and the personal identification information of the user are included. Includes the facial feature amount calculated by the facial feature amount calculation procedure when it does not exist in the database, the personal identification information of the user, and the emotional label of the emotion obtained by inquiring the user about the emotion. The procedure for adding a record to the label database and
The label is a record in which the voice feature amount calculated by the voice feature amount calculation procedure is close to a predetermined value for a predetermined time, and the voice feature amount close to the voice feature amount and the user's personal identification information are included. Includes the voice feature amount calculated by the voice feature amount calculation procedure when it does not exist in the database, the personal identification information of the user, and the emotion label of the result obtained by inquiring the user about the emotion. The procedure for adding a record to the label database
A machine learning program that causes the computer to execute.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017048259 | 2017-03-14 | ||
JP2017048259 | 2017-03-14 | ||
PCT/JP2018/006267 WO2018168369A1 (en) | 2017-03-14 | 2018-02-21 | Machine learning device and machine learning program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018168369A1 JPWO2018168369A1 (en) | 2020-01-30 |
JP7082444B2 true JP7082444B2 (en) | 2022-06-08 |
Family
ID=63521992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019505810A Active JP7082444B2 (en) | 2017-03-14 | 2018-02-21 | Machine learning equipment and machine learning programs |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7082444B2 (en) |
TW (1) | TW201833802A (en) |
WO (1) | WO2018168369A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11664033B2 (en) | 2020-06-15 | 2023-05-30 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7276763B2 (en) * | 2019-01-04 | 2023-05-18 | 株式会社DSi | identification system |
JP7086020B2 (en) * | 2019-03-13 | 2022-06-17 | 株式会社日立ビルシステム | Work support device, elevator system and work support method |
KR20200141672A (en) * | 2019-06-11 | 2020-12-21 | 주식회사 룩시드랩스 | Method for emotion recognition and device for emotion recognition using the same |
JP7453169B2 (en) | 2021-02-24 | 2024-03-19 | Kddi株式会社 | Model, device, and method for estimating emotions through emotion type group identification |
DE102021205970A1 (en) * | 2021-06-11 | 2022-12-15 | Volkswagen Aktiengesellschaft | Method for diagnosing a disease, preferably a respiratory disease |
JP7444820B2 (en) * | 2021-08-05 | 2024-03-06 | Necパーソナルコンピュータ株式会社 | Emotion determination device, emotion determination method, and program |
JP7445933B2 (en) | 2022-06-02 | 2024-03-08 | ソフトバンク株式会社 | Information processing device, information processing method, and information processing program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004126813A (en) | 2002-09-30 | 2004-04-22 | Toshiba Corp | Personal identification system, personal identification method, entry/exit management system and entry/exit management method |
JP2006017936A (en) | 2004-06-30 | 2006-01-19 | Sharp Corp | Telephone communication device, relay processor, communication authentication system, control method of telephone communication device, control program of telephone communication device, and recording medium recorded with control program of telephone communication device |
JP2006113546A (en) | 2004-09-14 | 2006-04-27 | Honda Motor Co Ltd | Information transmission device |
JP2006263348A (en) | 2005-03-25 | 2006-10-05 | Toshiba Corp | Device, method, and program for identifying user |
JP2011223173A (en) | 2010-04-06 | 2011-11-04 | Olympus Imaging Corp | Photographing device, face image synthesizing device, face image synthesizing method, and program |
-
2018
- 2018-02-07 TW TW107104306A patent/TW201833802A/en unknown
- 2018-02-21 JP JP2019505810A patent/JP7082444B2/en active Active
- 2018-02-21 WO PCT/JP2018/006267 patent/WO2018168369A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004126813A (en) | 2002-09-30 | 2004-04-22 | Toshiba Corp | Personal identification system, personal identification method, entry/exit management system and entry/exit management method |
JP2006017936A (en) | 2004-06-30 | 2006-01-19 | Sharp Corp | Telephone communication device, relay processor, communication authentication system, control method of telephone communication device, control program of telephone communication device, and recording medium recorded with control program of telephone communication device |
JP2006113546A (en) | 2004-09-14 | 2006-04-27 | Honda Motor Co Ltd | Information transmission device |
JP2006263348A (en) | 2005-03-25 | 2006-10-05 | Toshiba Corp | Device, method, and program for identifying user |
JP2011223173A (en) | 2010-04-06 | 2011-11-04 | Olympus Imaging Corp | Photographing device, face image synthesizing device, face image synthesizing method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11664033B2 (en) | 2020-06-15 | 2023-05-30 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
Also Published As
Publication number | Publication date |
---|---|
TW201833802A (en) | 2018-09-16 |
JPWO2018168369A1 (en) | 2020-01-30 |
WO2018168369A1 (en) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7082444B2 (en) | Machine learning equipment and machine learning programs | |
US11089985B2 (en) | Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders | |
CN107209807B (en) | Wearable equipment of pain management | |
US8190544B2 (en) | Identifying and generating biometric cohorts based on biometric sensor input | |
EP3355761B1 (en) | Emotional/behavioural/psychological state estimation system | |
CN109765991A (en) | Social interaction system is used to help system and non-transitory computer-readable storage media that user carries out social interaction | |
WO2019137538A1 (en) | Emotion representative image to derive health rating | |
WO2019086856A1 (en) | Systems and methods for combining and analysing human states | |
KR102453304B1 (en) | A system that provides virtual reality content for dementia prevention and self-diagnosis | |
US20200074361A1 (en) | Performance measurement device, performance measurement method and performance measurement program | |
JP2022546644A (en) | Systems and methods for automatic anomaly detection in mixed human-robot manufacturing processes | |
Sanchez et al. | Hidden markov models for activity recognition in ambient intelligence environments | |
Severin et al. | Head gesture recognition using a 6DOF inertial IMU | |
Aggelides et al. | A gesture recognition approach to classifying allergic rhinitis gestures using wrist-worn devices: a multidisciplinary case study | |
US20200305801A1 (en) | Determining health state of individuals | |
Nazlı et al. | Classification of Coronary Artery Disease Using Different Machine Learning Algorithms | |
NL1044171B1 (en) | A method performed by an information processing device, a program product and a system for processing context related operational and human mental brain activity data. | |
US10079074B1 (en) | System for monitoring disease progression | |
KR20220005945A (en) | Method, system and non-transitory computer-readable recording medium for generating a data set on facial expressions | |
WO2023199839A1 (en) | Internal state estimation device, internal state estimation method, and storage medium | |
US20230210503A1 (en) | Systems and Methods for Generating Menstrual Cycle Cohorts and Classifying Users into a Cohort | |
JP7464759B2 (en) | Method and system for improving sleep data measurement by user classification based on sleeper type - Patents.com | |
US20240215882A1 (en) | Systems and Methods for Using Mobile and Wearable Video Capture and Feedback Plat-Forms for Therapy of Mental Disorders | |
Çokçetn et al. | Machine Learning-Based Biometric Authentication with Photoplethysmography Signal | |
Sohail et al. | A CNN-based Deep Learning Framework for Driver's Drowsiness Detection. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7082444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |